Rüdiger Kramme (Hrsg.) Medizintechnik 4., vollständig überarbeitete und erweiterte Auflage
Rüdiger Kramme (Hrsg.)
Medizintechnik Verfahren – Systeme – Informationsverarbeitung
4., vollständig überarbeitete und erweiterte Auflage Mit 926 Abbildungen, davon 123 in Farbe, und 161 Tabellen
1 23
Dipl.-Ing. Rüdiger Kramme Korrespondenz-Anschrift: Fuchsweg 14 79822 Titisee-Neustadt
ISBN-13 978-3-642-16186-5 Springer-Verlag Berlin Heidelberg New York Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. SpringerMedizin Springer-Verlag GmbH ein Unternehmen von Springer Science+Business Media springer.de © Springer-Verlag Berlin Heidelberg 2011
Produkthaftung: Für Angaben über Dosierungsanweisungen und Applikationsformen kann vom Verlag keine Gewähr übernommen werden. Derartige Angaben müssen vom jeweiligen Anwender im Einzelfall anhand anderer Literaturstellen auf ihre Richtigkeit überprüft werden. Die Wiedergabe von Gebrauchsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutzgesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.
Planung: Hinrich Küster, Heidelberg Projektmanagement: Barbara Karg, Kerstin Barton, Heidelberg Lektorat: Volker Drüke, Münster Umschlaggestaltung: deblik Berlin, unter Verwendung einer Abbildung von medicalpicture/högner SPIN 12566532 Satz: TypoStudio Tobias Schaedla, Heidelberg Gedruckt auf säurefreiem Papier
22/2122 – 5 4 3 2 1 0
V
Wäre Isaac Newton ein ungebildeter Mann gewesen, hätte er den Apfel, nachdem er ihn fallen sah, gegessen, statt sich zu fragen, warum er gefallen ist.
John D. Rockefeller
VII
Geleitwort Die hochinnovative und faszinierende Branche Medizintechnik spielt eine bedeutende Rolle am Wirtschaftsstandort Deutschland. Selbst im Krisenjahr 2009 erfuhr der Gesamtumsatz in dieser Branche ein Wachstum – was die Rolle der Medizintechnik als krisenfeste Zukunftsbranche untermauert. Die Investitionen in der medizintechnischen Forschung und Industrie haben eine zunehmende Technisierung des deutschen Gesundheitswesens zum Nutzen des Patienten mit sich gebracht. Eine moderne Medizin ohne High-Tech-Ausstattung ist nicht möglich. Als zukünftige Schlüsseltechnologien in der Medizintechnik gelten die Mikrosystemtechnik, Nanotechnologie, Informations- und Kommunikationstechnologie sowie Zell- und Biotechnologie. Zum Ausbau und Verknüpfung dieser innovativen Bereiche bedarf es kontinuierlicher Forschung und Entwicklung. Innovativ zu sein setzt voraus, Erfahrung mit aktuellem Fachwissen zu verknüpfen und den Mut zu haben, Neues und oft Unkonventionelles anzugehen. Hierzu benötigt man Mitarbeiter, die bereit sind, ihre Fachkenntnisse ständig auf den neuesten Stand zu bringen, und die fähig sind, interdisziplinär zu denken und zu agieren. Gerade solchen engagierten Mitarbeitern im medizintechnischen Bereich und solchen, die es werden wollen, dient dieses Standardwerk in seiner neuen Auflage als umfassende Wissensund Informationsquelle. Die Übersichtsarbeiten der zahlreichen Autoren aus der Wissenschaft, der Praxis und der medizintechnischen Industrie sowie der Informations- und Kommunikationstechnik bieten dem Leser einen eindrucksvollen Querschnitt heutiger apparativer Technik in der Medizin. Das in der vierten Auflage erschienene, von Herrn Rüdiger Kramme herausgegebene Werk bietet ein interdisziplinäres Fachwissen und zugleich eine rasche Orientierung zu aktuellen Entwicklungen im Bereich der Medizintechnik. Dem Buch wünsche ich eine große Leserschaft. Ihnen als Leser wünsche ich durch das Werk Wissensvermehrung und eine dadurch angeregte Umsetzung in der Praxis sowie die Entstehung vieler innovativer Ideen. Prof. Dr. Dr. h.c. mult. Johann Löhn Präsident der Steinbeis-Hochschule Berlin
IX
Vorwort zur 4. Auflage Physikalisch-technische Lösungen und Anwendungen sowie medizinische Kenntnisse und Praktiken sind Ausgangspunkt für den Überblick vielschichtiger und komplexer Zusammenhänge in der heutigen technisierten Medizin. Aufgrund der Datenverdichtung und deren Verarbeitung besteht ein »Zwang« zur Digitalisierung von Gerätschaften und einer durchgehenden IT-Infrastruktur, dem sich Krankenhäuser und Praxen nicht entziehen können. Beispielhaft sind die schnell wachsenden Möglichkeiten der Telemedizin, durch die der medizinische Fortschritt immer schneller weltweite Verbreitung findet. Die Geräte- und Methodenvielfalt nimmt ständig zu, wobei die evolutionären Weiterentwicklungen bereits bestehender Technik im Vordergrund stehen. Im Fokus des Interesses steht die Orientierung an Krankheitsbildern und das Angebot an technischen Lösungen an der Schnittstelle Diagnostik und Therapie. Es zeichnet sich ab, dass die Grenzen zwischen Diagnostik und Therapie durch den Einsatz aktueller technischer Lösungen, wie beispielsweise von interventionellen radiologischen oder endoskopischen Verfahren, sich zunehmend auflösen. In der vorliegenden Neuauflage wurde das bereits vorhandene breite Spektrum an Themen aktualisiert und erweitert. Neben der bewährten Gliederung in einen allgemeinen und speziellen Teil, bietet ein umfangreicher Anhang praktisches Hintergrundwissen anhand zahlreicher Tabellen, Norm- und Anhaltswerten. Ein fachübergreifender historischer Abriss der Medizintechnik und ein ausführliches Sachverzeichnis runden das Buch ab. Bei der Realisierung dieser Auflage habe ich wiederum tatkräftige Unterstützung erhalten. Der Erfolg dieses Buches wäre ohne die engagierte und kompetente Mitarbeit der zahlreichen Autoren aus Wissenschaft und Praxis sowie aus der medizintechnischen Industrie so nicht möglich gewesen. Besonderer Dank gebührt meiner Frau für ihr Engagement und ihre Geduld. Für die angenehme und vertrauensvolle Zusammenarbeit danke ich seitens des SpringerVerlags Frau Karg und Frau Barton (Projektmanagement), Herrn Küster (Projektplanung) sowie Herrn Drüke (Lektorat), Herrn Schaedla (Satz) und allen anderen, die zum Gelingen dieser Auflage beigetragen haben. Titisee, im Frühjahr 2011 Rüdiger Kramme
XI
Vorwort zur 1. Auflage Die Entwicklung zahlreicher medizintechnischer Geräte und Einrichtungen während der letzten 20 Jahre ist vergleichbar mit der Entwicklung des Flugzeugs vom Doppeldecker zum vierstrahligen Düsenjet. Medizin und Technik stehen in einer dynamischen Wechselbeziehung zueinander. Medizinische Fragen fordern mehr und mehr technische Antworten. Neue Möglichkeiten der Technik beeinflussen die moderne Heilkunde. Sie erweitern das diagnostische und therapeutische Potential mit dem Ziel, präzise Informationen über den Gesundheitszustand des Patienten zu liefern, die Lebensqualität der Kranken zu verbessern und die Verlängerung des Lebens, nicht etwa des Sterbens, zu ermöglichen. So sehr auch die Bedeutung der Technik in der Medizin als Werkzeug für den Anwender wächst, bleibt dennoch die Kontinuität der Betreuung durch den Arzt und das Pflegepersonal von vorrangiger Bedeutung. Denn die spezifisch menschlichen Fähigkeiten und Eigenschaften kann – gerade in der Medizin – eine Maschine niemals ersetzen. Ziel dieses Buches ist es, Neues zu vermitteln, bereits Bekanntes in Erinnerung zu rufen sowie Informationen aus den verschiedenen Bereichen der heutigen Medizintechnik bereitzustellen. Zunehmend werden Beschäftigte im Gesundheitswesen mit medizinischen Geräten konfrontiert, ohne ausreichendes Informationsmaterial zur Verfügung zu haben. Während der ärztlichen oder pflegerischen Ausbildung, selbst in der Ausbildung angehender Ingenieure und Techniker für das Gesundheitswesen, wird die Medizintechnik vernachlässigt oder nur marginal behandelt. Diesem Defizit will das vorliegende Buch begegnen. Der – gemessen an der Fülle des zur Verfügung stehenden Materials – knappe Platz zwingt zur Konzentration. In der medizinischen Technik bleibt vieles erklärungsbedürftig – auch für Fachleute, die außerhalb ihres Spezialgebietes Laien sind. Die an der Praxis der Anwender orientierten, aktuellen Beiträge sind für technische Laien leicht verständlich geschrieben. Medizintechnische Fachbegriffe und Zusammenhänge werden erklärt und somit das Verständnis für die aktuelle Medizintechnik gefördert und vertieft. Nutzen Sie dieses Buch als Nachschlagewerk, Ratgeber oder Arbeitsbuch. Neben einem allgemeinen Teil, in dem die Rahmenbedingungen der Medizintechnik dargestellt werden, behandelt der zweite, spezielle Teil Geräte der Funktionsdiagnostik, Bildgebende Systeme, Therapiegeräte und Patientenüberwachungssysteme. Zahlreiche Tabellen, Übersichten und Abbildungen erleichtern das Verständnis. Darüber hinaus werden zwei Spezialthemen (Biowerkstoff Kunststoff und Operationstischsysteme) sowie Beiträge über Kommunikation und Informationsverarbeitungssysteme in der Medizin angeboten. Ein schneller Zugriff zu den einzelnen Themen wird durch ein übersichtliches und gut strukturiertes Sachwortregister gewährt. Darüber hinaus wird im Anhang praktisches Hintergrundwissen anhand zahlreicher systematisierter Tabellen, Norm- und Anhaltswerte geboten. Ein Glossar zur Computer- und Kommunikationstechnik steht ebenfalls zur Verfügung. Ohne die engagierte und kompetente Mitarbeit der Autoren wäre das vorliegende Buch in dieser Form nicht zu realisieren gewesen; deshalb gilt mein besonderer Dank allen, die direkt und indirekt durch ihren Einsatz dieses Buch ermöglicht haben. Kirchhofen, im September 1996 Rüdiger Kramme
XIII
Rüdiger Kramme, Dipl.-Ing., geboren 1954 in Dortmund. ▬ Studium der Biomedizinischen Technik, Krankenhausbetriebstechnik und Volkswirtschaftslehre in Gießen und Freiburg. ▬ Langjährige Berufstätigkeit in Vertrieb, Marketing und Personalentwicklung der medizintechnischen Industrie für Verbrauchsund Investitionsgüter. ▬ Seit 1993 Planung und Projektierung von Universitätskliniken des Landes Baden-Württemberg sowie medizinischen Einrichtungen der Bundeswehr. ▬ Lehrbeauftragter für Medizintechnik der FH-Gießen. ▬ Verfasser zahlreicher Fachpublikationen in Zeitschriften und Büchern. Autor des Springer-Wörterbuchs »Technische Medizin«. ▬ Herausgeber des Springer Handbook of Medical Technology.
Sektionsverzeichnis A
Allgemeiner Teil
– 1
B
Spezieller Teil
I
Funktionsdiagnostische Geräte – 111
II
Bildgebende Systeme – 297
III
Therapiegeräte
IV
Monitoring – 665
V
Medizinische Informationsverarbeitung und Kommunikation – 761
VI
Spezialthemen
VII
Anhang
– 109
– 957
– 421
– 887
XVII
Inhaltsverzeichnis Allgemeiner Teil 1
Die Rolle der Technik in der Medizin und ihre gesundheitspolitische Bedeutung . . . . . . . . . . . . . . . . . .3 R. Kramme, H. Kramme
2
Medizin ist mehr als angewandte Technik für den Menschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 G. Maio
3
Hygiene in der Medizintechnik . . . . . . . . . . . . . . . . . . . 11 H.-M. Just, E. Roggenkamp, A. Reinhardt
4
Vorschriften für Medizinprodukte . . . . . . . . . . . . . . . . 33 M. Kindler, W. Menke
5
Technische Sicherheit von medizintechnischen elektrischen Geräten und Systemen in medizinisch genutzten Räumen . . . . . . . . . . . . . . . . . . 49 R. Kramme, H.-P. Uhlig
6
Ökonomische Aspekte der betrieblichmedizinisch-technischen Einrichtungsplanung (BMTE) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 B. Karweik, H. Knickrehm
11 Lungenfunktionsdiagnostik . . . . . . . . . . . . . . . . . . . . . 131 R. M. Schlegelmilch, R. Kramme 12 Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP) . . . . . . . . . . . 155 K.-P. Hoffmann, U. Krechel 13 Schlafdiagnostiksysteme . . . . . . . . . . . . . . . . . . . . . . . . 193 K.-P. Hoffmann 14 Nystagmographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 K.-P. Hoffmann 15 Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung . . . . . . . . . . . . . . . 217 S. Hoth 16 Grundzüge der ophthalmologischen Messtechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 A. J. Augustin
II
7
8
9
Qualitätsmanagement in der Medizintechnik – Ziele, Elemente und Strukturen . . . . . . . . . . . . . . . . . . . 73 A. Malkmus
Bildgebende Systeme
17 Digitale Radiographie . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 L. Heuser 18 Computertomographie (CT) . . . . . . . . . . . . . . . . . . . . . 317 T. M. Buzug 19 Magnetresonanztomographie (MRT) . . . . . . . . . . . . 339 W. R. Nitz
Aspekte der Planung von Einheiten der Intensivmedizin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 F. K. Borck
20 Ultraschalldiagnostik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 R. Götz, F. Schön
Gebrauchstauglichkeit von Medizinprodukten . . . . 99 U. Matern, D. Büchel
21 Endoskopie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379 K. M. Irion, M. Leonhard 22 Infrarot-Bildgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403 T. M. Buzug
Spezieller Teil I
Funktionsdiagnostische Geräte
10 Kardiologische Basisdiagnostik (Ruhe-EKG, Langzeit-EKG, Belastungs-EKG) . . . . . . 113 R. Kramme
23 Dentale digitale Volumentomographie (DVT) und Navigation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409 D. Schulze, G. Hoffmann 24 Angiographie in der interventionellen Radiologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 D. Pommi
XVIII
Inhaltsverzeichnis
III Therapiegeräte
41 Respiratorisches Monitoring und Pulsoxymetrie . . 709 U. Hieronymi, R. Kramme, H. Kronberg
25 Langzeitbeatmungsgeräte für die Intensivtherapie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423 T. Peyn
42 Metabolisches Monitoring . . . . . . . . . . . . . . . . . . . . . . 725 R. Kramme
26 Defibrillatoren/ICD-Systeme . . . . . . . . . . . . . . . . . . . . . 445 R. Kramme
43 Zerebrales Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . . 729 B. Schultz, A. Schultz, H. Kronberg
27 Lasersysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457 E. Krasicka-Rohde, F. Zgoda
44 Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme . . . . . . . . . . . 739 B. Wacker, M. Maier
28 Anästhesiegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 477 E. Siegel
45 Neonatologisches Monitoring . . . . . . . . . . . . . . . . . . . 751 R. Hentschel
29 Extrakorporale Blutreinigungssysteme . . . . . . . . . . . 495 J. Vienken
V 30 Herz-Lungen-Maschinen (HLM) . . . . . . . . . . . . . . . . . 515 U. Böckler, A. Hahn 31 Einsatz von Stoßwellen in der Medizin . . . . . . . . . . . 533 F. Ueberle 32 Hochfrequenzchirurgie . . . . . . . . . . . . . . . . . . . . . . . . . 565 B. Hug, R. Haag 33 Medizinische Strahlentherapie . . . . . . . . . . . . . . . . . . 589 P. H. Cossmann 34 Mechanische Herzunterstützungssysteme (2010) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 607 R. Hetzer, E. Hennig 35 Herzschrittmachersysteme . . . . . . . . . . . . . . . . . . . . . . 629 A. Bolz 36 Einführung in die Neuroprothetik . . . . . . . . . . . . . . . 645 K.-P. Hoffmann 37 Einführung in die Elektrotherapie . . . . . . . . . . . . . . . 653 W. Wenk
Medizinische Informationsverarbeitung und Kommunikation
46 Fusion von Medizintechnik und Informationstechnologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 763 H. Tanck, M. Heinlein 47 Kommunizierende medizinische Systeme und Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 773 A. Gärtner 48 Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl . . . . . . . . . . . . . . . . . . . . . 781 P. Haas, K. Kuhn 49 Stand, Möglichkeiten und Grenzen der Telemedizin in Deutschland . . . . . . . . . . . . . . . . . . . . . 807 R. Klar, E. Pelikan 50 Telemedizin am Beispiel aktiver Implantate . . . . . . 815 K. P. Koch, O. Scholz 51 Medizinische Bildverarbeitung . . . . . . . . . . . . . . . . . . 825 T. M. Deserno, geb. Lehmann 52 Virtuelle Realität in der Medizin . . . . . . . . . . . . . . . . . 847 W. Müller-Wittig
IV Monitoring 38 Biosignale erfassen und verarbeiten . . . . . . . . . . . . . 667 K.-P. Hoffmann
53 Computerunterstützte Lehr- und Lernsysteme in der Medizin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 859 M. Haag, M. R. Fischer
39 Patientenüberwachungssysteme . . . . . . . . . . . . . . . . 689 U. Hieronymi, R. Kramme
54 PACS/RIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 871 D. Sunderbrink, C. Zapf, A. Bermann
40 Kardiovaskuläres Monitoring . . . . . . . . . . . . . . . . . . . . 695 U. Hieronymi, R. Kramme
55 3D-Postprocessing für die virtuelle Endoskopie . . . 881 G.-F. Rust, S. Marketsmüller, N. Lindlbauer
XIX Inhaltsverzeichnis
VI Spezialthemen 56 Operationstischsysteme . . . . . . . . . . . . . . . . . . . . . . . . . 889 B. Kulik 57 Biomaterialien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 901 L. Kiontke 58 Medizinische Robotersysteme . . . . . . . . . . . . . . . . . . . 915 H. Fischer, U. Voges 59 Medizinische Gasversorgungssysteme . . . . . . . . . . . 927 P. Neu 60 Inkubatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 933 G. Braun, R. Hentschel 61 Chirurgische Scheren – Evolution bis zur Multifunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 939 R. Haag, W. Storz
VII Anhang A
Allgemeine Richtungs- und Lagebezeichnungen des Körpers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 959
B
Organprofile und Tabellen . . . . . . . . . . . . . . . . . . . . . . 961
C
Größen und Einheiten . . . . . . . . . . . . . . . . . . . . . . . . . . 987
D
Abkürzungen, Zeichen und Symbole . . . . . . . . . . . . 991
E
Periodensystem der Elemente . . . . . . . . . . . . . . . . . . . 995
F
Radionuklide (Auswahl) und dosimetrische Grundgrößen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 997
G
Elektromagnetisches Spektrum . . . . . . . . . . . . . . . . . 999
H
Historische Meilensteine in der Technischen Medizin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1001 Danksagung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1019 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1021 Farbteil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1037
XXI
Autorenverzeichnis Augustin, Albert J., Prof. Dr. med. Städt. Klinikum Karlsruhe Augenklinik Moltkestraße 90 76133 Karlsruhe
Bermann, Andreas, Dr. med. Siemens AG, Healthcare Sector Imaging & IT Division 91052 Erlangen
Deserno, Thomas, M., Prof. Dr. rer. nat., Dipl.-Ing. Institut für Medizinische Informatik Universitätsklinikum der RWTH Aachen Pauwelsstraße 30 52057 Aachen
Fischer, Harald, Dr.-Ing.
Böckler, Ulrich
Creamedix GmbH Königsberger Straße 2 76356 Weingarten
Sorin Group Deutschland Lindberghstraße 25 80939 München
Fischer, Martin, Prof. Dr. med. MME (Bern)
Bolz, Armin, Prof. Dr. rer. nat. Universität Karlsruhe Institut für Biomedizinische Technik Kaiserstraße 12 76131 Karlsruhe
Borck, Friedrich Karl, Dipl.-Ing. Arch., M.S. bbe architekten Borck+Boye+Eversberg Kantstraße 134 10625 Berlin
Institut für Didaktik und Bildungsforschung im Gesundheitswesen Universität Witten-Herdecke 58448 Witten
Gärtner, Armin, Dipl.-Ing. Ingenieurbüro für Medizintechnik Edith-Stein-Weg 8 40699 Erkrath
Götz, Rudolf, Dipl.-Ing. Aloka GmbH Halskestraße 25 47877 Willich
Braun, Günther, Dipl.-Ing. (FH)
Heinlein, Michael Mednovo Medical Software Solutions GmbH Bundesallee 13-14 10719 Berlin
Hennig, Ewald, Dr.-Ing. Deutsches Herzzentrum Berlin Augustenburger Platz 1 13353 Berlin
Hentschel, Roland, Priv.-Doz. Dr. med. Universitäts-Kinderklinik Freiburg Mathildenstraße 1 79106 Freiburg
Hetzer, Roland, Prof. Dr. med. Dr. mult. Deutsches Herzzentrum Berlin Augustenburger Platz 1 13353 Berlin
Heuser, Lothar, Prof. Dr. med. Klinikum der Ruhr-Universität Bochum Institut für Diagnostische und Interventionelle Radiologie, Neuroradiologie und Nuklearmedizin Knappschaftskrankenhaus In der Schornau 23-25 44892 Bochum
Universitätsklinik Freiburg Zentrum für Kinderheilkunde und Jugendmedizin Mathildenstraße 1 79106 Freiburg
Haag, Martin, Prof. Dr. sc. hum. Medizinische Informatik Universität Heidelberg/FH Heilbronn Max-Planck-Straße 39 74081 Heilbronn
Hieronymi, Ullrich, Dr.-Ing.
Buzug, Thorsten, Prof. Dr. rer. nat.
Haag, Reiner, Dipl.-Ing.
Hoffmann, Gerhard, Dipl.-Ing.
Institute of Medical Engineering Universität Lübeck Ratzeburger Allee 160 23538 Lübeck
Lawton GmbH & Co.KG Württemberger Str. 23 78567 Fridingen
orangedental Aspachstraße 11 88400 Biberach
Haas, Peter, Prof. Dr. sc. hum.
Hoffmann, Klaus-Peter, Prof. Dr.-Ing.
wwH-c Ernst-Simon-Straße 16 72072 Tübingen
FH-Dortmund, Medizinische Informatik Postfach 105018 44047 Dortmund
Fraunhofer Institut für Biomedizinische Technik Ensheimer Straße 48 66386 St-Ingbert
Cossmann, Peter H., Dr. phil. nat.
Hahn, Andreas, Dr.-Ing.
Hoth, Sebastian, Prof. Dr. rer. nat.
Med Tech Consulting Säntisstr. 10 5430 Wettingen, Schweiz
Sorin Group Deutschland Lindberghstraße 25 80939 München
Universitätsklinikum HNO-Klinik Heidelberg Im Neuenheimer Feld 400 69120 Heidelberg
Büchel, Dirk, Dr. med.
Dräger Medical Deutschland GmbH Moislinger Allee 53-55 23558 Lübeck
XXII
Autorenverzeichnis
Hug, Bernhard, Dr.-Ing.
Kramme, Rüdiger, Dipl.-Ing.
Malkmus, Albrecht, Dipl.-Ing.
KLS Martin GmbH & Co.KG Am Gansacker 1b 79224 Umkirch
Fuchsweg 14 79822 Titisee
GE Medical System Information Technologies GmbH Munzinger Straße 3-5 79111 Freiburg
Irion, Klaus-Martin, Dr.-Ing. Karl Storz GmbH & Co.KG Mittelstraße 8 78532 Tuttlingen
Krasicka-Rohde, Ewa, Dr. med., Dipl.-Ing. Auenweg 38 06847 Dessau-Roßlau
Krechel, Ursula, Dipl.-Ing. Just, Heinz-Michael, Priv.-Doz. Dr. med. Klinikum Nürnberg Institut für Klinikhygiene, Med. Mikrobiologie und Klin. Infektiologie Prof.-Ernst-Nathan-Str. 1 90419 Nürnberg
Universitätsklinik Freiburg Hugstetter Str. 59 79106 Freiburg
Kronberg, Harald, Dr. rer. nat. Am Hohen Rain 6 64720 Michelstadt
Karweik, Bernd, Dipl.-Ing. (FH)
Kuhn, Klaus, Prof. Dr. med.
Teamplan GmbH Heerweg 8 72070 Tübingen
Institut für Medizinische Statistik und Epidemiologie Klinikum rechts der Isar der TU München Ismaninger Straße 22 81675 München
Kindler, Manfred, Dipl. -Ing. Kindler International Division Stemmenkamp 23 59368 Werne
Kiontke, Lothar, Dipl.-Ing. Zimmer Germany GmbH Merzhauser Straße 112 79100 Freiburg
Klar, Rüdiger, Prof. Dr. rer. nat. Institut für Medizinische Biometrie und Medizinische Informatik Stefan-Meier-Straße 26 79104 Freiburg
wwH-c Ernst-Simon-Straße 16 72072 Tübingen
Menke, Wolfgang, Beratender Arzt/ Ingenieur c/o Medizin & Technik Postfach 524 10795 Berlin
Müller-Wittig, Wolfgang, Prof. Dr.Ing.
Leonhard, Martin, Dr. rer. nat.
Neu, Peter, Dr. rer. nat.
Karl Storz GmbH & Co.KG Mittelstraße 8 78532 Tuttlingen
Air Liquide Deutschland GmbH Hans-Günther-Sohl-Straße 5 40235 Düsseldorf
Lindlbauer, Norbert, Ing.
Nitz, Wolfgang R., Priv.-Doz. Dr. rer. nat., Dipl.-Ing. , Dipl.-Phys.
Rendoscopy AG Grubmühlerfeldstraße 54 83131 Gauting
Maier, Martin, Ing. (FH), MBA
Koch, Klaus Peter, Prof. Dr.-Ing. Fachhochschule Trier Schneidershof 54293 Trier
Maio, Giovanni, Prof. Dr. med., M.A.
Fuchsweg 14 79822 Titisee
Matern, Ulrich, Priv.-Doz. Dr. med.
Maquet GmbH & Co.KG 76411 Rastatt
Kulig, Bernhard
Philips Medizin Systeme Böblingen GmbH Hewlett-Packard-Straße 2 71034 Böblingen
Kramme, Heike, Dipl.-Verw.-Wiss.
Rendoscopy AG Grubmühlerfeldstraße 54 83131 Gauting
CAMTech – Centre for Advanced Media Technology, Nanyang Technological University Blk N4, # 2a-32 Nanyang Avenue Singapore 639798
Knickrehm, Heiko, Dipl.-Ing. (FH) Teamplan GmbH Heerweg 8 72070 Tübingen
Marketsmüller, Sebastian
Lehrstuhl für Bioethik Institut für Ethik und Geschichte der Medizin Albert-Ludwigs-Universität Freiburg Stefan-Meier-Straße 26 79104 Freiburg
Siemens AG Healthcare Sector Imaging & IT Division Magnetic Resonance Allee am Röthelheimpark 2 91052 Erlangen
Pelikan, Ernst, Dipl.-Phys. Universitätsklinikum Freiburg Klinikrechenzentrum Agnesenstraße 6-8 79106 Freiburg
Peyn, Thomas Dräger Medical AG & Co.KG Moislinger Allee 53 23542 Lübeck
XXIII Autorenverzeichnis
Pommi, Doris
Schultz, Barbara, Priv.-Doz. Dr. med.
Voges, Udo, Dr. rer. nat.
Siemens AG Healthcare Sector Siemensstr. 1 91301 Forchheim
Arbeitsgruppe Informatik / Biometrie der Anästhesie im Klinikum Region Hannover Krankenhaus Oststadt-Heidehaus Medizinische Hochschule Hannover Podbielskistraße 380 30659 Hannover
Karlsruher Institut für Technologie Institut für Angewandte Informatik Hermann-von-Helmholtz-Platz 1 76344 Eggenstein-Leopoldshafen
Reinhardt, Annette, Dr. med. Klinikum Nürnberg Institut für Klinikhygiene, Med. Mikrobiologie und Klin. Infektiologie Prof.-Ernst-Nathan-Str. 1 90419 Nürnberg
Wacker, Birgit, Dipl.-Inform.
Schulze, Dirk, Priv.-Doz. Dr. med.
Philips Medizin Systeme GmbH Postfach 1473 71004 Böblingen
Im Kreuzacker 6 79252 Stegen
Wenk, Werner
Roggenkamp, Eckhard, Dipl.-Ing.
Siegel, Erich, Priv.-Doz. Dr. rer. nat.
Orffstraße 64 41189 Mönchengladbach
Klinikum Nürnberg Institut für Klinikhygiene, Med. Mikrobiologie und Klinische Infektiologie Prof.-Ernst-Nathan-Str. 1 90419 Nürnberg
Dräger Medical AG & Co. KG Moislinger Allee 53-55 23558 Lübeck
Rust, Georg-Friedemann, Dr. med. Rendoscopy AG Grubmühlerfeldstr. 54 82131 Gauting
Schlegelmilch, Rolf M., Dipl.-Math. SMT medical GmbH & Co. Im Kreuz 9 97076 Würzburg
Storz, Wilfried Geb. Martin GmbH & Co.KG Ludwigstaler Straße 132 78532 Tuttlingen
Sunderbrink, Dirk, Dipl.-Ing., Dipl.-Wirtsch.-Ing. SIEMENS AG, Healthcare Sector Imaging & IT Division 91301 Forchheim
Scholz, Oliver, Dr.-Ing.
Tanck, Hajo, Dipl.-Wirtschaftsinform.
Fraunhofer Institut für Biomedizinische Technik Ensheimerstraße 48 66386 St. Ingbert
Mednovo Medicial Software Solutions GmbH Bundesallee 13-14 10719 Berlin
Schön, Frank
Ueberle, Friedrich, Prof. Dr.-Ing.
Aloka GmbH Halskestraße 25 47877 Willich
Hochschule für angewandte Wissenschaften Hamburg Fachbereich Naturwissenschaftliche Technik Lohbrügger Kirchstr. 65 21033 Hamburg
Schultz, Arthur, Priv.-Doz. Dr. med. Dr. hort. Arbeitsgruppe Informatik / Biometrie der Anästhesie im Klinikum Region Hannover Krankenhaus Oststadt-Heidehaus Medizinische Hochschule Hannover Podbielskistraße 380 30659 Hannover
Uhlig, Hans-Peter, Dipl.-Ing. (FH) Goldberger Straße 57 18273 Güstrow
Vienken, Jörg, Prof. Dr. rer. nat. Fresenius medical Care Deutschland GmbH Else-Kröner-Straße 61352 Bad Homburg v.d.H.
Zapf, Christian, Dipl.-Ing. Siemens AG, Healthcare Sector Imaging & IT Division 91052 Erlangen
Zgoda, Frank Laser-und Medizin-Technologie GmbH, Berlin Fabeckstraße 60-62 14195 Berlin
1 xxxx · xxxx
Allgemeiner Teil
A X
1 Die Rolle der Technik in der Medizin und ihre gesundheitspolitische Bedeutung R. Kramme, H. Kramme
Neue Wege in der Diagnostik und Therapie werden heute in verstärktem Maße durch eine ausgefeilte und erweiterte Technik eröffnet, wobei die evolutionären Weiterentwicklungen bereits bestehender Techniken im Vordergrund stehen. Rasant verläuft die Entwicklung zahlreicher medizinischer Geräte und Einrichtungen aufgrund digitaler Technologien, die es ermöglichen, neue medizinische Konzepte, Strategien und Visionen schneller als zuvor umzusetzen, d. h. das, was sich bisher in einem Jahrzehnt vollzogen hat, vollzieht sich nun im Jahresrhythmus. Damit steht die Technik nicht nur in dynamischer Wechselbeziehung zur Medizin, sondern sie beeinflusst und prägt die moderne Heilkunde aufgrund neuer technischer Möglichkeiten. Ein hochwertiges Gesundheitswesen wäre ohne medizintechnischen Fortschritt und Innovation nicht denkbar. Medizin (lat. ars medicina, ärztliche Kunst) und Technik (gr. Fertigkeit) haben die Menschen seit ihren Anfängen begeistert und fasziniert. Technische Instrumente und Geräte hatten immer ihren Platz in der Medizin. Aus der fernöstlichen Medizin ist die Akupunkturnadel seit etwa 2500 v. Chr. bekannt. Hippokrates (460–370 v. Chr.), Begründer der abendländischen wissenschaftlichen Medizin, verwendete als bedeutender Arzt seiner Zeit bereits ein Proktoskop zur Darminspektion. Darüber hinaus hat er eine Vielzahl von Instrumenten und Vorrichtungen für die Wundversorgung beschrieben, beispielsweise Apparaturen mit Gewichten und Bändern, die bei einer Armfraktur die gebrochenen Knochen zueinander positionierten, streckten und gleichzeitig ruhigstellten. Bereits im Imperium Romanum (ab 63 v. Chr.)
wurden, wie archäologische Ausgrabungen im verschütteten Pompeji eindrucksvoll belegen, differenzierte Instrumente und Geräte für chirurgische Eingriffe verwendet. Die vielen von uns vertraute Sehhilfe (sog. Brille) ist keine Errungenschaft des 20. Jahrhunderts, sondern wurde bereits Ende des 13. Jahrhunderts von einem Handwerker erfunden. Der erste große medizintechnische Durchbruch und Aufschwung in der modernen Medizin erfolgte um 1900 mit Röntgens Entdeckung der nach ihm benannten Röntgenstrahlen (1895). Obwohl bereits 1895 von Einthoven die Nomenklatur des EKG – die noch heute unverändert Gültigkeit besitzt – festgelegt wurde, konnte der erste klinisch brauchbare Elektrokardiograph erst 1903 eingesetzt werden. 1896 wurde von Riva-Rocci die nichtinvasive palpatorische Messmethode zur Bestimmung des Blutdrucks vorgestellt. Das Elektroenzephalogramm (EEG) wurde erstmals 1924 von Berger mit einem Saitengalvanometer abgeleitet. Weitere Meilensteine in der Medizintechnik waren die Erfindung und Einführung der künstlichen Niere (1942), der Herz-Lungen-Maschine (1953), Hüftgelenkprothesen (1960), künstlichen Herzklappen (1961) und der ersten klinischen Patientenüberwachungsgeräte (um 1965). Um 1960 wurden in den USA bereits klassifizierte Kriterien für die Vermessung und Standardisierung des EKG nach dem Minnesota-Code entwickelt. Anfang der 1940er Jahre wurde mit der Konstruktion des ersten elektrischen Rechners eine neue Ära eingeleitet, und es entstand eine neue Technologie, die die Medizintechnik ein weiteres Mal revolutionierte: die Datenverarbeitung bzw. Informatik. Diese neue Technologie stellt alle bisherigen
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _1, © Springer-Verlag Berlin Heidelberg 2011
4
1
Kapitel 1 · Die Rolle der Technik in der Medizin und ihre gesundheitspolitische Bedeutung
technischen Entwicklungen in den Schatten. Wäre ein heutiger Taschenrechner mit elektronischen Bauteilen (z. B. Transistoren) von vor 40 Jahren ausgestattet, so würde dieser Taschenrechner eine Leistung von 6000 W – über die Stromversorgung zugeführt und als Wärme an die Umgebung abgegeben – benötigen. Leichte 50 kg und eine Würfelkantenlänge von circa einem Meter ließen eher auf einen Ofen als auf einen Taschenrechner schließen. Der Umbruch der Technologie von der analogen zur digitalen Technik eröffnete neue Dimensionen in der Medizintechnik: Der Computertomograph (CT), der Körperquerschnittsbilder erzeugt, wurde von Hounsfield und Cormark entwickelt und 1971 als Prototyp in einer Klinik installiert und erprobt. Der Durchbruch für die medizinische Anwendung von Kernspin- bzw. Magnetresonanztomographen gelang 1977 Mansfield mithilfe des Magnetresonanzverfahrens. Erstmals erfolgte eine Abbildung des menschlichen Brustkorbs ohne Einsatz von Röntgenstrahlen. Einzigartige und erweiterte Möglichkeiten in der Diagnostik eröffnet ein medizintechnisches Großsystem, das in der Nuklearmedizin eingesetzt wird: der Positronenemissionstomograph (PET). Als bildgebendes System bereichert der PET die Diagnostikpalette dadurch, dass Darstellungen von physiologischen und metabolischen Prozessen im menschlichen Körper ortsabhängig und quantitativ bestimmt werden können. Einblicke in das Verborgene bietet die Molekulare Bildgebung mit hybriden PET/CT-Scannern. Aber auch andere Hybride wie Ultraschall und Magnetresonanztomograph haben nicht nur den Vorteil, dass sie im Vergleich zu anderen bildgebenden Verfahren eine weitaus präzisere und detailgetreue Qualität aufweisen, sondern zudem auch ohne Strahlenbelastung einsetzbar sind. Die Strahlendosis bei Ganzkörperscans konnte bisher bis zu 40% gegenüber älteren Systemen reduziert werden. Durch die zunehmende Integration von rechnergestützten Systemen in die Röntgentechnik werden bildgebende Verfahren in immer kürzeren Zyklen neu dimensioniert. Die rasche Ausweitung des klinischen Anwendungsspektrums, die kontinuierliche Weiterentwicklung und die Implementierung neuer Techniken haben nicht nur zu einem veränderten und erweiterten Indikationsspektrum dieser Verfahren geführt, darüber hinaus werden zunehmend Bildgebungstechniken als Gesamtlösungspakete entwickelt, wie z. B. Hybridsysteme für die interventionelle Radiologie oder integrierte IT-Lösungen (PACS, RIS u. a.), die darauf abzielen, eine Prozessoptimierung und damit eine höhere Effizienz im Krankenhaus zu erreichen. Die zunehmende Vernetzung der Technik wird das Gesundheitssystem verändern. Den Fortschritt und die Entwicklung ( Anhang G »Historische Meilensteine in der Technischen Medizin«) aller medizintechnischen Geräte und Errungenschaften zu
skizzieren würde den Rahmen dieses Buches sprengen. Obwohl die Medizintechnik meist nicht originär ist, sondern vielmehr technische Entwicklungen aus Technologiefeldern wie der Elektronik, Optik, Feinwerktechnik, Kunststofftechnik u. a. übernimmt und diese erst durch die Anwendung an Lebewesen zur Medizintechnik deklariert werden, konnte sie sich etablieren und ist aus der medizinischen Versorgung nicht mehr wegzudenken. Aus diesem Sachverhalt geht die eigentliche Bedeutung der Medizintechnik hervor: Medizintechnische Geräte und Einrichtungen (inklusive Labor- und Forschungsbereich) sind einzelne oder miteinander verbundene Instrumente, Apparate, Vorrichtungen, Hilfsmittel und Hilfsgeräte sowie notwendige Einrichtungsgegenstände, die aufgrund ihrer Funktion zur Erkennung (Diagnostik), Behandlung (Therapie), Überwachung (Monitoring) und Verhütung (Prävention) von Erkrankungen beim Menschen eingesetzt werden.
Ziel unserer Gesundheitspolitik muss eine menschliche, moderne, leistungsfähige, effiziente und bürgernahe medizinische Versorgung im stationären sowie im ambulanten Bereich sein, in deren Mittelpunkt der Patient steht. Diagnostik und Therapie werden sich künftig an der Genetik des Patienten ausrichten, wobei sich technische Lösungen an der Schnittstelle zwischen Diagnostik und Therapie orientieren. Ein weiterer Trend ist die Orientierung an Krankheitsbildern. Dieser Aspekt ist umso wichtiger, da die Risiken akuter Krankheiten aufgrund der Alterung der Gesellschaft steigen werden. Investitionen in die Gesundheitsversorgung sollen einen Nutzen erbringen; nicht nur betriebswirtschaftlich, sondern auch volkswirtschaftlich. Die Entwicklung der Medizintechnik als wesentlicher Bestandteil des Gesundheitswesens erfolgt in permanenter Wechselwirkung mit den Fortschritten der gesellschaftlichen Lebensformen. Daher basiert die gesundheitspolitische Bedeutung der Medizintechnik im Wesentlichen auf folgenden Punkten: ▬ Der Qualität und Sicherung der medizinischen Versorgung aufgrund der kontinuierlichen Differenzierung und Verbesserung der Diagnose- und Therapiemöglichkeiten sowie der Förderung der medizinischen und technischen Forschung; des Weiteren auf der breiten Anwendung und Ausdehnung auf große Bevölkerungs- oder Patientengruppen durch apparative Reihenuntersuchungen (z. B. im Rahmen der Prävention). ▬ Der Verkürzung der Krankheitsdauer oder des Krankenhausaufenthalts, wodurch Kosten reduziert werden und damit verbunden volkswirtschaftliche Nutzeffekte resultieren. ▬ Der Entlastung des Personals von zeitaufwändigen Routineaufgaben.
5 Kapitel 1 · Die Rolle der Technik in der Medizin und ihre gesundheitspolitische Bedeutung
▬ Der Erfüllung von Erwartungshaltung bzw. Anspruchsniveau der Bevölkerung an Prozess- und Ergebnisqualität im Gesundheitswesen. Die zukünftigen Entwicklungen in der technischen Medizin müssen sich an den zusätzlichen Anforderungen der medizinischen Versorgung aufgrund knapper Ressourcen orientieren: ▬ Medizintechnische Diagnostik und Therapie mit hohem Kostensenkungspotential unter Einsatz von umweltfreundlichen Geräten und Systemen. ▬ Weiterer Ausbau minimalinvasiver Verfahren mit der Zielsetzung geringer Morbidität und kurzer Rekonvaleszenz. ▬ Miniaturisierte Kompaktsysteme, die einen geringeren Installations- und Serviceaufwand benötigen. ▬ Bedienungsfreundliche und -sichere Konzeption, die Fehlbedienungen weitgehend vermeidet. Invasive Techniken werden zunehmend durch weniger invasive bzw. nichtinvasive ersetzt, wie beispielsweise die Nierenstein- und Gallensteinzertrümmerung mit einem Lithotripter anstelle eines operativen Eingriffs, endoskopisch minimalinvasive Eingriffe anstelle konventioneller Chirurgie, 3D-Echokardiographie zur Darstellung komplexer Fehlbildungen am Herzen, pathomorphologischer Veränderungen an der Mitral- oder Trikuspidalklappe und Vorhof- oder Ventrikelseptumdefekten anstelle einer aufwändigen und risikobelasteten Herzkatheteruntersuchung, Darstellung der Herzkranzgefäße mit der Magnetresonanztomographie anstelle einer Kontrastangiographie oder Herzkatheterdiagnostik. Es zeichnet sich ab, dass sich die Grenzen zwischen Diagnostik und Therapie durch den Einsatz aktueller technischer Lösungen zunehmend auflösen, beispielsweise bei interventionellen radiologischen oder endoskopischen Verfahren. Wurden in der klassischen Chirurgie operative Eingriffe mit Skalpell und chirurgischem Instrumentarium durchgeführt, so werden diese in absehbarer Zukunft weitgehend durch »Licht und Schall« von der »unblutigen Chirurgie« ersetzt werden. Erfolgreiche hochenergetische Ultraschalloperationen am Gehirn sind bereits in der Neurochirurgie realisiert worden, sodass sich nicht nur neue Behandlungswege eröffnen, sondern in der neurochirurgischen Therapie schon von einem Paradigmenwechsel die Rede ist. Auch die hirnchirurgische Behandlung mittels Ultraschall bei psychiatrischen Erkrankungen, wie beispielsweise affektiven Psychosen, soll zukünftig möglich sein. Schlüsseltechnik des Gesundheitswesens des 21. Jahrhunderts ist die Telematik, die allen Beteiligten des Gesundheitswesens enorme Vorteile bringen kann, das »Unternehmen Gesundheitswesen« aber auch vor zahlreiche neue Anforderungen in organisatorischer, technischer und rechtlicher Hinsicht stellt. Zentren der Telemedizin-
anwendungen werden zukünftig die Krankenhäuser sein. Telemedizinische Kommunikation und Systeme – also alle IT-Anwendungen im Gesundheitswesen, die über öffentliche oder Fernverkehrsnetze abgewickelt werden – ermöglichen die schnelle Übertragung großer Datenmengen, sodass eine räumliche Entfernung kein Hindernis mehr darstellt. Dies ist auch ein Grund dafür, dass der Telemedizin international eine zunehmend größere Bedeutung beigemessen wird. Die Bestrebungen gehen dahin, eine einheitliche Plattform für die Telematik zu entwickeln, sodass der Einsatz von moderner Telekommunikations- und Informationstechnik die Versorgungsqualität und die Wirtschaftlichkeit zukünftig verbessert. Begrenzte finanzielle Ressourcen der Krankenhäuser lassen es heutzutage nur noch selten zu, alle technischen Neuerungen und Möglichkeiten einzuführen bzw. auszuschöpfen. Daher ist es für den Nutzer unerlässlich, eine Investitionsentscheidung leistungsbezogen und kaufmännisch zu beurteilen (z. B. durch prozessorientierte Technologiebewertung, sog. technology assessment, die in erster Linie Kriterien wie Leistungsfähigkeit, Effektivität und Effizienz berücksichtigt). Insbesondere im Hinblick auf die Vorteilhaftigkeit einer Sachinvestition ist es wichtig, dass nicht emotionale, sondern rationale Entscheidungskriterien im Vordergrund stehen. Eine der Grundsatzfragen ist: Gibt es Grenzen des technischen Fortschritts und wo könnten diese sich befinden? Die Bewertung technischer Möglichkeiten im Hinblick auf den Nutzen für die Patienten erfordert ein Verständnis für die heutige Technik und ihre Grenzen. Vielfach ist das Ziel medizintechnischer Hersteller und Lieferanten, immer bessere und technisch höher entwickelte medizintechnische Produkte sowie medizinische Datenverarbeitungssysteme anzubieten. Das Ergebnis ist, dass heutzutage die Funktionen vieler medizintechnischer Produkte weit über die Bedürfnisse und Nutzungsmöglichkeiten hinausgehen. Der meist nichttechnophile Nutzer zahlt für ein Mehr, das er nicht nutzen kann. Zahlreiche hochentwickelte Geräte und Systeme sind vielleicht technisch vollkommen, aber selten bedarfsgerecht. Technisch ist vieles machbar, aber offensichtlich gleichwohl von Menschen kaum steuerbar, wie etwa die Komplexität unterschiedlichster Softwareschnittstellen, die selbst von hochqualifizierten Technikern nicht mehr vollständig verstanden wird. Das heißt, die technischen Möglichkeiten übersteigen häufig das Vermögen vieler Anwender, damit umzugehen. Unkritische Technikbegeisterung kann deshalb sehr schnell in Technikfeindlichkeit umschlagen! Nichts zu tun oder auf Innovationen zu verzichten und an veralteten technischen Produkten festzuhalten ist aber auch keine Lösung. Der Dienst am Kunden im Krankenhaus oder in der Arztpraxis wird künftig ein Produkt mit größerem Differenzierungspotential werden als die Qualität und technische Leistungsfähigkeit von medizintechnischen Produkten. Die auch künftig unabdingbare
1
6
1
Kapitel 1 · Die Rolle der Technik in der Medizin und ihre gesundheitspolitische Bedeutung
medizintechnische Innovation muss »Menschenmaß« haben und bedarfsgerecht sein. Sie ist einzubetten in das Spannungsfeld aus technisch-wissenschaftlichem Know-how, Markt- und Einzelkundenorientierung. Aus Anwendersicht werden nahezu alle Produkte immer vergleichbarer. Der richtige Dienst am Kunden wird ein weiterer Erfolgsfaktor für Medizinprodukte werden: Es muss verstärkt an Nachfrage gedacht werden, nicht nur »in Angeboten«!
2 Medizin ist mehr als angewandte Technik für den Menschen Ethische Reflexionen zum Verhältnis von Medizin und Technik G. Maio 2.1
Einleitung
– 7
2.2
Technik suggeriert Machbarkeit und Kontrollierbarkeit – 7
2.3
Technik kennt keine Grenze – 8
2.4
Die Technik kann die Frage nach dem Sinn nicht beantworten – 9
2.1
Einleitung
Die Medizin verdankt viele ihrer unbestreitbaren Erfolge der technologischen Entwicklung; ohne die Herausbildung von Techniken hätte die Medizin viele Behandlungsmethoden nicht entwickeln oder anwenden können, die zweifellos ein Segen für den Menschen sind. Und doch hat die Allianz von Medizin und Technik die Heilkunde zuweilen auch geblendet. Die Technik selbst hat die Medizin so sehr geblendet, dass sie nicht mehr erkennt, was die Medizin als Heilkunde ausmacht und worauf es in ihrem Kern wirklich ankommt. Die Technik ist ja nicht nur eine Methode, die gewählt wird, sondern sie ist zugleich auch ein Programm. Ab dem Moment, da die Medizin auf die Krise des Krankgewordenseins eine rein technische Lösung präsentiert, ab diesem Moment hat die Medizin nicht nur eine Methode gewählt, sondern sich zugleich auch einem bestimmten Welt- und Menschenbild verschrieben. Über diese grundlegenden Vorverständnisse über das Menschsein muss nachgedacht werden, wenn man das Verhältnis von Medizin und Technik adäquat verstehen möchte.
2.2
Technik suggeriert Machbarkeit und Kontrollierbarkeit
Bei aller Unwägbarkeit, die immer noch bleibt, geht ein System, das allein auf Technik setzt, von einer hohen Kontrollierbarkeit des Systems aus. Das Nichtkalkulier-
2.5
Technik allein macht keine Medizin human – 9 Literatur
– 10
bare ist dann jeweils nur eine Herausforderung an den Entwickler, die Technik zu perfektionieren, damit sie kontrollierbar wird. Wenn die Technik nun als Mittel für den kranken Menschen eingesetzt wird, und zwar als zentrales Mittel, dann infiltriert dieses Ingenieursdenken zugleich auch das Denken des Arztes. Das heißt nichts anderes, als dass ein Arzt, der ganz auf die Technik setzt, stillschweigend davon ausgeht, dass die Probleme der Medizin grundsätzlich technisch lösbar sind. Wenn ein Problem bleibt, so ist eben die Technik noch nicht ausgereift, so dieses Credo. Damit wird vorausgesetzt, dass grundsätzlich alles machbar ist und dass alle Probleme des Menschen technisch lösbar wären. Ein Beispiel für die Engführung der Behandlung auf das rein Technische ist der Komplex der Reproduktionsmedizin. Gerade die Reproduktionsmedizin, die sich zunehmend als marktgeleitete Serviceindustrie versteht, setzt Hilfe mit Anwendung technischer Apparatur gleich, sie reagiert auf die Sinnkrise vieler Menschen mit der Aufwartung von Technik. Mehr noch: Sie erklärt implizit die technische Lösung als die einzig mögliche Antwort auf die Herausforderung, die sich aus einer ungewollten Kinderlosigkeit ergibt. Damit schafft eine sich so verstehende Medizin nicht nur ein Angebot, sondern auch Normen, denen sich die Menschen, die sich mit ungewollter Kinderlosigkeit konfrontiert sehen, nur schwer entziehen können (Maio 2010b). Vor allem aber versäumt eine so verstandene Reproduktionsmedizin die Chance, die Paare früh genug auf das Potential alternativer Lebensentwürfe einzustimmen. Folge einer solchen Verab-
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _2, © Springer-Verlag Berlin Heidelberg 2011
8
2
Kapitel 2 · Medizin ist mehr als angewandte Technik für den Menschen
solutierung der technischen Lösung ist die Verstetigung der Abhängigkeit infertiler Paare von den technischen Lösungsangeboten der Medizin anstatt sie aufzuschließen für die Einsicht, dass die Sinnkrise auch durch eine neue Sinnstiftung bewältigt werden kann – eine Sinnstiftung, die sich durch das Eröffnen neuer Lebensperspektiven ergeben kann (Maio 2010a). Gerade das Beispiel der Reproduktionsmedizin zeigt auf, dass zu einer humanen Medizin eben nicht nur die technische Versiertheit gehört, sondern dass in gleichem Maße investiert werden muss in eine gute Beratung, ein gutes Gespräch, das im Einzelfall auch das mögliche Scheitern der Technik mit thematisieren müsste. Die Technik suggeriert – wie am Beispiel der Reproduktionsmedizin abgelesen werden kann – eine Machbarkeit und versetzt die »Opfer« der Technik in die Situation, dass sie sich dem so entstandenen technologischen Imperativ nicht entziehen können. Das Schwangerwerden ist – vermittelt über die Technik – jeder Frau eröffnet, und wenn man dennoch unfruchtbar bleibt, dann hat man eben nicht genug investiert oder es nicht oft genug versucht. Der Gedanke, dass die technische Lösung möglicherweise nicht die adäquate sein könnte, dieser Gedanke kommt den allermeisten Ärzten – und sekundär auch den Paaren – nur allzu selten. Die Technik schafft also einen Sog, einen Machbarkeitssog, dem man sich nur schwer entziehen kann. Dies muss bei jeder neuen Technik immer im Auge behalten werden.
2.3
Technik kennt keine Grenze
Eine Grenze kennt die Technik nicht; sie schreitet voran in noch nie beschrittene Gefilde, sie kennt keine Scheu des Neuen, kein Innehalten vor dem Seienden; sie ist stets auf Veränderung und Dynamik ausgerichtet. Mit diesem Grunddenken aber sorgt die Technik dafür, dass innerhalb der Medizin keine Grenze mehr für vernünftig angesehen wird und dass es keinen Zustand gibt, der nicht auch noch einer technischen Optimierung oder Veränderung zugeführt werden könnte. Ein Beispiel hierfür ist die Forschung mit Embryonen. Gerade hier zeigt sich, dass die technische Methode geradezu blind erwogen wird, ohne an die Grenze des moralisch Vertretbaren zu denken. Kritikwürdig ist hierbei der grundlegende Ansatz, für einen unbestritten guten Zweck technische Mittel anzuwenden, die von sich aus problematisch sind. Dass überhaupt die Vernichtung von Embryonen als eine Option in Erwägung gezogen wurde, ist der eigentliche Kern des ethischen Problems, der eben darin besteht, dass die Naturwissenschaft und Technik von ihrem Grundansatz her geradezu blind nach Methoden greift, allein, weil sie sich technisch realisieren lassen oder weil sie dem Ziel, die Verheißungen Realität werden zu lassen, förderlich sind. So zeugt doch allein das Ent-
falten dieser Option bereits von einer problematischen Negierung jedweder Grenzen. Genauso, wie es bestimmte Fragen gibt, die man einem Gegenüber ganz gleich in welcher Situation einfach nicht stellt, weil sie z. B. eine Zumutung wären, so müsste es auch in der technischen Entwicklung und Forschung bestimmte Methoden geben, die man einfach nicht wählt, weil sie in jedem Fall die Gefühle allzu vieler Menschen verletzen und deswegen unzumutbar erscheinen müssten. Das Grundproblem, vor dem die Forschung mit Embryonen steht, ist demzufolge nur entstanden, weil von vornherein die Wahl der Forschungsmethoden blind erfolgte und nicht schon von Anfang an Rücksicht darauf genommen wurde, dass für viele Menschen allein das Ansinnen, Embryonen zu opfern, eine Zumutung darstellt. Und das ist nur ein Beispiel, das stellvertretend für viele andere steht. Man denke auch an die Klonierungstechniken, man denke an die Chimärenbildungen usw. Hier kann man sich eben nicht zurückziehen und als Techniker jegliche Verantwortung von sich weisen. Vielmehr übernimmt der Techniker schon durch die Wahl seiner Methoden eine Verantwortung, und diese Verantwortung muss bereits vor der Entwicklung zur Geltung kommen, damit keine »blinde« Technisierung erfolgt, sondern eine nach menschlichem Maß. Und dieses menschliche Maß muss eben auch über Grenzen nachdenken, muss sich vergegenwärtigen, dass es auch bestimme Verfahren gibt, die von sich aus problematisch sind. Im Bewusstsein dieser Problematik sie dennoch zu wählen und die gesamte Gesellschaft vor vollendete Tatsachen zu stellen kann in bestimmten Konstellationen eine große Bürde bedeuten. Doch es ist nicht nur die moralische Grenze, über die sich die Entwickler von Technik eher unreflektiert hinwegsetzen, sondern die Negierung der Grenze an sich ist das Grundproblem der technischen Entwicklung. Die Technik kennt nicht einen Punkt, an dem man sagen könnte, dass es gut so sei; die Technik bzw. die Menschen, die an technischen Produkten arbeiten, versuchen immer, das Seiende zu überbieten durch ein Noch-schneller, Noch-weiter, Noch-kleiner, Noch-mehr. Dieses Immer-noch-mehr beruht auf einer fehlenden Vorstellung vom idealen Zustand und auf einer Glorifizierung der Effizienz. »Je schneller, desto besser« ist das Credo; je mehr, desto besser usw. Mag dieses Credo im Umgang mit bestimmten Utensilien hilfreich sein, im Kontext der Medizin ist das Credo nicht in jedem Fall verallgemeinerbar. Denken wir an die Diskussion um das Enhancement. Gerade hier zeigt sich doch, dass die Hochschätzung des Immer-mehr gerade dort an Grenzen stößt, wo das Nicht-mehr Sinn macht (Boldt u. Maio 2009). Der Mensch ist eben keine Maschine, die umso besser ist, je schneller sie arbeitet – der Mensch braucht Effizienz genauso wie Muße, er braucht schnelles Erreichen
9 2.5 · Technik allein macht keine Medizin human
von Zielen, er braucht aber auch die Wendungen des Lebens, er braucht den Widerstand, um überhaupt zu reifen. Alles – bis hin zum Menschen selbst – einfach schneller zu machen bedeutet nicht automatisch, dem Menschen selbst einen Dienst zu erweisen. Bezogen auf das Menschsein ist ein Weniger, ein Entschleunigen, ein Innehalten häufig der Weg zum Ziel, sofern man das Ziel eben als das erfüllte Menschsein versteht, und nicht das schnelle Produzieren.
2.4
Die Technik kann die Frage nach dem Sinn nicht beantworten
Die Technik kennt nur zweckrationales Denken, und wenn die Technik als Lösung für den Menschen proklamiert wird, so wird der Mensch innerhalb eines solchen Denkens vornehmlich als Körpermaschine betrachtet. Die Technik fragt nicht nach dem Sinn, nach dem Übergeordneten, ja, sie kann gar nicht nach dem Sinnvollen fragen, weil ihr für diese Fragen Bewertungsinstrumente fehlen, denn die Frage nach dem Sinn kann nun einmal nicht in Zahlen und Messwerten ausgedrückt werden. Besonders heikel ist dies insbesondere für die Technik im Kontext der Medizin. Denn mit dem Siegeszug der Technik ist die Medizin zuweilen einer Verabsolutierung der Naturwissenschaft und Technik zum Opfer gefallen, und dies mit der schwerwiegenden Folge, dass die Medizin immer wieder geneigt ist, nicht nur das Regelrechte, sondern auch das Gute über die Naturwissenschaft definieren zu wollen. Was im Zuge des Selbstverständnisses der Medizin als angewandte Naturwissenschaft und Technik stattfindet, ist eine Gleichsetzung des Funktionsfähigen mit dem Guten, eine Gleichsetzung des naturwissenschaftlich Regelrechten mit dem Guten für den Menschen an sich. Die organische Funktionsfähigkeit wird in diesem Zuge zuweilen schon als Wert betrachtet; was nichts anderes heißt, als dass die Wiederherstellung der Funktionsfähigkeit demnach immer sein müsste. Unter diesem naturwissenschaftlichen Diktum wird der Verlust der Funktionsfähigkeit immer als per se Schlechtes, zuweilen als Versagen der Medizin gedeutet. Beide Schlüsse aber sind in sich problematisch. So kann das Bestreben, die Funktionsfähigkeit in jedem Fall wiederherzustellen, problematisch werden, wenn der Blick für das Ganze verloren geht. Denn bezogen auf das Ganze des Lebens, ist die Wiederherstellung von Funktionsfähigkeit nicht gleichzusetzen mit der Herstellung von Sinnhaftigkeit. Man kann zwar Organe wiederherstellen und sich dennoch innerhalb einer sinnlosen Behandlung bewegen. Je mehr sich die Medizin spezialisiert und sich als Naturwissenschaft versteht, desto mehr behandelt sie zuweilen Organe und Röntgenbilder, sie behandelt Blut-
gase und Laborwerte – aber damit behandelt sie nicht immer zugleich auch den Menschen. Dies wird eben genau dann zu einem ernsthaften Problem, wenn sich die Medizin nur als technisch orientierte Spezialistenmedizin begreift.
2.5
Technik allein macht keine Medizin human
Aus alldem sollte deutlich werden, dass es nicht darum gehen kann, die Technik zu dämonisieren. Die Technik per se ist nicht das Problem der modernen Medizin. Das Problem beginnt erst dann, wenn die Technik in ihrer Bedeutung überschätzt wird, d. h., wenn davon ausgegangen wird, dass die existentiellen Fragen, die das Krankwerden aufwirft, nur über die Technik gelöst werden können. Die zentrale Kritik richtet sich somit nicht gegen die Technik selbst, sondern gegen das Denken, das die Technik zur allein selig machenden Lösung hochstilisiert. Eine Medizin, die das Technische grundsätzlich ablehnt, ist zum Scheitern verurteilt, weil sie dann oft das Potential des Helfenkönnens nicht ausschöpfte. Eine Medizin aber, die sich allein der Technik verschreibt und alles andere ausblendet, wird genauso scheitern. Daher wird eine humane Medizin darauf setzen müssen, die Technik zu implementieren, sich aber stets bewusst zu bleiben, dass der Mensch zu seiner Gesundung oft mehr braucht als eine effektive Technik. Genau zu erkennen, wo die Technik eine gute Lösung für den Menschen ist und wo sie nur eine Scheinlösung darstellt, darin besteht die Kunst des Heilens, die eben eine ausgesprochene praktische Urteilskraft in einem umfassenderen Sinn erfordert, und nicht nur ein technisches Know-how. Das technische Credo in der modernen Medizin übersieht, dass der Arzt in vielen Fällen die Heilung über eine gute Beziehung erreicht, in welcher die Technik eingebettet sein muss. Eine Technik ohne Beziehung wird in aller Regel wenig ausrichten können. Dem technischen Aspekt wird eine enorme Bedeutung beigemessen und das Zwischenmenschliche häufig komplett abgewertet. In dieser Umverlagerung der Prioritäten liegt die größte Herausforderung einer technisierten Medizin. Je mehr die Technik als Ersatz für die Beziehung genommen wird, desto mehr wird sie zum Verlust einer Kultur des Heilens führen. Daher ist die Technik so lange zu begrüßen, wie man von ihr nur das erwartet, was sie tatsächlich lösen kann. Sie darf nicht als Ersatz für alles aufgefasst werden, worauf der kranke Mensch zurecht hoffen wird: gesund zu werden, wo es geht, und Trost und Sinnfindung zu finden, wo diese Heilung nicht mehr möglich ist. Solange sich die Medizin als Heilkunde verstehen möchte – und nicht nur als Reparaturbetrieb –, wird sie in die Tröstung und Sinnfindung mit gleicher Energie investieren müssen wie in die technische Entwicklung.
2
10
Kapitel 2 · Medizin ist mehr als angewandte Technik für den Menschen
Literatur
2 Boldt J, Maio G (2009) Neuroenhancement. Vom technizistischen Missverständnis geistiger Leistungsfähigkeit. In: Müller O, Clausen J, Maio G (Hrsg) (2009) Das technisierte Gehirn. Neurotechnologien als Herausforderung für Ethik und Anthropologie. Mentis Verlag, Paderborn, S 381–395 Maio G (2010a) Zur Hilflosigkeit der modernen Medizin im Hinblick auf die Frage nach dem Sinn. Ethica 1: 3–9 Maio G (2010b) Auf dem Weg zum Kind als erkauftes Dienstleistungsprodukt? Eine ethische Kritik der modernen Reproduktionsmedizin. Zeitschrift für Evangelische Ethik 3: 194–205
11 xxxx · xxxx
Hygiene in der Medizintechnik H.-M. Just, E. Roggenkamp, A. Reinhardt 3.1
Einleitung
3.1.1 3.1.2
Mitarbeiterschutz – 11 Patientenschutz – 12
– 11
3.2
Infektionsentstehung – 12
3.3
Impfungen – 13
3.4
Methoden der Desinfektion – 13
3.4.1 3.4.2 3.4.3 3.4.4 3.4.5 3.4.6 3.4.7
Grundlagen – 13 Desinfektionsverfahren – 13 Chemische Desinfektionswirkstoffe – 14 Durchführung der manuellen Desinfektion – 14 Physikalische Desinfektionsverfahren – 15 Einwirkzeiten und Wirkungsbereiche – 19 Vergleich chemischer und physikalischer Desinfektionsverfahren – 19
3.5
Methoden der Sterilisation – 19
3.5.1
Verfahren – 19
3.1
Einleitung
Die Technik erobert in zunehmendem Maß die Medizin. Viele diagnostische wie therapeutische Fortschritte sind erst durch entsprechende technische Verfahren und Weiterentwicklungen möglich geworden. Der Stellenwert der Hygiene wird deutlich, wenn man sich vergegenwärtigt, dass schon vor Jahren knapp die Hälfte aller im Krankenhaus von Patienten erworbenen Infektionen mit medikotechnischen Maßnahmen in Zusammenhang standen oder durch diese (mit)verursacht wurden [33]. Der medizinische Fortschritt bringt immer kompliziertere und ausgefeiltere technische Hilfsmittel/Geräte zum Einsatz, bei deren Anwendung und Aufbereitung auch Mitarbeiter gefährdet sind. Verlässliche Daten aus Deutschland zu bekommen, die einigermaßen repräsentativ sind, ist schwierig, da es hierfür bislang keine zentrale Erfassungsstelle gibt. Als Anhalt sei auf Ausführungen zurückgegriffen, die auf Daten der Berufsgenossenschaft für Gesundheit und Wohlfahrtspflege (BGW) in Hamburg basieren [15]. Danach stellen die infektiösen Erkrankungen nach den Dermatosen die zweitgrößte Gruppe mit einer Häufigkeit von 7,3%, allerdings steigt deren Anteil bei den erstmals entschädigten Berufskrankheiten auf 33%! Aus den Daten geht nicht hervor, welcher Prozentsatz der Dermatosen auch auf technische Handhabungen im weitesten Sinn zurückzuführen ist, etwa den Umgang mit Reinigungs- und Desinfektionsmitteln.
3.6
Nichtinvasive Technik – 24
3.6.1 3.6.2 3.6.3
Am Patienten eingesetzte Geräte – 24 Nicht am Patienten eingesetzte Geräte – 25 Reparatur und Wartung – 25
3.7
Invasive Technik
– 25
3.8
Praktische Beispiele
3.8.1 3.8.2 3.8.3 3.8.4 3.8.5 3.8.6
Postoperative Wundinfektionen – 26 Beatmungsassoziierte Pneumonien – 26 Katheterassoziierte Septikämie – 27 Katheterassoziierte Harnwegsinfektion – 28 Dialyse – 28 Creutzfeldt-Jakob-Erkrankung – 29
3.9
Regelwerke
3.9.1 3.9.2
Technische Regeln für Gefahrstoffe Normen – 30
Literatur
– 25
– 30 – 30
– 31
Hygienemaßnahmen im Zusammenhang mit medizintechnischen Produkten müssen deshalb zwei Ziele verfolgen: 1. Schutz der Mitarbeiter im Umgang mit und 2. Schutz der Patienten bei der Anwendung dieser Produkte vor einer Keimübertragung, die zu einer a. Kontamination, b. Kolonisierung oder c. Infektion führen kann. Welche Maßnahmen im Einzelfall erforderlich sind, um das jeweilige Ziel zu erreichen, hängt von mehreren Faktoren ab.
3.1.1 Mitarbeiterschutz
Bei der Anwendung am Patienten gilt die Regel, sich so zu verhalten, dass das Risiko, mit Keimen des Patienten in Kontakt zu kommen, so gering wie möglich gehalten wird. Dies wird dadurch erreicht, dass vor der erstmaligen Anwendung eines medizintechnischen Produkts eine entsprechende Einweisung zur korrekten Handhabung erfolgt. Hygienerichtlinien regeln, wann welche Schutzmaßnahmen erforderlich sind, die jedoch auch abhängig sind von den Erkrankungen des Patienten, der vermuteten Keimbesiedlung und dem möglichen Übertragungsweg.
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _3, © Springer-Verlag Berlin Heidelberg 2011
X 3
12
3
Kapitel 3 · Hygiene in der Medizintechnik
Beim Umgang mit medizintechnischen Produkten im Rahmen von Aufbereitung, Wartung und Reparatur kann der Mitarbeiter selbst darauf achten, ob das Gerät z. B. bereits außen sichtbar kontaminiert ist oder Bestandteile verschmutzt sind. Insbesondere muss er vom Anwender darüber unterrichtet worden sein, ob das Produkt unmittelbar zuvor bei einem Patienten mit einer übertragbaren Erkrankung bzw. mit besonderen Keimen eingesetzt wurde. Eine desinfizierende Vorreinigung muss in solchen Fällen vor dem Beginn einer Wartung oder Reparatur erfolgt sein. Eine Desinfektion als erster Schritt ist auch immer dann notwendig, wenn der Umgang mit dem Produkt mit einem erhöhten Verletzungsrisiko verbunden ist. Handelt es sich um Wiederaufbereitungsarbeiten, sollten Verfahren eingesetzt werden, die maschinell reinigen und desinfizieren, und das möglichst thermisch und in einem Arbeitsgang. Unter Umständen ist eine bestimmte Schutzkleidung (z. B. Handschuhe) sinnvoll oder sogar vorgeschrieben.
3.1.2 Patientenschutz
Für die erforderlichen Maßnahmen ist entscheidend, wie das medizintechnische Produkt am Patienten eingesetzt wird. Ein dem Patienten implantierter Schrittmacher muss steril und pyrogenfrei sein und während der Insertion auch bleiben. Für ein medizinisches Gerät mit nur äußerlichem (Haut-)Kontakt reicht eine desinfizierende Vorbehandlung, bei einem Gerät, das neben dem Patienten am Bett steht, i.d.R. eine Reinigung. Kommen Teile eines entfernt vom Patienten platzierten Gerätes aber mit sterilen Bereichen des Patienten in Kontakt (z. B. blutführende Schlauchsysteme von Dialyse- oder kardiochirurgischen Geräten), dann muss dieses Systemteil selbstverständlich denselben Kriterien genügen wie ein implantiertes Produkt. Gleiches gilt auch, wenn mit einem Gerät Flüssigkeiten oder Medikamente in sensible (z. B. Lunge bei der maschinellen Beatmung) oder sterile Körperbereiche (z. B. Infusiomaten) eingebracht werden [1, 11, 27]. Im Folgenden werden die Prinzipien zielgerichteter Hygienemaßnahmen erläutert, und es wird anhand von Beispielen aufgezeigt, wie die Risiken erkannt werden und welche risikobezogenen Maßnahmen notwendig sind. Auf die zu beachtenden Regelwerke wird hingewiesen, wobei es die Aufgabe des jeweiligen Bereichsverantwortlichen ist, im Rahmen der regelmäßigen Schulungen den Maßnahmenkatalog neuen wissenschaftlichen Erkenntnissen und Empfehlungen anzupassen. Pauschale Vorgaben, die sich nicht am praktischen Einsatz, dem konkreten Infektionsrisiko und dem Infektionsweg orientieren, sind häufig teuer, weil personal- und zeitintensiv, aber selten effektiv.
3.2
Infektionsentstehung
Voraussetzungen für eine Infektionsentstehung sind ein Infektionserreger, ein für eine Infektion empfänglicher Mensch und ein Kontakt, der es dem Keim ermöglicht, den Menschen so zu besiedeln, dass eine Infektion entstehen kann. Diese Vielzahl an Voraussetzungen macht deutlich, dass es keinen Grund gibt, in einer generellen Angst vor Mikroorganismen zu leben, seien es Bakterien, Viren oder Pilze. Bakterien besiedeln unsere Haut und Schleimhaut und sind ein wichtiger Bestandteil unserer körpereigenen Abwehr. Aus unserem Nasen-RachenRaum können über 40 verschiedene Spezies isoliert werden, und pro Gramm Stuhl leben bis zu 1012 Keime! Die bei jedem Menschen vorhandene Keimbesiedlung der Haut wird unterschieden in eine ständige und eine vorübergehende. Die ständige ist immer vorhanden, die vorübergehende erworben und daher wechselnd, je nachdem, was man angefasst oder welche Arbeit man verrichtet hat. Händewaschen eliminiert den größten Teil (> 90%) dieser erworbenen »Verschmutzung«, lässt die ständige Besiedlung aber unbehelligt. Eine Hände- oder Hautdesinfektion soll die erworbenen Keime vollständig eliminieren, beeinträchtigt aber auch die ständige Hautbesiedlung. Haut und Schleimhaut sind mechanische Barrieren, die, wenn sie unverletzt sind, den Mikroorganismen das Eindringen in unseren Körper verwehren. Das erklärt, warum Verletzungen von Haut und Schleimhaut immer mit einer erhöhten Infektionsgefährdung einhergehen, sei es in Form einer lokalen, oberflächlichen Infektion (Pustel, Abszess), sei es in Form einer – meist bei abwehrgeschwächten Patienten auftretenden – ausgedehnten Weichteilinfektion (Ulkus, Gangrän), in dessen Folge es auch zu einer Sepsis mit hohem Fieber kommen kann. In vielen Regionen hat unser Körper weitere Abwehrmechanismen aufgebaut, wie den Säuremantel der Haut, Mikroorganismen tötende Enzyme in Sekreten und Exkreten (z. B. Augenflüssigkeit) und spezielle Strukturen in unserem Blut, deren Hauptaufgabe es ist, Eindringlinge zu eliminieren. Dazu gehören die weißen Blutkörperchen, die Bakterien »auffressen« und verdauen, und so genannte Antikörper, mit deren Hilfe die Blutkörperchen die Strukturen im Körper erkennen, die sie vernichten sollen. Die Bildung solcher mitunter spezifischen Antikörper erfolgt im lymphatischen Gewebe unseres Körpers nach entsprechendem »Reiz«. Ein solcher Reiz kann ein Kontakt mit dem Infektionserreger selbst (»natürliche Immunisierung«) sein oder durch eine Impfung (»künstliche Immunisierung«, s.unten) erfolgen. Gelingt es einem Keim trotzdem, sich auf Haut oder Schleimhaut festzusetzen, dann ist der erste wichtige Schritt geglückt. Bleibt es bei dieser Kolonisierung, kommt es zwar zu keiner Erkrankung, der Patient oder Mitarbeiter kann aber zu einer (unerkannten) Quelle für weitere Übertragungen werden, sofern es sich um einen
13 3.4 · Methoden der Desinfektion
problematischen Keim (Infektionserreger, multiresistentes Bakterium) handelt. Ist der Keim aber im zweiten Schritt in der Lage, seine krank machenden Eigenschaften zu entfalten und ist die betroffene Person nicht immun, dann kommt es zu einer Infektion, die je nach Gesundheitszustand des Betroffenen zu einer unterschiedlich schwer verlaufenden Erkrankung führen kann.
3.3
Impfungen
Eine der wichtigsten Maßnahmen, sich vor Infektionen zu schützen, ist die Impfung. Die Impfungen, die von der »Ständigen Impfkommission (STIKO)« am Robert-KochInstitut (RKI) empfohlen und regelmäßig aktualisiert werden [30], sind gerade für Mitarbeiter im Gesundheitswesen von besonderer Bedeutung. Die Impfungen der Kategorie S (Standardimpfungen mit allgemeiner Anwendung = Regelimpfungen) sind die Impfungen der Säuglinge und Kinder und sollten bei allen Mitarbeitern im Gesundheitswesen vorhanden und, wenn nötig, regelmäßig aufgefrischt sein. Hierzu zählen so wichtige Impfungen wie Tetanus, Poliomyelitis und Diphtherie. Hinzu können, je nach Arbeitsbereich, so genannte Indikationsimpfungen (Kategorie I) kommen, wie gegen Hepatitis A und B, Influenza und Varizellen. Ansprechpartner bei Fragen zum persönlichen Impfschutz und zu den arbeitsplatzbezogenen Anforderungen ist i.d.R. der Betriebsarzt.
3.4
Methoden der Desinfektion
> Definition Desinfektion ist die gezielte Abtötung oder Inaktivierung von Krankheitserregern mit dem Ziel, deren Übertragung zu verhindern. (TRGS 525)
Wirkungsspektrum als auch der Anwendungsbereich zu berücksichtigen. Den thermischen Desinfektionsverfahren ist, soweit anwendbar, immer der Vorzug vor den chemischen Desinfektionsmitteln und -verfahren zu geben. Chemische Desinfektionsmittel sind, soweit sie keine besonderen Hinweise enthalten, meist nur zur Abtötung von vegetativen Bakterien und Pilzen geeignet. Desinfektionsmittel werden, bevor sie auf den Markt kommen, auf ihre antimikrobielle Wirkung mittels mikrobiologischer Untersuchungen getestet. Hierfür gibt es standardisierte Verfahren, deren Ergebnisse auch darüber entscheiden, ob ein Mittel in die Liste der vom RKI nach dem Infektionsschutzgesetz zugelassenen Mittel [31] aufgenommen wird. Neben dieser »amtlichen« Liste gibt es noch die Liste der von der Desinfektionsmittelkommission im Verbund für Angewandte Hygiene (VAH) e.V. in Zusammenarbeit mit den Fachgesellschaften bzw. Berufsverbänden DGHM, DGKH, GHUP, DVG, BVÖGH und BDH auf Basis der Standardmethoden der DGHM zur Prüfung chemischer Desinfektionsverfahren geprüften und als wirksam befundenen Verfahren für die prophylaktische Desinfektion.
3.4.2 Desinfektionsverfahren Thermische Verfahren kommen nur für thermostabile Gegenstände in Frage, chemische auch für thermolabile
Gegenstände und Flächen. Als Anwendungsbereiche für chemische Desinfektionsverfahren werden unterschieden: ▬ Hände-, Haut- und Schleimhautdesinfektion, ▬ Flächendesinfektion, ▬ Instrumentendesinfektion.
Hände-, Haut-/Schleimhautdesinfektion und Flächendesinfektion 3.4.1 Grundlagen
Die Desinfektion hat somit wie auch die Sterilisation ( Abschn. 3.5) das Ziel, eine Übertragung krank machender Keime zu verhindern. Eine absolute Keimfreiheit (Sterilität) ist aber nicht garantiert. Eine Desinfektion von Geräten und Materialien ist immer dann ausreichend, wenn eine Übertragung von vermehrungsfähigen Mikroorganismen zwar verhindert werden soll, der Körper aber physiologischerweise über einen gewissen Eigenschutz in diesen Bereichen verfügt, wie auch in ansonsten keimbesiedelten Bereichen des menschlichen Körpers (z. B. Magen-Darm-Trakt). Obligat pathogene (immer krank machende) Keime dürfen jedoch auf desinfiziertem Gut nicht vorkommen. Bei der Anwendung von Desinfektionsmitteln und -verfahren sind sowohl das jeweilige mikrobiologische
Hände-, Haut- und Schleimhautdesinfektion sowie die Flächendesinfektion können nur als chemische Desinfektion durchgeführt werden, wobei unterschiedliche keimtötende Substanzgruppen zur Anwendung kommen (⊡ Tab. 3.1). Für die Auswahl eines Mittels ist entscheidend, wofür es eingesetzt werden soll und welche Wirkintensität, aber auch Wirkbreite erforderlich ist. Entsprechende Festlegungen sollten in bereichs- oder verfahrensspezifischen »Hygieneplänen« auf der Basis der entsprechenden KRINKOEmpfehlung »Anforderungen an die Hygiene bei der Reinigung und Desinfektion von Flächen« [23] geregelt sein.
Instrumentendesinfektion Instrumente und Geräte können thermisch, chemothermisch oder auch rein chemisch desinfiziert werden. Die Auswahl des Verfahrens hängt ab von der Eignung des Materials für bestimmte Arten der Desinfektion, von den
3
14
3
Kapitel 3 · Hygiene in der Medizintechnik
⊡ Tab. 3.1. Vor- und Nachteile sowie Anwendungsgebiete der gängigsten Desinfektionsmittelwirkstoffe Wirkstoff
Vorteile
Nachteile
Anwendungsbereich
Alkohole
Schnell wirksam, keine Rückstände, geringe Toxizität, angenehmer Geruch
Nicht sporozid, brennbar/ explosibel, teuer
Händedesinfektion, Hautdesinfektion, kleine Flächen
Jod/Jodophore
Keine Schleimhautreizung, schnell wirksam
Allergien möglich, Eigenfarbe, (Nebenwirkung an Schilddrüse?)
Hautdesinfektion, Schleimhautdesinfektion, Händedesinfektion
Formaldehyd/ Aldehyde
Breites Wirkspektrum, biologisch abbaubar
Reizend, allergen, mäßig toxisch, (karzinogen?)
Flächen, Instrumente, Raumdesinfektion
Quaternäre Ammoniumverbindungen
Gute Reinigungswirkung, geruchsarm, geringe Toxizität
Wirkungslücken, Eiweiß-/ Seifenfehler
Flächendesinfektion in Sonderbereichen (Küche)
Persäuren/Peroxide
Breites Wirkspektrum, schnell wirksam
Eiweißfehler! Korrosiv, reizend, instabil
Flächen, Instrumente
Phenole
Geringe Beeinflussung durch Milieu
Wirkungslücken, biologisch kaum abbaubar
Ausscheidungsdesinfektion, sonst obsolet
örtlichen Gegebenheiten (Infrastruktur) und ggf. besonderen Erfordernissen. Als sicherste Möglichkeit gelten maschinelle thermische Desinfektionen in speziellen Reinigungs- und Desinfektionsgeräten, da nur bei entsprechender Temperatureinwirkung die gewünschte Keimreduktion mit hinreichender Sicherheit garantiert wird. Die Maschinen melden Störungen im Programmablauf, sodass eine versehentliche Entnahme vor Ablauf der Desinfektion nicht möglich ist und Fehler weitestgehend ausgeschlossen werden. Rein chemische Verfahren, wie Einlegen in Lösungen etc., sind demgegenüber anfällig für Fehler in der Aufbereitung und erfordern ein hohes Maß an Zuverlässigkeit beim durchführenden Personal.
tenblätter gem. 91/155/EWG – geändert durch 2001/58/ EWG – zu den jeweiligen Desinfektionsmitteln. Im Hinblick auf Materialverträglichkeit und Wirksamkeit ist besondere Vorsicht geboten bei gummi- und kunststoffhaltigen Materialien.
Standzeit Die maximale Dauer, in der das Mittel bestimmungsgemäß wirkt, kann den jeweiligen Datenblättern entnommen werden. Bei sichtbarer Verschmutzung der Lösung ist diese allerdings sofort zu erneuern. Soweit eine Kombination von Reinigungs- und Desinfektionsmittel verwendet wird, beträgt die Standzeit generell nur 24 Stunden.
3.4.3 Chemische Desinfektionswirkstoffe
In ⊡ Tab. 3.1 sind die gängigsten Desinfektionsmittelwirkstoffe, deren Vor- und Nachteile und deren Anwendungsgebiete wiedergegeben. Die kommerziellen Desinfektionsmittel enthalten in den seltensten Fällen nur einen Wirkstoff, sondern bestehen häufig aus Wirkstoffgemischen, um eine möglichst optimale antimikrobielle Wirksamkeit zu erzielen.
Reihenfolge: Desinfektion und Reinigung Bei Instrumenten, bei denen Verletzungsgefahr besteht, ist eine Desinfektion vor der Reinigung durchzuführen (UVV VBG 103 § 11). In den übrigen Fällen erfolgt die Desinfektion mit oder nach der Reinigung.
Arbeitsweisen 3.4.4 Durchführung der manuellen
Desinfektion Auswahl der Desinfektionsmittel Üblicherweise werden Desinfektionsmittel anhand der VAH-Liste ausgewählt. Dabei ist aber zu beachten, dass neben dem Anwendungsbereich, der Konzentration und Einwirkzeit (voneinander abhängig) auch der erforderliche Wirkungsumfang gewährleistet ist. Im Zweifel muss auf die entsprechenden Gutachten zurückgegriffen werden. Eine weitere wichtige Informationsquelle sind insbesondere aus arbeitsmedizinischer Sicht die Sicherheitsda-
Flächen- bzw. Instrumentendesinfektionsmittel werden von den Herstellern als Konzentrat in verschiedenen Gebindegrößen vom Portionsbeutel bis zum Großgebinde angeboten und müssen vom Anwender durch Zumischen von Wasser in die entsprechende Anwendungskonzentration gebracht werden. Zur Vermeidung von Schaumbildung beim Ansetzen von Desinfektionslösung wird erst das Wasser, dann das Desinfektionsmittel eingefüllt. Das Ansetzen der Lösung erfolgt per Hand mittels Dosierhilfen oder über Zumischgeräte. Der Vorteil bei Verwendung von Zumischgeräten ist die automatische Dosierung des Desinfektionsmittels.
15 3.4 · Methoden der Desinfektion
Desinfektionsmittel dürfen nur für den angegebenen Zweck eingesetzt werden und nicht ohne vorherige Prüfung mit Reinigungsmitteln gemischt werden, da es zu Wirkungsverlusten des Desinfektionsmittels kommen kann (Herstellerangaben beachten). Der Wechsel der Desinfektionslösung wird erforderlich bei Erreichen der vom Hersteller angegebenen Standzeit oder bei sichtbarer Verschmutzung der Lösung. Zu Beeinträchtigungen der Wirkung kann es in englumigen Schläuchen und Rohren, z. B. durch Luftblasen, oder durch Verunreinigungen kommen. Deshalb ist darauf zu achten, dass das Desinfektionsgut komplett und blasenfrei untergetaucht ist und alle Flächen vollständig benetzt sind. Alle Gegenstände sind so weit wie möglich zu zerlegen. Das Einlegen von Instrumenten sollte schonend erfolgen, um Beschädigungen zu vermeiden.
bzw. ein Gesichtsschutz getragen werden. Bei den arbeitsplatzspezifischen Regelungen zum Schutz der Mitarbeiter sollten die entsprechenden Technischen Regeln (TRBA, TRGS) beachtet werden (http://www.baua.de). Gefüllte Desinfektionsbecken sind abzudecken, um ein Abdampfen in die Raumluft zu minimieren. Aus dem gleichen Grund sind Desinfektionslösungen immer mit kaltem (bis maximal handwarmem) Wasser anzusetzen. Desinfektionsmittelkonzentrate dürfen nicht über Augenhöhe gelagert werden.
Besonderheiten Es kann zu unerwünschten Materialbeeinflussungen kommen, wenn ungeeignete Desinfektionsmittel angewendet werden. Auf die Chemikalienbeständigkeit der Produkte muss deshalb immer Rücksicht genommen werden. In Zweifelsfällen sollte beim Instrumentenhersteller nachgefragt werden.
Einspartipps Folgende Möglichkeiten zu Einsparungen können genutzt werden: ▬ Häufig genügt es, statt einer Desinfektion vor einer nachfolgenden Sterilisation nur eine Reinigung durchzuführen. Ausnahmen: Nur spitze, scharfe Gegenstände müssen vor dem Reinigen desinfiziert werden (s.oben). ▬ Wenn zeitlich machbar, sollten geringe Konzentrationen mit längerer Einwirkzeit gewählt werden. ▬ Wenn möglich, auf zusätzliche Reinigungsmittel verzichten, denn eine Desinfektionslösung mit Reinigerzusatz muss täglich gewechselt werden. ▬ Lösung möglichst wenig mit organischem Material verschmutzen, damit kein Wechsel vor dem Ende der Standzeit erforderlich ist. ▬ Gegenstände abwischen statt einlegen.
Ausguss Zum Schutz der Abwasserinstallationen vor Korrosion ist auf ausreichende Verdünnung vor dem Ausgießen zu achten. Instrumentendesinfektionsmittel sind i.d.R. mit Korrosionsinhibitoren versehen. Trotzdem können hohe Konzentrationen für die Abwasserleitungen problematisch sein. Darüber hinaus sind die kommunalen Abwassersatzungen zu beachten. Desinfektionsmittelkonzentrate gelten als Gefahrstoffe und sind als besonders überwachungsbedürftig zu entsorgen.
Personenschutz Beim Ansetzen der Lösung, dem Einlegen/Herausnehmen von Produkten, Entleeren und Reinigen des Beckens sind Handschuhe (Einmal- oder Haushaltshandschuhe) und Schutzkleidung (flüssigkeitsdichte Schürze) zu tragen. Wenn Spritzgefahr besteht, muss eine Schutzbrille
3.4.5 Physikalische Desinfektionsverfahren
Bei den physikalischen Desinfektionsverfahren unterscheidet man zwischen thermischen und chemothermischen Desinfektionsverfahren.
Thermische Desinfektionsverfahren Bei den thermischen Desinfektionsverfahren werden die Krankheitserreger durch die Einwirkung von Wärme unschädlich gemacht. Die Wirksamkeit der Verfahren ist umso größer, je höher die Temperatur und je länger die Einwirkungsdauer ist. Je nach An- oder Abwesenheit von freiem Wasser wird in der Anwendungspraxis zwischen »trockener Wärme« und »feuchter Wärme« unterschieden. Für die Bekämpfung von Krankenhausinfektionen ist nur die »feuchte Wärme« von Bedeutung. Bei der Behandlung mit »feuchter Wärme« unterscheidet man zwischen zwei Verfahren: ▬ dem Spülen mit heißem Wasser (Reinigungs-/Desinfektionsgeräte) und ▬ dem Behandeln mit Wasserdampf (Dampfdesinfektionsverfahren).
Reinigungs-/Desinfektionsgeräte Reinigungs-/Desinfektionsgeräte sind Geräte, in denen die maschinelle Aufbereitung von Instrumenten, Anästhesiezubehör, Labormaterialien (Gläser o.Ä.) und anderen thermostabilen Gegenständen durchgeführt wird. In der Normenreihe DIN EN ISO 15883 – Reinigungs-/Desinfektionsgeräte – werden die Leistungs- und Geräteanforderungen von Reinigungs-/Desinfektionsgeräten festgelegt. Je nach Bauweise unterscheidet man zwischen Reinigungs-/Desinfektionsgeräten mit einer Aufbereitungs-
3
16
3
Kapitel 3 · Hygiene in der Medizintechnik
kammer und Geräten mit mehreren Aufbereitungskammern, den so genannten Taktwaschanlagen. Die Reinigungs-/Desinfektionsgeräte gibt es als Frontlade- (Be- und Entladen im gleichen Raum) oder als Durchladeausführung mit zwei Türen (Trennung in »reine« und »unreine« Seite). Die Taktwaschanlagen (Mehrkammeranlagen) bestehen aus mehreren Waschkammern und Trockenkammern, durch die das Behandlungsgut auf Beschickungswagen durchgeschleust wird. Die Beschickungswagen unterscheiden sich nach den zu behandelnden Produkten. Durch Sensoren an den Beschickungswagen erkennt die Steuerung der Anlage, um welches Behandlungsgut es sich handelt, und wählt automatisch das richtige Aufbereitungsprogramm, sodass Bedienungsfehler durch falsch gewählte Programme, Temperaturen und Zeiten ausgeschlossen sind. Das jeweils ablaufende Desinfektionsverfahren ist üblicherweise chemothermisch oder thermisch. Als Zusatzausführung zur Vorreinigung von stark verschmutzten Teilen kann der Anlage ein Ultraschallbecken vorgeschaltet werden. In jeder Kammer werden unterschiedliche Aufbereitungsschritte durchgeführt. Jeder Kammer sind spezielle Tanks mit den jeweiligen Reinigungsmitteln zugeordnet. Die Reinigungslösung wird in den Tanks aufgefangen und für die nächste Aufbereitungscharge wiederverwendet. Da nicht die gesamte Reinigungslösung zurückgewonnen wird, muss ein Teil der Lösung ergänzt werden. Die genaue Dosierung der Reinigungsmittel erfolgt über Dosierpumpen, die über Kontaktwasserzähler angesteuert werden. Arbeitstäglich muss der Inhalt der Aufbereitungstanks entleert und erneuert werden. Taktwaschanlagen werden wegen ihrer höheren Durchsatzleistung vorwiegend in Zentralen Sterilgutversorgungsabteilungen eingesetzt.
Durchführung der maschinellen Reinigung und Desinfektion Um ein gutes Reinigungs- und Desinfektionsergebnis zu erzielen, kommt es ganz entscheidend darauf an, wie die Maschine beladen wird. Es ist darauf zu achten, dass alle Gegenstände so weit wie möglich zerlegt und Hohlkörper mit der Öffnung nach unten eingelegt werden. Instrumente mit langen bzw. engen Hohlräumen, z. B. Metallkatheter, Metallsauger, Spezialkanülen usw., müssen auch innen durchströmt werden. Hierfür sind spezielle Beschickungswagen zu verwenden. Bei den verwendeten Reinigungsmitteln oder kombinierten Desinfektions- oder Reinigungsmitteln sind die Angaben des Herstellers (Einwirkzeit, Konzentration und Temperatur) genau zu beachten. Nur die richtige Dosierung gewährleistet ein einwandfreies Desinfektions- und Reinigungsergebnis bei
größtmöglicher Materialschonung. Unterdosierung alkalischer Reinigungsmittel birgt die Gefahr für das Auftreten von Lochkorrosion, da diese bei pH-Werten über 10,5 vermieden wird. Bei Verwendung von sauren Reinigern können durch Chloride im Wasser Korrosionen auftreten, die nur durch Verwendung von vollentsalztem Wasser ausgeschlossen werden können. Bei der maschinellen Reinigung müssen in der Nachspülphase sämtliche Rückstände aus dem Reinigungsgang zuverlässig entfernt werden, da sonst Verfleckungen und/ oder Verfärbungen an den chirurgischen Instrumenten auftreten. Der zusätzliche Einsatz eines geeigneten Neutralisationsmittels kann diesen Vorgang unterstützen und das Nachspülergebnis verbessern.
Dokumentation Im Zuge der Qualitätssicherung bei der Aufbereitung von Medizinprodukten ist es notwendig, dass die verfahrensrelevanten Aufbereitungsschritte der einzelnen Chargen mit direkter Zuordnung zu jeweiligen Behandlungsgütern dokumentiert werden.
Kontrollen und Wartung Desinfektionsmaßnahmen in Reinigungsgeräten sind nur dann wirksam, wenn die Wartung und Kontrolle dieser Maschinen nicht vernachlässigt wird. In der Betriebsanweisung, die vom Betreiber zu erstellen ist, sind die notwendigen Kontrollen und Wartungen festgelegt. Die Wartung sollte mindestens einmal jährlich durch geschultes Fachpersonal erfolgen.
Prüfungen In der Verordnung über das Errichten, Betreiben und Anwenden von Medizinprodukten (MedizinprodukteBetreiberverordnung, MPBetreibV) wird im § 4 Abs. 2 gefordert, dass die Aufbereitung von Medizinprodukten mit geeigneten, validierten Verfahren so durchzuführen ist, dass der Erfolg nachvollziehbar gewährleistet ist und die Sicherheit und Gesundheit von Patienten, Anwendern und Dritten nicht gefährdet wird. In der KRINKO-Empfehlung »Anforderungen an die Hygiene bei der Aufbereitung von Medizinprodukten« [21] wird ebenfalls eine validierte Aufbereitung von Medizinprodukten gefordert. Konkrete Hinweise über die Durchführung der Validierung und den nachfolgenden periodischen Prüfungen sind in der DIN EN ISO 15883-1 – Reinigungs- und Desinfektionsgeräte – Allgemeine Anforderungen, Definitionen und Prüfungen und in der Leitlinie von DGKH, DGSV und AKI für die Routineüberwachung maschineller Reinigungs- und Desinfektionsgeräte für thermolabile Medizinprodukte festgelegt. Die Validierung ist ein dokumentiertes Verfahren zum Erbringen, Aufzeichnen und Interpretieren der erforderlichen Ergebnisse, um zu zeigen, dass ein Ver-
17 3.4 · Methoden der Desinfektion
fahren ständig die geforderte Qualität erbringt, die mit den vorgegebenen Spezifikationen übereinstimmt. Für Reinigungs- und Desinfektionsgeräte (RDG) besteht die Validierung aus Installationsqualifikation, Betriebsqualifikation und Leistungsqualifikation, durchgeführt an Geräten, für die ein dokumentierter Nachweis vom Hersteller für die Übereinstimmung mit den Anforderungen der DIN EN ISO 15883 vorliegt. Die Installationsqualifikation wird durchgeführt, um sicherzustellen, dass das RDG und Zubehör ordnungsgemäß geliefert und installiert wurden und die Betriebsmittelversorgung den speziellen Anforderungen genügt. Die für die Installationsqualifikation durchzuführenden Prüfungen und Kontrollen müssen festgelegt, durchgeführt und die Ergebnisse dokumentiert werden. Durchzuführende Prüfungen und Kontrollen sind z. B.: ▬ Prüfung des Bestell- und Lieferumfangs (bei vorhandenen Installationen Prüfung des Bestandes) ▬ Beladungswagen/-körbe, Einsätze sowie Düsen/Adapter ▬ Installationsplan, Gebrauchsanweisung(en) ▬ Prüfungen der Anschlüsse und Medienversorgung, Abgleich mit dem Installationsplan – Strom – Wasser kalt/warm/vollentsalzt – Dampf – Abwasser – Abluft/Entlüftung Die Betriebsqualifikation wird durchgeführt, um sicherzustellen, dass das RDG und die Medienversorgung mit den Spezifikationen der Hersteller und den Anforderungen der DIN EN ISO 15883 übereinstimmen. Die für die Betriebsqualifikation durchzuführenden Prüfungen und Kontrollen müssen festgelegt, durchgeführt und die Ergebnisse dokumentiert werden. In der Leistungsprüfung werden die festgelegten Reinigungs- und Desinfektionsprogramme für Referenzbeladungen geprüft und die Ergebnisse dokumentiert. Bei Einhaltung der Festlegungen soll sichergestellt sein, dass jederzeit reproduzierbare Ergebnisse erreicht werden. Jede Referenzbeladung muss Instrumente mit betriebstypischen Kontaminationen sowie kritischen Konstruktionsmerkmalen umfassen. Die Referenzbeladungen sind immer betreiberspezifisch und müssen dokumentiert werden. Voraussetzung für die Leistungsqualifikation ist die Festlegung und Dokumentation der notwendigen Programme mit den entsprechenden Verfahrensabläufen. Die Verfahrensbeschreibung muss die Vorbedingungen zur Reinigung mit einbeziehen. Die Verfahrensbeschreibung ist im Detail zu dokumentieren, einschließlich genauer Angaben zu den Chemikalien. Bei der Leistungsqualifikation werden folgende Prüfungen durchgeführt:
1. Prüfung der Reinigung
Die Überprüfung der Reinigung wird mit zwei verschiedenen Verfahren durchgeführt. Es werden Prüfinstrumente (Arterienklammern nach Crile) mit definierter Testanschmutzung nach DIN EN ISO 15883 und nach Gebrauch real verschmutzte Instrumente verwendet. Jedes verwendete Programm ist zu überprüfen. Die Prüfinstrumente werden nach der Reinigungsphase vor der Desinfektionsphase aus dem RDG mit Handschuhen entnommen. Die Auswertung des Reinigungsergebnisses erfolgt zunächst visuell und wird dokumentiert. Die Prüfinstrumente müssen optisch sauber sein. Anschließend sind die Prüfinstrumente auf Proteinrückstände mit einer mindestens semi-quantitativen Proteinnachweismethode zu überprüfen. In der Praxis hat sich der Restproteinnachweis mit der Biuret-Methode bewährt. Die Prüfung der realverschmutzten Instrumente erfolgt in gleicher Weise. Beurteilung: Grenzwert: Alle Prüfinstrumente dürfen den Proteingehalt von 100 μg Protein pro ml Eluat nicht erreichen noch überschreiten. Bei Grenzwertüberschreitung erfolgt die sofortige Stilllegung des RDG. Richtwert: maximal 50 μg Protein pro ml Eluat eines Prüfinstrumentes. Keine Maßnahmen erforderlich. 2. Prüfung der Desinfektion
Die Prüfung der Desinfektion erfolgt mit Thermoelementen, die in der Desinfektionskammer an den kritischen Stellen verteilt werden, und den Temperaturverlauf während der Aufbereitung aufzeichnen. An den Temperaturkurven lässt sich erkennen, ob an allen Stellen der Kammer die für die Abtötung der Mikroorganismen notwendige Temperatur vorhanden war. Aus der Temperaturkurve lässt sich der A0-Wert nach DIN EN ISO 15883 errechnen. Der A0-Wert eines Desinfektionsverfahrens mit feuchter Hitze ist das Maß der Abtötung von Mikroorganismen, angegeben als Zeitäquivalent in Sekunden, einer durch das Verfahren auf das Medizinprodukt übertragenen Temperatur von 80°C. Welcher A0-Wert erreicht werden muss, hängt von Art und Anzahl der Mikroorganismen auf den kontaminierten Medizinprodukten und der anschließenden Verwendung ab. Der A0-Wert von 3000 muss bei Medizinprodukten, die mit hitzeresisten Viren, z. B. Hepatitis-B-Virus, kontaminiert sind oder sein können und bei kritischen Medizinprodukten erreicht werden. Dies entspricht einer Einwirkzeit von 5 Minuten bei einer Temperatur von 90°C oder einer Einwirkzeit von 50 Minuten bei einer Temperatur von 80°C. Der A0-Wert von 600 wird bei unkritischen Medizinprodukten, die nur mit unverletzter Haut in Berührung kommen, angewendet. Dies enspricht einer
3
18
3
Kapitel 3 · Hygiene in der Medizintechnik
Einwirkzeit von einer Minute bei einer Temperatur von 90°C oder einer Einwirkzeit von zehn Minuten bei einer Temperatur von 80°C. Neben den thermoelektrischen Messungen (A0-Konzept) lassen sich auch mit biologischen Indikatoren Aussagen über die Abtötung von Mikroorganismen machen. Biologische Indikatoren sind Keimträger, die mit einem Blut-Keim-Gemisch einer definierten Resistenz für das entsprechende Desinfektionsverfahren kontaminiert sind. Das Robert-Koch-Institut schreibt für die Prüfung von thermischen Desinfektionsverfahren in Reinigungs- und Desinfektionsautomaten kontaminierte Schrauben bzw. Schläuche vor. In der Zwischenzeit sind auch gleichwertige biologische Indikatoren erhältlich, die eine für den Anwender einfachere Prüfung erlauben. Die Leistungsqualifikation ist jährlich zu wiederholen. Bei Änderung der Programme, der Prozesschemikalien oder bei Einführung neuer Medizinprodukte, die verändert aufbereitet werden müssen, ist eine erneute Leistungsqualifikation erforderlich.
Dekontaminationsanlagen Dekontaminationsanlagen wurden in der Vergangenheit vor allen Dingen für die Reinigung und Desinfektion (Dekontamination) von Bettgestellen und Zubehör eingesetzt. Anforderungen an die Hygiene, wirtschaftliche Überlegungen und Arbeitsschutzerfordernisse (TRGS 401 Gefährdung durch Hautkontakt) haben dazu geführt, dass Dekontaminationsanlagen zunehmend auch für andere Güter im Bereich der Medizin eingesetzt werden, wie z. B. Transportwagen, Behälter (z. B. für Arzneimittel, Medizinprodukte, Sterilgüter, Speisen), OP-Schuhe, Transportbehälter für Kleinförderanlagen und ähnliche Güter. Die Dekontaminationsanlagen bestehen aus einer Dekontaminationskammer, die zum Aufnehmen der Behandlungsgüter dient, und einem Aggregateraum, der die zum Betrieb erforderlichen Baueinheiten und Bauelemente enthält. Die Anlagen werden i.d.R. in zweitüriger Ausführung gebaut. Das Behandlungsgut wird auf der »unreinen Seite« (z.T. spezielle Beschickungswagen) in die Dekontaminationskammer geschoben. In der ersten Phase erfolgt eine kombinierte Reinigung und Desinfektion des Behandlungsguts über ein separates Düsensystem mittels einer Umwälzpumpe. Die Temperatur der Dekontaminationsmittellösung sowie die Dekontaminationszeit sind am Bedienteil einstell- und veränderbar, damit man schnell und einfach den Prozess optimal auf das Behandlungsgut abstellen kann. Die Versorgung der Dekontaminationsmittellösung erfolgt aus dem beheizten Vorratstank. Im Anschluss an die Dekontamination wird das Behandlungsgut mit einer Klarspülmittellösung besprüht, um die Reste der Dekontaminationsmittellösung zu entfernen und eine schnelle und fleckenlose Trocknung zu gewähr-
leisten. Während der Trocknungszeit saugt ein Ventilator die feuchte Warmluft aus dem Innenraum der Kabine ab bei gleichzeitigem Ansaugen von Frischluft von der reinen Seite. Die Dekontaminationsmittellösung wird über eine Umwälzpumpe in den Vorratstank zurückgepumpt, sodass pro Charge etwa nur 20 l Wasser benötigt werden. Zu den Anforderungen, dem Betrieb und der Prüfung auf Wirksamkeit von Dekontaminationsanlagen sei auch auf die DIN-Normen 58955 Teil 1–7 (»Dekontaminationsanlagen im Bereich der Medizin«) verwiesen.
Dampfdesinfektionsverfahren Dampfdesinfektionsverfahren dienen vorzugsweise zur Desinfektion von Bettausstattungen (Matratzen, Wäsche und Textilien), aber auch von Abfällen, die desinfiziert werden müssen. Der gleichzeitige Einsatz der Anlagen auch zur Desinfektion von Abfällen kann wegen der Geruchsbelästigung und Verschmutzungsgefahr des Apparates für problematisch erachtet werden. Bei entsprechender Trennung ist jedoch auch eine gemeinsame Nutzung der Apparate zur Desinfektion von Betten und Abfällen durchaus denkbar. Das Desinfektionsgut wird in Dampfdesinfektionsapparaten der Einwirkung von gesättigtem Wasserdampf ausgesetzt. Um sicherzustellen, dass alle zu desinfizierenden Oberflächen dem Wasserdampf ungehindert ausgesetzt sind, muss die Luft aus der Desinfektionskammer und dem Gut entfernt werden. Je nach Art der Verfahrensweise ist zu unterscheiden zwischen: ▬ Dampfströmungsverfahren und ▬ fraktioniertem Vakuumverfahren (VDV-Verfahren).
Dampfströmungsverfahren (Wirkungsbereich: ABC) Beim Dampfströmungsverfahren wird die Luft aus der Kammer und dem Desinfektionsgut mit Hilfe von gesättigtem Wasserdampf verdrängt. Die Desinfektionstemperatur beträgt 100–105°C bei einer Einwirkzeit von mindestens 15 Minuten. Für poröse Güter kann die Einwirkzeit mehr als eine Stunde betragen. Das Dampfströmungsverfahren ist geeignet für die Desinfektion von Abfällen, die ausreichend Wasser enthalten, z. B. mikrobiologische Kulturen.
Fraktioniertes Vakuumverfahren (VDV-Verfahren) Das Verfahren (⊡ Abb. 3.1) ist gekennzeichnet durch: ▬ Entfernung der Luft aus der Kammer und dem Desinfektionsgut durch mehrmaliges Evakuieren im Wechsel mit Einströmen von Sattdampf, ▬ Desinfektion mit Sattdampf, ▬ Trocknen des Desinfektionsgutes durch Evakuieren. Zur Durchführung dieses Verfahrens ist Dampf erforderlich, der weitgehend frei von Luft bzw. Fremdgasen ist (vgl. DIN EN 285). Die Desinfektionskammer muss
19 3.5 · Methoden der Sterilisation
⊡ Tab. 3.2. Einwirkzeiten und Wirkungsbereiche Temperatur [°C]
⊡ Abb. 3.1. Schema des fraktionierten Vakuumverfahrens
vakuumdicht sein. Das fraktionierte Vakuumverfahren wird vornehmlich zur Desinfektion von porösen Gütern wie Matratzen, Wolldecken und Abfällen verwendet.
3.4.6 Einwirkzeiten und Wirkungsbereiche
Einwirkzeiten und Wirkungsbereiche zeigt ⊡ Tab. 3.2. In der »Liste der vom Robert-Koch-Institut geprüften und anerkannten Desinfektionsmittel und -verfahren« (RKI-Liste) [31] sind die Wirkungsbereiche durch Buchstaben gekennzeichnet; es bedeuten: ▬ A: zur Abtötung von vegetativen bakteriellen Keimen einschließlich Mykobakterien sowie von Pilzen einschließlich pilzlicher Sporen geeignet; ▬ B: zur Inaktivierung von Viren geeignet; ▬ C: zur Abtötung von Sporen des Erregers des Milzbrandes geeignet.
▬ ▬ ▬ ▬ ▬ ▬ ▬
Wirkungsbereich
75
20
A, B (außer Virushepatitis)
105
1
A, B
105
5
A, B, C
Dekontaminationsgefahr Desinfektionsmittelreste im Material (z. B. Gummi) Materialkorrosion Gesundheitsbelastung für Personal und Patient Arbeitsplatz-, Umweltbelastung Hohe Kosten Erhöhung des Müllvolumens
Vorteile physikalischer Verfahren ▬ ▬ ▬ ▬ ▬
Geringere Kosten Geringere Umweltbelastung Höhere Sicherheit Automation möglich Reinigung, Desinfektion, Trocknung in einem Arbeitsgang ▬ Keine Toxizität, keine Allergisierung ▬ Prüfung auf Wirksamkeit
3.5
Für die Desinfektion von Abfällen gelten z.T. höhere Temperaturen und längere Einwirkzeiten. Zugelassene Verfahren sind der RKI-Liste zu entnehmen. Die Anforderungen, der Betrieb und die Prüfung auf Wirksamkeit von Dampfdesinfektionsapparaten ist in den DIN-Normen 58949 Teil 1–7 (»Dampf-Desinfektionsapparate«) festgelegt.
Dauer [min]
Methoden der Sterilisation
> Definition Sterilisieren ist das Abtöten bzw. das irreversible Inaktivieren aller vermehrungsfähigen Mikroorganismen und ihrer Dauerformen.
3.5.1 Verfahren 3.4.7 Vergleich chemischer und physikalischer
Desinfektionsverfahren Nachteile chemischer Desinfektion ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
Wirkungslücken, Kontaminationen (Primäre) bakterielle Resistenz Adaptation (Biofilmbildung) Mögliche Keimverbreitung im Krankenhaus (Zentralanlagen) Konzentrations-, Temperatur-, pH-Abhängigkeit Zersetzbarkeit, Wirkungsverlust Seifen-, Eiweißfehler Eingeschränkte Penetrationsfähigkeit in organisches Material
▬ Physikalische Verfahren – Dampfsterilisation – Heißluftsterilisation ▬ Chemisch-physikalische Verfahren – Ethylenoxidgas-Sterilisation – Formaldehydgas-Sterilisation – H2O2-Niedertemperatur-Plasmasterilisation
Physikalische Verfahren Dampfsterilisation Die Sterilisation mit Hilfe von gesättigtem und gespanntem Dampf, auch teilweise als »feuchte Hitze« bezeichnet, ist das sicherste Sterilisationsverfahren und aufgrund der
3
20
3
Kapitel 3 · Hygiene in der Medizintechnik
einfachen Handhabung das wichtigste Verfahren zur Sterilisation von Medizinprodukten. Das Prinzip der Dampfsterilisation beruht auf der Übertragung thermischer Energie auf die kontaminierten Flächen durch Kondensation des gespannten Wasserdampfs. Durch Kondensation des Dampfes am Sterilisiergut wird Energie frei, die eine irreversible Schädigung der Mikroorganismen verursacht. Dampfdruck und -temperatur sind voneinander abhängig: So hat ein gespannter gesättigter Dampf mit der Temperatur 121°C einen Druck von 2 bar (1 bar = 105 Pa) oder bei einer Temperatur 134°C einen Druck von 3,2 bar. In der Praxis werden die folgenden zwei Standardbedingungen verwendet: ▬ 121°C bei 15 Minuten Einwirkzeit ▬ 134°C bei 3 Minuten Einwirkzeit (nur für entsprechend hitzebeständige Güter)
▬ Fraktioniertes Vakuumverfahren (⊡ Abb. 3.3) Das fraktionierte Vakuumverfahren ist durch folgende Betriebsphasen gekennzeichnet: – mehrfach wiederholtes Evakuieren bis zu einem Druck von < 130 mbar (1 mbar = 100 Pa); – im Wechsel mit Dampfeinströmung auf einen Druck, der unter oder über dem Atmosphärendruck liegt; – Dampfeinlassen bis zum Erreichen des Arbeitsdruckes.
Erregerresistenz gegen feuchte Hitze. Die Resistenz von Keimen gegen feuchte Hitze wird in vier Stufen eingeteilt (⊡ Tab. 3.3). Ein vollständiges Einwirken des Dampfes auf das Sterilisiergut ist nur dann möglich, wenn die Luft aus der Kammer und dem Sterilisiergut entfernt wurde.
Verfahren zum Entfernen der Luft aus dem Sterilisiergut
⊡ Abb. 3.2. Vorvakuumverfahren
▬ Vorvakuumverfahren (⊡ Abb. 3.2) Beim Vorvakuumverfahren wird die Luft mit Hilfe einer Vakuumpumpe aus der Sterilisatorkammer entfernt. Das Verfahren ist durch folgende Betriebsphasen gekennzeichnet: – einmaliges Evakuieren der Sterilisatorkammer auf einen Druck von 20–70 mbar, – Dampfeinlassen bis zum Erreichen des Arbeitsdrucks. Das Vorvakuumverfahren eignet sich nicht zur Sterilisation von porösen Gütern (z. B. Wäsche) in Sterilisierbehältern mit Filter bzw. Ventil im Deckel des Sterilisierbehälters.
⊡ Abb. 3.3. Fraktioniertes Vakuumverfahren
⊡ Tab. 3.3. Die 4 Stufen der Resistenz von Keimen gegen feuchte Hitze Resistenzstufe
Temperatur [°C]
Einwirkzeit
Erfasste Erreger
I
100
Sekunden bis Minuten
Vegetative Bakterien, Pilze einschließlich Pilzsporen, Viren, Protozoen
II
105
5 min
Bakterielle Sporen niederer Resistenz, z. B. Milzbrandsporen
III
121 bzw. 134
15 min bzw. 3 min
Bakterielle Sporen höherer Resistenz
IV
134
Bis zu 6 h
Bakterielle Sporen hoher Resistenz
21 3.5 · Methoden der Sterilisation
Das fraktionierte Vakuumverfahren ist für alle Sterilisiergüter in für die Dampfsterilisation zugelassenen Verpackungen geeignet.
Validierung von Dampfsterilisatoren Gemäß § 4 MPBetreibV ist die Sterilisation von Medizinprodukten mit geeigneten, validierten Verfahren so durchzuführen, dass der Erfolg dieser Verfahren nachvollziehbar gewährleistet ist und die Sicherheit und Gesundheit von Patienten, Anwendern und Dritten nicht gefährdet wird. Die Validierung dient dem Nachweis der Wirksamkeit des Sterilisationsprozesses unter den am Aufstellort vorhandenen Betriebsbedingungen mit den im Routinebetrieb zu sterilisierenden Gütern in der jeweiligen Verpackung bei den verwendeten Belademustern. Die Validierung besteht aus Kommissionierung und Leistungsbeurteilung. Die DIN EN 554 und die DIN 58946-6 sind durch die DIN EN ISO 17665-1 ersetzt worden. Die Validierung nach DIN EN ISO 17665-1 besteht aus einer Abnahmebeurteilung (IQ), einer Funktionsbeurteilung (OQ) und der Leistungsbeurteilung (PQ). In der Abnahmebeurteilung muss nachgewiesen werden, dass die Geräteausrüstung, die Dokumentation, die Betriebsmittel und die Installation der Norm entsprechen. Ferner ist nachzuweisen, dass das Gerät funktionstüchtig ist, bei Betriebsmitteln und der Ausrüstung keine Leckagen auftreten. Bei der Funktionsbeurteilung ist der Nachweis zu führen, dass der Sterilisator in der Lage ist, die spezifizierten Sterilisationsprogramme durchzuführen. In der Leistungsbeurteilung sind sämtliche Sterilisiergüter und die verwendeten Verpackungsarten zu erfassen und zu kommissionieren. Die Sterilisationsparameter der so entstandenen Kommissionierungen werden dann im Sterilisator mit physikalischen Messmethoden gemessen und beurteilt. Die DIN EN ISO 17665 lässt neben den physikalischen Messmethoden auch die mikrobiologische Prüfung zu. In Medizinprodukten (z. B. Instrumente für die minimal-invasive Chirurgie) lassen sich keine thermoelektrischen Messungen durchführen. Hier gibt es die Möglichkeit, das Instrument direkt mit dem Prüfkeim zu kontaminieren oder geeignete Medizinproduktsimulatoren nach DIN 58921 zu verwenden. Die Ergebnisse sind im Validierungsbericht zu dokumentieren.
Dokumentation Im Rahmen der Qualitätssicherung in ZSVA müssen die Sterilisationschargen dokumentiert werden. Dies geschieht zum einen durch das Aufzeichnen der prozessrelevanten Sterilisationsparameter (Druck, Temperatur und
Zeit) und zum anderen durch die Prüfung jeder Charge durch einen geeigneten Chemoindikator in einem speziellen Prüfkörper. Durch Verwendung eines Etiketts mit der Chargennummer wird die Zuordnung des Sterilisierguts zur Charge sichergestellt. Nach erfolgter Sterilisation werden die Parameter überprüft, die Charge wird freigegeben und dokumentiert.
Heißluftsterilisation Heißluftsterilisation ist Sterilisation durch trockene Hitze. Da trockene Luft ein schlechter Wärmeleiter ist, benötigt man höhere Temperaturen und längere Einwirkzeiten (z. B. 180°C – 30 min Sterilisierzeit), um eine sichere Sterilisation zu gewährleisten. Die Sterilisierzeiten bei der Heißluftsterilisation zeigt ⊡ Tab. 3.4. Die Abtötung der Keime, Sporen und Viren erfolgt durch Eiweißkoagulation. Die Sterilisationswirkung ist stark abhängig von der Vorbereitung des zu sterilisierenden Gutes. Die Sterilisiergüter müssen sauber und trocken (Verdunstungskälte) sein. Bei der Beschickung des Sterilisators ist Folgendes zu beachten: ▬ Alle Gegenstände müssen ungehindert von der Luft umströmt werden. ▬ Die Richtung des Luftstroms ist zu berücksichtigen. ▬ Größere Gegenstände können Windschatten geben. ▬ Sterilisiergut darf nicht in Blöcken zusammengestellt werden. Größere Sterilisatoren sollten mit Zwangsluftumwälzung (Ventilator) ausgestattet sein. Aufgrund der unsicheren Wirkungsweise sollten Heißluftsterilisatoren nur noch sehr begrenzt eingesetzt werden. Die Anwendungsgebiete sind: ▬ Glas (Labor) ▬ Metall ▬ Porzellan Verpackungsmaterialien sind: ▬ Metallkassetten ▬ Glasschalen ▬ Aluminiumfolie Achtung: Tuch- und Papierverpackungen sind nicht geeignet! ⊡ Tab. 3.4. Sterilisierzeiten bei der Heißluftsterilisation Sterilisiertemperatur [°C]
Sterilisierzeit [min]
160
120
170
60
180
30
3
22
3
Kapitel 3 · Hygiene in der Medizintechnik
Chemisch-physikalische Verfahren Ethylenoxid-Sterilisation Die Sterilisation mit Ethylenoxid ist nur dann anzuwenden, wenn das Sterilisiergut kein anderes Verfahren zulässt [32]. Nach der Gefahrstoffverordnung und der TRGS 513 darf Ethylenoxid (EO) seit dem 01.01.1995 nur noch in validierten vollautomatischen Sterilisatoren verwendet werden, bei denen sich an das Sterilisationsprogramm zwangsverriegelt ein automatisches Ausgasungsprogramm anschließt.
Stoffeigenschaften Ethylenoxid (EO) ist ein farbloses, süßlich riechendes, hochentzündliches Gas, das mit Luft explosive Gemische bilden kann. Es ist giftig, kann Krebs erzeugen und vererbbare Schäden verursachen. Eine maximale Arbeitsplatzkonzentration (MAK-Wert) im Sinne einer unbedenklichen Konzentration kann daher nicht angegeben werden. Die Technische Richtkonzentration (TRK-Wert) für die Atemluft am Arbeitsplatz beträgt 1 ppm-Vol. EO reizt die Augen, die Atmungsorgane und die Haut. Es ist als wassergefährdend (Wassergefährdungsklasse WGK2) eingestuft.
Wirkungsweise Die gute Penetrationsfähigkeit in die Zellen ermöglicht es, dass verschiedene kritische biochemische Komponenten des Stoffwechsels von Mikroorganismen wie z. B. DNA, Proteine, Vitamine und Enzyme gegenüber EO exponiert werden. Die Alkylierungsreaktion von Proteinen mit EO bewirkt die Abtötung der Mikroorganismen. Die Wirksamkeit des EO wird durch verschiedene Parameter beeinflusst. Die relative Feuchtigkeit des Gasgemisches beträgt optimalerweise 33% bei einer Temperatur von 55±3°C. Da die zu sterilisierenden Materialien und ihre Verpackung je nach Beschickung der Sterilisationskammer in unterschiedlichem Ausmaß Wasser absorbieren, wird in der Praxis zu Beginn des Sterilisationsprozesses eine relative Feuchtigkeit von 100% angestrebt. Wasserverluste durch Vakuum und Absorption führen dann zu einer Reduktion der relativen Feuchtigkeit. Mit dieser initial hohen Befeuchtung soll vermieden werden, dass in der Praxis der für die zuverlässige EO-Sterilisation notwendige Grenzwert von 33% relativer Feuchtigkeit unterschritten wird.
Adsorption und Desorption Ethylenoxid wird an Feststoffoberflächen abhängig vom Material gebunden (adsorbiert). Das bedeutet im Hinblick auf die EO-Sterilisation, dass den Materialien nach der EOEinwirkung Rückstände anhaften. Nach der Sterilisation ist deshalb eine längere Ausgasungs- bzw. Desorptionszeit für die behandelten Güter nötig. Diese dürfen vor Anwendung am Patienten maximal eine Restkonzentration von 1 ppm EO enthalten [13]. Wie schon oben erwähnt, muss gemäß TRGS 513 die Desorption nach Beendigung der Sterilisa-
tion in der zwangsverriegelten Sterilisationskammer erfolgen. Ein Umladen der Sterilgüter direkt nach der Sterilisation in sog. Auslüftschränke ist nicht erlaubt.
Abluft von EO-Sterilisationsanlagen In der Abluft der Anlage darf ein Massenstrom von 2,5 ppm EO (laut TA-Luft) nicht überschritten werden. Als Verfahren zur Minderung der EO-Konzentration werden eingesetzt: ▬ Verbrennung: Diese muss mit einer Stützgasfeuerung unterhalten werden. Der Brenngasverbrauch liegt etwa bei 0,5 m3/h. Das EO wird dabei vollständig in Kohlendioxid und Wasser umgesetzt. ▬ Katalytische Reaktion: Die nötige Temperatur des Katalysators wird durch Energiezufuhr in Form von Dampf oder elektrischer Energie erreicht. Ein vollständiger Abbau des EO ist kaum zu realisieren. ▬ Gasnasswaschverfahren (nur für reines EO): Die Firma VIG bietet ein Verfahren an, bei dem das EO mit einem Waschmittel gebunden wird. Dabei wird EO mit Hilfe verdünnter Schwefelsäure in Wasser zu Ethylenglykol umgesetzt. Das EO wird komplett entsorgt, eine Abluftversorgung ist nicht notwendig.
Sterilisationsverfahren ▬ Unterdruckverfahren Bei diesem Verfahren wird mit 100% EO im Unterdruckbereich gearbeitet. Nach dem Evakuieren unter einen Absolutdruck von 55 hPa und Befeuchten der Sterilisationskammer strömt das EO in die Kammer, und das Sterilisiergut wird ein bis sechs Stunden lang bei einer Betriebstemperatur von 50–60°C behandelt. Die Einwirkzeit ist wesentlich durch die Verfahrensparameter EO-Konzentration, Druck, Feuchtigkeit und Temperatur bestimmt. Der Druckbereich wird dabei unter der unteren Explosionsgrenze von EO gehalten. Danach erfolgt das mehrfache Spülen und Belüften der Sterilisationskammer. ▬ Überdruckverfahren Nach einem Vorvakuum und der Befeuchtung wird die Sterilisation im Überdruck unter Verwendung eines Gasgemischs aus 6% EO und 94% CO2 durchgeführt. Die Einwirkzeit ist wie beim Unterdruckverfahren wesentlich durch die Verfahrensparameter EO-Konzentration, Druck, Feuchtigkeit und Temperatur bestimmt. Das Inertgas (meistens Kohlendioxid) dient der Explosionsvermeidung. Nach der Sterilisationsphase erfolgen alternierend mehrere Vakuum- und Belüftungsphasen, um die Desorption des EO vom Sterilgut zu erreichen. Die Desorptionszeit beträgt i.d.R. 8–10 Stunden.
23 3.5 · Methoden der Sterilisation
Anforderungen an die Sterilisatoren Die Anforderungen an die zuverlässige Sterilisation sind in DIN 58948 und der DIN EN 1422 ausführlich beschrieben. Nach dem Minimierungsgebot für Gefahrstoffe sollte darauf geachtet werden, dass die Sterilisatoren mit Gasgemischen von 6% EO und 94% CO2 arbeiten und somit die Gefahren für Personal, Patienten und Umwelt gesenkt werden.
Anforderungen an das Bedienungspersonal Gemäß TRGS 513 muss das Bedienpersonal durch einen anerkannten Lehrgang den Nachweis der Sachkunde erbringen. > Nur Befähigungsscheininhaber dürfen einen EO-Sterilisator bedienen!
Formaldehydgas-Sterilisation Stoffeigenschaften Formaldehyd ist ein farbloses, stechend riechendes Gas mit breitem biozidem Wirkungsspektrum. Es ist giftig, allergen, im Verdacht, krebserregend zu sein, brennbar und kann mit Luft explosive Gemische bilden. Das Gefährdungspotential ist bei den eben genannten Punkten, bis auf die Allergenität, geringer als beim Ethylenoxid, allerdings auch die Wirksamkeit. Die maximale Arbeitsplatzkonzentration (MAK-Wert) liegt bei 0,5 ppm. Im Handel ist Formaldehyd als 30–50 gewichtsprozentige Lösung (Formalin) erhältlich.
Adsorption und Desorption Formaldehyd wird von Feststoffoberflächen adsorbiert. Das bedeutet im Hinblick auf die FO-Sterilisation, dass nach der FO-Einwirkung Rückstände auf den Materialien verbleiben. Nach der Sterilisationsphase werden die am Sterilgut adsorbierten FO-Rückstände durch Luft- und Wasserdampfspülungen entfernt (Desorption). Das Ausmaß der Adsorption bzw. der Desorption ist u. a. abhängig von der Art der Feststoffmaterialien. Untersuchungen über das Desorptionsverhalten zeigten, dass sich die Rückstände auf den sterilisierten Produkten oft relativ gut entfernen lassen, die Rückstände in der Sterilisierverpackung jedoch im Vergleich dazu um ein Vielfaches höher liegen. In schlecht belüfteten Räumen gelagertes FO-sterilisiertes Gut kann dazu führen, dass der MAK-Wert für Formaldehyd in der Raumluft erreicht wird. Dementsprechend sind die Lagerorte zu wählen, bei denen eine ausreichende Verdünnung bzw. Durchlüftung sichergestellt ist.
Verfahrensablauf 1. Entlüften und Befeuchten Oft mit fraktioniertem Vakuumverfahren. Das FO-Sterilisationsverfahren hat nicht das gleiche Durchdringungsvermögen wie das EO-Sterilisationsverfahren.
Um eine ausreichende Tiefenwirkung des Verfahrens zu erzielen, kann das FO-Sterilisationsverfahren nur im fraktionierten Unterdruckverfahren stattfinden. 2. Sterilisation Bei konstantem, niedrigem Unterdruck und hoher Luftfeuchtigkeit (mindestens 60%), d. h., Formaldehyd und Wasserdampf werden in Kombination bei einer Temperatur von 60–75°C zur Sterilisation verwendet. 3. Desorption Spülen und Belüften durch Dampf-Luft-Wäsche, d. h., die Kammer bzw. das Sterilisiergut wird in 15–20 Druckwechseln mit Luft oder Wasserdampf gespült.
Anforderungen an die Sterilisatoren Die Sterilisatoren müssen den Anforderungen der DIN 58948 entsprechen.
Anforderungen an das Bedienungspersonal Gemäß TRGS 513 muss das Bedienpersonal durch einen anerkannten Lehrgang den Nachweis der Sachkunde erbringen. > Nur Befähigungsscheininhaber dürfen einen FO-Sterilisator bedienen!
H2O2-Niedertemperatur-Plasmasterilisation (NTP) Anwendungsbereich Das Betreiben von herkömmlichen Gassterilisatoren (Ethylenoxid/Formaldehyd) ist aufgrund der hinlänglich bekannten Rückstandsproblematik mit erheblichen Einschränkungen (Gefahrstoffverordnung, TRGS 525) verbunden. Bei der H2O2-NTP-Sterilisation auf der Wirkstoffbasis von H2O2, d. h. Wasserstoffperoxidplasma, dessen Kammertemperatur 45°C beträgt, sind gesundheitsschädliche Wirkstoffrückstände nicht zu erwarten.
Wirkungsprinzip Der verwendete Wirkstoff ist Wasserstoffperoxid (H2O2). Im Vakuum wird es verdampft, diffundiert durch die Sterilisierverpackung hindurch und wird dann durch Hochfrequenz zur Bildung von Wasserstoffperoxidplasma angeregt. Im Plasma entstehen Hydroxyl- und Hydroperoxyradikale, die die Inaktivierung der Mikroorganismen bewirken. Nach dem Abschalten des Hochfrequenzfeldes verlieren die Radikale ihre hohe Energie und rekombinieren sich zu Wasser und Sauerstoff [28, 36].
Verfahrensablauf ▬ 1. Phase: Vakuumphase Die Sterilisationskammer wird auf einen Restdruck von ca. 1 mbar (1 mbar = 100 Pa) evakuiert. Dann wird der Hochfrequenzgenerator eingeschaltet und ein Luftplasma erzeugt. Anschließend wird die Kammer belüftet und wieder evakuiert, um die Injektion vorzubereiten. Das Luftplasma ermöglicht eine
3
24
Kapitel 3 · Hygiene in der Medizintechnik
3 ▬
▬ ▬
▬
Trocknung eventueller Restfeuchtigkeit zur besseren Vorbereitung der Beladung. 2. Phase: Injektionsphase Bei Zimmertemperatur werden 1,8 ml H2O2 in die Kammer injiziert und bei einem Druck von ca. 11 mbar verdampft. Eine kurze Belüftung findet im Anschluss statt. Dadurch wird ein schnelles Eindringen des Wirkstoffs in die Lumen gewährleistet. 3. Phase: Diffusionsphase Das H2O2 diffundiert in das Sterilisationsgut. Vor der Plasmaphase wird nochmals ein Vakuum erzeugt. 4. Phase: Plasmaphase Der Kammerdruck wird auf 0,7 mbar abgesenkt und die Plasmaphase mittels Hochfrequenz im MHz-Bereich gestartet. Hierbei wird der Wasserstoffperoxiddampf ionisiert, d. h. in Gasplasma überführt. Dieses besteht u. a. aus hochreaktiven Hydroxy- und Hydroxylradikalen, die sich mit funktionellen Bausteinen von Mikroorganismen verbinden und sie auf diese Weise irreversibel schädigen. Wiederholung: Die Phasen 2–4 werden 2-mal durchgeführt, so genannte 1. und 2. Zyklushälfte. 5. Phase: Belüftungsphase/Druckausgleichsphase Nach Abschluss der 10-minütigen Plasmaphase werden die in der Kammer und im Sterilgut befindlichen Gasrückstände durch fraktionierte Luftspülungen und Aktivkohlefilterung schadlos entfernt. Das Vakuum wird ausgeglichen. Beim Erreichen des atmosphärischen Drucks ist der Zyklus beendet, und die Tür kann geöffnet werden.
von zellulosehaltigen Materialien stark adsorbiert. Daher kann die Plasmasterilisation nicht für zellulosehaltiges Sterilisationsgut oder derart verpackte Instrumente eingesetzt werden. Alle Verpackungsmaterialien müssen zellulosefrei sein und sind zurzeit nur von der Betreiberfirma erhältlich. Zudem sind z. B. Verpackungsbeutel im Durchschnitt 3-mal teurer als vergleichbare Produkte für die Dampfsterilisation. Behälter für Instrumente, wie sie für die Dampfsterilisation zur Verfügung stehen, sind erst in Entwicklung. Die Instrumente müssen vor Beschickung des Plasmasterilisators vollständig trocken sein. Bei organischer Verschmutzung der Oberfläche ist die Wirkung der Plasmasterilisation erheblich eingeschränkt, wie dies allerdings bei allen Oberflächensterilisationsverfahren der Fall ist.
Kontrollen und Prüfung auf Wirksamkeit Für die Prüfung auf Wirksamkeit sind Prüfsysteme mit biologischen Indikatoren nach ISO 14937 zu verwenden.
3.6
Nichtinvasive Technik
Unter diese Rubrik fallen alle Geräte und technischen Maßnahmen, die zur Diagnostik oder Therapie eingesetzt, aber nicht in den Patienten eingebracht werden. Dabei kann es sich um EKG-Elektroden, Ultraschallköpfe oder Monitore am Patientenbett oder in Funktionsabteilungen ebenso handeln wie um Kleinförderanlagen, Lüftungstechnik oder Aufbereitungsmaschinen.
Verfahrensdauer Die Verfahrensdauer beträgt bei voller Beladung 75 Minuten. Geringere Beladungen bedingen z.T. kürzere Verfahrenszeiten.
Hinweise für die Anwendung Aufgrund seiner Wirkungsweise ist das Verfahren zur Sterilisation von thermolabilen Gütern jedoch mit gewissen Einschränkungen anwendbar [5]. Der Anwender dieses Verfahrens sollte eine Liste sämtlicher zu sterilisierender thermolabiler Güter erstellen und dann entscheiden, für welche Güter dieses Verfahren anwendbar ist. Vom Hersteller wird eine so genannte Positivliste der zur Sterilisation zugelassenen Artikel herausgegeben. Aufgrund von umfangreichen Untersuchungen gilt derzeit, dass offene Kunststoffschläuche > 3 mm Innenlumen und bis zu einer Länge von 200 mm Länge sterilisiert werden können. Schläuche mit einem Innenlumen von < 3 mm müssen vor der Sterilisation mit einem Diffusionsverstärker versehen werden. Katheter, die an einer Seite geschlossen sind, lassen sich nicht sicher sterilisieren. Auf die Nachteile dieses Verfahrens soll ganz speziell eingegangen werden: Wasserstoffperoxiddampf wird
3.6.1 Am Patienten eingesetzte Geräte
Diese sind in die regelmäßige Reinigung einzubeziehen. Kommen die Gerätschaften nicht mit dem Patienten in Berührung, dann reicht meistens eine Reinigung – oft nur der zugänglichen Oberfläche – aus. Hierfür sind umweltfreundliche Reiniger zu bevorzugen, auf die Materialverträglichkeit ist ebenso zu achten (s.oben) wie auf bereichsspezifische Vorschriften (z. B. Explosionsschutz). Befinden sich solche Geräte in Bereichen mit erhöhten Anforderungen an die Keimfreiheit (z. B. Operationssäle) oder in Isolierzimmern (infektiöse Patienten, Patienten mit multiresistenter Keimbesiedlung, immunsupprimierte Patienten), ist eine desinfizierende Reinigung zu fordern. Das eingesetzte Desinfektionsmittel muss dem Anwendungsbereich (Flächen- oder Instrumentendesinfektionsmittel) und in seiner Wirkbreite den Anforderungen entsprechen. Beim Einsatz in Bereichen mit erhöhten Anforderungen an die Keimfreiheit sollten alle möglichen Infektionserreger erfasst werden, bei einem Einsatz in Isolierbereichen sind Mittel zu bevorzugen, die gegen den bekannten Infektionserreger in kürzester Zeit und möglichst lang anhaltend wirken.
25 3.8 · Praktische Beispiele
Geräte oder Geräteteile, die mit dem Patienten in Berührung kommen, sind vor der Anwendung sorgfältig den Vorgaben entsprechend zu reinigen und immer dann zu desinfizieren, wenn entsprechende Vorschriften bestehen (z. B. nach Einsatz bei Patienten mit multiresistenten Keimen) oder wenn trotz sachgemäßer Reinigung ein Infektionsrisiko bestehen bleibt, z. B. bei stark abwehrgeschwächten Patienten, für die auch harmlose Umweltkeime zu einer Bedrohung werden können.
3.6.2 Nicht am Patienten eingesetzte Geräte
Für diese Geräte gelten zunächst die gleichen Anforderungen wie für einen Betrieb außerhalb eines Krankenhauses. Sie sind ihrer Zweckbestimmung gemäß zu pflegen und regelmäßig zu reinigen. Hiervon abweichende Anforderungen können bei einem Einsatz in »Bereichen mit erhöhten Anforderungen an die Keimfreiheit« auch bei solchen Geräten erforderlich sein und sind ggf. durch hauseigene Vorgaben zu regeln. Kommt es durch den Betrieb zu einer Kontamination des Gerätes/der Anlage mit Patientenmaterial, dann ist eine desinfizierende Reinigung zu empfehlen, bei Material eines infektiösen Patienten ist sie erforderlich. Für bestimmte Geräte (z. B. Klimaanlagen, Reinraumbänke) können spezielle Vorgaben zu beachten sein (s.unten).
3.6.3 Reparatur und Wartung
Gerätschaften, die zu Zwecken der Reparatur und Wartung an entsprechende Abteilungen abgegeben werden, sollten vorher zumindest grob gereinigt worden sein. Geräteteile, die mit Patienten/Patientenmaterial Kontakt hatten, sind vor der Bearbeitung nur dann zu desinfizieren, wenn sie sichtbar verschmutzt sind oder wenn von einer Kontamination mit Keimen auszugehen ist, deren Verbreitung im Krankenhaus verhindert werden soll (multiresistente Keime) bzw. die beim Wartungspersonal zu Infektionen führen können oder die per Gesetz besonderen Vorschriften unterliegen (Infektionsschutzgesetz). Hierzu zählen auch Keime wie die Erreger von Hepatitis, Tuberkulose usw. Ob diese Vorbehandlung der Anwender, eine andere Stelle (Aufbereitungseinheit) oder die wartende Abteilung selbst durchführt, dürfte von der Organisationsstruktur und auch der Größe der Klinik abhängen. Es empfiehlt sich daher, die Vorgehensweise und die jeweilige Verantwortung schriftlich festzulegen und in Form von »Hygieneplänen« zu regeln, wer wann was und vor allem genau wie und in welcher Reihenfolge durchzuführen hat. Dies sollte auf jeden Fall gemeinsam mit der für die Hygiene verantwortlichen Person (Hygienebeauftragter/Hygienefachkraft) evtl. auch mit der für die Arbeitssicherheit zuständigen Fachkraft abgesprochen werden.
3.7
Invasive Technik
Unter diese Rubrik fallen alle Geräte, Geräteteile und technischen Maßnahmen, die zur Diagnostik oder Therapie eingesetzt werden und dabei in den Patienten eingebracht werden. Dabei kann es sich um Instrumente oder Geräte handeln, die entweder im Patienten eingesetzt werden, ohne seine Haut oder Schleimhaut zu durchbrechen (z. B. Bronchoskop, Ösophagusatriographie, Absaugkatheter), wobei es aber zu gewollten (Biopsie) oder ungewollten Verletzungen der Schleimhaut kommen kann, oder aber um solche, die für einen Einsatz mit oder nach Durchbrechen der Haut-/Schleimhautbarriere konstruiert sind (z. B. Biopsiezangen, Arthroskop, Gefäßkatheter). Für die erste Gruppe sind meistens desinfizierende Maßnahmen ausreichend, für die zweite Sterilisationsverfahren Pflicht (s.oben). Auch hier gilt die allgemeine Regel: Primär thermische (Wasch-)Verfahren einsetzen und nur bei Materialunverträglichkeit chemothermische oder gar rein chemische Verfahren in Betracht ziehen.
3.8
Praktische Beispiele
Gezielte Maßnahmen zur Vermeidung einer Keim- oder Infektionsübertragung müssen abgestimmt sein auf den Erreger, den Personenkreis und das Gefährdungsrisiko. Dabei kann eine Impfung allein ausreichend sein, es können bestimmte Desinfektions- oder Sterilisationsmaßnahmen erforderlich sein oder gar eine Isolierung des Patienten. Der Übertragungsweg spielt dabei eine entscheidende Rolle (⊡ Tab. 3.5). Das seit 1.1.2001 geltende Infektionsschutzgesetz, welches das alte Bundesseuchengesetz abgelöst hat, berücksichtigt diese Erkenntnisse, trägt aber auch den Auswirkungen der Technik in einer veränderten Medizin dadurch Rechnung, dass es in § 23 die fortlaufende Erfassung krankenhauserworbener Infektionen vorschreibt, und zwar auch jener, die durch technische Anteile besonders beeinflusst werden (»device-related«): ▬ postoperative Wundinfektionen, ▬ beatmungsassoziierte Pneumonien, ▬ katheterassoziierte Septikämien, ▬ katheterassoziierte Harnwegsinfektionen. Da dies zudem die vier häufigsten krankenhauserworbenen Infektionen sind und die vom Gesetz geforderte Maßnahme einen wichtigen Beitrag zu einem sinnvollen Qualitätsmanagement darstellt, sollen sich die Beispiele auch auf diese Infektionen beschränken und aufzeigen, welchen wesentlichen Beitrag die Technik hier leisten kann.
3
26
3
Kapitel 3 · Hygiene in der Medizintechnik
⊡ Tab. 3.5. Übertragungsarten und ihre Merkmale sowie Schutzmaßnahmen (mod. nach [10]) Übertragungsart
Merkmale
Beispiele
Schutzmaßnahmen
Luftgetragene Übertragung
Mikroorganismen an Partikel in der Luft mit einer Größe <5 lm gebunden, deshalb Bewegung über längere Zeit möglich
1. begründeter Verdacht oder bestätigte Tuberkulose 2. Masern 3. Varizellen/Herpes zoster disseminatus 4. HIV-Patienten mit Husten, Fieber und unklaren pulmonalen Infiltraten, solange eine Tbc nicht ausgeschlossen werden kann
1. Isolierung im Einzelzimmer (Tür und Fenster geschlossen), u. U. Kohortisolierung möglich 2. Atemschutz bei Betreten des Raums, wenn offene LungenTbc bekannt ist oder dringender klinischer Verdacht besteht 3. Nichtimmune Personen sollten bei bestimmten Erkrankungen (Masern, Varizellen) das Zimmer nicht betreten; wenn unumgänglich, nur mit Atemschutz
Tröpfchenübertragung
Mikroorganismen an Partikel >5 lm gebunden (diese Tropfen entstehen beim Sprechen, Husten, Niesen)
1. Bakterielle Erkrankungen: H. influenzae (Typ-B)- Infektionen, Meningokokkeninfektionen, multiresistente Pneumokokkeninfektionen, Diphtherie, Pertussis, Mycoplasma-pneumonia-Infektionen 2. Virale Erkrankungen: Influenza, Mumps, Röteln, Parvovirusinfektionen
1. Einzelzimmer, ggf. Kohortisolierung, wenn nicht möglich, sollte der Abstand des infektiösen Patienten zu anderen Patienten bzw. Besuchern wenigstens 1 m betragen 2. Mund-Nasen-Schutz erforderlich, wenn nah am Patienten gearbeitet wird (<1 m Abstand)
Kontaktübertragung
Direkter Kontakt (Berührung) oder indirekter Kontakt (sekundär z. B. über kontaminierte Oberflächen) zu epidemiologisch wichtigen Erregern bei infizierten oder kolonisierten Patienten
1. Infektiöse Durchfallerkrankungen 2. C.-difficile-Enteritis 3. Respiratorische Infektionen bei Kindern (Bronchiolitis, Krupp) 4. Multiresistente Erreger wie z. B. MRSA, VRE (außer multiresistente Tbc) 5. Abszess oder sezernierende Wunde, die nicht bedeckt werden kann
1. Nach Möglichkeit Einzelzimmer, ggf. Kohortisolierung 2. Handschuhe, Kittel je nach Erreger und Infektionslokalisation (Hygieneplan beachten!) 3. Bei Verlassen des Raums Händedesinfektion
3.8.1 Postoperative Wundinfektionen
Die Erreger postoperativer Wundinfektionen stammen entweder vom Patienten selbst (Haut- oder Schleimhautkeime) oder werden von außen während des Eingriffs durch mangelnde Hygiene in den Patienten gebracht. Vor vielen Eingriffen wird immer noch eine Haarentfernung mittels Rasur (medikotechnische Maßnahme) durchgeführt. Geschieht dies bereits am Abend vor der Maßnahme, dann haben die Hautbakterien über Nacht Zeit, über die unweigerlich beim Rasieren erfolgten kleinen Hautverletzungen in die Tiefe der Haut zu wandern und dort eine Entzündung auszulösen. Die Folge ist ein deutlich höheres Risiko, nach dem Eingriff eine Wundinfektion zu bekommen. Deshalb gilt die Empfehlung, entweder überhaupt nicht zu rasieren und die Haare mit einer Haarschneidemaschine nur kurz zu schneiden, oder die Rasur unmittelbar vor dem Eingriff und damit unmittelbar vor der Hautdesinfektion durchzuführen (s. KRINKO-Empfehlung zur Prävention postoperativer Infektionen im Operationsgebiet) [24].
Weitere zur Vermeidung von postoperativen Wundinfektionen wichtige und in ihrer Wirksamkeit bewiesene Maßnahmen (bezogen auf technische Hilfsmittel) sind: sterile Instrumente, sterile Implantate, sicher sterilisierte Geräteteile, die zum Eingriff benötigt werden (Sauger, Counter mit Anschlusskabel etc.), richtig funktionierende klimatechnische Anlagen, ausreichendes Vakuum bei wiederaufbereiteten Mehrwegdrainagen etc. [24].
3.8.2 Beatmungsassoziierte Pneumonien
Die Lungenentzündung ist die zweithäufigste Krankenhausinfektion insgesamt und die wichtigste bei Intensivpatienten. Für 30–50% der Todesfälle wird sie als Hauptoder Mitursache angesehen. Im Hinblick auf die DRGs ist zudem bedeutsam, dass die nosokomiale Pneumonie die Krankenhausverweildauer um durchschnittlich 11,5 Tage verlängert! Hauptrisikofaktor für die Entstehung einer nosokomialen Pneumonie ist die maschinelle Beatmung. Gemäß den Evidenzkriterien der KRINKO, orientiert an
27 3.8 · Praktische Beispiele
denen der Centers for Disease Control and Prevention (CDC) [20], sind folgende, technisch relevante Punkte für eine gezielte Prävention wichtig [6, 18, 20, 26]: 1. Orale Intubation ist besser als nasale (Ausbildung einer Sinusitis maxillaris), bei Langzeitbeatmung Tracheotomie. 2. Sterile oder desinfizierte Trachealtuben verwenden. 3. Gründliche Reinigung aller Geräte und Hilfsmittel vor der Desinfektion bzw. Sterilisation. 4. Keine routinemäßige Sterilisation oder Desinfektion des Kreissystems der Beatmungs- und Narkosegeräte. 5. Beatmungsschlauchsysteme nicht häufiger als alle 48 Stunden wechseln, einschließlich Schläuchen und Exspirationsventil sowie Verneblungs- und Dampfbefeuchtern, solange das Gerät nur bei einem Patienten angewendet wird (nach neueren Studien sogar Wechselintervall von 7 Tagen möglich). 6. Keine Verwendung von Raumluftbefeuchtern, die Aerosole bilden (= Vernebler), wenn nicht mindestens tägliche Sterilisation/Desinfektion und steriles Wasser verwendet wird. 7. Anwendung von sterilem (kein destilliertes, unsteriles) Wasser für die Spülung der aufbereiteten Geräte und Hilfsmittel, die am Atemtrakt angewendet werden, nachdem sie chemisch desinfiziert wurden. 8. Keine Wiederaufbereitung von Geräten und Hilfsmitteln, die zum einmaligen Gebrauch hergestellt wurden, es sei denn, Daten zeigen, dass die Wiederaufbereitung zu keiner Gefährdung der Patienten führt, kosteneffektiv ist und die Funktionsfähigkeit der Geräte und Hilfsmittel nicht verändert wird. 9. Sterilisation oder Desinfektion der Beatmungsschläuche und der Befeuchter zwischen der Anwendung bei verschiedenen Patienten. 10. Keine Anwendung von Bakterienfiltern zwischen dem Befeuchterreservoir und dem Inspirationsschlauch. 11. Kein routinemäßiger Beatmungsschlauchwechsel, wenn das System an eine künstliche Nase oder HMEF gekoppelt ist, solange es bei einem Patienten benutzt wird. 12. Schlauchwechsel zwischen den Patienten einschließlich Nasenklemmen oder Masken, die benutzt werden, um Sauerstoff aus einem Wandauslass zu liefern. 13. Sterilisation von Raumluftverneblern, die in der Inhalationstherapie angewendet werden, z. B. für Tracheostomapatienten, oder Desinfektion zwischen den Patienten und alle 24 Stunden bei Anwendung am selben Patienten. 14. Sterilisation oder Desinfektion von tragbaren Spirometern, Sauerstoffsonden und anderen Atemhilfsmitteln, die bei verschiedenen Patienten angewendet werden, zwischen den Einsätzen. 15. Narkoseausrüstung: Reinigung und anschließende Sterilisation oder thermische bzw. chemische Desinfektion der wiederaufbereitbaren Teile des Atemkreislaufs (wie Endotrachealtubus oder Maske, Ins-
pirations- und Exspirationsschlauch, Y-Stück, Beatmungsbeutel, Befeuchter und Schläuche) zwischen der Anwendung bei verschiedenen Patienten und Beachtung der entsprechenden Herstellerhinweise. 16. Lungenfunktionsdiagnostik: Sterilisation oder Desinfektion wiederverwendbarer Mundstücke und Schläuche zwischen verschiedenen Patienten oder unter Beachtung der Herstellerhinweise.
3.8.3 Katheterassoziierte Septikämie
Die meisten krankenhauserworbenen Sepsisfälle sind die Folge eines Einsatzes eines Gefäßkatheters. Die wichtigsten Punkte für die Vermeidung von Folgeinfektionen sind Überprüfung der Indikation für einen Zugang, Wahl des richtigen Katheters und des richtigen Zugangsorts, aseptisches Legen des Katheters und aseptische Verbandswechsel. Der technische Anteil ist hierbei vergleichsweise gering und umfasst folgende Punkte (Auswahl aus [22]): 1. Wechsel der i.v.-Schläuche einschließlich der 3-WegeHähne nur alle 72 Stunden (bei Verabreichung von Blut/Blutprodukten, Lipidlösungen alle 24 Stunden), außer bei Infektionszeichen. 2. Wenn möglich, sollten bei der Auswahl der Transducer-Geräte (Druckaufnehmer) Einmalartikel bevorzugt werden. 3. Wechsel der Transducer, des Schlauchsystems und der Spüllösung mindestens alle 96 Stunden. 4. Alle Komponenten des Blutdrucküberwachungssystems müssen steril sein (einschließlich der Eichgeräte und der Spülflüssigkeit). Das komplette Drucksystem (Schlauchleitungen, Transducer, Spüllösung) muss aseptisch gehandhabt werden. 5. Mehrwegdrucksysteme müssen unter Berücksichtigung der Herstellerangaben aufbereitet und sterilisiert werden. 6. Ist die Zubereitung von Mischinfusionen in patientennahen Bereichen unvermeidbar, so muss sie unter kontrolliert aseptischen Bedingungen erfolgen. Es war in den vergangenen Jahren zunehmend üblich, bestimmte teure intravasale Katheter klinikintern wiederaufzubereiten oder von externen Anbietern wiederaufbereiten zu lassen (s.unten). Diese Praxis wird aktuell aus unterschiedlichsten Gründen (Medizinproduktegesetz, Kosten, BSE) kontrovers diskutiert. In diesem Zusammenhang sei insbesondere auf die Empfehlungen der Kommission für Krankenhaushygiene und Infektionsprävention am RKI verwiesen: »Prävention Gefäßkatheter-assoziierter Infektionen« [22] und »Anforderungen an die Hygiene bei der Aufbereitung von Medizinprodukten« [21] mit den Erläuterungen des RKI und »Abschlussbericht der Task Force vCJK: Die Variante der Creutzfeldt-Jakob-Krankheit (vCJK) Epidemiologie, Erkennung, Diagnostik und Prä-
3
28
3
Kapitel 3 · Hygiene in der Medizintechnik
vention unter besonderer Berücksichtigung der Risikominimierung einer iatrogenen Übertragung durch Medizinprodukte, insbesondere chirurgische Instrumente« [35] (ggf. aktualisiert nachzulesen unter www.rki.de: »Infektionsschutz«, »Empfehlungen der Kommission für Krankenhaushygiene«). Darüber hinaus wird auf spezielle Literatur verwiesen [4, 14] [weitere Literatur: 12, 25].
3.8.4 Katheterassoziierte Harnwegsinfektion
Harnwegsinfektionen machen über 40% aller im Krankenhaus erworbenen Infektionen aus und sind als Ausgangspunkt einer Urosepsis für bis zu 15% der Sepsisfälle verantwortlich. Bis zu 80% dieser Harnwegsinfektionen werden bei Patienten mit Harnwegskathetern gefunden, was deren Bedeutung hervorhebt. Technisch relevante Anteile einer gezielten Verhütung betreffen: ▬ Harnwegskatheter nur legen, wenn medizinisch erforderlich und nur so lange, wie unbedingt nötig – eine pflegerische Indikation ist abzulehnen; ▬ nur sterile, dauerhaft geschlossene Urinableitsysteme mit Antirefluxventil sollten angewendet werden (d. h. ohne Diskonnektion bei der Beutelentleerung) [9, 19].
3.8.5 Dialyse
Dialyseabteilungen verdienen aufgrund ihres hohen Infektionsrisikos sowohl für Patienten als auch für das Personal besondere Aufmerksamkeit. Die Infektionsrisiken sind a. für den Patienten: 1. Infektionen über den Gefäßzugang, 2. blutübertragene Infektionen, 3. Kontaminationen von Dialysat und Dialysator; b. für das Personal: 1. durch infizierte Dialysesysteme, 2. Infektionen über Blut und Dialysat. Im Vergleich zur Peritonealdialyse ist die Hämodialyse aus technischer Sicht die bedeutsamere und Grundlage der folgenden Ausführungen. Einige der Forderungen gelten aber auch für die Peritonealdialyse.
Wird für die Dialyse Trinkwasser verwendet, ist dieses zusätzlich aufzubereiten, da es auch im Fall einer Chlorierung Bakterien und Pyrogene enthält. Die hierfür verwendeten Verfahren sind Ionenaustauschung (Wasserenthärtung), Aktivkohlefilterung, Destillation und Umkehrosmose. Dabei ist aber zu beachten, dass insbesondere die erstgenannten Verfahren Wasserkeimen (vorwiegend Pseudomonas spp. und anderen gramnegativen Keimen wie z. B. Acinetobacter, Enterobacter), aber auch im Wasser vorkommenden, als »atypisch« bezeichneten Mykobakterien sogar gute Möglichkeiten der Vermehrung bieten können. Deshalb wird eine anschließende Ultrafiltration zur Entfernung von Bakterien und Bakterientoxinen für unbedingt erforderlich gehalten [10]. Zwar gilt die Umkehrosmose derzeit als das optimale Aufbereitungsverfahren, dennoch muss bedacht werden, dass auch bei dieser Membran-Verkeimungen und bei Leckagen Keimeinschwemmungen vorkommen können. Nach Zugabe des Dialysats entsteht eine Mischung, die aufgrund der Zusammensetzung eine gute Nährlösung für Wasserkeime darstellt. Deshalb haben verschiedene Länder Richtwerte für die Beurteilung des Dialysewassers vorgeschlagen (⊡ Tab. 3.6). Um eine Kontamination der Hämodialysegeräte und Versorgungseinrichtungen zu verhindern, werden folgende technische Voraussetzungen für notwendig erachtet [7]: ▬ keine offenen Speicher für Wasser und aufbereitete Dialysierflüssigkeit, ▬ keine offenen Speicher für Konzentrate, ▬ kleine Leitungsquerschnitte in Versorgungsleitungen, ▬ Leitungsführung als Ringleitung, Toträume vermeiden (nur für Reinwasser), ▬ vollständige Desinfizierbarkeit des Leitungssystems, ▬ Rohrtrennung bei der Entsorgung der Dialysierflüssigkeit zur Verhinderung einer retrograden Verkeimung. Der Hygieneleitlinie als Ergänzung zum Dialysestandard 2006 [8] entsprechend müssen die eingesetzten Dialysegeräte (Hämo- oder Peritonealdialyse) den Vorschriften des Medizinproduktegesetzes (MPG) entsprechen und gemäß den Herstellervorschriften (Gebrauchsanweisung, technisches Handbuch) gewartet und betrieben sowie gereinigt und desinfiziert werden [7]. Durch diese gefor-
⊡ Tab. 3.6. Richtwerte für die Beurteilung des Dialysewassers in verschiedenen Ländern Dialysewasser (i. d. R. Permeat)
Dialysierflüssigkeit
[KBE/ml]
Endotoxin
[KBE/ml]
Endotoxin
AAMI (USA, 2004)
≤200
2 Eu/ml
≤ 200
2 Eu/ml
Europäische Pharmacopoe (2008)
≤ 100
≤ 0,25 IU/ml
Keine Angaben
Keine Angaben
Japanese Society for Dialysis Therapy (2008)
< 100
< 0,05 Eu/ml
< 100
0,05 Eu/ml
29 3.8 · Praktische Beispiele
derte Desinfektion nach jedem Patienten gilt die früher geforderte Trennung in einen »gelben« (für infektiöse Patienten) und »weißen« (für nichtinfektiöse Patienten) Bereich als überholt. Der Betreiber ist dafür verantwortlich, dass alle Teile, die mit dem gebrauchten Dialysat oder gar Blut des Patienten in Berührung kommen, als potentiell infektiös angesehen werden und nach jeder Dialyse eine Desinfektion des Geräts erfolgt. Diese kann erfolgen durch [10]: ▬ Sterilisation mit Dampf von 121°C, soweit materialtechnisch möglich (Geräte mit Edelstahlwannen), ▬ Desinfektion mit Heißwasser (90–95°C über 20 Minuten); dabei wird automatisch Zitronensäure zugegeben, um Ablagerungen im Gerät zu verhindern, ▬ chemothermische Desinfektion (aus ökologischen Gründen vorzugsweise mit Peressigsäure, möglich auch mit Formaldehyd bzw. Glutaraldehyd oder Natriumhypochlorid). Dialysatoren wurden in der Vergangenheit regelmäßig wiederaufbereitet. Für die USA wird angegeben, dass der Anteil der Dialysezentren, die wiederaufbereiten, von 18% im Jahr 1976 auf 82% im Jahr 1997 angestiegen ist [34] und entsprechende Aufbereitungsrichtlinien der Association for the Advancement of Medical Instrumentation (AAMI) von den offiziellen Stellen übernommen wurden [3]. Danach fiel der Prozentsatz bis zum Jahr 2002 auf 62%. In der Literatur werden infektiöse Komplikationen bis hin zu Ausbrüchen im Rahmen von einer Wiederaufbereitung von Dialysatoren beschrieben, ohne dass eine Kausalität eindeutig nachgewiesen werden konnte [2]. Deshalb sind im Fall einer Wiederaufbereitung von Dialysatoren zur Qualitätssicherung wirksame Verfahren sicherzustellen, die derzeit auf einer chemothermischen Desinfektion beruhen. Die Hygieneleitlinie als Ergänzung zum Dialysestandard 2006 der Deutschen Arbeitsgemeinschaft für Klinische Nephrologie e.V. (in Zusammenarbeit mit dem Verband Deutsche Nierenzentren der DDnÄ e.V.) sowie der Gesellschaft Pädiatrische Nephrologie (GPN) weist – abgestimmt mit der Kommission für Krankenhaushygiene und Infektionsprävention (KRINKO) – ebenfalls auf die Anforderungen an ein Aufbereitungsverfahren mit entsprechender Validierung hin und betont, dass die Deutsche Arbeitsgemeinschaft für Klinische Nephrologie e.V. eine Wiederverwendung von Dialysatoren und Schlauchsystemen trotz der finanziellen Auswirkungen derzeit nicht favorisiert [7]. Untersuchungen zur Überwachung von Reinwasser und Dialysierflüssigkeit sind mindestens 2-mal jährlich durchzuführen und zu dokumentieren [7, 29]. Die entsprechenden wasserführenden Systeme (z. B. Ringleitungen) sind mit geeigneten Probeentnahmestellen auszustatten. Zur Überprüfung der mikrobiologischen Wasserqualität wird folgendes mikrobiologisches Vorgehen für erforderlich gehalten [29]:
▬ vor jeder Abnahme Händedesinfektion ▬ sterile Glasflaschen mit Schraubverschluß zum Auffangen verwenden ▬ zur Prüfung auf Endotoxine pyrogenfreie Gefäße aus Polystyrol verwenden ▬ jeweils ca. 100 ml abnehmen ▬ Entmineralisiertes Wasser: – aus der Ringleitung am Bettplatz – aseptische Abnahme (desinfizierter Adapter) – mindestens 2-mal jährlich ▬ Basisches Bikarbonat: – nur wenn es als Konzentrat aus einer Ringleitung am Bettplatz entnommen wird (nicht aus Kanistern oder Kartuschen) – aseptische Abnahme (desinfizierter Adapter) – 1-mal pro Monat ▬ Dialysierflüssigkeit: – Abnahme aus dem Dialysator – vor Beginn oder am Ende der Dialyse – alle 6 Monate ▬ Die Beurteilung erfolgt nach folgenden Richtwerten: – im aufbereiteten Wasser und in der Dialysierflüssigkeit vor Beginn der Dialyse: 100 KBE/ml In einer 2009 erschienenen ISO-Norm [16], in der die Qualität von Flüssigkeiten für die Hämodialyse als internationaler Standard formuliert ist, sind zusätzlich zu mikrobiologischen Qualitätsstandards auch Anforderungen und Grenzwerte zu chemischen Bestandteilen und Verunreinigungen in Wasser, Konzentrat und Dialysierflüssigkeit aufgeführt. Der Betreiber von Dialysefachabteilungen ist für die Überwachung der mikrobiologischen Wasserqualität und auch für das chemische Monitoring verantwortlich.
3.8.6 Creutzfeldt-Jakob-Erkrankung
Nach Anwendung von Medizinprodukten an Patienten mit dringendem Verdacht auf bzw. nachgewiesener Erkrankung an Creutzfeldt-Jakob (CJK) bzw. dessen neuer Variante (vCJK) sind besondere Aufbereitungsverfahren erforderlich [14, 35]. Nach der derzeit favorisierten Prionen-Theorie kommt der Reinigung bei der Aufbereitung eine besondere Bedeutung zu, da Proteine primär entfernt werden müssen. Für eine desinfizierende Aufbereitung werden derzeit 1–2 M Natronlauge (NaOH) bzw. 2,5–5% Natriumhypochlorid (NaOCl) bzw. 4M GuanidiniumThiocyanat (GdnSCN) empfohlen [35]. Instrumente, die nicht dampfsterilisierbar sind, werden mit aldehydischen Desinfektionsmitteln nachbehandelt, abschließend mit 70%igem Alkohol gespült (z. B. Endoskope) und gassterilisiert. Dampfsterilisierbare Instrumente werden nach der chemischen Dekontamination einer maschinellen Aufbe-
3
30
3
Kapitel 3 · Hygiene in der Medizintechnik
reitung bei 93°C zugeführt und abschließend bei 134°C eine Stunde lang autoclaviert. Die entsprechenden Anlagen der RKI-Richtlinie sind zu beachten [35].
3.9
Regelwerke
3.9.1 Technische Regeln für Gefahrstoffe
▬ TRGS 513 Begasungen mit Ethylenoxid und Formaldehyd in Sterilisations- und Desinfektionsanlagen (Ausgabe 6/2008) ▬ TRGS 525 Umgang mit Gefahrstoffen in Einrichtungen zur humanmedizinischen Versorgung (Stand Mai 1998 BArbBl. Nr.5/1998, S. 58, zurzeit in Überarbeitung) ▬ TRGS 401 Gefährdung durch Hautkontakt (Stand 6/2008) ▬ TRBA/TRGS 406 Sensibilisierende Stoffe für die Atemwege (Stand 06/ 2008) ▬ TRBA 250 Technische Regeln für Biologische Arbeitsstoffe
3.9.2 Normen
Normen sind durch die Richtlinie 93/42/EWG über Medizinprodukte und das entsprechend harmonisierte deutsche Medizinproduktegesetz (MPG) in ihrer Bedeutung aufgewertet worden. Sie geben den (Mindest-)Stand der Technik an, den der Hersteller bei Konzeption und Fertigung, Betrieb bzw. Anwendung von Medizinprodukten zu beachten hat (⊡ Tab. 3.7). Einen Überblick über wesentliche Normen im Bereich der Sterilisationstechnik für das Gesundheitswesen gibt ⊡ Tab. 3.8. ⊡ Tab. 3.7. Normen für den (Mindest)stand für Medizinprodukte Art der Norm
Herkunft
DIN
Deutsche Norm
E DIN
Veröffentlichter deutscher Normenentwurf
EN
Europäische Norm
DIN EN
Harmonisierte (europäische) Norm
prEN, E DIN EN ISO
Veröffentlichter europäischer Normenentwurf Internationale Norm
⊡ Tab. 3.8. Überblick über wesentliche Normen im Bereich der Sterilisationstechnik für das Gesundheitswesen Norm
Dampfsterilisation
Stand
DIN EN 285
Sterilisation – Dampfsterilisatoren – Großsterilisatoren
08/2009
Norm
Validieren
Stand
Sterilisation von Produkten für die Gesundheitsfürsorge – Feuchte Hitze DIN EN ISO 17665-1
Anforderungen an die Entwicklung, Validierung und Lenkung der Anwendung eines Sterilisationsverfahrens für Medizinprodukte
11/2006
DIN 58948
Sterilisation – Niedertemperatur-Dampf-Formaldehyd-Sterilisatoren
Teil 17
Bauliche Anforderungen und Anforderungen an die Betriebsmittel sowie den Betrieb von Niedertemperatur-Dampf-Formaldehyd-Sterilisatoren
03/2009
DIN EN 14180
Sterilisatoren für medizinische Zwecke Niedertemperatur-Dampf-Formaldehyd-Sterilisatoren – Anforderungen und Prüfung
01/2010
Norm
Ethylenoxidsterilisation
Stand
DIN EN 1422
Sterilisation für medizinische Zwecke – Ethylenoxidsterilisatoren – Anforderungen und Prüfverfahren
08/2009
DIN 58948-7
Bauliche Anforderungen und Anforderungen an die Betriebsmittel sowie den Betrieb von Ethylenoxidsterilisatoren
01/2010
DIN 58949
Dampfdesinfektionsapparate
Stand
Teil 1
Begriffe
1/2001
Teil 2
Anforderungen
1/2001
Teil 3 ▼
Prüfung auf Wirksamkeit
2/2004
3
31 3.9 · Regelwerke
⊡ Tab. 3.8. Fortsetzung Teil 4
Bioindikatoren zur Prüfung auf Wirksamkeit
10/2006
Teil 6
Betrieb von Dampfdesinfektionsapparaten
2/2004
Teil 7
Bauliche Anforderungen und Anforderungen an die Betriebsmittelversorgung
1/2001
DIN 58955
Dekontaminationsanlagen im Bereich der Medizin
Stand
Teil 1
Begriffe
1/2003
Teil 2
Anforderungen
7/2005
Teil 3
Prüfung auf Wirksamkeit
9/1998
Teil 4
Bioindikatoren zur Prüfung auf Wirksamkeit
3/2006
Teil 6
Betrieb
3/2001
Teil 7
Bauliche Anforderungen und Anforderungen an die Betriebsmittelversorgung
3/2001
Norm
Biologische Prüfung von Sterilisatoren
DIN EN ISO 11138
Sterilisation von Produkten für die Gesundheitsfürsorge – Biologische Indikatoren
Teil 1
Anforderungen
08/2008
Teil 2
Biologische Indikatoren für Sterilisationsverfahren mit Ethylenoxid
09/2009
Teil 3
Biologische Indikatoren für Sterilisationsverfahren mit feuchter Hitze
09/2009
Teil 4
Biologische Indikatoren für Sterilisationsverfahren mit Heißluft
09/2006
Teil 5
Biologische Indikatoren für Sterilisationsverfahren mit Niedertemperaturdampf- und Formaldehydsterilisatoren
09/2007
DIN 5821
Norm-Entwurf: Prüfverfahren zum Nachweis der Eignung eines Prüfkörpers zur Simulation von Medizinprodukten bei der Dampfsterilsation – Medizinproduktsimulatorprüfung
12/2008
Norm
Nichtbiologische (chemische) Prüfung von Sterilisatoren
Stand
DIN EN ISO 11140
Sterilisation von Produkten für die Gesundheitsfürsorge – Chemische Indikatoren
Teil 1
Allgemeine Anforderungen
09/2009
Teil 3
Indikatorsysteme der Klasse 2 zur Verwendung im Bowie-Dick-Dampfdurchdringungstest
09/2009
Teil 4
Indikatoren der Klasse 2, die alternativ zum Bowie-Dick-Test für den Nachweis der Dampfdurchdringung verwendet werden
07/2007
Literatur 1. Aitkenhead AR et al. (1993) International standards for safety in the intensive care unit. Intensive Care Med 19: 178–181 2. Arduino JM (2007) Dialysis-associated complications and their control. In: Jarvis WR (ed) Bennett & Brachmann‘s hospital infections, 5th ed. Lippincott, Williams & Wilkins, Philadelphia 3. Association for the Advancement of Medical Instrumentation (2003) American national standard: reuse of hemodialyzers ANSI/ AAMI RD47-2002/A1:2003, Arlington, VA: Association for the Advancement of Medical Instrumentation 4. Baron H et al. (2001) Prions. In: Block SS (ed) Disinfection, sterilization, and preservation, 5th ed. Lippincott, Williams & Wilkins, Philadelphia 5. Borneff M et al. (1993) Zur Wirksamkeit und Prüfung von H2O2Plasma-Sterilisatoren. Hyg Med 18: 557–558 6. Craven D et al. (1996) Nosocomial pneumonia in mechanically ventilated adult patients: epidemiology and prevention in 1996. Semin Respir Infect 11: 32–53
7. Dialyseeinheiten (2008) Hygieneleitlinie als Ergänzung zum Dialysestandard 2006 der Deutschen Arbeitsgemeinschaft für Klinische Nephrologie e.V. in Zusammenarbeit mit dem Verband deutsche Nierenzentren der DD nÄ e.V. sowie der Gesellschaft für pädiatrische Nephrologie (GPN) in Abstimmung mit der KRINKO. www.nephrologie.de/Leitlinie.pdf bzw. www.rki.de 8. Dialysestandard 2006 der Deutschen Arbeitsgemeinschaft für klinische Nephrologie (2006). Mitt Arb Klin Nephro XXXV, S 121–184 (http://www.nephrologie.de/Richtlinien.html) 9. Forster DH et al. (1999) Prävention nosokomialer Harnweginfektionen. Intensivmedizin 36: 15–26 10. Gartmann H, Dettenkofer M (2006) Dialyse. In: Daschner F (Hrsg) Praktische Krankenhaushygiene und Umweltschutz, 3. Aufl. Springer, Berlin Heidelberg New York Tokio 11. Gastmeier P et al. (1999) Prävention nosokomialer Infektionen in der Intensivstation und im OP. Anästhesist 48: 575–590 12. Gastmeier P et al. (1998) Device-associated nosocomial infection surveillance in neonatal intensive care using specified criteria for neonates. J Hospit Infect 38: 51–60
32
3
Kapitel 3 · Hygiene in der Medizintechnik
13. Herzog V (2000) Desorption von Ethylenoxid (EO) zur Einhaltung der Grenzwerte. Zentralsterilisation 8: 204–209 14. Hörnlimann B, Riesner D, Kretzschmar H (Hrsg) (2001) Prionen und Prionkrankheiten. De Gruyter, Berlin New York 15. Hofmann F (1997) Arbeitsmedizin und Gesundheitsschutz im Krankenhaus. In: Daschner F (Hrsg) Praktische Krankenhaushygiene und Umweltschutz, 2. Aufl. Springer, Berlin Heidelberg New York Tokio 16. ISO 11663 (2009) Quality of dialysis fluid for hemodialysis and related therapies. International Organization for Standardization. www.iso.org 17. Just HM, Ziegler R (2006) Isolierungsmaßnahmen In: Daschner F (Hrsg) Praktische Krankenhaushygiene und Umweltschutz, 3. Aufl. Springer, Berlin Heidelberg New York Tokio 18. Kolleff MH (1999) The prevention of ventilator-associated pneumonia. Current Concepts 340: 627–634 19. KRINKO (1999) Prävention und Kontrolle Katheter-assoziierter Harnwegsinfektionen. Mitteilung der Kommission für Krankenhaushygiene und Infektionsprävention am Robert Koch-Institut. Bundesgesundheitsblatt 42: 806–809 20. KRINKO (2000) Prävention der Nosokomialen Pneumonie. Mitteilung der Kommission für Krankenhaushygiene und Infektionsprävention am Robert Koch-Institut. Bundesgesundheitsblatt 43: 302–309 21. KRINKO (2001) Anforderungen an die Hygiene bei der Aufbereitung von Medizinprodukten. Mitteilung der Kommission für Krankenhaushygiene und Infektionsprävention am Robert KochInstitut. Bundesgesundheitsblatt 44: 1115–1126 22. KRINKO (2002) Prävention Gefäßkatheter-assoziierter Infektionen. Mitteilung der Kommission für Krankenhaushygiene und Infektionsprävention am Robert Koch-Institut. Bundesgesundheitsblatt 45: 907–924 23. KRINKO (2004) Anforderungen an die Hygiene bei der Reinigung und Desinfektion von Flächen. Mitteilung der Kommission für Krankenhaushygiene und Infektionsprävention am Robert KochInstitut. Bundesgesundheitsblatt 47: 51–61 24. KRINKO (2007) Prävention postoperativer Infektionen im Operationsgebiet. Mitteilung der Kommission für Krankenhaushygiene und Infektionsprävention am Robert Koch-Institut. Bundesgesundheitsblatt 50: 377–393 25. Lacour M (1998) Prävention von Infektionen durch intravasale Katheter. Intensivmedizin 35: 582–592 26. Lacour M et al. (1998) Prävention der nosokomialen Pneumonie. Empfehlungen des Nationalen Referenzzentrums (NRZ) für Krankenhaushygiene, 1. Prävention der Beatmungspneumonie. Intensivmedizin 35: 87–94 27. Martin MA (1997) Nosocomial infections related to patient care support services: Dietetic Services, Central Services Department, Laundry, Respiratory Care, Dialysis, and Enoscopy. In: Wenzel RP (ed) Prevention and control of nosocomial infections, 3rd edn. Williams & Wilkins, Baltimore Philadelphia London 28. Mecke P (1992) Wasserstoffperoxid-Plasma. Ein interessantes mikrobizides Prinzip. Hyg Med 17: 537–542 29. Mikrobiologisch-infektiologische Qualitätsstandards (MiQ) 22 (2005) Krankenhaushygienische Untersuchungen, Teil 1. Elsevier Verlag, München, S 22–27 30. RKI (2010) Impfempfehlungen der Ständigen Impfkommission (STIKO) am Robert Koch-Institut/Stand Juli 2010 (http://www.rki. de) 31. RKI (2003) Liste der vom Robert Koch-Institut geprüften und anerkannten Desinfektionsmittel und -verfahren. Stand vom 31.05.2003, 14. Ausgabe. Bundesgesundheitsblatt Gesundheitsforsch Gesundheitsschutz 46: 72–95 32. Ruef C et al. (1997) Sterilisation mit Ethylenoxid: Anwendungen und Grenzen. Swiss-Noso – Nosokomiale Infektionen und Spitalhygiene 4: 3–6
33. Stamm WE (1978) Infections due to medical devices, part 2. Ann Int Med 89: 764–769 34. Tokars JI et al. (2000) National surveillance of dialysis-associated diseases in the United States, 1997. Seminars Dialysis 13: 75–85 35. Verhütung und Kontrolle von TSE: Die Variante der Creutzfeldt-Jakob-Krankheit (vCJK). Epidemiologie, Erkennung, Diagnostik und Prävention unter besonderer Berücksichtigung der Risikominimierung einer iatrogenen Übertragung durch Medizhinprodukte, insbesondere chirurgische Instrumente – Abschlussbericht der Task Force vCJK zu diesem Thema (2002). Mitteilung der Robert Koch-Instituts. Bundesgesundheitsblatt 45: 376–394 36. Widmer AF, Siegrist H (1994) Plasmasterilisation: eine revolutionäre Technik für thermolabile Instrumente. Swiss-Noso – Nosokomiale Infektionen und Spitalhygiene 1: 7
4 Vorschriften für Medizinprodukte M. Kindler, W. Menke 4.1
Einführung – 33
4.2
Risiken von Medizinprodukten – 33
4.2.1 4.2.2 4.2.3
Das Vigilanzsystem für Medizinprodukte – 34 Meldungen von 2000 bis 2009 – 34 Fehlerarten, -ursachen und Maßnahmen – 34
4.3
Europäische Grundlagen – 35
4.3.1 4.3.2 4.3.3 4.3.4 4.3.5
Neue Konzeption und Gesamtkonzept – 35 Richtlinien der EU für Medizinprodukte – 37 Benannte Stellen – 37 Grundlegende Anforderungen – 37 CE-Kennzeichnung – 38
4.4
Allgemeine Vorschriften des Medizinproduktegesetzes – 38
4.4.1 4.4.2 4.4.3 4.4.4
Anwendungsbereich – 38 Definition des Medizinproduktes – 38 Klassifizierung von Medizinprodukten – 38 Melde- und Beobachtungssystem – 39
4.5
Spezielle Vorschriften des MPG für Hersteller und Importeure – 40
4.5.1
Der Bevollmächtigte des Herstellers in der EU – 40
4.1
Einführung
Seit 1995 sind die Vorschriften für Medizinprodukte in erster Linie im Medizinproduktegesetz (MPG) und in zahlreichen Verordnungen zusammengefasst. Auf diese Weise sind die zuvor in verschiedenen Rechtsbereichen enthaltenen deutschen Vorschriften für zu medizinischen Zwecken eingesetzte Geräte an die Vorgaben europäischer Richtlinien angepasst und gleichzeitig vereinheitlicht worden. Auch wenn dieser Prozess als weitgehend abgeschlossen angesehen werden kann, sind sowohl auf europäischer als auch auf nationaler Ebene zur Anpassung an Erfordernisse der Umsetzungspraxis in den nächsten Jahren weitere rechtliche Veränderungen abzusehen, beispielsweise bei der Aufbereitung. Im Rahmen dieses Buches kann und soll lediglich eine orientierende Einführung in den umfangreichen und komplizierten Rechtsbereich der Medizinprodukte gegeben werden, ansonsten muss auf die zahlreich erschienene Spezialliteratur verwiesen werden (für Leser mit technischem Hintergrund: Böckmann u. Frankenberger 1994; Kindler u. Menke 2007; Nöthlichs et al. 1994; Schorn et al. 1998). Bei der Umsetzung kommt es immer wieder an den Grenzen zu anderen Rechtsbereichen wie dem Arzneimittel-, Eich- und Atomrecht zu Abgrenzungsproblemen. Als Beispiel seien medizinische Patientenwaagen und La-
4.5.2 4.5.3
Konformitätsbewertung – 43 Klinische Bewertung und Klinische Prüfung – 43
4.6
Rechtsverordnungen des MPG für Hersteller – 43
4.6.1 4.6.2 4.6.3 4.6.4
Medizinprodukte-Sicherheitsplanverordnung – 43 Medizinprodukte-Verordnung – 43 Medizinprodukte-Vertriebswegeverordnung – 43 Medizinprodukte-Verschreibungspflichtverordnung – 43 Medizinprodukte-Gebührenverordnung – 45 Sonstige Verordnungen – 45
4.6.5 4.6.6
4.7
Spezielle Vorschriften für Betreiber und Anwender – 45
4.7.1 4.7.2 4.7.3 4.7.4 4.7.5 4.7.6
Betreiber und Anwender – 45 Dokumentationspflichten – 46 Kontrollpflichten – 47 Einweisungspflichten – 47 Meldepflichten – 47 Aufbereitung – 48
Literatur – 48
borwaagen genannt, welche unter die EG-Richtlinie über nichtselbsttätige Waagen fallen können. Eine Verschachtelung mit den Unfallverhütungsvorschriften verkompliziert die Situation ebenfalls. Auch Medizinprodukterecht und Sozialversicherungsrecht sind nur eingeschränkt kompatibel, was ebenfalls zu erheblichen rechtlichen Unsicherheiten führt (Menke u. Kindler 2008).
4.2
Risiken von Medizinprodukten
Bei einer statistischen Auswertung von 1463 Unfällen (von der Mosel 1971) ergab sich für die Unfallursachen folgende prozentuale Verteilung: Unfallursachen
▬ Falsche oder unsachgemäße Anwendung elektromedizinischer Geräte sowie Unkenntnis und Leichtsinn des Bedienungspersonals solcher Geräte: 64% ▬ Unzureichend oder falsch geplante sowie veraltete elektrische Verteilersysteme und Installationen sowie deren unzureichende oder mangelhafte Pflege: 16% ▬ Unzulängliche oder fehlende Instandhaltung elektromedizinischer Geräte sowie Mängel an regelmäßigen Sicherheitsinspektionen: 10% ▼
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _4, © Springer-Verlag Berlin Heidelberg 2011
34
4
Kapitel 4 · Vorschriften für Medizinprodukte
▬ Fehlerhafte Planung oder Konstruktion elektromedizinischer Geräte: 8%
▬ Unvermeidbare Unfälle, verursacht durch unvorhersehbare Umstände: 2%
Die Ergebnisse dieser schon als klassisch zu bezeichnenden Auswertung wurden später durch zahlreiche Untersuchungen in der Tendenz bestätigt. Bei einer von der Medizinischen Hochschule Hannover durchgeführten Analyse von 3200 aus Versicherungsakten zufällig ausgewählten medizinischen Schadensfällen (Anna 1994; Bleyer 1992) wurden unter diesen (nur!) 209 Zwischenfälle mit Beteiligung medizinisch-technischer Geräte gefunden, wobei hierin sogar auch Verbrennungen durch Wärmflaschen und Stürze von Untersuchungstischen enthalten waren. Bei den Hochfrequenz-Chirurgiegeräten waren fast 90% der Zwischenfälle auf Bedienungsfehler zurückzuführen, bei den Geräten zur physikalischen Therapie nur etwas über 20%. Etwa 11% der 209 Unfälle endeten tödlich.
4.2.1 Das Vigilanzsystem für Medizinprodukte
Die Meldepflicht von Vorkommnissen wurde im Medizinproduktegesetz (MPG) zunächst vor allem auf den Hersteller übertragen und auch auf die Beinaheunfälle (sog. Beinahe-Vorkommnisse) ausgedehnt. Zudem erfasst das europaweite Medizinprodukte-Beobachtungsund Meldesystem alle Vorfälle, die eine Gefährdung von Patienten, Anwendern oder Dritten hervorrufen konnten. Eine Meldekette vom Medizinprodukteberater des Herstellers oder Fachhandels als Ohr am Markt zum Sicherheitsbeauftragten des Herstellers soll möglichst frühzeitig unentdeckte Risiken der Medizinprodukte aufzeigen. Eine breite Datenbasis liefert seit einiger Zeit das europaweite Verfahren zur Meldung und Bewertung von Vorkommnissen, für dessen Durchführung in Deutschland das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) in Zusammenarbeit mit den entsprechenden Länderbehörden zuständig ist. Nachdem die Information der Fachkreise über Mängel anfangs sehr restriktiv gehandhabt worden ist, nimmt die Behörde inzwischen eine sehr aktive Rolle ein. Auf den Internetseiten des BfArM sind aktuelle Risikohinweise, Herstellermaßnahmen und Behördenempfehlungen sowie die Ergebnisse der wissenschaftlichen Aufarbeitung von Vorkommnissen zu finden (www.bfarm.de).
4.2.2 Meldungen von 2000 bis 2009
Die Zahl der Vorkommnis-Meldungen ist in den letzten Jahren deutlich angestiegen, da zunehmend auch
Anwender und Betreiber das Verfahren genutzt haben (⊡ Abb. 4.1). Trotzdem muss mit einer sehr hohen Dunkelziffer gerechnet werden. Durch eine Fokussierung des europäischen Vorkommnis-Begriffs auf Produktfehler (im weiteren Sinne) bestehen Ausnahmen von der Meldepflicht, welche insbesondere bei Anwendern und Betreibern zu einer Verunsicherung geführt haben und zudem Ursache von Lücken im Meldesystem sind. Auch erfolgt die Feststellung der Ursachen i.d.R. nicht durch Sachverständige der Behörde. Bei Mängeln von Implantaten beispielsweise kann die Gesamtzahl der geschädigten Patienten ein Mehrfaches der gemeldeten Fälle betragen. Bei der statistischen Auswertung von 17951 Meldungen in den Jahren 2006 bis 2009 sind 10% der niedrigsten Risikoklasse I zuzuordnen, 15% und 34% den Klassen II a und II b sowie 16% der höchsten Klasse III. 25% der Meldungen bezogen sich auf aktive Implantate (Quelle: Statistische Auswertungen des Vigilanzsystems vom 17.03.2010, www.bfarm.de). 78% der Vorfälle wurden von den Herstellern und ihrem Vertrieb gemeldet, von den Anwendern und Betreibern dagegen nur 17%, die restlichen Meldungen kamen von Apothekern, Patienten und Anwälten. 448 Menschen (3%) bezahlten das Risiko mit ihrem Leben, in 1798 Fällen (10%) erlitten sie kritische Verletzungen. Weitere 38% der Vorfälle hatten schwerwiegende Konsequenzen, während 12% bzw. 24% der Betroffenen nur geringe bis keine Komplikationen erlitten. In 13% der Vorfälle blieben die Auswirkungen unklar. Die tödlichen Fälle waren zur Mehrzahl (53%) nicht auf das Medizinprodukt zurückzuführen. Die Kategorie »nicht produktbezogene Ursachen« umfasst fehlerhafte Anwendung, mangelhafte Installation, Instandhaltung oder Aufbereitung und Fehler bei Lagerung bzw. Transport.
4.2.3 Fehlerarten, -ursachen und Maßnahmen
In einem Beobachtungszeitraum von fünf Jahren (2005– 2009) wurden von BfArM 21666 Vorfälle ausgewertet. 28% der Fehler konnten der Mechanik zugeordnet werden, davon waren fast die Hälfte nicht produktbezogen. Jeweils jeder sechste Fall wies entweder konstruktions- oder fabrikationsbedingte Mängel auf. Die zweithäufigste Fehlerart waren Fehlfunktionen: Sie traten bei jedem fünften Fall auf und konnten in einem Drittel der Fälle nicht auf das Produkt zurückgeführt werden. Elektrische Fehler traten nach den »unerwünschten medizinischen Wirkungen«, die als Sammelbecken für nichtidentifizierte Fehlerarten dient, in der vierten Rangfolge auf. Hierbei waren 45% der Mängel nicht produktbezogen. Einen starken Zuwachs erfährt die Entdeckung von Softwarefehlern, die beginnend bei 18 Fällen im Jahr
35 4.3 · Europäische Grundlagen
4000 aktive Implantate
sonstige Medizinprodukte 3.215
In-Vitro Diagnostika 3000
2.774
3.349
2.903
2.532 2.299 1.965
2000 1.549
1.615
1.791
363 0
369
416
449
21
33
58
121
2000
2001
2002
2003
597
648
200
207
235
2004
2005
2006
2006, dann 42 im Jahr 2007 und 55 in Jahr 2008 nunmehr 77 Fälle im Jahr 2009 umfasst. Bei den 41% nicht produktbezogenen Fehlerursachen war nur jede zehnte direkt auf Anwenderfehler zurückzuführen, in 63% der Fälle war die Ursache nicht mehr feststellbar. Bei den 3048 Konstruktionsfehlern ließen sich 667 auf fehlerhafte Software und 532 auf Materialfehler eingrenzen. In den letzten fünf Jahren gab es 2505 Rückrufe von Medizinprodukten und 609 spezielle Anwenderinformationen, während in 14554 Fällen keine Maßnahmen durch das BfArM veranlasst wurden.
4.3
1.178
1.163
1.137
583
504
406
852
1000
Europäische Grundlagen
Das Medizinproduktegesetz (MPG) basiert entsprechend seiner hauptsächlichen Zielsetzung, nämlich der Anpassung an europäisches Recht sowie der Vereinheitlichung der deutschen Vorschriften, sowohl auf europäischen als auch auf nationalen Grundlagen (⊡ Abb. 4.2). Mit dem Medizinproduktegesetz wurde der gesetzliche Rahmen geschaffen, den eine ganze Reihe von Verordnungen ausfüllt. Die wesentlichen Teile des deutschen Medizinprodukterechts beruhen auf der Umsetzung von Vorgaben der EU, welche in einzelnen Bereichen, wie etwa bei den Vorschriften für Anwender und Betreiber, durch nationale Regelungen ergänzt werden.
4.3.1 Neue Konzeption und Gesamtkonzept
Zwei wesentliche Grundelemente der europäischen Philosophie bezüglich der Medizinprodukte sind ▬ die Neue Konzeption auf dem Gebiet der technischen Harmonisierung und Normung der EU (damals noch: EG) vom 7. Mai 1985 und
2007
2008
2009
⊡ Abb. 4.1. Entwicklung der Vorkommnis-Meldungen beim BfArM (2000–2009)
▬ das Gesamtkonzept für die Konformitätsbewertung vom 21. Dezember 1989. Hinzu kommen darauf basierende weitere technische Harmonisierungsrichtlinien wie die Konformitätsbewertungsmodule. Mittlerweile sind über 20 EU-Richtlinien auf dieser Basis in Kraft getreten. Mit der »Neuen Konzeption« (New Approach) wurde der Weg einer Festlegung von technischen Detailforderungen zugunsten einer allgemeinen Definition von wesentlichen Anforderungen (Essential Requirements) verlassen. Mit der Konkretisierung dieser allgemeinen Schutzziele sind die europäischen Normenorganisationen CEN/CENELEC mandatiert, die nach einheitlichen Regeln »Europäische Harmonisierte Normen« schaffen. Wenn ein medizinisches Produkt den zutreffenden harmonisierten Normen entspricht, kann davon ausgegangen werden, dass es die wesentlichen Anforderungen der entsprechenden EU-Richtlinien erfüllt. Allerdings ist die Einhaltung der europäischen Normen für den Hersteller freiwillig, d. h., er kann von ihnen abweichen. Dann liegt die Beweislast für die Einhaltung der Grundlegenden Anforderungen allerdings bei ihm. Bei Medizinprodukten der Richtlinie 93/42/EWG ist zu beachten, dass möglicherweise auch die Grundlegenden Sicherheits- und Gesundheitsschutzanforderungen der Maschinenrichtlinie 2006/42/EG sowie andere Richtlinien zu beachten sind. Darunter fällt eine Vielzahl von aktiven Medizinprodukten. Mit dem »Gesamtkonzept« (Global Approach) sollen Handelshemmnisse u.a. dadurch abgebaut werden, dass die Arbeitsweise der verschiedenen Prüf- und Zertifizierungssysteme (Konformitätsbewertungsstellen) in der Transparenz und Zuverlässigkeit ihrer Arbeitsweise einander angenähert werden, um so ein größeres gegenseitiges Vertrauen zu schaffen. Die Beurteilungskriterien
4
36
Kapitel 4 · Vorschriften für Medizinprodukte
Verordnungen/Richtlinien
4
(Stand Frühjahr 2006)
Hygiene bei der Aufbereitung (»RKI-Richtlinie«) Qualitätssicherung laboratoriumsmediz. Untersuchungen (RiliBÄK) Betreiberverordnung (MPBetreibV) Sicherheitsplanverordnung (MPSV) Medizinprodukte-Verordnung (MPV) Vertriebswege-Verordnung (MPVertrV) Verschreibungspflicht-Verordnung (MPVerschrV) DIMDI-Verordnung (DIMDIV) Kosten-Verordnung (BKostV-MPG)
(Stand Frühjahr 2006)
Medizinproduktegesetz (MPG) 1. Änderungsgesetz zum MPG (1. MPG-ÄndG) 2. Änderungsgesetz zum MPG (2. MPG-ÄndG) 3. Änderungsgesetz zum MPG (3. MPG-ÄndG) als Entwurf
⊡ Abb. 4.2. Europäische und nationale Grundlagen/Regelungen des Medizinproduktegesetzes sowie Rechtsverordnungen und Richtlinien
hierfür sind in internationalen Normen wie der ISO (17000er Serie) festgelegt. Wenn ein Produkt unter Anwendung dieser Qualitätssicherungsnormen hergestellt bzw. geprüft worden ist, wird davon ausgegangen, dass es die entsprechenden Anforderungen der EU-Richtlinien erfüllt (Konformitätsvermutung). Dann darf der Hersteller sein Produkt mit dem europäischen Zulassungszeichen, d. h. der CEKennzeichnung, versehen werden (⊡ Abb. 4.3). Bei Medizinprodukten sind als Besonderheit zusätzliche Anforderungen zu erfüllen. »Benannte Stellen«, d. h. im Amtsblatt der EU aufgeführte (notifizierte)
⊡ Abb. 4.3. CE-Kennzeichnung
37 4.3 · Europäische Grundlagen
Zertifizierungsstellen, überwachen die Einhaltung dieser Qualitätsanforderungen durch die Hersteller auf verschiedenen Ebenen. Ausgenommen sind hiervon die Medizinprodukte der Risikoklasse I, soweit nicht eine medizinische Messfunktion vorliegt oder eine Sterilisation vorgesehen ist.
wahl repräsentativer Proben sowie die Dokumentation der Gründe für die Wahl der Probe. Nähere Erläuterungen sind bei der Notified Body Operations Group (www. nbog.eu) zu erfahren.
4.3.4 Grundlegende Anforderungen 4.3.2 Richtlinien der EU für
Medizinprodukte Die breite Palette der in der Medizin eingesetzten Produkte mit primär physikalischer (und nicht pharmakologischer oder metabolischer) Wirkung wird im Wesentlichen durch drei EU-Richtlinien geregelt die zuletzt durch die Richtlinie 2007/47/EG und ihre Ergänzungsrichtlinien geändert wurden: ▬ Aktive implantierbare medizinische Geräte (90/385/ EWG), ▬ Medizinprodukte (93/42/EWG) und ▬ In-vitro-Diagnostika (98/79/EG). Weiterhin haben der Beschluss 768/2008/EG über einen gemeinsamen Rechtsrahmen für die Vermarktung von Produkten sowie die EG-Verordnung 765/2008 über die Vorschriften für die Akkreditierung und Marktüberwachung die Situation im Medizinprodukterecht wesentlich beeinflusst. So wurde in Deutschland zum 1. Januar 2010 erstmalig die Deutsche Akkreditierungsstelle GmbH (DAkkS) geschaffen (www.dakks.de). Damit führen die beiden Koordinierungsstellen ZLG (Zentralstelle der Länder für Gesundheitsschutz bei Arzneimitteln und Medizinprodukten, www.zlg.de) und ZLS (Zentralstelle der Länder für Sicherheitstechnik, www. zls-muenchen.de) keine Akkreditierungen mehr durch, sondern nur noch Benennungen/Notifizierungen von Stellen.
4.3.3 Benannte Stellen
Die Benannten Stellen (»Notified Bodies«) sind neutrale und unabhängige, meist private Organisationen, die Konformitätsbewertungen (Prüfungen und Zertifizierungen) von Produkten und Dienstleistungen gemäß den in den EU-Richtlinien vorgesehenen Verfahren durchführen. Eine Akkreditierung ist nicht erforderlich, kann aber die Benennung vereinfachen. Diese kann direkt bei der zuständigen Behörde (ZLG oder ZLS) erfolgen. Seit dem 21. März 2010 haben die Benannten Stellen eine Stichprobenprüfung für Medizinprodukte der Klassen II a und II b durchzuführen. Für die Prüfung der technischen Dokumentation gelten zusätzliche Anforderungen: die Kontrolle der Auslegungsunterlagen, die Berücksichtigung der technologischen Neuartigkeit bei der Aus-
Das Medizinproduktegesetz verweist auf die Grundlegenden Anforderungen im Anhang I der EU-Richtlinien für Medizinprodukte (93/42/EWG), für aktive Implantate (90/385/EWG) und für In-vitro-Diagnostika (98/79/EG), die verschiedenartige Forderungen enthalten:
Grundlegende Anforderungen der EU-Richtlinien I. Allgemeine Anforderungen 1. vertretbar minimierte Gefährdung von Patienten und Dritten 2. nach Grundsätzen der integrierten Sicherheit ausgelegt 3. Erfüllung der Leistungsangaben des Herstellers 4. keine Änderung bei normaler Belastung 5. keine Änderung bei sachgerechter Lagerung und Transport 6. keine unvertretbaren Nebenwirkungen 7. Nachweis durch eine klinische Bewertung nach Anhang X II. Anforderungen an die Auslegung und die Konstruktion 8. chemische und physikalische Eigenschaften: biologische Verträglichkeit, keine Gefährdung durch Arzneimittel, Blutderivate, Schadstoffe oder Rückstände 9. Infektion und mikrobielle Kontamination: geeignete Verpackung, validierte Sterilisationsverfahren, minimierte Infektionsrisiken, besonders bei tierischen Produkten 10. Konstruktion und Umgebungsbedingungen: sichere Anschlüsse, elektromagnetische Verträglichkeit, Brand- und Explosionsschutz 11. Produkte mit Messfunktion: angemessene Genauigkeit und Konstanz im Sinne der Reproduzierbarkeit, ergonomische Auslegung, Verwendung zugelassener Einheiten 12. Schutz vor Strahlungen: keine gefährdende Emission, optische/akustische Anzeige der Strahlenemission, umfassende Dokumentation, minimale Strahlenexposition 13. Anforderungen an Produkte mit externer oder interner Energiequelle: keine Risiken durch Softwarefehler, Validierung der Software nach dem Stand der Technik, Ladezustandsanzeige
▼
4
38
Kapitel 4 · Vorschriften für Medizinprodukte
4.4.2 Definition des Medizinproduktes
4
bei Akkus, Alarmsystem bei Energieausfall, elektromagnetische Abschirmung, Schutz vor elektrischen, mechanischen und thermischen Risiken 14. Bereitstellung von Informationen durch den Hersteller: Kennzeichnung der Produkte und Inhalte der Gebrauchsanweisung, Berücksichtigung des Kenntnisstandes der vorgesehenen Anwender
4.3.5 CE-Kennzeichnung
Die CE-Kennzeichnung (Conformité Européenne) ist eine Kennzeichnung nach EU-Recht für Produkte der Neue-Konzeption-Richtlinien. Der Hersteller bestätigt durch die Anbringung der CE-Kennzeichnung, dass sein Produkt den geltenden europäischen Richtlinien entspricht. Sie ist kein Gütezeichen, eher eine Art »Reisepass für den EU-Markt«. Bei Medizinprodukten soll die CE-Kennzeichnung nicht nur die Sicherheit gewährleisten, sondern sie beinhaltet gegenüber anderen Produkten zusätzlich auch eine Prüfung der Leistungsfähigkeit. Eine vierstellige Zahl weist auf die Einbindung einer Benannten Stelle in das Konformitätsbewertungsverfahren hin.
4.4
Allgemeine Vorschriften des Medizinproduktegesetzes
Die vierte Novelle des Medizinproduktegesetzes (MPG) trat zum 21. März 2010 in Kraft und setzt die vielfältigen Änderungen und Ergänzungen der EU-Richtlinie 2007/47/EG um. Fast alle Artikel und Anhänge der Richtlinien 90/385/EWG und 93/42/EG wurden geändert.
4.4.1 Anwendungsbereich
Das Medizinproduktegesetz umfasst alle medizinischen Produkte zur Erkennung, Über wachung, Behandlung und Verhütung mit primär physikalischer Wirkung und human- oder zahnmedizinischer Zweckbestimmung sowie deren Zubehör und auch Software. Es gibt vielfältige Verknüpfungen mit dem Arzneimittelgesetz, dem Lebensmittel-, Bedarfsgegenstände- und Futtermittelgesetz, den Vorschriften für persönliche Schutzausrüstungen, der Maschinen-Richtlinie der EU sowie anderen Rechtsakten. Das MPG richtet sich vor allem an Hersteller, Importeure, Fachhändler, Betreiber und Anwender.
Die Definition des Medizinproduktes geht über eine Anwendung in der Heilkunde hinaus. In die Definition einbezogen sind auch Stoffe und Software, Letztere sowohl als erforderlicher Bestandteil von Geräten als auch eigenständig.
4.4.3 Klassifizierung von Medizinprodukten
Für die Zuordnung der Produkte zu den einzelnen Risikoklassen wurde ein kompliziertes und schwierig zu handhabendes Regelwerk geschaffen. Die Anwendung der Regeln richtet sich nach der Zweckbestimmung des Produkts. Produktkombinationen und Zubehör werden unabhängig voneinander einzeln klassifiziert. Die Klassifizierung der Produkte erfordert eine Eingruppierung in eine von vier Risikoklassen (I, IIa, IIb, III), wobei ein größeres vermutetes Risiko einer höheren Klasse entspricht. Die Zuordnung zu einer der Klassen erfolgt grundsätzlich durch den Hersteller (soweit erforderlich, im Einvernehmen mit einer Benannten Stelle). Gibt es mehrere Möglichkeiten der Regelanwendung, so ist das Produkt nach der strengsten Regel in die jeweils höchstmögliche Klasse einzustufen. In Zweifels- oder Streitfällen ist das BfArM als entscheidende Bundesoberbehörde einzuschalten. In der Vergangenheit hat es viele Änderungen und Ausnahmen bei der Klassifizierung von einzelnen Medizinprodukten gegeben. Eine Hilfestellung findet sich in den MEDDEV- und NBMED-Dokumenten (www.meddev.info).
Die Hauptkriterien für die Produktklassifizierung
▬ Kontakt bzw. Wechselwirkung mit dem menschlichen Körper, wie Kontakt mit unversehrter oder verletzter Haut, Invasivität des Produktes im Hinblick auf menschliche Körperöffnungen oder auf chirurgische Eingriffe oder eine vollständige oder teilweise Implantation in den Körper ▬ Kontakt mit lebenswichtigen Organen bzw. Organsystemen, wie z. B. dem Herz-Kreislauf-System oder dem Zentralnervensystem (ZNS) ▬ Abgabe von Energie oder von Substanzen wie z. B. Arzneimitteln in oder an den Körper ▬ Dauer der ununterbrochenen Anwendung bei bestimmungsgemäßem Einsatz am oder im Körper
Fur die Dauer der ununterbrochenen Anwendung gelten folgende Definitionen: ▬ vorübergehend: weniger als 60 Minuten, ▬ kurzzeitig: bis zu 30 Tage, ▬ langzeitig: mehr als 30 Tage.
39 4.4 · Allgemeine Vorschriften des Medizinproduktegesetzes
Instrumente Apparate Vorrichtungen Software Stoffe
einzeln oder miteinander verbunden
Zubereitungen aus Stoffen oder andere Gegenstände einschließlich Software
für diagnostische oder therapeutische Zwecke für einwandfreies Funktionieren eingesetzt
speziell bestimmt zur Anwendung
Erkennung Verhütung a) bei Krankheiten 1 Medizinprodukte generell
Zweckbestimmung zur Anwendung am Menschen
b) bei Verletzungen oder Behinderungen
MPG §3 Medizinprodukt c) anatomischer Aufbau oder physiologischer Vorgang
bestimmungsgemäße Hauptwirkung erreicht
2 Medizinprodukte mit Arzneimittel
Überwachung Behandlung Linderung Erkennung Überwachung Behandlung Linderung oder Kompensierung Untersuchung Ersetzung Veränderung
d) Empfängnisregelung pharmakologische Mittel immunologische Mittel nicht durch Metabolismus aber Wirkungsweise durch diese Mittel unterstützend
enthalten Stoffe nach §2 Abs.1 AMG oder Zubereitung aus Stoffen nach §2 Abs.1 AMG oder auf die solche aufgetragen sind, die im Sinne §2 Abs.1 AMG anzusehen sind und die entfalten können
in Ergänzung zu den Funktionen des Produktes eine Wirkung auf den menschlichen Körper eines Arzneimittels
enthalten Bestandteile eines Arzneimittels
oder menschliches Blut oder Blutplasma in Ergänzung zu den Funktionen des Produktes eine Wirkung auf den menschlichen Körper
3 Medizinprodukte mit menschlichem Blut und die entfalten können
⊡ Abb. 4.4. Definition des Medizinproduktes
4.4.4 Melde- und Beobachtungssystem
Zweck eines Beobachtungs- und Meldesystems ist es, dass sich Vorkommnisse derselben Art nicht wiederholen. Dies soll durch die Bewertung der gemeldeten Vorkommnisse und durch die Verbreitung von Informationen erreicht werden, die zur Vermeidung solcher Wiederholungen bzw. zur Begrenzung der Auswirkungen derartiger Vorkommnisse eingesetzt werden können. Das System umfasst Vorfälle, die eine Gefährdung von Patienten, Anwendern oder Dritten hervorrufen könnten. Eine Meldekette vom Medizinprodukteberater des Herstellers oder Fachhandels als »Ohr am Markt« zum Sicherheitsbeauftragten des Herstellers soll möglichst
frühzeitig unentdeckte Risiken der Medizinprodukte aufzeigen.
Komponenten und Organisationen des deutschen Melde- und Beobachtungssystem für Medizinprodukte nach § 29 MPG
▬ Medizinprodukte-Sicherheitsplanverordnung (MPSV)
▬ Bundesinstitut für Arzneimittel- und Medizinprodukte (BfArM), gemäß § 32 MPG zuständig für die Risikobewertung, Genehmigungen von klinischen
▼
4
40
Kapitel 4 · Vorschriften für Medizinprodukte
4.5
4 ▬
▬
▬ ▬
Prüfungen, Entscheidungen zur Klassifizierung von Medizinprodukten und anderes Paul-Ehrlich-Institut (PEI), gemäß § 32 MPG zuständig für In-vitro-Diagnostika, die zur Prüfung der Unbedenklichkeit oder Verträglichkeit von Blutoder Gewebeproben bestimmt sind oder Infektionskrankheiten betreffen Deutsches Institut für medizinische Information und Dokumentation (DIMDI), nach § 33 MPG zuständig für die zentrale Verarbeitung und Nutzung von Informationen der im Verkehr befindlichen Medizinprodukte Sicherheitsbeauftragte des Herstellers, des Einführers oder des Bevollmächtigten nach § 30 MPG Medizinprodukteberater als Beauftragte des Inverkehrbringers nach § 31 MPG
Regel 1
Klasse I
Zu beachten ist, dass der Begriff des Herstellers im Medizinprodukterecht eine andere Bedeutung als im allgemeinen Sprachgebrauch hat. Nach dem MPG ist auch derjenige Hersteller, der unter eigener Bezeichnung und eigenem Namen Fremdprodukte verkauft (genauer: entgeltlich oder unentgeltlich in den Verkehr bringt oder zur Benutzung überlässt).
4.5.1 Der Bevollmächtigte des Herstellers
in der EU Der Hersteller bestätigt mit der CE-Kennzeichnung die Konformität des Produktes mit den zutreffenden EURichtlinien und die Einhaltung aller diesbezüglichen
soweit keine andere Regel
Klasse I, wenn nur
Regel 2
Klasse IIa, wenn
Klasse IIa, wenn Regel 3
Klasse IIa, wenn
Regel 4
Klasse I, wenn
Klasse IIb, wenn
⊡ Abb. 4.5. Nichtinvasive Produkte
Gasen oder Wärme von Blut Veränderung der physiologischen Zusammensetzung und Flüssigkeiten Austausch von
Klasse IIb, wenn
Invasive Produkte Aktive Produkte Besondere Regeln
Blut Geweben Durchleitung oder Aufbewahrung von Flüssigkeiten Gasen Perfusion Verabreichung oder zum Zwecke einer Einleitung in den Körper Klasse IIa Klasse IIb kombinierbar mit Produkten der Klasse III Blut zur Aufbewahrung oder Durchleitung von oder anderen Körperflüssigkeiten Organen oder zur Aufbewahrung von Organteilen Körpergeweben Filtration, Zentrifugierung,
Nicht-invasive Produkte Klassifizierung von Medizinprodukten
Spezielle Vorschriften des MPG für Hersteller und Importeure
Berührung mit verletzter Haut auch zur Beeinflussung der Mikroumgebung einer Wunde Berührung mit verletzter Haut als mechanische Barriere zur Kompression zur Absorption von Exsudaten Berührung mit verletzter Haut bei durchtrennter Dermis bei Wunden eingesetzt, mit sekundärer Wundheilung
41 4.5 · Spezielle Vorschriften des MPG für Hersteller und Importeure
Nicht-invasive Produkte Klasse I, wenn
Klasse I, wenn
Regel 5 Klasse IIa, wenn
Klasse IIb, wenn
vorübergehende Verwendung und nicht chirurgisch invasiv kein Anschluß an aktives Produkt in Mundhöhle bis zum Rachen im Gehörgang bis zum Trommelfell kurzzeitige Anwendung in der Nasenhöhle kurzzeitige Anwendung außerhalb HNO in Mundhöhle bis zum Rachen im Gehörgang bis zum Trommelfell langzeitige Anwendung in der Nasenhöhle Klasse IIa Klasse IIb kombinierbar mit Produkten der Klasse III langzeitige Anwendung außerhalb HNO
Klasse IIa, wenn
Klasse III, wenn Regel 6 Klasse I, wenn Klasse IIb, wenn Klassifizierung von Medizinprodukten
Invasive Produkte
Klasse IIa, wenn
Regel 7
Klasse III, wenn
Klasse IIb, wenn
Klasse IIb, wenn Klasse IIa, wenn
Regel 8 Klasse III, wenn
Aktive Produkte Besondere Regeln ⊡ Abb. 4.6. Invasive Produkte
vorübergehende Anwendung und chirurgisch-invasiv Überwachung Diagnose zur Kontrolle oder Korrektur eines Defektes Herz und in direktem Kontakt mit zentralem Kreislaufsystem wiederverwendbare chirurgische Instrumente Abgabe ionisierender Strahlungsenergie vollständig oder biologische Wirkung oder Resorption in bedeutendem Umfang Arzneimittelabgabe mit potentieller Gefährdung
kurzzeitige Anwendung und chirurgisch-invasiv Überwachung Diagnose zur Kontrolle oder Korrektur eines Defektes Herz zentralem Kreislaufsystem und in direktem Kontakt mit zentralem Nervensystem vollständig oder biologische Wirkung oder Resorption in bedeutendem Umfang Abgabe ionisierender Strahlung ausgenommen Zahnimplantate chemische Veränderung im Körper oder Arzneimittelabgabe
implantierbar chirurgisch-invasiv oder langzeitig und in Zähne implantiert Herz zentralem Kreislaufsystem in direktem Kontakt mit zentralem Nervensystem Arzneimittelabgabe oder ausgenommen Zahnimplantate chemische Änderung im Körper vollständig oder biologische Wirkung oder Resorption in bedeutendem Umfang
4
42
Kapitel 4 · Vorschriften für Medizinprodukte
Nicht-invasive Produkte Invasive Produkte
4
Klasse IIa, wenn
Therapeutische Produkte
Abgabe von Energie oder Austausch von Energie Art
Regel 9
dabei eine potentielle Gefährdung entsteht
abhängig von
Dichte
Körperteil der Anwendung zur Steuerung der Leistung oder zur Kontrolle bei aktiven therapeutischen Produkten Klasse IIb oder zur direkten Leistungsbeeinflussung Ausnahme: Ausleuchtung im sichtbaren Spektrum mit Energieabgabe zur Absorption in-vivo Darstellung von Radiopharmaka diagnostische Produkte Klasse IIa, wenn direkte Diagnose für vitale Körperfunktionen oder Kontrolle Kontrolle vitaler Parameter mit hohem Risiko zum Aussenden Ionisierender Strahlung Diagnostik oder für die radiologische Therapie Klasse IIb, wenn Produkte der Radiologie Steuerung Kontrolle einschließlich Produkte zur direkten Leistungsbeeinflussung Arzneimitteln, Abgabe oder Entfernung von Körperflüssigkeiten Klasse IIa, wenn und andere Stoffe Art des betreffenden Stoffes des betreffenden Körperteils bei potentieller Gefährdung nach Klasse IIb, wenn oder der Art der Anwendung alle übrigen Produkte Klasse I,
Klasse IIb, wenn
Klassifizierung von Medizinprodukten
Aktive Produkte
Regel 10
Regel 11
Regel 12 Besondere Regeln ⊡ Abb. 4.7. Aktive Produkte
Nicht-invasive Produkte Invasive Produkte Aktive Produkte Regel 13
Klasse III, wenn
Klasse IIb, wenn Regel 14 Klasse III, wenn
Produkte mit Arzneimitteln und ergänzender Wirkung Derivat aus menschlichem Blut enthalten Produkte zur Empfängnisverhütung oder zum Schutz vor Übertragung von Krankheiten implantierbar, oder langzeitig-invasiv
Klassifizierung von Medizinprodukten
zur Desinfektion Reinigung
Besondere Regeln Regel 15
Klasse IIb, wenn
Produkte für Kontaktlinsen
Abspülen Hydratisieren
Desinfektion von invasiven Produkten
⊡ Abb. 4.8. Besondere Regeln
Klasse IIa, wenn
zur Desinfektion von nichtinvasiven Medizinprodukte n
Regel 16
Klasse IIa, wenn
zur Aufzeichnung von Röntgendiagnosebildern
Regel 17
Klasse III, wenn
Regel 18
Klasse IIb, wenn
tierischer Gewebe oder Folgeprodukte davon Ausnahme: Anwendung auf unversehrter Haut
Verwendung
Blutbeutel
43 4.6 · Rechtsverordnungen des MPG für Hersteller
»Grundlegenden Anforderungen«. Befindet sich der Hersteller außerhalb der EU, so hat er einen in der EU niedergelassenen EU-Bevollmächtigten zu benennen, der den nationalen Behörden und zuständigen Stellen als Verantwortlicher zur Verfügung steht.
4.5.2 Konformitätsbewertung
Der Nachweis der Übereinstimmung mit den Anforderungen erfolgt durch ein so genanntes Konformitätsbewertungsverfahren, welches durch eine EU-Konformitätserklärung des Herstellers abgeschlossen wird. Hierfür stehen unterschiedliche Möglichkeiten zur Verfügung (sog. Module A bis H, ⊡ Tab. 4.1), die entsprechend der Klassifizierung des Medizinproduktes miteinander kombiniert werden können. Die verschiedenen Verfahren unterscheiden sich nach ▬ der Bewertung des Designs und der Bewertung der Produktion, wie Auslegung, Baumuster, Produktion, ▬ der Art der jeweiligen Bewertung, wie Prüfung der Unterlagen, des Baumusters, des Qualitatssicherungssystems etc., sowie ▬ der Beteiligung einer Benannten Stelle (Notified Body) oder einer oder mehrerer anderer Stellen. ⊡ Tab. 4.2 gibt einen Überblick über den Einsatz der mög-
lichen Konformitätsbewertungsverfahren in Abhängigkeit von der Produktklassifizierung. Die CE-Kennzeichnung gibt bei Produkten der Klassen IIa, IIb oder III in Form einer vierstelligen Ziffer die Benannte Stelle an, die das Konformitätsbewertungsverfahren durchgeführt hat. Medizinprodukte der Risikoklasse I dürfen eine solche Nummer nicht tragen, da beim Modul A (»Selbstzertifizierung« des Herstellers) die Einschaltung einer Benannten Stelle nicht vorgesehen ist, soweit solche Produkte nicht eine Messfunktion haben oder einem Sterilisationsverfahren unterworfen werden.
len. Das Genehmigungsverfahren für klinische Prüfungen umfasst nun zwei Bereiche: Die Ethik-Kommission prüft einen Antrag nach ethischen und rechtlichen Gesichtspunkten, während das BfArM in einer erweiterten Funktion die wissenschaftlichen und technischen Aspekte bewertet. Eine Rechtsverordnung mit Ausnahmeregelungen für Medizinprodukte mit geringen Sicherheitsrisiken wird zur Zeit (Frühjahr 2010) vorbereitet.
4.6
Rechtsverordnungen des MPG für Hersteller
4.6.1 Medizinprodukte-Sicherheitsplan-
verordnung Die Verordnung über die Erfassung, Bewertung und Abwehr von Risiken bei Medizinprodukten (MPSV) findet nun auch Anwendung auf Medizinprodukte zur klinischen Prüfung und auf In-vitro-Diagnostika für Leistungsbewertungszwecke. Vorkommnisse, korrektive Maßnahmen und schwerwiegende unerwünschte Nebenwirkungen müssen seit dem 21. März 2010 elektronisch an das BfArM gemeldet werden. Entsprechende Meldeformulare sind unter www.bfarm.de abrufbar.
4.6.2 Medizinprodukte-Verordnung
Diese Verordnung regelt die Konformitätsbewertung von Medizinprodukten mit den Grundlegenden Anforderungen, die Sonderverfahren für Systeme und Behandlungseinheiten und die Änderung von Klassifizierungen. Durch die vierte Novelle des MPG wurden die Regelungen für Sonderanfertigungen und die Eigenherstellung von aktiven implantierbaren Medizinprodukten teilweise wesentlich erweitert.
4.6.3 Medizinprodukte-Vertriebswege4.5.3 Klinische Bewertung und Klinische
verordnung
Prüfung Gemäß dem europäischen Recht sind eine Risikobewertung sowie eine darauf aufbauende Risiko-Nutzen-Abwägung in Bezug auf die Nebenwirkungen eines Produktes erforderlich. Der Hersteller hat die Erfüllung der von ihm für ein Produkt angegebenen medizinischen Zweckbestimmung und die Abwesenheit von unvertretbaren Risiken zu belegen. Soweit für eine solche medizinische klinische Bewertung in der Literatur veroffentlichte Daten nicht ausreichen, muss eine klinische Prüfung erfolgen. Dies gilt auch bei implantierbaren und Klasse-III-Medizinprodukten. Durch die MPG-Novelle müssen sich die Hersteller auf einige Neuerungen bei der klinischen Prüfung einstel-
Die Verordnung über Vertriebswege für Medizinprodukte (MPVertrV) wurde zuletzt 2006 angepasst und regelt die Apothekenpflicht bestimmter Medizinprodukte wie z. B. Hämodialysekonzentrate, radioaktive Medizinprodukte oder Medizinprodukte für klinische Prüfungen.
4.6.4 Medizinprodukte-Verschreibungspflicht-
verordnung Die Verordnung über die Verschreibungspflicht von Medizinprodukten (MPVerschrV) wurde zuletzt 2005 geändert. Sie regelt insbesondere die Vorgehensweise bei der
4
unterhält
QMS
CE-Kennzeichnung
QMS
QMS
Baumuster
Baumuster
Baumuster
Baumuster
Konformitätsbescheinigung
Baumusterprüfbescheinigung
stellt aus
QMS
Konformitätsbescheinigung
QMS
QMS
überwacht
Inhalt der einzelnen Module (Erläuterung) Vollständiges Qualitätsmanagementsystem (Anhang II) Der Hersteller unterhält ein zugelassenes Qualitätsmanagementsystem (QMS) für Auslegung, Fertigung und Endkontrolle der betreffenden Produkte. Vor der Fertigung stellt er einen Antrag auf Prüfung der Auslegungsdokumentation. Die Benannte Stelle kontrolliert das QMS, prüft den Antrag auf Produktauslegung, veranlasst zusätzliche Tests oder Prüfungen, führt regelmäßig erforderliche Inspektionen bzw. unangemeldete Besichtigungen durch und erstellt einen Bewertungsbericht. EG-Baumusterprüfung (Anhang III) Der Hersteller unterbreitet der gemeldeten Stelle technische Unterlagen und ein repräsentatives Baumuster. Die Benannte Stelle prüft die Konformität mit Grundlegenden Anforderungen, führt geeignete Prüfungen und Tests durch und stellt die EG-Baumusterprüfbescheinigung aus. EG-Prüfung (Anhang IV) Der Hersteller erklärt die Konformität der Serienprodukte mit dem geprüften Baumuster und führt ein Überwachungssystem nach dem Vertrieb ein. Die Benannte Stelle prüft die Übereinstimmung des Produkts mit den Anforderungen der Richtlinie durch Kontrolle und Erprobung jedes einzelnen Produkts oder durch eine statistische Prüfung. Qualitätsmanagement Produktion (Anhang V) Der Hersteller unterhält ein zugelassenes QMS für Produktion mit Fertigungs- und Endkontrolle der Produkte. Er erklärt die Konformität der Serienprodukte mit dem geprüften Baumuster. Die Benannte Stelle akzeptiert und überwacht das QMS. Qualitätsmanagement Produkt (Anhang VI) Der Hersteller unterhält ein zugelassenes QMS für die Überwachung der Endabnahme und Prüfung der Produkte. Er erklärt die Konformität der Serienprodukte mit dem geprüften Baumuster und den Grundlegenden Anforderungen. Die Benannte Stelle akzeptiert und überwacht das QMS. EG-Konformitätserklärung (Anhang VII) Der Hersteller erklärt die Konformität mit den Grundlegenden Anforderungen der Richtlinie, bringt das CE-Zeichen an und hält die technische Dokumentation bis mindestens 5 Jahre nach dem letzten Fertigungstermin zur Verfügung.
CE-Kennzeichnung
Modul H (Anh. 2) umfass. QM-System
Konformität
Konformität
CE-Kennzeichnung
CE-Kennzeichnung
CE-Kennzeichnung
CE-Kennzeichnung
CE-Kennzeichnung
Modul G Einzelprüfung
Konformität
Modul F (Anh. 4) Produktprüfung
Konformität
Konformität
Produkt
Konformität
Modul E (Anh. 6) QM-Produkte
Techn. Unterlagen Baumuster
Produkt
Konformität
Techn. Unterlagen
Modul D (Anh. 5) QM-Produktion
Modul C Bauart-Konform.
Modul B (Anh. 3) Baumusterprüfung
bringt an
4
Modul A (Anh. 7) Konformerklärung
erklärt
prüft
prüft
hält bereit
legt vor
Die benannte Stelle
Der Hersteller
⊡ Tab. 4.1. Module für das Konformitätsbewertungsverfahren
44 Kapitel 4 · Vorschriften für Medizinprodukte
45 4.7 · Spezielle Vorschriften für Betreiber und Anwender
⊡ Tab. 4.2. Mögliche Konformitätsbewertungsverfahren in Abhängigkeit von der Produktklasse Modul der Konformitätsbewertung (Anhang EG-Richtlinie)
Klasse I
Klasse IIa
Klasse IIb
Klasse III
EG-Konformitätserklärung (VII) EG-Prüfung (IV)
mit Konformitätserklärung (VII)
mit Baumusterprüfung (III)
mit Baumusterprüfung (III)
Qualitätsmanagement Produkt (VI) nach
mit Konformitätserklärung (VII)
mit Baumusterprüfung (III)
mit Baumusterprüfung (III)
Qualitätsmanagement Produktion (V)
mit Konformitätserklärung (VII)
mit Baumusterprüfung (III)
mit Baumusterprüfung (III)
Vollständiges Qualitätsmanagementsystem (II)
ohne Auslegungsprüfung
mit Auslegungsprüfung
mit Auslegungsprüfung
Abgabe von Intrauterinpessaren zur Empfängnisverhütung, von Schweinehaut zur Anwendung als biologischer Verband und von oralen Sättigungspräparaten auf Cellulosebasis zur Gewichtskontrolle.
4.6.5 Medizinprodukte-Gebührenverordnung
Die Gebührenverordnung zum Medizinproduktegesetz und den zu seiner Ausführung ergangenen Rechtsverordnungen (BkostV-MPG) wurde aktuell angepasst: Die Gebühren für Entscheidungen zur Klassifizierung, Amtshandlungen im Rahmen klinischer Prüfungen und Beratungen wurden neu gefasst.
4.7
Spezielle Vorschriften für Betreiber und Anwender
Das Medizinprodukterecht stellt auch die Kliniken, Praxen und sonstigen Einrichtungen und Organisationen wie Altenpflegeheime und Rettungsdienste vor eine ganze Reihe von Aufgaben. Die Vorschriften der Betreiberverordnung MPBetreibV enthalten Anforderungen hinsichtlich Dokumentation, Kontrollen, Einweisungen, Meldungen und Aufbereitung (⊡ Tab. 4.3). Die Einhaltung der Vorschriften und die Dokumentation der Maßnahmen werden nicht nur stichprobenartig von den zuständigen Überwachungsbehörden kontrolliert, sondern immer mehr auch von den Kostenträgern und anderen Institutionen als Kriterium für die Qualität der Einrichtungen vorausgesetzt.
4.6.6 Sonstige Verordnungen
Die Verordnung über das datenbankgestützte Informationssystem über Medizinprodukte des Deutschen Instituts für Medizinische Dokumentation und Information (DIMDI-Verordnung) wurde zuletzt 2007 geändert und regelt u.a. die Erhebung, Übermittlung und Verwendung der Medizinproduktedaten, die vom Inverkehrbringer gemäß § 25 und § 30 MPG anzuzeigen sind. Die Betriebssicherheitsverordnung (BetrSichV) wurde im Dezember 2008 geändert und regelt die Sicherheit und den Gesundheitsschutz bei der Bereitstellung von Arbeitsmitteln und deren Benutzung bei der Arbeit, die Sicherheit beim Betrieb überwachungsbedürftiger Anlagen und die Organisation des betrieblichen Arbeitsschutzes. Weitere Verordnungen, Empfehlungen, Richtlinien und Umsetzungshilfen zum Medizinprodukterecht sind in den einschlägigen Kommentaren zum MPG zu finden (Böckmann u. Frankenberger 1994; Kindler u. Menke 2007; Nöthlichs et al. 1994; Schorn et al. 1998).
4.7.1 Betreiber und Anwender
Wesentliche Adressaten sind Betreiber und Anwender, ferner sind mit der Betreiberverordnung zum MPG so genannte beauftragte Personen neu eingeführt worden:
Betreiber ist die Einrichtung bzw. ihr Träger, vertreten durch die Verwaltungsleitung/Geschäftsführung. Der Betreiber schafft im Rahmen seiner Organisationsverantwortung die Voraussetzungen für die Einhaltung der Vorschriften, indem er die Durchführung der erforderlichen Maßnahmen veranlasst und koordiniert. Die Einrichtung ist auch Betreiber solcher Medizingeräte, die probe- oder leihweise eingesetzt werden. Weder die Krankenkasse selbst noch ein beauftragtes Sanitätshaus sind bei einer Überlassung von Hilfsmitteln wie Rollstühlen oder häuslichen Beatmungsgeräten nach
4
46
4
Kapitel 4 · Vorschriften für Medizinprodukte
⊡ Tab. 4.3. Vorschriften für Anwender und Betreiber im Überblick (Auswahl), in Anlehnung an Menke und Drastik Bestandsverzeichnis:
▬ für alle aktiven Medizinprodukte
Medizinproduktebücher:
▬ für alle Geräte der Anlagen 1 und 2 ▬ Ausnahmen: nichtaktive Blutdruckmessgeräte, Kompaktthermometer
Kontrollen:
▬ STKs für alle Geräte der Anlage 1 ▬ MTKs für alle Geräte der Anlage 2 ▬ Ausnahmen: Kontrollen auch für andere Geräte, wenn der Hersteller diese fordert; keine Kontrollen bei Geräten der Anlagen 1 und 2, wenn der Hersteller diese explizit ausschließt (s. Hinweise im Text) ▬ Einhaltung der Richtlinien der Bundesärztekammer RiliBÄK (Qualitätssicherung quantitativer laboratoriumsmediz. Untersuchungen)
rechte Handhabung eingewiesen werden und sollen ihre Kenntnisse an die anderen Anwender weitergeben.
4.7.2 Dokumentationspflichten
Einweisungen:
▬ »Schneeballprinzip« ist bei Geräten der Anlage 1 nicht vorgesehen
Meldungen:
▬ Vereinfachtes Meldeformular für Anwender und Betreiber
Aufbereitung:
▬ Einhaltung der »Anforderungen an die Hygiene« (»RKI-Empfehlungen«)
einem Urteil des Bundesverwaltungsgerichts von 2003 Betreiber im Sinne des Medizinprodukterechts (BVerwG 3 C 47.02). Nach einer schon zu Zeiten der Medizingeräteverordnung MedGV vor allem von dem Mainzer Juristen Dr. Günter Brenner vertretenen Rechtsauffassung sind die Besitzverhältnisse maßgeblich (nicht die Eigentumsverhältnisse), ausschlaggebend ist die tatsächliche Sachherrschaft (Brenner 1988; Kindler u. Menke 1999a, S. 68f; Menke u. Kindler 2008).
Anwender sind alle Angehörigen medizinischer Berufsgruppen, welche Medizinprodukte tatsächlich handhaben, d. h. einsetzen bzw. bedienen. Dieser Personenkreis hat sich vor der Anwendung eines Medizinprodukts von dessen ordnungsgemäßem Zustand zu überzeugen. Privatpersonen, welche Medizinprodukte zu persönlichen Zwecken nutzen, sind keine Anwender im Sinne des Medizinprodukterechts.
Vom Betreiber beauftragte Personen müssen bei neuen Medizinprodukten mit relativ hohem Risikopotential, welche in der Anlage 1 der Betreiberverordnung MPBetreibV aufgeführt sind, vom Hersteller oder einer sonstigen dazu befugten Person in die sachge-
In das Bestandsverzeichnis sind alle aktiven Medizinprodukte aufzunehmen. Das Bestandsverzeichnis sollte nicht nur der formalen Erfüllung des entsprechenden Paragraphen dienen, sondern kann auch eine wichtige Basis sein für ▬ die Organisation aller vorgeschriebenen Maßnahmen, ▬ die Durchführung der Instandhaltung und ▬ die Planung der Beschaffung/Ausstattung. Medizinproduktebücher sind für alle Medizinprodukte der Anlagen 1 und 2 der Betreiberverordnung zum MPG mit Ausnahme von nichtaktiven Blutdruckmessgeräten und Kompaktthermometern zu führen. Die Medizinprodukte der Anlage 1 entsprechen weitestgehend den ehemaligen Geräten der Gruppe 1 nach der Medizingeräteverordnung (Menke u. Drastik 2000). Dabei handelt es sich um nichtimplantierbare aktive Medizinprodukte zur ▬ Erzeugung und Anwendung elektrischer Energie zur unmittelbaren Beeinflussung der Funktion von Nerven und/oder Muskeln bzw. der Herztätigkeit einschließlich Defibrillatoren; ▬ intrakardialen Messung elektrischer Größen oder Messung anderer Größen unter Verwendung elektrisch betriebener Messsonden in Blutgefäßen bzw. an freigelegten Blutgefäßen; ▬ Erzeugung und Anwendung jeglicher Energie zur unmittelbaren Koagulation, Gewebezerstörung oder Zertrümmerung von Ablagerungen in Organen; ▬ unmittelbaren Einbringung von Substanzen und Flüssigkeiten in den Blutkreislauf unter potentiellem Druckaufbau, wobei die Substanzen und Flüssigkeiten auch aufbereitete oder speziell behandelte körpereigene sein können, deren Einbringen mit einer Entnahmefunktion direkt gekoppelt ist; ▬ maschinellen Beatmung mit oder ohne Anästhesie; ▬ Diagnose mit bildgebenden Verfahren nach dem Prinzip der Kernspinresonanz; ▬ Therapie mit Druckkammern; ▬ Therapie mittels Hypothermie. Hinzu kommen Säuglingsinkubatoren sowie externe aktive Komponenten aktiver Implantate. Manchmal kann die Entscheidung schwierig sein, ob ein bestimmtes Medizingerät unter die Anlage 1 fällt oder nicht. Dies ist insbesondere bei Geräten zur physikalischen Therapie und für alternativmedizinische Anwendungen relativ häufig der Fall, aber auch im Bereich der klassischen klinischen Medizintechnik existiert eine
47 4.7 · Spezielle Vorschriften für Betreiber und Anwender
Grauzone. Zwar gibt es verschiedene inoffizielle Abgrenzungslisten, ein bereits vor vielen Jahren von den zuständigen Landesbehörden angekündigter verbindlicher Zuordnungskatalog liegt aber derzeit (Stand Frühjahr 2010) immer noch nicht vor.
deter Verdacht besteht, dass ein Gerät seine Fehlergrenzen nicht einhält, beispielsweise nach einer Beschädigung oder einer Manipulation. Die Nachprüffrist gilt auch für Ersatz- und Reservegeräte, die zwar nicht genutzt, aber zur Anwendung vorgehalten werden.
4.7.3 Kontrollpflichten
4.7.4 Einweisungspflichten
Sicherheitstechnische Kontrollen (STK) sollen grundsätzlich bei Geräten der Anlage 1 und messtechnische Kontrollen (MTK) bei Geräten der Anlage 2 der MedizinprodukteBetreiberverordnung durchgeführt werden. Vorrang haben jedoch die Vorgaben des Herstellers, wenn auch nicht uneingeschränkt. Eine enge Zusammenarbeit zwischen Technik und Einkauf ist in den Einrichtungen und Organisationen wegen der Freiräume der Hersteller durch das neue Recht zur Vermeidung von unnötigen Maßnahmen und Kosten noch wichtiger geworden. Wenn Hersteller fur Geräte der Anlage 1 keinerlei Angaben zur STK machen, besteht eine Verpflichtung zur Nachprüfung mindestens alle zwei Jahre (Schroll u. Spier 1999). Eine Einrichtung darf nur Mitarbeiter oder Unternehmen mit sicherheits- oder messtechnischen Kontrollen beauftragen, welche die vorgeschriebenen persönlichen und organisatorischen Voraussetzungen erfüllen. Dazu gehören vor allem fachliche Kompetenz und Weisungsfreiheit sowie entsprechende Mess- und Prüfeinrichtungen. Die Medizinprodukte der Anlage 2 entsprechen zum großen Teil den bisher eichpflichtigen Geräten (Breuer u. Schade 1999). Für sie sind in der Betreiberverordnung bestimmte Nachprüffristen festgelegt worden ( Übersicht).
Nach den allgemeinen Anforderungen in der Betreiberverordnung zum MPG müssen Anwender von Medizinprodukten die erforderliche Ausbildung oder Kenntnis und Erfahrung besitzen und die Gebrauchsanweisung sowie sonstige Hinweise zur Sicherheit beachten. Spezielle Vorschriften gelten für Geräte der Anlage 1. Bei ihnen darf das Einweisungswissen nicht mehr von einer Anwendergeneration auf die nächste »weitervererbt werden« (⊡ Abb. 4.9). Nur noch die ersteingewiesene Person (beauftragte Person nach § 5 MPBetreibV) darf die Schulungen durchführen. Aus Kapazitäts- und Fluktuationsgrunden sollte man deshalb immer ausreichend viele »beauftragte Personen« benennen und einweisen lassen. Für diesen Personenkreis bietet sich die Bezeichnung »Schulungsbeauftragte« an (Menke u. Drastik 2000). Dies erlaubt eine Abgrenzung gegenüber »Medizinprodukteverantwortlichen« (i.d.R. leitende Ärzte, welche die Organisationsverantwortung haben) und »Medizinproduktebeauftragten« (i.d.R. Mitarbeiter einer Abteilung, welche vom »Medizinprodukteverantwortlichen« konkrete Aufgaben bei der Umsetzung des Rechts übertragen bekommen haben). Manche »Medizinprodukteverantwortliche« und viele »Medizinproduktebeauftragte« sind zusätzlich auch »Schulungsbeauftragte«.
Nachprüffristen in der Betreiberordnung
▬ ▬ ▬ ▬ ▬ ▬ ▬
Nichtinvasive Blutdruckmessgerate: 2 Jahre Tretkurbelergometer: 2 Jahre Ton- und Sprachaudiometer: 1 Jahr Medizinische Elektrothermometer: 2 Jahre Infrarot-Strahlungsthermometer: 1 Jahr Augentonometer: 2 oder 5 Jahre (geräteartabhängig) Diagnostikdosimeter: 5 Jahre (Ausnahmen sind möglich)
Für Therapiedosimeter bestehen abhängig u.a. von ihrem Energiebereich alternative Regelungen mit der Möglichkeit von Vergleichsmessungen. Der Hersteller kann bei seinen Angaben von der vorgesehenen Nachprüffrist abweichen. Auch kann er messtechnische Kontrollen fur medizinische Messgerate vorsehen, die in der Anlage 2 nicht aufgeführt sind. Der Betreiber ist dann verpflichtet, diese Prüfungen durchzuführen oder durchführen zu lassen. Messtechnische Kontrollen sind darüber hinaus sofort fällig, wenn ein begrün-
4.7.5 Meldepflichten
Wer Medizinprodukte beruflich oder gewerblich betreibt oder anwendet, hat dabei aufgetretene Vorkommnisse nach § 3 der Medizinprodukte-Sicherheitsplanverord-
⊡ Abb. 4.9. Ersteinweisung und Folgeschulungen bei Medizinprodukten der Anlage 1 der Betreiberverordnung zum MPG.
4
48
4
Kapitel 4 · Vorschriften für Medizinprodukte
nung (MPSV) der zuständigen Bundesoberbehörde zu melden. Dies ist meist das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) in Bonn; bei In-vitroDiagnostika als spezieller Teilmenge kann auch das PaulEhrlich-Institut (PEI) in Langen zuständig sein. Für Anwender und Betreiber wurde ein spezieller einseitiger Meldebogen entwickelt, welcher einfacher zu handhaben ist als das für Hersteller vorgesehene umfangreiche Formular. Ärzte und Zahnärzte haben auch solche Vorkommnisse zu melden, die ihnen im Rahmen der Diagnostik oder Behandlung von mit Medizinprodukten versorgten Patienten bekannt werden. Als Angehörige der Heilberufe können sie ihre Meldungen auch bei entsprechenden Kommissionen der Ärzteschaft machen, die im Rahmen ihrer Aufgaben Risiken von Medizinprodukten erfassen und die Angaben weiterleiten. > Definition Ein Vorkommnis ist nach § 2 der Sicherheitsplanverordnung definiert als »eine Funktionsstörung, ein Ausfall oder eine Änderung der Merkmale oder der Leistung oder eine Unsachgemäßheit der Kennzeichnung oder der Gebrauchsanweisung eines Medizinprodukts, die unmittelbar oder mittelbar zum Tod oder zu einer schwerwiegenden Verschlechterung des Gesundheitszustands eines Patienten, eines Anwenders oder einer anderen Person geführt hat, geführt haben könnte oder führen könnte«.
Für Einrichtungen und Organisationen des Gesundheitswesens ist es wichtig, die mit der Meldepflicht verbundenen Verpflichtungen zu regeln. Dazu müssen die Verantwortlichkeiten definiert sowie Informationswege und Ablaufprozesse festgelegt werden.
4.7.6 Aufbereitung
Nach der Betreiberverordung fur Medizinprodukte umfasst die Instandhaltung nicht nur die Inspektion, Wartung und Instandsetzung, sondern zusatzlich auch die Aufbereitung. Bei dieser müssen die »Anforderungen an die Hygiene bei der Aufbereitung von Medizinprodukten« eingehalten werden (sog. RKI-Empfehlungen). Die Aufbereitung von Einmalprodukten ist derzeit (Stand Frühjahr 2010) nicht grundsätzlich verboten, kann jedoch besondere Maßnahmen der Kontrolle erfordern und erhebliche Haftungsrisiken nach sich ziehen.
Literatur Anna O (1994) Orientierende Gedanken zur Bedienbarkeit medizinisch-technischer Geräte. Tagungsband TK 94 »Technik im Krankenhaus«. Medizinische Hochschule, Hannover, S 208–216 Bleyer S (1992) Medizinisch-technische Zwischenfälle in Krankenhäusern und ihre Verhinderung. Mitteilungen des Institutes fur
Biomedizinische Technik und Krankenhaustechnik der Medizinischen Hochschule Hannover (Hrsg: Prof. Dr. O. Anna und Prof. Dr. C. Hartung). Fachverlag Krankenhaustechnik, Hannover Böckmann R-D, Frankenberger H (1994) Durchführungshilfen zum Medizinproduktegesetz, Praxisnahe Hinweise – Erläuterungen – Textsammlung, Stand 2009. TÜV Rheinland/TÜV Media, Köln Brenner G (1988) Die Medizingeräteverordnung – Rechtliche Auswirkungen. DEKRA-Schriftenreihe. ecomed, Landsberg Breuer D, Schade T (1999) Messtechnische Kontrollen. In: AMD-Medizintechnik (Hrsg), Anwender- und Betreiberpflichten für Medizinprodukte, 2. Aufl. MediVision, Berlin, S 37–40 Kindler M, Menke W (1999a) Medizinproduktegesetz – MPG. Kommentierte Ausgabe mit Arbeitshilfen und Materialien. 4. Aufl. ecomed, Landsberg Kindler M, Menke W (1999b) Definitionen und Orientierungshilfen. In: AMD-Medizintechnik (Hrsg) Anwender- und Betreiberpflichten fur Medizinprodukte, 2. Aufl. MediVision, Berlin, S 13–19 Kindler M, Menke W (seit 2007) Medizinproduktegesetz – MPG, Kommentierungen – Arbeitshilfen – Rechtstexte, 5. Aufl. 2005, Stand 2009. ecomed, Landsberg Menke W, Drastik K (2000) Praxis der MPG-Umsetzung. KrankenhausTechnik, S 30–33 Menke W, Kindler M (2008) Änderungen des deutschen Hilfsmittelrechts. In: Medizinproduktegesetz – MPG, 5. Aufl. 2. Erg.-Lfg. 07/2008, ecomed, Landsberg von der Mosel HA (1971) Der klinisch-biomedizinische Ingenieur. Schweizerische Ärztezeitung Nr. 52 Nöthlichs M, Berger J, Jung E, Berger J (1994) Sicherheitsvorschriften für Medizinprodukte, Kommentar zum MPG und zur MPBetreibV mit weiteren Vorschriften und Texten, Stand 2010, Erich Schmidt, Berlin Pieper H-J (2000) Wirtschaftliche Umsetzung des Medizin-Produkterechts im Krankenhaus. Bundesfachkongress fbmt,Tagungsband, S 76–79 Schorn G, Baumann HG, Bien AS, Lücker V, Wachenhausen H (1998): Medizinprodukte-Recht, Recht – Materialien – Kommentar, Stand 2009, 2. Aufl. Wissenschaftliche Verlagsgesellschaft, Stuttgart Schroll S, Spier A (1999) Sicherheitstechnische Kontrollen. In: AMDMedizintechnik (Hrsg) Anwender- und Betreiberpflichten für Medizinprodukte. 2. Aufl. MediVision, Berlin, S 35f Will H-G (2002) Die Medizinprodukte-Sicherheitsplanverordnung (MPSV). Konsequenzen für Betreiber und Anwender. Pflegemagazin, Heft 5, S 16–23
5 Technische Sicherheit von medizintechnischen elektrischen Geräten und Systemen in medizinisch genutzten Räumen R. Kramme, H.-P. Uhlig 5.1 5.2 5.3 5.4 5.5 5.6 5.7
5.1
Einleitung – 49 Allgemeines zur Sicherheit technischer Systeme – 49 Erreichen von Sicherheit in medizinischen Einrichtungen – 50 Mindestanforderungen an ME-Geräte – 50 Medizinisch genutzte Bereiche – 53 Elektrische Systeme nach Art der Erdverbindung – 54 Schutz gegen gefährliche Körperströme – 55
5.8 5.9
Einleitung
ergibt sich aus dem Verhältnis Energie zu Körperwiderstandsfähigkeit. Als Gefährdung wird die Möglichkeit bezeichnet, dass Gefahr und Mensch räumlich-zeitlich zusammentreffen können. Für sichere medizinische Arbeitsplätze gilt deshalb abzuklären, auf welche Weise und unter welchen betrieblichen Bedingungen Gefahren und Menschen zusammentreffen, Verletzungsgefahr besteht und welche erfolgreichen Sicherheitsmaßnahmen (Schutzziele) dagegen eingesetzt werden oder werden sollten (Schneider et al. 1976). Der größte Anteil der möglichen Gefährdung geht von ME-Geräten und ME-Systemen für die Diagnostik, Therapie und Überwachung aus. Die häufigsten Ursachen eines elektrischen Unfalls sind auf funktionsgestörte Schutzeinrichtungen, defekte Isolation an Kabeln und Leitungen, defekte oder fehlende Schutzabdeckungen an Geräten und Steckvorrichtungen und fehlende, unterbrochene oder vertauschte Schutzleiter zurückzuführen.
Medizinische elektrische Geräte1 und Systeme2 werden hauptsächlich in medizinischen Einrichtungen, wie Arztund Zahnarztpraxen, Ärztehäusern, Ambulanzen, Rehabilitationskliniken, Sanatorien, Kurkliniken, Altenpflegeund Behindertenheimen sowie Krankenhäusern und Kliniken eingesetzt. Nach den Vorschriften und Normen für die elektrische Anlage müssen in diesen Einrichtungen geeignete Räume – medizinisch genutzte Bereiche3 – vorhanden sein, in denen netzbetriebene ME-Geräte betrieben werden dürfen. Beim Einsatz tauchen vielfach Fragen auf, die einerseits die Sicherheit von Patienten und Anwendern und andererseits den störungsfreien Betrieb dieser Apparaturen betreffen. Die hauptsächlichen Gefahren, die von diesen ME-Geräten und ME-Systemen ausgehen, können elektrischer, mechanischer oder thermischer Natur sein. Ein weiteres mögliches Gefahrenpotential bilden ionisierende Strahlung, Explosion oder Brand. Was bedeutet nun Gefahr und Gefährdung? Gefahren im betrieblichen Ablauf sind Bestandteile des Arbeitssystems, die Leben und Gesundheit von Anwendern und Patienten schädigen können. Diese Gefahren sind mit Energien verbunden bzw. stellen Energien dar. Wenn diese Energien größer sind als die Widerstandsfähigkeit des menschlichen Körpers oder eines betroffenen Körperteils, haben sie eine verletzungsbewirkende Eigenschaft. Die Schädigungskraft 1 2 3
Abgekürzt nach DIN EN 60601-1: ME-Gerät. Abgekürzt nach DIN EN 60601-1: ME-System. Definition nach DIN VDE 0100-710.
5.10 5.11 5.12 5.13
5.2
Stromversorgung – 56 Stromquellen für Sicherheitszwecke mit Akkumulatoren – 57 Endstromkreise und Steckdosen – 57 Statische Elektrizität – 57 Elektromagnetische Verträglichkeit (EMV) – 58 Zusammenfassung – 59 Literatur – 59
Allgemeines zur Sicherheit technischer Systeme
Der erreichte Stand von Wissenschaft und Technik ermöglicht es grundsätzlich, sehr sichere technische Produkte und Systeme zu entwickeln und zu bauen. Trotzdem gibt es keine absolute Sicherheit, weder im Leben noch in der Technik. Es kommt also darauf an, das vertretbare Restrisiko im Einzelfall zu ermitteln, um es dann bewusst in Kauf zu nehmen (Uhlig u. Sudkamp 2004). Die DIN 31000 »Allgemeine Leitsätze für das sicherheitsgerechte Gestalten technischer Erzeugnisse« von
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _5, © Springer-Verlag Berlin Heidelberg 2011
50
5
Kapitel 5 · Technische Sicherheit von medizintechnischen elektrischen Geräten und Systemen in medizinisch genutzten Räumen
03/1979 bildet die Basis für die inhaltliche Gestaltung von Sicherheitsnormen und VDE-Bestimmungen. In der DIN 31000 Teil 2 von 12/1987, welche 2005 leider zurückgezogen wurde, wird das Grenzrisiko als das größte noch vertretbare Risiko eines bestimmten technischen Vorgangs oder Zustands beschrieben. Sicherheit wird nach DIN VDE 31000 Teil 2 als eine Sachlage definiert, bei der das Restrisiko unter einem definierten Grenzrisiko bleibt. Die Höhe des Risikos wird als abstrakte Größe aus dem Produkt von Schadensumfang und Wahrscheinlichkeit des Schadenseintritts gebildet (ISO Guide 51 1990). Die daraus resultierende zeitliche und inhaltliche Begrenzung der Sicherheit wird durch die Beschreibung von entsprechenden Anforderungen oder Maßnahmen erreicht. Die Maßnahmen, welche Sicherheit bewirken, werden nach DIN 31000 Teil 1 in drei Stufen eingeteilt (Dreistufentheorie): 1. Unmittelbare Sicherheitstechnik beinhaltet Maßnahmen, welche Sicherheit hauptsächlich durch die konstruktiv-planerische Ausführung von Produkten und Systemen bzw. ihrer Teile bewirken. 2. Mittelbare Sicherheitstechnik ist die Anwendung sicherheitstechnischer Mittel, z. B. von Verriegelungen. 3. Hinweisende Sicherheitstechnik wird durch Hinweise auf die Bedingungen für eine gefahrlose Verwendung – z. B. in Bedienanweisungen und auf Schildern – generiert, wenn die unmittelbare und mittelbare Sicherheitstechnik nicht oder nicht vollständig zum Ziel führen. Bei allen genannten sicherheitstechnischen Maßnahmen wird die bestimmungsgemäße Verwendung der Produkte und Systeme vorausgesetzt. Bei der Beurteilung von Gefährdungssituationen bildet die »Erste-Fehler-Philosophie«, beschrieben in DIN VDE 0752 Beiblatt 1 von 03/2003, eine wichtige Grundlage. Darüber hinaus können die Ergebnisse der internationalen Normung zum Thema Sicherheit, wie die Inhalte der IEC 300-3-9 von 12/1995 (Zuverlässigkeitsmanagement; Teil 3: Anwendungsleitfaden; Abschnitt 9: Risikoanalyse von technologischen Systemen), genutzt werden (Uhlig u. Sudkamp 2004). Die möglichen Folgen erster Fehler werden durch Schutzmaßnahmen sowie durch die planmäßige Prüfung und Instandhaltung nahezu ausgeschlossen. Geeignete Überwachungseinrichtungen müssen einen auftretenden »Ersten Fehler« sofort entdecken.
5.3
Erreichen von Sicherheit in medizinischen Einrichtungen
Für die Planung, Errichtung, Sanierung und Prüfung elektrischer Anlagen in medizinischen Einrichtungen gelten in Deutschland sehr umfangreiche gesetzliche Re-
gelungen, Vorschriften, Normen und Richtlinien. Das Gleiche gilt für die Entwicklung, die Herstellung und das Betreiben von ME-Geräten und ME-Systemen. Die Übergänge oder Schnittstellen zwischen diesen Dokumenten sind leider nicht definiert, sondern fließend. So enthalten beispielsweise verschiedene Vorschriften und Normen für ME-Geräte wichtige Anforderungen an das Planen und Errichten der elektrischen Anlage. Vorschriften und Normen beinhalten grundsätzlich nur die Mindestanforderungen. Zwischen ihnen besteht nicht immer Konformität. Außerdem entsprechen sie nicht immer dem Stand der Technik, weil die technische Entwicklung in vielen Fällen schneller verläuft als die Überarbeitung dieser Dokumente. Jedes Einzelprojekt muss deshalb sowohl hinsichtlich der Einhaltung der gesetzlichen und normativen Mindestanforderungen als auch hinsichtlich darüber hinausgehender Anforderungen überprüft werden. Die notwendige Sicherheit kann grundsätzlich nur erreicht werden, wenn das Gesamtsystem, bestehend aus baulicher und technischer Anlage sowie ME-Gerät, sicher ist.
Schutzziele für die Sicherheit des Systems elektrische Anlage/ME-Gerät (Uhlig u. Sudkamp 2004)
▬ Schutz der Patienten und des Personals vor ge-
▬ ▬ ▬ ▬ ▬ ▬
5.4
fährlichen Körperströmen und den Gefahren eines Spannungsausfalls oder schlechter Qualität der Spannung bzw. Frequenz Sicherheit der Schnittstelle zwischen ME-Geräten und der elektrischen Anlage, insbesondere bei Anwendung von Geräten für lebenswichtige Zwecke Sicherheit der Flucht- und Rettungswege Schutz vor Bränden und deren Einwirkung auf das System von elektrischer Anlage und ME-Geräten über einen notwendigen Zeitraum Sicherheit durch den Einsatz bewährter Technik Sicherheit durch die bestimmungsgemäße Verwendung aller Systemkomponenten Sicherheit durch vorschriftsmäßige Bedienung und regelmäßige Instandhaltung
Mindestanforderungen an ME-Geräte
Die DIN EN 60601-1 (klassifiziert als VDE 0750-1) »Medizinische elektrische Geräte; Allgemeine Festlegungen für die Sicherheit einschließlich der wesentlichen Leistungsmerkmale« von 2007 (ersetzt die Ausgabe von 1996) ist die Basisnorm dieser Reihe und beschreibt die allgemeinen Anforderungen an ME-Geräte. Alle in Deutschland zugelassenen ME-Geräte müssen nach der Normenreihe DIN EN 60601 gebaut und geprüft sein. Nachstehend wird die Basisnorm DIN EN 60601-1 hauptsächlich bezogen auf den Zusammenhang zur elektrischen Anlage
51 5.4 · Mindestanforderungen an ME-Geräte
bewertet. Für netzbetriebene ME-Geräte sind die Schutzklassen I und II zugelassen. In der Schutzklasse I sind alle nicht aktiven Teile des ME-Gerätes mit dem Schutzleiter (PE/Protection Earth) verbunden. Das Gehäuse des Gerätes besteht aus Metall und ist ebenfalls mit dem PE verbunden. Im Fall eines geräteinternen Körper- oder Erdschlusses (z. B. Isolationsfehler) zwischen einem aktiven Leiter und dem PE wird im Gerät und/oder in der elektrischen Anlage eine Schutzeinrichtung ausgelöst und der betroffene Stromkreis abgeschaltet. Während einer Fehlersituation tritt eine Berührungsspannung zwischen dem Gehäuse des Gerätes und anderen geerdeten Teilen auf. Die Definition in DIN EN 60601-1 für ME-Geräte der Schutzklasse I lautet: > Definition Gerät, bei dem der Schutz gegen elektrischen Schlag nicht allein von der Basisisolierung abhängt, sondern das eine zusätzliche Schutzvorkehrung enthält, bei der an berührbaren Teilen aus Metall oder internen Teilen aus Metall Maßnahmen vorgesehen sind, damit sie schutzleiterverbunden sind.
Die Geräte der Schutzklasse II sind doppelt isoliert (schutzisoliert). Ein Fehler kann nur noch zwischen aktiven Leitern oder einem aktiven Leiter und dem Neutralleiter (N) auftreten. Während eines ersten Körper- oder Erdschlusses tritt keine Berührungsspannung gegen Erde auf. Die Definition in DIN EN 60601-1 für ME-Geräte der Schutzklasse II lautet: > Definition Begriff, der sich auf ein elektrisches Gerät bezieht, bei dem der Schutz gegen elektrischen Schlag nicht nur von der Basisisolierung abhängt, sondern bei dem zusätzliche Sicherheitsvorkehrungen wie doppelte oder verstärkte Isolierung vorhanden sind.
Eine weitere Kategorie bilden vom Netz unabhängige, meist batteriebetriebene ME-Geräte. Bei diesen Geräten besteht, wie bei netzbetriebenen ME-Geräten der Schutzklasse II, hinsichtlich des Schutzes vor gefährlichen Körperströmen keine Abhängigkeit von den installierten Schutzmaßnahmen. Geräte der Klasse AP müssen den Anforderungen an Konstruktion, Aufschriften und Begleitpapiere genügen, um Zündquellen in explosionsfähigen Gemischen von Atmungsanästhesiemitteln mit Luft zu vermeiden. Geräte der Klasse APG müssen den Anforderungen an Konstruktion, Aufschriften und Begleitpapiere genügen, um Zündquellen in explosionsfähigen Gemischen von Atmungsanästhesiemitteln mit Sauerstoff oder Lachgas zu vermeiden. Ferner werden die ME-Geräte nach den Isolationsklassen der Anwendungsteile unterschieden ( Übersicht):
Beschreibung der ME-Geräte nach den Isolationsklassen der Anwendungsteile ▬ Isolationsklasse B – Das Anwendungsteil hat Erdverbindung – Äußere Anwendung am Patienten – Gewährt Schutz gegen elektrischen Schlag unter Beachtung des Fehlerstroms – Nicht für direkte Anwendung am Herzen geeignet
▬ Isolationsklasse BF – Das Anwendungsteil ist isoliert vom ME-Gerät (keine Erdverbindung) – Äußere Anwendung am Patienten, höherwertiger Schutz gegen elektrischen Schlag als bei Isolationsklasse B – Nicht für direkte Anwendung am Herzen geeignet
▬ Isolationsklasse CF – Das Anwendungsteil ist hochwertig isoliert vom ME-Gerät (keine Erdverbindung) – Äußere und intrakardiale Anwendung am Patienten, höherwertiger Schutz gegen elektrischen Schlag als bei Isolationsklasse BF – Für direkte Anwendung am Herzen geeignet
Für die Sicherheit von ME-Geräten gilt entsprechend DIN EN 60601-1: »ME-Geräte müssen so entwickelt und hergestellt sein, dass sie erstfehlersicher bleiben oder dass das Risiko vertretbar bleibt.« Voraussetzung dafür sind die Durchführung Risikomanagement-Prozesses, die bestimmungsgemäße Verwendung der Geräte und die Einhaltung der Anleitungen des Herstellers. Als erste Fehler gelten für ME-Geräte: ▬ Unterbrechung des Schutzleiters, ▬ Unterbrechung eines Leiters der Stromversorgung, ▬ Auftreten einer äußeren Spannung an Anwendungsteilen mit dem Kennbuchstaben »F«, ▬ Auftreten einer äußeren Spannung an Signaleingangsoder Signalausgangsteilen, ▬ Versagen einer elektrischen Komponente. Die Bemessungsspannung darf für handgehaltene MEGeräte maximal 250 V betragen. Für ME-Geräte und ME-Systeme, die mit Gleichspannung oder einphasiger Wechselspannung betrieben werden, gelten 250 V als Höchstwert bei einer Leistungsbegrenzung auf 4 kVA. Für mehrphasig betriebene ME-Geräte und ME-Systeme gelten 500 V als Obergrenze der Bemessungsspannung. Für ME-Geräte beträgt die Toleranz der Nennspannung ±10 % und die der Netzfrequenz ± 1 Hz. Nach den für die elektrische Anlage geltenden Normen können dort andere Werte auftreten. Der Schutzleiter der Geräte muss regelmäßig geprüft werden. Dabei sind als Grenzwert zwischen dem PE des Steckers und berührbaren Metallteilen (Gehäuse) für
5
ME Geräte Schutzklasse 1 oder 2
ME Geräte Schutzklasse 1 und 2
ME Geräte Schutzklasse 1 und 2
OP- Leuchten Arbeitsfeldbeleuchtung
OP-Mikroskope
Untersuchungsleuchten
Untersuchungsleuchten
2
3
4
5
6
7
8
erlaubt (VDE 0100-710)
erlaubt (VDE 0100-710)
1
0
Arbeitsfeldbeleuchtung für einfache Untersuchungen
Arbeitsfeldbeleuchtung für einfache Untersuchungen
verboten
erlaubt (VDE 0100-710)
verboten
verboten
verboten
verboten
2
1
2
2
2
Abschaltung
2
Arbeitsfeldbeleuchtung
für Untersuchungen und/oder Therapien nicht direkt am Herzen und wiederholbar
für Untersuchungen und/ oder Therapien nicht direkt am Herzen und nicht wiederholbar
für Untersuchungen und/ oder Therapien direkt am Herzen und nicht wiederholbar
für Überwachung und Therapie in der Intensivbehandlung, nicht direkt am Herzen und nicht wiederholbar
ME Geräte Schutzklasse 1 oder 2
1
Anwendung für
Verbrauchsmittel
lt. VDE 0100-710 nicht erforderlich, im Einzelfall prüfen
erlaubt, jedoch nicht immer sinnvoll
entfällt
entfällt entfällt
entfällt
entfällt
erlaubt, jedoch nicht immer sinnvoll erlaubt, jedoch nicht vorgeschrieben erlaubt, jedoch nicht vorgeschrieben entfällt
entfällt
vorgeschrieben (VDE 0100-710)
erlaubt, jedoch nicht vorgeschrieben
entfällt
verboten (VDE 0100710)
beste Lösung vorgeschrieben (VDE 0100-710) verboten (VDE 0100-710) vorgeschrieben bei Un ≤ 25 V AC (VDE 0100-710)
bei Therapien direkt am Herzen prüfen
vorgeschrieben (VDE 0100-710)
vorgeschrieben bei Un >25 V AC (VDE 0100-710)
lt. VDE 0100-710 nicht erforderlich, im Einzelfall prüfen
verboten (VDE 0100710)
beste Lösung vorgeschrieben (VDE 0100-710) verboten (VDE 0100-710)
vorgeschrieben bei Un ≤ 25 V AC (VDE 0100-710)
bei Therapien direkt am Herzen prüfen
vorgeschrieben bei Un >25 V AC (VDE 0100-710)
vorgeschrieben (VDE 0100-710)
verboten (VDE 0100710)
verboten (VDE 0100710)
verboten (VDE 0100710)
durch AV- Netz
erlaubt
wenn für sicheren Betrieb des ME Gerätes erforderlich
wenn für sicheren Betrieb des ME Gerätes erforderlich
wenn für sicheren Betrieb des ME Gerätes erforderlich
0,0 s
erlaubt, jedoch nicht vorgeschrieben
nur bei Eignung des ME Gerätes
nur bei Eignung des ME Gerätes
nur bei Eignung des ME Gerätes
≤0,5 s
erlaubt, jedoch nicht vorgeschrieben
nur bei Eignung des ME Gerätes
nur bei Eignung des ME Gerätes
nur bei Eignung des ME Gerätes
≤ 15 s
erlaubt, jedoch nicht vorgeschrieben
Erlaubt bei Schutz durch Isolierung und Umhüllung oder Abdeckung
möglich bei Schutzklasse II
erlaubt bei Schutz durch Isolierung und Umhüllung oder Abdeckung
PELV 25 V
erlaubt bei Schutz durch Isolierung und Umhüllung oder Abdeckung
entfällt
zwingend erforderlich
entfällt
∆u ≤10 mV
entfällt
vorgeschrieben (VDE 0100-710)
in Patientenumgebung nicht zulässig
vorgeschrieben (VDE 0100-710)
∆u ≤25 V
vorgeschrieben (VDE 0100-710)
erlaubt, jedoch nicht vorgeschrieben
vorgeschrieben (VDE 0100-710)
vorgeschrieben (VDE 0100-710)
vorgeschrieben (VDE 0100-710)
IT-System
für Sicherheitszwecke mit zulässiger Unterbrechungszeit
Stromversorgung
5
lfd. Nr.
Med. Bereich der Gruppe
Schutz gegen elektrischen Schlag
⊡ Tab. 5.1. Anforderungen der ME-Geräte an die elektrische Anlage
52 Kapitel 5 · Technische Sicherheit von medizintechnischen elektrischen Geräten und Systemen in medizinisch genutzten Räumen
53 5.5 · Medizinisch genutzte Bereiche
⊡ Tab. 5.2. Beispiele für die Zuordnung von Räumen zu Gruppen Gruppe 0
Gruppe 1
Gruppe 2
Sprechzimmer
Praxisräume der Human- und Dentalmedizin
Operations-Vorbereitungsräume
Ordinationsräume
Chirurgische Ambulanzen
Operationsräume
Verbandszimmer
Räume für Heimdialyse
Aufwachräume
Bettenräume
Bettenräume
Intensivpflegeräume
Massageräume
Räume für Hydrotherapie
Frühgeborenenräume
Gymnastikräume
Endoskopieräume
Endoskopieräume
OP-Nebenräume
Räume der minimal invasiven Chirurgie
Räume der minimal invasiven Chirurgie
Inhalatorien
Angiographieräume
Angiographieräume
Herzkatheterräume (Untersuchung)
Herzkatheterräume (Untersuchung und Behandlung)
CT-Räume MRT-Räume EKG-Räume EEG-Räume Entbindungsräume
Geräte mit fest angeschlossener Anschlussleitung 0,1 Ω und bei Geräten mit abnehmbarer Anschlussleitung 0,2 Ω zugelassen. In der Ergänzungsnorm DIN EN 60601-1-1 »Festlegungen für die Sicherheit von medizinischen elektrischen Systemen« (ME-Systemen) wird bei Verwendung von ortsveränderlichen Mehrfachsteckdosen verlangt, dass die Verbindung der ME-Geräte eines ME-Systems mit einer Mehrfachsteckdose nur mit Hilfe von Werkzeug möglich sein darf. Derartige Mehrfachsteckdosen werden, der DIN EN 60601-1-1 entsprechend, fabrikfertig angeboten. Anderenfalls muss die ortsveränderliche Mehrfachsteckdose galvanisch getrennt werden (z. B. Trenntransformator). Anmerkung: Als Trenntransformatoren werden häufig elektronisch beschaltete Ringkerntransformatoren verwendet. Für diese Anordnung fehlt der Nachweis der Erstfehlersicherheit. Das Gleiche gilt für die Versorgung ganzer ME-Systeme von einer Steckdose. Ein vollständiger Spannungsausfall ist jederzeit möglich. Fazit: Die Stromversorgung von ME-Systemen aus fest installierten Einzelsteckdosen, insbesondere für lebenswichtige Zwecke, welche an ein IT-System angeschlossen sind, bildet die sicherste Art der Stromversorgung. Ein Teil der genannten Anforderungen der DIN EN 60601-1 an ME-Geräte hat einen direkten oder indirekten Bezug zur elektrischen Anlage. Daraus lassen sich teilweise zusätzliche Anforderungen an die elektrische Anlage ableiten (Uhlig u. Sudkamp 2004).
⊡ Tab. 5.1 (»Anforderungen der ME-Geräte an die elektrische Anlage«) fasst die verschiedenen Anwendungen von ME-Geräten so zusammen, dass die wichtigsten Anforderungen an die Schnittstelle zur elektrischen Anlage erkennbar werden und zusätzliche Anforderungen definiert werden können.
5.5
Medizinisch genutzte Bereiche
Medizinische Untersuchungen und Behandlungen sind in entsprechenden Räumen, den medizinisch genutzten Bereichen, durchzuführen, unabhängig davon, wo sich diese Räume befinden. Das kann ein Krankenhaus, Ärztehaus oder Ärztezentrum, eine Ambulanz oder die Praxis eines niedergelassenen Arztes sein. Die Anwendung von medizinischen Verfahren setzt die Einteilung der medizinisch genutzten Bereiche in die Gruppen 0, 1 oder 2 voraus (DIN VDE 0100-710). Bedingt durch den möglichen Zustand von Patienten, wie z. B. Bewusstlosigkeit oder die Art der medizinischen Untersuchung oder Behandlung, z. B. eine Operation, bestehen besondere Gefährdungen. Der Hautwiderstand der Patienten kann infolge medizinischer Eingriffe durchbrochen, ihre Wahrnehmungsfähigkeit oder ihr Abwehrvermögen durch medizinische Maßnahmen beeinträchtigt bzw. eingeschränkt sein. Die geforderte Klassifikation und Einteilung der medizinisch genutzten Bereiche in Gruppen – in der Regel durch den Vertreter
5
54
Kapitel 5 · Technische Sicherheit von medizintechnischen elektrischen Geräten und Systemen in medizinisch genutzten Räumen
Medizinisch genutzter Bereich der Gruppe 0
5
Medizinisch genutzter Bereich der Gruppe 1
Medizinisch genutzter Bereich der Gruppe 2 Der Patient wird beim Abschalten der elektrischen Anlage infolge eines 1. Körperoder Erdschlusses gefährdet.
Der Patient wird beim Abschalten der elektrischen Anlage infolge eines 1. Körperoder Erdschlusses nicht gefährdet.
Der Patient wird beim
Der Patient wird beim
A usfall der allgemeinen
A usfall der allgemeinen
Stromversorgung nicht gefährdet.
Stromversorgung gefährdet.
Untersuchungen und Behandlungen können abgebrochen und wiederholt werden.
Behandlungen sind für Patienten gefährlich. Untersuchungen sind nicht wiederholbar.
Anwendungsteile von ME Geräten werden nicht angewendet.
Anwendungsteile von ME Geräten werden äußerlich und/oder invasiv zu jedem beliebigen Teil des Körpers, außer am Herz angewendet.
Anwendungsteile von ME Geräten werden für Anwendungen, wie intrakardiale Verfahren und lebenswichtige Behandlungen angewendet.
⊡ Abb. 5.1. Normative Kriterien für die Einteilung in Gruppen. Die verschiedenen Geräteteile bilden mit den dazwischen liegenden sicherheitstechnischen Isolierungen Kondensatoren C, über die der Patientenableitstrom und der Gehäuseableitstrom fließen. Bei Geräten der Schutzklasse I fließt noch der Erdableitstrom über den Schutzleiter
des Auftraggebers (= Planer) gemeinsam mit dem medizinischen und technischen Personal (= Betreiber) – muss zwingend durchgeführt werden. Eine wesentliche Grundlage für die Entscheidung, welcher Gruppe ein Raum zuzuordnen ist (⊡ Tab. 5.2), bildet die Art des Kontaktes von Anwendungsteilen der ME-Geräte mit dem Körper des Patienten. In Bereichen der Gruppe 1 können bereits Untersuchungen und Therapien invasiv, jedoch nicht direkt am Herzen durchgeführt werden. Ein Spannungsausfall mit einer Dauer von maximal 15 Sekunden kann in diesem Fall jedoch gefährlich sein. Demzufolge sollte dann die Einordnung in die Gruppe 2 und der Einsatz einer batteriegestützten Stromversorgung für Sicherheitszwecke (BSV, früher ZSV) erwogen werden. In der Gruppe 2 gelten die Kriterien »Untersuchungen oder Behandlungen intrakardial oder »am offenen Herzen«4 sowie »lebenswichtige Untersuchungen und Behandlungen«. Die zusätzliche Beschreibung der elektrischen Bedingungen in der DIN VDE 0100-710 für die Einordnung in Gruppen soll bei der Entscheidung helfen (⊡ Abb. 5.1). Bei der Auswahl der Gruppen müssen immer alle Kriterien herangezogen werden, die für die Sicherheit des Patienten wichtig sind. In Zweifelsfällen
4
Zusätzlich DIN 57753-2 beachten.
ist die Entscheidung für die höhere Sicherheit zu wählen (Uhlig u. Sudkamp 2004).
5.6
Elektrische Systeme nach Art der Erdverbindung
Für die Wirksamkeit und die richtige Anwendung von Schutzmaßnahmen in der elektrischen Anlage, insbesondere von Schutzmaßnahmen gegen gefährliche Körperströme und gegen elektromagnetische Störungen (Fremdspannungen), ist die konsequente Anwendung des TN-S-Systems nach DIN VDE 0100-100 und DIN VDE 0100-710 innerhalb eines Gebäudes von grundlegender Bedeutung. Bei diesem System werden der Neutralleiter (N) und der Schutzleiter (PE) im gesamten Gebäude getrennt geführt und nur an einem Punkt, i.d.R. im Niederspannungshauptverteiler, miteinander verbunden. Damit können im Schutzleiter nur noch Fehlerströme, jedoch keine Betriebsströme mehr fließen. Im Normalbetrieb treten im Schutzleiter der Endstromkreise unvermeidbare, insbesondere durch Isolationswiderstände sowie induktiv und kapazitiv verursachte kleine Fehlerströme auf. Diese Ströme können im Schutzleiter des Gebäudehauptverteilers mehrere Ampere (A) betragen. Bei Körperoder Erdschlüssen können in Endstromkreisen bis zur
5
55 5.7 · Schutz gegen gefährliche Körperströme
⊡ Abb. 5.2. Patient und Anwender in Verbindung mit ME-Gerät (Flügel et al. 2004)
Auslösung der Schutzeinrichtung kurzzeitig relativ hohe Fehlerströme bis zu einigen Kiloampere (kA) entstehen (Uhlig u. Sudkamp 2004).
5.7
Schutz gegen gefährliche Körperströme
In medizinisch genutzten Bereichen der Gruppen 1 und 2 gilt nach DIN VDE 0100-710 eine vereinbarte Grenze der Berührungsspannung5 von UL ≤ 25 V, die eingehalten werden muss. Eine Ausnahme bilden Untersuchungen und Behandlungen direkt am Herzen. Hier gilt nach DIN 57753 Teil 2 von 02/1983 (VDE-Richtlinie VDE 0753-2 Teil 2/02.83) »Anwendungsregeln für elektromedizinische Geräte bei intrakardialen Eingriffen« eine Berührungsspannung von maximal 10 mV. Ein derartig kleiner Wert ist im Fehlerfall durch Maßnahmen in der elektrischen Anlage über den Schutzleiter rein physikalisch nicht erreichbar. Deshalb dürfen ME-Geräte der Schutzklasse I in diesem Fall nur am medizinischen ITSystem6 betrieben werden. Die flexiblen ZPA-Leitungen sind unbedingt anzuschließen. Ferner müssen bei derartigen Eingriffen Maßnahmen auf medizinischer Seite durchgeführt werden, wie die Verwendung von ME-Geräten mit Anwendungsteilen der Isolationsklasse CF. Unter den genannten Voraussetzungen sind Gefahren durch Ableitströme äußerst unwahrscheinlich. Ableitströme (⊡ Abb. 5.2) bzw. deren Auswirkung werden auf Seiten der elektrischen Anlage durch die Anwendung des medizinischen IT-Systems und den ZPA begrenzt. 5 6
⊡ Tab. 5.3. Maximal zulässige Ableitströme von ME-Geräten nach DIN EN 60601-1
Definiert in DIN VDE 0100-200. Definiert in DIN VDE 0100-710.
Art
Typ B
Typ BF
Typ CF
Erdableitstrom
0,5 mA
0,5 mA
0,5 mA
Gehäuseableitstrom
0,1 mA
0,1 mA
0,1 mA
Patientenableitstrom
0,1 mA
0,1 mA
0,01 mA
Der Schutz gegen die Wirkung von Ableitströmen wird geräteseitig durch die Verwendung von ME-Geräten der Schutzklasse II und die Begrenzung des Patientenableitstromes erreicht (⊡ Tab. 5.3). Der zusätzliche Potentialausgleich (ZPA) in jedem medizinisch genutzten Bereich bildet die wichtigste grundlegende Schutzmaßnahme in den medizinisch genutzten Bereichen der Gruppen 1 und 2. In den Bereichen der Gruppe 2 sind nach DIN VDE 0100-710 in der Patientenumgebung7 zusätzliche Anschlussbolzen für den ZPA entsprechend DIN 42801 angebracht. Die dort anzuschließenden flexiblen Potentialausgleichsleitungen, welche eine zusätzliche direkte Verbindung zwischen dem PE der fest installierten Anlage und den Gehäusen der ME-Geräte herstellen, erfüllen den Zweck, Potentialdifferenzen zwischen den ME-Geräten in der Patientenumgebung auszugleichen, den Ausfall des Schutzleiters bei Geräten der Schutzklasse I zu verhindern (Erstfehlersicherheit) und die Einhaltung der geforderten Berührungsspannung am Gehäuse von Geräten der Schutzklasse I zu gewährleisten. 7
Definiert in DIN VDE 0100-710 und DIN EN 60601-1-1.
56
5
Kapitel 5 · Technische Sicherheit von medizintechnischen elektrischen Geräten und Systemen in medizinisch genutzten Räumen
Diese Leitungen sind von großer Wichtigkeit für den Schutz gegen gefährliche Körperströme und immer anzuschließen, wenn Geräte der Schutzklasse I verwendet werden (Uhlig u. Sudkamp 2004). Weitere wichtige Schutzmaßnahmen gegen gefährliche Körperströme sind: 1. Schutz durch automatische Abschaltung nach DIN VDE 0100-410
Die Stromkreise von Steckdosen müssen im Fehlerfall (impedanzloser Kurzschluss) innerhalb von 0,4 Sekunden durch die zugeordnete Schutzeinrichtung abgeschaltet werden. Diese Schutzmaßnahme darf für Steckdosen bis 20 A nach DIN VDE 0100-410 von 2007 nur angewendet werden, wenn diese Steckdosen überwacht werden (siehe dazu Berufsgenossenschaftliche Vorschrift BGV A3). In allen anderen Fällen gilt 2. 2. Schutz durch automatische Abschaltung der Stromversorgung mit RCD8 Auslösestrom IΔN = 30 mA
Diese Schutzmaßnahme ist entsprechendend DIN VDE 0100-710 für Steckdosen in Bereichen der Gruppen 1 und 2 vorgeschrieben, wenn keine Gefahr für die Patienten besteht. ME-Geräte für lebenswichtige Zwecke dürfen hier nicht angeschlossen werden.
Die Steckdosen des medizinischen IT-Systems sind entsprechend zu kennzeichnen oder unverwechselbar auszuführen, wenn mehrere Systeme nach Art der Erdverbindung in einem Raum vorhanden sind. Damit soll verhindert werden, dass ME-Geräte, die aus dem medizinischen IT-System versorgt werden müssen, nicht versehentlich mit Steckdosen des TN-S-Systems verbunden werden. Für die Farbkennzeichnung gibt es keine normative Vorgabe.
5.8
Stromversorgung
Die sichere Stromversorgung bildet ein weiteres wichtiges Kriterium für den sicheren Betrieb. Für medizinisch genutzte Bereiche stehen folgende Stromversorgungen zur Verfügung: ▬ Allgemeine Versorgung (AV) über einen Hausanschluss oder eine hochspannungsseitige Einspeisung von einem VNB9, ▬ Stromversorgung für Sicherheitszwecke (SV) durch Stromerzeugungsaggregate mit Hubkolbenverbrennungsmotoren, ▬ batteriegestützte zentrale Stromversorgung für Sicherheitszwecke (BSV).
3. Schutz durch Meldung von Isolationsfehlern im medizinischen IT-System
Werden ME-Geräte für lebenswichtige Zwecke oder nicht wiederholbare Untersuchungen eingesetzt, müssen diese aus einem medizinischen IT-System versorgt werden. Derartige Steckdosen werden nach DIN VDE 0100-710 nur in Bereichen der Gruppe 2 installiert. Hier bildet das medizinische IT-System die bevorzugte Schutzmaßnahme. Wegen der Begrenzung der Leistung der IT-Trenntransformatoren auf max. 8 kVA kann es jedoch nicht immer durchgängig angewendet werden. Das medizinische IT-System bildet ein isoliertes und lokal begrenztes Netz. Die leitfähigen Gehäuse der ME-Geräte der Schutzklasse I sind mit dem Schutzleiter verbunden. Bei Auftreten nur eines ersten Körper- oder Erdschlusses tritt als Fehlerstrom nur der Gehäuseableitstrom in Erscheinung und es erfolgt keine Abschaltung. Damit wird erreicht, dass ein für die Untersuchung oder Behandlung lebenswichtiges ME-Gerät nicht ausfällt und bis zur Beendigung der Behandlung weiter betrieben werden kann. Der Fehler wird dem medizinischen Personal gemeldet. Ein Schutz gegen Überlast ist nicht zulässig. Die Überlastung des IT-Trenntransformators wird dem medizinischen Personal durch eine Überwachungseinrichtung gemeldet. Die Ursachen der Überlast sind zu ermitteln und abzustellen, weil ansonsten der Trenntransformator zerstört werden kann. 8
Residual current protective devices (Fehlerstromschutzschalter)
Zwischen diesen Stromversorgungen (Stromquellen und Netzen) muss bei der Versorgung von sicherheitsrelevanten Verbrauchern in Bereichen der Gruppe 2 umgeschaltet werden. Die Anforderungen an die Umschaltung sind in DIN VDE 0100-710 unter mehreren Abschnitten zu finden. Unter Beachtung dieser normativen Quellen sind in den Unterverteilern zur Versorgung von Bereichen der Gruppe 2 folgende Umschalteinrichtungen erforderlich: ▬ Umschaltung zwischen einer SV- und AV-Einspeisung Hier wird die Spannung der Außenleiter der ersten Leitung (SV) überwacht. Fällt die erste Leitung aus, muss die Weiterversorgung der unter 710.564.4 und 5 genannten Verbraucher, soweit diese aus einem Unterverteiler zu versorgen sind, innerhalb von 15 Sekunden gesichert werden. ▬ Umschaltung zwischen einer SV- und BSV-Einspeisung Hier wird die Spannung der Außenleiter der ersten Leitung (SV) überwacht. Fällt die erste Leitung aus, muss die Weiterversorgung der ME-Geräte innerhalb von 0,5 Sekunden gesichert werden. Wird die BSV im Dauerbetrieb genutzt und die erste Leitung aus der BSV versorgt, steht die Spannung unterbrechungsfrei zur Verfügung. Ein wichtiges Kriterium für die sichere Stromversorgung bilden die Stabilität und die Qualität der Versorgungsspannung. Die Nennspannung des Netzes kann bei Ein9
Verteilnetzbetreiber
57 5.11 · Statische Elektrizität
haltung der Normen an der Steckdose in Einzelfällen um 14% nach unten von der Nennspannung abweichen. Bei der Versorgung des Netzes aus einem Stromerzeugungsaggregat sind bei bestimmten Laständerungen Abweichungen vom zulässigen Toleranzband für die ME-Geräte von ±1 Hz möglich. Außerdem können Oberschwingungsströme wegen der niedrigeren Impedanz des Generators gegenüber dem Netz die Spannung beaufschlagen und zu Störungen führen. Die genannten Abweichungen sind durch geeignete planerische Maßnahmen kompensierbar (Uhlig u. Sudkamp 2004).
5.9
Stromquellen für Sicherheitszwecke mit Akkumulatoren
Nach DIN VDE 0100-710 wird für Operationsleuchten die Versorgung aus einer BSV mit einer maximal zulässigen Unterbrechungszeit von 0,5 Sekunden bei einer Mindestversorgungsdauer von einer oder drei Stunden gefordert. Eine Mindestversorgungsdauer von drei Stunden wird gefordert, wenn nur ein Stromerzeugungsaggregat vorhanden ist. Zentrale BSV-Anlagen für die Versorgung von MEGeräten sind leider nicht mehr Gegenstand der DIN VDE 0100-710. In der DIN EN 60601-1 wird gefordert, ME-Geräte so zu konstruieren, dass eine Unterbrechung der Stromversorgung bis zu deren Wiederherstellung zu keiner Gefährdung führt. Auf dieser Grundlage wird die Funktion der BSV in vielen Fällen durch eine in ME-Geräte eingebaute so genannte interne Stromquelle übernommen. Wie viele Beispiele belegen, ist jedoch unverändert Bedarf an zentralen BSV-Anlagen vorhanden. Einige Gründe dafür sind: ▬ Zentrale BSV verursachen, insbesondere in großen medizinischen Einrichtungen, geringere Kosten, wenn man neben den Investitionskosten den hohen Prüf- und Wartungsaufwand für die internen Stromquellen (Kleinakkumulatoren) berücksichtigt. ▬ Andere unentbehrliche Leuchten für die OP-Feldbeleuchtung (z. B. OP-Mikroskope, Endoskope) werden mit 230 V Wechselspannung betrieben. ▬ Die internen Stromquellen der ME-Geräte sind nicht ausreichend zuverlässig. ▬ Die internen Stromquellen von ME-Geräten verfügen über kein Ersatzsystem. ▬ Es sind ME-Geräte ohne interne Stromquelle im Umlauf. ▬ Die zentralen BSV-Anlagen werden baurechtlich gefordert (nicht in allen Bundesländern). Für batteriegestützte zentrale Stromversorgungssysteme (BSV) für Sicherheitszwecke zur Versorgung medizinisch genutzter Bereiche gilt seit Oktober 2008 die nationale Norm DIN VDE 0558-507.
Hinweis: Unterbrechungsfreie Stromversorgung (USV) dürfen nicht zur Versorgung von ME-Geräten verwendet werden, weil sie den notwendigen Anforderungen nicht genügen.
5.10
Endstromkreise und Steckdosen
Für die Stromkreise von Steckdosen werden in der DIN VDE 0100-710 wichtige Anforderungen genannt. So müssen die Steckdosen am Patientenplatz mindestens auf zwei Stromkreise aufgeteilt werden. In der Anmerkung findet sich die Forderung, bei mehr als zwei Stromkreisen je Patientenplatz zwei medizinische IT-Systeme aufzubauen. Damit ist der Aufbau von zwei medizinischen IT-Systemen pro Patientenplatz praktisch normativ empfohlen. Bei der Verwendung von ortsveränderlichen Mehrfachsteckdosen sind einzeln geschützte Stromkreise vorgeschrieben. Die Verwendung von Mehrfachsteckdosen sollte aus Sicherheitsgründen, mit Ausnahme von fahrbaren Gerätewagen, unterbleiben ( Abschn. 5.4). Die DIN VDE 0100-710 verlangt ferner, alle Steckdosen, die ME-Geräte versorgen, mit einer optischen Spannungsanzeige auszustatten. Dadurch erkennt das medizinische Personal sofort, welche Steckdosen nach einem Fehler noch Spannung führen.
5.11
Statische Elektrizität
Statische Aufladungen sind von der Leitungsfähigkeit und Trenngeschwindigkeit der beteiligten Materialien abhängig. Leitfähig sind feste oder flüssige Stoffe, deren spezifischer Widerstand bis zu 104 Ohm pro Meter beträgt. Nicht leitfähige Stoffe haben hingegen einen spezifischen Widerstand von mehr als 104 Ohm pro Meter. Besonders im Operationsbereich, wo eine Vielzahl von medizintechnischen Geräten vorhanden ist und Anästhesiegase sowie brennbare Flüssigkeiten wie Desinfektionsmittel verwendet werden, könnte eine elektrostatische Entladung die »explosionsfähige OP-Atmosphäre« entzünden und verheerende Wirkung entfalten. Deshalb sind folgende Schutzmaßnahmen in medizinisch genutzten Räumen mit explosionsgefährdeten Bereichen erforderlich (Twachtmann 1992): ▬ Arbeitskleidung sowie Decken und Tücher müssen aus einem Mischgewebe mit mindestens 30% Anteil an naturbelassener Baumwolle oder Viskose (ohne Kunstharzausrüstung) bestehen. Gummitücher, -matratzen und -kopfkissen müssen aus leitfähigem Gummi hergestellt oder überzogen sein. ▬ Der Ableitwiderstand des Fußbodens darf 107 bis 108 Ohm betragen. Um eine gewisse Standard-Isolation zu erreichen, sollte ein Fußboden-Ableitwiderstand von 5 x 104 Ohm nicht unterschritten werden.
5
58
5
Kapitel 5 · Technische Sicherheit von medizintechnischen elektrischen Geräten und Systemen in medizinisch genutzten Räumen
▬ Einrichtungsgegenstände, die berührbar und leitfähig sind, müssen miteinander sowie mit dem Fußboden leitfähig verbunden werden. Der Fußboden sollte elektrostatisch leitfähig und gleichzeitig mit dem Potentialausgleich verbunden sein. Anmerkung: Da explosionsfähige volatile Anästhetika wie Halothan oder Enfluran nicht mehr angeboten werden, ist eine kontroverse Diskussion über die Notwendigkeit der kostspieligen Ausstattung mit ableitfähigen Bodenbelägen in Operationsräumen entstanden. Dennoch bleibt nach Expertenmeinung das Problem der statischen Aufladung, das die medizintechnische Ausrüstung (z. B. Monitoring) negativ beeinflussen oder gar beschädigen kann, sodass es nach wie vor sinnvoll ist, den Boden ableitfähig zu halten. ▬ Operationstischsysteme müssen an den Potentialausgleichsleiter bzw. Schutzleiter angeschlossen sein. Die Tischauflage muss elektrisch leitfähig sein, damit eine durch Reibung entstehende Elektrizität ohne Funkenbildung über den geerdeten Tisch abfließen kann. ▬ Mindestens einen Ableitwiderstand von 5 x 104 Ohm muss die leitfähige Fußbekleidung (einschließlich Überschuhe) aufweisen. ▬ Atembeutel von Inhalationsnarkosegeräten und Sauerstoffbeatmungsgeräten dürfen nur aus leitfähigem Material gefertigt sein. Besonders geeignet sind elektrisch leitfähige Latexmischungen oder Polypropylen.
5.12
Elektromagnetische Verträglichkeit (EMV)
Von ME-Geräten und ME-Systemen wird ein sehr hohes Niveau der elektromagnetischen Verträglichkeit verlangt, um die Funktionstüchtigkeit von anderen elektrischen Einrichtungen zu gewährleisten. Nach der IEC 50-161 ergibt sich für die EMV folgende Definition: > Definition Elektromagnetische Verträglichkeit (EMV) ist die Fähigkeit einer elektrischen Einrichtung oder eines Systems, in seiner elektrischen Umgebung befriedigend zu funktionieren, ohne unannehmbare elektromagnetische Störgrößen für andere Einrichtungen in diese Umgebung einzubringen. (IEC 50-161 1990)
Magnetische und elektrische Störfelder können den sicheren Betrieb von medizintechnischen Geräten und Systemen beeinträchtigen oder verhindern. Einerseits können aus der Umgebung leitungsgeführte oder gestrahlte Störungen auf die medizintechnische elektrische Einrichtung einwirken, andererseits von dieser Einrichtung ausgehen. Ein Beispiel für eine gestrahlte Störgröße ist die Elektrochirurgie bzw. HF-Chirurgie: Im Prinzip ist die Bauweise eines HF-Generators (Frequenzspektrum 0,4–5 MHz) mit einem Sender vergleichbar, es fehlen nur elektronische
Bauteile für die Informationsübertragung sowie eine Antenne. Ein hoher Anteil der hochfrequenten Energie des HF-Generators wird – insbesondere bei älteren Geräten – drahtlos von den Leitungen in die Umgebung abgestrahlt. Weitere Störungen treten auf, wenn elektrische Leitungen parallel zu den Leitungen des HF-Generators geführt werden, da durch kapazitive und induktive Einkoppelungen vagabundierende Ströme in den elektrischen Zuleitungen benachbarter Geräte entstehen. Für den störungsfreien Betrieb elektromedizinischer Geräte und Anlagen ist es zudem notwendig, dass die benötigte Netzspannung elektromagnetisch verträglich ist, d. h., wenn einerseits der Effektivwert stabil innerhalb vorgegebener Grenzen liegt und andererseits der Störpegel in der Spannung kleiner ist als die Verträglichkeitspegel der betriebenen Gerätschaften (EMV-Umgebungsklasse 1 und/oder 2). Wesentliche leitungsbedingte Störeinflüsse werden durch so genannte Störphänomene verursacht, etwa durch ▬ Schwankungen in der Spannung und periodische Spannungsschwankungen infolge schneller Laständerungen im Versorgungsnetz (Flicker), ▬ Oberschwingungen und zwischenharmonische Schwingungen, ▬ Spannungseinbrüche und kurze Unterbrechungen, ▬ transiente Überspannung, ▬ Unsymmetrien, ▬ Netzfrequenzschwankungen. Mit wachsender Anzahl und vermehrtem Einsatz von ME-Geräten wachsen auch proportional die Probleme mit der elektromagnetischen Verträglichkeit, die letztlich ein Synonym ist für Begriffe wie Überspannungen, hochfrequente Einstreuungen, 50-Hz-Netzbrummen, Erdschleifen, Netzrückwirkungen usw. (⊡ Tab. 5.4).
⊡ Tab. 5.4. Anhaltswerte von Störgrößenparametern (Meyer 1991) Störgröße
Einheit
Anhaltswerte
Frequenzbereich
[Hz]
0–1010
Spannung
[V]
10-6–106
Spannungsänderung
[V/s]
bis 1011
Strom
[A]
10-9–105
Stromänderung
[A/s]
bis 1011
Feldstärke, elektrische
[V/m]
bis 105
Feldstärke, magnetische
[A/m]
10-6–108
Leistung
[W]
10-9–109
Pulsenergie
[J]
10-9–107
Anstiegszeiten
[s]
10-10–10-2
Impulse/Dauer
[s]
10-8–10
59 Literatur
Für elektromedizinische Geräte sind folgende EMVBesonderheiten von Interesse (Sitzmann 1998): ▬ Bei lebenserhaltenden und -unterstützenden medizintechnischen Geräten und Systemen muss der bestimmungsgemäße Betrieb ohne Beeinträchtigung sichergestellt sein. ▬ Bei nichtlebenserhaltenden medizintechnischen Geräten und Systemen darf eine Beeinträchtigung auftreten, die nicht sicherheitsrelevant ist und vom Anwender erkannt werden kann. ▬ Geräte unterschiedlicher Funktion, die mit dem Patienten direkt verbunden sind, müssen ohne gegenseitige Beeinflussung zuverlässig arbeiten. ▬ Für den OP-Bereich gelten spezielle Anforderungen. ▬ Hinsichtlich der Ableitströme (z. B. Gehäuseableitstrom) gibt es spezielle Entstörkonzepte. Um eine elektromagnetische Verträglichkeit in der Medizintechnik sicherzustellen, bieten sich u. a. folgende technische und organisatorische Maßnahmen an (Hartung 1999): 1. Für direkte Sicherheit kommen Massung, Erdung, Potentialausgleich, Abschirmung, Filterung, Schutz gegen Überspannung, Auswahl an Leitungen, EMVgerechte Schaltungsauslegung in Frage. 2. Indirekte Sicherheit wird erzielt durch räumliche Maßnahmen, Signalwandlung der Nutzgrößen, Einsatz störsicherer Software, Einbau von Alert-Techniken. 3. Administrative Sicherheit wird u. a. erreicht durch Verhaltensregeln, EMV-Planung, Instandhaltung und -setzung sowie Wartung.
5.13
Zusammenfassung
Zusammenfassend basieren die primären Anforderungen an ME-Geräte und die elektrische Anlage in medizinisch genutzten Bereichen auf der gesicherten Stromversorgung, dem Schutz gegen gefährliche Körperströme sowie magnetische oder elektrische Störungen und dem Schutz gegen Explosions- oder Brandgefahr. Im Umgang mit ME-Geräten der Praxis ist es unumgänglich, dass sich die jeweiligen Anwender mit der Funktionsweise und dem Verwendungszweck des elektromedizinischen Geräts sowie den Kombinationsmöglichkeiten mit ME-Systemen vertraut machen. Darüber hinaus sind die Kontrollen des Gerätezustands, des Zubehörs sowie der Kabelleitungen und die Funktionskontrolle der ME-Geräte und ME-Systeme mitentscheidend für den sicheren Betrieb.
Literatur Hartung C (1999) Szenario elektromagnetischer Störungen am Beispiel der Medizintechnik im Krankenhaus. mt 5: 172–177 Flügel T et al. (2004) Starkstromanlagen in medizinisch genutzten Gebäuden mit stationären oder ambulanten Bereichen. 3. Aufl. VDE Verlag, Berlin IEC 50-161 (1990) International Electrotechnical Vocabulary (IEV). Chap 161 Electromagnetic Compatibility ISO Guide 51 (1990) Guidelines for inclusion of safety aspects in standards. Beuth, Berlin Meyer HG (1991) Elektromagnetische Verträglichkeit. In: Hutten H (Hrsg) Biomedizinische Technik. Medizinische Sondergebiete, Bd 4. Springer/TÜV, Berlin Heidelberg New York Tokyo Köln, S 301–339 Schneider B et al. (1976) Aufgabe und Arbeitsweise der Fachkräfte für Arbeitssicherheit. In: Bundesanstalt für Arbeitsschutz (Hrsg) Grundlehrgang A für Sicherheitsfachkräfte. Bd II. TÜV, Köln Sitzmann R (1998) Elektromagnetische Verträglichkeit in der Medizintechnik. Electromedica 2: 84–86 Twachtmann W (1992) Sichere Stromversorgung im Krankenhaus. Krankenhaus Technik 1: 42–44 Uhlig H-P, Sudkamp N (2004) Elektrische Anlagen in medizinischen Einrichtungen. Hüthig & Pflaum Verlag, Heidelberg
5
6 Ökonomische Aspekte der betrieblich-medizinischtechnischen Einrichtungsplanung (BMTE) B. Karweik, H. Knickrehm
6.3.4
6.1
Einleitung
6.2
Rahmenbedingungen
6.2.1 6.2.2
Neubau – 61 Bestand – 62
6.3
Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI – 62
6.3.1 6.3.2
Bedarfsermittlung (HOAI-Phasen 1/2) – 62 Kostenberechnung der Gerätebeschaffung (HOAI-Phase 3) – 64 Genehmigungsplanung und Ausführungsplanung (HOAI-Phasen 4/5) – 68
6.3.3
6.1
– 61 – 61
Einleitung
Der betriebswirtschaftlich effiziente Einsatz medizintechnischer Systeme gewinnt aufgrund der Strukturreformen im deutschen Gesundheitswesen für Kliniksowie Praxisbetreiber zunehmend an Bedeutung. Die daraus resultierenden Forderungen nach einer optimalen Auslastung von Ressourcen müssen deshalb bereits im Rahmen der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE) berücksichtigt werden, damit eine optimale Nutzung des Potentials (bauliche Struktur sowie Technik) möglich ist. Hierbei sind neben der medizintechnischen Beschaffung entsprechend der vom Nutzer vorgesehenen Anwendung auch betriebsorganisatorische Aspekte zu beachten. Zudem ist durch das stetig zunehmende Leistungspotential der medizintechnischen Systeme sowie der damit verbundenen komplexen Installationsanforderungen eine koordinierte Zusammenarbeit verschiedenster Fachplaner (z. B. Architekt, Elektrotechnik-Fachplaner, Medizintechnik-Fachplaner) erforderlich. Ziel des nachfolgenden Kapitels ist die beispielhafte Darstellung eines Beschaffungsvorganges für ein medizintechnisches System im Rahmen einer öffentlichen Ausschreibung, wobei grundsätzlich zwischen einer Neubau-Maßnahme sowie einer Beschaffung im Bestand hinsichtlich eines Systemersatzes oder einer Erweiterung zu differenzieren ist.
6.3.5
Erstellung der Leistungsbeschreibung (LB) (HOAI-Phasen 6/7) – 68 Objektüberwachung und Gewährleistungsüberwachung (HOAI-Phasen 8/9) – 71
6.4
Die neue HOAI 2009 – 72
6.5
Ausblick
– 72
Literatur
– 72
6.2
Rahmenbedingungen
Für die Beschaffung eines medizintechnischen Systems ist es aus technischer sowie betriebsorganisatorischer Sicht von erheblicher Bedeutung, ob die Installation in einem Neubau oder in einem bestehenden Gebäude (im Bestand) erfolgen soll, da sich dieses auf das Beschaffungsvolumen, die mögliche Konfiguration des Systems und die Ablaufplanung auswirkt. Bei einem Neubau ist weiterhin zu unterscheiden, ob die Anwendung der vorgesehenen Beschaffung bereits im Leistungsspektrum der medizinischen Einrichtung etabliert ist und somit eine Übernahme vorhandener geeigneter Geräte erlaubt oder ob es sich um die Installation einer vollkommen neuen Behandlungsmethode handelt.
6.2.1 Neubau
Im Rahmen einer Neubaumaßnahme zur baulichen Modernisierung und/oder Erweiterung einer medizinischen Einrichtung wird i. d. R. sowohl das medizintechnische System selbst als auch dessen Peripherie neu beschafft bzw. neu gebaut. In vielen Fällen sind neben einem festinstallierten medizintechnischen Großgerät (z. B. Magnetresonanztomographie-System, Herzkatheter-Anlage) auch entsprechende Subsysteme zu beschaffen, wobei sich dieses überwiegend auf die lose medizintechnische Einrichtung bezieht (z. B. Notfall-Defibrillator, Reanimationswagen, Spritzenpumpen). Um gegebenenfalls bereits vorhandene Geräte hinsichtlich einer möglichen Weiter-
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _6, © Springer-Verlag Berlin Heidelberg 2011
62
6
Kapitel 6 · Ökonomische Aspekte der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE)
verwendung im Neubau berücksichtigen zu können, wird im Rahmen einer Bestandsbegehung sämtliches medizintechnisches Gerät erfasst und bewertet. Insbesondere bei Festeinbauten sind Umsetzungskosten einzukalkulieren, die teilweise eine Weiterverwendung aufgrund von den Neubeschaffungswert überschreitenden Umsetzungskosten oder einer nicht wirtschaftlichen Relation zwischen dem Restwert des Gerätes, verbleibender Nutzungsdauer sowie Umsetzungskosten im Gegensatz zu einer Neuinstallation eines Gerätes ausschließen. In der Regel ist einzig die Umsetzung teurer medizintechnischer Geräte (v. a. Großgeräte) mit einem Alter unter vier Jahren wirtschaftlich, da diese Geräte noch eine ausreichende RestNutzungsdauer bieten. Weiterhin ist bei Verwendung vorhandener Geräte eine gut organisierte Umzugs- und Inbetriebnahmeplanung erforderlich, um eine wesentliche Einschränkung der medizinischen Leistungsfähigkeit vor, während und nach dem Umzug zu vermeiden. Einen Sonderfall stellt die Situation eines Neubaus mit einer Erweiterung der bisher vorhandenen Anzahl an Behandlungsplätzen sowie der Übernahme von Bestandsgroßgerät mit äquivalenter Funktion wie das zu beschaffende System dar. Hierbei muss im Rahmen der Beschaffung die Anbindung an die später im Neubau durch Übernahme von Bestandsgerät gegebene direkt in Verbindung stehende Geräteumgebung berücksichtigt und die Anzahl der Subsysteme unabhängig von der Anzahl übernahmefähiger Subsysteme erhöht werden. Betriebsorganisatorisch erlaubt ein Neubau eine Optimierung der Abläufe durch Integration des neu zu beschaffenden Systems in eine auf den jeweiligen Behandlungs- oder Therapieschwerpunkt ausgelegte Peripherie. Durch direkten Zugriff auf z. B. vor- und nachgelagerte Bereiche (z. B. Patienten-Holding-Area, Aufwachraum, Intensivstation) und einem damit verbundenen effizienten Workflow ist ein entsprechend der Investitionskosten erforderlicher Patientendurchsatz möglich, um eine Anlage wirtschaftlich und qualitativ hochwertig betreiben zu können. Diese Aspekte sind bei der Erstellung des Funktions- und Raumprogrammes sowie bei der folgenden, darauf basierenden, architektonischen Grundrisserstellung zu berücksichtigen.
exakte Koordination und Terminplanung der vor Ort ausführenden Fachfirmen erforderlich ist, um Einschränkungen des medizinischen Leistungsspektrums so weit wie möglich zu minimieren. Zunächst wird im Rahmen einer Bestandsbegehung festgestellt, ob ein Betrieb bereits vorhandener Systeme mit der Neuinstallation möglich ist (z. B. KontrastmittelInjektor) und ob diese Systeme auch den zukünftigen Anforderungen des Nutzers entsprechen. Weiterhin sind die Anforderungen an das neue System zu definieren, um eine funktions- und leistungsfähige Integration in eine vorhandene Geräteumgebung zu ermöglichen (z. B. Schnittstellen zu RIS und PACS). Abschließend wird auf Grundlage einer Kostenschätzung das notwendige medizintechnische Beschaffungsvolumen durch den Bauherrn festgelegt. Betriebsorganisatorisch ist zu klären, wie die Anbindung an die vorhandene räumliche Struktur erfolgen soll und ob diese Struktur ausreichend Ressourcen bietet, um einen effizienten Betrieb zu gewährleisten (z. B. Anzahl von Betten im Aufwachraum). Gegebenenfalls ist eine Umstrukturierung zur Optimierung der Anbindung oder auch Erweiterung in Erwägung zu ziehen, um entsprechende Ressourcen bereitstellen zu können.
Der Vorgang der medizintechnischen Beschaffungsmaßnahme kann anhand der verschiedenen Leistungsphasen der Honorarordnung für Architekten und Ingenieure (HOAI) wie folgt abgebildet werden (⊡ Abb. 6.1). Dieser Vorgang unterliegt bei einigen der in ⊡ Abb. 6.1 dargestellten Arbeitsprozessen neben rein technischen Aspekten auch ökonomischen Rahmenbedingungen, auf deren Auswirkungen auf die biomedizinische Einrichtungsplanung im Folgenden näher eingegangen werden soll. Da diese Aspekte überwiegend nur bei entsprechend hohen Beschaffungskosten (über 100.000 Euro) vollwertig zum Tragen kommen, werden Beschaffungen mit geringen Investitionskosten und geringen Planungsanforderungen hierbei vernachlässigt.
6.2.2 Bestand
6.3.1 Bedarfsermittlung (HOAI-Phasen 1/2)
Bei Systemerneuerung oder auch Erweiterung der medizintechnischen Möglichkeiten hinsichtlich Diagnostik und Therapie im Bestand (z. B. Neu-Etablierung der Kardangiographie durch Installation eines Herzkatheterlabors) muss hingegen das System mit erweitertem technischen sowie medizinischen Leistungspotential in eine vorhandene Umgebung eingebunden werden. Je nach räumlicher Situation und Umfang muss die Maßnahme parallel zum laufenden medizinischen Betrieb erfolgen, weshalb eine
Um den Bedarf bzw. die Anforderungen an die Neubeschaffung feststellen zu können, wird aus Sicht der medizintechnischen Fachplanung dem späteren Nutzer primär eine Standard-Gerätekonfiguration als Diskussionsgrundlage vorgelegt, die eine Durchführung der üblichen Diagnostik- und/oder Therapieverfahren ermöglicht. Für die Auslegung der Standard-Gerätekonfiguration zur Beschaffung der Hard- und Software sind insbesondere folgende Aspekte zu beachten:
6.3
Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI
63 6.3 · Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI
⊡ Abb. 6.1. Phasen der MT-Planung nach HOAI
6
64
6
Kapitel 6 · Ökonomische Aspekte der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE)
▬ die Versorgungsstufe und Versorgungsleistung des Krankenhauses bzw. das Leistungsspektrum des behandelnden Arztes ▬ gegebenenfalls Spezialisierung des Krankenhauses oder des Arztes (z. B. pädiatrische Patienten) ▬ die System-Performance zur Erbringung der erwünschten Untersuchungs- oder Behandlungsfallzahlen in einem vorgegebenen Zeitintervall ▬ Voraussetzungen, um die Leistungen gegenüber den Krankenkassen fakturieren zu können ▬ Umfang der notwendigen Maßnahmen zur Qualitätssicherung (entsprechend der Vorgaben der entsprechenden Fachkreise [Leitlinien], Kostenträger sowie aus hausinternen QS-Maßnahmen) ▬ gegebenenfalls bereits vorhandene Systeme mit äquivalenter Anwendung hinsichtlich Anbindung, Schnittstellen und gemeinsamer Nutzung von Ressourcen Im nächsten Schritt wird unter Berücksichtigung des vorgesehenen Anwendungsbereiches in Zusammenarbeit mit dem Nutzer das Leistungsprofil des Gerätes konkretisiert und die Gerätekonfiguration an diese Bedürfnisse angepasst. Diese grundlegenden Anforderungen werden dann in einer grobstrukturierten Konfigurationsübersicht festgehalten und stellen folgend die Grundlage für die Kostenberechnung der Gerätebeschaffung dar.
kontaktierten Wettbewerber gewähren erfahrungsgemäß Nachlässe zu den Richtpreiskonditionen, die allerdings von sehr vielen Randbedingungen abhängen und insofern schwer kalkulierbar sind. Zu den Kosten der reinen Gerätebeschaffung sind noch die Kosten für die Erstellung oder den Umbau des Baukörpers zu addieren, die im Rahmen einer Haushaltsunterlage Bau (HU-Bau) in Zusammenarbeit aller beteiligten Fachplaner ermittelt werden. Vom medizintechnischen Fachplaner wird in diesem Zusammenhang in Form eines technisches Raumbuches (⊡ Abb. 6.2) eine Aufstellung aller im Raum vorgesehenen medizintechnischen Festeinbauten und der losen Einrichtung erarbeitet, wobei zwischen übernahmefähigen Bestandsgeräten (sofern Informationen in dieser Phase verfügbar) und neu zu beschaffenden Geräten unterschieden werden kann. Weiterhin enthält dieses Raumbuch eine Zusammenfassung der technischen Anforderungen der medizintechnischen Geräte und Festeinbauten an den Raum (z. B. Medienbedarf für den Anschluss einer Deckenversorgungseinheit, Statik bei hohen Gewichten) und dient somit den weiteren beteiligten Fachplanern als Grundlage zur Ermittlung der jeweiligen fachbezogenen Kosten.
Finanzierung der Gerätebeschaffung Förderung und Privatinvestor
6.3.2 Kostenberechnung der Geräte-
beschaffung (HOAI-Phase 3) Erstellung der Haushaltsunterlage Gerät/Bau Die Kosten für die Gerätebeschaffung umfassen alle Leistungen des Bieters bis zur fachtechnischen Abnahme des Gerätes und Übergabe an den Bauherren und Nutzer, wobei alle Nebenkosten wie z. B. Kosten für Angebotskalkulation, Ausführungszeichnungen, Lieferung, Einbringung, Anschlusserweiterung, Abnahmeprüfungen und Personalunterweisung enthalten sind. Hierfür liegen dem medizintechnischen Einrichtungsplaner Vergleichskosten aus bereits abgeschlossenen Projektmaßnahmen vor, um im Rahmen der Erstellung einer Haushaltsunterlage Gerät (HU-Gerät) eine zuverlässige Kostenberechnung (ca. +/–5% Kostenunsicherheit) abgeben zu können. Die Verwendung bzw. Fortschreibung (Kostensteigerungsindizes statistisches Bundesamt) von Kostenfeststellungen basierend auf Projekten, die seit mehr als drei Jahren abgeschlossen sind, ist nicht sinnvoll, da aufgrund der sehr kurzen Produktzyklen im Bereich der Hardware und insbesondere der Software eine zuverlässige Kostenschätzung für eine in der Zukunft liegende Maßnahme nicht möglich ist. Falls für das zu beplanende Vorhaben keine aktuellen Daten verfügbar sind (insbesondere bei sehr ausgefallenen Systemen), erfolgt die Einholung von Richtpreisangeboten von mindestens drei Anbietern. Diese
Die Haushaltsunterlagen werden dem Bauherren zur Genehmigung eines Budgets vorgelegt, wobei medizinische Einrichtungen der öffentlichen Hand eine Förderung durch das jeweilige Land beantragen können. Hierbei ist zu beachten, dass Krankenhausfinanzierungsgesetze auf Landesrecht basieren und somit Unterschiede hinsichtlich des Vorgehens der Beantragung sowie der Form des Antrages aufweisen können. Bei universitären Einrichtungen werden im Programm „Großgeräte der Länder“ Großgeräte an Hochschulklinika durch die Länder gefördert. (Stand: 04/2010) Die fachliche Beurteilung der Förderungswürdigkeit erfolgt durch die deutsche Forschungsgemeinschaft (DFG) im Auftrag der Bundesländer. Die Geräte müssen der Zweckbestimmung nach für den Einsatz in Forschung, Ausbildung, Lehre oder Krankenversorgung vorgesehen sein. Die Investitionssumme (inkl. Mwst.) muss bei Hochschulklinika über einem Schwellenwert von 200.000,- € (Bayern: 125.000,- €) liegen. Der Förderantrag ist durch den verantwortlichen Betreiber, auf vorgegebenen Formular, zu stellen. Nachdem für eine Beschaffungsmaßnahme ein entsprechender Förderbescheid der DFG vorliegt, kann mit der detaillierten Planung und der Erstellung eines Leistungsverzeichnisses zur öffentlichen Ausschreibung nach VOB oder VOL begonnen werden. Falls der Förderungsbescheid nicht die vollständigen Kosten für eine vorgesehene Maßnahme deckt, muss vom Bauherren eine Kostenübernahme verbindlich zugesichert werden (genehmigte Kosten).
65 6.3 · Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI
Bei privaten Investoren muss eine Kostenübernahmeerklärung auf Grundlage der Kostenschätzung abgegeben werden, um die Planung fortführen zu können. Da hierbei keine öffentlichen Gelder verwendet werden, muss nicht in allen Fällen eine öffentliche Ausschreibung erfolgen.
Finanzierung ohne Förderung
Falls eine Förderung mit öffentlichen Mitteln nicht möglich ist und somit eine Eigenfinanzierung der Maßnahme erforderlich ist, kann auf alternative Finanzierungsformen zurückgegriffen werden, die aufgrund zunehmend einge-
⊡ Abb. 6.2. Auszug aus einem technischen Raumbuch (Axx für Neubeschaffung, Bxx für Bestand)
6
66
Kapitel 6 · Ökonomische Aspekte der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE)
6
⊡ Abb. 6.2. Fortsetzung
schränkter Zuweisungen der öffentlichen Hand stark an Bedeutung gewonnen haben. Nachfolgend sollen wesentliche Formen kurz genannt werden. Public Private Partnership (PPP)
Da insbesondere umfangreiche Finanzmittel für den Neubau kompletter klinischer Einrichtungen oder wesent-
licher Bestandteile von klinischen Einrichtungen durch die öffentliche Hand aufgrund zunehmend schwieriger finanzieller Rahmenbedinungen nur noch eingeschränkt freigegeben werden können, wird von industrieller Seite eine Finanzierung über Public Private Partnership (PPP) offeriert. Dabei wird das Gebäude, die vollständige Einrichtung sowie der Betrieb und die Instandhaltung (Faci-
67 6.3 · Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI
lity Management) von einem privaten Partner (z. B. große Bauunternehmen, Investorgruppen) finanziert. Über einen Mietvertrag mit vorgegebener Laufzeit wird dem Nutzer das Gebäude überlassen, wofür ein periodisch zu zahlender Mietpreis zu entrichten ist. Dieser Mietpreis als auch die Kosten für Verbrauchsmaterial sowie die anfallenden Löhne und Gehälter der Mitarbeiter des medizinischen Betriebes müssen vom Nutzer entrichtet werden und sollten durch die Erlöse aus den Patientenbehandlungen und -therapien gedeckt werden. Je nach Ausgestaltung des Vertrages kann z. B. der Umfang der Leistungen durch den Investor und somit der Mietpreis variiert (z. B. Gerätebeschaffung und Instandhaltung über die Klinik) oder das Gebäude nach Ablauf der Laufzeit übernommen werden. Pay-per-use
Durch die Gerätehersteller wird bereits seit Jahren die Nutzung von medizintechnischen Geräten auf Basis einer zu zahlenden Stück-Pauschale angeboten, die vom Nutzer für jede mit dem Gerät durchgeführte Untersuchung (z. B. Analysen mit einem BGA-Messgerät) zu entrichten ist. In dieser Pauschale sind bereits die Kosten für Verbrauchsmaterial, Wartung und Gerätestellung enthalten. Diese Pauschale kann auch über eine vertraglich geregelte Abnahme von Verbrauchsmaterial (z. B. Reagenzien) beim Gerätehersteller beglichen werden. Vorteil ist hierbei, dass keine großen Investitionen notwendig sind, um ein Gerät nutzen zu können, sondern direkt aus den erzielten Einnahmen die Kosten für das Gerät bezahlt werden können. Mietkauf/Leasing/Miete
Wie bereits bei diversen technischen Gütern möglich können auch medizintechnische Geräte seit geraumer Zeit über Mietzahlung bzw. Leasingrate genutzt werden. Hierbei zahlt der Nutzer eine monatliche Summe, um das Gerät nutzen zu können, wobei jedoch i. d. R. die nutzungsabhängigen Verbrauchskosten durch den Betreiber zu tragen sind. Je nach Ausgestaltung ist es auch hier möglich, dass das Gerät nach Ablauf eines zu bestimmenden Zeitraumes und somit der Bezahlung einer bestimmten Anzahl an Raten in den Besitz des Nutzers übergeht. Ein neues Modell ist die Übertragung der Bereitstellung und Bewirtschaftung der Medizintechnik auf einen externen Dienstleister. Hierbei werden dem Auftraggeber gegen Entrichtung einer Kostenpauschale oder Einzelkosten-Abrechnung durch den Auftragnehmer qualitativ und quantitativ definierte medizintechnische Geräte zur Verfügung gestellt sowie hierfür notwendige Wartungs- und Instandhaltungsleistungen erbracht.
Betriebskostenschätzung Auf Verlangen des Betreibers bzw. Nutzers ist es möglich, eine vorausschauende Betriebskostenübersicht zu
erstellen. Neben den Fixkosten für die belegte Nutzfläche, Personalkosten, Versicherung sowie Gerätebeschaffung (jährliche Abschreibung) müssen die fallzahlabhängigen Kosten für Geräteabnutzung, nutzungsabhängige Wartung, Verbrauchsmaterial, Ersatzteilkosten und Verbrauchsmedien (z. B. Strom, Wasser, Gase) berücksichtigt werden. Anhand dieser Werte kann abgeschätzt werden, ob ein wirtschaftlicher Betrieb der Anlage mit den gegebenen Fallzahlen möglich ist bzw. welche abrechenbare Fallzahl mindestens erforderlich ist, um die Amortisation eines Systems sicherzustellen (⊡ Tab. 6.1).
Echtzeit-Simulation Bei Systemen mit hohen Investitions- und Betriebskosten kann die Echtzeit-Simulation ein sinnvolles Instrument sein, um zu gewährleisten, dass mit dem vorgesehenen Grundriss, der Raumnutzung und den vorgesehenen Behandlungsabläufen ein für den wirtschaftlichen Betrieb entsprechender Patientendurchsatz möglich ist. Hierzu werden die vorgesehenen Behandlungsabläufe innerhalb einer Ressourcenmatrix erfasst, wobei die einzelnen Prozess-Schritte mit Zeitwerten, Personalbindungszeit, Raumbelegungszeit sowie prozentualer Verteilung der Behandlungsschritte unterschiedlicher randomisierter Patientengruppen abgebildet werden. Somit ist es möglich, nach dem maßstäblichen Einlesen des Grundrisses und der relevanten Einrichtung (z. B. Magnetresonanztomograph, Strahlentherapeutische Systeme) sowie der Programmierung und Parametrierung der Behandlungsschritte entsprechende statistische Auswertungen zu generieren. Durch diese Auswertungen kann u. a. der Patientendurchsatz einzelner Systeme, die Raumbelegung von zentralen und peripheren Räumen für mehrere Behandlungsschritte, die Auslastung von Personal, der Bedarf von Subsystemen usw. dargestellt werden. Auf Grundlage dieser Daten ist zudem eine je nach Auftraggeber-Wunsch detaillierte Berechnung der Betriebskosten und der ErlösSituation möglich.
⊡ Tab. 6.1. Relevante Kosten und Erlöse Kosten
Standortfaktoren Gerätefaktoren Personalkosten Kosten der Untersuchungs- und Behandlungsverfahren Kosten für Fremddienstleistungen
Erlöse
DRG EBM 2000plus GOÄ IGeL (individuelle Gesundheits- und Selbstzahlerleistungen) Zuwendungen für Forschung und Lehre (Drittmitel)
6
68
Kapitel 6 · Ökonomische Aspekte der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE)
6.3.3 Genehmigungsplanung und
6
Ausführungsplanung (HOAI-Phasen 4/5) Nachdem festgelegt worden ist, welche medizintechnischen Installationen im Rahmen der Baumaßnahme realisiert werden sollen und die Finanzierung in wesentlichen Teilen (i. d. R. genehmigte HU-Bau) gesichert ist, erfolgt auf Grundlage des medizintechnischen Raumbuches eine detaillierte MT-Ausführungsplanung (auch Planung der Ausführungsunterlage, kurz AFU-Planung, genannt). Eine Genehmigungsplanung ist nur in sehr seltenen Fällen Bestandteil des vertraglich definierten Leistungsumfanges des medizintechnischen Fachplaners, da im Rahmen dieser Genehmigungsplanung primär öffentlich-rechtliche Vorschriften (z. B. Entwässerungsgesuch im Bereich der Sanitär-Planung) relevant sind und diese somit an die medizintechnische Fachplanung keine direkten Anforderungen stellt. Im Rahmen der AFU-Planung werden die Grundriss-Entwurfspläne oder bereits Genehmigungspläne des Architekten hinsichtlich der MT-Fachplanung überprüft (insbesondere Anforderungen resultierend aus dem medizintechnischen Raumbuch) und mit dem Architekten sowie den weiteren Fachplanern von MT-relevanten Gewerken koordiniert (schlussendliche Koordination obliegt i. d. R. dem Architekten). Sofern erforderlich, wird das MT-Raumbuch an den entsprechenden Grundriss angepasst (z. B. Zuteilung von Raum-Nummern, Raumbezeichnungen, Flächenangaben, Erweiterung oder Reduktion von Einrichtung und der damit verbundenen Anforderungen) und dem Architekten sowie den weiteren Fachplanern zur Verfügung gestellt. Weiterhin werden die vom Architekten erstellten Wandabwicklungen der einzelnen Räume sowie der Deckenspiegel (sobald verfügbar) eingelesen und dann die spezifischen medizintechnischen Wandabwicklungen und, falls bereits erforderlich, der Deckenspiegel (z. B. im OP-Bereich) im Maßstab 1:50 oder bei Bedarf 1:20 erstellt. Durch den MT-Fachplaner werden hierbei die im medizintechnischen Raumbuch aufgeführten Installationen (z. B. Narkosegasabsaugung, Stromanschlüsse AV/ SV) sowie die vorgesehenen Festeinbauten (MT-Geräte und Möbel) mit herstellerneutralen Symbolen in die Pläne eingezeichnet. Falls bekannt und festgelegt, können Bestandsgeräte bereits im Plan mit einem definitiven Symbol und entsprechender Fabrikatsangabe eingezeichnet werden. In dieser Phase müssen auch die erforderlichen Einbringwege und spezielle statische Anforderungen hinsichtlich des medizintechnischen Großgerätes (z. B. Magnetresonanztomograph) berücksichtigt werden, wobei hierfür aktuell verfügbare Geräteparameter verwendet werden können. Zu beachten ist, dass diese AFU-Planung keine Montage-Planung ist, da definitive Vorgaben erst nach erfolgter Beschaffung (HOAI-Phasen 6/7) von den jeweiligen Herstellern abgerufen und koordiniert werden können.
Um im Rahmen dieser AFU-Planung eine Berücksichtigung der ggf. im Bestand vorhandenen medizintechnischen Geräte zu ermöglichen, wird bei Bedarf in Abhängigkeit zum Umfang des vorhandenen Gerätes eine Bestandsbegehung durchgeführt. Hierbei werden sämtliche vorhandenen medizintechnischen Festeinbauten sowie das lose medizintechnische Gerät erfasst und hinsichtlich der weiteren Verwendung im Neubau bzw. dem sanierten Bau bewertet. Wesentliche Aspekte sind hierbei u. a. das Alter und der Zustand der Festeinbauten und Geräte, die weitere medizinische Verwendung (z. B. Entfall bei Auflösung einer Fachabteilung), eine ggf. anderweitige Verwendung im Bereich der Klinik (auch unter Berücksichtigung eines Verkaufes) sowie die anfallenden Kosten für den Umzug (z. B. Entsorgung anstatt Übernahme von festinstallierten Schrankanlagen).
6.3.4 Erstellung der Leistungsbeschreibung (LB)
(HOAI-Phasen 6/7) Nach Zusicherung der Kostenübernahme wird auf Grundlage der vom Nutzer schriftlich bestätigten Gerätekonfiguration einer detaillierten Leistungsbeschreibung (LB) erstellt. Das fertige LV wird abschließend dem Nutzer vorgestellt und nach Berücksichtigung notwendiger Ergänzungs- und Korrekturwünsche die Freigabe schriftlich bestätigt. Dieses LV enthält somit alle notwendigen Forderungen des Nutzers sowie weitere Abfragen, um die Leistungsparameter und den Preis (ggf. mit Einheitspreisen zu verschiedenen Zubehörpositionen) eines Gerätes abfragen zu können, wobei bestimmte Abfragen nur bei einer Vergabe an den entsprechenden Bieter zum Tragen kommen (z. B. Angaben zur Stromversorgung). Im Rahmen einer Neubau-Maßnahme können diese bauseitigen Aspekte nur bedingt zur Wertung herangezogen werden, da der Neubau auf die Installationsanforderungen des gewählten Gerätes auszulegen ist. Es sollten mit der Ausschreibung zur Absicherung der Folgekosten neben den Investitionskosten auch die aufgrund der Beschaffung zukünftig anfallenden Wartungskosten in der Bewertung der Angebote zur Ermittlung des (über die Nutzungsdauer) wirtschaftlichsten Angebotes berücksichtigt werden – insbesondere aufgrund eventuell unterschiedlicher Auftraggeber-Budgets (Beschaffung über Investitionshaushalt oder Fördergelder, Wartung über Betriebsmittelhaushalt). Bei medizintechnischen Geräten mit hohem Verschleiß- oder Verbrauchsmaterialbedarf ist es zudem sinnvoll, die Kosten für dieses Material in der Angebotsbewertung zu berücksichtigen. Auch ökologisch-ökonomische Aspekte sind dabei wichtig. Das LV enthält bei Bedarf – sofern nicht durch einen abzufragenden Vollwartungsvertrag abgesichert – zudem bereits Abfragen bezüglich der Ersatzteilkosten, um potentiell im Rahmen eines Teileaustauschs anfallende Kosten der verschiedenen angebotenen Systeme ergänzend zu den bei allen Geräten nahezu gleichen Betriebskos-
69 6.3 · Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI
ten (Strom, Kühlung, Heizung, turnusgemäße STK bzw. MTK) gegenüberstellen zu können.
Versand Leistungsbeschreibung (LB) an Bieterkreis bis zur Submission Nach entsprechender Freigabe durch den Nutzer sowie Betreiber des Gerätes bzw. der Geräte erfolgt im Rahmen einer EU-weiten öffentlichen Ausschreibung der Vergabe von Bau- oder Lieferleistungen nach VOB oder VOL die Bekanntgabe im Supplement zum Amtsblatt der Europäischen Union (auch online einsehbar in der Datenbank TED – Tenders Electronic Daily). Interessierten Bietern ist es nun möglich, dieses LV anzufordern, um an der Vergabe durch Abgabe eines Angebotes teilnehmen zu können. Dieses LV enthält neben den reinen Abfragen zum Gerät auch Vorbemerkungen zur allgemeinen Beschreibung der Baumaßnahme (z. B. Umfeld, Größe, Verkehrswege, Gewährleistung, Finanzierung) sowie zur späteren Ausführung. Nach Ablauf des Bewerbungszeitraums (Submissionstermin) müssen die entsprechenden BieterAngebote pünktlich bei der Vergabestelle eingereicht worden sein, um im Rahmen der Bewertung der Leistungsbeschreibung (LB) bei der Vergabe des Auftrages berücksichtigt werden zu können.
Angebotsauswertung Formale Prüfung
Nach Eingang der Bieter-Angebote werden diese zunächst einer formalen Prüfung unterzogen. Hierbei wird neben
der vollständigen Abgabe der im LV verlangten Unterlagen und Formulare auch die Rechtmäßigkeit der Unterschriften im LV überprüft (ausschließlich Geschäftsführer oder Personen mit entsprechender lt. Handelsregister bestätigten Zeichnungsvollmacht). Ein vom Bieter durch Eintragung (z. B. fehlerhafte Daten) oder Unterlassung (z. B. nicht mit dem LV abgegebene geforderte Unterlagen) verursachter Fehler im LV führt im Rahmen dieser formalen Prüfung unweigerlich zum Ausschluss aus dem Bieterkreis. Bewertungsmatrix
Die Auswertung der Bieter-Angebote auf Basis der Leistungsbeschreibung (LB) erfolgt anhand einer vom medizintechnischen Fachplaner erstellten Bewertungsmatrix, die vom Nutzer und Betreiber vor der Ausschreibung der Vergabe freigegeben worden sein muss und u. U. Bestandteil des LVs ist. In dieser Bewertungsmatrix (⊡ Tab. 6.2) sind die relevanten Kriterien hinsichtlich Investitionskosten, Wartung, Ersatzteilkosten, Referenzen/Funktionalität und dem technischen Wert enthalten, die jeweils mit einer unterschiedlich hohen Gewichtung in die Wertung eingehen (Verfahren der Nutzwertanalyse). Diese Punktgewichtung wird vom Nutzer, dem Betreiber sowie dem medizintechnischen Fachplaner festgelegt und drückt die Relevanz einzelner Aspekte aus (z. B. bei geringen finanziellen Möglichkeiten sehr hohe Gewichtung der Investitionskosten). Durch eine Extremwertbetrachtung ist die Konstruktion verschiedener Angebotsszenarien möglich, wodurch das entsprechende Risiko bei der Vergabe ersichtlich ist.
⊡ Tab. 6.2. Bewertungsmatrix 50:50 (50% Kosten und Betrieb/ 50% Technik und Referenz) Nr.
Bewertungskriterien
Erläuterung
1
Investitionskosten
Angebotspreis ohne Wartung Mindestbieter erhält volle Punktzahl (100%) höherpreisige Bieter erhalten Punktabzug proportional zur Abweichung vom Mindestbieter
36
Quelle: Ergebnis Preisspiegel Bearbeitung: Vergabestelle
2
Wartung
Kosten für Vollwartung Bemessungszeitraum 5 Jahre Kundendienst-Verfügbarkeit
11
Quelle: Ergebnis Wartungsabfrage Bearbeitung: Vergabestelle / Fachplaner
3
Ersatzteilkosten
Kosten für Verschleiß- und Ersatzteile, die nicht im Vollwartungsvertrag enthalten sind (z. B. Röhren, Detektoren), mit Berücksichtigung von Garantiezeiten, Bemessungszeitraum 5 Jahre
3
Quelle: Ergebnis Wartungsabfrage Bearbeitung: Vergabestelle / Fachplaner
4
Referenzen / Funktionalität
Bewertung der Produkt-Zuverlässigkeit. Bewertung des Gesamt-Workflow, der Benutzeroberfläche, der enthaltenen Bedien- und Auswertefunktionen durch ärztliches / wissenschaftliches / technisches Personal
30
Quelle: Nutzerstellungnahme Mitwirkung: Fachplaner (Probestellung / Referenzbesuch)
5
Technischer Wert
Bewertung technischer und konstruktiver Merkmale der angebotenen Anlagen anhand der in der Leistungsbeschreibung (LB) abgefragten Eigenschaften und Parameter.
20
Quelle: Ergebnis technische Gegenüberstellung Bearbeitung: Fachplaner
Gesamt-Punktzahl
Gewichtung
100
Quelle/ Bearbeitung
6
70
6
Kapitel 6 · Ökonomische Aspekte der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE)
Um mögliche Resultate hinsichtlich der Verteilung der Punkte in der Bewertungsmatrix eruieren zu können, wird eine Extremwert-Betrachtung vorgenommen, damit insbesondere die Auswirkungen maximaler sowie minimaler Punktvergaben bei den Bewertungskriterien deutlich werden (⊡ Tab. 6.3).
Freitext-Abfragen vorgenommen werden. Bei binären Abfragen (ohne Vorliegen einer definitiven LV-Forderung) wird lediglich ausgedrückt, ob ein Leistungsmerkmal vorhanden ist oder nicht, wofür 00 oder 05 Punkte vergeben werden können (⊡ Tab. 6.5). Bei Freitext-Abfragen wird dem Bieter ermöglicht, ein Leistungsmerkmal seines angebotenen Gerätes zu erläutern.
Kriterienmatrix
Die im LV enthaltenen Forderungen und Abfragen werden hinsichtlich der Relevanz im Rahmen des technischen Wertes mit verschiedenen Parametern und Punkten versehen, um die zahlreichen Aspekte im LV entsprechend auswerten zu können. Durch die Punktvergabe sollen die technischen Innovationen eines Herstellers sowie die Leistungsfähigkeit eines angebotenen Gerätes in die Bewertung einfließen. Diese Auswertung kann entweder durch eine Datenbank-Funktion oder durch entsprechende Programmierung eines TabellenKalkulationsprogrammes (z. B. MS Excel) unterstützt werden. Primär wird zwischen Mindest- und Wertungskriterien unterschieden. Definitive Forderungen im LV gelten dabei als Mindestkriterium und sind vom Bieter zwingend zu erfüllen, da dadurch gewährleistet werden soll, dass die vom Nutzer geforderten Diagnostik- und/oder Therapieverfahren durchgeführt werden können. Da ein Hersteller diese Grundanforderungen übertreffen kann, können hierbei höhere Punkte zur Berücksichtigung der technischen Innovation des Herstellers und des Leistungspotential des angebotenen Gerätes vergeben werden (⊡ Tab. 6.4). Bei den Wertungskriterien muss noch eine weitere Unterteilung hinsichtlich binären Abfragen (ja/nein) und
⊡ Tab. 6.4. Punkteverteilung bei Mindestkriterien Punkte
Wertung
Ausschluss
LV-Forderung wird nicht erfüllt, keine weitere Prüfung des Angebotes
00
LV-Forderung wird erfüllt
05
LV-Forderung wird höherwertig erfüllt (abhängig im Vergleich zu ggf. weiteren Hersteller-Angeboten)
10
LV-Forderung wird außerordentlich/ hervorragend erfüllt (abhängig im Vergleich zu ggf. weiteren Hersteller-Angeboten)
⊡ Tab. 6.5. Punkteverteilung bei einer binären Abfrage (Wertungskriterium) Punkte
Wertung
00
LV-Abfrage wird nicht erfüllt (qualitativ negativ)
05
LV-Abfrage wird erfüllt (qualitativ positiv)
⊡ Tab. 6.3. Extremwertbetrachtung zur Darstellung verschiedener Punktvergabe-Szenarien Extremwertbetrachtung Darstellung Preis- (1) und Qualitätsunterschied (4, 5) Ohne Berücksichtigung der Betriebskosten (2, 3)
Extrembeispiel A »preiswert / billig, aber schlecht« Investitionskosten: 7.500.000,-
Nr.
Bewertungskriterien
Prozentwert aus Ergebnis Preisspiegel
Prozent der Punkte
Punktzahl
Prozentwert aus Ergebnis Preisspiegel
1
Investitionskosten
36
100
100
36
200
0
0
2
Wartung
11
100
100
11
100
100
3
Ersatzteilkosten
3
100
100
3
100
100
4
Referenzen / Funktionalität
30
extrem schlechte qualitative Bewertung
0
sehr gute qualitative Bewertung
5
Technischer Wert
20
extrem schlechte qualitative Bewertung
0
sehr gute qualitative Bewertung
Gesamt-Punktzahl
100
Gewichtung
Extrembeispiel B »teuer und gut« Investitionskosten: 15.000.000,-
50
Prozent der Punkte
Mittelfeld »Preis und Qualität ausgewogen« Investitionskosten: 12.712.500,-
Prozentwert aus Ergebnis Preisspiegel
Prozent der Punkte
Punktzahl
169,5
30,5
11
11
100
100
11
3
100
100
3
30
mittlere qualitative Bewertung
15
20
mittlere qualitative Bewertung
10
Punktzahl
64
50
71 6.3 · Vorgang der medizintechnischen Beschaffungsmaßnahme nach HOAI
Je nach Qualität der technischen Leistung können hierbei 00, 05 oder 10 Punkte vergeben werden (⊡ Tab. 6.6). Je nach Ausrichtung einer medizinischen Einrichtung kann dabei die Relation der Punktverteilung zwischen Mindest- und Wertungskriterien angepasst werden, um den entsprechenden Charakter zu unterstreichen (z. B. 8:12 (Mindestkriterium : Wertungskriterium) mit hohem Punktanteil bei den Wertungskriterien bei Vergabe für eine Universität zur Berücksichtigung der Forschung und Lehre) (⊡ Tab. 6.7). Einige im LV abgefragte Punkte können nicht zur Wertung herangezogen werden, da diese keine Aussage über die Leistungsfähigkeit des angebotenen Systems machen, aber in der Folge der Beauftragung für die bauseitige Installation oder den Nutzer relevant sind.
Vergabevorschlag Auf Grundlage der vereinbarten Wertungsbedingungen wird vom medizintechnischen Fachplaner der Vergabevorschlag erstellt, der einen direkten Anbietervergleich (»Ranking«) sowie einen Preisspiegel enthält und schlussendlich einen Bieter für die Auftragserteilung benennt. Falls ein Bieter aus formalen Gründen aus dem Verfahren ausgeschlossen wird, ist dieses ebenfalls begründet zu benennen. In seltenen Fällen ist auch eine Aufhebung der Vergabe möglich (z. B. bei wesentlicher Überschreitung des eingestellten Budgets oder wenn kein Bieter die Anforderungen erfüllen konnte).
⊡ Tab. 6.6. Punkteverteilung bei einer Freitext-Abfrage (Wertungskriterium) Punkte
Wertung
00
LV-Abfrage wird nicht erfüllt/ kein Eintrag
05
LV-Abfrage wird erfüllt (qualitativ positiv)
10
LV-Abfrage wird höherwertiger erfüllt (qualitativ positiv) (abhängig im Vergleich zu ggf. weiteren Hersteller-Angeboten)
6.3.5 Objektüberwachung und Gewährleis-
tungsüberwachung (HOAI-Phasen 8/9) Nachdem der definitive Auftrag an eine Firma aufgrund der zuvor erfolgten Ausschreibung oder einer freihändigen Vergabe (z. B. falls die Beschaffung aufgrund einer geringen Auftragssumme nicht öffentlich ausgeschrieben werden muss) erteilt worden ist, werden vom medizintechnischen Fachplaner beim jeweiligen Hersteller entsprechende Ausführungspläne angefordert, die in die bestehenden Pläne eingearbeitet werden (u. a. Flächenbedarf, definitive Installationsanforderungen). Diese Pläne werden wiederum mit dem Architekten und den weiteren Fachplanern koordiniert und letztendlich zur Ausführung am Bau als Montage-Planung durch den MT-Fachplaner für seinen Zuständigkeitsbereich freigegeben. Durch die Bauleitung (falls Auftragsbestandteil des MT-Fachplaners) werden die aus diesen Montage-Plänen resultierenden Vorgaben hinsichtlich der definitiven Ausführung am Bau überprüft, um letztendlich einen möglichst einwandfreien und umgehenden Einbau der Geräte (Neubeschaffung sowie Übernahme von Bestandsgerät) zu gewährleisten. Durch den MT-Fachplaner wird in Zusammenarbeit mit dem Architekten und – falls beauftragt – mit der Projektsteuerung auf Grundlage von definitiven Auftragslisten und Lieferzeit-Zusagen seitens des Lieferanten sowie unter Berücksichtigung des Baufortschrittes eine Zeitschiene für die Einbringung, die Installationsarbeiten, die Abnahme sowie der Inbetriebnahme der Geräte erstellt, wobei der spätere Nutzer und der Betreiber in die Abnahme und Inbetriebnahme involviert sein müssen. Durch diese Zeitschiene wird zudem auch die Zusammenarbeit und Abhängigkeit der verschiedenen vor Ort – u. U. parallel – ausführenden Fachfirmen koordiniert. Aufgrund der nun definitiv abgeschlossenen Lieferverträge und der nachfolgend vorliegenden Rechnungen wird im Verlauf der Kostenkontrolle das in der HU-Bau bzw. HU-Gerät schlussendlich eingestellte (und bei Bedarf durch Nachträge erhöhte) Budget den real entstandenen Kosten gegenübergestellt, um die Einhaltung des Budgets während und nach Abschluss der Baumaßnahme kontrollieren zu können.
⊡ Tab. 6.7. Beispiel für die Auswertung mit Berücksichtigung der Verteilung von Mindest- und Wertungskriterien Kriterium
Maximum
Ergebnis
Mindest-Kriterium
120 Punkte (Bieter B)
90 Punkte (Bieter A)
Wertungs-Kriterium - binäre Abfrage - Freitext-Abfrage
60 Punkte (Bieter C) 100 Punkte (Bieter A)
40 Punkte (Bieter A) 100 Punkte (Bieter A)
%-Anteil 75%
66,66% 100%
Erreichte Punktzahl 9 von 12
4 von 6 2 von 2
Summe Wertungskriterien
6 von 8
Summe (gesamt)
15 von 20
6
72
6
Kapitel 6 · Ökonomische Aspekte der betrieblich-medizinisch-technischen Einrichtungsplanung (BMTE)
Nach Inbetriebnahme und Nutzung der losen und festinstallierten Geräte sowie der weiteren MT-Festeinbauten wird der durch das Ausschreibungsverfahren vorgegebene Gewährleistungszeitraum durch den MTFachplaner überwacht. Dies bedeutet, dass bei Auftreten von Defekten an Gerätekomponenten und -teilen (ausgenommen Verschleißteile) sowie bei später auftretenden Materialfehlern (z. B. Ablösen von Beschichtungen) eine entsprechende Mitteilung durch den Nutzer an den medizintechnischen Fachplaner erfolgt, damit durch diesen der entsprechende Lieferant kontaktiert wird, um eine Behebung des Mangels zu erwirken und zu planen. Nach Ablauf des Gewährleistungszeitraumes wird der Gewährleistungseinbehalt (ein bestimmter Prozent-Wert der Auftragssumme) nach Rücksprache mit dem Nutzer und ggf. mit dem Betreiber freigegeben und ausgezahlt, sofern keine Mängel bestehen.
6.4
Die neue HOAI 2009
Im August 2009 ist die HOAI (erstmaliges Inkrafttreten 1976) durch die sechste Novelle in einigen Punkten geändert worden. So wurde u. a. eine Erhöhung der HOAI-Tafelwerte und somit der Honorare um 10 % vorgenommen. Zudem erfolgt die Kostenermittlung zukünftig im Bezug zur DIN 276. Für Kosten im Hochbau (Ausgabe Dezember 2008) und als Basis zur Honorar-Berechnung wird in der HOAI 2009 nun die Kostenberechnung (vorzulegen am Ende der Leistungsphase 3) herangezogen, sodass spätere Kostenberechnungen (Kostenrahmen, Kostenanschlag und Kostenfeststellung) für die Honorarermittlung nicht mehr relevant sind. Hierzu alternativ ist vor Beginn der Planungen eine Honorarvereinbarung auf Basis einer Kostenvereinbarung möglich. Auch Pauschal-Honorare sowie eine Abrechnung auf Stunden-Basis sind weiterhin möglich (Stundensätze werden durch die HOAI 2009 nicht vorgegeben). Ein neuer Aspekt in der HOAI 2009 ist die Vereinbarung eines Erfolgs- oder Malus-Honorars (bis zu +20% bzw. -5%), wodurch eine Unter- oder Überschreitung der Kosten im Honorar berücksichtigt werden kann.
6.5
Ausblick
Die gesundheitspolitischen und wirtschaftlichen Rahmenbedingungen zwingen Klinik- und Praxisbetreiber zur Optimierung der betrieblich-medizinisch-technischen Ausstattung, um langfristig die Existenz der Einrichtung zu sichern. Folgende Aspekte werden diesbezüglich zukünftig zunehmend an Bedeutung gewinnen: ▬ Betriebsorganisatorische Prozessoptimierung ▬ Optimierung personeller Strukturen sowie Entwicklung neuartiger Beschäftigungskonzepte (z. B. Zu-
▬ ▬ ▬ ▬ ▬ ▬ ▬
sammenführen von Fachkompetenzen, Bildung medizinischer Versorgungszentren / MVZ) Geräteersatzbeschaffung in Abhängigkeit zur Geräteauslastung Amortisationsberechnung als Beschaffungsvorraussetzung Konzepte im Rahmen der integrierten Versorgung (IV) und von Disease Management Programmen (DMP) Zusicherung bestimmter Fallzahlkontingente durch die Kostenträger als betriebswirtschaftliche Basis zur Investitionsplanung Marktanalyse zur Abklärung der Wirtschaftlichkeit geplanter Ersatz- und Neuinvestitionen ökologisch-ökonomische Aspekte Beschaffung medizintechnischer Ausstattung unter Berücksichtigung der Finanzierungsmöglichkeiten des Kapitelmarktes sowie steuerrechtlicher Auswirkungen
Literatur Verordnung über die Honorare für Leistungen der Architekten und der Ingenieure (Honorarordnung für Architekten und Ingenieure – HOAI) in der Fassung vom 11.08.2009
7 Qualitätsmanagement in der Medizintechnik – Ziele, Elemente und Strukturen A. Malkmus
7.1
Zielsetzung eines Qualitätsmanagementsystems – 73
7.4
Implementierung eines Qualitätsmanagementsystems – 79
7.1.1 7.1.2 7.1.3
Begriffe – 73 Zielsetzung und Kunden eines QMS – 74 Regulatorische Anforderungen – 74
7.2
Elemente eines Qualitätsmanagementsystems – 76
7.4.1 7.4.2 7.4.3 7.4.4
Das QMS und die (End-)Kunden – 79 Das QMS und die Leitung – 79 Das QMS und die Mitarbeiter – 79 Das QMS und die Erfüllung der regulatorischen Anforderungen – 79
7.3
Organisatorische Gestaltung eines Qualitätsmanagementsystems – 77
7.5
Produktqualität
7.6
Schlussbemerkung Literatur
Dieses Kapitel soll ein Grundverständnis über Ziele, Elemente und Struktur eines Qualitätsmanagementsystems im Bereich der Medizintechnik vermitteln. Es werden praxisnahe Handlungsempfehlungen für den Aufbau eines Qualitätsmanagementsystems gegeben.
7.1
Zielsetzung eines Qualitätsmanagementsystems
7.1.1 Begriffe
Qualitätsmanagementsystem Was genau ist und leistet ein »Qualitätsmanagementsystem«? Die Norm EN ISO 9000:2008 gibt darauf folgende Antworten: ▬ »Ein Qualitätsmanagementsystem ist ein Managementsystem zum Leiten und Lenken einer Organisation bezüglich der Qualität.« ▬ »Qualität ist der Grad, in dem ein Satz inhärenter Merkmale Anforderungen erfüllt.« Etwas alltagssprachlicher formuliert, bedeutet dies, dass mit Hilfe eines Qualitätsmanagementsystems (im folgenden »QMS«) die relevanten Prozesse in einer Organisation so gestaltet und gesteuert werden, dass die gefertigten Produkte bzw. die erbrachten Dienstleistungen in möglichst hohem Maße die Anforderungen der Kunden erfüllen.
– 80 – 80
– 81
Mit diesem Verständnis zählen andere Managementaktivitäten wie bspw. das Finanzmanagement oder das Umweltmanagement nicht zum Qualitätsmanagement (im Folgenden »QM«) – es sei denn, die Qualität der Produkte und Dienstleistungen würden durch diese Managementsysteme unmittelbar berührt. Alle kundenbezogenen und wertschöpfenden Prozesse eines Unternehmens sind danach Gegenstand des QM: ▬ Marketing und Vertrieb ▬ Entwicklung, Beschaffung und Produktion ▬ Auslieferung, Installation und Instandhaltung Eine Besonderheit stellen in der Medizintechnik die umfangreichen regulatorischen Vorgaben dar, also die gesetzlichen Anforderungen, die an das »Inverkehrbringen und Betreiben von Medizinprodukten« geknüpft sind. Da diese Anforderungen sich auf fast alle Prozesse der Produktrealisierung auswirken, ist es in der Medizintechnik sinnvoll, die systematische Erfüllung der regulatorischen Anforderungen (Regulatory Affairs) als Teil des QM anzusehen. Eine weitere Besonderheit ist die Kritikalität von Medizinprodukten: Die konsequente Minimierung der Risiken für Patient, Anwender und Dritte bei der Entwicklung, Produktion, Installation und Anwendung eines Medizinprodukts muss mit einem dedizierten Risikomanagement betrieben werden. Da die Forderung nach sicheren Medizinprodukten zu den essentiellen Kundenanforderungen zählt, muss
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _7, © Springer-Verlag Berlin Heidelberg 2011
74
7
Kapitel 7 · Qualitätsmanagement in der Medizintechnik – Ziele, Elemente und Strukturen
auch das technische Risikomanagement ein integraler Bestandteil des QM sein.
Qualitätskosten Ein weiterer wichtiger Begriff für das Verständnis des QM sind die Qualitätskosten. Darunter wird die Summe folgender Kostengruppen verstanden: ▬ Fehlerverhütungskosten Alle Anstrengungen, die unternommen werden, um die Entstehung von Fehlern zu vermeiden: Implementierung eines QMS, Interne Audits, Schulung der Mitarbeiter, Ermitteln der Kundenanforderungen, Gestaltung von Infrastruktur und Arbeitsumgebung etc. ▬ Prüfkosten Alle Anstrengungen, die unternommen werden, um Fehler zu entdecken: Verifizieren und Validieren von Produkten und Prozessen. ▬ Fehlerkosten Alle Anstrengungen, die unternommen werden, um Fehler und deren Folgen zu beheben: Nacharbeit, Garantiekosten etc. ▬ Externe QM-Darlegungskosten Alle Anstrengungen, die unternommen werden, um die Existenz eines wirksamen QMS Dritten gegenüber nachzuweisen: Zertifizierungen und Produktzulassungen, Darlegung des QMS gegenüber Kunden etc.
7.1.2 Zielsetzung und Kunden eines QMS
Warum führen Unternehmen mit hohem Aufwand ein QMS ein? Die Steigerung der Wettbewerbsfähigkeit des Unternehmens ist die intrinsische Motivation für die Einführung eines QMS. Dies bedeutet: ▬ die Produkte und Dienstleistungen so zu realisieren, dass sie die Anforderungen der Kunden in bestmöglicher Weise erfüllen; ▬ neue Produkte in möglichst kurzer Zeit auf die gewünschten Märkte bringen zu können, in Erfüllung aller zutreffenden regulatorischen Anforderungen; ▬ die Qualitätskosten bei einem gegebenen Qualitätsniveau zu minimieren. Die zahlreichen regulatorischen Anforderungen und die Anforderungen des Marktes stellen die extrinsische Motivation dar: ▬ Die Gesetzgeber verlangen ein wirksames QMS als Voraussetzung für das Inverkehrbringen von Medi-
zinprodukten. Die Existenz eines wirksamen QMS wird von unabhängigen Zertifizierungsstellen (»Benannten Stellen«) überprüft. ▬ Die Kunden im Business-to-Business-Bereich (B2B) und auch große Endkunden akzeptieren nur Lieferanten, die ein zertifiziertes QMS vorweisen können. ▬ Das Haftungsrisiko des Herstellers im Rahmen der Produkthaftung kann durch eine entsprechende Auslegung des QMS gemindert werden. Eine Checkliste dazu findet sich in einem Leitfaden des DIHK (DIHK 2008). Diese unterschiedlichen Zielsetzungen für ein QMS führen dazu, dass ein QMS auch unterschiedliche Kundengruppen bedienen muss. Im Diagramm der ⊡ Abb. 7.1 sind die wichtigsten Kundengruppen für ein QMS in der Medizintechnik dargestellt.
7.1.3 Regulatorische Anforderungen
Die zahlreichen regulatorischen Anforderungen im Bereich der Medizintechnik beziehen sich ▬ auf die Prozesse der Produktrealisierung und den Hersteller selbst, ▬ auf die hergestellten Produkte und die erbrachten Dienstleistungen sowie ▬ auf das Inverkehrbringen, Installieren, Betreiben und Instandhalten von Medizinprodukten. Damit haben diese regulatorischen Anforderungen direkte Auswirkungen auf die Prozesse des Unternehmens, die im Geltungsbereich des QM liegen, und müssen daher beim Aufbau eines QMS berücksichtigt werden. Die folgende Tabelle (⊡ Tab. 7.1) gibt einen Überblick über die geltenden Anforderungen in den wichtigsten Medizintechnikmärkten. Für die Europäische Union wurden neben den Richtlinien (Directives) noch zahlreiche Leitlinien im Konsens von Behörden und Medizinprodukteherstellern geschaffen, so genannte »MEDDEVs«, die eine gemeinsame Interpretation gesetzlicher Anforderungen darstellen. Diese Leitlininen behandeln unterschiedliche Fragestellungen, von Begriffsdefinitionen über allgemeine und spezifische Produktanforderungen bis hin zur Marktbeobachtung. Eine vollständige Auflistung der MEDDEVs befindet sich auf den Internet Seiten der Europäischen Kommission (http://ec.europa.eu/enterprise/sectors/medical-devices/ documents/guidelines/). Im Falle der Europäischen Union müssen außerdem die nationalen Gesetze beachtet werden, die sich aus der Umsetzung des Europäischen Rechts in nationales Recht ergeben haben. Für Deutschland sind dies die in ⊡ Tab. 7.2 dargestellten.
75 7.1 · Zielsetzung eines Qualitätsmanagementsystems
⊡ Abb. 7.1. Kundengruppen für ein QMS in der Medizintechnik
⊡ Tab. 7.1. Internationale regulatorische Anforderungen im Bereich der Medizintechnik Wirtschaftsraum
Geltende Anforderungen
Behörde/ Link
Europäische UnionRichtlinien
93/42/EWG Medical Device Directive (1993) 90/385/EWG Aktive implantierbare Medizinprodukte (1990) 98/79/EG In-vitro-Diagnostika (1998)
Nationale Behörden; in Deutschland: BfArM: www.bfarm.de DIMDI: www.dimdi.de
USA
21 CFR Part 820 Quality System Regulation 21 CFR Part 11 Electronic Records 21 CFR Parts 800-1299 Medical Devices
FDA: www.fda.gov
Canada
Medical Devices Regulations
Health Canada: www.hc-sc.gc.ca
Japan
New Japanese Pharmaceutical Affairs Law (PAL; 2005)
MHLW, PMDA: www.mhlw.go.jp
China
China Compulsory Certificate (CCC)
CNCA / CQC: www.cnca.gov.cn
Neben den Europäischen Richt- und Leitlinien und den nationalen Gesetzen stützt sich die Zulassung von Medizinprodukten im europäischen Wirtschaftsraum überwiegend auf harmonisierte Normen ab. ▬ Harmonisierte Normen werden von den europäischen Normungsgremien CEN, CENELEC und ETSI erarbeitet mit dem Ziel, die Anforderungen der CE Richtlinien zu konkretisieren. ▬ Harmonisierte Normen gleichen die Anforderungen der EU-Mitgliedsstaaten ab. Bei Erfüllung einer harmonisierten Norm wird angenommen, dass die
grundlegenden Anforderungen der entsprechenden CE-Richtlinie erfüllt werden. ▬ Die Anwendung von (harmonisierten) Normen ist nicht zwingend. Allerdings muss der Hersteller dann auf andere Art nachweisen, dass die grundlegenden Anforderungen erfüllt werden. ▬ Die harmonisierten Normen umfassen sowohl Normen für Qualitätsmanagementmodelle wie die EN ISO 13485, Normen der allgemeinen Sicherheit als auch Normen der Sicherheit und Wirksamkeit von spezifischen Produktgruppen oder Produkten.
7
76
7
Kapitel 7 · Qualitätsmanagement in der Medizintechnik – Ziele, Elemente und Strukturen
⊡ Tab. 7.2. Weitere regulatorische Anforderungen in Deutschland im Bereich der Medizintechnik Gesetz
Gilt für
MPG
Medizinproduktegesetz (2002/2007/2009)
Hersteller und Produkt
MPV
Medizinprodukteverordnung (2001/2004)
Hersteller und Produkt
MPSV
Medizinprodukte-Sicherheitsplanverordnung (2003)
Hersteller, Betreiber
MPBetreibV
Medizinprodukte-Betreiberverordnung (2003)
Hersteller, Betreiber
MPVertrV
Medizinprodukte-Vertriebswegeverordnung (1997/2001/2003)
Hersteller
MPVerschrV
Verschreibungspflicht von Medizinprodukten (2002)
Hersteller, Betreiber
DIMDIV
Verordnung Datenbankgestütztes Informationssystem über Medizinprodukte
Hersteller, Betreiber
Eine vollständige Auflistung der harmonisierten Normen im Bereich der Medizinprodukte wird von der Europäischen Kommission im Internet (http://www.newapproach. org/Directives/DirectiveList.asp) bereitgestellt. Die europäischen Richtlinien für Medizinprodukte unterscheiden zwischen verschiedenen Ausbaustufen eines Qualitätsmanagementsystems: ▬ Vollständiges Qualitätsmanagementsystem Das QMS umfasst die Bereiche Auslegung, Herstellung und die Endkontrolle der betreffenden Produkte. ▬ Qualitätsmanagementsystem Produktion Das QMS umfasst nur die Bereiche Herstellung und Endkontrolle der betreffenden Produkte. ▬ Qualitätsmanagementsystem Produkt Das QMS umfasst nur die Endkontrolle der betreffenden Produkte. Bei den geringeren Ausbaustufen des QMS werden abhängig von der Kritikalität des Produkts produktbezogene Prüfungen einer Benannten Stelle erforderlich – Prozessschritte, die unter Umständen zu empfindlichen Verzögerungen in der Markteinführung führen können. Da außerdem die internationalen Anforderungen diese Unterscheidungen nicht treffen, kann nur empfohlen werden, ein vollständiges QMS einzuführen. Die Anforderungen an ein QMS im Bereich der Medizintechnik werden in folgenden Normen festgelegt: ▬ EN ISO 13485:2009 Medizinprodukte – Qualitätsmanagementsysteme; Anforderungen für regulatorische Zwecke ▬ EN ISO 14971:2008 Medizinprodukte – Anwendung des Risikomanagements auf Medizinprodukte Wer sich nach der ISO 13485:2009 zertifizieren lässt, erfüllt die europäischen gesetzlichen Anforderungen an ein QMS. Darüber hinaus werden mit Einhaltung der ISO 13485 und der ISO 14971 auch die internationalen Anforderungen (USA, Japan, Kanada etc.) an ein QMS zum größten Teil erfüllt.
Hinweis: Die ISO 13485:2009 basiert auf der branchenneutralen ISO 9001:2008. Es ist zu beachten, dass die ISO 13485 nicht alle Anforderungen der ISO 9001 übernommen hat. Damit erfüllen Organisationen, die sich nach ISO 13485 zertifizieren lassen, nicht automatisch die Anforderungen der ISO 9001.
7.2
Elemente eines Qualitätsmanagementsystems
Die Anforderungen an ein QMS im Bereich der Medizintechnik werden in der ISO 13845 genau definiert. Im Falle von Verständnisfragen können folgende Normen herangezogen werden: ▬ DIN EN ISO 9000:2005 (Begriffe) ▬ DIN EN ISO 9004:2000 ▬ ISO/TR 14969 (Leitfäden) In ⊡ Tab. 7.3 soll daher nur ein kurzer Überblick über die wesentlichen Elemente eines QMS gemäß der ISO 13485 gegeben werden: Gerade das letzte Element »Messung, Analyse und Verbesserung« steht für ein Prinzip, das allen QM-Modellen zugrunde liegt, der PDCA-Zyklus von William E. Deming, ein Kreislauf für ständige Verbesserungen (⊡ Abb. 7.2). Plan Analysieren der aktuellen Situation, Festlegen der neuen Q-Ziele, Festlegung der neuen Prozesse Do Ausführung der neuen Prozesse Check Überprüfung, ob die geplanten Ziele erreicht werden Act Die neuen Prozesse in die Routine überführen und Gegenmaßnahmen im Falle von Abweichungen implementieren Dieser Zyklus wird im Sinne ständiger Verbesserung kontinuierlich durchlaufen und stellt einen geschlossenen Regelkreis dar.
77 7.3 · Organisatorische Gestaltung eines Qualitätsmanagementsystems
⊡ Tab. 7.3. Die wichtigsten QM-Elemente gemäß ISO 13485 Verantwortung der Leitung und Qualitätsmanagementbeauftragter
Qualitätsmanagement ist die Aufgabe der Unternehmensleitung. Es ist die Aufgabe der Unternehmensleitung, für die Einführung und Aufrechterhaltung eines QMS zu sorgen und es regelmäßig auf Wirksamkeit zu überprüfen. Es muss ein Mitglied der Unternehmensleitung (»Beauftragter der obersten Leitung«) benannt werden, das für die Einführung und Aufrechterhaltung des QMS verantwortlich und befugt ist und das die Leitung über das Qualitätsgeschehen im Unternehmen informiert.
Qualitätspolitik und Qualitätsziele
Zu den Aufgaben der Unternehmensleitung gehört es ebenfalls, die Verpflichtung des Unternehmens zur Qualität in einer Qualitätspolitik zu dokumentieren und konkrete Qualitätsziele daraus abzuleiten.
Dokumentenmanagement
Das Dokumentenmanagement, also die Erstellung, Freigabe, Verteilung und Aktualisierung von Vorgabedokumenten und Qualitätsnachweisen, muss schriftlich geregelt sein. Es wird in der Norm außerdem festgelegt, welche Inhalte dokumentiert werden müssen.
Personelle Ressourcen
Die Mitarbeiter, deren Tätigkeiten die Produktqualität beeinflussen können, müssen für ihre Aufgaben angemessen qualifiziert sein.
Infrastruktur und Arbeitsumgebung
Das Unternehmen muss die Infrastruktur und die Arbeitsumgebung so gestalten, dass die geforderten Produkteigenschaften erreicht werden. Beispiele hierfür sind geeignete Räumlichkeiten, Maschinen und Werkzeuge oder Umgebungsbedingungen wie Luftfeuchte, Temperatur etc.
Produktrealisierung Planung aller erforderlichen Prozesse im Rahmen der Produktrealisierung (einschließlich Risikomanagement) Ermittlung der Kundenanforderungen Prozesse der Produktentwicklung definieren Beschaffungsprozesse definieren Prozesse der Produktion definieren Prozesse der Auslieferung, Installation und Instandhaltung definieren
Alle Prozesse der Produktrealisierung müssen geplant und dokumentiert werden. Die betrachtete Prozesskette reicht von Marketing und Vertrieb (Ermitteln der Kundenanforderungen) bis zum Service im Feld (Instandhaltung und Marktbeobachtung). Die Norm legt fest, an welchen Stellen der Prozesskette Prüfaktivitäten stattfinden müssen. Das (technische) Risikomanagement muss ebenso in dieser Prozesskette integriert sein wie die nachweisbare Erfüllung aller regulatorischen Anforderungen (Normenkonformität, Produktzulassungen).
Messung, Analyse und Verbesserung
Einrichten von aussagekräftigen und validen Kennzahlensystemen, die Auskunft über die Konformität des Produkts und über die Konformität und Wirksamkeit des QMS geben. Das Spektrum der Kennzahlen umfasst sowohl technische Prozessparameter als auch Kennzahlen über die Kundenzufriedenheit. Einrichten von wirksamen Verbesserungsprozessen, welche die erforderlichen Korrekturund Vorbeugemaßnahmen ermöglichen.
Die Herausforderung beim Aufbau eines QMS besteht darin, das Prinzip des PDCA-Zyklus in alle Elemente des QMS zu integrieren und somit ein lebendiges, selbstadaptierendes QMS zu schaffen.
7.3
⊡ Abb. 7.2. Der PDCA-Zyklus von William E. Deming, ein Kreislauf für ständige Verbesserungen
Organisatorische Gestaltung eines Qualitätsmanagementsystems
Sind der Geltungsbereich und die Elemente des QMS bereits über die Europäischen Richtlinien und die ISO 13485 genau vorgegeben, so bestehen bei der organisatorischen Ausgestaltung des QMS große Handlungsspielräume. Das Spektrum der möglichen Organisationsformen reicht von einer großen, zentralen QM-Abteilung, die für alle Aufgaben des QMS zuständig ist, bis hin zur Delegation der QM-Aufgaben an alle Führungskräfte und
7
78
7
Kapitel 7 · Qualitätsmanagement in der Medizintechnik – Ziele, Elemente und Strukturen
Mitarbeiter und dem völligen Verzicht auf eine eigene QM-Organisation. Drei Prinzipien haben sich in der Praxis bewährt und befinden sich im Einklang mit den geltenden Anforderungen: 1. Direkte Anbindung oder Integration des QM in die Unternehmensleitung 2. Möglichst prozessnahe Verantwortung für die einzelnen Elemente des QMS 3. Die Unabhängigkeit aller prüfenden Instanzen sicherstellen Diese Prinzipien können zu folgendem organisatorischen Modell führen: ▬ Es wird eine eigene organisatorische Einheit gebildet, die für alle übergeordneten (unternehmensweiten) Belange des QM verantwortlich und zuständig ist. ▬ Diese zentrale QM-Stelle ist Mitglied der Geschäftsleitung oder unmittelbar der Geschäftsleitung unterstellt. ▬ In allen Funktionsbereichen des Unternehmens, die Gegenstand des QM sind, werden ein oder mehrere Mitarbeiter mit QM-Aufgaben betraut. Abhängig von der Größe des Funktionsbereichs nehmen sie die QMAufgaben neben anderen Aufgaben oder hauptamtlich wahr. Im Rahmen ihrer QM-Aufgaben sind sie der übergeordneten QM-Stelle fachlich unterstellt.
▬ Alle Mitarbeiter, die Prüftätigkeiten durchführen, gehören nicht der organisatorischen Einheit an, deren Prozesse oder Produkte sie prüfen. In dem obigen Modell würden die Aufgaben wie in ⊡ Tab. 7.4 dargestellt verteilt.
Nicht enthalten in der Darstellung von ⊡ Tab. 7.4 sind die Bearbeitung von Kundenreklamationen und die Ermittlung der Kundenzufriedenheit sowie die Produktbeobachtung im Feld. Diese Aktivitäten können sowohl bei der übergeordneten QM-Stelle als auch beim Service oder beim Vertrieb sinnvoll integriert werden. Ebenfalls nicht enthalten ist der Nachweis der Konformität der Produkte mit technischen Normen. Nach dem Prinzip der prozessnahen Verantwortung empfiehlt es sich, diese Aufgaben in die Produktentwicklung zu integrieren. Die Anzahl der mit QM-Aufgaben betrauten Mitarbeiter ist naturgemäß abhängig von der Unternehmensgröße und der Komplexität der Produkte. Bei Kleinstunternehmen könnten alle oben beschriebenen Tätigkeiten auch in Personalunion von einem Mitarbeiter wahrgenommen werden. Und nicht zuletzt sollten natürlich die Grundsätze wirksamen Managements auch bei der Gestaltung eines QMS befolgt werden (vgl. Malik 2001).
⊡ Tab. 7.4. Organisatorische Gestaltung des QM Übergeordnetes QM
QM-Beauftragter eines Funktionsbereichs
Formulieren der unternehmensweiten Qualitätsziele in Abstimmung mit der Unternehmensleitung
Formulieren der bereichsspezifischen Qualitätsziele in Abstimmung mit der Bereichsleitung und der übergeordneten QM-Stelle
Einführen und Abstimmen eines unternehmensweiten Kennzahlensystems
Ermitteln der Kennzahlen des Funktionsbereichs
Vorbereiten der jährlichen Management-Bewertung
Bereitstellen der erforderlichen Informationen
Ermitteln der geltenden gesetzlichen und normativen Anforderungen und Vermitteln dieser Anforderungen im Unternehmen
Anpassen der Prozesse des Funktionsbereichs an die geltenden Anforderungen
Koordination / Durchführung von QM-Schulungsprogrammen
Durchführung von QM-Schulungen im Funktionsbereich
Implementierung und Pflege des unternehmensweiten QMHandbuchs
Implementierung und Pflege aller Teile des QM-Handbuchs, die den Funktionsbereich betreffen
Implementierung und Pflege eines übergeordneten Vorgehensmodells der Produktrealisierung
Implementierung und Pflege aller Schritte des Vorgehensmodells, die den Funktionsbereich betreffen
Koordination von externen Qualitätsaudits und Zertifizierungen
Vorbereiten und Bereitstellen der erforderlichen Unterlagen und Gesprächspartner
Koordination / Durchführung von internen Qualitätsaudits
Vorbereiten und Bereitstellen der erforderlichen Unterlagen und Gesprächspartner; ggf. Mitwirkung an den Audits
Überwachen von übergeordneten Korrektur- und Vorbeugemaßnahmen
Überwachen von bereichsspezifischen Korrektur- und Vorbeugemaßnahmen
Durchführen von Produktzulassungen
Bereitstellen der erforderlichen Unterlagen
Behördenkontakte im Rahmen der Meldepflicht
Bereitstellen der erforderlichen Informationen
79 7.4 · Implementierung eines Qualitätsmanagementsystems
7.4
Implementierung eines Qualitätsmanagementsystems
Wie bei der organisatorischen Umsetzung bestehen auch bei der technischen Umsetzung eines QMS viele Freiheitsgrade. Bei der Implementierung eines QMS sollte man sich noch einmal die verschiedenen Kundengruppen des QMS vor Augen führen ( Abschn. 7.1.2 »Zielsetzung und Kunden eines QMS«).
7.4.1 Das QMS und die (End-)Kunden
Der (End-)Kunde ist die Existenzberechtigung für das Unternehmen und für das QMS. Es ist wichtig, dass der Kunde auch tatsächlich als reale Person in die Prozesse des QMS integriert wird. Dies sollte nicht nur reaktiv im Rahmen der Reklamationsbearbeitung geschehen, sondern auch proaktiv, bspw. durch Kooperationen bei der Entwicklung neuer Produkte und Dienstleistungen.
7.4.2 Das QMS und die Leitung
Die Leitung des Unternehmens ist die entscheidende Kundengruppe des QMS. Das QMS muss für die Leitung ein zuverlässiges Instrument zur Steuerung des Unternehmens darstellen. Wie eingangs erwähnt, ist das QMS für die Leitung nur ein Managementsystem unter vielen. Um eine überschaubare und handhabbare Entscheidungsgrundlage für die Unternehmensleitung zu schaffen, sollten die wichtigsten Kennzahlen des QMS mit den wichtigsten Kennzahlen der anderen Managementsysteme zu einem gemeinsamen Instrument integriert werden. Ein geeigneter Ansatz dafür ist das Kennzahlen- und Steuerungssystem der Balanced Scorecard (Kaplan u. Norton 1997). Eine Balanced Scorecard fasst mindestens die folgenden vier Blickrichtungen auf ein Unternehmen zusammen: 1. Die finanzwirtschaftliche Perspektive 2. Die Kundenperspektive 3. Die interne Prozessperspektive 4. Die Lern- und Entwicklungsperspektive Mit Hilfe dieser vier Perspektiven werden sowohl retrospektive als prospektive Kennzahlen zur Steuerung des Unternehmens verwendet. Die Kennzahlen des QMS finden sich vor allem in der Kundenperspektive, aber auch in der internen Prozessperspektive und der Lern- und Entwicklungsperspektive.
7.4.3 Das QMS und die Mitarbeiter
Die Mitarbeiter sind die zahlenmäßig größte Kundengruppe eines QMS. Wenn man ihre Anforderungen nicht erfüllt, werden die Vorgaben eines QMS nicht zu einem geschätzten Hilfsmittel, sondern zu einer ungeliebten Last. Die Regelungen des QMS sollten nicht nur den regulatorischen Anforderungen genügen, sondern auch für den Mitarbeiter wertvolle Arbeitshilfen darstellen. Dies führt zu folgenden Anforderungen an das QMS: ▬ Der Aufbau des Qualitätsmanagementhandbuchs sollte sich an den Abläufen im Unternehmen orientieren – und nicht an der Gliederung einer Norm. ▬ Vorgabedokumente (Prozessbeschreibungen, Arbeitsanweisungen, etc.) sollten für die jeweilige Zielgruppe leicht verständlich geschrieben sein und umsetzbare Handlungsanweisungen enthalten. Für jeden Prozessschritt sollten die geforderten Arbeitsergebnisse in Inhalt und Struktur definiert werden. ▬ Alle Vorgabedokumente sollten in die jeweilige Arbeitsumgebung integriert und schnell und intuitiv auffindbar sein. ▬ Es empfiehlt sich, für die Produktrealisierung ein strukturiertes Vorgehensmodell zu definieren und für jeden Prozessschritt die erforderlichen Arbeitsergebnisse auszuweisen. Idealerweise wird dieses strukturierte Vorgehensmodell als elektronischer Work Flow implementiert. Dieser Work Flow dient neben der Implementierung des QMS auch dem Projektmanagement. Hinweis: Bei einem papierlosen Work Flow müssen die internationalen regulatorischen Anforderungen an elektronische Signaturen beachtet werden, (s. bspw. Code of Federal Regulations 21 Part 11 2005). ▬ Alle Prozessschritte des QMS sollten regelmäßig auf ihre Wirksamkeit, Effizienz und Existenzberechtigung überprüft werden. ▬ Die Überprüfung der Akzeptanz des QMS durch die Mitarbeiter sollte als fester Bestandteil im QMS verankert sein.
7.4.4 Das QMS und die Erfüllung der
regulatorischen Anforderungen Die Implementierung eines QMS sollte die regulatorischen Anforderungen aller Länder berücksichtigen, in denen die Produkte vermarktet werden. Dabei ist auch zu entscheiden, in welcher Sprache die Dokumente des QMS und die produktbezogenen Dokumente wie Spezifikationen, Designunterlagen oder Prüfnachweise erstellt werden. Um das QMS aufwandsarm extern darlegen zu können, ist es sinnvoll, eine Zuordnung zwischen den QMS Dokumenten und den produktbezogenen Dokumenten
7
80
7
Kapitel 7 · Qualitätsmanagement in der Medizintechnik – Ziele, Elemente und Strukturen
auf der einen Seite und den verschiedenen nationalen und internationalen Anforderungen auf der anderen Seite vorzunehmen. Idealerweise werden diese Zuordnungen in einer Datenbank verwaltet und sind direkt in das elektronische Dokumentenmanagement und in den elektronischen Work Flow der Produktrealisierung integriert. Dann können nach Bedarf alle erforderlichen regulatorischen Sichten aus der Datenbank generiert werden und damit aufwandsarm die Nachweise der Konformität für das QMS und für die Produkte geführt werden. Umgekehrt kann der elektronische Work Flow abhängig von der Angabe der geplanten Absatzmärkte die jeweiligen erforderlichen Prozessschritte und produktbezogenen Dokumente automatisch zusammenstellen.
7.5
Produktqualität
Nach der Diskussion der Zielsetzung und der Implementierung von Qualitätsmanagementsystemen soll noch der eigentliche Gegenstand eines QMS betrachtet werden: die Qualität der hergestellten Produkte. Wichtig ist hier, dass nicht nur die Anforderungen von Patient und Anwender während des Betriebs des Produktes berücksichtigt werden, sondern dass der Hersteller die Anforderungen aller relevanten Parteien über den gesamten Lebenszyklus des Produkts betrachtet. In ⊡ Tab. 7.5 wird verdeutlicht, welche Parteien in welcher Lebenszyklusphase Anforderungen an das Produkt richten. Der Umfang der Anforderungen und die Bedeutung der einzelnen Lebenszyklusphasen sind abhängig von der Art und der Komplexität des Medizinprodukts: nichtaktives oder aktives Medizinprodukt, Instrument oder rechnergestütztes Gerät, Einzelprodukt oder Systemkomponente, Einmalprodukt oder wiederverwendbares Zubehör etc.
Das QMS des Medizinprodukteherstellers muss so ausgelegt sein, dass die Anforderungen aller Parteien an ein Produkt in den verschiedenen Lebenszyklusphasen zu Beginn der Produktrealisierung ermittelt und in angemessener Weise erfüllt werden. Nur so ist gewährleistet, dass der Kunde ein Produkt erhält, das über den gesamten Lebenszyklus seinen Anforderungen entspricht.
7.6
Schlussbemerkung
Das Prinzip des QM – systematisch sicherzustellen, dass die Anforderungen der Kunden erfüllt werden – muss stets auch auf das QMS selbst angewendet werden. In einem kontinuierlichen Reflexionsprozess, oder besser gesagt, in einem kontinuierlichen Plan-Do-CheckAct-Zyklus, muss kontinuierlich geprüft werden, ▬ ob das QMS wirksam die relevanten Anforderungen an das Produkt ermittelt und deren Erfüllung sicherstellt und ▬ ob die Balance zwischen – hilfreicher Vorgabe und unnötiger Reglementierung, – wichtigem Nachweis und überflüssigem Papier, – kundenorientierter Optimierung von Produkten und bloßer Konformität für das QMS gehalten wird. Das Instrument der Management Bewertung, wie es im Abschn. 5.6 der ISO 13485 gefordert wird, kann diesen Reflexionsprozess und das Halten der Balance leisten, indem sorgfältig geprüft und bewertet wird, in welchem Maße das QMS die Anforderungen seiner zahlreichen Kunden erfüllt. Viele Unternehmen neigen angesichts des starken regulatorischen Drucks dazu, die intrinsische Motivation für das QMS zu vergessen und die Mitarbeiter sowie die
⊡ Tab. 7.5. Produktanforderungen verschiedener Parteien in unterschiedlichen Lebenszyklusphasen Lebenszyklusphase
Distributor
Produktrealisierung
Käufer/ Betreiber
Anwender
Patient
X
Technischer Service
Krankenkassen
X
Inverkehrbringen
X
X
Inbetriebnahme
X
X
X
Betrieb
X
X
Instandhaltung
X
X
Wiederaufbereitung
X
Außerbetriebnahme
X
Verschrottung
X
X X
X
Benannte Stelle
Gesetzgeber/ Behörde
X
X
X
X X
X
X
X
X
X
X
X
81 Literatur
Unternehmensleitung als Kunden des QMS zu vernachlässigen. Dies hieße aber, wertvolles Potential zu verschenken: Ein QMS sollte nie ausschließlich zur Erfüllung externer Anforderungen betrieben werden, sondern immer dazu genutzt werden, die Wettbewerbsfähigkeit eines Unternehmens zu steigern.
Literatur Code of Federal Regulations, Title 21 Food and Drugs, Chapter I, Part 11 Electronic Records; Electronic Signatures, U.S. Government Printing Office 2005 DIHK; Produkthaftung – Ein Leitfaden für Hersteller, Zulieferer, Importeure und Händler, Bonn 2008 DIN EN ISO 9000, Ausgabe:2005–12 Qualitätsmanagementsysteme – Grundlagen und Begriffe (ISO 9000:2005) DIN EN ISO 9001, Ausgabe:2000–12 Qualitätsmanagementsysteme – Anforderungen (ISO 9001:2000–09) DIN EN ISO 9004, Ausgabe:2000–12 Qualitätsmanagementsysteme – Leitfaden zur Leistungsverbesserung (ISO 9004:2000) DIN EN ISO 13485, Ausgabe:2009-07 Medizinprodukte – Qualitätsmanagementsysteme – Anforderungen für regulatorische Zwecke (ISO 13485:2009) DIN EN ISO 14971, Ausgabe:2007-07 Medizinprodukte – Anwendung des Risikomanagements auf Medizinprodukte (ISO 14971:2007); Deutsche Fassung EN ISO 14971:2007 ISO/TR 14969, Ausgabe:2005-10 Qualitätssicherungssysteme – Medizinprodukte – Leitfaden zur Anwendung von ISO 13485:2003 Kaplan RS, Norton, DP (1997) Balanced Scorecard – Strategien erfolgreich umsetzen. Schäffer-Poeschel, Stuttgart Malik F (2001) Führen, Leisten, Leben. Wirksames Management für eine neue Zeit. Heyne Verlag, München
7
8 Aspekte der Planung von Einheiten der Intensivmedizin F. K. Borck 8.1
Historie und Aufgabenstellung – 83
8.7
Ausgeführte Beispiele
8.2
Funktionsbeziehungen innerhalb des Krankenhauses und Größe der Intensiveinheit – 84
8.8
Versorgung mit Niederspannung – 93
8.9
Raumlufttechnik (RLT)
8.3
Anzahl der Betten in einer Intensiveinheit – 85
8.4
Grundrissstrukturen der Intensiveinheiten – 86
8.5
Spezifische Belange der Musterbauordnung – 86
8.6
Bettenzimmer
8.1
– 87
Historie und Aufgabenstellung
Die historische Entwicklung und Betrachtungen zum jeweils aktuellen Stand der Intensivmedizin sind vielfach dargestellt worden, vielleicht so gründlich und aus so vielen Blickwinkeln wie kaum eine andere Funktionsstelle im Krankenhaus. Das Verzeichnis hier verwendeter Literatur vermittelt diesen Eindruck nur im Ansatz. So mag es genügen, einen roten Faden aufzuzeigen, wie die Genese der Intensivmedizin in verschiedenen Publikationen gesehen wird und welche eigene Erfahrungen bei der Realisierung verschiedener Projekte gemacht wurden. In der wie eine Handlungsanweisung aufgelegten Broschüre »Elements of Progressive Patient Care« des U.S. Department of Health, Education and Welfare aus den Jahren 1959 und 1962, auf die noch näher einzugehen sein wird, werden Japan seit Jahrhunderten und England seit dem 19. Jahrhundert mit der Praxis ausgewiesen, pflegeintensive Patienten zu separieren, in England namentlich durch Florence Nightingale (Elements of Progressive Patient Care 1962; Kucher u. Steinbereithner 1972). Sie platzierte Schwerkranke in der offenen Pflege unmittelbar in die Nähe des Schwesternplatzes. Dies war möglicherweise auch andernorts der Fall. Seit Anfang des 20. Jahrhunderts wird von eben dieser Praxis in Militärkrankenhäusern, Tuberkulose- und Nervenkliniken sowie einigen Privatkrankenhäusern berichtet. Noch war die bedarfsorientierte Strukturierung der Krankenpflege jedoch kein allgemeingültiges Programm der Krankenhausplanung.
8.10 Medizinische Gase 8.11 Monitoring 8.12 Telemetrie
– 93
– 93
– 94 – 94
8.13 Sonstige Ausstattung 8.14 Schlussbetrachtung Literatur
– 88
– 95 – 95
– 97
In Europa und speziell in Deutschland werden von H. Schmieg verschiedene Krankenhäuser aus dem 19. Jahrhundert dokumentiert, und schließlich wird an anderen Stellen Sauerbruch mit der räumlichen Separierung Frischoperierter in dem Jahrzehnt vor dem Zweiten Weltkrieg als Wegbereiter der Intensivmedizin benannt (Schmieg 1984; Rückert 1984; Lawin u. Opderbecke 1994). Die Zusammenlegung Frischoperierter ab 1950 führte direkt zu der Einrichtung von Behandlungs- und Pflegeeinheiten, u. a. auch als Wachstationen bezeichnet, die damit unmittelbare Vorläufer der Operativen Intensivtherapie sind. Weiterhin wurden nach dem Zweiten Weltkrieg während der Polio-Epidemien in Deutschland Atemgelähmte in Beatmungstationen mit der Eisernen Lunge behandelt. Ähnliches wird von Dänemark, Schweden und Frankreich berichtet (Lawin u. Opderbecke 1994) oder auch aus Berlin 1952 und 1953 unter Mitwirkung von Karla Ibe an der Freien Universität. Dies führte hier Ende der 50er Jahre über eine Intensiveinheit nur für Vergiftungen zu einer rein Internistischen Intensiveinheit für Patienten mit vital bedrohenden Erkrankungen wie Herzinfarkt, Lungenembolie, Sepsis, Schwere Atemwegserkrankungen etc. Gleichzeitig wird in den USA die systematische Strukturalisierung der Pflege thematisiert, von Regierungsseite 1956 mit dem Namen Progressive Patient Care (PPC) in mehreren Feldstudien initiiert und die Umsetzung in der Praxis beobachtet (Elements of Progressive Patient Care 1962). Das im Prinzip durchlässige System besteht aus sechs Stufen der Pflege mit sinngemäßer Übersetzung und geläufigen Abkürzungen.
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _8, © Springer-Verlag Berlin Heidelberg 2011
84
8
Kapitel 8 · Aspekte der Planung von Einheiten der Intensivmedizin
Die sechs Stufen der Pflege (nach Elements of Progressive Patient Care 1962)
▬ Intensive care: Intensivpflege und -behandlung ▬
▬ ▬ ▬ ▬
(ICU steht für Intensive Care Unit und ITS für Intensivtherapiestation) Intermediate care: zwischen Überwachungsstation und Akut- oder Normalpflege angesiedelt (im Deutschen, abgekürzt mit IMC, inzwischen geläufig) Self-care: Selbstpflege (möglicher Teil der Normalpflege) Long-term care: Langzeitpflege Home care: Heimpflege Outpatient care: Teilzeitpflege (auch als ambulante Tages- und Nachtpflege im Sprachgebrauch)
Nahezu zeitgleich werden in Großbritannien so genannte »step up units«, »step down units« (oder »high-dependency-units«) eingeführt, die wohl den beiden ersten Stufen der PPC entsprechen (o.V. 2002). Als Richtlinie des Robert-Koch-Institutes (o.V. 1996) zur differenzierten Ausbildung der Intensivmedizin unter funktionellen und baulichen Gesichtspunkten in Deutschland gilt: Aus krankenhaushygienischer Sicht werden folgende »Patientengruppen unterschieden: A1: Intensivbehandlungs-Patienten, die in besonders hohem Maße infektionsgefährdet sind, unabhängig davon, ob sie selber eine Infektionsquelle sein können (z. B. Frühgeborene, Patienten nach Transplantationen, Patienten mit Verbrennungen, Patienten mit schweren Immundefekten). A2: Intensivbehandlungs-Patienten, die in hohem Maße infektionsgefährdet sind und/oder eine Infektionsquelle sein können (z. B. Langzeit-Beatmungspatienten, Patienten mit Tracheostoma). A3: Intensivbehandlungs-Patienten, die weder besonders infektionsgefährdet sind noch eine Infektionsquelle sind (z. B. Kurzzeit-Beatmungspatienten [≤ 24 Std.]). B1: Intensivüberwachungs-Patienten, die infektionsgefährdet sind und/oder eine Infektionsquelle sein können. B2: Intensivüberwachungs-Patienten, die weder besonders infektionsgefährdet noch eine Infektionsquelle sind.
«
Diese Abgrenzung zwischen Intensivbehandlung und Intensivüberwachung entspricht im Wesentlichen der zwischen Intensive Care und IMC nach der Progressive Patient Care. Sie ist bedeutungsvoll für die Bettenstruktur eines Hauses und nach Auffassung des RKI, wie weiter unten erwähnt, auch hinsichtlich der Empfehlung für Raumabmessungen und der Anordnung von 1-Bettzimmern und Schleusen innerhalb der A1- und A2-Gruppen. Weiterhin orientieren sich die Raumklassen für die raumlufttechnischen Anlagen nach diesen Gruppen.
Neben der für das Wohl des Patienten richtigen Pflege sind die in angemessener Anzahl vorzuhaltenden Betten der Intensivmedizin für ein Haus ein eminent wirtschaftlicher Faktor durch erhöhten Personalaufwand, technisch aufwändige Ausstattung sowie überdurchschnittliche Betriebs- und Wartungskosten. Hierzu M. Feld:
»
Intensivbetten machen fünf Prozent der deutschen Krankenhausbetten aus, verursachen aber zwanzig Prozent aller Krankenhauskosten. Pro Tag durchschnittlich etwa 1400 Euro, im Mittel 12500 Euro je Fall. (Feld 2009)
«
Wobei die Regel beachtet werden sollte, dass eine voll belegte Einheit der Intensivbehandlung im Allgemeinen der ursächlichen Aufgabenstellung, neben der planbaren Belegung auch für akute Notfälle bereit zu sein, widerspricht. Darum kommt der Entlastung der Intensivbehandlung durch die IMC als Übergang zur Normalpflege und den weiteren stationären Pflegestufen eine bedeutende Rolle zu. Doch eine solche Entlastung kann in Deutschland nicht als praktizierter Regelfall festgestellt werden. Ausführliche Kriterienlisten zur Einstufung der Patienten, die über die obigen Kategorien hinausgehen, wurden von Beginn an entwickelt, um diese in die richtigen Behandlungs- und Pflegestufen einzuordnen (Elements of Progressive Patient Care 1962). Auf einen kurzen Nenner gebracht:
»
Letzlich gehören alle Patienten, die einer unmittelbaren therapeutischen Maßnahme bedürfen, auf eine Intensivtherapiestation. Ein Patient, der nur einer kontinuierlichen Überwachung bedarf, ist ausreichend sicher auf einer Intermediate-Care-Station versorgt. (o.V. 2002)
«
Neben diesen Einheiten oder auch davorgeschaltet und als Anhang des OP-Bereichs, hat der Aufwachraum seine selbstständige Berechtigung als postoperativer Funktionsraum behalten, während für Wachstationen jetzt Begriffe wie »Intensivüberwachungseinheit« oder auch »Intermediate-Care-Station« Verwendung finden.
8.2
Funktionsbeziehungen innerhalb des Krankenhauses und Größe der Intensiveinheit
Die erwähnten Kerneinheiten der Intensivmedizin, die operativ/chirurgische und die konservativ/internistische, haben innerhalb der Gesamtorganisation eines Krankenhauses von der Aufgabenstellung her zwei jeweils bestimmende Funktionsbeziehungen: die Operationsabteilung und die Not- und Unfallaufnahme. Je nach Größe des Hauses ergeben sich daraus die Fragen nach der Anordnung in gemischte und zentralisierte bei kleinen und mittleren Häusern oder getrennte und dezentrale Einheiten bzw. in Intensivbehandlungszentren bei größeren Kliniken. Aus wirtschaftlicher Sicht ist die gemein-
85 8.3 · Anzahl der Betten in einer Intensiveinheit
⊡ Abb. 8.1. Zuordnung der operativen Intensivmedizin (nach Schmieg 1984)
⊡ Abb. 8.2. Zuordnung der internistischen Intensivmedizin (nach Schmieg 1984)
same Organisation bis 300 Betten so gut wie zwingend (Rückert 1984). Wenn, wie eines der hier angeführten Beispiele zeigt, gemischte Organisationsformen gewählt werden, wird einer der beiden Funktionsbeziehungen unter Umständen der Vorzug zu geben sein, d. h., die postoperativen Wege sind gegenüber den eher zwingend kurzen Wegen von der Not- und Unfallaufnahme zur internistisch ausgerichteten Intensivbehandlungseinheit abzuwägen. In diesem Zusammenhang muss bei nachgewiesenem Bedarf auch die Integration oder Separierung der IMC respektive Intensivüberwachungseinheit erörtert werden. Vom Standpunkt der übergreifenden
Personal- und Gerätenutzung ist deren Nachbarschaft zur Intensivtherapiestation oder die Integration in einem Intensivbehandlungszentrum anzustreben.
8.3
Anzahl der Betten in einer Intensiveinheit
Nicht unerwähnt kann bleiben, dass es je nach Aufgabenstellung und Größe des Krankenhauses Spezialeinheiten der Intensivmedizin gibt, die hier nicht näher behandelt werden. Im Allgemeinen und als Standardproblem stellt sich bei Kliniken der mittleren Größe von 300 bis 800
8
86
8
Kapitel 8 · Aspekte der Planung von Einheiten der Intensivmedizin
Akutbetten die Frage nach der interdisziplinären Zusammenarbeit der beiden wichtigsten Fachrichtungen, der inneren und der chirurgischen. Die Anzahl der Intensivbetten pro vorgenannter Fachrichtung wird nach der Deutschen Krankenhaus Gesellschaft mit 5% angegeben (Lawin u. Opderbecke 1994). Nach Lawin und Opderbecke bewegt sich die bevorzugte Größe zwischen 10 und 12 Betten, und es wird die Obergrenze bei 16 Betten angenommen, während die Untergrenze bei 6 Betten liegt (ebd.).
8.4
Grundrissstrukturen der Intensiveinheiten
Liegt eine mehr oder weniger »freie« Grundrissstruktur vor, wie sie für Flachbauten oder »Breitfüße« von Krankenhäusern typisch ist, wird eine Anpassung der Intensiveinheit an das Tragwerk mit größeren Spannweiten (z. B. 14,40 m) und zentralisierten Versorgungsschächten begünstigt. Bei der Stapelung mit bindender Einfügung an eine Tragwerksstruktur, die durch Normalpflegeeinheiten vorgegeben ist, sollte ein Stützenraster von 7,75 m parallel zum Flur und 7,00 m rechtwinklig dazu nicht unterschritten werden. Als praktikable Vorgehensweise wird eine weitgehende Trennung von Tragstruktur und Ausbau vorausgesetzt, dann kann auch das Rastermaß parallel zum Flur unterschritten werden. In diesem Zusammenhang muss die relative Kurzlebigkeit des medizinischen Gerätes erwähnt werden. Während nach K. Rückert der Bestand des Rohbaus mit 80, der Innenausbau mit 40, die haustechnische Gebäudeausstattung mit 20 Jahren zu veranschlagen sind, ist die funktionsfähige Einsetzbarkeit der medizintechnischen Ausstattung nur mit 10 Jahren anzusetzen (Rückert 1984). Infolge dieser Zyklen kommt der Flexibilität der Ausstattung und der Räumlichkeiten bereits während der Planung, aber auch beim Bauen einige Bedeutung zu. Die mitunter erhobene Forderung nach versetzbarer Elementierung des Ausbaus ist so kostenträchtig, dass sie eher selten ausgeführt wird. Dagegen ist heute die Verwendung von beplankten Ständerwerkwänden mit beliebigen Breiten zur Aufnahme von Ver- und Entsorgungsleitungen zum Standard geworden. Um deren weitgehend beliebige Neuordnung zu ermöglichen, sind Estriche auf Trennlage oder Verbundestriche auf ausreichend dicken Stahlbetondecken mit guter Körperschalldämmung gegen Luft- und Trittschall erfahrungsgemäß praktikabler als schwimmende Estriche. Einen diesbezüglichen Vorteil bieten unterzugsfreie, also dicke Massivdecken mit dem Effekt günstiger Installationsführung. Als weiteres planerisches Rüstzeug wird von K. Rückert für Intensivbehandlungszentren, also bei größeren Häusern, abhängig vom Erschließungssystem, eine Zonierung für Betriebs- und Schleusenräume einerseits sowie Bettenzimmer andererseits vorgeschlagen (ebd.).
Ganz wesentlich und, wie Lawin und Opderbecke (1994) schreiben, nach »bitteren Erfahrungen« der letzten 30 Jahre werden bei der Anordnung der Behandlungsplätze drei grundsätzliche Versionen unterschieden: ▬ die Anlagen nach dem offenen Plan, ▬ die Anlagen nach dem modifiziert offenen Plan und ▬ die Anlagen nach dem geschlossenen Plan. So wird das offene System als unmittelbare Nachfolgeanlage der Aufwachräume nach Lawin und Opderbecke aus Gründen der Hygiene und der mehrfachen Belastung der Patienten trotz gewisser Vorteile, wie unmittelbarer Kontakt zum Personal, kategorisch abgelehnt. Modifiziert offene Anlagen sind jene Einheiten, die sich aus Substationen mit jeweils eigenen Stützpunkten für bis zu sechs Betten in 1- und 2-Bettzimmern zusammensetzen. Als wesentlicher Nachteil muss der Personalaufwand angesehen werden. Durchgesetzt als Standardlösung hat sich die geschlossene Anlage mit einem zentralen Stützpunkt, einsehbaren 1- und 2-Bettzimmern, einer umfangreichen Betriebszone sowie den erforderlichen Schleusenräumen. Das Prinzip der zweibündigen Anordnung der Räume mit nur einem Flur in der Mitte hat sich gegenüber den mitunter theoretischen Ansätzen der Mehrflursysteme, darunter Flure für Verund Entsorgung oder Besucher, behauptet. Dadurch ist die Übernahme der Intensivpflege in die Stapelbarkeit bei Gebäuden mit mehreren Pflegegeschossen gegeben.
8.5
Spezifische Belange der Musterbauordnung
Erwähnenswert ist der Konflikt zwischen erforderlicher Transparenz vom Flur zu den Bettenzimmern sowie in aller Regel einem offenen Überwachungsstützpunkt und den Anforderungen an Wände von notwendigen Fluren, wie sie im §36 der Musterbauordnung 2008 geregelt sind (MBO 2002). Nach dem dortigen Absatz 4.1 sind diese feuerhemmend auszuführen, und die Türen müssen nach Absatz 4.4 dicht schließen. Feuerhemmende Fenster sind wesentlich teurer als solche ohne Brandschutzqualität, und sind Schiebetüren vorgesehen, trifft das auch auf solche zu, die dicht schließend sein müssen. Für so genannte Nutzungseinheiten bis zu 400 m2 können nach Absatz 1.4 die vorgenannten Anforderungen entfallen – und die Beobachtung vom Flur ist damit gewährleistet. Eine Abschirmung dieser und der üblichen Fenster zwischen den Bettenzimmern durch Wendejalousien ist durch elektromotorischen Antrieb mit beidseitiger Betätigung oder – preisgünstiger – durch starre Wendejalousien möglich. Ein weiterer Nutzen aus dieser bauaufsichtlichen Regelung ist die Möglichkeit, den zentralen Überwachungsstützpunkt mit nicht unerheblichen Brandlasten offen, also ohne feuerhemmende Verglasung im oder am Flur anzuordnen.
87 8.6 · Bettenzimmer
Hier muss erwähnt werden, dass zwischen den Nutzungseinheiten feuerbeständige Wände verlangt werden und dann die Sichtfenster zwischen den angrenzenden Bettenzimmern ebenfalls dieser Anforderung genügen müssen.
8.6
Bettenzimmer
Die erforderliche Größe der Betten- bzw. Behandlungsplätze und damit der Bettenzimmer wurde anhand von Mindestabständen unterschiedlichen Richtwerten unter-
worfen. Hier sollen vorrangig Flächen nach dem geschlossenen System betrachtet werden. In einer ausführlichen Abhandlung mit dem Titel »Der Bettplatz in der Intensivmedizin« von Gutzeit und Lamprecht (1978) werden auf das Bett bezogene Mindestabstände benannt und Raumgrößen verschiedener medizinischer Fachbereiche einschließlich Ausstattung anschaulich dargestellt (⊡ Tab. 8.1). Von diesen mehr oder weniger detaillierten Richtwerten seitens der Länder und des RKI zum Platzbedarf wurde in den letzten Jahren abgewichen.
⊡ Tab. 8.1. Abmessungen und Raumgrößen Raumbreite
Raumtiefe
Bettabstand vom Kopfende zur Wand
Bettabstand zum Fenster
Bettabstand zur Flurwand
Bettabstand vom Fußende zur Wand
Abstand zwischen den Betten
Raumgröße
m
m
m
m
m
m
m
ca. m²
1-Bettzimmer o. Vorschleuse
4,8*
4,8*
1-Bettzimmer o. Vorschleuse
4,5
4,0
0,8
1,5
1,5
1-Bettzimmer o. Vorschleuse
3,6
3,9
0,5
1,6
1,2
2-Bettzimmer
4,1
0,5
1,2–1,6
Intensivplatz bzw. -bettenzimmer
2-Bettzimmer
21,5
Schmieg (1984)
1,6
18,0
o.V. (1996)
1,0
14,0
Landeskrankenhausgesetz (1986)
25–30
Schmieg (1984)
1,4
1,5
1,5
Quelle
1,6–2,0 1,8
Gutzeit u. Lamprecht (1978)
2-Bettzimmer
5,1
7,3
0,8
1,5
1,5
2,2
2,25
37,0
o.V. (1996)
2-Bettzimmer
4,1
6,2
0,5
1,2
1,2
1,5
1,6
25,5
Landeskrankenhausgesetz (1986)
Traumatologischer Bettpl.
4,8*
Normal-Interner Bettpl.
5,4*
Abdominalchirurgischer Bettpl.
4,8*
Neurochirurgisches 1-Bettz.
4,2*
4,8*
1.5
20,0
Gutzeit u. Lamprecht (1978)
Herzchirurgisches 1-Bettz.
5,4*
4,8*
1,8
24,5
Gutzeit u. Lamprecht (1978)
Normalpädiatrischer Bettpl.
5,4*
1,8
1,5
Gutzeit u. Lamprecht (1978)
Kinderchirurgischer Bettpl.
5,4*
1,8
1,5
Gutzeit u. Lamprecht (1978)
Einzelkinderbettzimmer
4,8*
4,8*
Neonatales 1-Bettzimmer
4,8*
Vergiftungspatient 1-Bettz.
4,2*
* Rastermaß
1,8*
1,8*
2,4
2,4*
2,7
Gutzeit u. Lamprecht (1978)
2,0
Gutzeit u. Lamprecht (1978)
2,7
Gutzeit u. Lamprecht (1978)
21,5
Gutzeit u. Lamprecht (1978)
3,6*
16,0
Gutzeit u. Lamprecht (1978)
4,8*
19,0
Gutzeit u. Lamprecht (1978)
8
88
8
Kapitel 8 · Aspekte der Planung von Einheiten der Intensivmedizin
Die Länder haben gegenüber dem RKI Bedenken ge»äußert, ob aus Gründen der Infektionsprävention Mindest-
8.7
abmessungen von Krankenräumen tatsächlich angegeben werden können; überdies habe die Anlage Erklärungsbedarf hinsichtlich der Anforderung an bestehende Intensiveinheiten. Daher nimmt die Kommission für Krankenhaushygiene und Infektionsprävention hierzu klärend Stellung. Der Basisflächenbedarf für die Intensivüberwachung umfasst die erforderlichen Flächen für Pflege, Monitoring und Dokumentation. Für die Intensivbehandlung muss diese Basisfläche um die erforderlichen Flächen für die apparative Behandlung von gestörten Vitalfunktionen, z. B. für Beatmungsgeräte, Nierenersatzverfahren, kreislaufstützende Systeme, vergrößert werden. (o.V. 1998, S. 8)
Persönliche Erfahrungen bei der Planung von Intensiveinheiten begannen im Büro von P. Poelzig 1962 mit einer Einheit für Frischoperierte mit mehreren Substützpunkten für das ehemalige städtische Krankenhaus Am Urban in Berlin-Kreuzberg in einer unsicheren Phase des Übergangs zu einer operativen Intensiveinheit. Es folgte eine »Anlage nach dem modifiziert offenen Plan« als weitere operative Intensiveinheit ebenfalls für ein ehemaliges städtisches Krankenhaus in Berlin-Tempelhof, bei der die Bettenachsen der Einzelzimmer senkrecht zum Flur standen und der Kopf des Patienten dadurch, und weiterhin begünstigt durch große Schiebetüren, vom Flur und vom Überwachungsstützpunkt voll erfasst wurde. Die Medienversorgung war kopfseitig an der Wand installiert, und zusätzlich waren Deckengleitschienen vorgesehen, an denen die Infusionsbehälter hängen konnten (⊡ Abb. 8.3). Der erste Einsatz der Deckenampeln von der Firma Kreuzer konnte in einer internistischen Intensiveinheit im selben Krankenhaus realisiert werden. Bei den darauf folgenden Projekten wurden dann ausschließlich die deckengebundenen Versorgungssystem eingesetzt, zunächst in einer Interimslösung. Auf dem Markt sind Fertigteilsysteme für nahezu alle Funktionseinheiten des Krankenhauses, darunter auch für die Intensivmedizin. Im heutigen Sana-Klinikum in BerlinLichtenberg entstand für zehn Betten eine interimistische Intensivbehandlungsstation für die Innere Medizin unweit einer ebenfalls interimistischen Not- und Unfallaufnahme. Der Baukörper der Firmen Dräger Medical GmbH und ALHO war aus acht stützenfreien Raummodulen mit den Abmessungen 15,7 bzw. 19,0 m x 3,5 m zusammengesetzt. Ein weiteres Modul für die Klimazentrale war auf dem Dach positioniert. Durch den ringförmigen Flur konnten die Wege kurz gehalten werden, und die Eingeschossigkeit ermöglichte die natürliche Belichtung
«
Grundsätzlich, so wird weiter ausgeführt, gebe es zunehmenden Bedarf für Patientenmanagementsysteme und Geräte, die mit zusätzlichem Anstieg in Abhängigkeit zu den Versorgungsstufen der Krankenhäuser einen höheren Anteil der Intensivbehandlung gegenüber der Intensivüberwachung haben. Unter Bezug auf die oben zitierten Patientengruppen A1 und A2 werden die angegebenen Raummaße als Minimum bekräftigt. Für die Gruppen A3, B1 und B2 kann von diesen Vorgaben bei Neubauten mit entsprechender Begründung abgewichen werden (o.V. 1998). Eine relativierende Kategorisierung dieser Richtlinien und des Kommentars im Sinne des Vorworts und der Einleitung der Kommission für Krankenhaushygiene und Infektionsprävention aus dem Jahre 1997 liegt allem Anschein nicht vor (o.V. 2004). In der Berliner Krankenhaus-Verordnung aus dem Jahre 2006 wird ganz allgemein gefordert: von allen Seiten freier Zugang zu dem Krankenbett »mussEinunter Berücksichtigung des Platzbedarfs für die notwendigen Geräte gewährleistet sein. Dabei ist insbesondere zu berücksichtigen, dass dringliche Therapiemaßnahmen sofort eingeleitet werden können. (Krankenhaus-Verordnung, S. 910)
«
⊡ Abb. 8.3. Ehemaliges 1-Bettzimmer einer operativen Intensivmedizin mit der Stellung des Bettes en face zum Arbeitsflur (Foto D. Schaefer)
Ausgeführte Beispiele
89 8.7 · Ausgeführte Beispiele
⊡ Abb. 8.4. Grundriss einer interimistischen Intensivbehandlungsstation für die Innere Medizin (Sana Klinikum Lichtenberg)
⊡ Abb. 8.5. 1-Bettzimmer der interimistischen Intensivbehandlungsstation für die Innere Medizin, Sana-Klinikum Berlin-Lichtenberg, Dräger Medical GmbH und ALHO (Foto D. Schaefer)
sowie den Rauch- und Wärmeabzug der innen liegenden Räume über Oberlichter (⊡ Abb. 8.4 und ⊡ Abb. 8.5). Die Ausstattung der Bettenzimmer mit je zwei Deckenampeln pro Bett, auch von der Firma Kreuzer, erscheint für eine Interimslösung aufwändig, wurde aber von vornherein für die Übernahme in einen Neubau der Grundsanierung konzipiert und inzwischen umgesetzt. Das neue Intensivbehandlungszentrum mit einer operativen und einer internistischen Intensivstation von Deubzer König Architekten liegt auf gleicher Ebene und in unmittelbarer Nachbarschaft zur OP-Abteilung (⊡ Abb. 8.6 und ⊡ Abb. 8.7). Eine interdisziplinäre Intensivstation entstand für das Bundeswehrkrankenhaus in Berlin. In unmittelbarer Nachbarschaft zum Aufwachraum und damit auch zur OP-Abteilung wurden insgesamt zwölf Betten in fünf 2und zwei 1-Bettzimmern untergebracht. Ähnlich wie die oben erwähnte internistische Intensivstation konnte die Grundstruktur des Gebäudes für
8
90
Kapitel 8 · Aspekte der Planung von Einheiten der Intensivmedizin
8
⊡ Abb. 8.6. Grundriss Intensivbehandlungszentrum, Sana Klinikum Lichtenberg (Deubzer König Architekten) (Raumlegende: 1 Überwachungsstützpunkt; 2 Dienstraum leitende Pflegekraft; 3 Schreibplatz; 4 Dienstraum Arzt; 5 Pflegearbeitsraum rein; 6 Pflegearbeitsraum unrein; 7 Personalschleuse/Kittelablage Damen; 8 Personalschleuse/Kittelablage Herren; 9 WC-Personal Damen; 10 WC-Personal Herren; 11 Aufenthalt Personal; 12 Patientenübergabe/Umbettzone; 13 1-Bettplatz Intensiv; 14 2-Bettplatz Intensiv; 15 Schleuse/Vorraum; 16 Patientenkleidung; 17 Patienten-WC; 18 Patientendusche mit WC; 19 Stationsbad; 20 Untersuchung u. Behandlung; 21 Schock- u. Reanimationsraum; 22 Akutlabor; 23 Angehörige; 24 Stationsküche; 25 Versorgung; 26 Entsorgung; 27 Gerätelager; 28 Sterilgutlager; 29 Geräteaufbereitung; 30 Bettenaufbereitung unrein; 31 Bettenaufbereitung rein; 32 Putz- u. Desinfektionsmittel; 33 Elt. Versorgung; 34 IT-Netz-Verteilung; 35 Aufbereitung Raumlufttechnik; 36 Chirurgische Operationen; 37 Wäsche; 38 Wäscheschränke; 39 Besprechung, Übergabe)
⊡ Abb. 8.7. 2-Bettzimmer Intensivbehandlungszentrum, Sana Klinikum Lichtenberg (Deubzer König Architekten) (Foto H. Koepke)
alle Geschosse mit einem Stützenraster von 7,50 m x 6,90 m in der Zone der Bettenzimmer übernommen werden, jedoch unter Loslösung der Raumbreiten vom Stützenraster. Dies wurde durch das Fensterband mit Blindfeldern ermöglicht. Die Brüstungen in den Bettenzimmern sind bis auf 0,5 m über dem Fußboden abgesenkt, damit vom Bett ein Blick in den Park des Krankenhauses möglich wird (⊡ Abb. 8.8 bis 8.10). Die Größe der 1-Bettzimmer beträgt 21 m2, die der vorgelagerten Schleusen 11 m2 und die der 2-Bettzimmer
34 m2. Die Schleusen der beiden 1-Bettzimmer sind mit einer Sanitärarbeitszeile einschließlich Steckbeckenspülgerät, Ausgussbecken und Desinfektionsmittelmischgerät ausgestattet. Die Einrichtungen der Bettenzimmer bestehen aus einem Waschtisch und einer Arbeitsplatte mit Unterbauten, in denen ein übliches Modulsystem der Bevorratung dient. Wie bereits bei weiter zurückliegenden Realisierungen mit der Firma Kreuzer werden pro Bett die Medien und die dazugehörigen Halterungen sowie Konsolen über jeweils zwei Ampelköpfe einer gemeinsamen Ankerplatte optimal zur Verfügung gestellt: kompakte Bestückung der beiden Ampelköpfe für Überwachung und Beatmung sowie für Infusionen, schnelle wechselseitige Anordnung der Ampelköpfe, kurze Verkabelungen und als wichtigster Vorteil allseitiger Zugang zum Patienten, also auch zum Kopf. Hersteller ist bei diesem Bauvorhaben die Firma Trumpf. Der Schock- und Reanimationsraum, im vorderen Bereich und damit nahe am Zugang zur Station gelegen, dient neben der Sofortbehandlung nach Einlieferung auch zusätzlichen Untersuchungen und Eingriffen während der Liegezeit in der Intensivstation. Ausgestattet ist der Raum mit einem mobilen OP-Tisch, einer Arbeitszeile und einem Waschtisch. Neben der OP-Leuchte ist für die Medienverorgung eine einarmige Deckenampel installiert.
91 8.7 · Ausgeführte Beispiele
⊡ Abb. 8.8. Grundriss, Ebene OG 1, Interdisziplinäre Intensivstation, Bundeswehrkrankenhaus Berlin (Raumlegende: ⊡ Abb. 8.6)
⊡ Tab. 8.2. Bestückung der Ampeln pro Bett Ampfelkopf Beatmung und Überwachung
Ampelkopf Infusion
Steckdosen
10 x 230 V
Steckdosen
8 x 230 V
davon Dosen
6 x SV
davon Dosen
4 x SV
davon Dosen
2 x ZSV
davon Dosen
2 x ZSV
Steckkupplung
3 x Sauerstoff
Steckkupplung
1 x Sauerstoff
Steckkupplung
3 x Druckluft
Steckkupplung
1 x Druckluft
Steckkupplung
3 x Vakuum
Steckkupplung
1 x Vakuum
Manometer
Sauerstoff
Manometer
Sauerstoff
Manometer
Druckluft
Manometer
Druckluft
Manometer
Vakuum
Manometer
Vakuum
Leerrohr
4 x Kat 7
Leerrohr
4 x Kat 7
Telefon
1 x TAE 6
EDV – Dose
1x
EDV-Dose
4 x RJ 45
Schwesternruf
1x
⊡ Tab. 8.3. Bestückung der Ampel im Schock- und Reanimationsraum Steckdosen
12 x 230 V
davon Dosen
12 x SV
Steckkupplung
3 x Sauerstoff
Steckkupplung
3 x Druckluft
Steckkupplung
3 x Vakuum
Manometer
Sauerstoff
Manometer
Druckluft
Manometer
Vakuum
Leerrohr
4 x Kat 7
Telefon
1 x TAE 6
EDV-Dose
4 x RJ 45
8
92
Kapitel 8 · Aspekte der Planung von Einheiten der Intensivmedizin
8
⊡ Abb. 8.9. Grundriss und Wandabwicklung, 1-Bettzimmer mit Schleuse, Interdisziplinäre Intensivstation, Bundeswehrkrankenhaus Berlin
93 8.10 · Medizinische Gase
Abläufe, Überwachung und Versorgung sind 0,5 Sekunden zu gewährleisten, und das für minimal drei Stunden und bei entsprechendem Bedarf bis zu 24 Stunden. Einige Randbedingungen sind für die Planung dieser Einrichtungen von Bedeutung: Sie müssen eine direkte Versorgung von der Niederspannungsanlage erhalten und sind im gleichen Brandabschnitt wie die zu versorgenden Bereiche in feuerbeständig umschlossenen Räumen unterzubringen. Durch den Batteriebetrieb entsteht Wärme, die ebenso wie die Abgase abgeführt werden muss. Die Fußbodenbeläge müssen nach EN 61340-4-5 einen Durchgangswiderstand von ≤ 3,5 x 107 Ohm haben und mit leitfähigem Kleber auf einem Kupfernetz verlegt werden, das raumweise an den Potentialausgleich angeschlossen wird. ⊡ Abb. 8.10. 1-Bettzimmer, Interdisziplinäre Intensivstation, Bundeswehrkrankenhaus Berlin (Foto D. Schaefer)
⊡ Abb. 8.11. Schleuse 1-Bettzimmer, Interdisziplinäre Intensivstation, Bundeswehrkrankenhaus Berlin (Foto D. Schaefer)
8.8
Versorgung mit Niederspannung
Die Versorgung mit elektrischer Energie erfolgt über eine meist zentrale Niederspannungsanlage. Die Besonderheiten für medizinisch genutzte Räume und speziell die Anschlüsse des im Umfang wachsenden medizinischen Gerätes ist in der DIN VDE 0100-710 (VDE 0100 Teil 710) 2002-11 geregelt. Mit den Nutzern ist im Vorfeld eine Zuordnung der medizinischen Bereiche unter Einbeziehung verwandter Regelwerke in drei Gruppen (von 0 bis 2) vorzunehmen. Räume der Untersuchung, Behandlung und Pflege der Intensivmedizin sind der Gruppe 2 zugeordnet. Schutzziele sind die Unversehrtheit des Patienten gegenüber der Allgemeinen Stromversorgung (AV) durch Potentialausgleich und die unterbrechungsfreie Versorgungssicherheit der medizinischen Geräte und wesentlicher Anteile der Beleuchtung durch batteriegestützte Zusätzliche Stromversorgung (BSV, früher ZSV statisch). Als maximale Unterbrechungszeit zur Fortsetzung medizinischer
8.9
Raumlufttechnik (RLT)
Die raumlufttechnische Konditionierung der Behandlungs- und Pflegeräume der Intensivmedizin ist mit der DIN 1946 Teil 4 vorgegeben. Die Zuordnung nach einer überarbeiteten RKI-Richtlinie der oben wiedergegebenen Patientengruppen A1 und A2 in die Raumklasse I der Raumlufttechnik wurde dahingehend relativiert, dass diese »aus klimaphysiologischen und infektionspräventiven Gesichtspunkten« grundsätzlich zu überprüfen sei, was in der Praxis nur für Bettenzimmer A1 der Raumklasse I mit 3-stufiger Filterung als Regelfall anzusehen ist, während die Patientengruppe A2 nur bei klimaphysiologischer Notwendigkeit nach A II, also 2-stufig gefiltert, zu behandeln sei (o.V. 1996). Im vorliegenden Fall wird von der RLTZentrale im Dachgeschoss die dort aufbereitete Außenluft als Primärluft in eine geschossweise Unterstation geführt und erhält dort die jeweils erforderliche Nachbereitung, um dann zu den einzelnen Räumen zu gelangen. Die Arbeitsräume, die Schleusenbereiche und der Flur erhalten eine Luftrate bzw. einen Luftwechsel von 15 m3/ hm2 und die Bettenzimmer von 30 m3/hm2 entsprechend der Raumklasse I mit endständigen Schwebstofffiltern (H13). Während die 2-Bettzimmer über Konstantvolumenstromregler versorgt werden, wird in den 1-Bettzimmern über variable Volumenstromregler wahlweise zur Isolierung gegenüber dem Flur ein Überdruck zur Keimabwehr oder ein Unterdruck gegen Keimemission erzeugt. Hier erhalten die Zu- und Abluftleitungen auch noch Absperrklappen. Der Schock- und Therapieraum kann wahlweise mit einer Luftrate bzw. einem Luftwechsel von 15 oder 30 m3/hm2 versorgt werden, das Labor mit 25 m3/hm2.
8.10
Medizinische Gase
Die örtliche Versorgung der Bettplätze und des Schockund Therapieraumes mit Sauerstoff, Druckluft und Vakuum erfolgt ausschließlich über die Deckenampeln mit
8
94
Kapitel 8 · Aspekte der Planung von Einheiten der Intensivmedizin
8
⊡ Abb. 8.12. Grundriss und Wandabwicklung Überwachungsstützpunkt, Interdisziplinäre Intensivstation, Bundeswehrkrankenhaus Berlin
jeweils ein bzw. drei Kupplungen an den beiden Ampelköpfen. Angeschlossen sind diese Medien an eine zentrale Gasversorgung im Haupthaus. Zusätzlich gibt es eine Reserveversorgung für Sauerstoff durch drei Batterien mit je acht Flaschen im Untergeschoss des Neubauflügels, die bei Druckverlust automatisch nach Druckreduzierung und Filterdurchlauf die Versorgung für 24 Stunden übernehmen können.
liert. Die in ⊡ Tab. 8.4 angeführten technischen Parameter sind für die Monitore vorgesehen. Für die zentrale Patientenüberwachung sind folgende Geräte notwendig: 17« Flachbildschirme (vier Stück), ein Laserdrucker DIN A4, ein Langzeitspeicher und eine USV-Stromversorgung.
8.12 8.11
Monitoring
Die autarke Vernetzung für die Überwachung der Patienten ist unabhängig vom hausinternen Datennetz instal-
Telemetrie
Unter dem Stichwort »Frühmobilisation der Patienten« wurde aus ärztlicher Sicht für eine weitgehende Ungebundenheit plädiert, also für eine Loslösung von der örtlich fixierten Überwachung und Dokumentation. Mög-
95 8.14 · Schlussbetrachtung
⊡ Tab. 8.4. Apparative Patientenüberwachung Gerätetyp
Transportfähiger Patientenmonitor
Bildschirmtyp
LCD-Bildschirm
Bildschirmgröße
Mind. 31 cm (12«) Diagonale
Anzahl Bildschirmkanäle
6 Kanäle für die Basisüberwachung (7 Monitore) 8 Kanäle für die erweiterte Überwachung (3 Monitore )
Parameter
für alle angebotenen Patientenmonitore
lichkeiten hierzu bieten telemetrische Systeme, die durch eine Vorauswahl von Messdaten unmittelbaren Handlungsbedarf des Personals auslösten. Daneben werden zur erforderlichen Dokumentation die Daten aufgezeichnet. Durch die interdisziplinäre Aufgabenstellung der Station werden auch internistische Patienten versorgt, für die eine Frühmobilisation vorrangig von Bedeutung ist. Begrenzt wurde das System auf die Station, ein Antennenkabel im Flur nimmt die Daten auf.
8.13
Sonstige Ausstattung
Elektrokardiogramm (EKG) (5-adrig) Atmung Partieller Sauerstoffdruck (SpO2) (Masimo) Nichtinvasiver Blutdruck Temperatur (je 2 x) für spezielle Patientenmonitore
5 x (EKG) (3-adrig) 5 x (EKG) (10-adrig)
In einem so genannten Akutlabor sind unmittelbar verfügbare Analysen möglich, von denen die Blutgasanalyse vorrangig zu nennen ist. In zwei Räumen der Intensivpflegestation findet die Bettenaufbereitung statt, weil es hierfür keine Zentrale gibt. Nach Verlegung des Patienten wird das Intensivpflegebett unrein aus dem äußeren Bereich in den Abrüst- bzw. Aufbereitungsraum gebracht, unter Zuhilfenahme eines Bettenkippgerätes gereinigt und im Bereitstellungsraum für Betten bevorratet.
3 x SpO2, zwei SpO2-Messungen gleichzeitig 4 x Temperatur (je 2 x) 1 x Temperatur (je 3 x) 3 x Blutdruck invasiv, jeweils 4 Drücke 4 x Herzzeitvolumen (HZV) 4 x kHZV 4 x Elektroenzephalographie (EEG) 2 x Narkosetiefe-EEG (BIS) 1 x Relaxometriemessung 4 x etCOs Haupt- und Nebenstrom 4 x etCOs Nebenstrom für Neonaten 3 x Atemmechanik 2 x Multigas-Analyse 4 x Transkutane Blutgase (tcO2, tcCO2) 2 x FiO2-Messung Funktionen
12 x Basis-Arrhythmieanalyse, ST-Segmentanalyse. 6 x Erweiterte Arrhythmieanalyse 6 x 12-Ableitungs-EKG 4 x Hämodynamische Kalkulation 3 x Oxygenations- und Ventilations-Kalkulation
Überwachungsmodus
Erwachsene, Kinder
8.14
Schlussbetrachtung
Wichtige Voraussetzung für eine erfolgreiche Planung ist ein intensiver und nicht abbrechender Kontakt zwischen den Nutzern und den Planern. Die medizinische Nutzung sollte von Beginn an festliegen, wenngleich deren Änderung bei längeren Bauzeiten zur Normalität gehört. Bei der Programmierung des Raumbedarfs ist die Ermittlung der nutzungsgerechten Größe der Bettenzimmer von grundsätzlicher Bedeutung. Diese macht sich besonders bemerkbar in internistischen Intensivstationen, zu deren Ausstattung Dialysegeräte und künstliche Lungen gehören. Notorisch ist die fehlende Kapazität an Lagerflächen, wie etwa bei der Bevorratung der Dialysemittel. Von allen Bereichen, in denen ein Patient im Krankenhaus stationär gepflegt oder behandelt wird und ein längerer Aufenthalt unvermeidlich ist, sind die Einheiten der Intensivmedizin am stärksten von der Medizintechnik geprägt. Daher sind Erörterungen in Bezug auf die Verträglichkeit einer solchen Umgebung nahe liegend, weil auch der Betrieb akustisch und das Miterleben von Behandlungen an anderen Patienten als Belastung eingestuft werden muss. Aus diesem Grund wurde, wie oben erwähnt, von namhaften Autoren sehr früh die Anlage nach dem offenen Plan eindeutig verworfen. Mit anderen Worten: 2- und 1-Bettzimmer müssen gegen Einwirkungen von außen gut abgeschirmt werden können. Dies gilt auch für die hygienische Isolierung der Einbettzimmer durch Schleusen und durch das reversible Druckgefälle bei immungeschwächten bzw. infektiösen Patienten.
8
96
8
Kapitel 8 · Aspekte der Planung von Einheiten der Intensivmedizin
Ähnlich wie dieser Konflikt zwischen Überblick mit der Unmittelbarkeit des Eindrucks des Personals bei der offenen Anlage einerseits und der gewünschten Abschirmung andererseits kontrastiert die funktional notwendige Ausstattung der Räume mit dem labilen Zustand der Patienten. Die zunächst nur in Operationsräumen ein-
⊡ Abb. 8.13. Deckenstative, Fa. Trumpf, AmbientLine
⊡ Abb. 8.14. Fa. Trumpf, AmbientLine: Funktionserläuterung
gesetzten Deckenampeln für Transfusionen, Beatmung und Überwachung bestimmen in der Intensivstation mit weiteren Geräten den Raumeindruck. Die Priorität einer funktionstüchtigen Ausstattung hat sich in diesem Bereich vorerst gegenüber dem Gedanken beweglicher Versorgungseinheiten mit einer in Bezug auf die Zimmer deutlichen Annäherung an hotelartige Normalpflegeeinheiten durchgesetzt. Als wesentlicher Ausgleich zum technoiden Eindruck verbleibt der Bezug zur Außenwelt mit den wechselnden Tagesbelichtungen und bestenfalls mit Sicht in einen parkähnlichen Patientengarten. Zu diesem Thema der Zeiterfassung durch den Patienten gehören auch die Notwendigkeit einer Uhr im Bettenzimmer und die verschiedenen Anregungen zur Ausstattung mit Kalender und auch Fernseher – Letzteres vorzugsweise für die Intensivüberwachung. Weitere Vorschläge gibt es zur Gestaltung der Raumdecke, die vorrangig das Blickfeld des Patienten bestimmt. Von H. Schmieg gibt es hierzu detaillierte Entwürfe, die versuchsweise auch in der Praxis getestet wurden (Schmieg 1984). Ein auf LED-Modulen basierendes multifunktionales Deckenpaneel der Firma Trumpf mit dem Namen »ambientLine« kann beliebige Farbtönungen, z. B. am Tagesablauf orientiert, herstellen und ersetzt auch noch alle herkömmlichen Leuchtkörper für Untersuchung, Behandlung, Leselicht, Nachtlicht und vieles mehr. Außerdem dient es als Projektionsfläche für das Fernsehen und andere Informationen. Das sieht nicht nur nach einem Zukunftsmodell aus, sondern wurde auch schon in der Praxis umgesetzt (⊡ Abb. 8.13 und ⊡ Abb. 8.14).
97 Literatur
Wohin führt außer diesem »Lichtblick« der weitere Weg der Intensivmedizin? Unter der Überschrift »Intensivstation? Nicht aufnahmebereit« schildert M. Feld (2009) eine prekäre Notfallsituation vor dem Hintergrund überfüllter Intensivstationen. Daran wird u. a. die Auffassung geknüpft, dass allein durch die Überalterung der Bevölkerung mehr Krankenhausbetten und vor allem Intensivbetten benötigt werden: Im Jahre 2060 werden etwa 30% der Bevölkerung über 65 Jahre alt sein. Das kann in Relation zur Gesamtbevölkerung in Deutschland, für die eine Abnahme prognostiziert wird, nur bedeuten, dass es keine Zunahme der Gesamtbettenzahl, aber eine Erhöhung des bisherigen Anteils an Intensivbetten geben wird. Der nimmt, wie ein Bericht zum 116. Internistenkongress wiedergibt, jetzt schon weltweit eine Spitzenposition ein, und eine Zunahme an Intensivbetten kann nur durch eine nicht gewünschte Selektion der operations- und beatmungsbedürftigen alten Menschen gebremst werden (Lenzen-Schulte 2010).10
Literatur Elements of Progressive Patient Care (1962). Public Health Service Publication No. 930-C-1, Washington 25, D.C. Kucher R, Steinbereithner K (1972) Intensivbehandlungsstation. Begriffsbestimmung und Abgrenzung. In: Kucher R, Steinbereithner K (Hrsg) Intensivstation, -pflege, -therapie. Thieme, Stuttgart, S 3–13 Schmieg H (1984) Intensivpflege im Krankenhaus. Überlegungen und Vorschläge zu neuen Formen baulicher Ausprägung. Institut für Grundlagen der modernen Architektur und Entwerfen (IGMA) Universität Stuttgart (Hrsg). Krämer, Stuttgart Rückert K (1984) Bauliche Planung und Gestaltung. In: Steinbereithner K, Bergmann H (Hrsg) Intensivstation, -pflege, -therapie. Möglichkeiten, Erfahrungen und Grenzen, 2. Aufl. Thieme, Stuttgart, S 68–94 Lawin P, Opderbecke HW (1994) Organisation der Intensivmedizin. In: Lawin, P (Hrsg) Praxis der Intensivbehandlung, 6. Aufl. Thieme, Stuttgart, S 15–50 o.V. (2002) Intermediate Care: Entwicklung, Definition, Ausstattung, Organisation und mögliche Lösungen. In: DGAI Deutsche Gesellschaft für Anästhesiologie und Intensivmedizin/BDA Berufsverband Deutscher Anästhesisten (Hrsg) Entschließungen – Empfehlungen – Vereinbarungen – Leitlinien. Ein Beitrag zur Qualitätssicherung in der Anästhesiologie, 4. Aufl. S.a. Anästh. Intensivmed 43, S 536–541 Development Study – VA Hospital Building System (1972) Application of the Principles of Systems Integration to the Design of VA Hospital Facilities. Research Study Report, Project Number 99-R047. Prepared by the Joint Venture of Building Systems Development and Stone, Marraccini and Patterson, 455 Beach Street, San Francisco for the Research Staff Office of Construction Veterans Administration, Washington, D.C. 10
Planung: Sana Klinlikum Lichtenberg: Interimistische Intensivstation Architekten Borck Boye Schaefer, Neubau Deubzer König Architekten mit S. Robakowski (Projektleitung) Bundeswehrkrankenhaus Berlin: Architekten Borck Boye Schaefer mit D. Eversberg und Jasmine Mack, Medizintechnik H. Lehmann IB-Med, Hospitalia Patientenüberwachung International, Haustechnik NEK
o.V. (1996) Anforderungen der Hygiene an die funktionelle und bauliche Gestaltung von Einheiten für Intensivmedizin (Aus: Bundesgesundheitsblatt 4/95), Anlage zu Ziffer 4.3.4 der »Richtlinie für Krankenhaushygiene und Infektionsprävention«. In: Richtlinie Krankenhaushygiene Lieferung 13. Elsevier, München, S 1–7 Musterbauordnung MBO (2002), zuletzt geändert Oktober 2008 Feld M (2009) Intensivstation? Nicht aufnahmebereit. In: Frankfurter Allgemeine Zeitung, Nr. 238, S. N 2 Gutzeit J-M, Lamprecht C (1978) Der Bettplatz in der Intensivmedizin. Fischer, Stuttgart Landeskrankenhausgesetz (1986), Der Senator für Gesundheit und Soziales, Berlin o.V. (1998) Anforderungen der Hygiene an die funktionelle und bauliche Gestaltung von Einheiten für Intensivmedizin – Abmessungen für Krankenräume. Kommentar zur Anlage zu Ziffer 4.3.4 »Anforderungen der Hygiene an die funktionelle und bauliche Gestaltung von Einheiten für Intensivmedizin« zur Richtlinie für Krankenhaushygiene und Infektionsprävention (Aus: Bundesgesundheitsblatt 41/1998, Nr. 6, S. 272). In: Richtlinie Krankenhaushygiene. Elsevier, München, S 8–9 o.V. (2004) Vorwort und Einleitung der Kommission zur Richtlinie für Krankenhaushygiene und Infektionsprävention, Mitteilung des Robert Koch Institutes, Bundesgesundheitbl-GesundheitsforschGesundheitsschutz 4-2004. Springer, Heidelberg, S 409–411 Verordnung über Errichtung und Betrieb von Krankenhäusern, Krankenhausaufnahme, Führung von Krankengeschichten und Pflegedokumentationen und Katastrophenschutz in Krankenhäusern (Krankenhaus-Verordnung – Khs – VO) (2006), Gesetz- und Verordnungsblatt für Berlin, 62. Jahrgang, Nr. 32, S 907 Fa. Trumpf Ambientline, www.trumpf-med./produkte/deckenstative/ ambientline.htm. Lenzen-Schulte M (2010) Die Intensivmedizin am Limit. In: Frankfurter Allgemeine Zeitung, Nr. 86, S. N 2
8
9 Gebrauchstauglichkeit von Medizinprodukten U. Matern, D. Büchel
9.1
Gebrauchstauglichkeit – was ist das? – 99
9.6
9.2
Gebrauchstauglichkeit in der Medizintechnik – Pflicht oder Chance? – 100
Bewertung der Gebrauchstauglichkeit – wie und warum? – 105
9.7
Gebrauchstauglichkeitsentwicklung, Prüfung und Bewertung – ein Beispiel – 106
9.3
Gebrauchstauglichkeit in der Medizintechnik – warum? – 101
9.4
Entwicklung gebrauchstauglicher Produkte – wie geht das? – 101
9.5
Prüfung gebrauchstauglicher Produkte – wie geht das? – 103
»
Literatur
– 108
Gebrauchstauglichkeit – was ist das?
Besonders einfach und intuitiv zu bedienende Produkte werden heute als »gebrauchstauglich« bezeichnet. Unter dem Begriff »Gebrauchstauglichkeit« werden die folgenden Eigenschaften eines Produktes zusammengefasst: ▬ Effektivität Kann das Ziel mit dem Produkt vollständig erreicht werden? ▬ Effizienz Mit welchem Aufwand wird dieses Ziel erreicht? ▬ Zufriedenheit Welche Reaktion löst das Produkt beim Anwender aus – stört oder unterstützt es?
Usability Engineering (deutsch: Entwicklung gebrauchstauglicher Produkte) ist ein Teilbereich der Ergonomie. Die Ergonomie beschäftigt sich als interdisziplinäre Wissenschaft mit der Anpassung der Arbeit an den Menschen. Bis Mitte des letzten Jahrhunderts war es das primäre Ziel von Ingenieuren, Medizinern, Arbeitswissenschaftlern, Anthropologen, Physiologen, Psychologen und anderen, die körperliche Belastung der Arbeiter zu reduzieren und gleichzeitig die Produktion zu steigern. In den letzten Jahren – auch wegen der zunehmenden Digitalisierung der Arbeitswelt sowie der Freizeit- und Konsumgüter – verschob sich der Fokus von der Reduktion der körperlichen Belastung hin zur Reduktion der mentalen Beanspruchung der Benutzer durch die benutzten Produkte; man könnte auch sagen, dass die Produkte durch unverständliche Bedienungskonzepte die Anwender nicht von der eigentlichen Aufgabe ablenken sollen.
Ein weiterer Aspekt erlangt im Zusammenhang mit der Gebrauchstauglichkeit gerade in der Medizin zunehmend an Bedeutung: die Sicherheit. Dies ist wichtig, weil erkannt wurde, dass durch mögliche Fehlbedienungen, aber auch durch die korrekte Anwendung eines Produktes Gefährdungen des Anwenders oder weiterer Personen und Gegenstände möglich sind. In der Luftfahrt und der Kraftwerksindustrie hat sich diese Erkenntnis bereits früh durchgesetzt, und es wird in diesen Bereichen sehr viel in die Entwicklung und Prüfung der ergonomischen und gebrauchstauglichen Eigenschaften investiert. In anderen Konsumbereichen stellt sich jedoch häufig heraus, dass die Begriffe »ergonomisch« und »gebrauchstauglich« eher als Marketing-Instrumente verwendet werden, als dass die entsprechenden Produkteigenschaften wissenschaftlich fundiert auf überprüfbaren Kriterien beruhen.
Wir hatten anfangs nicht geglaubt, dass eine »UsabilityStudie« uns für die Weiterentwicklung unseres Produktes etwas bringt, wir hatten es eher als lästige Pflicht angesehen, die man jetzt eben machen muss. Was wir jetzt als Ergebnis sehen, ist aber einfach nur super und wird, davon sind wir überzeugt, auch ein Verkaufsargument sein, denn wer sein Gerät gerne und einfach bedient, der setzt es auch gerne und viel ein, und gerade bei unserem Gerät bringt das dann auch einen wirtschaftlichen Vorteil. (Klaus Epple, Leiter F&E, Cardiobridge GmbH, Hechingen)
«
9.1
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _9, © Springer-Verlag Berlin Heidelberg 2011
100
9
Kapitel 9 · Gebrauchstauglichkeit von Medizinprodukten
Wirklich intuitive und damit einfach zu bedienende Produkte haben dagegen einen unbestreitbaren Wettbewerbsvorteil. Sie werden vom Kunden als »Top of the Line« wahrgenommen und so zum Bestseller. Fast schon sprichwörtlich für diese am Markt extrem erfolgreichen Produkte sind iPod und iPhone.
9.2
Gebrauchstauglichkeit in der Medizintechnik – Pflicht oder Chance?
Um allen am Gesundheitswesen beteiligten Gruppen einen Leitfaden an die Hand zu geben, wie Gebrauchstauglichkeit erreicht und geprüft werden kann, wurde im Jahr 2006 ein international gültiger Standard als Ergänzungsnorm zu den allgemeinen Festlegungen für die Sicherheit von Medizinprodukten veröffentlicht. Diese Sicherheitsnorm für elektrische Medizinprodukte wurde maßgeblich von Medizinprodukteherstellern, Wissenschaftlern, Prüfinstituten und Gebrauchstauglichkeitsexperten verfasst und ist seit dem 1.2.2008 in Deutschland als harmonisierte Norm gültig [6]. Am 1.9.2008 hat ein weiterer internationaler Standard zur Anwendung der Gebrauchstauglichkeit für alle Medizinprodukte Gültigkeit erlangt [5]. Die IEC EN DIN 62366 wird zunehmend die ältere IEC EN DIN 606011-6 ersetzen, weshalb im Folgenden vor allem auf deren Inhalt verwiesen wird. Zunächst einmal muss festgehalten werden, wie die internationale Normung Gebrauchstauglichkeit definiert. > Definition Gebrauchstauglichkeit ist demnach die »Eigenschaft der Benutzer-Produkt-Schnittstelle, die die Effektivität, Effizienz sowie die Lernförderlichkeit und Zufriedenstellung des Benutzers umfasst« [5].
Bereits durch diese Definition werden dem Produkt wesentliche Merkmale zugeschrieben, und der Anwender, im Gegensatz zum Hersteller, wird in seiner Verantwortung ein Stück weit entlastet; das Produkt muss den Anwender bei der korrekten Bedienung und beim Erlernen derselben unterstützen. Bereits in der Einleitung dieser Prozessnorm wird klargestellt, dass sichere Gebrauchstauglichkeit keine eindeutige Definition ist (wie z. B. die Papiergröße nach DIN A), sondern eine anspruchsvolle Aufgabe, ein Verfahren, ein Prozess, der »ganz andere Fähigkeiten als die (rein) technische Verwirklichung dieser Schnittstelle« fordert. Ergonomie und die Gebrauchstauglichkeitsbetrachtung sind eine interdisziplinäre Wissenschaft, bei der es vor allem darauf ankommt mit einem externen, aber fachmännischen Blick die Gestaltung der Bedienelemente, der Mensch-Maschine-Schnittstelle unvoreingenommen und nicht betriebsblind zu gestalten, zu evaluieren und letztlich zu prüfen. Der gebrauchstauglichkeitsorientierte
Entwicklungsprozess soll so Benutzungsfehler und mit der Benutzung verbundene Risiken minimieren. Er ist eng mit dem etablierten Risikomanagement-Prozess der ISO 14971 verzahnt [10]. Der Hersteller muss festlegen, wie er die Gebrauchstauglichkeit seines Medizinproduktes spezifiziert [5] und damit Risiken durch die Benutzung minimiert. Welche Risiken er akzeptiert, wird ihm gemäß ISO 14971 [10] überlassen und ist somit die »Politik des Herstellers«. Dies bietet dem Hersteller die Chance, sich am Markt entsprechend seinen Vorstellungen, Zielen und Möglichkeiten zu positionieren. Wie er Gefährdungen, die er für sein Produkt nicht akzeptiert, minimiert, kann er selbst bestimmen. Er kann z. B. in eine intuitive Mensch-Maschine-Schnittstelle investieren.
»
Wenn für den sicheren und effektiven Gebrauch der Hauptbedienfunktion durch den vorgesehenen Benutzer eine Schulung für das jeweilige Medizinprodukt notwendig ist, muss der Hersteller mindestens eine der folgenden Maßnahmen ergreifen: ▬ das notwendige Schulungsmaterial selber liefern; ▬ sicherstellen, dass dieses Material verfügbar ist; oder ▬ die Schulung selber anbieten. Wenn eine solche Schulung notwendig ist, müssen in den Begleitpapieren vorhandene Schulungsmöglichkeiten beschrieben und Richtwerte für Dauer und Häufigkeit der Schulung angegeben sein. [5]
«
Ob Gebrauchstauglichkeit von den Herstellern zukünftig als lästige Pflicht verstanden wird, die man irgendwie erfüllen muss, oder als Chance gesehen wird, sich von Mitbewerbern als Premiumhersteller abzuheben, wird sich zeigen. Ein weiterer Vorteil für die Hersteller ergibt sich aus den nach IEC EN DIN 62366 und 60601-1-6 durchzuführenden und in der Ergonomieakte zu dokumentierenden Gebrauchstauglichkeitsprüfungen. Für die Hersteller und die beteiligten Kliniken reduzieren sich der Aufwand und die rechtlichen Risiken in der anschließenden Phase der klinischen Prüfung nach MEDDEV 2.7.1 [15] und DIN 14155 [4]. Die Antragstellung und Versicherung dieser klinischen Studien werden einfacher, da auf die in der Ergonomieakte dokumentierten Ergebnisse der Gebrauchstauglichkeitsprüfungen verwiesen werden kann. Der personelle Aufwand zur Sicherstellung der korrekten Bedienung der Prüfgeräte in der Klinik wird reduziert, wenn im Voraus gesichert ist, dass das Produkt auch in diffizilen Situationen einfach und sicher bedient werden kann. Auch für die Betreiber und Anwender von Medizinprodukten ergeben sich aus den neuen Standards zur Gebrauchstauglichkeit Pflichten und Chancen. Es gibt damit einen suffizienten Ansatz für eine vergleichende Kosten-Nutzen-Anlayse von Medizinprodukten, die richtig
101 9.4 · Entwicklung gebrauchstauglicher Produkte – wie geht das?
eingesetzt zudem einen wirtschaftlich und medizinisch effektiven Beitrag zur Patientensicherheit leisten kann.
9.3
Gebrauchstauglichkeit in der Medizintechnik – warum?
Wie groß dieser Beitrag für die Patientensicherheit sein kann, ist ebenso bekannt wie der wirtschaftliche Nutzen, der sich für die Gesundheitswesen weltweit ergibt. Bei bundesweiten Umfragen unter Chirurgen und OP-Pflegekräften wurde bestätigt, dass 70% der Chirurgen und 50% der OP-Pflegekräfte Schwierigkeiten haben, die im OP befindlichen Medizinprodukte richtig zu bedienen. Sie halten sich im Umgang mit den Produkten für nicht ausreichend geschult, gehen nicht zu Einweisungen und lesen die Bedienungsanleitungen nicht. Die Anwender selber schätzen das dadurch hervorgerufene Risiko für die Patienten und Mitarbeiter als erheblich ein [14]. Eine Auswertung der gesetzlich verpflichtenden Meldungen über diese Vorkommnisse mit Medizinprodukten an das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) zeigt, dass diese Einschätzung richtig ist. Etwa die Hälfte aller Vorkommnisse beruhen auf einem »Missverständnis zwischen Anwender und Produkt« – also einem Gebrauchstauglichkeitsproblem. Die Gefährdung durch diese Vorkommnisse ist größer und die Folgen für die Patienten sind schwerwiegender als durch rein technische Ursachen [16]. Das Institute of Medicine (IOM) geht davon aus, dass in den USA jährlich mehr Menschen durch Gebrauchstauglichkeitsvorkommnisse umkommen als durch AIDS oder den Straßenverkehr; das sind zwischen 44000 und 98000 Patienten pro Jahr [11]. In einer niederländischen Studie wurden bei 87% der beobachteten Operationen Probleme mit der technischen Ausrüstung gefunden [19]. 50–70% der Arbeitszeit Medizintechnischer Servicezentren in den Krankenhäusern werden darauf verwendet, die von den Ärzten und Pflegekräften »verstellten«, aber als defekt gemeldeten Geräte wieder in einen funktionstüchtigen Zustand zu versetzen [8]. Der wirtschaftliche Schaden ist immens. Allein auf deutschen Intensivstationen verursachen die Gebrauchstauglichkeitsprobleme Mehrkosten von jährlich etwa 396 Mio. € für die Krankenkassen [1]. In England geht man von 850000 »Zwischenfällen« pro Jahr als Folge von »user errors« bei Medizinprodukten mit Kosten von 400 Mio. Pfund aus. In den USA wurden zwischen 1984 und 1991 rund 130000 Zwischenfälle gemeldet; bei 60% war eine Fehlbedienung zumindest mitursächlich [13]. Zu gleichen Ergebnissen kamen Bleyer [2] und von der Mosel [20]. Die Hersteller kennen diese Zahlen und bestätigen den Zustand aus eigener Erfahrung. Obwohl ihre Medizinprodukte gerade wegen der zunehmenden Wünsche der Ärzte und Pflegekräfte immer mehr Funktionalitäten erhalten,
beklagen gerade die Anwender die Komplexität und verlangen von den Herstellern wiederholte Einweisungen und Nachschulungen – natürlich auf Kosten der Hersteller. Natürlich ist es richtig, als Hersteller, Betreiber und Jurist auf die Sorgfaltspflicht der Anwender zu verweisen. Diese sollen die Gebrauchsanweisungen lesen und an Geräteeinweisungen teilnehmen. Doch dafür müssen die Kliniken und Praxisbetreiber den Mitarbeitern die dafür notwendige Zeit zur Verfügung stellen. Eine Forderung, die in Zeiten von weltweitem Pflege- und Ärztemangel sowie immer kürzeren Liegezeiten an der Realität vorbeigeht. Hilfreich kann hier der Ansatz der DIN EN IEC 62366 sein, die vorgibt, dass der Hersteller, den Schulungsaufwand für das jeweilige Medizinprodukt anzugeben hat. Alle Beteiligten können damit errechnen, was ihnen die Investition in ein gebrauchstaugliches Medizinprodukt wert ist.
9.4
Entwicklung gebrauchstauglicher Produkte – wie geht das?
Für die Entwicklung gebrauchstauglicher Medizinprodukte ist ein interdisziplinärer Ansatz notwendig. Sobald die Entscheidung getroffen wurde, ein neues Produkt zu entwickeln, muss darüber nachgedacht werden, wie das Produkt bedient werden soll. Dies bedeutet, dass die Entwicklung der Mensch-Maschine-Schnittstelle parallel zur Entwicklung der Technologie unter Fokussierung auf den zukünftigen Anwender erfolgen muss. Jedes Bedienelement, das später geändert werden muss, weil es sich nicht bewährt, verursacht unnötige Kosten. Die grundlegenden Anforderungen der Gebrauchstauglichkeit gehören deshalb genauso in das Pflichtenheft wie die der Technik. Wesentlich bei der Gestaltung eines gebrauchstauglichen Produkts ist es, den Nutzungskontext, die Benutzeranforderungen und organisatorischen Anforderungen zu verstehen. Dabei ist nicht nur die medizinische Anwendung zu berücksichtigen, sondern auch die Reinigung und ggf. Wiederaufbereitung sowie notwendige Wartungsarbeiten. Ein wesentlicher Grundsatz dabei ist, dass man die Anwender nicht nur befragen sollte, was sie von einem neuen Produkt erwarten; man muss sie vielmehr bei der täglichen Arbeit gezielt und strukturiert beobachten, um zu erkennen, welche Funktionen sie wirklich brauchen, denn den Anwendern fällt es in der Regel schwer, ihre wirklichen Anforderungen zu verbalisieren. Nur dadurch läst sich die Funktionalitätsüberflutung und damit Komplexität der Geräte vermeiden. Die vielen ungenutzten Funktionalitäten eines Produktes machen dies nicht nur in der Bedienung komplex, sondern auch störanfällig und vor allem teuer. Weniger Funktionen können im Sinne der Effektivität, Effizienz und Sicherheit bedeutend mehr sein. Um erfolgreich aus »weniger« »mehr« zu machen, verwendet man beim Usability Engineering verschiedene
9
102
Kapitel 9 · Gebrauchstauglichkeit von Medizinprodukten
9
Feststellen der Notwendigkeit einer benutzerorientierten Gestaltung
Verstehen und Festlegen des Nutzungskontexts
Beurteilen von Gestaltungslösungen gegenüber Anforderungen
⊡ Abb. 9.1. Benutzerzentrierter Entwicklungsprozess aus DIN EN ISO 13407 [7]
⊡ Abb. 9.2. Praktische Übungen im Rahmen der Schulung zum Thema »Ergonomie und Gebrauchstauglichkeit« bei der wwH-c GmbH
bewährte Methoden und grundlegende Techniken, die in einem iterativen Entwicklungsprozess zur Anwendung kommen (⊡ Abb. 9.1). Die Entwickler müssen ein ausgeprägtes Verständnis für die Nutzer und die Gebrauchstauglichkeitskultur aufweisen. Sollte dies noch nicht der Fall sein, ist eine Schulung zum Thema »Gebrauchstauglichkeit« in Erwägung zu ziehen – möglichst mit praktischen Übungen im Bereich des jeweiligen Nutzungskontextes (⊡ Abb. 9.2). Entscheidend ist, dass die Entwickler zu Beginn der Arbeit die Belange, Bedürfnisse und Arbeitswelt ihrer Nutzer kennen und sie als den Mittelpunkt des Entwicklungsprozesses ansehen. Zunächst einmal muss der Nutzungskontext einschließlich der Benutzeranforderungen und der organisatorischen Anforderungen von den Ingenieuren verstanden und festgelegt werden. Wer verwendet das Produkt, in welcher Situation und Umgebung, mit welcher Intention an wem? Um diese und weitere Fragen zu beantworten, sind folgende Mittel hilfreich:
Das System erfüllt die festgelegten Anforderungen an Funktion, Organisation und Benutzerbelangen
Festlegen von Benutzeranforderungen und organisatorischen Anforderungen
Entwerfen von Gestaltungslösungen
▬ Fokusgruppen Moderierte Gruppensitzung mit Anwendern und Entwicklern, um Anforderungen und Ziele der Nutzer zu ermitteln ▬ Feldbeobachtung Teilnehmende Beobachtung von Nutzern in ihrer Arbeitsumgebung ▬ Cognitive Walkthrough »Usability-Experten« durchlaufen Aufgaben innerhalb einer Benutzerschnittstelle. Der Fokus hierbei gilt weniger dem Produkt, sondern mehr den gedanklichen Prozessen des Anwenders bei der Bedienung. Mit diesem Wissen ausgestattet, wird das Pflichtenheft nochmals überprüft und insbesondere für die Themen »Ergonomie« und »Gebrauchstauglichkeit« weiter verfeinert. Wichtig ist dabei insbesondere, dass immer wieder überprüft wird, ▬ was in der medizinischen Anwendung wirklich gebraucht wird (daraus ergibt sich eine Aufstellung der Haupt- oder Primärfunktionen des Produkts), ▬ welche unterstützenden Funktionen dafür notwendig sind (die Liste der Sekundärfunktionen sollte möglichst kurz sein). Parallel zur Entwicklung der technischen Funktionen beginnt dann die Entwicklung der Mensch-MaschineSchnittstelle. Mit möglichst einfachen Mitteln werden dazu erste Gestaltungsvorschläge entworfen und überprüft (⊡ Abb. 9.3):
103 9.5 · Prüfung gebrauchstauglicher Produkte – wie geht das?
⊡ Abb. 9.3. Unterschiedliche Entwicklungsstufen im Verlauf des »Usability-Engineering-Prozesses« [11]
▬ Paper Prototyping Bedienelemente, Interaktionskonzepte, Informationsdarstellungen werden anhand von Zeichnungen eines frühen Bedienkonzeptes mit Anwendern überprüft. ▬ Card Sorting Interaktionskarten überprüfen Menüstrukturen und Interaktionskonzepte hinsichtlich der Bedienlogik. Diese Gestaltungsvorschläge werden mit den aufgestellten Anforderungen verglichen und schrittweise geprüft. ▬ Heuristische Evaluation Neutrale Experten bewerten eine Schnittstelle mit Hilfe anerkannter Prinzipien der Software-Ergonomie und geben Verbesserungsvorschläge. ▬ Nutzertest (auch »Usability-Test«) Anwender lösen Aufgaben unter Beobachtung mit einer Benutzerschnittstelle. Experten analysieren die Mensch-Maschine-Interaktion und finden Gebrauchstauglichkeitsprobleme. Meist münden diese Tests in einem iterativen Prozess mit wiederkehrenden Design- und Evaluationsphasen, denn niemandem gelingt eine perfekte Gestaltung im ersten Versuch. Es sind Zeit und Mittel für die in der Übersicht aufgeführten Aktivitäten einzuplanen. Fehler werden auch begünstigt, wenn Ergebnisse nicht mehr ausreichend diskutiert werden. Über solche Flüchtigkeitsfehler gerät eine Entwicklung schnell zu einer extrem teuren und langwierigen Prozedur, die man vermeiden kann, indem sich das Entwicklungsteam frühzeitig Anregung von externen Experten einholt, die ihrerseits helfen, die typische »Betriebsblindheit« zu überwinden.
Tipps zur Vermeidung typischer Fehler
▬ Primäre Analyse der Nutzerbedürfnisse und erwartungen
▬ Verständnis für die Bedürfnisse der Nutzer ▼
▬ Nicht auf die Verwendung von Design-Features, die schön und prächtig sind, fokussieren
▬ Interdisziplinäres »Usability-Engineering-Team« ▬ Kommunikation zwischen den Mitgliedern des Entwicklungsteams
▬ Iterative Entwicklung ▬ Verwendung von Design-Prototypen ▬ Rezidivierende Gebrauchstauglichkeitsevaluationen
Die Konstruktionsphase kann sich über viele Zyklen hinziehen, in denen immer wieder Funktionen getestet, verbessert und überprüft werden müssen. Am Ende dieses Prozesses sollte ein zuverlässiger Prototyp des Produktes vorliegen, dessen Komponenten alle überprüft werden. Die technische Lösung hat im Tiermodell die Funktionsfähigkeit und Zuverlässigkeit bewiesen. Hierfür wurden ggf. Langzeit- und Überlebensversuche mit entsprechenden feingeweblichen und biochemischen Verfahren durchgeführt: ▬ Die Wiederaufbereitung bzw. Entsorgung des Produkts wurde gestestet. ▬ Die Erfahrungen mit dem Produkt flossen in die Gebrauchsanweisung und mögliche Schulungsunterlagen ein. ▬ Der Design-Prototyp hat die normativ vorgeschriebenen Gebrauchstauglichkeitsprüfungen bestanden.
9.5
Prüfung gebrauchstauglicher Produkte – wie geht das?
Bei der Prüfung der Gebrauchstauglichkeit unterscheiden die IEC EN DIN 60601-1-6 und 62366 zwischen den Begriffen »Verifizierung« und »Validierung«. Unter Verifizierung versteht man die Evaluation der einzelnen Teile eines Produktes während der Entwicklung. Zur Verifizierung der einzelnen Funktionen der Mensch-Maschine-Schnittstelle sind verschiedene Metho-
9
104
Kapitel 9 · Gebrauchstauglichkeit von Medizinprodukten
Nutzer Nutzer Anforderungen Anforderungen
9
Evaluation
Entwicklung Idee Entwicklung Entwicklung Prozess Prozess Verifikaton Verifikaton
⊡ Abb. 9.4. Verifizierung und Validierung im gebrauchstauglichkeitsorientierten Entwicklungsprozess
Validierung Validierung
den anwendbar; u. a. sind dies Heuristische Evaluation, Cognitive Walkthrough, Pluralistic Walkthrough, Feature Inspection, Nutzertest. Dabei untersuchen und prüfen Gebrauchstauglichkeitsexperten und typische Nutzer anhand strukturierter Studienprotokolle bzw. -vorgaben im Hinblick auf typische Gebrauchstauglichkeitskriterien und die einzelnen Funktionen in den zum jeweiligen Zeitpunkt verfügbaren Entwicklungsstadien (⊡ Abb. 9.4). Die Validierung der Gebrauchstauglichkeit schließt den gebrauchstauglichkeitsorientierten Entwicklungsprozess ab. Bei der Validierung werden alle Funktionen hinterfragt – nicht nur einzelne, wie bei den vorausgegangenen Verifizierungen. Sie stellt final sicher, dass ein geeignetes, bedienbares Produkt gebaut wird, bei dem es dann keine unerwarteten und gefährdenden Interaktionen des Nutzers mit dem Produkt geben sollte. Zur Validierung wird ein Nutzertest (auch Gebrauchstauglichkeitstest, Usability-Test, Laborexperiment oder Benutzertest genannt) durchgeführt. Bei dieser Methode werden die Stärken und Schwächen eines Produktes systematisch evaluiert, und zwar unter Mitwirkung von Repräsentanten der Nutzergruppe in einer möglichst repräsentativen Umgebung mit repräsentativen Aufgaben. Hierfür wird der Nutzungskontext in einem Labor möglichst realistisch dargestellt. »Usability-Labore« sind sehr aufwändig und grundsätzlich in zwei Bereiche unterteilt. Im Testbereich wird die eigentliche Nutzungssituation simuliert. Dieser Bereich entspricht der realen Nutzungsumgebung, um den Probanden das Gefühl zu vermitteln, an ihrem üblichen Arbeitsplatz zu sein. Aufzeichnungsgeräte wie Videokameras und Mikrofone sollten hier möglichst unauffällig positioniert sein, damit die Versuchsperson ungestört mit dem zu untersuchenden Gerät arbeiten kann. Im Beobachtungsbereich befinden sich Aufzeichnungsgeräte und eine Gegensprechanlage. Von hier aus, meist hinter einem halbdurchlässigen Spiegel oder einem Fenster, kön-
Entwicklung Entwicklung Ergebnis Ergebnis
Medizin Medizin Produkt Produkt
⊡ Abb. 9.5. Typischer Nutzertest im Labor der wwH-c GmbH in Tübingen
nen Versuchsleiter, Protokollant und ggf. weitere Interessenten den Versuchsteilnehmer beobachten (⊡ Abb. 9.5). Die Versuchsperson wird auf diese Weise am wenigsten gestört, und es können trotzdem Hilfestellungen und Anweisungen gegeben werden. Nutzertests gehören zu den am weitesten verbreiteten und zuverlässigsten Methoden, um die Gebrauchstauglichkeit eines Produktes zu ermitteln. Bereits wenige Probanden finden relativ viele Probleme. Im ConsumerBereich reichen i.d.R. bereits sechs Testnutzer aus, um 80% der Gebrauchstauglichkeitsprobleme zu finden (⊡ Abb. 9.6). Im sicherheitskritischen medizinischen Kontext werden üblicherweise zehn Probanden aus einer Berufsgruppe empfohlen, um die sicherheitskritischen Funktionen zu prüfen. Um dies zu gewährleisten, müssen die Probanden sehr sorgfältig ausgewählt werden. Der besondere Vorteil dieser Methode ist, dass in der Simulationsumgebung ohne Patientengefährdung kritische
105 9.6 · Bewertung der Gebrauchstauglichkeit – wie und warum?
Gefundene Gebrauchstauglichkeitsprobleme
Situationen, in denen das zu prüfende Produkt unter hoher nervlicher Anspannung sicher bedient werden muss, standardisiert mit verschiedenen Probanden wiederholt werden können. Dafür werden präzise dem Evaluationsziel entsprechende Aufgaben gestellt. Durch die Video- und Audiodokumentation können nachträglich Probleme aufgedeckt und dem Entwicklungsteam demonstriert werden, die in der jeweiligen Situation nicht bemerkt wurden. Gütekriterien wie Objektivität, Reliabilität und Validität können im Gegensatz zur klinischen Prüfung am Patienten in der Simulationsumgebung eingehalten werden. Nachteilig ist, dass unter Laborbedingungen niemals der vollständig reale Nutzungskontext simuliert werden kann. Somit können diese Ergebnisse nicht zu 100% auf den realen Nutzungskontext übertragen werden. Dafür können in einem Labor die Störfälle und Stress-Situationen hervorgerufen werden, die im klinischen Routinebetrieb und auch in einem Tierlabor aus ethischen und versicherungstechnischen Gründen nicht simuliert werden können, welche aber die für die Patientensicherheit relevanten Situationen darstellen. Deshalb ist es im Sinne der Patientensicherheit sinnvoll, dass ein Medizinprodukt derartige Prüfungen zur Verifizierung und Validierung der Gebrauchstauglichkeit durchlaufen hat, bevor es klinisch eingesetzt wird. Wie bereits erwähnt, reduziert dieses Vorgehen für die Hersteller und die beteiligten Kliniken den Aufwand und die rechtlichen Risiken in der anschließenden Phase der klinischen Prüfung nach MEDDEV 2.7.1 [15] und DIN 14155 [4]. Während des Nutzertests werden die Probanden dazu angehalten, typische Arbeitsaufgaben mit dem Gerät durchzuführen. Aus den Beobachtungen und Aussagen bei der Aufgabenerfüllung können Rückschlüsse auf die Gebrauchstauglichkeit des Gerätes gezogen werden. Hierzu werden die Maßstäbe Effektivität, Effizienz und Zufriedenheit so operationalisiert, dass qualitative Aussagen möglich sind. Die Ergebnisse werden dazu nach Funktionen oder Problemen sortiert aufgelistet und dargestellt.
9.6
Bewertung der Gebrauchstauglichkeit – wie und warum?
Die Ergebnisse von Gebrauchstauglichkeitsstudien werden typischerweise in langen Beschreibungen dokumentiert. Für das Entwicklungsteam ergeben sich daraus i.d.R. jedoch keine Prioritäten. Die für den Medizintechnikbereich entwickelte Bewertungsmatrix »UseProb« schafft hier für Hersteller und Anwender Transparenz. Der Schweregrad des Problems, die Auftretenswahrscheinlichkeit und das Schadensausmaß werden berücksichtigt. Dabei wird jedes Kriterium mit einer Note bewertet. Zur EDV-basierten Verknüpfung der drei Einflussgrößen wurde eine dreidimensionale Matrix gewählt, welche die einzelnen Kombinationen zu einer zehnstufigen Bewertung zusammenführt (⊡ Abb. 9.7), die in vier
100% 75% 50% 25% 0% 0
3
6 9 Anzahl der Testnutzer
12
15
⊡ Abb. 9.6. Abhängigkeit der gefundenen Gebrauchtstauglichkeitsprobleme von der Testnutzeranzahl bei einem Nutzertest im Consumer-Bereich [17]
⊡ Abb. 9.7. Dreidimensionale Matrix zur Bewertung der Gebrauchstauglichkeit medizinischer Produkte [3]
9
106
Kapitel 9 · Gebrauchstauglichkeit von Medizinprodukten
10
9
9
⊡ Abb. 9.8. Beispiel eines Notenspiegels für ein Medizinprodukt, das aufgrund einiger Probleme als sicherheitskritisch und damit nicht normkonform einzustufen ist. Die Bedienung der Funktionen 1, 6, 9, 10, 11 und 14 sollte überarbeitet werden, bevor das Produkt auf den Markt kommen kann [3]
Bewertung
8 7 6 5 4 3 2 1 0
1
2
farblich markierte Bereiche unterteilt werden. Dabei steht im Original der rote Bereich (Notenstufe 1–3) für sicherheitskritische Funktionen, also solche, die durch den von den beiden Normen angeregten »Usability-EngineeringProzess« hätten vermieden werden sollen. Funktionen, deren Bewertung im orangen, gelben oder grünen Bereich liegen, sind normkonform, wobei der grüne Bereich für sehr einfache und sichere Bedienung steht. Auf diese Weise erhält der Auftraggeber einer »Usability-Studie« einen »Notenspiegel« für sein Produkt, auf dem er sofort erkennen kann, welche Funktionen problematisch oder auch hervorragend gelöst sind (⊡ Abb. 9.8). Damit steht ein objektives Instrument zur Verfügung, dass der Hersteller nicht nur zur Weiterentwicklung seines Produktes nutzen kann, sondern auch zum Marketing. Ebenso kann der Einkäufer eines Medizinproduktes sich an diesen Bewertungen orientieren.
9.7
Gebrauchstauglichkeitsentwicklung, Prüfung und Bewertung – ein Beispiel
Die wwH-c GmbH entwickelte und testete in ihrem Labor, dem »Experimental-OP«, die Bedienschnittstelle einer Herzkatheterpumpe gemäß des beschriebenen normativ festgelegten Design-Prozesses. Um die Gebrauchstauglichkeitsanforderungen an das Gerät zu ermitteln, wurde zunächst ein Benutzerprofil erstellt, dann eine Aufgaben- und eine Umgebungsanalyse durchgeführt. Dabei wurden Benutzer in die Entwicklung einbezogen. Sie lieferten in Interviews erste Informationen über die Anforderungen in der Praxis, sowie Probleme mit auf dem Markt befindlichen vergleichbaren Produkten. Gemäß dem Grundsatz »Schau, was deine Nutzer machen, aber frage sie nie, was sie wollen« [18] lieferten Feldbeobachtungen dann die wesentlichen Informationen über die Anforderungen, die im Pflichtenheft festgehalten wurden. Damit konnte der iterative Design-Prozess beginnen, bestehend aus wiederkehrenden Design- und Evalua-
3
4
5
6
7
8
9
10
11
12
13
14
tions-Phasen. Zeichnungen von Hardware- und Bedienkonzepten wurden erstellt, mit Nutzern diskutiert und in einer ersten Expertenevaluation geprüft. Das Interaktionskonzept und die Bedienlogik wurden konkretisiert und in detaillierten Design-Entwürfen dargestellt (⊡ Abb. 9.9). Verschiedene Ergonomieexperten überprüften mit Hilfe der Verifikations-Methode des Cognitive Walkthrough die Logik der vorgegebenen Interaktionsschritte und deckten potentielle Gebrauchstauglichkeitsprobleme auf. Die Ergebnisse dieser Evaluation wurden in einer Flash-Simulation voll funktionsfähig in allen Menüstrukturen simuliert. Sie bildete die durchzuführenden Interaktionsschritte ab und wurde in die Hardware der Katheterpumpe integriert (⊡ Abb. 9.10). Durch diese Animation konnte für Testnutzer eine realistische Bedienschnittstelle simuliert werden; es war für sie nicht zu erkennen, dass sie das Produkt in Wirklichkeit nicht steuerten. Auch die Hardware-Modelle wurden unterschiedliche Funktionstests unterzogen. ⊡ Abb. 9.11 zeigt einen Test, welcher das Anbringen des Gerätes an einem Patientenbett verifiziert. Zur Vorbereitung des abschließenden Nutzertests führten Ergonomieexperten eine Heuristische Evaluation durch. Diese Evaluationsmethode liefert erste Ergebnisse über potentielle Probleme, welche in dem folgenden Nutzertest verifiziert werden. Die Aufgaben dieses Nutzertests bestanden aus den in der Aufgabenanalyse identifizierten Primäraufgaben, einigen Sekundäraufgaben sowie den potentiell problematischen Aufgaben. Neun Ärzte und Pflegekräfte wurden als Probanden eingesetzt. Die Testaufgaben wurden in Form eines Rollenspiels absolviert, bei dem ein Mitarbeiter der wwH-c GmbH in der Rolle des Operateurs den Probanden Anweisungen gab. Zusätzlich eingespielte OP-Geräusche erhöhten den Realitätsgrad für die Probanden. Der Test wurde mittels vier Kameras und Mikrofon aufgezeichnet und dokumentiert. Bereits in dieser ersten Gebrauchstauglichkeitsevaluation mit realen Nutzern zeigten sich die positiven Auswirkungen des benutzerzentrierten Design-Prozes-
107 9.7 · Gebrauchstauglichkeitsentwicklung, Prüfung und Bewertung – ein Beispiel
⊡ Abb. 9.9. Design-Entwürfe bis zur Flash-Simulation, in der die Bedienung aller Funktionen geprüft werden konnte [3]
⊡ Abb. 9.10. Die Flash-Simulation wurde so in die Hardware integriert, dass die Testnutzer die Simulation nicht bemerkten
ses. Die Nutzer konnten die gestellten Aufgaben relativ schnell erledigen und waren mit der Bedienung des Gerätes zufrieden. Die in der Übersicht exemplarisch aufgeführten Aussagen der Probanden sind typisch für das Ergebnis eines solch konsequent durchgeführten »Usability-Engineering-Prozesses«.
Typische Probanden-Aussagen am Ende eines »Usability-Engineering-Prozesses«
▬ »Wo ich das Gerät jetzt sehe, wird mir erst bewusst, ▬ ▬ ▬ ▬
wie kompliziert unsere Pumpe ist.« (Fachkrankenschwester) »Es war einfach zu bedienen. Dafür, dass ich es das erste Mal gemacht habe, war es super.« (OTAAzubi) »Das Gerät ist selbsterklärend.« (Fachkrankenschwester) »Das macht einen guten Eindruck und ist einfach und intuitiv zu bedienen.« (Kardiotechniker) »Im Vergleich zu anderen Geräten ist die Menüführung positiv und sehr einfach.« (Kardiologe)
⊡ Abb. 9.11. Mit Hilfe eines Hartschaummusters wird das ergonomisch sinnvolle Anbringen am Patientenbett getestet [9]
Dennoch wurden in dieser Gebrauchstauglichkeitsevaluation mehrere Probleme identifiziert. Diese wurden mit Hilfe der von der wwH-c GmbH entwickelten Problembewertungsmethode »UseProb« bewertet. Diese Methode betrachtet Gebrauchstauglichkeitsprobleme auch unter dem Aspekt der Sicherheit. Die Ergebnisse der Bewertung
9
108
Kapitel 9 · Gebrauchstauglichkeit von Medizinprodukten
10
9
Reihe 1 Reihe 1
9
Problembehandlung
8 7 6 5 4 3 2 ⊡ Abb. 9.12. Ergebnisse des ersten Nutzertests – Bewertung mittels »UseProb« vor der zweiten Entwicklungsiteration
1 1
2
sind in ⊡ Abb. 9.12 dargestellt. Sie zeigen die Relevanz der gefundenen Probleme. Im Anschluss an die Evaluation wurden die gefundenen Probleme analysiert und anhand der erarbeiteten Verbesserungsvorschläge die Gerätebedienung optimiert. Mit dem verbesserten Benutzungskonzept erfolgte wieder ein Nutzertest. Es zeigte sich, dass sich die Gebrauchstauglichkeit in Bezug auf die Faktoren Effektivität, Effizienz, Zufriedenheit weiter verbesserte und alle sicherheitskritischen Probleme eliminiert wurden. Bis zu diesem Punkt wurden alle Entwicklungsschritte der Mensch-Maschine-Schnittstelle simuliert. Erst jetzt, nachdem die sichere und effiziente Bedienung durch die Anwender gesichert ist, beginnt die Programmierung der Software.
3
7. 8. 9.
10. 11.
12.
13.
Literatur 1. Backhaus C (2004) Entwicklung einer Methodik zur Analyse und Bewertung der Gebrauchstauglichkeit von Medizintechnik. PROMEDIKS – Prozessorientierte Medizintechnik in klinischen Systemen. Dissertation der Technischen Universität Berlin. http:// edocs.tu-berlin.de/diss/2004/backhaus_claus.htm 2. Bleyer S (1992) Medizinisch-technische Zwischenfälle in Krankenhäusern und ihre Verhinderung. In: Anna O, Hartung C (Hrsg) Mitteilungen des Instituts für Biomedizinische Technik und Krankenhaustechnik der Medizinischen Hochschule Hannover. Fachverlag für Krankenhaustechnik, Hannover. 3. Büchel D (2009) Entwicklung einer allgemeingültigen Standardprozedur zur Überprüfung der Gebrauchstauglichkeit medizintechnischer Produkte. Dissertation der Medizinischen Fakultät Tübingen 4. DIN 14155 (2009) Cinical Investigation of medical devices for human subjects – Good Clinical Practice. Draft International Standard 5. DIN EN IEC 62366 (2008) Medizinprodukte – Anwendung der Gebrauchstauglichkeit auf Medizinprodukte. Beuth-Verlag, Berlin 6. DIN/EN/IEC 60601-1-6 (2008) Medizinische elektrische Geräte – Teil 1– 6: Allgemeine Festlegungen für die Sicherheit – Ergän-
14.
15.
16.
17.
18. 19.
20.
4
5
6
7 8 Problem
9
11
12
13
zungsnorm: Gebrauchstauglichkeit. 1. Ausgabe. Beuth-Verlag, Berlin DIN EN ISO 13407 (1999) Benutzerorientierte Gestaltung interaktiver Systeme. Beuth-Verlag, Berlin Fachausschuß Ergonomie der DGBMT (2004) Ergonomie in der Medizintechnik. DGBMT (http://www.vde.com) Hültner A (2009) Gebrauchstaugliche und nutzerorientierte Neugestaltung der Bedienoberfläche einer Herzkatheterpumpe. Bachelor Arbeit der H f G Hochschule für Gestaltung Schwäbisch Gmünd & wwH-c GmbH ISO 14971 (2003) Medizinprodukte – Anwendung des Risikomanagements auf Medizinprodukte. Beuth-Verlag, Berlin Kleinert F (2010) Entwicklung von Interaction Design Pattern für medizinische Geräte und Überprüfung des Nutzens für die Industrie und Anwender. Bachelor Arbeit der Hochschule Furtwangen & wwH-c GmbH Kohn L, Corrigan J, Donaldson M (1999) To err is human. Building a safer health system. Institute of Medicine, Washington, DC. National Academy Press, Washington, DC Laurig W, Hölscher U (2004) Ergonomie-Leitfaden für die Gestaltung von Medizinprodukten. Mignon-Verlag, Bonn Matern U, Koneczny S, Scherrer M, Gerlings T (2006) Arbeitsbedingungen und Sicherheit am Arbeitsplatz OP. Dtsch Ärztebl 103(47): 3187–92 MEDDEV. 2.7.1 Rev. 3 (2009) Guidelines on Medical Devices. Clinical evaluation: A guide for manufacturers and notified bodies (www.ghtf.org) Montag K, Rölleke T, Matern U (2007) Gebrauchstauglichkeitsuntersuchung von Medizinprodukten im Anwendungsbereich OP. 2. Europäische Konferenz über Krankenhaustechnik, Wien, 5.–7.9.2007. Kongressband, S 60–62 Nielsen J, Landauer T (1993) A mathematical model of the finding of usability problems. Conference on Human Factors in Computer Systems: CHI99, pp 83–84 Raskin J (2000) The Humane Interface. Addison-Wesley Longman, Inc., Reading, MA Verdaasdonk E, Stassen L, van der Elst M, Karsten T, Dankelman J (2007) Problems with technical equipment during laparoscopic surgery – An observational study. Surg Endosc 21: 275–279 Von der Mosel HA (1971) Der klinisch-biomedizinische Ingenieur. Schweizerische Ärztezeitung 52 vom 29.12.1971
B
Spezieller Teil
10 Kardiologische Basisdiagnostik (Ruhe-EKG, Langzeit-EKG, Belastungs-EKG) R. Kramme 10.1
Elektrokardiographie (EKG) – 113
10.1.1
Gerätetechnik: Elektrokardiographen und PC-EKG – 113 EKG-Verfahren – 117 Ableitungssysteme – 118 Methodische Hinweise – 121 Diagnostische Wertigkeit des EKGs – 121 Komplikationen – 121 Sicherheitstechnische Aspekte zu EKGSystemen – 121
10.1.2 10.1.3 10.1.4 10.1.5 10.1.6 10.1.7
10.2
Langzeit-EKG – 122
10.2.1 10.2.2 10.2.3 10.2.4
Ableitungen – 122 Langzeit-EKG-Systeme – 122 Rechnergestützte Auswertung – 123 Herzfrequenzvariabilität und Herzfrequenzturbulenz – 124
Unter kardiologischer Basisdiagnostik wird die nichtinvasive Ableitung von kardialen elektrischen Aktionspotentialen in Ruhe und unter Belastung zur Beurteilung der Herzfunktion verstanden. Die technische Weiterentwicklung der EKG-Systeme erzielt eine immer höhere Genauigkeit der diagnostischen (Basis-)Bewertungen des Herzkreislaufsystems und damit eine enorme Verbesserung deren Aussagekraft. Im Folgenden werden die apparativen Verfahren vorgestellt.
10.1
Elektrokardiographie (EKG)
Die Elektrokardiographie ist die Beschreibung des Verfahrens zur Aufzeichnung und diagnostischen Auswertung von Elektrokardiogrammen, die den zeitlichen und örtlichen Verlauf der elektrischen Erregungsvorgänge in Form von Wellen, Zacken und Strecken am Herzmuskel aufzeichnen (⊡ Abb. 10.1). Jede Erregungsausbreitung über Fasern des Herzens ist Quelle einer elektrischen Spannung. Gemessen werden in der Regel bei der nichtinvasiven Ableitung diejenigen Spannungsdifferenzen, die über ein elektrisches Feld auf der Körperoberfläche entstehen und dabei nur Bruchteile der vom Herzen entwickelten Spannung ausmachen. Damit ist das Herz als Potentialquelle zu deuten und das EKG zeigt letztlich das Bild der Elektrizitätserzeugung (Potentialverschiebung) und damit der Erregungsvorgänge im Spiegel der gewählten Ableitungen.
10.2.5 10.2.6
Indikationen zur Langzeitelektrokardiographie – 124 Die Bedeutung des Langzeit-EKGs – 124
10.3
Belastungs-EKG – 125
10.3.1
Differenzierung Ergometrie und BelastungsEKG – 125 10.3.2 Gerätetechnik – 125 10.3.3 Reduzierte Belastungs-EKG-Ableitungen – 126 10.3.4 Automatische ST-Vermessungsprogramme – 126 10.3.5 Wichtige Punkte des Belastungstest – 127 10.3.6 Methodische Hinweise – 129 10.3.7 Diagnostische Wertigkeit der Ergometrie – 129 10.3.8 Indikationen – 129 10.3.9 Abbruchkriterien und Sicherheitsmaßnahmen – 130 10.3.10 Sicherheitstechnische Aspekte – 130 10.3.11 Planerische Hinweise – 130
Weiterführende Literatur – 130
10.1.1 Gerätetechnik: Elektrokardiographen
und PC-EKG Elektrokardiographen (kurz: EKG-Geräte) und PC-EKGModule sind diagnostische Geräte zur Aufnahme, Verstärkung, Speicherung, Verarbeitung, Auswertung und Dokumentation (Registrierung) des Elektrokardiogramms. Als standardisiertes Verfahren ist die nichtinvasive Elektrokardiographie seit Jahrzehnten in der Medizin etabliert; daher ist die apparative Ausstattung mit EKG-Geräten sowohl im klinischen als auch im niedergelassenen Bereich beinahe obligatorisch.
Physikalische und technische Grundlagen Ein EKG-System ist ein rauscharmer Differenzverstärker, d. h. ein stark gekoppelter Gleichstromverstärker von hohem Verstärkungsgrad mit einem invertierenden (umgekehrten) und nichtinvertierenden Eingang. Die Ausgangsspannung beträgt das Vielfache der an den Eingangsklemmen liegenden Spannung. Sie ist die Differenzspannung der beiden am gemeinsamen Pol liegenden Spannungen. Gemessen an der üblichen Verstärkertechnik, werden an einen EKG-Vorverstärker besonders hohe Anforderungen gestellt: Einstreuende hochfrequente Wechselspannungen werden über einen Hochfrequenzfilter vor dem Vorverstärkereingang gedämpft, sodass sich keine Übersteuerungen oder Selbsterregungen ergeben können. Extreme Störspannungen werden ebenfalls
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _10, © Springer-Verlag Berlin Heidelberg 2011
114
I
Kapitel 10 · Kardiologische Basisdiagnostik (Ruhe-EKG, Langzeit-EKG, Belastungs-EKG)
direkt über Entladestrecken und antiparallele Dioden abgeblockt. Ein hoher Eingangswiderstand (in der Regel 10 MΩ und darüber) hält die Eingangsströme sehr klein. Kapazitiv eingekoppelte netzfrequente Wechselspannungen werden eliminiert durch eine hohe Gleichtaktunterdrückung. Nach einer 20- bis 30fachen Vorverstärkung wird das EKG-Signal von der Gleichspannung über einen Hochpassfilter abgetrennt. Die Zeitkonstante dieses Filters beträgt 1,5 oder 3,2 s. Während bei analogen EKG-Geräten das aufbereitete EKG-Signal über einen Ableitungswähler den jeweiligen Kanalverstärkern (1 ... >12) zugeführt wird, entfällt dies beim digitalen EKGGerät. Stattdessen werden die aufgenommenen Signale zu 12 Ableitungen verknüpft, verstärkt und via Multiplexer sowie AD-Wandler einem Prozessorsystem (Steuerrechner = CPU) zugeleitet. Die Systemsoftware verarbeitet alle digitalisierten Eingangssignale, interpoliert die einzelnen Messwerte zu kontinuierlichen Kurven, steuert die Abläufe des Geräts, kommuniziert mit dem Bediener über Tastatur, Anzeige und Ausdruck; sie stellt Textausgaben und Uhrzeit bereit, gibt ein QRS-Triggersignal und wertet den Fernstarteingang für ein Ergometer aus. Die Ausgabe erfolgt über ein digitales Schreibsystem, den Thermokamm. Beim analogen EKG-Gerät wird nach einer weiteren Verstärkung auf ca. 1–2 V durch den jeweiligen Kanalverstärker das EKG-Signal über eine Leistungsverstärkerstufe (Endverstärker) und schließlich über das mechanische
⊡ Abb. 10.1. Nomenklatur des Elektrokardiogramms (EKG)
Registriersystem (z. B. Hebelschreiber, Düsenschreiber u. a.) ausgegeben. Die messtechnische Erfassung des EKGs, der Signalweg sowie die Signalverarbeitung, gleicht einer Messkette: vom Messobjekt (Patient) über Messwertaufnehmer oder -fühler (Elektroden), Messwertüberleitung (Elektrodenzuleitung und Patientenkabel) zur Signalverarbeitung, Signalauswertung und Dokumentation (EKG-Gerät). Die an der Körperoberfläche aufliegenden Ableitelektroden bzw. die intrakardiale Elektrode (Signalquelle) nehmen das EKG-Signal auf (Nutzsignal) und leiten es über ein Kabel zum Eingangsverstärker des Kardiographen. Zwischen der Haut und dem metallischen Anteil der Elektrode besteht eine galvanoelektrische Spannung, die vom Elektrodenmaterial, von der Zusammensetzung der Elektrolyten und vom Zustand der Grenzfläche Elektrode/ Elektrolyt wesentlich beeinflusst wird. Diese elektrochemische Kontaktspannung kann bis zu 300 mV betragen. Das übertragene Eingangssignal des Verstärkers besteht aus unterschiedlichen Anteilen: 1. Das Nutzsignal (EKG) mit einer Amplitude von 50 lV – ca. 1 mV, das jedoch 2. überlagert wird von einem Gleichspannungsanteil bis zu 300 mV. Des Weiteren können 3. Störsignale bis zu 100 mV (50 Hz »Brummspannung«) und 4. extreme Störspannungen (z. B. durch Defibrillatoren, HF-Chirurgiegeräte u. a.) bis zu 3000 V auftreten.
115 10.1 · Elektrokardiographie (EKG)
Um eine galvanische Trennung des Patienten von der Netzspannung sicherzustellen, sind die Spannungsversorgung sowie das Ausgangssignal galvanisch entkoppelt. Im Zuge der Reproduzierbarkeit wurde das EKGSignalverarbeitungs-, Aufzeichnungs- und Ableitungsverfahren standardisiert: ▬ Frequenzgang: – untere Grenzfrequenz fgrenze=0,05 Hz – obere Grenzfrequenz fgrenze=>100 Hz ▬ EKG-Amplitude: – 2,5, 5, 10 und 20 mm/mV ▬ Zeit: – 10, 25, 50 und 100 mm/s
Gerätesystematik EKG-Schreiber lassen sich vornehmlich nach Anzahl der Kanäle und nach der Gerätetechnologie unterscheiden (⊡ Abb. 10.2 und ⊡ Abb. 10.3). Von analogen zu digitalen EKG-Systemen mit integriertem Registrierteil hat sich eine neue EKG-Generation entwickelt: das PC-EKG. In einem externen Modul wer-
den die aufgenommenen analogen Signale verstärkt, digitalisiert und einer Datenübertragungstechnik zugeführt. Die Übertragung der Daten auf einen angeschlossenen Rechner (PC oder Laptop) kann entweder über einen USB-Mikrocontroller oder über drahtlose Datenfunktechnik (Bluetooth-Technik) erfolgen. Während der USBAnschluss auch zur Stromversorgung des Moduls genutzt wird, ist das Bluetooth-Verfahren mittels eines netzunabhängigen Betriebs (10–12 Std.) mit einem Akku möglich. Die auf den Rechner übertragenen Daten werden durch installierte EKG-Anwendungsprogramme verarbeitet und aufbereitet. Neben der visuellen Darstellung auf dem Rechnerdisplay oder einem externen Monitor können zur Dokumentation EKG-Verlaufskurven und Auswertungen auf einem angeschlossenen Printer und Normalpapier ausgegeben werden. Im Vergleich zum konventionellen EKG-Gerät weist das PC-EKG praktische Vorteile auf: Beliebige EKG-Sequenzen können jederzeit gespeichert werden, die Daten sind übergreifend verfügbar, der Verbrauch von teurem EKG-Papier wird erheblich reduziert (somit werden Kosten eingespart), es gibt keine mechanischen Gerätekomponenten, die Datensicherung erfolgt auf gängigen Spei-
⊡ Abb. 10.2. Übersicht und Differenzierung von EKG-Schreibgeräten und PC-EKG-Modulen
⊡ Abb. 10.3. PC-EKG-Modul
10
116
I
Kapitel 10 · Kardiologische Basisdiagnostik (Ruhe-EKG, Langzeit-EKG, Belastungs-EKG)
chermedien, der netzunabhängige Betrieb bietet einen mobilen Einsatz. Des Weiteren ist die Möglichkeit zum interaktiven Datenaustausch via Internet gegeben. Nachteilig ist dagegen die Einschränkung des Datenaustauschs über Datenträger oder das Internet, da dies nur mit einem zur PC-EKG-Software kompatiblen Anwendungsprogramm erfolgen kann. Auch ein PC-EKG-charakteristisches Artefakt, welches durch die Rechnerelektronik zustande kommen kann, ist ein Störfaktor für die sensible EKG-Analyse.
Schreibsysteme Unter Schreibsystemen sind die verschiedenen technischen Möglichkeiten des Registrierteils zu verstehen (⊡ Abb. 10.4). Das digitale Thermokammschreibverfahren entspricht dem aktuellen Stand der Technik. Die Qualität einer Thermokammregistrierung zeichnet sich durch eine hohe Auflösung und geringe Störanfälligkeit des Schreibsystems sowie eine optimale Reproduktion des abgenommenen und verarbeiteten EKGSignals aus.
Elektrodentechnik Abnahme und Überleitung des EKGs von der Körperoberfläche und die Qualität dieses Signals werden im Wesentlichen von den Elektroden beeinflusst. Sie stellen einen Übergang zwischen der Ionenleitung im Körper und der metallischen Elektronenleitung der Elektrodenoberfläche sowie des weiterleitenden Kabels dar. Zwischen Körper und Elektrode ist somit eine galvanische Spannung vorhanden, die insbesondere von drei Faktoren abhängt: 1. vom Elektrodenmaterial, 2. von der Zusammensetzung der Elektrolyten und 3. vom Zustand der Grenzflächen Elektrode/Elektrolyt.
⊡ Abb. 10.4. EKG-Schreibverfahren
An den Grenzflächen können elektrochemische Kontaktspannungen bis zu 300 mV auftreten. Die Elektrodenimpedanz (syn. Elektrodenübergangsimpedanz) – die Summe aus Elektroden- und Hautimpedanz sowie dem Widerstand des Kontaktmediums, die abhängig von der Stromdichte ist – ergibt sich aus dem Momentanzustand von Haut, Körper, Kontaktmittel und Elektrodenmaterial. Deshalb werden Elektrodenpasten oder -gels zur Verringerung der Übergangsimpedanz eingesetzt. Insbesondere bei polarisierbarem Elektrodenmaterial (z. B. Edelstahl) kann es zum Auftreten von unerwünschten Polarisationsspannungen kommen. Diese spontanen Spannungsschwankungen überlagern das EKG-Signal und führen des Weiteren zu Signalinstabilitäten in der Registrierung (driftende Ableitungen). Besonders vorteilhaft haben sich unpolarisierbare Elektroden aus Ag/AgCl (Silber-Silberchlorid) erwiesen (⊡ Tab. 10.1).
Systemeigenschaften Leistungsspektrum und zugleich Anforderung an moderne EKG-Systeme sind folgende Eigenschaften: ▬ zeitlich simultane Darstellung der 12 Standardableitungen in einem Zeitrahmen von 15 s, ▬ unterschiedliche, alphanumerische Registriermöglichkeiten, ▬ hoher Bedienungskomfort und programmierbar, ▬ digitale Signalverarbeitung, ▬ automatisierte Steuerung nebst Programmen, ▬ Schnittstellen zur Kommunikation mit anderen Systemen und ▬ ein hochauflösendes Schreibsystem ohne mechanische Anteile. Ein ausbaufähiges System hat den Vorteil, mehr Funktionen als nur eine EKG-Registrierung durchzuführen. Diese sog. multifunktionalen Systemeigenschaften sind
117 10.1 · Elektrokardiographie (EKG)
dann gegeben, wenn das EKG-Gerät mit Zusatzfunktionen wie Spirometrie, Langzeit-EKG, Arrhythmie-Monitoring, Ultraschalldoppler, Pulsoxymetrie, Kapnographie, Spätpotentiale u. a. ausgestattet ist. Standard ist auch die Datenkommunikation mit PC sowie die Vernetzung mit anderen Systemen. Damit sind die Voraussetzungen für die Nutzung von medizinischen EDV-Statistiken, EKG-Datenmanagement und EKG-Softwarebibliotheken gegeben.
Kardiographen, die anwenderseitig programmiert werden können, sind Automatikprogramme wie StandardEKG mit 12 Ableitungen, Ergometrie und Arrhythmie. Auch Ableitungsmodus, Formatierung, Nulllinien, Kalibrierung und Empfindlichkeit sind weitestgehend automatisiert. Alternativ kann jederzeit manuell registriert werden.
10.1.2 EKG-Verfahren
Betriebsarten Im Wesentlichen wird zwischen manueller und automatischer Betriebsart unterschieden. Typisch für heutige
⊡ Abb. 10.5 stellt eine Übersicht über nichtinvasive und invasive EKG-Verfahren dar.
⊡ Tab. 10.1. Übersicht Elektrodenarten Elektrodenart
Elektrodenmaterial
Abnahmeregion
Applikationsdauer kurz
Platten-
V2
Extremitäten
Θ
Ohne Elektrodengel
Saug-
SilberSilberchlorid
Brust
Θ
Geringe Polarisationsspannung
Knopf-
SilberSilberchlorid
Extremitäten
Θ
Klebe-
SilberSilberchlorid
Extremitäten
Einmal-
SilberSilberchlorid
Extremitäten, Brust
Dreifach-
SilberSilberchlorid
Brust
⊡ Abb. 10.5. Nichtinvasive und invasive EKG-Verfahren
Applikationsdauer lang
Θ
Überwachung
Θ
Notfallapplikation
Θ
Bemerkungen
Schaumstoffpflaster verwenden Bei unruhigen Patienten geringere Artefakte
Θ
Θ
Θ
Höhere Kosten
Θ
Θ
Schnelle Applikation möglich
10
118
Kapitel 10 · Kardiologische Basisdiagnostik (Ruhe-EKG, Langzeit-EKG, Belastungs-EKG)
10.1.3 Ableitungssysteme
Ableitungen von der Körperoberfläche
I
Die von zeitveränderlichen Biopotentialdifferenzen ausgelösten Aktionsströme werden als elektrische Spannung – die Größe des Nutzsignals liegt bei einem Millivolt – zwischen zwei Punkten an der Körperoberfläche abgeleitet. Theoretisch könnten sich die Abnahmestellen an jeder beliebigen Stelle der Körperoberfläche befinden. In der Praxis haben sich bestimmte Ableitungspunkte entwickelt, nach denen die jeweiligen Ableitungen definiert sind. Im Wesentlichen unterscheiden sich die Ableitungen in der Abnahmetechnik und in räumlicher Hinsicht: Ableitungen zwischen zwei Punkten werden als bipolare Ableitung bezeichnet. Bei unipolaren Ableitungen hingegen ist die differente Elektrode gegen eine sog. Nullelektrode geschaltet (Sammelelektrode). Diese Sammelelektrode entsteht durch den Zusammenschluss der Extremitätenableitungen über hochohmige Widerstände. Einen räumlichen Einblick vermitteln die Extremitätenableitungen auf der Frontalebene und die Brustwandableitungen auf der Horizontalebene.
Die Standardableitungen Als Standardableitungen werden die drei bipolaren Extremitätenableitungen nach Einthoven (I, II, III), die drei
aus den Einthoven-Ableitungen konstruierten unipolaren Extremitätenableitungen nach Goldberger (aVR, aVL, aVF) und sechs unipolare Brustwandableitungen nach Wilson (V1...V6) bezeichnet (⊡ Tab. 10.2).
Bipolare Extremitätenableitungen nach Einthoven (⊡ Abb. 10.6) Die Potentialdifferenz wird zwischen zwei Elektroden gemessen: ▬ R: rechter Arm = roter Stecker ▬ L: linker Arm = gelber Stecker ▬ F: linker Fuß = grüner Stecker ▬ N: rechter Fuß = schwarzer Stecker (Erde) Die drei Ableitungen liegen in der Frontalebene und bilden das sog. Einthoven-Dreieck (⊡ Abb. 10.7).
Unipolare Extremitätenableitungen nach Goldberger Die Potentialdifferenz wird jeweils zwischen einer Elektrode an der Extremität und einem »elektrischen Nullpunkt« ermittelt, der auf dem Mittelpotential zwischen den beiden übrigen Extremitäten liegt (⊡ Abb. 10.8). ▬ aVR: R – L+F/2 ▬ aVL: L – F+R/2 ▬ aVF: F – L+R/2
⊡ Tab. 10.2. Übersicht der 12 Standardableitungen des EKG Extremitätenableitungen
Brustwandableitungen
Bezeichnung
nach Einthoven
nach Goldberger
nach Wilson
Elektroden
I, II, III
aVR, aVL, aVF
V1, V2, V3, V4, V5, V6
Messtechnik
bipolar
unipolar
unipolar
Ableitungspunkte
obere und untere Extremitäten
konstruiert aus I, II, III
Brustwand C1...C6
Projektion
Herzferne Potentiale Frontalebene
⊡ Abb. 10.6. Ableitungsorte, Steckerfarben und Schaltschema der bipolaren Extremitätenableitungen nach Einthoven
Herznahe Potentiale Horizontalebene
119 10.1 · Elektrokardiographie (EKG)
Unipolare Brustwandableitungen nach Wilson Die Brustwandelektroden (differente Elektroden V1...V6, V Voltage=Spannung) werden an sechs definierten Stellen am Thorax platziert (C1...C6, C Chest=Brust). Als Sammelelektrode (indifferente Elektrode) werden die drei Extremitätenableitungen über einen hochohmigen Widerstand zusammengeschlossen. Dieser »Wilson-Stern« oder »Central terminal« bildet den elektrischen Nullpunkt. Durch die Nähe zum Herzen sind die Amplituden der Brustwandableitungen größer als die der Extremitätenableitungen (⊡ Abb. 10.9, ⊡ Abb. 10.10).
Ableitungsfolge nach Cabrera
⊡ Abb. 8.7. Einthoven-Dreieck
⊡ Abb. 10.8. Unipolare Ableitungen nach Goldberger und Schaltschema
Der Cabrera-Kreis ist ein hexaxiales System, das u. a. als Hilfsmittel für die Bestimmung des Lagetypus eingesetzt werden kann. Der Kreis enthält Ableitungen der Frontalebene, die jeweils um 30° gegeneinander gedreht sind. Die Ableitungen aus dem Einthoven-Dreieck werden parallel verschoben, sodass die Ableitung I den Winkelgrad Null einnimmt, Ableitung II +60° und Ableitung III + 120°. Die Goldberger-Ableitungen werden in dieses System mit einbezogen und ergeben aVR –150°, aVL –30° und aVF +90° (⊡ Abb. 10.11). Durch Spiegelung der Ableitung aVR um 180° erhält man –aVR bei 30°. Vereinfacht kann man den Lagetypus ermitteln, indem die größte R-Amplitude aus den Ableitungen ermittelt wird. Die den Ableitungen zugeordnete Gradeinteilung bestimmt den Lagetypus (Beispiel: Die größte R-Amplitude befindet sich in Ableitung II,
⊡ Abb. 10.9. Unipolare Brustwandableitungen nach Wilson. C1 IV. Interkostalraum rechts am Sternalrand C2 IV. Interkostalraum links am Sternalrand C3 IV. Interkostalraum auf der 5. Rippe zwischen C2 und C4 C4 im V. Interkostalraum auf der Medioklavikularlinie C5 in der linken vorderen Axillarlinie auf der Höhe von C4 C6 in der linken mittleren Axillarlinie auf der Höhe von C4
10
120
Kapitel 10 · Kardiologische Basisdiagnostik (Ruhe-EKG, Langzeit-EKG, Belastungs-EKG)
I
⊡ Abb. 10.10. Ableitungsschema nach Wilson und Darstellung in der Horizontalebene
⊡ Abb. 10.11. Cabrera-Kreis
d. h., die elektrische Herzachse verläuft bei +60°. Dies entspricht der Normallage des Herzens beim gesunden Erwachsenen).
Ergänzende und reduzierte Ableitungen von der Körperoberfläche Ergänzende Ableitungen Zu den ergänzenden Ableitungen gehören die bipolaren Brustwandableitungen nach Nehb, die korrigierten orthogonalen Ableitungen nach Frank und die zusätzlichen unipolaren Brustwandableitungen nach Wilson. Die bipolaren Brustwandableitungen nach Nehb geben einen räumlichen Eindruck des Herzens aus der
schrägen Horizontalebene. Durch Verlegung der Einthoven-Extremitätenableitungen vom rechten Arm zur zweiten Rippe, Ansatz Brustbein (NSt), vom linken Arm auf den Rücken etwas unterhalb der Spitze des linken Schulterblattes (Nax) und vom linken Fuß über die Herzspitze (Nap) erhält man die Brustwandableitungen nach Nehb. Diese Ableitungen bezeichnet man auch als »kleines Herzdreieck«. Den Ableitungen nach Frank liegt die theoretische Modellvorstellung zugrunde, dass das Herz im Mittelpunkt eines rechtwinkligen dreidimensionalen Koordinatensystems liegt: Querachse x, Längsachse y und Sagittalachse z. Damit lassen sich die Erregungsvorgänge in Form von Vektorenschleifen registrieren (Vektorkardiographie). Zusätzlich zu den Standardableitungen der Brustwand nach Wilson ist es möglich, weitere Ableitungsstellen aufzunehmen. Diese können rechts- (Vr3, Vr4, Vr5, Vr6) oder linkspräkordial (V7, V8, V9 oder V8 zwei ICR tiefer) erweitert werden.
Reduzierte Ableitungen Zu den reduzierten Ableitungen gehören Ableitungen für das EKG-Monitoring, Ableitungen für das LangzeitEKG und Ergometrieableitungen ( dazu die einzelnen Abschnitte).
Invasive Ableitungen Unipolare Ösophagusableitungen Bei den Ösophagusableitungen wird ein Elektrodenkatheter über die Speiseröhre bis kurz vor den Mageneingang geschoben. Ziel ist, eine genaue Beurteilung von Nahpotentialen der Herzhinterwand und des linken Vorhofs zu erhalten.
121 10.1 · Elektrokardiographie (EKG)
HIS-Bündelableitung (EG) Intrakardial abgeleitetes Elektrogramm (EG) mittels 3-poligem Elektrodenkatheter. Die Untersuchung erfolgt unter röntgenologischer und elektrokardiographischer Kontrolle (in Herzzentren gehört dieses Verfahren zur Routinediagnostik). Der besondere Vorteil dieser Ableitung besteht darin, dass die Nahpotentiale des rechten Vorhofs, der rechten Kammer sowie des Reizleitungssystems – und hier insbesondere das HISPurkinje-System – präzise untersucht werden können (⊡ Abb. 10.12).
10.1.4 Methodische Hinweise
Störungen, die während der EKG-Registrierung auftreten, können allgemein unterschieden werden in patienten-, umgebungs-, anwender- und gerätebedingte Störungen. Die meisten Störungen (Nulllinienschwankungen, unregel- und regelmäßige Wechselspannungsüberlagerungen), die während der EKG-Registrierung auftreten, sind auf äußere Einflüsse zurückzuführen.
10.1.5 Diagnostische Wertigkeit des EKGs
Als Ausdruck elektrischer Erregungsvorgänge am Herzen liefert das EKG Informationen über Erregungsursprung, Erregungsrhythmus, Herzlage, Herzfrequenz,
Impulsausbreitung, Erregungsrückbildung und deren Störungen, die wiederum anatomische, mechanische, stoffwechsel- oder kreislaufbedingte Ursachen haben können. Keinen direkten Aussagewert dagegen hat das EKG für die Kontraktion und die Pumpleistung des Herzens (mechanische Herzfunktion). Die medizinische Bedeutung des EKGs ist unbestritten, obwohl die Aussagekraft nicht überschätzt werden sollte. Im Rahmen einer kardiologischen Abklärung ist das EKG unbedingt erforderlich, bei internistischen Routineuntersuchungen meist eine wertvolle, eventuell sogar die entscheidende Untersuchung. Vorsicht ist geboten bei der Aussagekraft des EKGs über die Ätiologie und Pathogenese einer Herzkrankheit sowie Indikation und Erfolg einer therapeutischen Maßnahme. Anatomische Schädigungen und funktionelle Störungen des Herzmuskels müssen nicht zwingend mit dem EKG übereinstimmen. Festzustellen ist, dass der Aussagewert des EKGs abhängig von den Kenntnissen und Erfahrungen des Beurteilers ist. Während ungeübte Anwender die Interpretation des EKGs eher zu weit auslegen, bewertet der erfahrene Anwender zurückhaltender und vermeidet nach Möglichkeit Schematisierung und Verallgemeinerung. Anzumerken ist, dass insbesondere bei computerisierten Auswerteprogrammen (z. B. Diagnosehinweise) eine eigene Bewertung des EKGs unerlässlich ist.
10.1.6 Komplikationen
Während Zwischenfälle bei der nichtinvasiven EKGAbleitung ein absolutes Novum darstellen, kann es bei der intrakardialen EKG-Registrierung zum Auslösen von schwerwiegenden Arrhythmien (z. B. Flattern, Flimmern u. a.) kommen.
10.1.7 Sicherheitstechnische Aspekte
zu EKG-Systemen
⊡ Abb. 10.12. Oberflächen-EKG im Vergleich zum intrakardialen HISBündel-EG HBE HIS-Bündel-Elektrogramm A Erregungsausbreitung in den Vorhöfen V Erregungsausbreitung in den Kammern H Erregungsausbreitung im HIS-Bündel
Elektrokardiographen sind energetisch betriebene medizintechnische Geräte, für die besondere Bestimmungen, Vorschriften und Normen zum Schutz des Patienten und des Bedienungspersonals gelten. EKG-Geräte, die intrakardial messen bzw. dafür vorgesehen sind, werden der Anlage 1 der MPBetreibV zugeordnet. Für EKG-Geräte werden vorwiegend die Schutzklasse 1 (mit Schutzleiter) und die Schutzklasse 2 (ohne Schutzleiter) angewandt. Die VDE 0750 erlaubt es, Geräte mit einem Schutzklassenumschalter auszurüsten, sodass wahlweiser Betrieb in beiden Schutzklassen möglich ist. Die Geräte müssen zur Erhaltung der Funktions- und Betriebssicherheit in festgesetzten Zeitabständen sicherheitstechnisch kontrolliert und geprüft werden.
10
122
Kapitel 10 · Kardiologische Basisdiagnostik (Ruhe-EKG, Langzeit-EKG, Belastungs-EKG)
10.2
I
Langzeit-EKG
Die Langzeitelektrokardiographie, kurz als Langzeit-EKG und synonym als HOLTER-Monitoring, »ambulantes« EKG oder ambulatorisches Monitoring bezeichnet, ist ein nichtinvasives EKG-Routineverfahren mit zentraler Bedeutung in der Primärdiagnostik und Therapiekontrolle von Herzrhythmusstörungen (Arrhythmien), bei dem das EKG über einen längeren Zeitraum (i.d.R. 24 Stunden) unter alltäglichen Belastungen aufgenommen und analysiert wird. Während andere elektrokardiographische Untersuchungsverfahren wie Ruhe- oder Belastungs-EKG nur eine diagnostische Aussage über einen begrenzten Zeitraum unter bestimmten Bedingungen (»Laborbedingungen«) zulassen, verfolgt das Langzeit-EKG die unterschiedlichen körperlichen und emotionalen Belastungen über mindestens eine Tag-Nacht-Periodik.
10.2.1 Ableitungen
Über die günstigste Elektrodenlage gibt es für die Langzeitelektrokardiographie bisher keine einheitliche Auffassung. Dennoch wird eine Standardisierung angestrebt, um eine bessere Vergleichbarkeit der erzielten Ergebnisse zu gewährleisten. Die Ableitungspunkte müssen so gewählt werden, dass sie folgende Kriterien erfüllen: ▬ Die Elektroden sollten an muskelarmen Stellen am Thorax platziert werden, da Bewegungen der Skelettmuskulatur während der Langzeitüberwachung zu unerwünschten Schwankungen und Verzitterungen im EKG führen können (Artefakte). ▬ Die Bewegungsfreiheit des Patienten darf nicht eingeschränkt werden. ▬ Für die rechnergestützte EKG-Analyse der Aufzeichnungen muss eine ausreichende Amplitudenhöhe der R-Zacke im Verhältnis zur P- und T-Welle gewährleistet sein. In der Regel wird eine rechts- und eine linkspräkordiale Ableitung gewählt. Bevorzugt werden folgende bipolare Brustwandableitungen: ▬ MC5 Diese Ableitung wird parallel zur elektrischen Herzachse angelegt; die differente Elektrode in Höhe des 5. ICR (= Intercostalraum), die indifferente Elektrode über dem Brustbein (manubrium sterni). Je nach Lagetypus wird die Elektrodenlage verändert. ▬ MX Die indifferente Elektrode liegt über dem Brustbein, während die differente über dem Schwertfortsatz (xiphoideus) des Brustbeins angelegt wird. Diese Ableitung hat den Vorteil der größten Störfreiheit gegenüber Muskelzittern.
▬ CC5 Die Elektroden werden beiderseits der vorderen Axillarlinie in Höhe des 5. ICR angebracht, und zwar rechts die differente und links die indifferente Elektrode. Neben den hier genannten Ableitungen werden modifizierte Ableitungen von unterschiedlichen Autoren zur Optimierung der Erkennungssensitivität empfohlen.
10.2.2 Langzeit-EKG-Systeme
Normann J. Holters (Physiologe) grundlegende Arbeiten über die Entwicklung der drahtlosen Telemetrie – zunächst 1947 über die Radiotransmission eines EEG-Signals und 1949 zur Übertragung von EKG-Signalen bei ambulanten Patienten während körperlicher Arbeit – hat die heutige Langzeit-EKG-Registrierung stark beeinflusst bzw. erst ermöglicht. Langzeit-EKG-Systeme bestehen aus einem tragbaren Aufnahme- oder Erfassungsgerät (Rekorder) mit 2–3 Kanälen, das die EKG-Signale registriert und speichert, einem rechnergestützten Wiedergabegerät sowie einer hochleistungsfähigen Analyseeinheit. Die Anwendungsprogramme zur Analyse ermöglichen mittels Fast-Fourier-Transformation eine Frequenzanalyse zur Artefakterkennung, eine automatische Auswertung nach unterschiedlichen Kriterien, eine zeitgeraffte Analyse oder eine Stapelverarbeitung. Aufgrund der Aufzeichnungstechnik wird zwischen kontinuierlich und diskontinuierlich registrierenden langzeitelektrokardiographischen Systemen unterschieden, bei denen der Datenträger des Aufnahmegeräts entweder eine Bandkassette oder ein Festkörperspeicher ist. Die analog aufzeichnende Bandkassette ist heute fast vollständig vom digitalen Festkörperspeicher abgelöst worden. Bei der kontinuierlichen Aufzeichnung werden die EKG-Potentiale über einen Zeitraum von 24 bis zu 72 Stunden vollständig gespeichert. Höherwertige Geräte ermöglichen es, neben der Realtime-Analyse auch ein hoch verstärktes EKG, Langzeit-Blutdruck, Herzfrequenzvariabilität und weitere geräteseitige Funktionen parallel zu beurteilen. Diskontinuierliche systembezogene EKGs werden aufgrund beschränkter Speicherkapazität des Aufnahmegeräts aufgezeichnet. Dabei werden nach einer kontinuierlichen Aufzeichnungsanalyse nur zeitlich bestimmte EKG-Informationen und Ereignisse gespeichert und dokumentiert. Diese sog. Ereignisrekorder (»event recorder«) bieten dem Patienten die Möglichkeit, bei auftretenden Symptomen über einen Aktivator bzw. eine Fernbedienung die Aufzeichnung selbst auszulösen. Loop-Rekorder haben einen Durchlaufspeicher, in dem EKG-Informationen für einen begrenzten Zeitraum gespeichert bleiben. Nur EKG-Sequenzen, die vom Patienten durch den Aktivator markiert wurden, bleiben gespeichert.
123 10.2 · Langzeit-EKG
Eine Fortentwicklung des Ereignis-Rekorders ist der subkutan implantierbare Ereignisspeicher (»implantable loop recorder«, ILR), der insbesondere bei selten auftretenden symptomatischen Herzrhythmusstörungen eingesetzt wird. Das Gerät mit einer Betriebszeit von i.d. R. bis zu zwei Jahren wird in der Lokalanästhesie im Bereich des linken Brustbeins subkutan implantiert. Im Implantat wird das kontinuierlich aufgezeichnete, bipolare Elektrogramm ausgewertet. Abweichende EKG-Episoden von programmierten EKG-Kriterien werden gespeichert. Auch hier hat der Patient die Möglichkeit, auftretende Symptome bzw. Ereignisse mittels Fernbedienung zu markieren und abzuspeichern. Mit sog. Stichproben-Rekordern (»simple sampling recorder«) werden EKG-Abschnitte nur in bestimmten Zeitabschnitten, ohne Auslösung der Registrierung durch Herzrhythmusstörungen und ohne Einflussnahme durch den Patienten, registriert. Dieses intermittierend registrierende System, das nur zufällig und unspezifisch speichert, ermöglicht lediglich Aufnahmen mit einer sehr begrenzten Aussagefähigkeit für eine gesamte Tag-NachtRhythmik. Die telefonische Übermittlung von abgespeicherten EKGs und kompletten Langzeit-EKG-Datensätzen auf einen Rechner im Krankenhaus oder in einer nieder-
gelassenen Praxis gewinnt zunehmend an Bedeutung. Entwicklungen in der Telekommunikation machen es möglich, dass die Übertragung von EKGs über Mobiltelefone erfolgt und somit eine »Online-Diagnose« gestellt werden kann.
10.2.3 Rechnergestützte Auswertung
Die Art und Anzahl von Ereignissen (z. B. SVES, VES, Bigeminus, Couplet, Salven, R-auf-T-Phänomen u. a. ) in einem bestimmten zeitlichen Intervall geben einen Nachweis über eine Herzrhythmusstörung. Zu Beginn der Analyse erfolgt eine Lernphase des Programms, d. h., der für den Patienten typische Kammerkomplex (QRS) wird berechnet und die individuelle QRS-Morphologie als normal definierter Kurvenverlauf »gelernt«, um sie anschließend von QRS-Komplexen abweichender Form und von Artefakten unterscheiden zu können. Zur rhythmologischen Differenzierung von physiologischen und pathologischen Herzaktionen werden von dem Arrhythmie-Programm Erkennungskriterien (⊡ Abb. 10.13) des QRS-Komplexes eingesetzt (Kenngrößenvergleich, syn. Merkmals-Extraktions-Verfahren, Charakteristikaerkennung oder Feature Extraction). Als besondere Merkmale
⊡ Abb. 10.13. Ablaufschema einer rechnergestützten Auswertung des Langzeit-EKGs
10
124
I
Kapitel 10 · Kardiologische Basisdiagnostik (Ruhe-EKG, Langzeit-EKG, Belastungs-EKG)
werden für jeden QRS-Komplex berechnet und festgestellt: ▬ die Polarität der R-Zacke, ▬ die Amplitudenbreite, ▬ QRS-Fläche und QRS-Lage, ▬ QRS-Offset von der Nullinie sowie ▬ die Flankensteilheit der R-Zacke. Die einzelnen Kenngrößen werden an verschiedenen Punkten der Analyse zu Entscheidungszwecken benutzt. So bildet z. B. die Komplexhöhe ein zusätzliches Kriterium für die Validierung eines QRS-Komplexes. Mit dieser Merkmalsbestimmung ist eine morphologische (Normalfall oder nicht) und rhythmologische Zuordnung (vorzeitig, verzögert, später u. a.) sowie eine Einzelkomplexbewertung und letztlich Arrhythmieaussage möglich. Ein fortlaufender Abgleich zwischen dem aktuellen und dem gelernten QRS-Komplex wird als Kreuzkorrelationsmethode (syn. Muster-VergleichsVerfahren, »template matching«) bezeichnet. Die Basis der Arrhythmieüberwachung wird durch die Klassifizierung eines jeden QRS-Komplexes gebildet. Dazu werden Form und Einfallzeit des Komplexes herangezogen. Ist nach einer Lernphase die »patiententypische QRSForm« gefunden, wird der nächste Komplex mit dem abgespeicherten Referenzkomplex verglichen, indem beide Komplexformen »übereinandergelegt« und Punkt für Punkt auf Übereinstimmung geprüft werden. Bei geringer prozentualer Abweichung werden die beiden Komplexe als »formgleich« definiert und dienen als Bezugskomplex für den nächsten Formenvergleich. Findet keine Übereinstimmung statt, d. h. sind die Komplexe »formverschieden«, erfolgt eine Ablage in einem sog. QRS-Klassenspeicher. Um die diagnostische Wirksamkeit und die Analysegenauigkeit qualitativ zu beurteilen, ist es erforderlich, Analyseprogramme mit gerätespezifischen Algorithmen gegen anerkannte und bewertete EKG-Datenbanken zu testen und die Ergebnisse zu vergleichen (Validierung). Die Analysequalität und insbesondere die Zuverlässigkeit des Systems können statistisch durch die Sensitivität, positive Korrektheit und Spezifität beschrieben werden: ▬ richtig positiv = vorhandenes Ereignis wird richtig erkannt und bewertet ▬ richtig negativ = normaler Komplex wird richtig erkannt und bewertet ▬ falsch positiv = ein Ereignis wird falsch erkannt und bewertet ▬ falsch negativ = ein Ereignis wird übersehen ▬ richtig positiv und richtig negativ = Anzahl der Komplexe ▬ falsch positiv und falsch negativ = Anzahl der Fehler richtig positiv ▬ Sensitivität = --------------------------------------------------------------------------------- × 100 (%) richtig positiv + falsch negativ
richtig positiv ▬ Positive Korrektheit = ---------------------------------------------- × 100 (%) richtig positiv + falsch positiv richtig negativ ▬ Spezifität = -------------------------------------------------------------------------------- × 100 (%) richtig negativ + falsch positiv
10.2.4 Herzfrequenzvariabilität und
Herzfrequenzturbulenz Aus der Aufzeichnung eines Langzeit-EKGs lassen sich Prognoseindikatoren wie Herzfrequenzvariabilität (»heart rate variability«, HRV) und die Herzfrequenzturbulenz berechnen. Während die Herzfrequenzvariabilität Auskunft über die Schwankungen der Herzfrequenz über einen längeren Zeitraum gibt, sind mit dem Begriff »Herzfrequenzturbulenz« die Schwankungen der Abstände zweier Herzschläge (RR-Intervall, wobei mit R die Zacke aus dem QRS-Komplex gemeint ist) nach Auftreten einer ventrikulären Extrasystole gemeint. Zur Abschätzung der Herzfrequenzvariabilität wird die Standardabweichung der über 24 Stunden aufgezeichneten RR-Intervalle ermittelt (SDNN). Aus ca. 300 abgeleiteten Sinusschlägen lässt sich mit den meisten Auswertegeräten eine Spektralanalyse der Herzfrequenzvariabilität durchführen. Mittels Fast-Fourier-Transformation lassen sich verschiedene Frequenzbereiche differenzieren: ▬ ULF (ultra low frequency power): < 0,0034 Hz ▬ VLF (very low frequency power): 0,0034–0,04 Hz ▬ LF (low frequency power): 0,04–0,15 Hz ▬ HF (high frequency power): 0,15–0,4 Hz 10.2.5 Indikationen zur Langzeit-
elektrokardiographie Der Indikationsbereich zur Durchführung eines Langzeit-EKGs hat sich in den vergangenen Jahren gewandelt. Die wichtigste Indikation ist die Abklärung bei Verdacht auf zugrunde liegende Herzrhythmusstörungen (KlasseI-Indikation). Weitere Indikationen sind die Risikostratifizierung durch Erfassung ventrikulärer Arrhythmien und die Kontrolle einer antiarrhythmischen Therapie. Weitere Anwendungsmöglichkeiten bieten die Richtlinien des American College of Cardiology (ACC), der American Heart Association (AHA) und der European Society of Cardiology (ESC).
10.2.6 Die Bedeutung des Langzeit-EKGs
Das Langzeit-EKG hat eine große Bedeutung für die kardiologische Primärdiagnostik und Therapiekontrolle von
10
125 10.3 · Belastungs-EKG
Arrhythmien sowie die Ischämiediagnostik. Ruhe- und Belastungs-EKGs erlauben meistens kein sicheres Urteil über Häufigkeit und Art von Herzrhythmusstörungen, da sie nur einen kleinen zeitlichen Ausschnitt erfassen. Ein wesentlicher Vorteil des Langzeit-EKGs ist die kontinuierliche Aufzeichnung des EKGs über einen längeren Zeitraum (mindestens 24 Stunden). Darüber hinaus können die Analyseergebnisse quantitativ erfasst, dokumentiert oder einer weiteren Datenverarbeitung zugeführt werden.
10.3
Die Geschwindigkeit, mit welcher die Fahrradpedale getreten werden, ist gleich der Zeit, in der diese Leistung erbracht wird. Bei der Drehbewegung des Fahrradpedals ermittelt sich demnach die Leistung aus 2π x Drehzahl x Drehmoment.
(10.1)
Das Drehmoment errechnet sich aus der Kraft, mit welcher auf die Pedale getreten wird, multipliziert mit der Länge der Pedalkurbeln. Dabei wird deutlich, dass durch Änderung der Kraft oder Drehzahl unterschiedliche Leistungsergebnisse zu erwarten sind.
Belastungs-EKG
Die Ergometrie, der meist angewandte Belastungstest in der klinischen und ambulanten Kardiologie, ist ein nichtinvasives Routineuntersuchungsverfahren in der Herz-Kreislauf-Diagnostik. Als zusätzliche Information zum Ruhe-EKG vermittelt die Ergometrie wesentliche Erkenntnisse über die aktuelle kardiopulmonale Leistungsfähigkeit sowie über Leistungseinschränkungen, die aus koronaren Herzkrankheiten resultieren können.
10.3.1 Differenzierung Ergometrie
und Belastungs-EKG Während unter Ergometrie (gr. ergon = Arbeit, Leistung) die Durchführung einer definierten und reproduzierbaren Belastung mit einem Ergometer pro Zeiteinheit und die Kontrolle des EKGs, der Herzfrequenz, des Blutdrucks und der Sauerstoffaufnahme verstanden wird, steht beim Belastungs-EKG die Registrierung elektrokardiographischer Veränderungen während und nach der Belastung im Vordergrund und weniger das Verhalten des Blutdrucks, der Herzfrequenz und der Sauerstoffaufnahme. Im Allgemeinen wird bei der konventionellen Ergometrie auf die Messung der Sauerstoffaufnahme und -sättigung verzichtet, während sie bei der Ergospirometrie unverzichtbar ist ( Kap. 11 »Lungenfunktionsdiagnostik«).
Ergometriemessplatz Zur Vermeidung von Insellösungen bzw. Einschränkungen der Gerätevielfalt stehen heute Komplettsysteme – sog. vollautomatische Ergometriemessplätze – zur Verfügung. Diese Messplätze bestehen aus einem 3-, 6- oder 12-Kanal-EKG-Gerät, Ergometer oder Laufband, 1-, 3-, 6- oder 12-Kanal-Kardioskop, Defibrillator, nichtinvasivem Blutdruckmessgerät, Elektrodenapplikationssystem und einem fahrbaren Gerätewagen, auf dem diese Geräte stehen und damit flexibel transportiert werden können (⊡ Abb. 10.14). Bei Neuanschaffungen werden die konventionellen EKG-Geräte schon weitgehend durch PC-EKGs ersetzt. Der Vorteil dieser Anlagen liegt in den Möglichkeiten der Datenspeicherung und des Datentransfers.
Ergometerarten In technischer und apparativer Hinsicht werden im Wesentlichen drei Arten von Ergometern unterschieden: Fahrradergometer im Sitzen, Fahrradergometer im Lie-
10.3.2 Gerätetechnik
Physikalische und technische Grundlagen Die Arbeit in Newtonmeter (Nm), die durch den Probanden während der gesamten Belastungsdauer bei unterschiedlichen Belastungsstufen erbracht wird, ist das Produkt aus Kraft in Newton (N) mal Weg in Meter (m). Unter Einbeziehung der zeitlichen Komponente, also Arbeit in Newton (Nm) pro Zeit in Sekunden (s), lässt sich die erbrachte Leistung in Newtonmeter/Sekunde = Watt = Joule/Sekunde (Nm/s = W = J/s) ermitteln. Bezogen auf das Fahrradergometer, ergibt sich folgender Zusammenhang: Durch das Treten der Fahrradpedale muss eine Kraft längs eines Weges aufgewendet werden.
⊡ Abb. 10.14. Ergometriemessplatz mit Fahrradergometer (Quelle: Ergoline)
126
I
Kapitel 10 · Kardiologische Basisdiagnostik (Ruhe-EKG, Langzeit-EKG, Belastungs-EKG)
gen und Laufbandergometer (insbesondere im angelsächsischen Raum). Wesentliche Anforderungen an ein Ergometer – vornehmlich Fahrradergometer – sind: ▬ Einstellung der Lastgenauigkeit (max. ±5%), ▬ Kontrollgenauigkeit durch Standardisierung bzw. Vergleichbarkeit, ▬ 5 W sollte die kleinste einstellbare Last sein, ▬ Last- und Drehzahlanzeige, ▬ optimierte Verstellmöglichkeiten für unterschiedliche Körpergrößen, ▬ geringer Platzbedarf bei hoher Standfestigkeit.
Drehzahlabhängige und drehzahlunabhängige Fahrradergometer Bei drehzahlabhängigen Fahrradergometern kann die Leistung sowohl durch eine Erhöhung des Bremswiderstands als auch durch erhöhte Tretfrequenz gesteigert werden. Durch Einstellung einer Bremswirkung (Riemen, Bremsbacken, Gewichte oder elektromechanische Wirbelstrombremse), die die Kraft vorgibt, muss eine bestimmte Drehzahl eingehalten werden, um die Leistung exakt ermitteln zu können. Die Umsetzung ist in der Praxis nur schwer realisierbar. Deshalb, aber auch aufgrund der Ungenauigkeit der Reibungskoeffizienten der unterschiedlichen Bremssysteme, ist das drehzahlabhängige Fahrradergometer für die Ergometrie ungeeignet. Daher wurde die Benutzung dieser Geräte für medizinische Untersuchungen untersagt. Bei den heute überwiegend eingesetzten drehzahlunabhängigen Fahrradergometern, die meistens mit einer computergesteuerten Wirbelstrombremse ausgestattet sind, wird nur die zu erbringende Leistung vorgegeben; wird die Tretfrequenz erhöht, sinkt proportional der Widerstand. Die Bremswirkung wird laufend mit der Drehzahl, der aufgewendeten Kraft und der vorgegebenen Last verglichen. Abweichungen werden elektronisch durch Erhöhung oder Verringerung der Bremskraft korrigiert. Die Genauigkeit ist messsystemspezifisch und abhängig von der Konstanz- und Regelgeschwindigkeit der elektronischen Schaltung. Bei guten Systemen liegen die Abweichungen zwischen 1 und 3%. Die Norm gestattet Abweichungen bis 5% der eingestellten Last.
Kenndaten und Kriterien für Fahrrad- und Liegeergometer
▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
Normalergometer 20–450 W Hochleistungsergometer 20–1000 W Drehzahlbereich: 30–100/min oder 30–130/min Belastungsgenauigkeit: nicht kleiner als ±3 W oder 3% (Norm 5%) Belastungsstufen: kleinste Last (5 W) manuell einstellbar Zeitintervall: kleinste Zeiteinheit 1 min Belastungsprogramme: frei programmierbar Sitzhöhenverstellung: stufenlos Lenkerverstellung: stufenlos
10.3.3 Reduzierte Belastungs-EKG-
Ableitungen Ähnlich wie bei den anderen EKG-Ableitungen gibt es heutzutage eine unüberschaubare Vielzahl von Ergometrieableitungsprogrammen. An die reduzierten EKGAbleitungen während des Belastungs-EKGs werden im Wesentlichen zwei Forderungen gestellt: ▬ minimale Störanfälligkeit durch Überlagerung von Muskelpotentialen und Bewegungsartefakten, ▬ qualitative und quantitative Registrierung von STStreckenveränderungen. In der Regel reichen sechs Ableitungen aus. Die Ableitungen können mit mehrfach verwendbaren Spannbandelektroden und einem Elektrodengürtel abgenommen werden. Hygienischer, einfacher und schneller ist der zeitgemäße Einsatz von Einmalklebeelektroden oder einer Elektrodensauganlage. Die Extremitätenableitungen können jeweils auf der rechten und linken Seite der Schulterblätter (Humerusköpfchen) und im seitlichen Bereich der rechten und linken Beckenschaufel angelegt werden. Diese werden am wenigsten von Muskelpotentialen überlagert. Die Brustwandableitungen sind von besonderem Interesse, da ischämische ST-Senkungen und Erregungsrückbildungsstörungen der Vorderwand am stärksten und am häufigsten in diesen Ableitungen erscheinen. Populärste Ableitungspunkte für die Brustwandableitungen sind C2, C4 und C5 oder C6 (⊡ Abb. 10.15). 10.3.4 Automatische ST-Vermessungs-
programme
▬ Bremsprinzip: Computergesteuerte Wirbelstrombremse, drehzahlunabhängig, Drehmomentmessung ▬ Belastungsbereich: in Abhängigkeit von der Probandenklientel
▼
Die Hebung oder Senkung der ST-Strecke im EKG unter Belastung erlaubt diagnostische Rückschlüsse auf koronare Herzerkrankungen und ist daher ein vorrangiges Messziel. Moderne Elektrokardiographen, die meistens ein Ergometrieprogramm anbieten, vermessen und dokumentieren die ST-Strecke sowie die ST-Amplitude automatisch. Zu
127 10.3 · Belastungs-EKG
einen weitgehend standardisierten Ablauf in der Routineuntersuchung und in der Sportmedizin zu (Mellerowicz u. Franz 1983).
Belastungsintensität
⊡ Abb. 10.15. Reduzierte Brustwandableitungen Belastungs-EKG (C2, C4 und C6)
unterscheiden sind kontinuierliche und nichtkontinuierliche ST-Vermessungsprogramme: Bei der kontinuierlichen Vermessung wird jeder aufgenommene QRS-Komplex direkt vermessen und analysiert. Aus einer Anzahl gut korrelierender Schläge (meist 16) wird fortlaufend für jeden Kanal ein Mittelwertschlag gebildet. Im Gegensatz dazu wird bei der nichtkontinuierlichen ST-Vermessung entweder in einem zeitlichen Intervall (z. B. pro Minute) oder nur aus einem Anfangs- und Endkomplex ein Mittelwertschlag gebildet. Mittelwertschlag: Zunächst wird der Anfangs- und Endpunkt des QRS-Komplexes bestimmt. ST-Amplitude und ST-Steigung werden im Punkt J+x vermessen (JPunkt = Junction point, markiert das Ende des QRSKomplexes und den Übergang in die vollständige Erregungsphase [ST-Strecke]). Der Abstand J+x wird in Abhängigkeit von der Herzfrequenz bestimmt. Die isoelektrische Linie wird zwischen P-Welle und QRS-Anfang ermittelt. Die Amplitude im Punkt x ist der Abstand zur berechneten und angezeigten Nulllinie. Die Steigung im Punkt x wird durch den Winkel a angegeben, indem eine Regressionsgerade durch ST-Strecke und x-Punkt gelegt wird.
In der Ergometrie werden grundsätzlich zwei Arten der Belastungsintensität unterschieden: die maximale Ausbelastung und die submaximale Belastung. Bei der maximalen Ausbelastung wird die Belastung so lange gesteigert, bis die physische Leistungsgrenze des Probanden erreicht ist (z. B. sportmedizinische Untersuchungen, Leistungsdiagnostik usw.). Bei der submaximalen Belastung wird so lange belastet, bis medizinisch relevante Probleme auftreten oder deren Zusammenhang mit der Belastung erkannt werden kann (z. B. Rhythmusstörungen, ST-Hebung oder -Senkung usw.). Die Höhe der submaximalen Belastung richtet sich nach der medizinischen Fragestellung. Das Ergebnis kann lange vor dem Erreichen der maximalen Belastung vorliegen.
Lastschritte Die Normungskommission für Ergometrie (ICSPE) hat folgende mit der Belastungszeit verbundene Lastschritte festgelegt: ▬ 5 W: 1 min, ▬ 10 W: 1 min, ▬ 25 W: 2 min, ▬ 50 W: 3 min. Eine Ergometrie nach genormten Regeln besteht aus der Aufwärmphase mit einer Grundlast und mindestens drei dieser vorgegebenen Belastungsschritte sowie einer Erholphase. Die Aufwärmphase soll den Kreislauf anregen und auf die kommende Belastung vorbereiten. Sie hat im Allgemeinen die Zeitdauer des nachfolgenden Belastungsschritts. Die Wattzahl und die Zeitdauer des Belastungsschritts werden nach der physikalischen Leistungsfähigkeit des Probanden gewählt. Als Kriterium gilt außerdem, dass am Ende der Laststufe ein »steady state« erreicht wird. »Steady state« bedeutet Gleichgewicht, in diesem Fall ist gemeint, dass sich sowohl der Puls als auch der Blutdruck am Ende der Belastungsstufe nicht mehr nach oben verändern, sondern dass diese Werte konstant bleiben (Gleichgewicht) (Auswahl der Belastung: Abschn. »Pulse Working Capacity (PWC)«).
10.3.5 Wichtige Punkte des Belastungstest
Da die diagnostischen Fragestellungen und die Zusammensetzung der Patientenklientel sehr unterschiedlich zu bewerten sind, ist ein einheitlicher, standardisierter Belastungstest nicht immer möglich. Die von der internationalen Kommission für Normung in der Ergometrieanwendung (ICSPE) erarbeiteten Richtlinien lassen jedoch
Belastungsgrenzen Als Faustregel für eine maximale Ausbelastung bei der Fahrradergometrie gilt: maximale Herzfrequenz von 220/ min minus Lebensalter des Probanden. Aus Gründen der Probandensicherheit empfiehlt sich für die Routineuntersuchung als Richtwert die sog. submaximale Be-
10
128
Kapitel 10 · Kardiologische Basisdiagnostik (Ruhe-EKG, Langzeit-EKG, Belastungs-EKG)
lastungsgrenze: maximale Herzfrequenz 200/min minus Lebensalter des Probanden.
I
Bewertung der Leistungsfähigkeit Für den diagnosegerechten Ablauf einer Ergometrie ist es sehr wichtig, die Leistungsfähigkeit eines Probanden vor Beginn der Ergometrie ungefähr einzuschätzen. Dazu gilt folgende Regel: Die maximale Sollleistung für den Mann beträgt 3 W/ kg KG minus 10% für jede Lebensdekade jenseits des 30. Lebensjahrs. Die Sollleistung für die Frau beträgt 2,5 W/ kg KG minus 8% für jede Lebensdekade jenseits des 30. Lebensjahrs. Beispiel für die Leistungseinstellung einer Frau im Alter von 65 Jahren mit einem Gewicht von 55 kg: Sollleistung: (2,5 W/kg x 55 kg) – (8% x 3,5 Dekaden) = 137,5 W – 28% = 99 W. Damit liegt die Ausbelastung für diese Frau bei ca. 99 W. Es muss nun eine Grundlast und ein Lastintervall gewählt werden, mit dem der Proband sicher in der Lage ist, drei Belastungsstufen zu bewältigen. Im vorliegenden Fall wäre es empfehlenswert, mit einer Grundlast von 50 W zu beginnen und dann mit Belastungsstufen von 10 W mit 1 min Belastungsdauer bis zur Ausbelastung, die voraussichtlich zwischen 80 und 90 W liegt, zu ergometrieren. Ein weiterer Vorteil der Methode ist, dass bei Probanden mit vergleichsweise geringer Leistung mit kleineren Laststeigerungssegmenten die Leistungsgrenze genauer definiert werden kann.
Nach Anlegen der reduzierten EKG-Ableitungen und der Blutdruckmanschette beginnt die Belastung mittels eines kalibrierten Ergometers nach der beschriebenen Belastungsmethode. Die gebräuchlichen Belastungsprogramme sind bei modernen Ergometriemessplätzen entweder im Ergometer oder im EKG-Gerät gespeichert. Eines dieser beiden Geräte dient bei einer zeitgemäßen Ergometrieuntersuchung als Kommandogerät für den Untersuchungsablauf. Zur lückenlosen Dokumentation erfolgt automatisch nach jeder Belastungsstufe ein EKGZwischenausdruck mit Angabe der Herzfrequenz, des Blutdrucks sowie des Verhaltens der ST-Strecke und der Amplitude. Andererseits ist es aber auch möglich, zu jeder beliebigen Phase eine manuelle EKG-Registrierung zu starten oder über die gesamte Dauer des Tests einen EKG-Trend aufzuzeichnen. Folgende Punkte müssen während der Belastung beachtet werden: ▬ stete Beobachtung des Probanden und der EKG-Verlaufskurven auf dem Monitor, ▬ nach jeder Belastungsstufe Kontrolle des EKG-Streifens sowie des Blutdruckwerts, der Herzfrequenz und des ST-Verhaltens. Nach Beendigung des Belastungstests sowie einer Erholungsphase wird abschließend nochmals ein Ruhe-EKG aufgezeichnet – bei Bedarf auch häufiger – und der Blutdruck wiederholt kontrolliert.
Belastungsarten Pulse Working Capacity (PWC) Abgeleitet von den Regeln der Bewertung der Leistungsfähigkeit und den Regeln für die Belastungsgrenzen erlaubt das PWC-Verfahren einen auf die Pulsfrequenz normierten Leistungsvergleich. Der PWC-Wert beurteilt die Leistungsfähigkeit, d. h. die erbrachte Leistung bei bestimmten Pulsfrequenzen, im Submaximalbereich, wenn die Maximalfrequenz nicht erreicht wurde. Die gewählte Frequenz wird als Index (z. B. PWC150) hinzugefügt. Die Sollwerte der PWC sind nicht altersabhängig, werden aber gewichtsbezogen und geschlechtsabhängig errechnet (Beispiel PWC150: Sollwert für Männer 2,1 W/kg und für Frauen 1,8 W/kg). Diese Werte können den PWCWerttabellen entnommen werden. Gelistet sind die Werte für PWC130, PWC150 und PWC170.
Belastungsablauf Zur Durchführung eines Ergometertests wird eine Raumtemperatur von 18–23°C bei einer relativen Luftfeuchtigkeit von 40–60% empfohlen. Abweichungen sollten protokolliert werden. Vor der eigentlichen Belastung wird ein Ruhe-EKG aufgezeichnet. Es dient als Ausgangsbasis für die spätere Zusammenfassung des Belastungstests.
Die allgemeinen Voraussetzungen eines auswertbaren Belastungstests können folgendermaßen zusammengefasst werden: exakt dosierbar, physikalisch messbar und zu jeder Zeit reproduzierbar. Es gibt eine Vielzahl von Belastungsarten, welche diese Voraussetzungen nicht erfüllen, trotzdem werden sie der Vollständigkeit halber genannt: ▬ Rumpfbeugen bzw. Kniebeugen: Für das BelastungsEKG unzureichend, weil schon die allgemeinen Voraussetzungen (»dosierbar und physikalisch messbar«) nicht erfüllbar sind. ▬ Treppensteigen: Ist ebenfalls für das Belastungs-EKG ungeeignet, da die »Reproduzierbarkeit« in Frage gestellt werden muss, die EKG-Kontrollmöglichkeit fehlt und der Proband nicht ausbelastet werden kann. ▬ Handkurbelergometer: Nachteilig bei diesem Verfahren ist die Störung der EKG-Registrierung durch die Arm- und Thoraxbewegungen des Probanden und die fehlende Ausbelastung (kleine Muskelmasse). Dennoch stellt diese Belastungsart bei Gehbehinderten oftmals die einzige Möglichkeit dar. ▬ Isometrische Belastung (handgrip): Nachteile wie bei Handkurbelergometer. ▬ Stufentest nach Master: Der Einstufen- oder Zweistufentest bietet folgende Vorteile: relativ physiologische Belastungsart, einfacher Bewegungsablauf,
129 10.3 · Belastungs-EKG
standardisiert und deshalb reproduzierbar, einfach durchzuführen, Beanspruchung größerer Anteile der Gesamtmuskulatur sowie geringer finanzieller Aufwand. Nachteile: zeitlicher Umfang für eine Ausbelastung, Abnahme des EKGs und des Blutdrucks ist während der Belastung kaum möglich, und die diagnostische Aussagekraft ist gegenüber der Fahrradund Laufbandergometrie als sehr gering einzustufen. ▬ Kletterstufentest nach Kaltenbach und Klepzig: Dieser Test ist eine Modifikation des Master-Tests, deshalb sind die Vor- und Nachteile ähnlich gelagert. ▬ Laufbandergometer: Das Laufband wird überwiegend bei Leistungssportlern zur Belastung eingesetzt. Die wesentlichen Vorteile der Laufbandergometer sind die physiologische Belastung der Gesamtmuskulatur, die jederzeit reproduzierbar ist, sowie die flexible Belastungsintensität (hier die Laufgeschwindigkeit des Bands). Nachteilig sind die relativ hohen Investitionskosten, die baulichen Voraussetzungen (hier insbesondere der Lärmschutz) und eine begrenzte Belastungsklientel. ▬ Fahrradergometer: Die populärste und am weitesten verbreitete Belastungsart ist die Fahrradergometrie, die im Sitzen oder im Liegen durchgeführt werden kann. Wesentliche Vorteile der Fahrradergometrie im Sitzen sind die physiologische Belastung, der Einsatz des Körpergewichts; des Weiteren wird die Prozedur seitens des Probanden überwiegend als positiv empfunden. Nachteilig sind die Registrierung von EKG und Blutdruck während der Belastung und orthostatische Beschwerden nach der Belastung. Die wesentlichen Vorteile der Liegeergometer bestehen in der störungsfreien Registrierung und der Qualität von EKG und Blutdruck, der größeren Sicherheit vorwiegend bei älteren oder gebrechlichen Menschen und dem Ausbleiben von orthostatischen Beschwerden nach der Belastung.
Standardisierte Untersuchungsprogramme Aus den Anfangszeiten der Ergometrieuntersuchung gibt es noch eine Vielzahl individueller und standardisierter Belastungsprogramme, die der Vollständigkeit halber anhand einiger Beispiele aufgezählt werden: ▬ Standardtestmethode nach Hollmann (beginnt mit 30 W, wird alle 3 min um 40 W gesteigert bis zur Belastungsgrenze), ▬ WHO-Standardprogramm (beginnt mit 25 W, wird alle 2 min um 25 W gesteigert bis zur Belastungsgrenze), ▬ Vita maxima nach Knipping (beginnt mit 10 W, wird jede Minute um 10 W gesteigert bis zur Belastungsgrenze), ▬ Rechtecktest nach Kirchhoff (Belastungsdauer 10 min mit 100 W im Sitzen oder Liegen, alle 2 min Blutdruck-, HF- und EKG-Kontrolle).
Die Ergometrie hat sich jedoch immer mehr zu einer standardisierten Methode nach den international anerkannten Regeln der ICSPE entwickelt. Das hat den Vorteil, dass Untersuchungsergebnisse verschiedener Institute und Untersucher nach den gleichen Vorgaben verglichen und beurteilt werden können. Es ist deshalb für jeden Untersucher Pflicht, sich an diese Regeln zu halten.
10.3.6 Methodische Hinweise
Die meisten Störungen, die während der Ergometrie auftreten, sind patientenbedingt. Ein Großteil dieser Störungen wird von der modernen Gerätetechnologie kompensiert. Trotzdem kann der Proband darauf aufmerksam gemacht werden, dass die notwendige Tretarbeit ohne zu heftige Bewegung des Oberkörpers durchgeführt werden kann. Zwischenfälle bei einer sachgemäß durchgeführten Ergometrie sind äußerst selten, deshalb werden Routineuntersuchungen heute überwiegend von gut eingewiesenen Arzthelferinnen ausgeführt. Nur bei Untersuchungen, bei denen bedingt durch den Allgemeinzustand des Probanden Komplikationen nicht auszuschließen sind, muss die Ergometrie über die gesamte Belastungsdauer hinweg vom Arzt überwacht werden. Gleichzeitig muss eine Krankenschwester bzw. Arzthelferin anwesend sein, um zu assistieren oder im Bedarfsfall rasche Hilfestellungen zu leisten. Eine apparative und medikamentöse Notfallausrüstung sowie ein funktionsfähiger Defibrillator müssen jederzeit griffbereit zur Verfügung stehen.
10.3.7 Diagnostische Wertigkeit
der Ergometrie Für die Erfassung passagerer Myokardischämien ist die ST-Streckenveränderung während des Belastungs-EKGs von höchster Wertigkeit. Darüber hinaus lassen sich koronare Herzerkrankungen eindeutig nachweisen. Die Koronarangiographie hat wesentlich dazu beigetragen, die Interpretation des Belastungs-EKGs zu verbessern, obwohl zwischen beiden ein grundsätzlicher Unterschied besteht: Die Koronarangiographie erfasst die morphologischen Veränderungen der Koronargefäße, das Belastungs-EKG die funktionellen Auswirkungen.
10.3.8 Indikationen
Eine Indikation für ein Belastungs-EKG kann aus diagnostischen, therapeutischen oder prognostischen Gründen angezeigt sein: ▬ Abklärung einer koronaren Herzkrankheit (z. B. Brustschmerzen bei körperlicher Belastung),
10
130
I
Kapitel 10 · Kardiologische Basisdiagnostik (Ruhe-EKG, Langzeit-EKG, Belastungs-EKG)
▬ Abklärung des Blutdruckverhaltens bei Verdacht auf Belastungshypertonie, ▬ Abklärung der Belastbarkeit (z. B. nach Herzinfarkt), ▬ Beurteilung von Herzrhythmusstörungen, ▬ Beurteilung des Verlaufs und des Therapieerfolgs bei Medikamenten, Bewegungstherapie und nach Herzoperationen, ▬ Beurteilung und Klassifizierung des Schweregrades der Belastungskoronarinsuffizienz.
10.3.11 Planerische Hinweise
Eine Raumtemperatur von 18–23°C bei einer relativen Luftfeuchte von 40–60% wird empfohlen. Für die Nutzfläche des Raumes kommen als Richtwert 16 m2 in Betracht. Die Möglichkeit des Umkleidens (Umkleidekabine ca. 3 m2) sowie einer sanitären Einrichtung WC/Dusche (ca. 5 m2) sollten gegeben sein.
Weiterführende Literatur 10.3.9 Abbruchkriterien und
Sicherheitsmaßnahmen Belastungstests sind nicht risikofrei. Es können ein Herzinfarkt oder lebensbedrohliche Rhythmusstörungen auftreten. Um das Risiko zu minimieren, sollten Sicherheitsmaßnahmen vor und nach der Belastungsuntersuchung erfolgen. Vor der Belastung: Informationen aus dem Ruhe-EKG einschließlich Anamnese und Untersuchung sowie Aufklären des Probanden. Wichtig ist, den Probanden darauf hinzuweisen, sich bei subjektiven Beschwerden während der Belastung zu melden. Nach der Belastung sollte der Proband weiter beobachtet (in der Regel 5–10 min), dann sollten wiederholt Kontroll-EKGs geschrieben und Blutdruck gemessen werden. Kriterien zum Abbruch der Ergometrie sind: ▬ zunehmende schwere retrosternal auftretende Schmerzen (Angina pectoris), ▬ horizontale oder deszendierende ST-Senkung von > 0,2 mV, ▬ gehäufte monomorphe oder polytope, ventrikuläre Extrasystolen, ▬ ventrikuläre Salven, ▬ vereinzelte Extrasystolen, die in die T-Welle der vorangegangenen Herzaktion fallen (R-auf-T-Phänomen), ▬ Vorhofflimmern oder -flattern, ▬ schwerwiegende Überleitungsstörungen (z. B. totaler AV-Block), ▬ Erregungsausbreitungsstörungen (z. B. Schenkelblock), ▬ systolischer Blutdruck > 250 mm Hg, diastolischer Blutdruck >130 mm Hg sowie Blutdruckabfall, ▬ auffällige Atembeschwerden (Dyspnoe), ▬ Zeichen einer beginnenden Linksherzinsuffizienz, ▬ EKG-Zeichen eines frischen Myokardinfarktes. 10.3.10 Sicherheitstechnische Aspekte
Tretkurbelergometer unterliegen den Vorschriften des Medizinproduktegesetzes (IIa) sowie der DIN VDE 0750-238. Sie müssen inklusive der evtl. eingebauten nichtinvasiven Blutdruckmessgeräte regelmäßig gewartet werden.
Adamec J (2009) Das Langzeit-EKG, 2. Aufl. Huber Lang, Bern Bolz A, Urbaszek W (2002) Technik in der Kardiologie. Springer, Berlin Heidelberg New York Tokio Csapo G (1980) Konventionelle und intrakardiale Elektrokardiographie, 4. Aufl. Documenta, Geigy, Wehr/Baden Erdmann E (2008) Klinische Kardiologie, 7. Aufl. Springer, Berlin Heidelberg New York Tokio Klinge R (2002) Das Elektrokardiogramm, 8. Aufl. Thieme, Stuttgart Kramme R (1991) Elektrokardiographie. In: Menke W (Hrsg) Handbuch der Medizintechnik. ecomed, Landsberg/Lech Lederhuber HC, Lange V (2010) BASICS Kardiologie, 2. Aufl. Urban & Fischer Löllgen H, Erdmann E, Gitt AK (2009) Ergometrie. Belastungsuntersuchungen in Klinik und Praxis, 3. Aufl. Springer, Berlin Heidelberg New York Tokio Mellerowicz H, Franz IW (1983) Standardisierung, Kalibrierung und Methodik in der Ergometrie. perimed, Erlangen Olshausen K von (2005) EKG-Information, 8. Aufl. Steinkopff, Darmstadt O’Rourke, Robert A (2009) Hurst’s the Heart Manual of Cardiology, 12. Aufl. Mc Graw-Hill Professional, New York Ramrakha P, Hill J (2009) Oxford Handbook of Cardiology, Oxford University Press Webster JG (1988) Encyclopedia of medical devices and instrumentation (Vol 2). Wiley, Wisconsin-Madison Trappe H-J, Löllgen H (2000) Leitlinien zur Ergometrie. Z Kardiol 89: 821–837
11 Lungenfunktionsdiagnostik R.M. Schlegelmilch, R. Kramme
11.1
Spirometriesysteme
11.1.1 11.1.2 11.1.3 11.1.4 11.1.5
Einführung – 131 Pneumotachographie – 131 Gerätetechnik – 132 Methodische Grundlagen der Spirometrie – 136 Mitarbeitsfreie Lungenfunktionstests – 140
11.2
Weiterführende kardio-pulmologische Funktionsdiagnostik – 141
11.2.1 11.2.2 11.2.3 11.2.4
Übersicht – 141 Bodyplethysmographie – 142 Diffusionskapazität – 145 Stickstoff-Washout-Verfahren zur FRCBestimmung – 148
11.1
– 131
Spirometriesysteme
11.1.1 Einführung
Spirometer sind nichtinvasive Diagnostikgeräte, die zur einfachen Lungenfunktionsprüfung bei pulmonalen Routineuntersuchungen verwendet werden. Die Spirometrie bietet bei geringem Aufwand und kurzer Untersuchungsdauer grundlegende Erkenntnisse über die Art und das Ausmaß pneumologischer Funktionsstörungen. Angesichts der großen Häufigkeit von Atemwegserkrankungen wie Asthma, Bronchitis und Emphysem, gehört die apparative Lungenfunktionsdiagnostik heute zum unentbehrlichen Standard in der Klinik und niedergelassenen Praxis, der Arbeits- und Präventivmedizin sowie Epidemiologie, um sowohl gefährdete als auch bereits erkrankte Patienten untersuchen und adäquat behandeln zu können. Zwei der elementaren Fragen der Lungenfunktionsprüfung können mit Hilfe der Spirometrie beantwortet werden: 1. Wie groß ist das Lungenvolumen, welches ein- oder ausgeatmet werden kann? 2. In welcher Zeit bzw. mit welcher Strömung wird dieses Volumen ein- oder ausgeatmet? Die Atemstromstärke und das daraus resultierende Lungenvolumen werden unmittelbar am Mund des Probanden erfasst. Zur Messung wird ein Mundstück verwendet, sodass die Atemluft direkt über den spirometrischen Sensor ein- bzw. ausgeatmet wird. Gebräuchlich
11.2.5 11.2.6 11.2.7 11.2.8
Ergospirometrie – 148 Nichtinvasive Bestimmung des Herzzeitvolumens (HZV) – 151 Metabolisches Aktivitätsmonitoring – 152 Planerische Hinweise und bauliche Voraussetzungen – 153
Literatur
– 153
Weiterführende Literatur
– 153
ist die Registrierung der forcierten Exspiration, also der schnellen Ausatmung nach vollständiger Einatmung, zur Bestimmung der forcierten Vitalkapazität (FVC) und des Einsekundenwertes (FEV1), im Deutschen auch als Atemstoßtest oder Tiffeneau-Test bezeichnet. Die graphische Registrierung dieser Messung kann als forciertes Spirogramm, Volumen gegen die Zeit oder, besser, als Fluss-Volumen-Kurve erfolgen. Im Rahmen der forcierten Atmung können mehrere Dutzend Parameter zur Auswertung kommen, die vorwiegend die Größe und Form der Fluss-Volumen-Kurve beschreiben (⊡ Abb. 11.1), wobei FVC und FEV1 die wichtigsten und gebräuchlichsten Messwerte sind. Neben der forcierten Spirometrie kann auch die langsame Spirometrie, also die Registrierung der langsamen In- und Exspiration, durchgeführt werden. Letztere dient zur Erfassung der Lungenteilvolumina (Atemzugvolumen VT, Inspiratorisches und Exspiratorisches Reservevolumen IRV und ERV, Inspiratorische Kapazität IC), die meist jedoch nur im Zusammenhang mit weiterführenden Lungenfunktionsuntersuchungen Verwendung finden (vgl. auch Abschn. 11.2.2 »Bodyplethysmographie«).
11.1.2 Pneumotachographie
Die Grundlage für alle Lungenfunktionsmessungen bildet die Erfassung der Gasströmungsgeschwindigkeit gegen die Zeit, ein Vorgang, der auch als Pneumotachographie bezeichnet wird. Im medizinischen Anwendungsbereich ist die Strömungsgeschwindigkeit
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _11, © Springer-Verlag Berlin Heidelberg 2011
132
Kapitel 11 · Lungenfunktionsdiagnostik
I
a
b
⊡ Abb. 11.1a,b. a Spirogramm und b Fluss-Volumen-Kurve
[cm/s] jedoch nur Mittel zum Zweck. Sie dient nämlich zur Bestimmung der bei bekanntem Sensordurchmesser resultierenden Strömungsmenge [l/s]. Synonym für Strömungsmenge werden auch die Bezeichnungen Strömung, Volumenfluss oder Fluss verwendet. Auch die englische Bezeichnung »Flow Rate«, also Strömungsrate, ist zutreffend, da tatsächlich eine Strömungsmenge pro Zeiteinheit gemessen wird. Der Schweizer Physiologe Fleischer veröffentlichte bereits 1925 grundlegende Arbeiten über die klinische Anwendung der Pneumotachographie. Während früher Pneumotachogramme und Fluss-Volumen-Kurven mittels Schreiber aufgezeichnet und mühsam von Hand ausgewertet werden mussten, wird dies heute rechnergestützt durchgeführt. Die Atemstromstärke wird dabei fortlaufend elektronisch oder digital zum Atemvolumen integriert. Der Pneumotachograph, also der Flusssensor, der die spirometrische Messung ermöglicht, ist heute Kernstück eines jeden Lungenfunktionsmesssystems, vom kleinen handgehaltenen Peakflowmeter bis hin zum Bodyplethysmographen (⊡ Abb. 11.2).
11.1.3 Gerätetechnik
Wurden in der Vergangenheit noch geschlossene oder halb-offene Messsysteme wie Glocken- oder KeilbagSpirometer verwendet, werden heute wegen der geringeren Baugröße, der für den Patienten angenehmeren Messbedingungen und der weit günstigeren hygienischen Bedingungen »offene« Messgeräte eingesetzt. Offene Systeme sind solche, bei denen der Proband in die freie Atmosphäre (Umgebungsluft) aus- bzw. einatmet. Dies geschieht i. d. R. über einen ventillosen Flusssensor, der
für bestimmte, spezielle Untersuchungen, insbesondere bei weiterführenden Untersuchungsverfahren, auch mit einem Atemventil gekoppelt werden kann. Das Messgerät erfasst den Atemstrom und bildet durch digitale Integration gleichzeitig das Volumensignal: . V = ∫Vdt [l]; [11.1] . dV –1 dabei ist V das geatmete Volumen, V = [l . s ]; die dt Atemstromstärke. In ⊡ Abb. 11.3 wird das Pneumotachogramm (Atemstrom) dem daraus integrierten Spirogramm (Atemvolumen) gegenübergestellt. Die Aufzeichnung der Atemkurven und die Berechnung abgeleiteter Parameter erfolgt in aller Regel in digitaler Form online in einem eingebauten Mikrocomputer oder einem PC. Messbereich
Der physiologisch erforderliche Messbereich für die Messung der Atemströmung beträgt mindestens 25 ml/s bis 10 l/s, optimal 10 ml/s bis 15 l/s, und benötigt eine Auflösung von 5–10 ml/s. Somit werden sehr hohe Anforderungen an die technische Auslegung des Flusssensors gestellt. Die in der Atemkurve enthaltene Anstiegsgeschwindigkeit benötigt zudem einen linearen Frequenzgang bis mindestens 5 Hz, um den ersten Teil der forcierten Ausatmung korrekt erfassen zu können. Kalibration und Verifikation
Unverzichtbar ist die Möglichkeit zur Kalibration des Sensors bzw. zumindest zur Verifikation der Messwerte. Die Kalibration oder Verifikation wird üblicherweise mit Hilfe einer Handpumpe, die ein bekanntes Volumen von mindestens 2 l aufweist, durchgeführt. Bei Betätigen
133 11.1 · Spirometriesysteme
⊡ Abb. 11.2. Pneumotachograph (Werksfoto: ndd Medizintechnik AG, Zürich)
dem Sensor eingelesen (z. B. von einem programmierten Chip im Stecker). Digitale Systeme, wie z. B. solche mit Ultraschallsensor, benötigen keine laufende Kalibrierung. Bei diesen Systemen ist jedoch eine gelegentliche Volumenverifikation anzuraten. Die American Thoracic Society (ATS) hat Empfehlungen (ATS/ERS TASK FORCE. Miller MR et al. 2005b) herausgegeben, die vor Marktzulassung eine Typenprüfung des Spirometers mittels standardisierter Fluss-Volumen-Kurven fordern. Diese Kurven decken den gesamten physiologisch und pathophysiologisch vorkommenden Messbereich ab. Die Typenprüfung findet in unabhängigen Testlabors statt, die motorisierte, prozessorgesteuerte Kalibrationspumpen verwenden, mit denen die Spirometer getestet werden. Nachdem diese Prüfung Teil des in den USA vorgeschriebenen Zulassungsverfahrens ist, kann man davon ausgehen, dass dort vermarktete Spirometer diesen Anforderungen genügen. Vor Beschaffung eines Gerätes sollten deshalb beim Hersteller oder Vertreiber die vom Spirometer erfüllten Genauigkeitsnormen der ERS und ATS Spirometrie-Standards erfragt werden. Hygiene
⊡ Abb. 11.3. Vergleich Pneumotachogramm und Spirogramm
der Kalibrationspumpe entsteht eine Strömung, die vom Flusssensor erfasst und anschließend im Gerät zu Volumen integriert wird. Nach einem kompletten Pumpenhub muss das Spirometer das Pumpenvolumen wiedergeben. Durch unterschiedlich schnelle Kolbenbewegung kann eine variable Atemströmung im Bereich bis +10 l/s simuliert werden, um den gesamten Messbereich abzudecken. Die meisten Spirometer verfügen über ein Kalibrationsprogramm, wodurch der Abgleichvorgang erheblich erleichtert wird. In der Kalibrationsroutine wird automatisch ein Mittelwert über mehrere Pumpenhübe gebildet und die Abweichung des Messwertes vom Kalibrationswert direkt angezeigt. Ein entsprechender Kalibrationsfaktor wird dann für weitere Messungen berücksichtigt, bis die nächste Kalibration erfolgt. Die Kalibration muss ohne Berücksichtigung der bei der Messung erforderlichen BTPS-Korrektur (s. unten) durchgeführt werden. Zunehmend werden Messsysteme verwendet, die vorkalibrierte (disposable) Sensoren einsetzen. Die Kalibrationswerte werden von einem Rechner automatisch aus
Wegen der Gefahr einer Kreuzkontamination bei Messungen an unterschiedlichen Personen oder Patienten sind geeignete Maßnahmen zu treffen, um eine am Spirometer erworbene Infektion wirksam und zuverlässig zu vermeiden. Ist der Flusssensor fest installiert und nicht leicht auswechselbar, ist die Verwendung eines disposablen Atemfilters unverzichtbar. Der Atemfilter sollte, wie auch der Sensor selbst, nur einen geringen Widerstand aufweisen, um die Atmung nicht zu behindern. Ist der Flusssensor leicht zu wechseln, muss stets ein gereinigter Sensor verwendet werden. Für normale Untersuchungen wird keine Sterilität des Sensors gefordert; eine Desinfektion der Sensorteile nach Herstellerangaben ist ausreichend. In vielen modernen Spirometern kommen Einmalteile zum Einsatz, wodurch ausreichende Hygiene bei einfacher Handhabung gewährleistet wird. Der Einmalsensor birgt jedoch den Widerspruch in sich, dass auch ein kostengünstiger (Wegwerf-)Sensor eine hohe Messgenauigkeit aufweist. Letztlich sollte der Einmalsensor nicht (viel) teurer sein als ein Atemfilter, jedoch die o. a. Anforderungen an Genauigkeit und Auflösung erfüllen. Anwendungstechnisch vorteilhaft sind solche Sensoren, die Einmalteile verwenden, die lediglich die Hygiene sicherstellen und nicht unmittelbarer Bestandteil des Sensors sind, somit auch keinen direkten Einfluss auf die Messgenauigkeit ausüben. Die Europäische Gesellschaft für Respiration (ERS) hat zu Sensor- und Filterwiderstand, Kalibration und Hygiene Empfehlungen herausgegeben, die Beachtung finden sollten (ATS/ERS TASK FORCE. Miller MR et al. 2005a).
11
134
Kapitel 11 · Lungenfunktionsdiagnostik
Umrechnung auf Körperbedingungen BTPS
I
Im offenen Messsystem ist es erforderlich, dass die gemessene Strömung und damit das Volumen auf »Lungenverhältnisse« oder Körperbedingungen BTPS (Body Temperature Pressure Saturated, 37°C, 760 mmHg, 100% relative Feuchte) korrigiert werden. Die Korrektur muss inspiratorisch (1 l Umgebungsluft entspricht ca. 1,1 l Lungenluft) und exspiratorisch (1 l Lungenluft entspricht ca. 0,97 l am Sensor), abhängig von Sensorprinzip und Bauweise erfolgen. Ohne Umrechnung auf BTPS-Bedingungen können erhebliche Abweichungen der Messwerte mit Fehlern von über 10% entstehen. Umrechnungsformeln auf BTPS-Bedingungen finden sich z. B. in (European Respiratory Society 1993). In den heute erhältlichen Spirometern wird üblicherweise automatisch auf BTPS-Bedingungen korrigiert. Im Folgenden werden die Messprinzipen heute gebräuchlicher Flusssensoren und deren mögliche Vor- und Nachteile kurz dargestellt.
Differentialdruck-Flowmeter Die Messung des differentialen Drucks (p1–p2) in einem Messrohr mit integriertem, definiertem Widerstand ist die klassische Methode zur Bestimmung der Atemströmung. Die Art des eingesetzten Widerstands bezeichnet die Messmethode. Der turbulente Atemstrom aus der Trachea via Mund wird über einen dem Messaufnehmer vorgeschalteten Rohrstutzen und/oder einen Atemfilter, der als Atemstromgleichrichter dient, »laminarisiert«, da sich der Druckabfall vor und nach dem Widerstand nur bei einem laminaren Atemstrom proportional zur Atemgeschwindigkeit verhält. Je nach Flussrichtung ist der Atemdruck vor dem Widerstand größer als nach dem Widerstand. Die Druckdifferenz vor und nach dem Widerstand ist proportional der Atemstromgeschwindigkeit und deren jeweiligen Änderungen. Die Druckdifferenzen werden fortlaufend über Druckwandler in elektrische Signale übergeführt und nach Digitalisierung weiter verarbeitet. Ein generelles Problem bei allen Flow messenden Systemen, die mit Druckwandlern arbeiten, ist die Nullpunktstabilität. Geringste Unsymmetrien im Messsignal, z. B. Drifts durch Erwärmung des Messwandlers, wirken sich als »künstliche« Strömung aus, die sich laufend als Volumen aufintegriert. Um diesen Effekt zu vermeiden, wird ein Flowbereich definiert, in dem keine Strömung gemessen wird (»tote Zone«) und demnach keine Volumenintegration stattfindet. Dieser Bereich ist möglichst klein zu halten und darf 10–15 ml/s nicht übersteigen. Pneumotachograph nach Fleisch
Das pneumotachographische Messprinzip nach Fleisch (⊡ Abb. 11.4) war bis in die 1980er Jahre das am weitesten
verbreitete Flowmeter. Im Messaufnehmer ist ein Kapillarbündel (Röhrchen) als fester Widerstand integriert. Über weite Messbereiche ist der vielfach geteilte Atemstrom in den einzelnen Kapillaren laminar. Die Druckdifferenz ergibt sich nach dem physikalischen Gesetz von Hagen-Poiseuille und lässt sich bei laminarer Strömung wie folgt ableiten: . 8ηl . [11.2] Δp = k .V = 4 V r Hier bedeuten: k Konstante, deren Größe von der Viskosität und der Rohrbeschaffenheit abhängt, l Länge der Röhre, r Röhrenradius, η. Viskositätskonstante, V Volumendurchfluss. Bei dem Pneumotachographen nach Fleisch, der auch als Fleischsches Staurohr bezeichnet wird, erzielt man die Linearität zwischen Druckdifferenz und Strömungsgeschwindigkeit durch Anordnung einer großen Anzahl parallel angeordneter Röhrchen. Diese Linearität der Flussmessung war früher Voraussetzung, um eine direkte Registrierung und Ablesung der Strömung auf einem Schreiber zu ermöglichen. Heute kommen auch vermehrt nichtlineare Systeme zum Einsatz, da Mikroprozessoren zur online Messwertberechnung und Kurvendarstellung eingesetzt werden. Allerdings müssen diese Systeme regelmäßig einer Kalibration oder Verifikation unterzogen werden. Wesentlicher Nachteil beim Fleischschen Rohr und anderen mit Widerständen arbeitenden Pneumotachographen ist die Kontamination mit Sputum, die schon bei kleinsten Tröpfchen zu Widerstandsänderungen und damit zu teils erheblichen Messwertverfälschungen führt. Bei einigen Systemen ist deshalb ein Krümmer vorgeschaltet, um einerseits das Sputum abzufangen und andererseits die Strömung in den nachgeschalteten Sensor zu laminarisieren. Ein weiteres probates Mittel gegen Sputum ist die Verwendung eines Einmalatemfilters, was heute aufgrund der hygienischen Anforderungen Standard sein sollte ( Abschn. 11.1.3 »Gerätetechnik«). Pneumotachograph nach Lilly
Werden Drosselstellen in Kanülen laminar durchströmt, so ergibt sich ein proportionaler Druckabfall bis zu Reynolds-Werten von ca. 10. Dies gilt auch, wenn eine Reihe solcher Drosseln, etwa in Form eines engmaschigen Netzes oder Gitters, parallel angeordnet und gleichmäßig durchströmt wird. Dabei ist ausschlaggebend, dass die Maschenweiten sehr gering und der Durchmesser der Netzflächen relativ groß sind. Eine erhebliche Verbesserung der Linearität des Systems lässt sich durch die Kombination verschiedener Metallnetze erzielen. Allerdings steigt damit auch der Strömungswiderstand an.
135 11.1 · Spirometriesysteme
⊡ Abb. 11.4. Pneumotachograph nach Fleisch (schematisch)
Lamellen-Spirozeptor
Bei diesem pneumotachographischen Prinzip dient eine lamellenartig geschlitzte Folie als Widerstandselement. Auch hier ergibt sich ein zur durchgehenden Strömung proportionaler Druckabfall. Die Lamellen reagieren weniger empfindlich auf Verschmutzung mit Sputum. Der Spirozeptor lässt sich leichter reinigen. Turbulenz-Flowmeter
Neben den beschriebenen Pneumotachographen mit linearen Widerstandselementen gibt es Messinstrumente, die den Druckabfall bei turbulenten Strömungen durch eine variable Öffnung bestimmen. In den meisten Fällen wird dieses Prinzip bei Langzeit-Flow-Monitoring genutzt, bei dem hoch genaue Messungen des Flusses bzw. ein breiter Flussbereich nicht erforderlich sind.
Turbinen-Flowmeter Diese Art von Flowmeter (synonym: digitaler Volumentransducer) wird als Propeller oder Turbine inmitten des Atemstromaufnehmers integriert, sodass die Atemströmung diesen direkt in beiden Flussrichtungen passieren muss. Die damit verbundene Rotation der Turbine oder des Propellerflügels reflektiert oder unterbricht das Licht eines oder mehrerer LEDs. Photodioden registrieren diese Reflexionen oder Unterbrechungen und setzen sie in elektrische Impulse um. Das Atemgasvolumen, das
diesen Transducer passiert, verhält sich proportional zur Gesamtanzahl der Impulse, während der Atemstrom sich proportional zur Häufigkeit dieser erzeugten Impulse verhält.
Hitzedrahtanemometer Das Messelement besteht aus einem strömungsmechanischen Teil (Venturi-Rohr) und zwei geheizten Drähten im Strömungskanal. Beide Heizdrähte sind Bestandteil einer elektrischen Messbrückenschaltung (WheatstoneBrücke). Der eine Draht, bestehend aus zwei unterschiedlich aufgeheizten Platindrähten, erfasst die Temperatur des strömenden Gases. Der zweite Draht wird über eine elektronische Regelsteuerung so versorgt, dass die an das strömende Gas abgegebene Wärmemenge sofort in Form von elektrischer Leistung wieder zugeführt wird. Daraus resultiert ein Gleichgewichtszustand zwischen zugeführter elektrischer Leistung und abgegebener Wärmemenge. Somit ist die zugeführte elektrische Leistung ein Maß für die Strömungsgeschwindigkeit des zu messenden Gases. Ein neueres, verfeinertes Prinzip des Hitzedrahtanemometers (Mass Flow Meter) beruht auf der Bestimmung des Gasmassenflusses, die die Menge der vorbei fließenden Gasmoleküle pro Zeiteinheit bestimmt. Wesentlicher Vorteil dieses Prinzips ist die Unabhängigkeit von der Temperatur und Gaszusammensetzung.
11
136
Kapitel 11 · Lungenfunktionsdiagnostik
Wirbelfluss-Flowmeter
I
Das Phänomen von strömenden Wirbeln wurde bereits 1518 von Leonardo da Vinci beobachtet und aufgezeichnet. Grundsätzlich entstehen Wirbel aus Wellen, die in einer Strömung auf Widerstand stoßen. Beim Wirbelfluss-Flowmeter wird die Atemströmung an einem feststehenden Widerstandselement, dem sog. Bluff Body, vorbeigeleitet, wodurch sich stehende Wirbel bilden. Art und Häufigkeit der Wirbelbildung sind abhängig von der Geschwindigkeit der Atemströmung. Die Anzahl der erzeugten Wirbel kann durch unterschiedliche Messtechniken ermittelt werden: Piezoelektrische Elemente, Temperatursensoren oder optische Lichtfasern. Das Verfahren kann nur unidirektional messen und ist somit für die fortlaufende Spirometrie ungeeignet.
Ultraschall-(Transit-time-)Flowmeter Das Prinzip dieser Methode (⊡ Abb. 11.5) basiert auf der Durchgangszeitdifferenz: Mittels der Fortpflanzungsgeschwindigkeit von akustischen Wellen in einem strömenden Medium kann die Strömungsgeschwindigkeit ermittelt werden. Die Fortpflanzungsgeschwindigkeit der akustischen Wellen erhöht sich um den gleichen Betrag wie die Richtungsgröße des Flussgeschwindigkeitsvektors bei der Schallübertragung. Bei der technischen Umsetzung werden drei Grundprinzipien unterschieden: ▬ Kontinuierliche Phasenverschiebung: hierbei wird die Phasenverschiebung des kontinuierlich übertragenen Ultraschallsignals gemessen. ▬ Impulsphasenverschiebung: die Phasenverschiebung zwischen Abweichungen der Ultraschallsinuswellen wird ermittelt. ▬ Time-of-flight-Impuls: die Durchgangszeit des übertragenen Ultraschalls (Transmitter/Receiver) wird gemessen.
Während das Prinzip der Phasen- und Impulsphasenverschiebung in der Medizin nicht kommerzialisiert wurde, wird das Time-of-flight-Prinzip (Buess et al. 1986) immer häufiger in der Spirometrie eingesetzt und hat sich in der Praxis durchgesetzt und bewährt. Bei diesem Verfahren sind schräg zum Atemrohr Ultraschallelemente angeordnet, die kurze Schallimpulse emittieren. Die Transitzeiten der Impulse werden abwechselnd in beiden Richtungen ermittelt. Die Differenz der Transitzeiten ist proportional zur Strömungsgeschwindigkeit, unabhängig von allen anderen Störeinflüssen wie Temperatur, Feuchte oder Viskosität des Atemgases. In einer technischen Realisierung des Ultraschall-Flowmeters wird ein disposables Atemrohr verwendet, das den Ultraschallelementen gegenüberliegende, durch Folien verschlossene Fenster aufweist, die für den Ultraschall transparent, aber für Keime nicht durchlässig sind. Das Verfahren besticht durch seine hohe Messgenauigkeit, seine Kalibrationsfreiheit, die absolute Hygiene und die zusätzliche Möglichkeit, die Molmasse des Atemgases zu ermitteln. Die Molmasse, also das spezifische Gewicht des Gases, ergibt sich aus der Summe der Transitzeiten. Bei der Ausatmung ergibt sich eine Molmassekurve, die der CO2-Kurve ähnlich ist (vgl. Abschn. 11.1.5 »Mitarbeitsfreie Lungenfunktionstests«).
Peak-Flowmeter Zur Langzeitüberwachung oder therapeutischen Kontrolle von Patienten mit obstruktiven Lungenkrankheiten eignet sich die Peak-Flowmetrie. Das klassische, mechanische Peak-Flowmeter ist eine einfache Konstruktion, die aus einem Messrohr mit einer Skalierung (l/min) und einem Hubkolben besteht. Die forcierte Exspiration bewegt den durch die Atemluft angetriebenen Hubkolben auf der Skalierung nach oben. Der maximale exspiratorische Spitzenfluss (PEF = Peak Expiratory Flow) kann so ermittelt werden. Moderne Peak-Flowmeter verwenden eines der oben beschriebenen Messprinzipien, in aller Regel eine Turbine, und beinhalten eine elektronische Auswertung, meist mit Speicher und Tagebuchfunktion, teilweise mit Datenübertragung per Modem.
11.1.4 Methodische Grundlagen der Spirometrie
Statische Lungenvolumina
⊡ Abb. 11.5. Prinzip des Ultraschall Flowmeter (ndd Medizintechnik AG, Zürich)
Der Gastransport in den Lungen hängt davon ab, wie schnell und gleichmäßig sich das Lungenvolumen ändern kann. Statische Lungenvolumina werden bei langsamer Atmung und mit Methoden gemessen, bei denen die Gasströmungsgeschwindigkeit eine untergeordnete Rolle spielt. Werden zwei oder mehrere Teilvolumina zusammen gemessen, spricht man von einer Kapazität. Das Lungenvolumen am Ende einer tiefen Einatmung nennt man
137 11.1 · Spirometriesysteme
⊡ Tab. 11.1. Bewertung der Flusssensor-Prinzipien Vorteile
Nachteile
Pneumotachograph nach Fleisch
Bewährtes Messprinzip Mechanisch sehr stabil
Verschiedene Sensoren für unterschiedliche Messbereiche Empfindlich auf Verunreinigung Schwierig zu reinigen Kalibration erforderlich
Pneumotachograph nach Lilly
Bewährtes Messprinzip Mechanisch stabil Reinigung möglich
Empfindlich auf Verunreinigung Kalibration erforderlich
Lamellen-Spirozeptor
Bewährtes Messprinzip Geringes Gewicht Einfache Reinigung
Kalibration erforderlich
Turbulenz-Flowmeter
Einfacher Sensoraufbau, auch als Einmalsensor verfügbar Klein, leicht
Geringer Messbereich Kalibration erforderlich
Turbinen-Flowmeter
Einfacher Sensoraufbau Klein, leicht
Häufige Reinigung und Kalibration erforderlich
Hitzedrahtanemometer
In der Ausführung als Massenflowmeter gute Genauigkeit
Einfaches Anemometer zu ungenau Kalibration erforderlich
Wirbelfluss-Flowmeter
Einfacher Sensoraufbau
Nicht in der Routine bewährt Nur unidirektional Kalibrationsprobleme
Ultraschall-Flowmeter
Einfacher Sensoraufbau Leicht, klein, hohe Genauigkeit, kalibrationsfrei
die totale Lungenkapazität (TLC). Sie setzt sich aus der Summe des Residualvolumens (RV), das nicht ausgeatmet werden kann, und der Vitalkapazität (VC) zusammen. Ermittelt wird die TLC mit der Indikatorgasmethode oder der Bodyplethysmographie in Kombination mit der Spirometrie. Die Totalkapazität ist ein Maß der maximalen Lungengröße. Die Vitalkapazität (VC) ist das maximale Volumen, das nach einer kompletten Exspiration inspiriert (IVC) oder nach einer kompletten Inspiration exspiriert (EVC) werden kann. Die Vitalkapazität umfasst folgende Teilvolumina: ▬ Atemzugvolumen (VT), das während des Atemzyklus ein- und ausgeatmet wird; ▬ Inspiratorisches Reservevolumen (IRV), das nach einer normalen Inspiration noch zusätzlich maximal eingeatmet werden kann; ▬ Exspiratorisches Reservevolumen (ERV), das von der Atemruhelage aus exspiriert werden kann; ▬ Inspiratorische Kapazität (IC), die Summe aus VT und IRV. Die funktionelle Residualkapazität (FRC) kann wie die TLC nur mit aufwändigeren Methoden gemessen werden.
Das Residualvolumen ist die Differenz zwischen der funktionellen Residualkapazität und dem exspiratorischen Reservevolumen ( Abschn. 11.2 »Weiterführende kardiopulmologische Funktionsdiagnostik«). Die spirometrische Erfassung der Lungenteilvolumina ohne Bestimmung der FRC macht nur bei besonderen Fragestellungen Sinn und wird deshalb in der Routine wenig durchgeführt.
Dynamische Lungenvolumina Die Bestimmung der dynamischen Lungenvolumina, allen voran der forcierten Vitalkapazität und des Einsekundenvolumens FEV1, gehört zur internistischen Basisdiagnostik. Die forcierte Exspiration liefert dabei wesentliche Hinweise nicht nur über das Vorliegen einer Obstruktion der Atemwege im Sinne einer Querschnittsreduktion, sondern auch über einen möglichen Retraktionsverlust der Lunge, einen damit einhergehenden Elastizitätsverlust und eine Instabilität der Atemwege. Die Verringerung der Lungenelastizität spiegelt meist den Verlust an funktioneller Gewebsstruktur wider, wodurch die Lunge an Gasaustauschoberfläche verliert. Höherer Ventilationsbedarf und geringere maximale Sauerstoffaufnahme sind
11
138
I
Kapitel 11 · Lungenfunktionsdiagnostik
die Folge. Die forcierte Inspiration kann zur Erfassung einer extrathorakalen Obstruktion, z. B. einer Stenose in der Trachea, dienen. Wurde in der Vergangenheit aus technischen Gründen vorwiegend nur das forcierte Spirogramm aufgezeichnet, wird heute üblicherweise die Fluss-Volumen-Kurve online dargestellt. Der zeitliche Verlauf des Spirogramms zeigt auf den ersten Blick die Ausatemzeit, die bei einem Lungengesunden drei, beim obstruktiven Patienten allerdings bis zu 10 s und mehr beträgt. Das forcierte Spirogramm hat die Form einer exponentiellen Funktion, seine Formbewertung benötigt somit einiges Verständnis. Im Gegensatz dazu bewirkt die Darstellung in den Fluss-Volumen-Koordinaten eine Linearisierung: Beim Lungengesunden ergibt sich nach schnellem Anstieg zum Peak Flow ein geradliniger Abfall. Die Abweichung von der Geraden, die konkave Formbildung, gleichbedeutend mit einer Flussverminderung, ist augenfällig und kann einfach erkannt und interpretiert werden. Die nachfolgende ⊡ Tab. 11.2 enthält die wichtigsten Parameter des forcierten Spirogramms bzw. der Fluss-Volumen-Kurve. Die Liste der aus dem forcierten Spirogramm und der Fluss-Volumen-Kurve abgeleiteten Parameter ließe sich (fast) beliebig fortsetzen. Neben der numerischen Auswertung sollte die Formanalyse der Fluss-Volumen-Kurve unbedingt Beachtung finden (⊡ Abb. 11.6a–e).
⊡ Tab. 11.2. Die wichtigsten Parameter des forcierten Spirogramms und der Fluss-Volumen-Kurve Parameter
Dimension
Beschreibung
FVC
l
Forc. Vitalkapazität
FEV1
l
Einsekundenwert
FEV1/FVC
%
Rel. Einsekundenwert
FEVt
l
z. B. FEV0.5, FEV1, FEV2
PEF
l/s
Peak Flow
FEF 25/25
l/s
Mittlerer Fluss (forc. Spirogramm)
MEF 25
l/s
Maximaler Fluss nach 25% der Ausatmung
MEF 50
l/s
Maximaler Fluss nach 50% der Ausatmung
MEF 75
l/s
Maximaler Fluss nach 75% der Ausatmung
MTT
s
Mean Transit Time
FIV1
l
Insp. Einsekundenwert
MIF 50
l/s
Maximaler Fluss nach 50% der Einatmung
Kurvendarstellung, Ergebnisse Die Online-Darstellung und Dokumentation der FlussVolumen-Kurve kann mittlerweile als in der Spirometrie üblicher Standard angesehen werden. Schließlich ist sie in Deutschland auch Voraussetzung für die Abrechenbarkeit nach den ärztlichen Gebührenordnungen (EBM und GOÄ). Auch die fortlaufende Messung des gesamten Atemzyklus und Dokumentation der forcierten In- und Exspiration wird dort gefordert. Die Kurven sollten in ausreichender Größe dargestellt werden. Bei der Wiedergabe der Fluss-Volumen-Kurve ist das xy-Verhältnis, der sog. Aspect Ratio, wichtig, um einen Kurvenvergleich, z. B. vor und nach Gabe von Broncholytika, und eine Formanalyse vornehmen zu können.
Praktische Hinweise zur Durchführung Grundsätzlich gilt für jede Lungenfunktionsprüfung, dass die Qualität der Messung von der Kooperation des Probanden und den (anspornenden) Anleitungen des Personals abhängt. Nachdem das Lungenfunktionsgerät vorbereitet wurde (Überprüfung des Gerätes nach Einschaltung, neues Einmalmundstück oder Atemfilter aufsetzen, Kalibration nach Herstellerangaben durchführen, evtl. neue Schlauchsysteme verwenden etc.), wird dem Probanden der Messvorgang erläutert. Vor und während jeder Messung erfolgt die überaus wichtige Erläuterung des Atemmanövers, vor allem der Forcierung und die Bedeutung der vollständigen Aus- bzw. Einatmung. Der Proband sollte frei und ungehindert atmen können. Weiterhin muss der Proband eine Nasenklemme tragen. Eine Probemessung vor der eigentlichen Messung ist zu empfehlen. Alle Tests sind in einheitlicher Position durchzuführen, in der Regel sitzend. Bei Reihenuntersuchungen oder arbeitsmedizinischen Untersuchungen kann auch eine stehende Position gewählt werden. Bei Kindern und älteren Patienten, die das Mundstück mit den Lippen nicht fest umschließen können, ist die Verwendung eines Mundstücks mit Dichtlippe sinnvoll. Für Kinder sind kleinere Mundstücke erforderlich. Die Verwendung eines Einmalatemfilters sollte zum einen aufgrund der hygienischen Erfordernis und zum anderen als Schutzvorrichtung des wieder verwendbaren Sensors gegenüber Sputum obligat sein. Bei neueren Geräten finden Einmalsensoren Anwendung, die eine Kreuzkontamination verhindern und deshalb keine Atemfilter benötigen. Sowohl die ERS (Europäische Gesellschaft für Respiration) als auch die ATS (American Thoracic Society) fordern in ihren Standards, dass regelmäßig, mindestens einmal täglich, eine Volumenkalibration mit einer Kalibrationspumpe durchgeführt werden sollte. Auch bei einem kalibrationsfreien System sollte einmal monatlich eine Volumenverifikation stattfinden.
139 11.1 · Spirometriesysteme
⊡ Abb. 11.6a–e. Typische Fluss-Volumen-Kurven bei a Normalbefund, b Obstruktion, c Restriktion, d Emphysem und e Stenosen
Empfehlung für die Messung zur Bestimmung der Vitalkapazität (und Teilvolumina) in Ruhe. Der Proband
atmet in Atemruhelage. Nach einigen Atemzyklen erfolgt nach Anweisung des Untersuchers eine maximale, langsame, kontinuierliche Einatmung, danach eine langsame, vollständige Ausatmung und wieder eine vollständige Einatmung. Der Atemzyklus sollte wiederholt werden. Die wiederholt gemessenen Werte sollten sich nicht mehr als 5% unterscheiden. Empfehlungen für die forcierte Messung (forciertes Spirogramm und/oder Fluss-Volumen-Messung). Zunächst
atmet der Proband in Ruhelage. Nach Anweisung erfolgt eine maximale Einatmung, dann eine forcierte, maximale Ausatmung. Der Vorgang wird mindestens zweimal wiederholt. Die Atemmanöver sollten klar angewiesen
werden. Insbesondere die Forcierung und die lange Ausatmung benötigt eine anspornende Unterstützung. Zur Auswertung werden die aus den einzelnen forcierten Atemzyklen gewonnenen Kurven herangezogen. Neuzeitliche Auswerteprogramme vergleichen die Kurven und geben einen Warnhinweis, wenn die Qualitätsstandards (ERS, ATS) nicht eingehalten wurden. Entweder werden die jeweils größten Werte aus verschiedenen Kurven genommen oder die Kurve mit der größten Summe aus FVC und FEV1 für die Auswertung herangezogen. Mögliche Fehlerquellen: Durch schlechte Kooperation des Probanden wird der PEF zu spät erreicht oder ist zu klein. Kleine MEF-Werte können von fehlenden Nasenklemmen oder nicht richtig umschlossenen Mundstücken ausgehen. Deformierte Kurven und Zacken können durch Husten entstehen. Kein FEV1-Wert erscheint,
11
140
I
Kapitel 11 · Lungenfunktionsdiagnostik
wenn nicht lange genug ausgeatmet oder die Atmung unterbrochen wird. Sehr unterschiedliche Kurven lassen auf mangelnde Motivation des Probanden schließen. Bei guter Mitarbeit ergeben sich praktisch deckungsgleiche Fluss-Volumen-Kurven. Anhand der Auswertung kann eine erste Einteilung des Befundes in normal, obstruktiv oder restriktiv erfolgen (⊡ Abb. 11.6a–e). Für die häufig vorkommenden obstruktiven Störungen kann zudem der Schweregrad beurteilt werden.
Referenzwerte Die Auswertung spirometrischer Funktionsuntersuchungen erfolgt durch den Vergleich der Messwerte mit Referenzwerten, die auch als Norm- oder Sollwerte bezeichnet werden. Als wesentliche Bezugsgrößen werden für die Ermittlung dieser Referenzwerte das Alter, die Größe und das Geschlecht des Probanden herangezogen. Die Sollwerte ergeben sich aus Gleichungen, die von den Fachgesellschaften empfohlen und veröffentlicht werden. Im Sollwertvergleich sollte in jedem Fall die Standardabweichung für den Parameter, also das Maß für die Streuung des Wertes in der (lungengesunden) Vergleichspopulation, berücksichtigt werden. Die Bildung des Residuums R=
M – S, SD
[11.3]
wobei R das Residuum, M der Messwert, S der Sollwert und SD die Standardabweichung sind, ist zu empfehlen, um den Messwert im Vergleich mit der Verteilung in der Grundpopulation einordnen zu können. Nur so lassen sich signifikante Abweichungen erkennen und bewerten. Die großen Fachgesellschaften ERS und ATS (ATS/ ERS TASK FORCE. Pellegrino R et al. 2005, European Respiratory Society 1993) haben Sollwerte herausgegeben, die vorwiegend an Personen kaukasischer Abstammung erhoben wurden. Diese europäischen und amerikanischen Sollwerte unterscheiden sich nicht wesentlich. Bei der Beurteilung der Lungenfunktion von Personen anderer ethnischer Abstammung müssen entweder speziell für diesen Typ erhobene Sollwerte, z. B. nationaler Fachgesellschaften, verwendet werden oder zumindest eine prozentuale Anpassung der kaukasischen Sollwerte Berücksichtigung finden. In rechnergestützten Lungenfunktionsgeräten sind Sollwertformeln, in international vertriebenen Geräten unterschiedliche Sollwertsätze, programmiert, die zum Ist-Sollwertvergleich dienen. Im Benutzerhandbuch des Gerätes sollten sich Hinweise auf den Ursprung der Sollwerte mit Literaturangabe finden lassen. Im Ergebnisprotokoll sollte neben den Mess- und Sollwerten oder deren prozentualen Abweichung unbedingt ein Marker für die
signifikante Abweichung vom Sollwert, also die Überschreitung bestimmter Grenzen, z. B. halbe oder ganze Standardabweichung, angegeben sein. Für Kinder und Jugendliche im Alter bis 18 Jahre ist die Verwendung pädiatrischer Sollwerte zu empfehlen.
11.1.5 Mitarbeitsfreie Lungenfunktionstests
Die Spirometrie ist seit mehr als 50 Jahren in der klinischen Routine eingeführt. Ihr hoher Stellenwert wurde in zahllosen Publikationen dokumentiert. So lässt sich durch den Atemstoßtest die Mortalität besser voraussagen als durch Rauchverhalten, zuvor bestehende kardio-vaskuläre Erkrankung, Blutdruck oder Geschlecht (Petty et al. 1976). So wertvoll die Ergebnisse des Atemstoßtestes sind, so schwierig gestaltet sich die Sicherung und Kontrolle der Mitarbeit des Probanden. Auch in gut ausgestatteten Lungenfunktionslabors mit gut geschultem Personal ist der Anleitung und Motivation von Kindern und älteren Menschen und von fremdsprachigen Mitbürgern Grenzen gesetzt. Früher wurden mitarbeitsfreie Tests vor allem für den pädiatrischen Bereich, für epidemiologische und arbeitsmedizinische Reihenuntersuchungen gefordert. Durch die umwälzende demographische Veränderung mit dramatischer Zunahme des älteren Bevölkerungsteils stellt sich diese Erfordernis heute mit größerer Dringlichkeit denn je. Obwohl FEV1 bzw. FEV1/FEVC als »Goldstandard« zur Erkennung obstruktiver Störungen anerkannt ist, scheint es gerade bei älteren Probanden besser geeignete, spezifischere Parameter zu geben, die mit Dyspnoe, also Kurzatmigkeit, korrelieren. In den letzten Jahren wurden deshalb neue, (weitgehend) mitarbeitsfreie Methoden und Techniken entwickelt. Im Folgenden soll eine Übersicht über bewährte und neue Entwicklungen auf diesem Gebiet gegeben werden.
Ultraschallpneumographie (UPG) Im Abschn. 11.1.3 »Gerätetechnik« wurde bereits der Ultraschall-Sensor beschrieben. Aus der Summe der damit gemessenen Transit-Zeiten lässt sich die Molmasse, das spezifische Gewicht des Atemgases, ohne Mehraufwand in Echtzeit ermitteln. Während bei der Inspiration Umgebungsluft über den Sensor eingeatmet wird, verändert sich die Molmasse bei Ausatmung durch die Abnahme des Sauerstoffanteils und die Zunahme der Kohlensäurekonzentration (CO2 ist deutlich schwerer als O2). Wird die Molmassekurve während der Ausatmung registriert, so verhält sie sich ähnlich einer CO2-Kurve. Die Ultraschallpneumographie, kurz UPG genannt, wendet die wissenschaftlichen Erkenntnisse vieler Jahrzehnte an, in denen die CO2-Ausatmungskurve studiert und klinisch erprobt wurde. Die damals sehr aufwändige Bestimmung
141 11.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
⊡ Abb. 11.7. Ultraschallpneumographie bei einem Kind (Werksfoto: ndd Medizintechnik AG, Zürich)
der Atemvolumina mit gleichzeitiger, schneller Gasanalyse, z. B. mittels Massenspektrometrie, wird jetzt durch die instantane und absolut synchrone Messung von Strömung, Volumen und Molmasse in der UPG auf elegante und preisgünstige Weise ersetzt. Die Bestimmung der Molmasse wird zwar durch den erheblichen Einfluss von Temperatur und Feuchte des Atemgases erschwert, doch zeigen die neuesten Studien, dass auch die »native« Molmasse, also auch die unkorrigierten Transitzeiten-Werte, verwendet werden können. Der Proband atmet am UPGSensor für einige Minuten normal und ruhig, also ohne Durchführung bestimmter Atemmanöver (⊡ Abb. 11.7). In der Auswertung kommen statistische Verfahren zur Anwendung, die die typische »Molmassen-Kurve« für diesen Probanden bildet und auswertet. Die Kurvenform beinhaltet Informationen über die Distribution des Atemgases in der Lunge. Klinische Studien (Gappa et al. 2005; Jensen et al. 2005) zeigen eine hohe Korrelation mit FEV1 und FEV1/FVC sowie zuverlässige Aussagen über das Ausmaß der Obstruktion.
Widerstandsmessungen Forced Oscillation Technique
Dieses seit den 1970er Jahren bekannte Prinzip verwendet einen an den Flusssensor angedockten Oszillations-
generator (Lautsprecher), ein Widerstandselement und einen Druckwandler (Oostveen et al. 2003; Smith et al. 2005). Der Ruheatmung des Patienten werden durch den Lautsprecher kleine Druckschwankungen (forciert) überlagert, die vom respiratorischen Trakt mit einer Phasenverschiebung wiedergegeben werden. Die resultierenden Druck- und Flusssignale unterscheiden sich von den durch den Patienten erzeugten Signalen und lassen sich weitgehend unabhängig vom Atemmuster des Patienten analysieren. Die Auswertung umfasst den komplexen Atemwiderstand (Impedanz Zrs), der, in Resistance (R) und Reactance (X) zerlegt, in einem Frequenzdiagramm aufgetragen werden kann. Das Verfahren wird heute vorwiegend in Form der Impulsoszillometrie angeboten und in der Geriatrie, Pädiatrie, Arbeitsmedizin und bei Pharmastudien eingesetzt. Die vom Patienten nur passive Kooperation, nämlich Ruheatmung am Mundstück, erfordernde Methode kann die bisherigen Standardmethoden sinnvoll ergänzen und eignet sich zum Screening obstruktiver Erkrankungen (Winkler et al. 2009). Die früher bezüglich technischer Komplexität und Hygiene bestehenden Bedenken wurden bei den modernen, kommerziell verfügbaren Geräten ausgeräumt. Apparativer Aufwand und Anschaffungskosten gehen jedoch immer noch weit über den Rahmen einer spirometrischen Basisuntersuchung hinaus. Monofrequente oszillatorische Widerstandsmessung
Dieses seit Jahrzehnten bewährte Verfahren (Ulmer et al. 2003) ist die einfache Variante des o. g. Prinzips. Statt eines Lautsprechers wird eine kleine Sinuspumpe verwendet. Die Auswertung liefert wiederum Widerstand (Resistance) und Phase (Reaktanz). In der klinischen Routine zeigt sich jedoch, dass der oszillatorische Widerstand nur bedingt mit dem FEV1 korreliert, eine geringere Spezifität aufweist und somit nur als Orientierung oder zum Screening eingesetzt werden kann.
11.2
Weiterführende kardio-pulmologische Funktionsdiagnostik
11.2.1 Übersicht
Im Gegensatz zur einfachen Spirometrie erfordert eine weiterführende pulmologische Funktionsdiagnostik einen erheblich größeren methodischen, apparativen und personellen Aufwand. Sie wird deshalb in aller Regel nur in den internistisch-pneumologischen Fachabteilungen der Krankenhäuser und den Facharztpraxen durchgeführt. Die langsame und forcierte Spirometrie bleibt jedoch die Grundlage einer jeden Lungenfunktionsuntersuchung. Sie findet sich in allen aufwändigeren Geräten
11
142
I
Kapitel 11 · Lungenfunktionsdiagnostik
wieder und bleibt damit zentraler Ausgangspunkt für alle weitergehenden Verfahren. Unter den anspruchsvolleren Verfahren nimmt die Bodyplethysmographie mit der Messung der Lungenteilvolumina und des Atemwegswiderstands den ersten Platz ein. Die Messung der Diffusion nach der »Single-BreathMethode« und die Bestimmung der FRC mittels N2-Auswaschverfahren, in den englischsprachigen Ländern für die Routine häufig bevorzugt, werden auch hierzulande vermehrt eingesetzt. Die Gasdilutionsmethode im »geschlossenen System«, in früheren Jahren die wohl am häufigsten verwendete Methode zur Bestimmung der FRC, wird kaum mehr vermarktet. Sie verschwindet wegen ihrer inakzeptablen Hygiene mehr und mehr aus den Labors und wird deshalb hier nicht mehr dargestellt. Daneben werden eine Vielzahl von mehr oder weniger aufwändigen Untersuchungstechniken angewandt, die sich aber allesamt nicht in der breiten klinischen Routine durchsetzen konnten. Eine Übersicht über die wichtigsten Verfahren gibt ⊡ Tab. 11.3. Schließlich ist die Ergospirometrie, also die Belastungsuntersuchung mit Bestimmung des Gasaustauschs, zu einem wichtigen Instrument bei der Beurteilung ventilatorischer und kardialer Leistungseinschränkungen geworden. Gerade gutachterliche Fragestellungen kommen nicht ohne diese objektive Methode zur globalen Beurteilung und Einstufung krankheitsbedingter Leistungsverminderung aus. Das Interesse an der fortlaufenden Messung von körperlicher Aktivität und metabolischem Monitoring hat in der letzten Zeit geradezu explosionsartig zugenommen. Denn es gibt kaum einen Bereich der Medizin, von der Rehabilitation obstruktiv Kranker bis hin zur Demenzprophylaxe, in dem die Bedeutung körperlicher Aktivität zur Verbesserung des Krankheitsbildes, zur Genesung und insbesondere zur Prävention nicht erkannt und pu-
bliziert wurde. Trotz der vielen technischen Innovationen, die die Durchführung der Ergospirometrie erheblich erleichtert haben, bleibt sie ein insgesamt anspruchsvolles Messverfahren, sowohl in Bezug auf den zeitlichen Aufwand als auch auf die Komplexität der Auswertung. Für das Aktivitätsmonitoring kommen deshalb wesentlich kostengünstigere und einfach anzuwendende, tragbare Monitore zur Anwendung. Medizintechnik ist ein Teil der IT-Branche. Sie lebt in den gleichen rasanten Innovationszyklen und kann sich dem allgemeinen Preisverfall, der vom Massenmarkt der Mikroelektronik ausgeht, nicht entziehen. Musste man Mitte der 1970er Jahre für die Anschaffung eines computerisierten Bodyplethysmographen noch rund 100.000 € ausgeben, genügen heute weit weniger als 15.000 €, um ein qualitativ vergleichbares, jedoch wesentlich bedienungsfreundlicheres Gerät zu erstehen. Kaum ein Gerät am Markt kommt ohne Mikroelektronik, PC, Microsoft Windows, Vernetzung, Einbindung ins Internet aus, was nicht nur zu Kostenvorteilen für den Anwender, sondern zu wesentlich vereinfachter Bedienung und standardisierter Kommunikation im Labor-, Praxis- oder Krankenhausnetzwerk führte.
11.2.2 Bodyplethysmographie
Physikalische und methodische Grundlagen Ein Bodyplethysmograph, auch Ganzkörperplethysmograph genannt, besteht aus einer abgeschlossenen Kammer, ähnlich einer Telefonzelle, in die sich der Patient begibt (⊡ Abb. 11.8). Die durch die Atmung des Patienten hervorgerufenen thorakalen Bewegungen wirken sich im Kammerinneren als Volumen- und Druckänderungen aus, die erfasst und ausgewertet werden.
⊡ Tab. 11.3. Verfahren und Parameter weiterführender Lungenfunktionsdiagnostik Verfahren
Hauptparameter
Abgeleitete Parameter
Bodyplethysmographie
Intrathorakales Gasvolumen ITGV
FRC, RV, TLC
Bodyplethysmographie
Atemwegswiderstand RAW
GAW, sRAW, sGAW
Compliancebestimmung
statische Compliance Cstat
Pmi
Compliancebestimmung
dynamische Compliance Cdyn
Atemarbeit
Atemantriebsmessung
P0,1, pmax
Diffusion Single-Breath
Transferfaktor TLCO
KCO, VA, TLCSB
Diffusion Single-Breath mit O2
Membranfaktor DM
Kapillares Blutvolumen VC
Diffusion Steady-state
CO-Diffusion DLCO
IntraBreath-Verfahren
CO-Diffusion DLCO
Herzzeitvolumen Qc
N2-Washout
FRC
RV, TLC, Distribution
143 11.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
Die Grundlagen der heutigen Bodyplethysmographie, deren Erarbeitung wir DuBois in den USA und Ulmer (Ulmer et al. 2003) in Deutschland zu verdanken haben, reichen zurück in die 1950er und frühen 1960er Jahre. Historisch unterscheiden wir die sog. volumenkonstante und die druckkonstante Methode. Bei der letztgenannten atmet der in der Kammer sitzende Proband über ein Rohr ins Freie, wodurch im Kammerinneren die totale thorakale Volumenverschiebung gemessen werden kann. Aus messtechnischen Gründen hat sich jedoch das volumenkonstante Prinzip durchgesetzt, das praktisch in allen modernen Geräten angewandt wird. Dabei atmet der Proband innerhalb der Kammer über einen Flusssensor und einen Verschlussmechanismus (Shutter), mit dem die Atmung kurzzeitig unterbrochen werden kann. Unmittelbares Ziel der Bodyplethysmographie ist die Bestimmung des Alveolardrucks, der durch Kompression bzw. Dekompression des im Thorax eingeschlossenen Gasvolumens (Verschiebevolumen) entsteht. Es sei darauf hingewiesen, dass es nur darum geht, diesen (kleinen) kompressiblen Volumenanteil, der nach dem Boyle-Mariotte-Gesetz (pV=const.) proportional zum Alveolardruck ist und flussfördernd wirkt, zu bestimmen. Gleichzeitig wird die durch den Alveolardruck erzeugte Strömung und das geatmete Lungenvolumen am Mund pneumotachographisch erfasst. Die Thoraxbewegung führt also zu einer Volumen- und dazu proportionalen alveolären Druckänderung innerhalb der Lunge, die sich in der Kammer als
identische Volumenänderung auswirkt. Die Volumenänderung in der Kammer hat wiederum nach dem BoyleMariotte-Gesetz ihrerseits eine Kammerdruckänderung zur Folge (⊡ Abb. 11.9). In einem landläufig als »Kammereichung« bezeichneten Verfahren wird der Proportionalitätsfaktor zwischen Kammervolumenänderung und Kammerdruckänderung bestimmt. Hierzu wird bei besseren Geräten eine in die Kammer eingebaute motorisierte Kolbenpumpe benutzt, deren fester Hub von z. B. 50 ml als Kammerdruckauslenkung registriert wird. Die Kalibration der Kammer ist normalerweise stabil und muss nur selten kontrolliert werden. Zu Methodik und Auswertung der Bodyplethysmographie finden sich Empfehlungen der Deutschen Atemwegsliga bei Crièe et al. (2009). Standardisierungsempfehlungen zur Lungenvolumenbestimmung sind nachzulesen in ATS/ERS TASK FORCE (Wanger et al. 2005).
Bestimmung des intrathorakalen Gasvolumens Bei Atembewegungen des Patienten gegen den Verschluss am Mund kommt es – Druckausgleich zwischen Mund und Alveolarraum vorausgesetzt – zu einer thorakalen Volumenverschiebung, die eine proportionale Alveolardruckänderung auslöst. Bei einer Registrierung des Munddrucks gegen den Kammerdruck während Verschluss kann der Proportionalitätsfaktor zwischen Alveolardruck und Kammerdruck bestimmt werden. Gleichzeitig lässt
⊡ Abb. 11.8. Bodyplethysmograph (Werksfoto: CareFusion GmbH, Höchberg)
11
144
Kapitel 11 · Lungenfunktionsdiagnostik
I
⊡ Abb. 11.9. Das volumenkonstante bodyplethysmographische Kammerprinzip
sich aus dem Verhältnis von Alveolardruck- und Lungenvolumenänderung das gesamte bei Verschluss in der Lunge befindliche Lungenvolumen, das als intrathorakales Gasvolumen ITGV oder auch IGV bezeichnet wird, sehr einfach berechnen: PK [11.4] [l]. ITGV = kα . PM Dabei sind pK der Kammerdruck [hPa], pM der Munddruck und kα eine Konstante, die abhängig ist von der Kammereichung, dem Kammervolumen, dem Körpervolumen des Patienten und dem Barometerdruck. Erfolgt der Verschluss am Ende einer normalen Ausatmung, so entspricht das ITGV der funktionellen Residualkapazität FRC.
Bestimmung des Atemwegswiderstands (Resistance) Wird während der Ruheatmung der Kammerdruck gegen die Strömung am Mund aufgezeichnet, so ergibt sich die sog. Resistanceschleife (⊡ Abb. 11.10, 4-Farbteil am Buchende). Nach dem Ohm’schen Gesetz gilt: . U = R . I bzw. Palv = RAW . V [hPa], [11.5] woraus der Atemwegswiderstand RAW , auch als Resistance bezeichnet, abgeleitet werden kann:
[ ]
P PK hPA RAW = alv . = kß . . V V l/s
[11.6]
. Dabei sind V die Strömung [l/s] am Mund, palv der Alveolardruck [hPa bzw. cm H2O], pK der Kammerdruck [hPa] und kß ein Faktor, der im Wesentlichen das während des Verschlussmanövers festgestellte Verhältnis zwischen Mund- und Kammerdruck enthält.
Technische Besonderheiten der Bodyplethysmographie Die in der Kammer gemessenen Druckänderungen sind bei Ruheatmung vergleichsweise klein und betragen nur wenige hPa (bzw. cm H2O). Die Störeinflüsse durch patientenbedingte Wärmeänderung in der Kammer (Schwitzen), durch atmungsabhängige Temperatur- und Feuchteänderungen und durch Druckschwankungen aus der Umgebung, um nur die wichtigsten zu nennen, sind erheblich und summieren sich zu einem Fehler, der durchaus größer als das Messsignal sein kann. Zur Vermeidung von mangelndem Druckausgleich zwischen Mund und Alveolarraum sollte Hechelatmung beim Verschlussmanöver gänzlich vermieden werden (Rodenstein u. Stanjescu 1983). Die Konstruktionsmerkmale der Bodyplethysmographenkammer sind somit ausschlaggebend für die Messqualität. Zu diesen gehören: ▬ Steifigkeit der Kammerkonstruktion, ▬ Wärmetransferverhalten der Kammerwände, ▬ Ausgleichsgefäß, ▬ BTPS-Kompensation, ▬ Kalibrationseinrichtung, ▬ Einstellung eines definierten Lecks, ▬ Art und Schnelligkeit des Shutters. Hierzu nur einige Bemerkungen, die im Rahmen dieser Darstellung nicht erschöpfend sein können. Die Kammer sollte in ihrer Formgebung und der Auswahl der Materialien so beschaffen sein, dass eine möglichst große Steifigkeit und ein schneller Wärmetransfer der vom Patienten in der Kammer produzierten Wärme gewährleistet wird. Ein eingebautes Ausgleichsgefäß zur Gleichtaktunterdrückung von Druckschwankungen aus der Umgebung sollte vorhanden sein (vgl. ⊡ Abb. 11.9). Eine automatische Ka-
145 11.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
librationseinrichtung mit »Kammereichpumpe«, dynamischer Simulation der Lungenvolumenkompression und Einstellung des definierten Lecks (pneumatischer Tiefpass zur Driftkompensation) sind zur Qualitätssicherung der Messergebnisse unverzichtbar. Die druck- und strömungsabhängige BTPS-Kompensation wird heute digital durchgeführt. Der Widerstand eines Atemfilters muss bei der Berechnung des Atemwegswiderstandes berücksichtigt werden. Werden die vorgenannten Konstruktionsmerkmale berücksichtigt, so kann die Bodyplethysmographie ohne großen Aufwand und mit sehr guten Ergebnissen in der klinischen Routine betrieben werden. Der Wartungsaufwand für eine Bodyplethysmographenkammer ist vergleichsweise gering. Von Mundstücken und Atemfiltern abgesehen, fällt so gut wie kein Verbrauchsmaterial an. Durch die einfache Zerlegbarkeit moderner Verschlusssysteme kann die Hygiene bedingt gewährleistet werden. Die Verwendung eines Atemfilters ist zu empfehlen. Der zeitliche Aufwand für eine komplette bodyplethysmographische Messung eines Patienten mit Mehrfachbestimmung der Resistance und des ITGV beträgt ca. 15 min; in Kombination mit der Spirometrie zur Bestimmung der Teilvolumina ca. 30 min.
acht durch Asthma) von einer inhomogenen Obstruktion (z. B. Bronchitis) und von instabilen Atemwegen (z. B. Emphysem) unterscheiden. Intrathorakales Gasvolumen/FRC
Das intrathorakale Gasvolumen beinhaltet alle während Verschluss durch die Thoraxbewegung komprimierten Gasanteile, wodurch sowohl in der Lunge gefesselte Luft als auch im Abdominalraum vorhandene Gase gleichzeitig erfasst werden. Die Methode liefert in diesen Fällen falsch-positive Messwerte, was bei hochobstruktiven Patienten durch mangelnden Druckausgleich zwischen Mund und Alveolarraum noch verstärkt werden kann. Im Gegensatz dazu unterschätzen die Dilutions- und Fremdgasmethoden das krankheitsbedingt erhöhte Lungenvolumen im Fall einer hochgradigen Obstruktion. Nichtsdestoweniger gilt heute die Bodyplethysmographie wegen ihrer Genauigkeit und sehr guten Reproduzierbarkeit als »Goldstandard« in der Volumenmessung. Durch Kombination des spirometrisch gemessenen ERV und der VC mit dem ITGV/FRC können alle Lungenteilvolumina einschließlich RV und TLC in einem Fortgang schnell und wiederholt bestimmt werden.
11.2.3 Diffusionskapazität
Klinische Wertigkeit der Bodyplethysmographie Die Bodyplethysmographie liefert, wie oben beschrieben, in einem Messvorgang den Atemwegswiderstand und das intrathorakale Gasvolumen bzw. die FRC. Die Messung ist weitgehend unabhängig von der Mitarbeit des Patienten und kann in kurzer Zeit mehrfach wiederholt werden. Damit ist sie wohl die effizienteste Form, diese beiden für die Lungenfunktion elementaren Parameter zu bestimmen. In Verbindung mit der (bei offener Kammertür durchführbaren) langsamen und forcierten Spirometrie bzw. Fluss-Volumen-Kurve und in Kombination mit der Messung weiterer Parameter, wie Atemantrieb und Compliance, sowie mit einer Zusatzeinrichtung für Diffusion lassen sich somit praktisch alle relevanten Größen der Lungenfunktion bestimmen.
Der Gasaustausch zwischen alveolärer Luft und Kapillarblut, also der Übertritt des Gases über die alveolo-kapillare Membran, wird als Diffusion bezeichnet. Die Diffusionskapazität eines Gases wird bestimmt von der Gasmenge pro Zeiteinheit, die über die Membran ausgetauscht wird, und der Partialdruckdifferenz zwischen Gas- und Blutphase. Von eigentlichem Interesse ist die Diffusionskapazität für Sauerstoff, die aber wegen des nicht erfassbaren kapillaren Partialdrucks nicht bestimmt werden kann. Aus diesem Grund wird für klinische Zwecke die Diffusionskapazität für Kohlenmonoxid (CO) bestimmt. Nachdem CO eine sehr hohe Hämoglobinbindung aufweist, werden sehr geringe CO-Konzentrationen im ppm-Bereich verwendet, um den Patienten nur unwesentlich mit CO zu belasten.
Atemwegswiderstand (Resistance)
Der Atemwegswiderstand wird nach Ulmer (Ulmer et al. 2003) oder Matthys (Matthys 1988) als Rtot bzw. Reff berechnet und stellt ein empfindliches Maß für die bronchiale Obstruktion dar. Dabei enthält der Wert nicht nur den strömungsabhängigen Widerstand, sondern auch Widerstandsanteile, die durch Atemwegskollaps bei instabilen Atemwegen und verminderter Lungenelastizität (Retraktionsverlust) verursacht werden. Durch Forminterpretation der Widerstandsschleife, die in jedem Fall auf dem Befundblatt ausgedruckt werden sollte, lässt sich somit eine homogene Obstruktion (z. B. verurs-
Single-Breath-Methode Seit vielen Jahren ist die von Cotes entwickelte Einatemzug- oder Single-Breath-Methode am weitesten verbreitet. Bei diesem Verfahren wird nicht die eigentliche Diffusionskapazität, sondern der sog. Transferfaktor für CO, kurz TLCO, bestimmt. Der Patient atmet nach tiefer Ausatmung ein Gasgemisch ein, das mit 0,2–0,3% CO und einem Inertgas (typischerweise Helium oder Methan) angereicherte Luft enthält. Die Einatmung erfolgt maximal, also bis zur TLC. Danach hält der Patient für ca. 10 s
11
146
Kapitel 11 · Lungenfunktionsdiagnostik
I
⊡ Abb. 11.11. Bildschirmdarstellung einer Single-Breath-Messung (Quelle: CareFusion GmbH, Höchberg)
die Luft an. Währenddessen verteilt sich das Gasgemisch im Alveolarraum und CO diffundiert über die alveolo-kapillare Membran ins Blut. Nach der Anhaltezeit atmet der Patient aus, und der mittlere Teil des Exspirationsgases wird gesammelt (⊡ Abb. 11.11). Bei moderneren Geräten mit schneller Gasanalyse wird während der Exspiration fortlaufend analysiert. Während der erste und letzte Teil der Ausatmung keine Berücksichtigung findet, wird vom mittelexspiratorischen Teil eine Gasprobe bestimmt, die den alveolären Wert repräsentieren soll. Das Inertgas nimmt nicht am Gasaustausch teil und dient zur Charakterisierung des Dilutionsvorgangs, also der Verteilung des Gases, in der Lunge. Unter der Annahme, dass sich das CO in ähnlicher Weise wie das Inertgas in der Lunge verdünnt, kann nun der diffusible Anteil des CO-Gases berechnet werden. Das Modell zur Bestimmung des Transferfaktors geht dabei aus von einem exponentiellen Abfall der alveolären CO-Konzentration während der Phase des Atemanhaltens. Wird der CO-Partialdruck des Kapillarblutes als null angenommen, lässt sich der Transferfaktor folgendermaßen berechnen:
⎛ FACO0 ⎞ VA ⎟⎟ mmol ⋅ min −1 ⋅ kPa −1 , ⋅ ln ⎜⎜ tV F ⎝ ACO ⎠ F wobei FACO0 = FICO ⋅ AX . FIX TLCO = b ⋅
[
]
[11.7]
FI ist die inspiratorische Gaskonzentration, FA die alveoläre Konzentration der exspiratorischen Gasprobe, X der Index für das Inertgas, FACO0 die alveoläre Anfangskonzentration von CO, VA das Alveolarvolumen und tv die Atemanhaltezeit; b ist eine Konstante zur Umrechnung auf die verwendeten Einheiten. Neben der TLCO lässt sich aus demselben Messvorgang auch das aus der Verdünnung des Inertgases resultierende Alveolarvolumen VA berechnen:
V A = (VIN − VD )(FIX / FAX )
[l ] ;
[11.8]
dabei ist VIN das vor dem Atemanhalten inspirierte Volumen und VD das Totraumvolumen bestehend aus anatomischem und apparativem Totraum. Alle Volumina werden in BTPS angegeben. In Kombination mit der Spirometrie lassen sich die Größen RV und TLC ableiten.
147 11.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
Technische und methodische Besonderheiten der Single-Breath-Methode
Der technische Aufwand für diese Methode ist erheblich. Neben einem System zur Volumenbestimmung und den Analysatoren für CO und das Inertgas wird ein Ventilsystem benötigt, das die Patientenatmung von Luft auf Gasgemisch umstellen kann. Analyseventile sorgen für die Zuführung der entnommenen Gasproben an die Analysatoren. Qualitätskontrollen haben gezeigt, dass die Qualität der Messergebnisse neben gerätespezifischen Unzulänglichkeiten hauptsächlich von der korrekten Bedienung und Kalibration der Apparatur abhängt. Um häufige Fehlerquellen zu vermeiden, sollte besonderer Wert gelegt werden auf ▬ korrekte, schnelle Funktion der Atemventile, ▬ regelmäßige Kalibration der Gasanalysatoren mit zertifiziertem Kalibrationsgas, ▬ optimale Anleitung des Patienten, ▬ Durchführung nach den Standards der Europäischen Gesellschaft für Respiration (ATS/ERS TASK FORCE. MacIntyre et al. 2005). Starke Raucher oder CO-exponiert arbeitende Personen weisen einen erhöhten arteriellen bzw. venösen CO-Partialdruck, einen Backpressure, auf, der möglichst gemessen und vom alveolären Partialdruck abgezogen werden sollte. Weicht der Hämoglobingehalt des untersuchten Patienten vom Normalbereich ab, sollte eine Korrektur bei der Berechnung der TLCO berücksichtigt werden. Die Messung des Patienten sollte stets in sitzender Position erfolgen. Die Reinigung der meisten Atemventilsysteme ist aufwändig, praktisch oft unmöglich. Die Einhaltung hygienischer Bedingungen ist deshalb besonders schwierig und kann meist nur durch Verwendung eines Atemfilters erreicht werden. Der Wartungsaufwand für Diffusionsgeräte ist nicht zu unterschätzen, gerade dann, wenn aufwändige und komplizierte Atem- und Analyseventile verwendet werden. Die Kosten für Mess- und Kalibrationsgas und die mit deren Beschaffung verbundene Logistik müssen ebenfalls berücksichtigt werden. Der zeitliche Aufwand für eine Single-Breath-Messung liegt einschließlich Kalibration bei wenigen Minuten. Klinische Wertigkeit der Single-Breath-Methode
Die Bestimmung der TLCO mittels Single-Breath-Methode ist in der Routine einfach und schnell durchführbar. Die Messergebnisse zeigen bei Vermeidung der oben erwähnten technischen und methodischen Fehlerquellen und bei guter Patientenführung eine ausreichende Genauigkeit und gute Reproduzierbarkeit. Der Parameter TLCO reagiert nicht nur auf Veränderungen der Diffusionskapazität im Sinne des Gasaus-
tauschs über die alveolo-kapillare Membran empfindlich, sondern auch auf strukturelle Veränderungen des Lungengewebes, egal ob sie mit Verkleinerung oder Vergrößerung des Alveolarraums einhergehen. Reduzierte TLCOWerte lassen sich deshalb nicht nur bei interstitiellen Lungenerkrankungen wie Lungenfibrose, Sarkoidose, Alveolitis oder bei Lungenödem feststellen, sondern auch bei generalisiertem Emphysem, das meist durch den Verlust von Lungenoberfläche bei vergrößertem Alveolarraum charakterisiert wird. Eine normale oder leicht reduzierte TLCO lässt sich bei Obstruktion der Atemwege finden, erhöhte Werte bei Obstruktionen mit Lungenblähung, wie sie beim Asthma vermehrt auftritt. Bei intrapulmonalen Blutungen muss ebenfalls mit einer Erhöhung der TLCO gerechnet werden. Die TLCO eignet sich besonders gut für Verlaufs- und Therapiekontrollen. Sie kann auch bei der Beurteilung von pulmonal-vaskulären Erkrankungen als zusätzlicher Parameter herangezogen werden. Bei Reihenuntersuchungen wird sie aufgrund des technischen Aufwands nur bei besonderen Fragestellungen, wie der Untersuchung von staubexponierten Arbeitern, eingesetzt werden können. In einer Variante der Single-Breath-Methode lässt sich bei Atmung eines Gasgemischs, das eine CO/Inertgasbeimischung in reinem Sauerstoff enthält, die Diffusionskapazität der alveolo-kapillaren Membran, die sog. Membrankomponente, und das kapillare Blutvolumen bestimmen. Diese interessante Untersuchung wird jedoch nur in spezialisierten Labors vorgenommen.
Weitere Methoden zur Diffusionsbestimmung In den letzten Jahren wurde neben der Single-Breath- die IntraBreath-Methode eingeführt. Sie erfordert lediglich eine tiefe Einatmung und anschließende gleichmäßige Ausatmung, jedoch kein Luftanhalten; ein Vorteil gerade bei kurzatmigen Patienten und Kindern. Mittels schneller Gasanalysatoren nach dem Infrarotprinzip wird bei dieser Methode CO und das Inertgas Methan fortlaufend analysiert und in einem komplexen Algorithmus verrechnet. Bei Zugabe einer geringen Konzentration des im Blut löslichen Gases Azetylen in die Einatmung kann zusätzlich in derselben Messung das kapillare Herzzeitvolumen QC bestimmt werden. Die IntraBreath-Methode lässt sich auch gut unter Belastung durchführen. Im Gegensatz zu früheren Jahren wird heute die zur TLCO alternative Steady-State-Methode wegen der vergleichsweise hohen CO-Exposition für den Patienten kaum mehr angewandt. Neben den beschriebenen Techniken existieren noch eine Reihe weiterer Verfahren zur Bestimmung der Diffusionskapazität. Dazu gehören u. a. die Rückatem- oder Rebreathing-Methoden. Alle diese Verfahren eignen sich jedoch nicht für die klinische Routine und werden international nicht anerkannt.
11
148
Kapitel 11 · Lungenfunktionsdiagnostik
11.2.4 Stickstoff-Washout-Verfahren zur
FRC-Bestimmung
I
Bei diesem seit vielen Jahren in der Routine bewährten Verfahren atmet der Patient an einem Ventilsystem, das es erlaubt, die Inspiration von Luft auf reinen Sauerstoff umzustellen. Das in der Lunge vorhandene N2, das nicht am Gasaustausch teilnimmt, wird somit Atemzug für Atemzug durch O2 ersetzt. Am Mund wird fortlaufend eine Gasprobe entnommen und einem schnellen N2-Gasanalysator zugeführt. Während der Auswaschphase wird das exspirierte N2-Volumen eines jeden Atemzuges bestimmt und solange aufsummiert, bis die exspiratorische N2-Konzentration auf ca. 1% abgefallen und damit der Washout-Vorgang abgeschlossen ist. Nachdem vor Umschalten auf Sauerstoff die N2-Konzentration (einschließlich Edelgase) in der Lunge 79,2% betrug, lässt sich jetzt die funktionelle Residualkapazität FRC einfach berechnen:
FRC = VN 2 / 0,79 [l ] ,
[11.9]
wobei VN2 das gesamte ausgeatmete N2-Volumen bedeutet.
Technische Besonderheiten des StickstoffWashout-Verfahrens Das Verfahren erforderte früher die Verwendung eines schnellen N2-Gasanalysators oder eines Massenspektrometers. Beide Geräte sind vergleichsweise anspruchsvoll in Beschaffung, Bedienung und Wartung. Heute können alternativ zu N2 auch die komplementären Gase O2 und CO2 schnell analysiert werden, woraus sich die N2-Konzentration fortlaufend berechnen lässt. Voraussetzung ist eine gute zeitliche Synchronisation der beiden Gasproben in einem Computerprogramm. Nachdem bei allen üblichen Verfahren die Gasprobe im Seitstrom entnommen wird, entsteht eine Verzögerung (»Delay«) zwischen der am Mund gemessenen Strömung und der Gaskonzentrationsänderung und dem Vollausschlag des Analysators (»Response«), die in einem Rechnerprogramm exakt eingestellt und bei der Berechnung ebenfalls berücksichtigt werden müssen. Die Ventilsysteme sind konstruktiv ähnlich denen der Diffusionsbestimmung und hygienisch ebenso problematisch. Der zeitliche Aufwand der FRC-Bestimmung mittels N2-Washout ist abhängig von der Lungendistribution und dauert bei Lungengesunden wenige Minuten, bei hochobstruktiven Patienten durchaus 20 min und mehr. Während die klassischen N2-Washout-Verfahren eine aufwändige Seitstromgasanalyse benötigen, steht jetzt für die klinische Routine die wesentlich einfachere Ultraschallmolmassenspirometrie nach dem SpirosonPrinzip zur Verfügung (vgl. 11.1.3 Abschn. »Ultraschall-
(Transit-time-) Flowmeter« sowie ⊡ Abb. 11.5). Dabei lassen sich neben Strömung und Volumen die spezifische Molmasse des Atemgases mit einem einzigen Aufnehmer bestimmen. Nachdem sich die Molmassen von O2 und N2 deutlich unterscheiden, wird bei diesem Gerät kein separater Gasanalysator benötigt, da die N2-Konzentration direkt aus der Molmasse abgeleitet werden kann (Fuchs et al. 2006). Die Konzentrationsänderung kann im Hauptstrom erfasst werden und weist deshalb keine Zeitverzögerung zur Strömung auf.
11.2.5 Ergospirometrie
Die Ergospirometrie dient zur Bestimmung von Ventilation und Gasaustausch unter definierter körperlicher Belastung. Ein Ergospirometriemessplatz (⊡ Abb. 11.12) besteht aus je einem ▬ Belastungsgerät (Ergometer) zur Herstellung einer physikalisch exakt vorgegebenen Belastung, ▬ Aufnehmer zur Bestimmung der Ventilation, ▬ Gasanalysatoren für O2 und CO2, ▬ Rechner zur Online-Erfassung und Auswertung der Messdaten sowie ▬ mehrkanaligem, möglicherweise computerisiertem EKG-Gerät. Als Belastungsgerät wird i. Allg. entweder ein Fahrradoder ein Laufbandergometer verwendet ( Kap. 9 »Ergometriemessplatz«). Spezielle Ergometer, wie z. B. Handkurbel- oder Ruderergometer, eignen sich für besondere Fragestellungen in der Arbeits- und Sportmedizin (⊡ Abb. 11.13).
Ventilationsmessung Auch bei der Durchführung der Ergospirometrie hat sich die Messung der Ventilation im offenen System durchgesetzt. Heute werden Strömungssensoren verwendet, die nach unterschiedlichen Prinzipien arbeiten (Pneumotachographie, Turbine, Massenfluss/Thermistor, Ultraschallsensor, u. a.) und allesamt Vor- und Nachteile aufweisen. Die Kalibration der Strömungsmesseinrichtung vor jeder Messung ist unverzichtbar. Der relative Fehler der Strömungsmessung sollte 3% des Messwerts nicht übersteigen, die Linearität im Messbereich muss mindestens 2% des Messwerts betragen. Der Messbereich muss für klinische Zwecke bis mindestens 100 l/min, für sportmedizinische Zwecke bis mindestens 200 l/min ausgelegt sein. Ein Problem kann die in der Exspirationsluft vorhandene Feuchte bereiten, die aufgrund sinkender Temperatur an dafür empfindlichen Strömungsmessern ausfällt und zu Unsicherheit bei den Messwerten führt.
149 11.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
⊡ Abb. 11.12. Ergospirometrisches Messsystem (Werksfoto: Ganshorn GmbH, Niederlauer)
⊡ Abb. 11.13. Portables ergospirometrisches Messsystem (Werksfoto: CareFusion GmbH, Höchberg)
Zur Untersuchung sollte vorzugsweise eine Maske verwendet werden, die eine natürliche Atmung über Mund und Nase erlaubt.
Gasanalyse Als »Goldstandard« der Gasanalyse gilt das Massenspektrometer, das gleichzeitig alle drei im Atemstrom vorkommenden Gase, O2, CO2 und N2, schnell, synchron und mit großer Genauigkeit analysieren kann, jedoch wegen seiner hohen Anschaffungskosten, seiner aufwändigen Handhabung und Wartung und seiner bislang voluminösen Bauweise für klinische Zwecke normalerweise nicht in Frage kommt. Deshalb werden in der Routine kompakte Gasanalysatoren angeboten, die zusammen mit
der Elektronik und dem Rechner in einem häufig fahrbaren Gehäuse, bisweilen sogar tragbaren und Batterie betriebenen Gerät, untergebracht sind. Die Analyseverfahren unterscheiden sich untereinander durch »Delay« (Verzögerung von Mund bis Analysator) und »Response« (Anstiegsgeschwindigkeit des Analysators), die beide mittels aufwändiger Kalibrations- und Rechenverfahren kompensiert werden müssen. Zur Sauerstoffanalyse haben sich Geräte bewährt, die nach dem paramagnetischen Prinzip oder mit einer sog. Brennstoffzelle (geheizte Zirkoniumoxidröhre) arbeiten. Für CO2 wird meist das Infrarotprinzip verwendet. Der absolute Fehler der Gasanalysatoren darf im Messbereich 0,1% nicht übersteigen, die Linearität sollte 1% des Messwerts betragen. Die exakte Kalibration der Analysatoren mit zertifizierten Kalibrationsgasen an zwei Punkten (Umgebungs- und Ausatemluft) vor jeder Messung ist unabdingbare Voraussetzung für genaue Messwerte. Moderne Ergospirometriesysteme beinhalten deshalb eine rechnergestützte Kalibrationseinrichtung zum automatischen Abgleich der Analysatoren.
Mischbeutelverfahren Bei den in mannigfaltigen technischen Varianten ausgeführten Ergospirometriesystemen muss grundsätzlich zwischen der Messung mit mechanischem Gasmischgefäß und der Atemzug-zu-Atemzug-Analyse (auch Breath-byBreath-Verfahren) unterschieden werden. Bei der Gasmischmethode atmet der Patient über eine Maske mit Richtungsventilen oder ein Y-Ventil, wodurch In- und Exspiration getrennt werden können. Das Exspirationsgas wird über einen Schlauch und einen Strömungsmesser in ein Mischgefäß geleitet. Das Strömungssignal wird dem Rechner zugeführt, der daraus das exspiratorische Atemzugvolumen und Atemminutenvo-
11
150
I
Kapitel 11 · Lungenfunktionsdiagnostik
lumen integriert. Aus dem Mischgefäß wird fortlaufend eine Gasprobe entnommen, die die mittlere exspiratorische Konzentration FE repräsentiert. Die Gasprobe wird getrocknet und einem O2- und einem CO2-Analysator zugeführt. Die daraus resultierenden Konzentrationen werden nun im Rechner zusammen mit dem Atemminutenvolumen weiterverarbeitet. Die Sauerstoffaufnahme VO2 kann nun berechnet werden nach: . [11.10] V O2 = c . VE ( F1O2 . ks – FEO2) [l/min], wobei der Faktor ks die sog. Ausatemschrumpfung ist und ermittelt wird mit
k S = (100 − FE O2 − FE CO2 ) / (100 − FI O2 ) .
[11.11]
VE ist das exspiratorische Atemminutenvolumen, FI die inspiratorische und FE die mittlere exspiratorische O2bzw. CO2-Konzentration. Weiterhin muss ein Faktor c für die Umrechnung von BTPS auf STPD Bedingungen und von Konzentration auf Fraktion berücksichtigt werden. In analoger Weise wird die CO2-Abgabe ermittelt. Die Response der Gasanalysatoren und die Einstellung des »Delay« ist bei der Mischmethode von geringer Bedeutung für die Genauigkeit der Messwerte, da der Mischvorgang eine relativ große Zeitkonstante besitzt. Der Vorteil des Verfahrens liegt demnach in der sehr einfachen Handhabung und der guten Genauigkeit für klinische Zwecke. Allerdings können nur solche Belastungsänderungen dynamisch korrekt erfasst werden, die der Zeitkonstante des Messsystems entsprechen. Deshalb setzt sich auch im klinischen Bereich das früher vorwiegend für atemphysiologische und sportmedizinische Untersuchungen angewandte, nachfolgend beschriebene Verfahren zunehmend durch.
Atemzug-zu-Atemzug-Verfahren (Breath-by-Breath-Verfahren) Beim Breath-by-Breath- oder kurz »B×B-Verfahren« wird die Strömung ventilfrei in- und exspiratorisch direkt am Mund oder an einer Maske gemessen. Eine kontinuierliche Gasprobe, ebenfalls am Mund abgenommen, wird über einen dünnen Schlauch den Analysatoren zugeleitet, wobei im Gegensatz zur Mischgasmethode ausreichend schnelle Gasanalysatoren verwendet werden müssen. Strömung und Gase müssen vom Rechner in Phase gebracht werden. Die »Response« der beiden Gasanalysatoren muss im Rechenprogramm Berücksichtigung finden. Die Berechnung der O2-Aufnahme erfolgt nach . . V O2 = ∫ FO2 . V dt [l/min],
[11.12]
. wobei V O2 die Sauerstoffaufnahme, FO2 die O2-Konzen. tration bzw. -Fraktion und V die Strömung am Mund
sind. Außerdem müssen noch Faktoren zur Umrechnung von BTPS auf STPD berücksichtigt werden. Die CO2-Abgabe wird sinngemäß ermittelt. Das B×B-Verfahren birgt die Gefahr vieler Ungenauigkeiten und Fehler, die der Benutzer nur durch wiederholte Kalibration und ständige Kontrolle vermeiden kann. Zur Kalibration gehört die exakte Kompensation der Response der Gasanalysatoren und die genaue Einstellung des »Delay«, welche letztendlich über die Genauigkeit der Messwerte entscheiden. Oft hat der Benutzer jedoch keine Möglichkeit der Kontrolle dieser wichtigen Vorgänge und muss den Einstellungen und »Softwaretricks« der Gerätehersteller blind vertrauen. Eine solide Ergospirometriesoftware beinhaltet deshalb ein Kalibrations- und Verifikationsmodul, das die Analyse der Kalibrationsgase graphisch in Echtzeit darstellt und »Delay«, »Response« und Gasanalysewerte numerisch angibt, sodass zum einen der Kalibrationsvorgang transparent wird und zum anderen Abweichungen zwischen den Abgleichvorgängen im zeitlichen Verlauf besser erkannt werden können.
Klinische Bedeutung der Ergospirometrie Die grundlegenden Methoden zur Bestimmung des Gasaustauschs gehen auf die Arbeiten von Knipping zurück, während die moderne Ergospirometrie von Hollmann und von Wasserman (Wasserman et al. 2004) entwickelt wurde. Die Belastung wird für klinische Zwecke in Stufen gesteigert, beim Fahrradergometer z. B. in je 2–3 min um 25 W. Diese rektangulär-trianguläre Belastungsform ist gerade für Patienten besonders gut geeignet. Sie gewährt dem kardiovaskulären System genügend Zeit zur Anpassung, wodurch ein frühzeitiger Abbruch bedingt durch muskuläre Ermüdung, anaerobe Stoffwechselvorgänge und Laktatausschüttung vermieden werden kann. Die O2-Aufnahme ist ein Maß für die globale Leistungsfähigkeit von Herz-Lunge-Kreislauf und Muskulatur. Die Bestimmung der maximalen O2-Aufnahme, der Vita maxima, stellt somit ein objektives Maß für die maximale Leistungsfähigkeit des untersuchten Probanden dar. Durch die Betrachtung der Dynamik von Ventilation, Gasaustausch und der mit dem EKG gewonnenen Herzfrequenz kann der unterschiedliche Wirkungsgrad bzw. die eingeschränkte Leistungsfähigkeit der organischen Leistungsträger differenziert werden. Bei der Auswertung werden zudem abgeleitete Sekundärparameter, wie respiratorischer Quotient und Atemäquivalent (⊡ Tab. 11.4) sowie die unter Belastung gewonnenen Blutgase herangezogen, aus deren Anpassungsverhalten bereits bei submaximaler Belastung auf Leistungseinbußen geschlossen werden kann. Die Bestimmung des aerob-anaeroben Übergangs, kurz anaerobe Schwelle genannt, spielt eine wichtige Rolle nicht nur in Bezug auf die generelle Leistungsein-
151 11.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
buße, sondern auch bei der Beurteilung von Trainingseffekten während der Rehabilitation. Nach Eingabe von off-line ermittelten Daten wie Blutdruck und Blutgasen erfolgt die Auswertung der ergospirometrischen Untersuchungsergebnisse aufgrund der Datenflut bevorzugt in graphischer Form, wobei sich hier die sog. 9-Felder-Graphik nach Wasserman (Wasserman et al. 2004) durchgesetzt hat. Für gutachterliche Fragestellungen, gerade im arbeitsmedizinischen Bereich, sind die aus der Ergospirometrie gewonnenen Erkenntnisse über die objektive Leistungseinbuße eines Patienten unverzichtbar. In der Beurteilung von Leistungssportlern nimmt die Untersuchungsmethode nach wie vor einen hohen Stellenwert ein und gehört heute zur Grundausstattung einer jeden sportmedizinischen Untersuchungsstelle. Der zeitliche Aufwand einer ergospirometrischen Untersuchung beträgt einschließlich Vorbereitung des Patienten und Kalibration mindestens 30 min.
⊡ Tab. 11.4. Ergospirometrische Parameter Parameter
Abkürzung/ Definition
Dimension
Leistung (Fahrradergometer)
P
W
Geschwindigkeit (Laufband)
v
km/h
Steigung (Laufband)
s
%
Atemzugvolumen
VT
l
Atemfrequenz
Af
min-1
Atemminutenvolumen
VE
l x min-1
Kohlendioxidabgabe
. VO 2 . VO
Herzfrequenz
Hf
Sauerstoffaufnahme
Respiratorischer Quotient Atemäquivalent (für O2)
Im Rahmen der Ergospirometrie kann die kardiale Leistung, also die Leistung des Herzens, nur indirekt bestimmt werden. Nach der Fick’schen Gleichung ist die Sauerstoffaufnahme VO2 zwar proportional zum Herzzeitvolumen Qt: . V O2 = Qt . avDO2 [l/min]. [11.13] Die arteriovenöse O2-Gehaltsdifferenz des Blutes avDO2 ist aber selbst leistungsabhängig und damit variabel. Zur direkten Messung des HZV bieten sich neben den invasiven Verfahren mit Herzkatheter auch nichtinvasive Methoden an, die heute als Erweiterungsmodule des ergospirometrischen Messplatzes zur Verfügung stehen. Als internationaler Standard der nichtinvasiven Verfahren hat sich die CO2-Rebreathing-Methode, also die Rückatemmethode mit Kohlendioxid, durchgesetzt. Sie basiert wieder auf der Anwendung des vorgenannten Fick’schen Prinzips, jedoch nicht in Bezug auf die Sauerstoffaufnahme, sondern bezüglich des Austauschs von Kohlendioxid zwischen Blut- und Gasphase, also . . Qt =V CO2 / avDCO2 =V CO2 /(CVCO2 – CaCO2) [l/min], [11.14] wobei avDCO2 die arteriovenöse Gehaltsdifferenz und CVCO2 und CaCO2 der gemischt-venöse bzw. arterielle Gehalt an CO2 im Blut sind (⊡ Abb. 11.14). Das Diagramm zeigt schematisch das Zusammenwirken von Herz, Lunge und Kreislauf. Um die einzelnen Größen der letztgenannten Gleichung bestimmen zu können, wird der Proband während der ergospirometrischen Messung an ein Ventilsystem angeschlossen, das die Umschaltung der Atmung von Umgebungsluft auf einen Rückatembeutel ermöglicht. Im Beutel befindet sich ein Gasgemisch aus Sauerstoff und Kohlen-
l x min-1
2
min-1
. . RQ=VO /VO 2
–
2
. EQO2=VE /VO
–
2
–
. VO2Puls=VO / Hf
ml . min-1kg-1
Alveoloarterielle Differenz
AaDO2
mmHg
Funktionelle Totraumventilation
VDf
%
Sauerstoffpuls
des Herzzeitvolumens (HZV)
l x min-1
. EQCO2=VE /VO
Atemäquivalent (für CO2)
11.2.6 Nichtinvasive Bestimmung
2
2
⊡ Abb. 11.14. Das Fick’sche Prinzip. Das Diagramm zeigt schematisch das Zusammenwirken von Herz, Lunge und Kreislauf (RH rechte Herzkammer, LH linke Herzkammer, MV Atemminutenvolumen, VCO2 Kohlendioxidabgabe, Qt pulmonales Herzzeitvolumen, pVCO2 gemischtvenöser Kohlendioxidpartialdruck, paCO2 arterieller Kohlendioxidpartialdruck). Weitere Erläuterungen siehe Text
11
152
I
Kapitel 11 · Lungenfunktionsdiagnostik
dioxid. Der Partialdruck von CO2 wird dabei so gewählt, dass er ungefähr dem gemischt-venösen Partialdruck des Probanden auf der gewählten Leistungsstufe entspricht. Zunächst atmet der Proband Umgebungsluft – wie bei einer normalen Ergospirometrie – und die CO2-Abgabe wird laufend gemessen. Um Qt zu bestimmen, bedarf es nun der Ermittlung des arteriellen und venösen CO2-Gehalts im Blut. Zunächst wird bei Luftatmung eine Blutgasanalyse durchgeführt, um den arteriellen Partialdruck pa CO2 zu erhalten. Daraus kann der arterielle CO2-Gehalt CaCO2 mit Hilfe der Dissoziationskurve von CO2 abgeleitet werden. Approximativ lässt sich der paCO2 auch aus dem endexspiratorischen Partialdruck petCO2 ableiten, was allerdings nur bei Lungengesunden zu akzeptablen Ergebnissen führt. Nachdem die Atmung des Probanden endexspiratorisch auf den Beutel umgeschaltet wurde, beginnt das Rückatemmanöver. Der CO2-Partialdruck gleicht sich zwischen Lunge und Beutel durch die Rückatmung aus, da das rechte Herz bis zur Rezirkulation einen konstanten CO2-Partialdruck in die Lunge anliefert. Der Rückatemvorgang, der nur wenige Atemzüge dauert, wird über die CO2-Gasanalyse in Echtzeit verfolgt, bis das CO2-Äquilibrium erreicht und der gemischt-venöse CO2-Partialdruck bestimmt ist. Der gemischt-venöse CO2-Gehalt CvCO2 wird rechnerisch aus der Dissoziationskurve abgeleitet. Die CO2-Rebreathing-Methode ist ein sehr elegantes Verfahren, das keinerlei Risiken für den Probanden birgt und nur geringe Mitarbeit erfordert. Der technische Aufwand ist bei vorhandenem Ergospirometriesystem vergleichsweise gering. Die Genauigkeit ist mit der invasiver Verfahren vergleichbar (Jones 1984). Zu berücksichtigen ist, dass die Methode im Gegensatz zu den Katheterverfahren nur den pulmonalen Anteil des HZV ohne den Rechts-links-Shunt liefert.
11.2.7 Metabolisches Aktivitätsmonitoring
Die portable Ergospirometrie wurde in den letzten Jahren erheblich verbessert und wird bereits in sehr kompakter und benutzerfreundlicher Form angeboten (vgl. ⊡ Abb. 11.13). Dennoch lässt sie sich in den meisten klinischen Situationen, am Arbeitsplatz und im normalen Leben, nur mit sehr großen Einschränkungen einsetzen. Vor allem aber ist ihre Anwendung zeitlich stark begrenzt, da in der Praxis die ergospirometrischen Werte meist nur im Bereich bis zu einer Stunde aufgenommen werden können. In den letzten Jahren wurde vermehrt nach Lösungen gesucht, körperliche Aktivität über einen längeren Zeitraum, über mehrere Stunden oder Tage, ohne wesentliche Behinderung der Testperson zu erfassen. Zudem sollten die Messgeräte klein, leicht bedienbar und preisgünstig sein. Wenn auch nicht die Aussagekraft und Genauigkeit der Ergospirometrie zu erwarten wäre, so sollte die phy-
sische Aktivität mindestens in totalen Kalorien, also in einem integralen Sauerstoffäquivalent (d. h. physikalisch als Arbeit) ausgegeben werden. Entwickelt und vermarktet wurden schließlich Geräte, die die körperliche Aktivität aus der Herzfrequenz (Herzfrequenzuhr), den Schritten (Pedometer) oder der Beschleunigung in mehreren Achsen (Akzellerometer) erfassen. Aufgrund dieser Wirkprinzipien können diese Verfahren nur in sehr eingeschränkten Situationen eine Leistungserfassung und damit eine gute Korrelation mit der Sauerstoffaufnahme erreichen. Seit einigen Jahren wird ein multisensorischer Monitor in Form eines nur 80 g schweren Armbands angeboten, das am Oberarm getragen wird (⊡ Abb. 11.15a,b).
a
b ⊡ Abb. 11.15a,b. Metabolischer Armbandmonitor zur Bestimmung physischer Aktivität (Werksfoto: Bodymedia Inc., Pittsburgh)
153 Weiterführende Literatur
Das Gerät ermöglicht nicht nur die fortlaufende und zuverlässige Erfassung des kalorischen Energieumsatzes in Ruhe und unter Belastung, sondern auch die Dokumentation von Bewegungs-, Ruhe- und Schlafzeit, Schrittzahl und anderer Lebensstilparameter. Physiologische Signale wie Beschleunigung, Wärmefluss, Hauttemperatur und Hautleitfähigkeit werden kontinuierlich bis zu 14 Tage aufgezeichnet, ohne die Bewegungsfreiheit des Trägers einzuschränken. Das Gerät ist nicht manipulierbar; es schaltet sich selbsttätig ein und aus. Nach dem Einsatz werden die vom Armband aufgenommenen Daten auf einen PC übertragen und mit Hilfe künstlicher Intelligenz (Clusteranalyse, neuronale Netze, Markov Modelle u. a.) ausgewertet. Mittlerweile wird das Armband in praktisch allen Bereichen der Medizin, insbesondere bei Lungenerkrankungen, zur Bestimmung des Energieumsatzes und zur Lebensstilanalyse eingesetzt (Watz et al. 2009; Troosters et al. 2009).
11.2.8 Planerische Hinweise und
bauliche Voraussetzungen Für die Bodyplethysmographie sind keine besonderen räumlichen Voraussetzungen zu berücksichtigen. Auch kleinere Räume sind hierfür ausreichend. Wegen der druckempfindlichen Bodykammer sind Räume ohne Publikumsverkehr mit wenig Fensterflächen zu bevorzugen. Die Diffusionsmessung wird in aller Regel im gleichen Raum mit der Bodyplethysmographie durchgeführt. Neuerdings kann die Messung der Diffusion auch innerhalb der Kammer (bei offener Tür) durchgeführt werden. Geräte für N2-Washout erfordern keine besonderen räumlichen Voraussetzungen. Für die Ergospirometrie sollte ein möglichst großer und gut belüfteter Raum zur Verfügung stehen, insbesondere dann, wenn Fahrrad- und Laufbandergometer und Blutgas- oder andere Analysegeräte im gleichen Raum Platz finden sollen. Für den Patienten sollte eine Umkleidekabine und möglichst eine Dusche eingeplant werden.
Criée C-P et al. (2009) Empfehlungen der Deutschen Atemwegsliga zur Ganzkörperplethysmographie (Bodyplethysmographie). Dustri, München ERS Task Force. Oostveen E et al. (2003) The forced oscillation technique in clinical practice: methodology, recommendations and future developments. Eur Respir J 22: 1026–1041 European Respiratory Society (1993) Standardized lung function testing. Eur Respir J 6 (Suppl 16): 3–52 Fuchs SI, Buess C, Lum S, PhD,3 Kozlowska W, Stocks J, Gappa M (2006) Multiple Breath Washout With a Sidestream Ultrasonic Flow Sensor and Mass Spectrometry: A Comparative Study. Pediatr Pulmonol 41: 1218–1225 Gappa M, Buess C, Fuchs SI (2005) Slope indices from ultrasonic tidal molar mass-volume curves. ERS Congress, Copenhagen Jensen RL, Buess C, Crapo RO (2005) Ultrasonic measurements of CO2 during quiet breathing may diagnose degree of airway obstruction. ATS Convention. Jones NL (1984) Evaluation of a microprocessor-controlled exercise system. J Appl Physiol 57: 1312–1318 Matthys H (1988) Pneumologie. Springer, Heidelberg Berlin Wien Tokyo Oostveen E et al. (2003) The forced oscillation technique in clinical practice: methodology, recommendations and future developments. Eur Respir J 22: 1026–1041 Petty TI, Pierson DJ, Dick NP, Hudson LD, Walker SH (1976) Follow-up evaluation of a prevalence study for chronic bronchitis and chronic airway obstruction. Am Rev Respir Dis 114: 881–890 Rodenstein DO, Stanjescu DC (1983) Frequency dependence of plethysmographic volume in healthy and asthmatic subjects. J Appl Physiol 54: 159–165 Smith HJ, Reinhold P, Goldman MD (2005) Forced oscillation technique and impulse oscillometry. Eur Respir 31: 72–105 Troosters T et al. (2009) Skeletal muscle weakness, exercise tolerance and physical activity in adults with cystic fibrosis. Eur Respir J 33: 99–106 Ulmer WT, Nolte D, Lecheler J (2003) Die Lungenfunktion. Methodik und klinische Anwendung. Thieme, Stuttgart Wasserman K, Hansen JE, Sue DY (2004) Principles of Exercise Testing and Interpretation: Including Pathophysiology and Clinical Applications. Lippincott Raven, Philadelphia Watz H et al. (2009) Physical activity in patients with COPD. Eur Respir J 33: 262–272 Winkler J, Hagert-Winkler A, Wirtz H, Hoheisel G (2009) Die moderne Impulsoszillometrie im Spektrum lungenfunktioneller Messmethoden. Pneumologie 63: 461–469
Weiterführende Literatur Literatur ATS/ERS TASK FORCE. MacIntyre N et al. (2005) Standardisation of the single-breath determination of carbon monoxide uptake in the lung. Eur Respir J 26: 720–735 ATS/ERS TASK FORCE. Miller MR et al. (2005a) General considerations for lung function testing. Eur Respir J 26: 153–161 ATS/ERS TASK FORCE. Miller MR et al. (2005b) Standardisation of spirometry. Eur Respir 26: 319–338 ATS/ERS TASK FORCE. Pellegrino R et al. (2005) Interpretative strategies for lung function tests. Eur Respir J 26: 948–968 ATS/ERS TASK FORCE. Wanger J et al. (2005) Standardisation of the measurement of lung volumes. Eur Respir J 2005; 26: 511–522 Buess C, Pietsch P, Guggenbühl W, Koller EA (1986) A pulsed diagonal beam ultrasonic airflow meter. J Appl Physiol 61(3): 1195–1199
Baur X (1998) Lungenfunktionsprüfung und Allergiediagnostik. Dustri, München Bösch D, Criée C-P (2009) Lungenfunktionsprüfung: Durchführung – Interpretation – Befundung. Springer, Heidelberg Berlin Wien Tokyo Haber P (2004) Lungenfunktion und Spiroergometrie. Springer, Wien Jones NL (1997) Clinical exercise testing. Elsevier, Oxford Lindemann H, Leupold W (2003) Lungenfunktionsdiagnostik bei Kindern. Kohlhammer, Stuttgart Petro W, Konietzko N (1992) Lungenfunktionsdiagnostik. In: Ferlinz R (Hrsg) Diagnostik in der Pulmologie. Thieme, Stuttgart Rothe T (2006) Lungenfunktion leicht gemacht. Jungjohann, Neckarsulm Ulmer T (2004) Lungenfunktions-Manual: Nach den Richtlinien der Deutschen Gesellschaft für Pneumologie. Thieme, Stuttgart
11
12 Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP) K.-P. Hoffmann, U. Krechel
12.1
Grundlagen
– 155
12.3
Elektromyograph – 175
12.1.1 12.1.2
Neurophysiologische Grundlagen – 155 Technische Grundlagen – 158
12.2
Elektroenzephalograph – 166
12.2.1 12.2.2 12.2.3 12.2.4 12.2.5 12.2.6
Signal – 166 Gerätetechnik – 168 Methodik – 169 EEG-Ableitverfahren – 169 Auswertung/Signalanalyse – 172 Spezielle Methoden – 173
12.3.1 12.3.2 12.3.3 12.3.4 12.3.5 12.3.6
Signal – 176 Gerätetechnik – 176 Elektromyographie (EMG) – 179 Elektroneurographie (ENG) – 181 Evozierte Potentiale (EP) – 184 Ereignisbezogene Potentiale (ERP) – 191
Methoden der Klinischen Neurophysiologie, wie die Elektroenzephalographie (EEG), Elektromyographie/ Elektroneurographie (EMG/ENG) und die Ableitung der evozierten Potentiale (EP) (⊡ Abb. 12.1), ermöglichen die Beurteilung des Funktionszustandes des zentralen und peripheren Nervensystems sowie der Muskulatur. Dabei werden bioelektrische Potentiale messtechnisch erfasst, verstärkt, gespeichert, analysiert und bewertet. Die für die Funktionsdiagnostik des Nervensystems eingesetzten medizintechnischen Geräte sind der Elektroenzephalograph und der Elektromyograph. Ihr jeweiliger Aufbau, ihre Funktionsweise sowie die klinisch gebräuchlichen Methoden werden in diesem Kapitel dargestellt.
12.1
Grundlagen
12.1.1 Neurophysiologische Grundlagen
Nervensystem Erregbare Zellen reagieren auf einen Reiz mit einer Änderung ihrer elektrischen Membraneigenschaften. Wird eine erregbare lebende Zelle gereizt, ändert sich an ihrer Membran die Ionenleitfähigkeit. Aus dem bestehenden Ruhemembranpotential (50–100 mV) kann ein Aktionspotential werden, das durch eine Nervenzelle weitergeleitet wird und am Muskel zur Kontraktion führt. Das motorische Neuron und alle von ihm versorgten Muskelfasern bilden eine motorische Einheit. Die Zahl der von einem Motoneuron versorgten Muskelfasern variiert stark und beträgt bei Augenmuskeln 5 und beim M. temporalis über 1000.
Literatur
– 192
Das Zentralnervensystem (⊡ Abb. 12.2) besteht aus dem Gehirn und dem Spinalkanal. Es ist der zentrale Teil des gesamten Nervensystems und stellt ein kompliziert verschaltetes Informationsverarbeitungssystem dar. Die mittels Sinnesorgan aufgenommenen Informationen (109 bit/s) werden während ihrer Weiterleitung zum Zentralnervensystem durch hemmende und fördernde Verschaltung an den Synapsen auf 101–102 bit/s vermindert. Nach ihrer Verarbeitung und Analyse werden sie als Reaktionen in Form von Bewegungen, Verhalten oder Organtätigkeit umgesetzt. Zu den Leistungen des Gehirns gehören neben der willentlichen Bewegung auch Emotionen und geistige Fähigkeiten wie Gedächtnis und Lernen. Verschiedene Ebenen des zentralen Nervensystems sind an der Steuerung des vegetativen Nervensystems beteiligt: ▬ das limbische System zur Steuerung des emotionalen Antriebs, ▬ der Hypothalamus für die homöostatische Regulation, ▬ die Medulla oblongata zur Regelung des Tonus des Sympathikus, ▬ das Rückenmark bei der Schaltung spinaler Reflexe. Zum peripheren Nervensystem (⊡ Abb. 12.2.) werden alle Nerven und Ganglien gezählt, die sich außerhalb des zentralen Nervensystems befinden. Zu ihnen gehören die efferenten (motorischen) Bahnen, über die Skelettmuskeln innerviert werden. Afferente (sensorische) Bahnen leiten Erregungen aus der Körperperipherie, den Rezeptoren der Haut und der inneren Organe an das Zentralnervensystem.
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _12, © Springer-Verlag Berlin Heidelberg 2011
156
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
I
⊡ Abb. 12.1. Methoden der Klinischen Neurophysiologie zur Diagnostik von Funktionsstörungen im zentralen und peripheren Nervensystem sowie der Muskulatur
⊡ Abb. 12.2. Schematische Darstellung des zentralen und peripheren Nervensystems und des Einsatzbereichs von EEG und EMG
157 12.1 · Grundlagen
Das vegetative Nervensystem oder autonome Nervensystem ist ein Teil des peripheren Nervensystems. Es regelt die Organfunktionen im Körper, passt sie den jeweiligen Bedürfnissen an und kontrolliert das innere Milieu des Körpers. Diese Aktivitäten laufen weitgehend unbewusst ab und entziehen sich einer willkürlichen Kontrolle. Beispiele für geregelte Vitalfunktionen sind Herzschlag, Atmung, Blutdruck, Verdauung und Stoffwechsel. Das vegetative Nervensystem lässt sich in drei Gruppen untergliedern: ▬ sympathisch: leistungsfördernde (ergotrope) Wirkung ▬ parasympathisch: überwiegend erhaltungsfördernde (trophotrope) Wirkung ▬ enterisch: weitgehend vom Zentralnervensystem unabhängiges Nervensystem des Gastrointestinaltrakts
Muskuläres System Skelettmuskeln (⊡ Abb. 12.2) können die chemische Energie als ATP direkt in mechanische Energie und Wärmeenergie umwandeln. Ihre Innervation erfolgt willkürlich über Motoneurone. Die Auslösung einer Kontraktion geschieht ausschließlich durch Aktionspotentiale an der motorischen Endplatte. Auffallendes Merkmal der Skelettmuskelzellen ist die Querstreifung der Myofibrillen mit ihrer regelmäßigen Abfolge dunkler anisotroper (AStreifen) und heller isotroper (I-Streifen) Banden. Glatt werden alle Muskeltypen genannt, die keine Querstreifung aufweisen. Sie bestehen aus langen spindelförmigen Zellen, die locker angeordnet und dadurch beweglich sind. Die glatte Muskulatur kleidet innere Organe wie den Magen oder Darm, aber auch die Wände von Blutgefäßen aus. Darüber hinaus besitzt die glatte Muskulatur eine eigene Erregungsbildung und wird unwillkürlich vom vegetativen Nervensystem innerviert. Sie führt relativ langsame Bewegungen aus, ermüdet nur langsam und kann über längere Zeit auch große Kräfte entwickeln. Der Herzmuskel besitzt Eigenschaften der quergestreiften und glatten Muskulatur. Er verfügt über eine eigene Erregungsbildung und wird unwillkürlich von vegetativen Nerven beeinflusst.
Entstehung von Ruhe- und Aktionspotential Aufgrund einer unterschiedlichen Verteilung von Ionen im Innen- und Außenmilieu von lebenden Zellen tritt an der Zellmembran ein Membranpotential auf. Dieses wird durch aktive Transportmechanismen (Ionenpumpe) erzeugt und aufrecht erhalten. Die Konzentration der K+ Ionen im Zellinneren ist etwa 30-mal größer als außerhalb, sodass das Zellinnere im unerregten Zustand negativ gegenüber der Außenflüssigkeit geladen ist. Das
Ausmaß dieser Ladungsverzerrung hängt von der Membrankapazität ab. Das Aktionspotential ist eine durch überschwellige Zellreizung verursachte Spannungsänderung an der Membran lebender Zellen. Es tritt in Folge einer Änderung der Ionenleitfähigkeit der erregten Membran auf und besteht aus drei Phasen: rasche Depolarisation, langsame Repolarisation und Nachhyperpolarisation. Die Dauer des Aktionspotentials ist abhängig von der Temperatur und der jeweiligen Zelle. Ein motorischer Nerv leitet das Aktionspotential entlang des Axons weiter, sodass es am Muskel zu einer Kontraktion kommen kann.
Fortleitung des Aktionspotentials Die Erregungsleitung unterscheidet sich grundlegend von der Art der Nervenfaser. So tritt bei markhaltigen Fasern eine saltatorische und bei marklosen eine kontinuierliche Erregungsleitung auf. Markhaltige Fasern besitzen von Myelin umgebene Axone. Diese isolierende Myelinschicht ist von RanvierSchnürringen unterbrochen. Eine Erregungsleitung kann daher nur in Sprüngen von einem Schnürring zum anderen über eine Distanz von 1–2 mm erfolgen. Dabei werden Geschwindigkeiten bis zu 120 m/s erreicht.
Neuromuskuläre Überleitung Die Übertragung der Erregung von einer Nervenzelle zu einer zweiten oder vom Nerv zum Muskel erfolgt über Synapsen. Unterschieden werden Synapsen mit elektrischer oder chemischer Übertragung sowie mit erregender oder hemmender Wirkung. Die chemische Übertragung erfolgt über Transmitter. Erregende Synapsen setzen bspw. Acetylcholin, Adrenalin, Noradrenalin und Serotonin frei, wodurch es zu einem exzitatorischen postsynaptischen Potential (EPSP) kommt. Inhibitorische Synapsen setzen hemmende Transmitter frei, bspw. GABA. Es kommt zu einem inhibitorischen postsynaptischen Potential (IPSP). Das Ergebnis für eine mögliche Weiterleitung von Erregungen ergibt sich aus der räumlichen und zeitlichen Summation der exzitatorischen oder inhibitorischen Wirkung der einzelnen Synapse. Die Überleitung von einem Neuron auf einen Muskel geschieht an der motorischen Endplatte. Ankommende Aktionspotentiale setzen Acetylcholin frei, wodurch es zu einer Endplattendepolarisation kommt. Nach der Überschreitung einer kritischen Schwelle ist die Muskelmembran erregt und die Muskelfaser kontrahiert. Das Acetylcholin wird durch Cholinesterase gespalten. Dies zieht eine Repolarisation der Endplatte nach sich, wodurch der Ausgangszustand wieder erreicht wird und sie erneut erregt werden kann.
12
158
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
12.1.2 Technische Grundlagen
I
Die Methoden der Klinischen Neurophysiologie passen sich in das Spektrum diagnostischer Verfahren ein (⊡ Abb. 12.3). Sie ergänzen, wie die anderen diagnostischen Methoden der Labordiagnostik, der Bildgebung und Funktionsdiagnostik, die Diagnosefindung auf der Grundlage der Anamnese und der klinischen Untersuchung. Aus dem Gesamtbild der Bewertung und Befundung der erforderlichen Untersuchungen kommt der Arzt zur Diagnose und damit zur Therapie. Der Therapieverlauf und prognostische Aussagen können im Rahmen eines Monitorings objektiviert werden. Die in der Klinischen Neurophysiologie zu bewertenden Signale sind elektrische Potentialdifferenzen. Ihre Ableitung wird mit Nadel- oder Oberflächenelektroden realisiert. Die so messtechnisch erfassten Signale werden konditioniert, gefiltert und verstärkt. Dabei richtet sich die jeweilige Empfindlichkeit und die Bandbreite des Verstärkers nach dem abzuleitenden Signal. Diese Biosignale können Amplituden von wenigen Mikrovolt bis zu einigen Millivolt und Frequenzen von Gleichspannung bis 30 kHz haben. Mit Hilfe von Differenzverstärkern, die sich in der Empfindlichkeit und im Frequenzgang unterscheiden, werden sie verstärkt und anschließend registriert. Die Auswertung erfolgt sowohl visuell als auch rechnergestützt, wobei die Signale auch gespeichert werden können. Die Si-
gnalverarbeitung dient mit an die Fragestellung angepasster Software der Unterstützung einer Auswertung. Die Befundung ist immer eine ärztliche Leistung. Die Patientendaten, Rohsignale, Ergebnisse der Analyse und der Befund werden häufig in der elektronischen Patientenakte gespeichert und können ausgedruckt werden. Bei vielen Diagnostikmethoden werden dem Patienten Reize appliziert, wie z. B. bei der Fotostimulation, für die Ableitung evozierter Potentiale und zur Bestimmung der Nervenleitgeschwindigkeit. Der Zeitpunkt des Reizes ist in die Auswertung der reizbezogenen Potentiale mit einzubeziehen. Es werden elektrische, akustische, optische und magnetische Stimulatoren für verschiedene Fragestellungen eingesetzt. Die Signalerfassung, Filterung, Verstärkung und Auswertung hat so zu erfolgen, dass die Signale unverfälscht registriert und gespeichert werden können. Die Reproduzierbarkeit der Ergebnisse ist gegebenenfalls durch eine Doppelbestimmung, wie bei der Ableitung der evozierten Potentiale, nachzuweisen. Die Signalerfassung geschieht rückwirkungsfrei, das heißt die Messung beeinflusst den Messwert bzw. das Signal nicht.
Elektroden Elektroden stellen die Schnittstelle zwischen dem technischen System und dem biologischen Gewebe dar. In der Klinischen Neurophysiologie benutzt man Elektroden, die
⊡ Abb. 12.3. Messtechnische Erfassung bioelektrischer Potentiale in der Klinischen Neurophysiologie im Prozess der Diagnosefindung
159 12.1 · Grundlagen
auf der Körperoberfläche unmittelbar mit der Haut über Elektrolytschichten kontaktiert werden (Oberflächenelektroden) oder Nadelelektroden, die wie eine Kanüle unter die Haut (subkutan) oder in den (intramuskulär) Muskel gestochen werden. Die Bauformen und eingesetzten Materialien unterschieden sich in Abhängigkeit von der Anwendung. Elektrisch gesehen, lassen Elektroden sich als elektromotorische Kraft und ein Netzwerk aus Kondensatoren und Widerständen darstellen, wobei diese Komponenten vom Elektrodenmaterial, dem Elektrolyten, der Geometrie, der Stromdichte sowie der Signalfrequenz abhängen. Vereinfacht kann man das in der ⊡ Abb. 12.4. angegebene Ersatzschaltbild annehmen. Dabei sind Ep die Polarisationsspannung, Cü der kapazitive Anteil des Übergangswiderstandes (Helmholtz-Kapazität), Rü der Ohmsche Anteil des Übergangswiderstandes (Faraday-Widerstand) und Re der Elektrodenwiderstand einschließlich Zuleitungen. Die Helmholtz-Kapazität ist direkt proportional und der Faraday-Widerstand indirekt proportional zur Fläche. Bringt man eine Metallelektrode in eine Elektrolytlösung, so gehen aufgrund des Lösungsdrucks positiv geladene Metallionen in die Lösung über. Dem wirken der osmotische Druck und die Feldkraft des entstehenden elektrischen Feldes entgegen. Es kommt zu einer elektrischen Aufladung der Elektrode und zum Aufbau einer Schicht entgegengesetzter Ladung im molekularen Abstand von der Phasengrenze. Diese Helmholtzsche Doppelschicht verhält sich wie ein Kondensator mit molekularem Plattenabstand, wobei die Plattenspannung als elektromotorische Kraft anzusehen ist und als Galvanispannung bezeichnet wird. Ihre Größe ist vom jeweiligen Material abhängig. Reine Metallelektroden werden daher als polarisierbare Elektroden bezeichnet. Überzieht man diese Metallelektroden mit einem schwerlöslichen Salz (z. B. Ag mit AgCl), wobei das gleiche Anion im Elektrolyten zu finden sein muss (z. B. bei NaCl), erhält man unpolarisierbare Elektroden mit wesentlich geringeren und stabileren Galvani-Spannungen. ⊡ Abb. 12.5 ( 4-Farbteil am Buchende) spiegelt die Charakterisierung von gesinterten Ag/AgClElektroden über einen Zeitraum von 10 Tagen wider. Es ist die gute Langzeitstabilität und die große Bandbreite bis weit in den niederfrequenten Bereich dieser Materialien
ersichtlich. Damit sind Ag/AgCl-Elektroden für fast alle Signale der Klinischen Neurophysiologie einsetzbar.
Ableitarten Bipolare Ableitung
Die bipolare Ableitung ist eine in der Klinischen Neurophysiologie sehr häufig eingesetzte Methode zur messtechnischen Erfassung bioelektrischer Potentialdifferenzen. Zwei gleichartige Elektroden werden auf bioelektrisch aktiven Gebieten platziert. Jede Elektrode ist mit einem Eingang des Verstärkers verbunden. Durch Verwendung eines Differenzverstärkers wird die jeweilige Differenz der beiden Elektrodenpotentiale verstärkt. Beim Einsatz mehrerer Elektroden, wie z. B. im EEG, lassen sich Reihen von Elektroden bilden. Die Ausgangspannungen entsprechen dann jeweils der Differenz zwischen der vorangehenden und der nachfolgenden Elektrode. Wenn man eine Potentialverteilung annimmt, deren Verlauf an- und absteigend ist und diesen mit 5 Elektroden erfassen möchte, wobei die mittlere Elektrode auf dem Punkt mit dem höchsten Potential platziert wurde, dann ergibt sich der in der ⊡ Abb. 12.6a über dem Untersuchungsgebiet Dargestellte Messaufbau. Es ist ersichtlich, dass die Ausgangsspannungen U1 und U2 nach unten und die der Spannungen U3 und U4 nach oben gerichtet sind. Im Maximum der Potentialverteilung kommt es zu einer Phasenumkehr. Derartige Potentialmaxima treten z. B. in der Randzone eines Tumors auf und ermöglichen eine Lokalisation des Herdes. Mit der bipolaren Ableitung wird der Potentialgradient korrekt erfasst. Unipolare Ableitung
Bei der unipolaren Ableitung (⊡ Abb. 12.7) ist allen Kanälen eine Referenzelektrode gemeinsam. Diese Referenzelektrode wird auf ein elektrisch möglichst inaktives Gebiet platziert, sodass sie keine oder nur geringe Aktivität erfasst. Sie wird deshalb auch als neutral oder indifferent bezeichnet. Da aber eine Beeinflussung dieser Elektrode durch zerebrale Potentiale nicht auszuschließen ist, handelt es sich eher um einen hypothetischen Punkt. Die auf dem bioelektrisch eher als aktiven Gebiet platzierte Elektrode ist die differente Elektrode. Für die bereits eingeführte Potentialverteilung wurde in der ⊡ Abb. 12.7 die unipolare Ableitung dargestellt. Für die Referenzelektrode wurde ein Potential er angenommen. Aus der Abbildung ist erkennbar, dass es bei der unipolaren Ableitung zu keiner Phasenumkehr kommt. Ein möglicher Herd wird durch die Größe der korrekt registrierten Potentialdifferenz lokalisiert. Ableitung gegen eine Durchschnittsreferenz
⊡ Abb. 12.4. Ersatzschaltbild einer Ableitelektrode
Die Referenz bei einer Ableitung gegen eine Durchschnittsreferenz (⊡ Abb. 12.8) ist der Mittelwert aller Elek-
12
160
I
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
trodenspannungen. Dies kann softwaremäßig oder durch Verbinden aller Elektroden über gleich große Widerstände mit einem Referenzpunkt erreicht werden. Da die Summe der Ströme in diesem Punkt gleich Null ist, kann gezeigt werden, dass das erzielte Potential genau dem Mittelwert aller einzelnen Elektrodenspannungen entspricht. Auch bei dieser Ableitung kommt es zu einer Phasenum-
kehr. Die Ausgangsspannung entspricht der Differenz zwischen der jeweiligen Elektrodenspannung und dem Referenzpotential. Quellenableitung
Bei der Quellenableitung werden die Elektroden ebenfalls auf elektrisch aktiven Gebieten platziert. Die Ableitung
a
b ⊡ Abb. 12.6a,b. Bipolare Ableitung. a Schematische Darstellung der Elektrodenverschaltung, b Beispiel einer Registrierung. Die Phasenumkehr zwischen C3-P3 und P3-O1 ist im markierten Kurvenbereich gut zu erkennen
161 12.1 · Grundlagen
erfolgt gegen eine Referenz, welche die unmittelbare Umgebung der interessierenden Elektrode berücksichtigt. Im Unterschied zur Ableitung gegen eine Durchschnittsreferenz ist ihr Potential bei der Bestimmung der Referenzspannung nicht beteiligt. Bei der Quellenableitung (⊡ Abb. 12.9) wird die Differenz zwischen dem Potential der interessierenden
Elektrode und dem gewichteten Mittelwert der Potentiale der umgebenden Elektroden gebildet. Die Wichtung w ist ein Faktor, der sich aus dem reziproken Wert der Entfernung ergibt. Bei einer quadratischen Elektrodenanordnung ist w=1 für den einfachen, w=0,5 für den doppelten und w=0,707 für den diagonalen Abstand anzusetzen. Um den gewichteten Mittelwert
a
b ⊡ Abb. 12.7a,b. Unipolare Ableitung. a Schematische Darstellung der Elektrodenverschaltung, b Beispiel einer Registrierung. Der gleiche Kurvenabschnitt aus Abb. 11.6 wurde auch hier markiert. Die spikeförmige Aktivität imponiert mit einer hohen Amplitude im Kanal P3-A1
12
162
I
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
zu erhalten, wird die Summe der gewichteten Elektrodenspannungen durch die Summe der Wichtungen dividiert. Der Wert der Quellenableitung liegt in der besseren Darstellung lokaler Ereignisse durch die Eliminierung von Fernfeldanteilen im örtlichen Potential, wie z. B. der Einfluss des EOG beim Öffnen der Augen. Allerdings
wird das örtliche Potential selbst durch die Quellenableitung nicht genauer wiedergegeben.
Elektrodenplatzierung Für reproduzierbare Ableitungen und für die Vergleichbarkeit der Ergebnisse bei Verlaufsuntersuchungen ist es
a
b ⊡ Abb. 12.8a,b. Ableitung gegen eine Durchschnittsreferenz. a Schematische Darstellung der Elektrodenverschaltung, b Beispiel einer Registrierung. Die spikeförmige Aktivität zeigt sich mit einer sehr großen Amplitude auf Kanal P3 AVR mit ca. 300 μV
163 12.1 · Grundlagen
erforderlich, dass die Elektroden jeweils auf die gleichen Positionen gesetzt werden. Das zu verwendende System darf nicht starr sein, sondern muss sich den verschiedenen Kopfgrößen (neonatales EEG, EEG bei Kindern und EEG bei Erwachsenen) anpassen (⊡ Abb. 12.10). Daher muss es von leicht zu findenden und zuverlässig definierten Punkten am Schädel ausgehen. Diese Punkte
sind das Nasion (Nasenwurzel, tiefster Punkt zwischen Nase und Stirn in der Mitte zwischen den Augen), das Inion (unterer Knochenhöcker in der Mitte des Hinterkopfes am Ansatz der Nackenmuskulatur) und die beiden präaurikulären Punkte (Vertiefung vor dem äußeren Gehörgang direkt unterhalb des Jochbeins und oberhalb des Unterkiefergelenks).
a
b
⊡ Abb. 12.9a,b. Quellenableitung. a Schematische Darstellung der Elektrodenverschaltung, b Beispiel einer Registrierung. P3 imponiert auch hier mit einer hohen Amplitude
12
164
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
I
⊡ Abb. 12.10. Ten-Twenty System zur Elektrodenplatzierung (10/20- System); gerade Zahlen: rechte Kopfseite, ungerade Zahlen: linke Kopfseite, F: frontal, C: zentral, P: parietal, O: okzipital, T: temporal, A: aurical
Die Verbindungslinien zwischen Nasion und Inion sowie zwischen den präaurikulären Punkten schneiden sich im Vertex (Cz). Die Verbindungslinien werden in 10- bzw. 20%-Abschnitte eingeteilt. In den Schnittpunkten der sich ergebenden Längs- und Querreihen werden die Elektroden platziert. Die Bezeichnung der Positionen erfolgt nach Regionen: Fp = frontopolar, F = frontal, C = zentral, P = parietal, O = okzipital, T = temporal, A = aurical und zusätzlich cb = cerebellär sowie pg = pharyngeal. Die Numerierung der Elektroden gibt Auskunft über die Hemisphäre (eine ungerade Zahl entspricht der linken, eine gerade der rechten Seite) und den Abstand von der Mittellinie, wobei z = zero (Null) bedeutet. Die Abstände der Elektroden innerhalb einer einzelnen Reihe sind gleich. Bei Teilung der Linien in 10-, 20-, 20-, 20-, 20- und 10%-Abschnitte ergeben sich für die sagittale Längsreihe die Elektrodenpositionen Fpz, Fz, Cz, Pz und Oz sowie für die mittlere Querreihe T3, C3, Cz, C4 und T4. Dabei werden die Positionen Fpz und Oz in der Regel nicht mit Elektroden besetzt. Teilt man in gleicher Weise die Strecken Fpz, Oz, die über T3 bzw. T4 führen, ergeben sich auf der linken Hemisphäre die Positionen Fp1, F7, T3, T5 und O1 sowie auf der rechten Seite Fp2, F8, T4, T6 und O2. Über die Elektroden Fp1, C3 und O1 sowie Fp2, C4 und O2 lassen sich zwei parasagittale Längsreihen ziehen, die sich mit der vorderen (F7, Fz und F8) und der hinteren Querreihe (T5, Pz und T6) schneiden. Diese Schnittpunkte ergeben die Positionen für die Elektroden F3, F4, P3 und P4. Zwischen diesen Standardpositionen können noch weitere Elektroden, z. B. F1, F2, F5 und F7
für die vordere Querreihe gesetzt werden. Die Erdelektroden werden an den Ohrläppchen, die den Positionen A1 und A2 entsprechen, befestigt.
Verstärker In der Klinischen Neurophysiologie wird zur Verstärkung der abgeleiteten Biosignale i. d. R. ein Differenzverstärker eingesetzt. Diese Verstärker, deren Prinzip 1931/32 von J. F. Tönnies im Kaiser-Wilhelm-Institut Berlin entwickelt wurde, verstärken die Differenz zweier Eingangspotentiale. Praktisch unterscheiden sich die Verstärkungen für Gleichtaktsignale (z. B. gleichphasische Störsignale, die über die Zuleitungen eingestreut werden und an beiden Eingängen in gleicher Weise anliegen) und für Gegentaktsignale (eine bestehende Potentialdifferenz aufgrund eines bioelektrischen Generators). Das Verhältnis beider Verstärkungen wird Gleichtaktunterdrückung bzw. Rejektionsfaktor genannt. Die Gleichtaktunterdrückung sollte im Bereich von 80 bis 120 dB liegen, d. h. die Verstärkung von Gegentaktsignalen ist 104 bzw. 106-mal größer als die Verstärkung der Gleichtaktsignale. Differenzverstärker haben einen invertierenden und einen nicht invertierenden Eingang. Nach der Lyoner Vereinbarung von 1980 ist eine Verschaltung so vorzunehmen, dass eine Negativierung unter der differenten Elektrode zu einer positiven Amplitudenänderung des registrierten Signals führt. Ein weiteres Merkmal des Verstärkers ist der Verstärkungsfaktor, der Quotient von Ausgangsspannung zur
165 12.1 · Grundlagen
Auch unterscheiden sich die Arbeitsplätze dahingehend, ob – wie beim EMG – die Untersuchung von einem Facharzt oder – wie beim EEG – von einer MTA für Funktionsdiagnostik ausgeführt wird. Eine Vernetzung der Ableitstationen und die Einbeziehung von Auswertstationen ist zu empfehlen. Damit sind alle Daten an jedem PC präsent und der befundende Arzt kann unmittelbar alle Informationen abrufen. Computersysteme für die niedergelassene neurologische Praxis bestehen meist aus einer Ableit- und Auswertstation. Sie arbeiten mit einer einfachen Netzwerkfunktion »peer-to-peer«, bei der ein Datentransfer nur zwischen zwei Stationen gesteuert werden muss. Bei größeren Systemen ab 4 Ableitstationen empfiehlt sich die Installation eines lokalen Netzwerkes (LAN) mit einem eigenen Server.
Eingangsspannung. Dieser wird häufig über die Empfindlichkeit angegeben. Groß gewählt werden sollte die Eingangsimpedanz des Verstärkers (50–200 MΩ). Dies ist erforderlich, um einmal die Potentialquelle strommäßig nicht zu belasten und damit rückwirkungsfrei die Signale zu erfassen. Zum anderen kann so der Einfluss der Elektrodenübergangswiderstände minimiert werden. Der Frequenzgang ist ein Maß für das dynamische Übertragungsverhalten elektronischer Baugruppen und spiegelt die Abhängigkeit der Verstärkung von der Frequenz des Signals wider. Er kann aus dem Quotienten der komplexen Amplituden von Ausgangs- und Eingangssignal für eine stationäre Sinusschwingung berechnet werden. Ein Hochpass lässt Signale oberhalb einer bestimmten Grenzfrequenz ohne wesentliche Abschwächung passieren. Der Hochpass wird zur Verringerung niederfrequenter Störungen (z. B. Nullliniendrift) verwendet. Anstelle der Grenzfrequenz wird mitunter die Zeitkonstante angegeben, die sich aus der exponentionell abfallenden Antwort des Hochpasses auf eine Sprungfunktion ergibt. Dabei ist die Zeitkonstante jene Zeit, während der die Amplitude auf 37% ihres Anfangswertes sinkt. Dagegen lässt ein Tiefpass Signale unterhalb einer bestimmten Grenzfrequenz ohne wesentliche Abschwächung passieren. Der Tiefpass wird eingesetzt, um den Einfluss hochfrequenter Störungen (wie z. B. das Rauschen) zu verringern. Im Unterschied dazu beruht der Phasengang auf einer Phasendifferenz, die gewöhnlich zwischen sinusförmigen Ein- und Ausgangsspannungen eines Ableitsystems auftritt. Eine weitere Eigenschaft des Verstärkers ist das Rauschen, das aufgrund des akustischen Klangbildes so bezeichnet wird. Es ist ein kleines Störsignal über einen breiten Frequenzbereich, das auch bei kurzgeschlossenem Eingang am Ausgang registrierbar ist. Als Ursache können thermische Elektronenbewegungen in resistiven Komponenten genannt werden.
Signalprocessing
Registrierung/Speicherung
Artefakte
Neben den Rohsignalen werden auch Patientennamen, Datum und Art der Ableitungen sowie die entsprechenden Befundtexte in einer Datenbank bzw. elektronischer Patientenakte gespeichert. Auf einen Blick lassen sich alle bereits durchgeführten Untersuchungen mit ihren Messergebnissen erkennen, bei Verlaufskontrollen sind diese Daten unmittelbar abrufbar.
Artefakte sind Störspannungen, die dem Signal überlagert sind und dieses verfälschen. Ihre Ursache kann in technischen oder biologischen Prozessen liegen. Biologische Artefakte werden durch den Patienten selbst generiert. Es sind zum einen physiologische Signale, die dem gewünschten Potential überlagert sind, z. B. das EEG dem evozierten Potential oder das EKG und EOG dem EEG. Auch treten durch Verspannung, Bewegung oder Schwitzen des Patienten zusätzliche Potentiale auf. Technische Artefakte werden durch das verwendete Gerät selbst erzeugt oder von außen eingekoppelt. Zu den Artefakten der Messapparatur gehören das Rauschen der Verstärker, 50 Hz Störspannung infolge fehlender oder ungenügender Erdung und die Verwendung ungeeigneter Elektroden. Eingekoppelt werden Artefakte galvanisch, kapazitiv oder induktiv.
Vernetzte Systeme In Abteilungen der Klinischen Neurophysiologie werden verschiedene Arbeitsplätze für die Signalerfassung eingesetzt. Meistens sind die einzelnen Ableitstationen für spezielle Anwendungen, z. B. EEG, EMG/ENG und evozierte Potentiale, mit entsprechender Hardware wie Stimulatoren, Untersuchungsliege, Elektroden usw. ausgestattet.
Das Signalprocessing spielt für die Klinische Neurophysiologie eine große Rolle. Nach einer Vorverarbeitung und Analog-/Digitalwandlung stehen die Daten für eine weitere Auswertung zur Verfügung. Die meisten Geräte verfügen über eine Software, die eine Darstellung, Ausmessung, das Erkennen einfacher Artefakte und Ereignisse sowie erste Analysen ermöglicht. Das Spektrum denkbarer Verfahren ist breit. Die Fast Fourier Transformation (FFT) zur Frequenzanalyse, das Averaging zur Verbesserung des SignalStörabstandes bei evozierten Potentialen, der Einsatz neuronaler Netze zur Mustererkennung, die Anwendung von speziellen adaptiven Filtern, die Analyse von Schlafstadien und die Lokalisation von Quellen der bioelektrischen Aktivität sind einige Beispiele. Häufig ist der direkte Zugriff auf die Rohdaten gegeben, sodass durch die Verwendung von MATLAB® oder LabView® eine eigene Applikationssoftware erstellt und eingesetzt werden kann.
12
166
I
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Möglichkeiten einer Artefaktunterdrückung bestehen zum einen durch eine 50-Hz-Bandsperre. Die mit Reizen korrelierenden Signalanteile lassen sich durch Averaging aus der Hintergrundaktivität selektieren. Spezielle Algorithmen und der Einsatz neuronaler Netze können zu einer Erkennung von biologischen Artefakten eingesetzt werden und diese vom abgeleiteten Signal trennen. Auch adaptive Filter können der Artefaktunterdrückung dienen.
(entzündliche Erkrankungen, Hirnblutungen, Metabolismus, Pharmaka, Drogen), Funktionsstörungen infolge von Raumforderungen (Erhöhung des Hirndrucks, Blutungen, Tumore, Schädelhirntraumen), Schlafdiagnostik, Feststellung des Hirntodes, Vigilanzstörungen und der Bestimmung der Narkosetiefe. Das EEG wurde 1924 erstmals von Hans Berger in Jena vom Menschen abgeleitet.
12.2.1 Signal
Sicherheitstechnische Aspekte Für die Geräte der Klinischen Neurophysiologie gelten die allgemeinen Grundforderungen für die Anwendung medizintechnischer Produkte, das heißt das jeweilige Gerät, die Installation und die Bedienung müssen sicher sein. Die Einhaltung der technischen Parameter, wie z. B. Patientenableitstrom oder Geräteableitstrom, ist in vorgegebenen Abständen nachzuweisen. Jede der genannten Untersuchungsmethoden sollte in einem gesonderten Raum durchgeführt werden. Dabei ist zu vermeiden, die Ableiträume in die Nähe von großen Stromverbrauchern wie Fahrstühlen, Radiosendern, Magnetresonanztomographen (MRT) oder Computertomographen (CT) zu legen. Fahrstühle sollten 10–15 m entfernt sein. Meistens sind in Kliniken MRT und CT von anderen Funktionseinheiten entfernt installiert. Generell ist für neurophysiologische Untersuchungen heute aufgrund der hohen Gleichtaktunterdrückung moderner Verstärker keine spezielle Raumabschirmung im Sinne eines Faraday-Käfigs notwendig. Zu beachten bleibt jedoch, dass die elektrostatische Aufladung von Schuhen und Kunstfaserkleidung durch Erdung leicht entladen werden kann. Auch sind der Ableitstuhl oder die Untersuchungsliege sowie der Patient mit Erdpotential zu verbinden.
12.2
Elektroenzephalograph
Die Elektroenzephalographie (EEG) zeichnet elektrische Potentialdifferenzen, deren Ursache in zerebralen Vorgängen liegen, mit Hilfe von Elektroden auf, die i. d. R. auf der intakten Kopfhaut platziert wurden. EEG-Geräte finden Anwendung in der neurophysiologischen Funktionsdiagnostik in niedergelassenen neurologischen Praxen, neurologischen Abteilungen von Krankenhäusern, neurologischen Kliniken sowie in Epilepsiezentren, neurologischen Rehabilitationskliniken und psychiatrischen Kliniken. Darüber hinaus werden sie in der Diagnostik von neurologisch-psychiatrischen Schlafstörungen, bei Medikamentenstudien und in der klinischen Forschung eingesetzt. Sie finden auch Anwendung in der Neurochirurgie und der Intensivmedizin im Monitoring. Die diagnostische Bedeutung des EEG liegt insbesondere auf dem Gebiet der Epilepsie (Klassifikation, Therapiekontrolle), der Diagnostik diffuser zerebraler Funktionsstörungen
Das EEG wird durch oberflächennahe Nervenzellen des zerebralen Kortex generiert (⊡ Abb. 12.11). Dieser ist ca. 3 mm dick und besteht aus 6 Schichten, in denen sich Stellatumzellen, Sternpyramiden- und Pyramidenzellen befinden. Die apikalen Dendriten der letzteren Zellen ziehen sich durch 5 der 6 Schichten. Ein exzitatorisches postsynaptisches Potential (EPSP) am Zellsoma führt in Folge der Depolarisation zu einem Dipol mit einem oberflächennahen positiven Pol. Inhibitorische postsynaptische Potentiale (IPSP) am Zellsoma bewirken aufgrund der Hyperpolarisation eine entgegengesetzte Polung, ebenso wie die EPSP am apikalen Dendriten. EPSP und IPSP können sowohl zeitlich durch nacheinander entstehende, als auch räumlich durch synchron an benachbarten Synapsen entstehende Potentiale summiert werden. Bei Ableitung von einer intakten Hautoberfläche werden die Potentiale durch die zwischen Großhirnrinde und Haut befindlichen Schichten verschiedener Gewebe verformt. Die Widerstände und Kapazitäten dieser Schichten wirken wie Filter mit Tiefpasscharakter, wodurch Frequenzanteile über 1 kHz fast vollständig eliminiert werden. Die EEG-Potentiale bilden komplexe Wellenzüge aus, die in ihrer Form und Größe von neuronalen Faktoren in der Großhirnrinde sowie von Geschlecht, Atmung, Metabolismus, Homöostase, Sauerstoff- und Kohlendioxidgehalt des Blutes, Blutzuckergehalt, Medikamenten und Toxinen abhängen. Ebenso hängen sie von physiologischen Faktoren ab: vom Wach- oder Schlafzustand, offenen oder geschlossenen Augen im Wachzustand, von der allgemeinen Vigilanz und vom Alter. Die Amplituden des EEG nehmen vom Neugeborenen zum Kleinkind
⊡ Abb. 12.11. Generierung des EEG
167 12.2 · Elektroenzephalograph
zu und vom Erwachsenen zum alten Menschen wieder ab, während die Frequenzen der Wellen von der frühen Kindheit bis ins hohe Alter ansteigen. In Abhängigkeit von der Frequenz werden Alpha-Wellen (8–13 Hz), Beta-Wellen (über 13 Hz), Theta-Wellen (4–7 Hz) und Delta-Wellen (unter 4 Hz) unterschieden. Die Beschreibung des EEG erfolgt hinsichtlich Frequenz, Amplitude, Häufigkeit, Modulation, Symmetrie und Rea-
gibilität. Besondere Wellenformen sind Spitzen (spikes), steile Wellen-(sharp waves-)Komplexe aus spitzen bzw. steilen Wellen und einer langsamen Welle (spike and wave Komplex, SW-Komplex) und weitere Wellenformen wie z. B. μ-Welle, Vertex-Welle oder K-Komplex (⊡ Tab. 12.1). Die Beurteilung des EEG hat unter klinischen Gesichtspunkten zu erfolgen. Dabei nimmt der befundende Arzt Stellung zu Regelmaß, dominierende Frequenz, auffäl-
⊡ Abb. 12.12. Normales 16-kanaliges EEG eines 21 Jahre alten männlichen Patienten in unipolarer Ableitung. Das Schema der Verschaltung der Elektroden ist angegeben
⊡ Tab. 12.1. Einteilung und Eigenschaften von EEG-Wellen und singulär auftretenden Wellen Wellenbezeichnung
Wellenfrequenz
Amplitude
Wellenart
Auftreten bei
Alpha-Wellen
8–13 Hz
30–50 μV
schnell physiologisch
wach, Augen zu
Beta-Wellen
>13 Hz
~20 μV
rasch physiologisch
wach, Augen auf, beim Rechnen
Theta-Wellen
4-7 Hz
bis zu 500 μV
langsam physiologisch
Leichtschlaf
Delta-Wellen
0,5-3,5 Hz
viele 100 μV bis 1–5 mV
langsam physiologisch
Tiefschlaf
steile Wellen – »sharp waves«
≥80 ms
variabel
steil abnorme Wellen
normal und abnorm
Spitzen – »spikes«
≤80 ms
variabel
steil abnorme Wellen
meist abnorm
Folge von Spitzen
5–10-mal mit ≤80 ms
≥50 μV, oft sehr groß
steil abnorm
z. B. bei epileptischen Anfällen
spike-wave-Komplexe
3/s
10–100 μV
viele verschiedene Varianten
immer abnorm
12
168
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
I
⊡ Abb. 12.13. EEG mit epileptiformen Mustern eines 31 Jahre alten männlichen Patienten
lig hohe oder niedrige Amplituden, Altersabhängigkeit der Grundaktivität bei Kindern, Vigilanzniveau, Abweichungen von der physiologischen örtlichen Verteilung und Reagibilität sowie von der Grundaktivität unterscheidbare kontinuierliche, diskontinuierliche, generalisierte oder lokalisierte EEG-Tätigkeit. Die ⊡ Abb. 12.12 zeigt ein normales EEG eines 21Jährigen mit der Blockierung der Alpha-Wellen nach dem Öffnen der Augen. Zum Vergleich ist in ⊡ Abb. 12.13 ein EEG mit epileptiformen Mustern eines 31-jährigen männlichen Patienten dargestellt. Die EEG-Aktivitäten unterscheiden sich hinsichtlich ihrer Amplitude und Frequenz signifikant.
12.2.2 Gerätetechnik
In den letzten 15 Jahren vollzog sich mit dem Übergang von den EEG-Geräten auf der Basis von Papier- oder Thermokammschreibern zum Computer-EEG ein gravierender Wandel in der Gerätetechnik. Dies betrifft zum einen die Hardware, die nun aus einem PC, A/D-Wandler und Verstärkerbox (Headbox) besteht, zum anderen die rechnergestützten Möglichkeiten der Analyse und Befundung aufgrund moderner Software sowie die digitalen Medien für die Signalspeicherung und Archivierung. Da-
⊡ Abb. 12.14. Ableitung eines EEG im Labor
mit hat sich das Aussehen eines EEG-Gerätes grundlegend verändert (⊡ Abb. 12.14). Zur Standardausstattung eines EEG-Gerätes gehört ein Fotostimulator. Dieser erzeugt kurze helle Lichtblitze mit definierter Leuchtdichte und Frequenz. Bei Doppelblitzen ist der Blitzabstand ebenfalls einstellbar. Die Basis für den Fotostimulator ist ein Stroboskop oder ein Leuchtdiodenarray.
Elektroden Zur Ableitung des EEG werden gesinterte Ag/AgCl-Oberflächenelektroden eingesetzt (⊡ Abb. 12.5). Diese ermöglichen auch im niederfrequenten Bereich eine optimale
169 12.2 · Elektroenzephalograph
Aufzeichnung. Der Kontakt der Elektrode mit der Kopfhaut wird über Elektrolyt in Form von Elektrodengel oder mit Kochsalzlösung getränkte Filzüberzüge hergestellt. Zur Verminderung des Elektrodenübergangswiderstands, der unter 10 kΩ sein sollte, wird die Kopfhaut vorbehandelt.
Verstärker Ein Vorverstärker (Headbox) ist auf einem Stativ in der Nähe des Patientenkopfs montiert und dient dem Elektrodenanschluss und der Vorverstärkung der EEG-Signale. Danach werden sie zum eigentlichen Hauptgerät übertragen. Da die Vorverstärker mit A/D-Wandlern ausgestattet sind, können die digitalisierten Signale über größere Entfernungen fehlerfrei und ohne nennenswerte Verluste übertragen werden. Der eigentliche Vorverstärker ist ein Differenzverstärker, an den hohe Anforderungen hinsichtlich Signalverstärkung und Verzerrungsfreiheit gestellt werden. Seine Gütekriterien, die Gleichtaktunterdrückung und die Eingangsimpedanz müssen besonders hoch sein (>120 dB und >100 MΩ). Für eine qualitativ hochwertige Ableitung ist neben der aktiven Elektrode und der Referenzelektrode auch eine Erdelektrode mit dem Differenzverstärker zu verschalten. Je nachdem, wie man die Elektroden an den verschiedenen Kopfpunkten zueinander in Beziehung setzt oder sie verschaltet, entstehen andere EEG-Registrierungen. Es ist für die Interpretation des registrierten EEG von wesentlicher Bedeutung, die Verschaltung dieser Eingänge pro Kanal, auch Ableitprogramme oder Montagen genannt, zu kennen, um sie direkt der Kurve zuordnen zu können. So wird unterschieden in unipolare oder Referenzableitungen, bipolare Ableitungen und Quellenableitungen.
12.2.3 Methodik
Mindestanforderungen Die Deutsche Gesellschaft für Klinische Neurophysiologie hat für die Ableitung des EEG Mindestanforderungen definiert. Ein EEG-Gerät sollte mindestens mit 10 EEGVerstärkern und einem EKG-Verstärker ausgestattet sein. Die Elektrodenplatzierung erfolgt nach dem 10-20 System. Vor und nach einer Ableitung ist die Eichung des Gerätes vorzunehmen und die Elektrodenübergangswiderstände sind zu dokumentieren. Die Ableitung, die mindestens 20 Minuten dauert, muss Referenzschaltungen sowie bipolare Längs- und Querreihen enthalten. Die Prüfung der sensorischen Reaktivität, z. B. durch Augen öffnen und schließen (Berger-Effekt) sowie die Durchführung der Photostimulation und Hyperventilation ist dabei enthalten. Während der Ableitung auftretende Artefakte müssen bezeichnet und soweit wie möglich korrigiert werden. Die registrierte Kurve ist mit allen für die Auswertung wich-
tigen Angaben zu versehen, wie z. B. technischen Parametern sowie Verhalten und Befinden des Patienten.
Ableitungen Während der EEG-Ableitung werden unterschiedliche Montagen oder Verschaltungen der auf dem Schädel platzierten Elektroden verwendet. Prinzipiell lassen sich die in ⊡ Tab. 12.2 zusammengefassten EEG-Montagen unterscheiden. Ein EEG wird i. d. R. mit einer Empfindlichkeit von 70 μV/cm, einem Papiervorschub bzw. Zeitachse von 30 mm/s, mit einer Zeitkonstanten von 0,3 s (entspricht einem Hochpass mit einer Grenzfrequenz von 0,53 Hz) und einer oberen Grenzfrequenz von 70 Hz registriert. Nur in begründeten Fällen sollte hiervon abgewichen werden. Auf den Gebrauch eines Netzfilters von 50 Hz sollte verzichtet werden. Die konkrete Verschaltung der Elektroden hängt von der Zahl der Registrierkanäle ab. Für ein 16-Kanal-Gerät sind in der ⊡ Abb. 12.15 Beispiele angegeben.
Provokationsmethoden Häufig werden in der Routinediagnostik Fotostimulation und Hyperventilation als Aktivierungs- oder Provokationsmethode eingesetzt. Eine sehr einfach durchzuführende Provokationsmethode ist die Hyperventilation. Der Patient wird aufgefordert, seine Atmung für die Dauer von 3 min in Frequenz und Amplitude zu steigern, d. h. regelmäßig und tief mit etwa 30 Atemzügen pro Minute zu atmen. Für die 3-minütige Hyperventilation sind die Potentiale in erster Linie aus frontalen, zentralen, okzipitalen und mittleren temporalen Hirnregionen abzuleiten. Die Fotostimulation wird in einem abgedunkelten Raum mit einem Fotostimulator durchgeführt. Die Stärke der Lichtblitze und ihre Frequenz sollte einstellbar sein. Die Fotostimulation ist standardisiert durchzuführen. Die Blitze sind jeweils mindestens 10 s zu applizieren. Die Ableitung erfolgt bei geschlossenen Augen. Während der 2-minütigen Fotostimulation sollten besonders Potentiale der frontopolaren, frontalen und okzipitalen Hirnregionen erfasst werden. Weitere routinemäßig durchzuführenden Aktivierungsmethoden sind der Schlafentzug (durchwachte Nacht) oder Schlafableitungen (nach Schlafentzug, Mittagsschlaf, seltener medikamentös eingeleiteter Schlaf). Die Dauer der Ableitung beträgt dabei etwa 30–60 min.
12.2.4 EEG-Ableitverfahren
Hinsichtlich der verschiedenen diagnostischen Anwendungen innerhalb der Neurologie haben sich folgende
12
170
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
⊡ Tab. 12.2. Übersicht und Eigenschaften von klinisch verwendeten EEG-Montagen
I
Montagen oder Ableitprogramme
Belegung des Differenz-Verstärkers
Charakteristische Eigenschaften
unipolare oder Referenzableitungen gegen eine Referenz
▬ differente Elektroden (invertierender Eingang) ▬ Referenzelektrode am Scheitel oder Ohr (nichtinvertierender Eingang) ▬ Erdelektrode kontralaterales Ohrläppchen
▬ gemeinsame Potentialanteile werden hervorgehoben ▬ bessere Darstellung von generalisierter Aktivität ▬ Amplituden und Phasen gut erkennbar und untereinander vergleichbar
Referenzableitungen gegen gemittelte Referenzen – common average
▬ differente Elektrode (invertierender Eingang) ▬ gemittelte Referenz aus dem Summensignal aller Elektroden ▬ Erdelektrode Ohrläppchen
▬ s. oben, jedoch sind die gemeinsamen Potentialanteile nicht mehr deutlich hervorgehoben ▬ günstig bei artefaktbehafteten Signalen
bipolare Ableitungen wie Querreihen, Längsreihen, Zirkumferenzen etc.
▬ zwei benachbarte Elektroden auf aktiven Gebieten ▬ Erdelektrode an Stirn oder Ohrläppchen
▬ Potentialunterschiede zwischen den Elektroden werden hervorgehoben ▬ bessere Darstellung von fokaler Aktivität ▬ Gradient unmittelbar vergleichbar
Quellenableitungen – spezielle unipolare Montage mit speziell gemittelten und gewichteten Referenzen
▬ einzelne aktive Elektrode, hier »Quelle« genannt (invertierender Eingang) ▬ gemittelte Referenz aus dem gewichteten Summensignal aller Elektroden, die um die aktive Elektrode (= Quelle) herum angeordnet sind ▬ Erdelektrode an Ohrläppchen
▬ fokale Aktivitäten werden besser hervorgehoben ▬ Amplituden und Phasen bleiben gut vergleichbar
⊡ Abb. 12.15. Beispiele für EEG-Schaltungen für ein 16-kanaliges EEG-Gerät
171 12.2 · Elektroenzephalograph
⊡ Tab. 12.3. Einsatzbereich, Kanalzahlen und Auswertverfahren bei den klinisch üblichen EEG-Ableitverfahren EEG-Verfahren
Einsatzbereich
Kanalzahl
Ableitdauer (Durchschnitt)
Auswertung
1. Routine-EEG
Praxis Klinik Epilepsie
8–12 16–24 19–32–64
ca. 10 min 20–30 min 20–40 min
visuell, rechnergestützt
2. Langzeit-EEG
Kliniken, als Ergänzung zum Routine EEG, z. B. bei Anfallspatienten
8–12
max. 24 h
halbautomatische, rechnergestützte Ereignissuchverfahren
3. Video-EEG
Epilepsie, auch vermehrt in Kliniken
19–24
10–60 min, ereignisabhängig
EEG-Signale direkt synchronisiert mit Videobild des Patienten
4. Portables EEG
ambulante Registrierung auf Intensivstation, in der Inneren Medizin und zur Hirntodbestimmung
8–12
10–30 min, auch 1–2 h, mit Darstellung aller EEG-Signale
visuell, bei Hirntodbestimmung, zusätzliche Anforderungen an die Auflösungsgenauigkeit
5. Schlaf-EEG
Schlafstörungen neurologisch-psychiatrischen Ursprungs
12–24 mit Polygraphie
mindestens 8 Nachtstunden
halb- und automatische Schlafstadienerkennung
6. Pharmako-EEG
Medikamentenstudien
12–24
20–30 min, abhängig vom Studienziel
EEG-Mapping, computergestützte Frequenzanalysen
EEG-Ableitverfahren entwickelt: Routine-EEG in der neurologischen Praxis und Klinik, ambulantes 24-hLangzeit-EEG, Video-EEG, portables EEG, Schlaf-EEG und Pharmako-EEG (⊡ Tab. 12.3).
Routine-EEG EEG-Ableitungen sollten in einem ruhigen Raum durchgeführt werden Der Patient sollte auf einem bequemen EEG-Stuhl eine halb sitzende, halb liegende Position einnehmen. Kopf und Nacken müssen so entspannt wie möglich sein, um Muskelpotentiale zu vermeiden, welche die Auswertung oft erschweren. Die Ableitung erfolgt prinzipiell bei geschlossenen Augen. Die EEG-Ableitung sollte 20 min nicht unterschreiten.
Pharmako-EEG Ein Spezialgebiet ist die Ableitung des EEG zur Erfassung des Einflusses von Medikamenten auf die Funktion des zentralen Nervensystems (Pharmako-EEG). Hier geht es insbesondere um die Feststellung gleicher oder ähnlicher Veränderungen im EEG bei verschiedenen Probanden. Dabei haben sich unterschiedliche Analyseverfahren bewährt, wie bspw. das Mapping. Mit Hilfe der Frequenzanalysen können problemlos statistische Berechnungen mit den entsprechend quantifizierten Wellenanteilen über die gesamte Ableitdauer durchgeführt werden und die Änderungen im EEG über größere Zeiträume erfasst und quantifiziert werden.
Video-EEG Langzeit-EEG Eine Langzeit-EEG-Ableitung wird ambulant mit 8, mitunter auch mit 12 EEG-Kanälen bis zu 24 h lang durchgeführt. Ziel ist das Finden von selten auftretenden Ereignissen, die durch eine konventionelle Registrierung nicht erfasst wurden. Hierbei werden alle EEG-Rohsignale vollständig abgespeichert. Der Patient trägt entweder ein kleines, batteriebetriebenes Datenaufzeichnungsgerät bei sich oder die Daten werden telemetrisch zu einer Auswertstation übertragen. Alle physiologischen Artefakte wie Sprechen, Kauen, Essen etc. werden dabei mit aufgezeichnet, was eine Menge artefaktbehafteter Signalabschnitte erzeugt und die Interpretation des EEG zusätzlich erschwert.
Parallel zur EEG-Routineableitung wird mit einer zur EEG-Registrierung zeitsynchronisierten Videokamera das Patientenbild erfasst und gespeichert. Man verwendet dabei auch Infrarotkamerasysteme, um auch in abgedunkelten Räumen ein Videobild des Patienten aufzeichnen zu können. Die Verbindung von Computer-EEG und Video macht die Synchronisation beider Signale bis auf wenige Millisekunden möglich. Die EEG-Daten laufen in optimaler Auflösung und Flimmerfreiheit synchron zum Videobild über den PC-Monitor und können sogar in andere Montagen umgeschaltet werden. Von besonderer Bedeutung ist das Video-EEG für die Epilepsiediagnostik. Aus dem Videobild kann der Auswerter erkennen, wann und wie ein epileptischer Anfall
12
172
I
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
beginnt. In Verbindung mit dem zugehörigen EEG ist es ihm möglich, bei einer fokalen Epilepsie den Fokus bzw. den Ausgangspunkt einer epileptischen Aktivierung zu lokalisieren. Die aktuelle Aufnahmezeit kann als Suchkriterium eingegeben werden, um gleichzeitig beide Informationen darzustellen.
Schlaf-EEG Bei neurologisch-psychiatrischen Schlafstörungen wird zu diagnostischen Zwecken das EEG während des Nachtschlafs mindestens 8 h lang aufgezeichnet. Zur Erstellung eines Schlafprofils mit der dazugehörigen Schlafstadienbestimmung sind jedoch noch weitere polygraphische Kanäle notwendig: Augenbewegungen über das EOG, Muskeltonus aus dem Oberflächen-EMG am Kinn, EKG, Atmung und Atemanstrengung. Eine Videoüberwachung des Schlafenden ist häufig üblich.
Portables EEG EEG-Ableitungen auf der Intensivstation sowie Hirntodbestimmungen setzen eine handliche, möglichst kompakte EEG-Einheit voraus. Für die Hirntodbestimmung hat die Deutsche Gesellschaft für Klinische Neurophysiologie spezielle Anforderungen an die eingesetzten Geräte gestellt: Registrierung mindestens 30 min unter Verwendung auch des doppelten Elektrodenabstandes, 0,53–70 Hz Bandbreite, Empfindlichkeit 2 μV/mm, mindestens 8 Kanäle.
12.2.5 Auswertung/Signalanalyse
EEG-Signalanalyse In Ergänzung zur visuellen Auswertung des EEG durch einen Facharzt hat sich aufgrund der Datenfülle der EEGSignale eine computerisierte Auswertung durchgesetzt. Hier sind insbesondere Frequenzanalyse und die Detektion definierter Merkmale im EEG hilfreich. Eine weitere Methode der EEG-Analyse ist die Dipolanalyse des EEG, die ein räumlich-zeitlich zugeordnetes Dipolmodell für EEG und evozierte Potentiale liefert. Hier wird die Lokalisation möglicher Quellen bioelektrischer Aktivität bestimmt. Die Autokorrelationsfunktion des EEG liefert zum einen die im Signal dominierende Frequenz einer EEG-Epoche, zum anderen ist ihr Abfall ein Maß für die Stochastik des EEG. Die Kreuzkorrelationsfunktion wird zur Bestimmung einer gemeinsamen Frequenz in zwei verschiedenen EEG-Epochen, z. B. zwischen zwei Ableitkanälen, eingesetzt. Auch die zeitvariante Spektralanalyse, die für jede einzelne Welle im EEG Amplitude und Frequenz bestimmt und dies als dreidimensionale Häufigkeitsverteilung darstellen kann, sei hier erwähnt. In der ⊡ Abb. 12.16 ( 4-Farbteil am Buchende) sind einige
Beispiele für eine Signalanalyse zusammengefasst dargestellt.
Nachträgliche Remontage von Kurvenabschnitten Für die Bewertung des EEG und die Lokalisation pathologischer Wellenformen ist es sehr hilfreich, einen bestimmten Kurvenabschnitt mit verschiedenen Schaltungen oder Montagen auswerten zu können. Die Möglichkeit, denselben Kurvenabschnitt unter verschiedenen »Blickwinkeln« betrachten zu können, gibt dem Arzt die Chance, die zur Befundung optimale Montage zu finden.
Topographische Darstellung der Amplituden- und Frequenzverteilung Das Ergebnis einer topographischen Darstellung des EEG ist das zweidimensionale, farbige Bild (Map) der über der Schädeloberfläche verteilten Hirnaktivität. Häufig werden die Amplituden, Frequenzen und das Leistungsspektrum aus der Frequenzanalyse topographisch dargestellt. Hierfür werden die Signalamplituden zwischen den durch Elektroden bestimmten Ableitpunkten durch Interpolation berechnet. Die Amplituden der so gewonnenen zweidimensionalen Verteilungen werden quantifiziert und farblich codiert. Es entsteht ein farbig abgestuftes Bild der Potentialverteilung über der Schädeloberfläche. Besonders eindrucksvoll ist die Entstehung bspw. eines Fokus oder einer generalisierten Aktivität zu erkennen, wenn die Amplitudenmaps im zeitlichen Abstand von ein paar Millisekunden als Film dargestellt werden. Beim Frequenzmap wird mittels Fast Fourier Transformation (FFT) ein EEG-Signalabschnitt, dessen Amplitude eine Funktion der Zeit ist, in ein Signal gewandelt, dessen Amplitude eine Funktion der Frequenz ist. Das Ergebnis wird analog dem Amplitudenmap farbig dargestellt, wobei den unterschiedlichen Farben die möglichen Wellenfrequenzen zugeordnet sind. Aus dem mittels FFT transformierten Signal wird das Leistungsspektrum berechnet. Es gibt an, mit welcher Leistung eine bestimmte Frequenz oder EEG-Welle im Signalgemisch enthalten ist. Die Ergebnisse werden meist in Form eines Histogramms dargestellt. Die Hüllkurve dieses Histogramms ist eine sehr übersichtliche Darstellung der Veränderungen der Frequenzanteile während der einzelnen Phasen der Ableitung, zur Abschätzung der Wirkung von Pharmaka oder während der Narkose.
Langzeit-EEG-Analyse Das große Datenaufkommen bei einer ambulanten Langzeit-EEG-Ableitung gestaltet die Interpretation dieser Daten sehr zeitaufwendig. Als Beispiel für eine derartige Analyse sei eine Software genannt, die spezielle Paro-
173 12.2 · Elektroenzephalograph
⊡ Abb. 12.17. Software zur Erkennung paroxysmaler Veränderungen im Langzeit-EEG
⊡ Tab. 12.4. Übersicht über physiologische und technische Artefakte während einer EEG-Ableitung Physiologische Artefakte
Technische Artefakte
EMG-Potentiale durch: Stirnrunzeln, Lidbewegungen, Kauen, Kopf- und Halsbewegungen
Schlechte Übergangsimpedanz der Elektroden durch: schlechten Elektrodensitz, Verrutschen der Elektroden
EKG-Spitzen oder Pulswellen temporal einstreuend
Wackelkontakt in den zuführenden Kabeln durch Bruchstellen
EOG als Augenbewegungen im frontalen EEG
50-Hz-Einstreuungen von außen
Schwitzen – als langsame Schwankungen im EEG erkennbar
Große Induktivitäten, wie benachbarte vorbeifahrende Aufzüge oder nahe gelegene Radio- oder Fernsehsender oder Privatfunk
Atembewegungen – okzipital durch Kopfbewegung im Atemrhythmus
Elektrostatisch aufgeladene Schuhe oder Kunstfaserkleidung
xysmen sucht, indem sie die EEG-Rohdaten hinsichtlich der Anzahl von Spitzenwerte, ihrer Fläche und ihrer Signallänge durchsucht. Das Ergebnis dieser Berechnungen ist eine komprimierte Darstellung des Langzeit-EEG, das den Betrachter wichtige paroxysmale Ereignisse im EEG von Artefakten und normalen EEG-Abschnitten problemlos unterscheiden lässt (⊡ Abb. 12.17).
Abschließender EEG-Befund Nach der visuellen Begutachtung des EEG durch den Arzt mit oder ohne Zuhilfenahme von rechnergestützten Analyseverfahren wird der Befundtext erstellt. Der Befund wird gemeinsam mit den EEG-Signalen gespeichert und archiviert.
fort erkannt, klassifiziert, dokumentiert und behoben werden sollten (⊡ Tab. 12.4). Um die physiologischen Artefakte zu identifizieren, werden häufig EKG, EMG und EOG mitregistriert. In ⊡ Abb. 12.18 und ⊡ Abb. 12.19 ist jeweils ein Beispiel für physiologische Artefakte gegeben. Zum einen werden Muskelaktivitäten insbesondere in den Bereich F7, T3 und T5 eingestreut. Zum anderen wirken sich Augenbewegungen frontopolar aus und finden sich in den Ableitungen Fp1-F3 und Fp1-F7 sowie Fp2-F4 und Fp2-F8.
12.2.6 Spezielle Methoden
Elektrokortikographie (ECoG) Artefakte im EEG Während der Ableitung können verschiedene Artefakte auftreten. Hierbei wird zwischen physiologischen und technischen Artefakten unterschieden, die möglichst so-
Die Elektrokortikographie wird zur genaueren Lokalisation umschriebener Läsionen vor einem neurochirurgischen Eingriff eingesetzt. Dabei werden Elektrodenarrays unmittelbar auf den Kortex platziert. Der Vorteil liegt in der Verminderung von Gewebeschichten, die zwischen
12
174
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
I
⊡ Abb. 12.18. Muskelaktivität im EEG
⊡ Abb. 12.19. Blinkartefakte im EEG
175 12.3 · Elektromyograph
dem Entstehungsort der bioelektrischen Aktivität und dem Ableitort liegen. Die registrierten Signale weisen höhere Frequenzen auf.
(supraleitende Quanteninterferometer, SQUIDS) sind zur Erzielung der Supraleitung an die Kühlung mit flüssigem Helium gebunden.
Magnetenzephalographie (MEG)
12.3
Jeder von einem Strom durchflossene Leiter ist gleichzeitig auch immer von einem Magnetfeld umgeben. Dies trifft auch auf erregte Nervenzellen zu. Da intrazellulär die Stromdichte größer als außerhalb der Zelle ist, lässt sich über Magnetfeldänderungen aufgrund des Aktionspotentials auf die erregte Zelle schließen. Da das Magnetfeld im Unterschied zum elektrischen Feld nicht durch Knochen- und Gewebsschichten beeinflusst, sondern nur von der Distanz zwischen Entstehungsort und Sensor abhängt, sind lokalisatorische Aussagen über die Quelle möglich. Aus der erfassten Magnetfeldverteilung über dem Schädel lässt sich durch Lösung des inversen Problems mit hinreichender Genauigkeit der Ort ihrer Generierung bestimmen. Damit hat die Magnetenzephalographie im Vergleich zur Elektroenzephalographie den Vorteil der Bestimmung der Quellen von markanten Aktivitäten. Sie wird daher bspw. zur Lokalisation möglicher Foki bei der fokalen Epilepsie, von funktionalen Störungen aufgrund von Raumforderungen oder des Einflusses klar bestimmbarer Faktoren auf das zentrale Nervensystem wie z. B. Tinnitus eingesetzt. Aber auch die Lokalisation der Erregung von Nervenzellen nach spezifischen Reizen (akustisch, optisch) oder aufgrund mentaler Aktivitäten (Musik hören, denken, sprechen usw.) ist Gegenstand von Untersuchungen. In Verbindung mit anderen Verfahren wie MRT, fMRT, PET, SPECT lassen sich so die funktionalen Strukturen des Gehirns bestimmen. Allerdings ist die Magnetenzephalographie ein noch recht aufwändiges Verfahren. Die eingesetzten Sensoren
Elektromyographen sind sehr universell einsetzbare Diagnostiksysteme. Mit ihnen kann die elektrische Aktivität von Muskel und Nerv unter verschiedenen Bedingungen abgeleitet, verstärkt und registriert werden. Die hierfür eingesetzten Verstärker zeichnen sich durch eine hohe Empfindlichkeit, eine große Eingangsimpedanz, eine variable Bandbreite und geringes Rauschen aus. Je nach Ausstattung verfügen Elektromyographen über einen elektrischen, akustischen, visuellen und magnetischen Stimulator. Der prinzipielle Aufbau eines Elektromyographen ist in der ⊡ Abb. 12.20 wiedergegeben. Ein Personal Computer (PC) oder Mikrocontrol (MC) ist die zentrale Steuer-, Signalverarbeitungs-, Darstellungs- und Speichereinheit eines EMG-Gerätes. Er ist mit einem Festplattenlaufwerk als Datenspeicher, PC-Monitor mit Farbgraphik, Tastatur und Laserdrucker als Ausgabeeinheit verbunden. Die notwendigen Module wie Verstärker, Analog-/Digitalwandler und die Reizeinheiten können integriert sein. Die Funktionen wie Averaging, Signalverzögerung, Programmierung der Ableitprogramme und Auswertung der Signale werden von der Software übernommen. Dabei dient der Averager der fortlaufenden Mittelwertbildung, um kleine reizbezogene Signale aus einem Signalgemisch herauszulösen. Die Verzögerungsleitung verzögert Signale, sodass Signalanteile, die vor einem Reiz liegen noch beurteilbar werden. Der Lautsprecher dient der akustischen Beurteilung der erfassten Potentiale. Dies ist zum einen für die unmittelbare Diagnostik wichtig, da einzelne myographi-
Elektromyograph
⊡ Abb. 12.20. Blockschaltbild eines Elektromyographen mit 4 Stimulatoren, 3 Ausgabegeräten, je 3 Hardware- und Softwarekomponenten (blau) und dem PC als zentrale Einheit
12
176
I
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
sche Signalformen charakteristische Klangbilder haben. Zum anderen dient der Lautsprecher als Feedback für den Patienten, der damit die Stärke seiner Willkürinnervation oder Entspannung einschätzen kann. EMG-Geräte finden Anwendung in ▬ niedergelassenen neurologischen Praxen als kompaktes 2-Kanal-Gerät für EMG/EP ▬ neurologischen Abteilungen von Krankenhäusern als 2-Kanal-EMG und 4-Kanal-EP-Gerät ▬ neurologischen Kliniken als 4-Kanal-EMG und als 4–8-Kanal-EP-Gerät ▬ neurologischen Rehabilitationskliniken als 2–4-Kanal-EMG/ EP-Gerät ▬ neurochirurgischen Kliniken zum intraoperativen EP-Monitoring als 4–8-Kanal-EP-Gerät ▬ neurologischen Forschungen als 8-Kanal-EMG/EPGerät ▬ Kliniken der Orthopädie während Wirbelsäulenoperationen mit 4-Kanal-SEP/MEP-Gerät ▬ der Sportmedizin ▬ der HNO als 2-Kanal-EMG-Gerät für Kehlkopf-EMG mit Spezialelektroden Um den verschiedensten Anforderungen genügen zu können, werden die handelsüblichen EMG-Geräte modular in Systemkomponenten angeboten. Insbesondere hinsichtlich der Anzahl der Kanäle und der Anzahl und Art der Stimulatoren, Software und Speichermedien variieren sie. Die ⊡ Tab. 12.5 gibt hierfür einige Beispiele.
12.3.1 Signal
Aufgrund der mannigfaltigen Möglichkeiten eines Elektromyographen sind eine Vielzahl unterschiedlicher Signale messtechnisch erfassbar. ⊡ Tab. 12.6 gibt eine Übersicht über die verschiedenen Arten von Potentialen und Messwerten, die mit einem EMG-Gerät abgeleitet und ausgewertet werden.
12.3.2 Gerätetechnik
Elektromyographen (⊡ Abb. 12.20) werden hinsichtlich ihrer Kanalzahl und Art der Stimulatoren modular zusammengestellt. Damit entstehen je nach Anforderung spezielle Ableitsysteme. Mit einem EMG-Gerät können eine Vielzahl von neurophysiologischen Untersuchungen durchgeführt werden, wobei jede Untersuchung verschiedene Reiz-, Ableit-, Darstellungs- und Auswertparameter hat. Diese verschiedenen Parameter sind abgespeichert und vom Anwender änderbar oder neu erstellbar. So kann die Anzahl der Ableitprogramme je nach Ausbaustufe des Gerätes von 20–40 variieren. Kernstück ist meistens ein PC, von dem aus die Untersuchungen gesteuert, die Signale verarbeitet, dargestellt und vermessen sowie abgespeichert und ausgedruckt werden. Für die Darstellung der Signale gilt auch hier die internationale Konvention, nach der die Signale mit negativer Polarität unter der differenten Elektrode mit einem Ausschlag nach oben dargestellt werden.
⊡ Tab. 12.5. Elektrodenapplikation, Stimulatoren und Kanalzahl bei den verschiedenen Untersuchungen mit einem EMG-Gerät Untersuchung
Ableitung
Stimulator
Kanalzahl
Nadel-EMG
im Muskel mit Nadelelektrode, nur vom Arzt durchführbar
keiner
1 Kanal
Elektroneurographie und Reflexe
meist Oberflächenelektroden zum Reizen und Ableiten
elektrischer Stimulator zur sensiblen und motorischen Reizung
2 Kanal
Neuromuskulärer Übergang
Oberflächenelektroden zum Reizen und Ableiten
elektrischer Stimulator mit Serienreizung
1 Kanal
VEP – Visuell Evozierte Potentiale
Oberflächenelektroden am Kopf zum Ableiten
Monitor mit Schachbrettmusterumkehr, Streifen, Balken, farbige Stimulation
Praxis: 1 Kanal Neurologie: 1–3 Kanäle Augenklinik: 1–5 Kanäle
AEP – Akustisch Evozierte Potentiale
Oberflächenelektroden am Kopf zum Ableiten
Kopfhörer mit Click, frequenzspezifischen Bursts etc.
Praxis: 1 Kanal Neurologie: 1–2 Kanäle HNO: 2–4 Kanäle in der Audiologie
SEP – Somatosensibel Evozierte Potentiale
Oberflächenelektroden zum Reizen und Ableiten
elektrische Serienreize an Händen oder Füßen
Praxis: 1–2 Kanäle Klinik: 1–4 Kanäle auch 4–8 Kanäle
MEP – Motorisch Evozierte Potentiale
Oberflächenelektroden an Hand oder Fuß zum Ableiten
Magnetstimulator mit Spulen zur kortikalen Reizauslösung
1 Kanal
177 12.3 · Elektromyograph
Elektroden
Verstärker
Die Standardelektrode in der Elektromyographie ist die konzentrische Nadelelektrode. In einer Stahlkanüle befindet sich – von einer Isolierschicht (Araldit) umgeben – eine Platinseele. Verstärkt wird die Potentialdifferenz zwischen dem als indifferente Elektrode dienenden Stahlmantel und der differenten Platinseele. Die Elektroden sind meist 2–6 cm lang und 0,3–0,6 mm dick. Ihre Verwendung richtet sich nach der Größe des zu untersuchenden Muskels. In einigen Fällen werden auch bipolare Nadelelektroden verwendet. Dort befinden sich 2 Nadelseelen dicht nebeneinander. Notwendig ist eine zusätzliche Erdung über eine Erdelektrode, die an der entsprechenden Extremität angebracht wird. Bei der Neurographie und den SEP werden Reiz- und Ableitelektroden benötigt. In beiden Fällen handelt es sich meist um Oberflächenelektroden, zwischen denen eine Erdelektrode anzubringen ist. Nur in seltenen Fällen wird in der Klinik mit Nadelelektroden gereizt und abgeleitet. Diese Nadeln werden paarweise – eine nervennahe und eine nervenferne – appliziert, in diesem Fall erhält man größere und ausgeprägtere Potentiale. Bei den evozierten Potentialen werden in der klinischen Routine Oberflächennapfelektroden auf dem Kopf des Patienten appliziert, die ähnlich wie EEG-Elektroden platziert werden. Nur beim intraoperativen Monitoring werden kleine Platinnadelelektroden verwendet. Die ⊡ Abb. 12.21 zeigt eine Übersicht über verschieden Elektrodentypen.
Der für einen Elektromyographen eingesetzte Verstärker ist ein Differenzverstärker mit einem großen Aussteuerungsbereich und einem breiten Frequenzbereich. Pro Kanal gibt es 3 Eingangsbuchsen für den invertierenden und den nichtinvertierenden Eingang sowie für die Erdung. Eine Impedanzmessung der Übergangswiderstände ist vorzusehen, empfiehlt sich aber nur bei Verwendung von Oberflächenelektroden, wie bspw. bei der Ableitung von evozierten Potentialen. Typische technische Daten eines EMG/EP-Kombinationsgerätes sind: ▬ Verstärkerkanäle: 2–4–8 ▬ Vorverstärker: mit optisch isolierten Eingängen, Patientenanschluss über Headbox ▬ Eingangsimpedanz: >200 MΩ ▬ Gleichtaktunterdrückung: >100 dB ▬ Empfindlichkeit: 1–500 μV, 1–10 mV in 14 Stufen einstellbar ▬ Rauschen: <2 μVeff ▬ Hochpass: 1–10–30–50–100–300–500 Hz mit wenigstens 12 dB/Oktave ▬ Tiefpass: 30–100–200–500 Hz, 1,5–2,5–5–10–20 kHz mit wenigstens 12 dB/Oktave ▬ Triggerlevel: per Reizsignal oder EMG-Signal mit kontinuierlich einstellbarer Amplitude oder Fenstertrigger ▬ Averager: 1–4000 Mittelungsschritte ▬ Artefaktunterdrückung: anwählbar, einstellbar
⊡ Tab. 12.6. Signalgrößen und Messwerte der verschiedenen Untersuchungen mit einem EMG-Gerät Untersuchungen
Signalamplituden
Analysezeit
Parameter
Nadel-EMG: Spontanaktivitäten Leichte Innervation Maximalinnervation
20–500 μV 200 μV–2 mV 500 μV–5 mV
100 ms 100 ms 1s
Potentialdauer Amplitude Entladefrequenz
Elektroneurographie: motorische NLG sensible NLG etc.
10 mV 50–100 μV
20 ms 10 ms
VEP – Visuell Evozierte Potentiale
50–100 μV
200 ms
Latenzen und Amplituden
AEP – Akustisch Evozierte Potentiale: Hirnstammpotentiale ▬ frühe AEP ▬ mittlere AEP ▬ späte AEP
0,1–0,5 μV 20–100 μV 100–500 μV
10 ms 100 ms 0,5–1 s
Latenzen Latenzdifferenz Amplituden
SEP – Somatosensibel Evozierte Potentiale: Armstimulation Beinstimulation
20–100 μV 10–100 μV
100 ms 200 ms
Latenzen Latenzdifferenz Amplituden
MEP – Motorisch Evozierte Potentiale: Armableitung
5–10 mV
10 ms
Latenzen, motorische und sensible Nervenleitgeschwindigkeit
Latenzen Amplituden zentrale Überleitungszeit
12
178
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
I
⊡ Abb. 12.21. Elektroden für die Elektromyographie
▬ Reizeinheiten: elektrisch, visuell, akustisch, magnetisch ▬ Monitor: 11''-, 14''-, 17''- oder 21''-Monitor mit der Möglichkeit einer kaskadenförmigen Darstellung mit bis zu 32 Signalspuren pro Bildschirm ▬ Zeiteinheit: 2 ms–10 s Analysezeit pro Monitorbild, einstellbar in 10–15 Stufen ▬ Lautsprecher: 2-Kanal zum Anhören der EMG-Signale während der Ableitung mit Lautstärkeregler
▬ Reizintensität: Click: 10–130 dB SPL (»sound pressure level«) für Neurologie; Burst: 10–110 dB SPL nur für HNO-Audiologie ▬ Masking: kontralaterales weißes Rauschen von 10–110 dB einstellbar ▬ Polarität: Sog, Druck, Sog/Druck alternierend ▬ Reizseite: links, rechts, beidseitig
Visueller Stimulator
Stimulatoren Die Möglichkeiten des Elektromyographen werden für die Neurographie und die Ableitung der evozierten Potentiale durch die Stimulatoren bestimmt. Für unterschiedliche Stimulatoren sind in der Übersicht typische Werte angegeben.
Typische Werte unterschiedlicher Stimulatoren Elektrischer Stimulator
▬ Reizart: stromkonstanter Stimulator ▬ Reizintensität: von 0,1–99 mA kontinuierlich einstellbar
▬ Reizdauer: 100–200–500 μs ▬ Reizfrequenz: 0,1–99 Hz ▬ Reizprogramme: Einzel-, Doppel-, Serienverzögerter Einzel, Doppel und Serie, randomisierter Reiz
Akustischer Stimulator
▬ Reizart: Click mit 50–100–200–500 ms Dauer Ton-Burst, frequenzspezifisch mit Plateaudauer von 100 ms–1 s, Anstiegs- und Abfallzeit 1 ms– 250 ms
▼
▬ TV-Monitor: 17'' mit Schachbrettumkehrstimulation und verschiedenen Schachbrettgrößen und Steady-state-Funktion; Ganzfeld, Halbfeld und Quadrantenstimulation mit zu- und abschaltbarem Fixierpunkt ▬ LED-Goggles: zur Flash-Stimulation bspw. bei Bewusstlosen auf der Intensivstation oder im OP beim intraoperativen Monitoring ▬ LED-Pattern: Goggles mit Musterstimulation ▬ Ganzfeldstimulator: für elektro-ophthalmologische Anwendungen zur Stimulation von Augenbewegungen
Magnetstimulator für motorisch evozierte Potentiale
▬ Reiz: monophasisch mit 100 μs, Anstiegszeit 1 ms Dauer
▬ Trigger: programmierbarer positiver und negativer TTL-Pegel für Ein- und Ausgang, mit Fußschalter auslösbar ▬ Magnetische Flussdichte: 90 mm Hochleistungsspule 2T 70 mm Doppelspule 2,2 T 120 mm gekrümmte Doppelspule 1,6 T 40 mm kleine Spule 4,1 T 70 mm mittlere Spule 2,6 T
179 12.3 · Elektromyograph
12.3.3 Elektromyographie (EMG)
Das Ziel einer elektromyographischen Ableitung ist es, eine Aussage über Muskelschädigungen treffen zu können. Von Bedeutung ist die Frage, ob die Muskelschädigung oder Läsion auf einen myogenen oder neurogenen Krankheitsprozess zurückzuführen, d. h. ob der zuführende Nerv oder der Muskel betroffen ist. Muskelaktionspotentiale werden mit konzentrischen Nadelelektroden abgeleitet (Nadelmyographie). Es handelt sich dabei um extrazelluläre Ableitungen aus dem aktivierten Muskel. Muskelsummenpotentiale, die mit Hilfe von Oberflächenelektroden über dem Muskelbauch abgeleitet werden, haben jedoch in der EMG-Diagnostik nur geringe Bedeutung. Nach einer gründlichen klinischen Untersuchung entscheidet der Arzt, welche Muskeln und/oder Nerven zu untersuchen sind. Da die EMG-Untersuchung aufgrund der Nadelelektrode eine invasive Untersuchung ist, muss der Arzt die EMG-Nadel setzen. Es gibt kein für alle Patienten gültiges Routinevorgehen. Eine Indikation für eine EMG-Ableitung liegt vor bei ▬ der Differenzierung von neurogenen oder myogenen Schädigungen (Läsionen oder Lähmungserscheinungen), ▬ Muskelschwäche und Bewegungsstörungen mit oder ohne Muskelschwund (Atrophie), ▬ auffälligen Ermüdungserscheinungen und neuromuskulären Überleitungsstörungen. Eine Nadel-EMG-Untersuchung gliedert sich immer in 4 Phasen: ▬ Einstichaktivität, ▬ Muskel in Ruhe, ▬ Muskel mit leichter Willkürinnervation, ▬ Muskel mit maximaler Willkürinnervation. Beispiele von Muskelaktionspotentialen eines gesunden Muskels sind in ⊡ Abb. 12.23 dargestellt. Werden in einer Nadelposition Hinweise auf pathologische Veränderungen im Muskel gefunden, muss dieses Ergebnis in anderen Stellen des Muskels verifiziert werden. Man verändert die Nadelposition durch tieferes Einstechen in oder durch Herausziehen aus dem Muskel. In jedem Fall muss mindestens ein weiterer Einstich im gleichen Muskel durchgeführt werden. Kann der zweite Einstich keine eindeutige Reproduzierbarkeit der pathologischen Veränderung zeigen, muss nochmals gestochen und in verschiedenen Nadelpositionen abgeleitet werden. Gespeichert und/oder ausgedruckt werden ausschließlich pathologische Potentiale zum Zweck der Dokumentation und des Vergleichs.
Einstich- und Spontanaktivität Im Zusammenhang mit dem Einstich der Nadel in den Muskel kann es zu einem kurzzeitigen Auftreten von Muskelaktivität, der Einstichaktivität, kommen. Über den Lautsprecher hört der Arzt, ob während des Einstichs normale Verletzungspotentiale erzeugt werden oder ob im Muskel durch besonders lang anhaltende Einstichpotentiale schon eine Schädigung vermutet werden kann. Nach dem Einstich befindet sich ein gesunder Muskel in einem Zustand »elektrischer Ruhe«. Finden sich bei entspannten Muskeln jedoch Potentiale wie Fibrillationen, Faszikulationen oder Positive Scharfe Wellen, ist das ein erster Hinweis auf einen pathologischen Zustand des neuromuskulären Apparates. Diese Potentiale werden Spontanaktivitäten genannt (⊡ Abb. 12.22). Sie weisen eine auffallend gleichmäßige Entladungsfrequenz auf. Treten sie auf, werden sie ohne weitere Ausmessung registriert und gespeichert.
Willkürinnervation Zur Bewertung des Innervationsmusters bei leichter Willkürinnervation (⊡ Abb. 12.23) muss der Patient den Muskel so leicht anspannen, dass einzelne elektrische Entladungen zu sehen und zu hören sind. Es ist darauf zu achten, dass die Potentiale nadelnah abgeleitet werden. Dies ist am hellen Knacken der Entladungen zu hören und an den steilen Potentialen zu erkennen. Die Nadel sollte sich idealerweise im Bereich einer motorischen Einheit befinden. Im Fall von pathologischen Veränderungen wird gefordert, Potentiale von bis zu 20 verschiedenen motorischen Einheiten zu speichern und miteinander zu vergleichen (Buchthal-Analyse). Muskelpotentiale bei maximaler Willkürinnervation sind bei starker willkürlicher Anspannung des Muskels erzeugbar und können als Interferenzmuster registriert werden. Es stellt sich als Bild dichter Potentiale mit hoher Amplitude dar. Ein gesunder Muskel weist ein sehr dichtes Muster auf. Ein Muskel mit pathologischen Veränderungen zeigt ein gelichtetes Muster mit unterschiedlichen Amplituden. Bei neurogenen Störungen gibt es wenige, aber hohe Amplitudenspitzen und bei myogenen Störungen ein dichtes Muster, aber mit kleiner durchschnittlicher Amplitude.
Einzelfasermyographie Mit einer Einzelfaserelektrode können einzelne Muskelfasern innerhalb einer motorischen Einheit untersucht werden (Single fibre EMG). Der aktive Platindraht hat einen Durchmesser von 0,25 mm. Die Ableitstelle befindet sich nicht an der Nadelspitze, sondern im Nadelschaft, um zu vermeiden, dass Potentiale von Fasern abgeleitet werden, die durch den Einstich beschädigt wurden. Die Einzelfaserpotentiale werden bei leichter Willkürinnervation
12
180
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
I
⊡ Abb. 12.22. Spontanaktivität, abgeleitet mit Nadelelektroden aus dem M. adductor pollicis einer 57- jährigen Patientin
⊡ Abb. 12.23. Muskelpotentiale bei leichter Willkürinnervation des M. extensor digitorum brevis einer 50-jährigen Patientin, abgeleitet mit Nadelelektroden
181 12.3 · Elektromyograph
abgeleitet und über eine Analysezeit von 5 ms dargestellt. Hierbei werden oft 2 Kanäle verwendet; im ersten Kanal betrachtet man die erfassten Potentiale und stellt diese signalgetriggert und superponiert im zweiten Kanal dar. So lässt sich der Jitter bestimmen, ein Maß für die Variabilität des Entladeverhaltens der Muskelfaser. Mit dem Einzelfaser-EMG lässt sich auch die Faserdichte einer motorischen Einheit bestimmen.
Dekomposition-EMG. Hierbei handelt es sich um eine
in den USA verwendete Methode, die EMG-Potentiale bei mittlerer Innervation einem aufwändigen mathematischen Algorithmus zu unterziehen, der alle gleichen Potentialkomponenten nach dem Template-Verfahren herausnimmt, um sie zu vermessen. Die nicht wiederkehrenden Potentialanteile bleiben unberücksichtigt. Analyse der Muskelpotentiale nach maximaler Willkürinnervation. Die Analyse beinhaltet die Qualifizierung des
EMG-Signalanalyse/Auswertung Pathologische Einstichaktivität und Spontanaktivitäten werden nicht gesondert analysiert. Ihr Auftreten wird registriert und gespeichert. Die Signale der motorischen Einheiten (MUP, motor unit potential) werden hinsichtlich Signalamplitude, Potentialdauer, Polyphasie und Entladefrequenz beurteilt und mit Normwerten verglichen. Diese sind für jeden Muskel unterschiedlich. Um einen Vergleich zu den Normwerten anstellen zu können, müssen die EMG-Potentiale quantifiziert werden. Eine so große Anzahl wie 20 verschiedene Potentiale motorischer Einheiten speichern und vermessen zu können, ist zwar sehr aussagekräftig, aber für die klinische Routine auch aufwändig. Daher gibt es eine Reihe von verschiedenen Analyseverfahren, die als Ergebnis eine Übersicht über die Signale verschiedener motorischer Einheiten mit ihren Messwerten liefern.
Interferenzmusters in einem Turn-/Amplitude-Schaubild. Dort werden die Anzahl der Umkehrpunkte über ihrer mittleren Amplitude aufgetragen. In diesem Graphen sind Normwertbereiche für die speziellen Muskeln eingetragen und ein von der Norm abweichendes Potentialmuster wird als ein außerhalb des Normbereichs liegender Punkt dargestellt. Insgesamt sind 10 EMG-Abschnitte bei Maximalinnervation mit einer Dauer von mindestens 1 s EMG in verschiedenen Nadelpositionen zu berücksichtigen. Diese EMG-Auswertung hat insbesondere in der klinischen Routine Anwendung gefunden, da sie außerordentlich schnell, einfach und übersichtlich ist. Computersysteme, die mit einer Datenbank für Patientendaten und Normwerte ausgerüstet sind, vergleichen die Messwerte mit den Normwerten sofort. Das ermöglicht dem Arzt auch, Muskeln zu untersuchen, die ihm nicht so geläufig sind. Dies ist insbesondere für klinische Anwendung von Bedeutung.
Online-Mittelung von MUP. Bei der Potentialsuche hilft
ein einstellbarer Amplituden- oder ein Fenstertriggerpegel, um Potentiale mit ähnlicher Größe darzustellen. Automatisch kann dabei die Steilheit der Potentiale vermessen werden, um so sicherzustellen, dass die Nadel nahe bei der motorischen Einheit, d. h. optimal positioniert ist. Mit Hilfe eines Averagers lassen sich die so selektierten Potentiale mitteln, automatisch vermessen und abspeichern, bis die notwendige Anzahl von maximal 20 MUP bei unterschiedlichen Nadelpositionen erreicht ist. Hiermit ist es auch möglich, die Entladefrequenz der untersuchten motorischen Einheit sowie ihr Rekrutierungsverhalten zu quantifizieren. Offline-Mustererkennung. Eine weitere Methode ist das Abspeichern von 1–3 s kontinuierlicher MUP. Nach der Speicherung markiert der Untersucher manuell ein Potential (Template), das er mit Hilfe einer Mustererkennungssoftware im abgespeicherten Abschnitt automatisch suchen lässt. Auch die Messwerte werden automatisch ermittelt. Dieses Verfahren der nachträglichen Analyse eines MUP-Signalabschnitts kann auch mit Mustererkennungsalgorithmen durchgeführt werden, die selbstlernend und automatisch wiederkehrende Potentiale finden, mitteln und vermessen. Hierbei handelt es sich um eine Offline-Analyse, die mehrfach nachträglich mit neuen Vorgaben wiederholt werden kann.
12.3.4 Elektroneurographie (ENG)
Elektroneurographie ist die Stimulation, Ableitung und Registrierung von entlang motorischer oder sensibler peripherer Nerven fortgeleiteten Erregungen. Ein wichtiges Ergebnis dieser Untersuchung ist die Nervenleitgeschwindigkeit. Ebenso gehören Untersuchungen verschiedenster Reflexe, die Prüfung der Ermüdbarkeit des Muskels und die Beurteilung der neuromuskulären Übertragung zu den Untersuchungen der Elektroneurographie. In den meisten Fällen wird mit Oberflächenelektroden, selten mit Nadelelektroden, gereizt und abgeleitet. Zur Verminderung des Einflusses eines Reizartefaktes durch den elektrischen Reiz auf das zu erfassende Signal ist zwischen Reiz- und Ableitelektrode die Erdelektrode zu platzieren. Eine automatische Reizartefaktunterdrückung kann zusätzlich eingesetzt werden. Ziel einer neurographischen Untersuchung ist die Diagnose von motorischen und/oder sensiblen Leitungsstörungen in peripheren Nerven. Oft wird die elektromyographische von einer neurographische Untersuchung ergänzt. Jede einzelne dieser möglichen Untersuchungen verfügt über eigene Reizprogramme, Ableitparameter und Auswertschemata. Der Anwender kann diese erstellen, aufrufen und verändern.
12
182
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Nervenleitgeschwindigkeit (NLG)
I
Die häufigste Untersuchung der Elektroneurographie ist die Bestimmung der Nervenleitgeschwindigkeit (⊡ Abb. 12.24, 4-Farbteil am Buchende). Unterschieden werden die motorische und die sensible Nervenleitgeschwindigkeit. Zur Berechnung der NLG wird nach v=Δs/t eine Wegdifferenz und eine Zeitdifferenz benötigt. Dazu reizt man elektrisch die peripheren Nerven an zwei verschiedenen Stellen mit elektrischem Strom und misst die Latenzen zwischen dem Beginn des Reiz- und des jeweiligen Antwortsignals. Man nennt die beiden Reizorte und Latenzen distal (entfernt) und proximal (körpernah), bezogen auf die Körpermittellinie. Die klinische Indikation für eine NLG-Bestimmung sind Klagen der Patienten über Gefühlsstörungen oder Schmerzen in den Extremitäten, wie z. B. bei Nervenkompressionssyndromen. Ein häufiges Beispiel dafür ist das Karpaltunnelsyndrom (N. medianus) im Handgelenk und das Sulcus Ulnaris Syndrom (N. ulnaris) in der Ellenbeuge. Die NLG ist abhängig von der Beschaffenheit des Nervs, vom Alter und der Hauttemperatur, sie verändert sich im Mittel pro 1°C um 2 m/s. Die am häufigsten untersuchten motorischen Nerven sind im Arm N. medianus und N. ulnaris und im Bein N. tibialis und N. peroneus. Bei der Bestimmung der motorischen NLG am Nervus medianus wird mit einer Reizelektrode am Nervenpunkt in der Nähe des Handgelenks stimuliert und in der Armbeuge supramaximal gereizt. Supramaximal bedeutet, dass eine Erhöhung der Reizamplitude keine Amplitudenerhöhung des Antwortpotentials mehr erzeugt. Die entstehenden Reizströme für den supramaximalen Reiz können je nach Beschaffenheit der Oberhaut Werte von 10–30 mA haben. Abgeleitet werden beide Antwortpotentiale über dem Daumenballenmuskel (Thenar) mit Oberflächenelektroden. Typische Normalwerte für die NLG des N. medianus liegen um 50 m/s bei einer Haut-
⊡ Abb. 12.25. Antwortpotentiale und Bestimmung der motorischen Nervenleitgeschwindigkeit beim N. medianus einer 27-jährigen Probandin
temperatur von 35°C. Auch die absolute distale Latenz hat eine diagnostische Bedeutung, ihr Normwert liegt beim N. medianus bei 4,3 ms (⊡ Abb. 12.25). Zur Bestimmung der sensiblen NLG geht man analog zur motorischen vor. Da sich die Erregung der Reizstelle in beide Richtungen fortsetzt, kann zwischen einer orthodromen (in physiologischer Richtung) und einer antidromen (entgegen der physiologischen Ausbreitungsrichtung) Methode unterschieden werden. Bei der orthodromen Methode wird distal am Finger oder Zeh gereizt und proximal am Handgelenk und in der Ellenbeuge bzw. am Fußgelenk, und in der Kniebeuge (in Richtung der physiologischen sensiblen Nervenfortleitung) abgeleitet. Die Ableitung erfolgt von beiden Ableitorten gleichzeitig, d. h., es handelt sich immer um eine 2-Kanal-Registrierung. Bei der antidromen Methode reizt man an den gleichen Stellen wie bei der motorischen NLG, jedoch mit wesentlich geringerer Reizstärke.
Reflexuntersuchungen Zur Elektroneurographie gehören auch Untersuchungen der verschiedenen Reflexe: T-Reflex, auslösbar unterhalb der Kniescheibe, H-Reflex, F-Welle oder Blinkreflex. Bei Reflexuntersuchungen werden vor allem die Latenzen, also die Zeit zwischen dem Reiz bis zur Reizantwort, bestimmt. Der Reflexbogen ist eine neuronale Verschaltung des reflektorischen Erregungsablaufs. Dieser geht von den reizaufnehmenden Rezeptoren (z. B. Muskelspindeln, Hautrezeptoren) über den afferenten Schenkel zum spinalen oder zentralen Reflexzentrum. Unter Zwischenschaltung eines oder mehrerer zentraler Neurone (monosynaptischer oder polysynaptischer Reflex) verläuft die Erregung über den efferenten Schenkel zum Erfolgsorgan (z. B.
183 12.3 · Elektromyograph
Muskel). Je nachdem, ob Rezeptor und Erfolgsorgan zusammengehören, unterscheidet man Eigenreflexe (z. B. T-Reflex) und Fremdreflexe (z. B. Blinkreflex). Die Ableitung des Blinkreflexes (⊡ Abb. 12.26) gestattet Aussagen über die Funktion einzelner Kerngebiete im Hirnstamm. Es wird über einem Auge elektrisch gereizt und an beiden Augenwinkeln gleichzeitig abgeleitet. Man erhält zwei Reizantworten R1 und R2. Ipsilateral tritt eine frühe und eine späte Antwort auf; kontralateral nur die späte Antwort R2.
Vegetative Parameter Die objektivierbare Beurteilung von Störungen des vegetativen Nervensystems von außen kann nur indirekt erfolgen. Zwei Bespiele, die Ableitung der sympathischen Hautantwort und die Erfassung der Herzfrequenzvariation, seien hier genannt.
Die sympathische Hautantwort (⊡ Abb. 12.27) ist ein großamplitudiges Potential, das nach unerwarteter Stimulation, z. B. zwischen der Handober- und Handunterseite, erfassbar ist. Es ist auf die Veränderung des Hautleitwertes infolge einer Aktivierung der Schweißdrüsen zurückzuführen und lässt sich am ganzen Körper finden. Die Ableitung der sympathischen Hautantwort kann zur Erfassung einer Schädigung des vegetativen Nervensystems im Rahmen einer Polyneuropathiediagnostik eingesetzt werden. Die Herzfrequenz variiert beim Gesunden mit der Atmung. Sie erhöht sich bei der Einatmung und vermindert sich bei der Ausatmung. Ist diese Korrelation nicht gegeben, kann dies zu einer respiratorischen Herzarrhythmie führen. Die Erfassung der Herzfrequenzvariation erfolgt über das EKG, wobei am zweckmäßigsten mit einer RZacke getriggert wird. Das EKG wird zeitlich so dargestellt, dass die Variation der nachfolgenden R-Zacke gut sichtbar wird (⊡ Abb. 12.28).
⊡ Abb. 12.26. Blinkreflex (Orbicularisoculi-Reflex) einer 27-jährigen Probandin, abgeleitet mit Oberflächenelektroden
⊡ Abb. 12.27. Sympathische Hautantwort einer 27-jährigen gesunden Probandin, abgeleitet von der Handinnen- und Außenfläche nach elektrischer Stimulation des N. medianus
⊡ Abb. 12.28. Herzfrequenzvariationen eines 32-jährigen männlichen Probanden. Dargestellt ist die Veränderung der Herzfrequenzvariation bei Ruheatmung und bei tiefer Atmung
12
184
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Neuromuskulärer Übergang
I
Zur Untersuchung der Ermüdbarkeit des Muskels und damit zur Diagnose des neuromuskulären Überganges werden Serienreize eingesetzt. Das Verhältnis der Amplituden und deren Abnahme (Dekrement) wird hierbei ausgewertet. Bei der Untersuchung der Ermüdbarkeit der Muskeln und der neuromuskulären Übertragung werden ausschließlich die Amplituden der Antwortpotentiale auf supramaximale Serienreize miteinander verglichen. Mit Doppelreizen kann die Refraktärzeit bestimmt werden. Es wird die absolute und relative Refraktärzeit bestimmt; dabei wird die Zeit zwischen einem elektrischen Doppelreiz solange verkleinert, bis die beiden Reizantworten zu einer verschmelzen. Der Nerv kann den zweiten Reiz nicht mehr an den Muskel weiterleiten, da sich die Synapsen noch in der Erholungsphase nach dem ersten Reiz befinden. Der Reizabstand muss in Schritten von 1 ms einstellbar sein.
trischen Phänomenen, die in einem festen zeitlichen Zusammenhang zum Reiz stehen. Diese Potentiale werden als evozierte Potentiale bezeichnet. Sie gestatten Aussagen über die Umwandlung, Weiterleitung und Verarbeitung von bestimmten Reizen und spiegeln den funktionellen Zustand einzelner neuronaler Bahnen wider. Je nach Art der Stimulation wird unterschieden zwischen akustisch (AEP), visuell (VEP), somatosensorisch (SEP) und motorisch (MEP) evozierten Potentialen. Das Ziel der Ableitung evozierter Potentiale ist es, zu prüfen, ob die Fortleitung der sensorischen Reizung bis zur kortikalen Verarbeitung im Gehirn normal, verzögert bzw. überhaupt vorhanden ist. Mit SEP, AEP und VEP werden die aufsteigenden sensorischen Nervenbahnen geprüft, mit MEP die absteigenden motorischen Nervenbahnen bis in die periphere Muskulatur der Arme und Beine.
Gerätetechnik ENG-Signalanalyse/Auswertung Bei der Analyse neurographischer Signale werden die Reizantwortpotentiale automatisch vermessen. Bei artefaktarmen Signalen sind diese automatischen Vermessungen sehr zuverlässig und erhöhen die Reproduzierbarkeit der Ergebnisse, da diese immer gleiche Kriterien verwenden. Sind die Antwortpotentiale jedoch stark artefaktbehaftet oder sind sie durch eine hochgradige Pathologie sehr klein und kaum erfassbar, muss der untersuchende Arzt manuell die Cursoren zur Ausmessung setzen. Es wird die Latenz als Zeit zwischen einem Reiz bis zum Beginn des Antwortpotentials gemessen. Unter Zuhilfenahme einer Messstrecke lassen sich daraus Nervenleitgeschwindigkeiten berechnen.
12.3.5 Evozierte Potentiale (EP)
Jede Stimulation von Rezeptoren, afferenten Nerven oder Hirnstrukturen führt im zentralen Nervensystem, Spinalkanal und im peripheren Nervensystem zu bioelek-
Die Ableitparameter der Verstärker, die Analysezeit und die Zahl der Mittelungsschritte sind charakteristisch für jede Art von EP. In ⊡ Tab. 12.7 findet sich eine Übersicht über die von der Deutschen Gesellschaft für Klinische Neurophysiologie empfohlenen Einstellungen. Darüber hinaus ist es notwendig, größten Wert auf genaue und sorgfältige Elektrodenapplikation zu legen. Die Platzierung der Elektroden erfolgt auch hier nach dem 10–20 System. Die Kopfhaut ist vorzubehandeln und die Elektrodenübergangswiderstände sind unter 2 kΩ zu bringen. Je nach abzuleitendem evozierten Potential sind Oberflächennapfelektroden aus gesintertem Ag/AgCl oder Gold zu verwenden. Nur bei intraoperativen Anwendungen der evozierten Potentiale werden unipolare Platinnadelelektroden eingesetzt. Sie benötigen keine Vorbereitung der Kopfhaut, sondern werden subkutan appliziert. Vor und während der Ableitung sind die EEG-Rohsignale auf dem Monitor zu betrachten, um eventuelle Artefakte schnell erkennen und beseitigen zu können. Insbesondere Muskelaktivitäten infolge von Verspannungen des Patienten treten während der Registrierung auf.
⊡ Tab. 12.7. Ableitparameter für verschiedene evozierte Potentiale Art des EP
Verstärker empfindlichkeit
Hochpass
Tiefpass
Analysezeit
Averagerdurchläufe
VEP
5 μV/Div
0,5 Hz
100 Hz
500 ms
64–128
SEP-Arm SEP-Bein
5 μV/Div 5 μV/Div
0,5–1 Hz 0,5–1 Hz
2–3 kHz 2–3 kHz
50 ms 100 ms
128–256, selten 1024 128–256, selten 1024
FAEP
1–2 μV
100–150 Hz
3 kHz
10 ms
1024–2048
ERP
5–10 μV/Div
0,1–0,5 Hz
30–70 Hz
500 ms–1 s
16–32
MEP Arm MEP Bein
1–5 mV/Div 2–5 mV/Div
10–20 Hz
5–10 kHz
50 ms 100 ms
1
185 12.3 · Elektromyograph
Bei AEP-, SEP- und MEP-Ableitungen liegt der Patient möglichst entspannt auf einer Untersuchungsliege, während er beim VEP vor dem TV-Monitor sitzen muss. Bei der Ableitung der evozierten Potentiale ist eine elektronische Mittelwertbildung (Averaging) unumgänglich. Diese wird mit einem dem Reiz simultanen Triggersignal gesteuert. Damit werden die Signalkomponenten, die in einem festen zeitlichen Zusammenhang mit dem Reiz stehen, aus der Hintergrundaktivität herausgelöst. Diese Signalkomponenten bilden das evozierte Potential. Die anderen Signalanteile, wie Artefakte, EEG, EKG, EMG usw. korrelieren nicht mit dem Reiz. Die Verbesserung des Signal/Rauschabstandes entspricht der Quadratwurzel der Anzahl der Mittelungsschritte. Hilfreich für die Ableitung der evozierten Potentiale ist eine automatische Artefaktunterdrückung. Häufig genügt eine Diskrimination der Amplitude. Überschreitet die Amplitude einen einstellbaren Schwellwert, wird der jeweilige Signalabschnitt nicht in die Mittelwertbildung einbezogen. Die Normwerte bzw. die Bewertungskriterien für die evozierten Potentiale sind die Latenzen charakteristischer Wellen, ihre Differenz im Seitenvergleich, Interpeaklaten-
⊡ Abb. 12.29. Normales FAEP einer 44-Jährigen
zen und das Fehlen einer oder mehrerer Komponenten dieses Antwortpotentials. Eine Indikation für die Messung evozierter Potentiale liegt i. Allg. vor: ▬ in der Diagnostik der multiplen Sklerose (MS); ▬ bei raumfordernden Prozessen; ▬ bei Polyneuropathien; ▬ in der Intensivmedizin bei bewusstseinsgetrübten und bewusstlosen Patienten; ▬ beim intraoperativen Monitoring, bspw. bei der Operation am Spinalkanal; ▬ bei Intoxikation und/oder Stoffwechselentgleisungen; ▬ bei posttraumatischem Koma nach Schädel-HirnTrauma; ▬ bei der Feststellung des Hirntods.
Akustisch evozierte Potentiale (AEP) Akustisch evozierte Potentiale ermöglichen die Untersuchung des Hörnervs in Verbindung mit der Hörbahn über den Hirnstamm bis zur Hirnrinde. Für die Neurologie haben die frühen Komponenten in den ersten 10 ms nach dem Reiz (FAEP) Bedeutung erlangt (⊡ Abb. 12.29). Diese
12
186
I
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
werden im N. acusticus und in einzelnen Kerngebieten des Hirnstamms generiert. Es handelt sich um eine wenig aufwändige Untersuchung zu funktionellen Ausfällen infolge raumfordernder Prozesse im Hirnstamm. So führen z. B. Tumore und Blutungen im Hirnstamm zu Veränderungen im FAEP. Auch in der Audiologie haben die AEP ihren festen Platz. Dort finden sie Anwendung bei Erkrankungen der Kochlea, des Hörnervs und bei der objektiven Audiometrie bei Patienten, die bei der normalen Audiometrie ( Kap. 15) nicht mitarbeiten können. Der akustische Stimulator besteht aus einem elektromagnetisch abgeschirmten Kopfhörer, über den Töne von einem elektronischen Tongenerator direkt in die Ohrmuschel abgegeben werden. Die elektromagnetische Abschirmung ist deshalb notwendig, weil die Ableitelektroden direkt unter dem Kopfhörer appliziert werden müssen und induktive Einkopplungen zu vermeiden sind. Wird der Tongenerator nur für die Stimulation von Hirnstammpotentialen verwendet, ist der Reiz ein kurzes rechteckförmiges akustisches Signal mit einer Dauer von 100 μs, ein sog. Click. ▬ Click-Reizamplitude: 10–80 dB HL, standardmäßig 70 dB HL in der Neurologie, zur objektiven Audiometrie in der HNO alle Lautstärken; ▬ Reizfrequenz: 1–30 Hz in 1 Hz-Stufen; standardmäßig 10–15 Hz; ▬ Polarität: Sog, Druck, alternierend Sog/Druck; weißes Rauschen 30 dB unter der Reizlautstärke kontralateral zur Unterdrückung des Hörens über die Knochenleitung. Wird der Tongenerator in der HNO-Heilkunde zur Stimulation der mittleren und späten Potentiale verwendet, sind frequenzspezifische Tonpiep- und Burst-Impulse mit einstellbaren Zeiten für Anstiegs- und Abfallflanken im Bereich der in der Audiometrie üblichen Frequenzen von 125–250–500 Hz und 1–2–4–8 kHz erforderlich. Die 4 Ableitelektroden befinden sich an folgenden Stellen: ▬ 2 Ableitelektroden: am rechten und linken Mastoid (knöcherner Schädelteil hinter dem Ohrläppchen) ipsilateral zum stimulierten Ohr; ▬ Referenzelektrode: Cz; ▬ Erdelektrode: Fz. Zuerst wird Stimulation und Ableitung am rechten Ohr durchgeführt, das linke wird dabei mit weißem Rauschen 30 dB unter der Reizlautstärke vertäubt. Danach erfolgt ein weiterer Durchlauf mit der Stimulation und Ableitung des linken Ohres mit kontralateraler Vertäubung des rechten Ohres. Beide Stimulationen und Ableitungen werden wiederholt, um zuverlässige Reproduzierbarkeit sicherzustellen. Die FAEP-Normwerte bei einer Stimulationslautstärke von 70 dB HL bestehen aus fünf Latenzen und
einer Interpeaklatenz: Latenz I: 1,5 ms; Latenz II: 2,6 ms; Latenz III: 3,6 ms; Latenz IV: 4,7 ms und Latenz V: 5,4 ms; Interpeaklatenz V–I: 4,0 ms. Bewertet wird das Auftreten dieser Potentialgipfel, und ob ihre Latenz im Normwertbereich liegt. Je nachdem, welche der Potentialgipfel verzögert ist oder nicht erscheint, kann auf die Lokalisation einer Schädigung geschlossen werden. Bei der objektiven Audiometrie werden zusätzlich die Amplitudenverhältnisse IV-V/I berücksichtigt. Hier umfasst die Ableitung der Hirnstammpotentiale einen wesentlich größeren Aufwand, da die Lautstärke von 70 dB HL in 10 dB HL-Stufen abwärts bis zur Hörschwelle hinunter verringert wird. Diese Ableitungen nehmen oft mehr als eine halbe Stunde in Anspruch. Die Normwerte der Hirnstammpotentiale sind abhängig von der stimulierenden Lautstärke, vom Geschlecht, der Temperatur und pathologischen Veänderungen, nicht jedoch von der Mitarbeit des Patienten. Dies ermöglicht ihren Einsatz zum Monitoring während Operationen am inneren Ohr und am Hirnstamm. Sie können auch zur Feststellung des Hirntods herangezogen werden.
Visuell evozierte Potentiale (VEP) Visuell evozierte Potentiale (VEP) (⊡ Abb. 12.30) ermöglichen die Untersuchungen des visuellen Systems. So werden VEP in der Neurologie zur Prüfung der Fortleitung des visuellen Reizes über den Sehnerv, die visuellen Bahnen bis zum visuellen Kortex verwendet. Sie haben ihre klinische Bedeutung in der Früherkennung der multiplen Sklerose (MS) und bei zentralen Sehstörungen. In der Augenheilkunde liegt ihre klinische Bedeutung z. B. in der objektiven Visusbestimmung und in der objektiven Erkennung von Störungen des Farbsinns. In der Elektroophthalmologie verwendet man eine Vielzahl von verschiedenen visuellen Reizen, die sehr differenziert farbig oder mit verschiedenen Graustufen angeboten werden. Der Stimulator für ein Routine-VEP besteht i. d. R. aus einem TV-Monitor, der ein Schachbrettmuster über den gesamten Schirm mit größtmöglichem Kontrast anbietet, das sich im Sekundenrhythmus in ein reversibles Schachbrett umkehrt. Der Patient sitzt in einem festen Abstand zu dem Schachbrettmuster, und zwar so, dass das einzelne Schachbrett einen festen Blickwinkel (Standard 50 Bogenminuten) in Bezug auf die Netzhaut bildet. Das Gesamtfeld beträgt 12°×15° bezogen auf den Blickwinkel des Patienten. Für diese Ableitung befindet sich der Patient in einem abdunkelbaren Raum. Brillenträger müssen ihre Brille fürs Weitsehen während der Ableitung unbedingt aufsetzen. Während der Ableitung schaut der Patient auf einen Fixierpunkt, der sich leicht oberhalb der Monitormitte im Schachbrettmuster befindet. Dabei soll er die Schachbrettmusterumkehr aufmerksam betrachten, um eine verwertbare VEP-Ableitung zu erzeugen.
187 12.3 · Elektromyograph
⊡ Abb. 12.30. Visuell evoziertes Potential einer 57-jährigen Patientin
Bei komatösen oder narkotisierten Patienten kann ein VEP abgeleitet werden, wenn man als Reiz helle Lichtblitze verwendet, die mit Hilfe von Leuchtdioden oder dem Fotostimulator ausgelöst werden. Die Elektroden befinden sich an folgenden Stellen: ▬ Ableitelektrode: 3 cm oberhalb des Inions in der Mittellinie des hinteren Schädels; ▬ Referenzelektrode: Fz; ▬ Erdelektrode: Fpz. Zuerst wird eine Ableitung mit dem rechten Auge durchgeführt, das linke wird dabei verdeckt. Danach erfolgt ein weiterer Durchlauf mit der Reizung des linken Auges, bei Verdeckung des rechten. Man nennt dies monokuläre Reizung. Die beiden Antwortpotentiale werden zur Prüfung der Reproduzierbarkeit jeweils einmal wiederholt. Der Hauptgipfel im Antwortpotential ist der zweite positive Gipfel 100 ms nach dem Reiz (P2 oder P100). Verlängerungen dieser Latenz um 10–20% sind als pathologisch anzusehen. Die Latenzen der Stimulation des rechten und linken Auges werden miteinander verglichen. Die Normwerte des VEP sind reiz- und altersabhängig. Ein Steady-state-Potential kann mit einer Umkehrfrequenz von 8,3 Hz erreicht werden.
Somatosensorisch evozierte Potentiale (SEP) Somatosensorisch evozierte Potentiale (SEP) stellen eine objektive Funktionsprüfung des somatosensorischen Systems dar, d. h. von den sensiblen Nervenenden der oberen und unteren Extremitäten über die Fortleitung des Spinalkanals, Eintritt in den Hirnstamm und ihre kortikale Weiterverarbeitung bis in die Hirnrinde. Dies ist von klinischer Bedeutung bei Patienten, die keine verwertbaren Angaben über Sensibilitätsstörungen bei der klinischen Untersuchung machen können oder wollen. Bei einer mehrkanaligen Ableitung über verschiedene Stationen der somatosensiblen Bahnen lässt sich eine Lokalisationsdiagnostik durchführen (vgl. Übersicht).
Ableitungsmöglichkeiten für SEP Ein 4-kanaliges Medianus-SEP kann getrennt nach rechter und linker Stimulationsseite folgendermaßen abgeleitet werden: ▬ Ableitelektrode: kanalweise Kanal 1: Erb-Punkt in der Schlüsselbeingrube Kanal 2: unterer Nacken am Eintritt des N. medianus in die Wirbelsäule ▼
12
188
I
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Kanal 3: oberer Nacken vor dem Eintritt des Wirbelkanals in den Hirnstamm Kanal 4: Kopfpunkt C3’ (2cm hinter C3) für rechte Stimulation, C4’ (2cm hinter C4) für linke Stimulation, (Ableitung kontralateral zur Stimulation, da sich die Pyramidenbahnen im Hirnstamm kreuzen ▬ Referenzelektrode: Kopfpunkt Fz für alle Kanäle ▬ Erdelektrode: an der oberen Stirn, zusätzliche großflächige Erdelektrode am Oberarm zwischen Reiz und Ableitung (⊡ Abb. 12.31) Ein 4-kanaliges Tibialis-SEP kann getrennt nach rechter und linker Stimulationsseite folgendermaßen abgeleitet werden: ▬ aktive Elektrode: wie oben kanalweise Kanal 1: innere Kniekehle über dem N. tibialis Kanal 2: Lumbalwirbel L5 am Eintritt des N. tibialis in die Wirbelsäule Kanal 3: Wirbelsäule am Lumbalpunkt L1 ▼
Kanal 4: mittlerer Kopfpunkt Cź (3 cm hinter Cz) für rechte und linke Stimulation gleich ▬ Referenzelektrode: Kopfpunkt Fz für alle Kanäle ▬ Erdelektrode: an der oberen Stirn, jedoch nicht auf einen Muskel, zusätzliche großflächige Erdelektrode am Unterschenkel zwischen Reiz und Ableitung (⊡ Abb. 12.33)
SEP haben klinische Bedeutung bei Erkrankungen des peripheren Nervensystems, z. B. bei Polyneuropathien und Kompressionssyndromen, während Rückenmark- und Wirbelsäulenoperationen sowie bei multipler Sklerose und Läsionen im Hirnstamm. Die Nervenenden der Extremitäten werden mit einem elektrischen Reiz wiederholt stimuliert. Dabei handelt es sich um einen rechteckförmigen kurzen Stimulus von 100 oder 200 μs Dauer, der entweder 3–4 mA über der motorischen Reizschwelle liegen oder das 3- bis 4-Fache der sensiblen Schwelle haben soll. Dabei kommt es zu einer kräftigen, nicht schmerzhaften Kontraktion
⊡ Abb. 12.31. Schema zur Ableitung eines Medianus-SEP von verschiedenen Messpunkten mit den zugehörigen Signalen
189 12.3 · Elektromyograph
der zugehörigen Muskulatur. Die Reizfrequenz liegt bei 1, 2 oder 3 Hz für die Bewertung der frühen Komponenten. Legt man besonderen Wert auf die späteren Komponenten, sind die Reizfrequenzen auf 0,2–0,5 Hz zu vermindern. SEP werden von beiden Seiten abgeleitet. Die Normwerte für die kortikalen Reizantworten bei Medianusstimulation liegen bei P15 und N20, d. h. ein positiver Gipfel bei 15 ms und ein negativer Gipfel bei 20 ms. Die Normwerte für die frühen kortikalen Reizantworten bei Tibialis-Stimulation liegen bei P30 und N33 (30 bzw. 33 ms), die mittleren bei P40, N50 und P60 und die späten bei N75 (40, 50, 60 und 75 ms) und höher. Beispiele für somatosensorisch evozierte Potentiale nach Stimulation des N. medianus (⊡ Abb. 12.32) und des N. tibialis ⊡ Abb. 12.34) sind mit ihren Messwerten angegeben. In der Klinik werden die SEP-Ableitungen häufig 4-kanalig abgeleitet, sodass aus den Latenzen der Gipfel von den verschiedenen Ableitorten Latenzdifferenzen gebildet werden, die es ermöglichen, eine periphere und zentrale Überleitgeschwindigkeit zu bestimmen. Die Normwerte sind abhängig von Alter, Körpertemperatur und Größe der Patienten. Dies ist bei der Impulsüberleitgeschwindigkeit zu berücksichtigen. Ein besonderer Vorteil der frühen kortikalen Reizantworten ist, dass sie unabhängig vom Bewusstseinszustand des Patienten ableitbar sind. Sie bleiben auch weitestgehend unbeeinflusst von Medikamenten, die einen Ein-
fluss auf den Bewusstseinszustand der Patienten haben. Dadurch ist es möglich, die SEP beim intraoperativen Monitoring einzusetzen.
Motorisch evozierte Potentiale (MEP) Unter motorisch evozierten Potentialen (MEP) versteht man eine Untersuchungsmethode, die direkt die zentralmotorischen Bahnen beim wachen Patienten überprüft. Es handelt sich dabei um eine nicht invasive und schmerzlose transkranielle motorische Kortexstimulation mit Hilfe eines Magnetstimulators. Die MEP werden häufig in Verbindung mit den SEP abgeleitet. Während mit den SEP die aufsteigenden sensiblen Nervenbahnen zusammen mit ihrer Weiterverarbeitung in den verschiedenen Teilen des Gehirns geprüft werden, testen die MEP die absteigenden motorischen Bahnen bis zu den Extremitäten. Die Reizwirkung der Magnetstimulation entsteht durch magnetisch induzierte Ströme im motorischen Kortex. Die Einstellungen des Verstärkers entsprechen der motorischen NLG, jedoch mit längeren Analysezeiten. Ebenso ist es von Vorteil, 10–20 MEP auf einem Monitor gemeinsam darzustellen. Die Technik des Magnetstimulators besteht aus einem Kondensator-Lade-Entladesystem mit einem Hochvoltladekreis, einem Hochleistungsentladeschalter und einem Kondensator, der die aufgeladene Energie speichert. Der Kondensator wird über die Magnetspulen entladen. Die
⊡ Abb. 12.32. Normales somatosensorisch evoziertes Potential des N. medianus einer 50-jährigen Patientin
12
190
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
I
⊡ Abb. 12.33. Schema zur Ableitung eines Tibialis-SEP von verschiedenen Messpunkten mit den zugehörigen Signalen
⊡ Abb. 12.34. Normales somatosensorisch evoziertes Potential des N. tibialis eines 40-Jährigen
191 12.3 · Elektromyograph
⊡ Abb. 12.35. Reizorte und MEP zur Bestimmung der zentralmotorischen Leitungszeit – ZMLZ
Bauart oder Geometrie der Spule hat großen Einfluss auf die Stärke, Eindringtiefe und die Fokussierung des Reizes im neuronalen Gewebe. Es sind daher für verschiedene Reizarten verschiedene Spulenformen üblich. Bei der Stimulation der oberen Extremitäten wird die 90-mmStandardspule verwendet. Die Seiten der Spule sind mit der Flussrichtung des Stromes gekennzeichnet. Schaut man von oben auf die Spule und zeigt die Markierung der Flussrichtung des Stromes im Uhrzeigersinn, dann wird die linke Hemisphäre stimuliert und man leitet kontralateral an der rechten Hand das MEP ab. Umgekehrt: Ist die Flussrichtung entgegen dem Uhrzeigersinn gerichtet, wird die rechte Hemisphäre stimuliert mit der kontralateralen Ableitung an der linken Hand. Zur Bestimmung der zentralen motorischen Leitzeit (ZMLZ) wird zuerst der motorische Kortex gereizt, dann der zugehörige Nerv am Austritt aus dem Wirbelkanal (⊡ Abb. 12.35). Die Latenzen der MEP der kortikalen und zervikalen Reizung werden gemessen und voneinander abgezogen. Die Differenz ist die Zeit, die der Reizimpuls vom motorischen Kortex bis zum spinalen Austritt des Nervs benötigt. Diese Zeit ist die zentralmotorische Lei-
tungszeit. Normwerte für die Arme liegen bei 5–9 ms, für die Beine bei 15–19 ms. Ein wichtiges Phänomen bei der kortikalen Stimulation ist das der Faszilitierung. Es ist möglich, die notwendige Stimulationsschwelle um 25% zu senken und die Antwortpotentiale um das 2- bis 5-Fache zu erhöhen, wenn der Patient den Zielmuskel während der kortikalen Stimulation anspannt und damit eine willkürliche Innervation ausführt. Die Latenz des MEP bei faszilitiertem Muskel verringert sich dann um 1–3 ms. Es gibt einige Kontraindikationen für die Magnetstimulation: Herzschrittmacher, Metall in Schädel (z. B. Aneurysma-Clips) und eine diagnostizierte Epilepsie. Weitere Vorsichtsmaßnahmen für Patient und Untersuchenden betreffen Daten auf Magnetkarten wie Kreditkarten etc. Diese können im Abstand von 20 cm um die Stimulationsspule verändert werden.
12.3.6 Ereignisbezogene Potentiale (ERP)
Die ereignisbezogenen Potentiale (Event Related Potentials, ERP) sind Potentiale, die in den höheren Schichten
12
192
I
Kapitel 12 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
des Kortex entstehen. Sie beinhalten die Verarbeitung eines Reizes durch den Patienten. Sie lassen sich daher nur ableiten, wenn der Reiz für den Patienten eine Bedeutung hat. Er wird daher aufgefordert, laute von leisen oder hohe von tiefen Tönen zu unterscheiden und diese zu zählen. Bei den ERP werden ausschließlich die späten Komponenten ausgewertet. Sie werden auch als P300 oder Potentiale nach kognitiver Stimulation benannt. P300 bezieht sich wieder auf einen Spitzenwert in der Nähe von 300 ms Latenz nach Reizauslösung. Die Indikation zur Ableitung dieser Potentiale ist gegeben z. B. bei Patienten mit Hirnleistungsstörungen und dementiellen Syndromen wie M. Alzheimer, bei Depression und Schizophrenie sowie beim hirnorganischen Psychosyndrom.
Literatur Binnie CD (2004) Clinical Neurophysiology: Emg, Nerve Conduction and Evoked Potentials: 1 Elsevier Science Ltd., Amsterdam Bischoff C, Schulte-Mattler WJ, Conrad B (2005) Das EMG-Buch, 2. Aufl. Thieme, Stuttgart Bronzio JD (2006) Tissue Engineering and Artificial Organs, 3rd ed. CRC Press Boca Raton, Florida Buchner H, Joth J (2005) Evozierte Potenziale, Neurovegetative Diagnostik, Okulographie. Thieme, Stuttgart Burkard RF, Eggermont JJ, Don M (2007) Auditory evoked potentials: basic principles and clinical application. Lippincott Williams & Wilkins, Philadelphia Claus D, Kowitz-Buhler E, Hofmann-Fox M (2002) Richtlinien und Empfehlungen der Deutschen Gesellschaft für Klinische Neurophysiologie und funktionelle Bildgebung – DGKN. Frotscher Druck, Darmstadt: S 39–141 Dilorenzo DJ Bronzino JD (ed) (2008) Neuroengineering. Taylor & Francis Group, Florida Ebersole JS, Pedley TA (2003) Curent Practice of clinical Electroencephalography. 3/E Lippincott Williams & Wilkins Horch KW, Dhillon GS (2004) Neuroprosthetics, Theory and Practice. World Scientific Publishing Company International Federation of Clinical Neurophysiology, Deuschl G, Eisen A (1999) Recommendations for the practice of clinical neurophysiology: guidelines of the International Federation of Clinical Neurophysiology. Elsevier Health Sciences, Amsterdam Jirsa VK McIntosh AR (ed) (2007) Handbook of Brain Acitivity. Springer, Berlin Heidelberg New York Kimura J (2001) Electro diagnosis in diseases of nerve and muscle: principles and practice Electrodiagnosis in Diseases of Nerve and Muscle: Principles and Practice. Oxford University Press US Klinke R, Pape HC, Silbernagel A (2005) Physiologie, 5. Aufl. Thieme, Stuttgart Liveson JA, Ma Dong M (1992) Laboratory Reference for Clinical Neurophysiology. Ausg. 52, Bd. 52. Oxford University Press US Merletti R, Parker P (2004) Electromyography: physiology, engineering and non-invasive applications Bd.11. Wiley-IEEE, London New York Mühlau G (1990) Neuroelektrodiagnostik. Gustav Fischer, Jena Niedermeyer E, Lopes da Silva, FH (2005) Electroencephalography: basic principles, clinical applications, and related fields. Lippincott Williams & Wilkins, Philadelphia Stålberg E (2003) Clinical neurophysiology of disorders of muscle and neuromuscular junction, including fatigue Bd. 2. Elsevier Health Sciences
Preissl H (2005) Magnetoencephalography Bd. 68. Gulf Professional Publishing Ritter AB, Reisman S, Michniak BB (2005) Biomedical Engineering Principles. Taylor & Francis Group, Florida Rowan AJ, Tolunsky E (2003) Primer of EEG with a Mini Atlas. Butterworth-Heinemann, Oxford Rubin DI, Daube JR (eds) (2009) Clinical Neurophysiology. Oxford University Press Shapiro BE, Preston DC (2005) Electromyography and Neuromuscular Disorders: Clinical-Electrophysiologic Correlations. ButterworthHeinemann Medical Stöhr M (2005) Evozierte Potentiale, 4. Aufl. Springer, Berlin Heidelberg Stöhr M (2005) Klinische Elektromyographie und Neurographie, 5. Aufl. Kohlhammer, Stuttgart Van Putten MJAM (2009) Essentials of Neurophysiology. Springer, Heidelberg Wehrli W, Loosli-Hermes J (Hrsg) (2003) Enzyklopädie elektrophysiologischer Untersuchungen. Urban & Fischer, München Jena Zschocke S, Speckmann, EJ (1993) Basic mechanisms of the EEG Brain dynamics series Probability and Its Applications. Birkhäuser, Berlin Heidelberg
193 xxxx · xxxx
Schlafdiagnostiksysteme K.-P. Hoffmann 13.1
Funktion und Anwendung – 193
13.6
13.2
Schlafdiagnostik, Schlaflabor, Schlafapnoen – 194
13.7
Methodische Hinweise
13.7.1 13.7.2
Handhabung/Applikation – 203 Artefakte – 203
13.8
Medizinische Bedeutung der Schlafdiagnostik – 203
13.9
Therapie
13.9.1
Verhaltensmedizinisch-psychotherapeutische Therapie – 205 Chronobiologische Therapie – 205 Medikamentöse Therapie – 205 Apparative Therapie – 205 Operative Therapie – 205
13.2.1 13.2.2 13.2.3 13.2.4
Schlafdiagnostik – 194 Schlaflabor – 194 Schlafapnoen – 195 Plötzlicher Kindstod – 195
13.3
Technik
13.3.1
13.3.3 13.3.4
Geräte zum Monitoring ausgewählter Parameter für spezielle Anwendungen – 196 Ambulante Geräte zur Diagnostik entsprechend Stufe 3 – 196 Geräte zur Diagnostik entsprechend Stufe 4 – 196 Therapiegeräte – 197
13.4
Schlafdiagnostikverfahren – 198
13.4.1 13.4.2 13.4.3 13.4.4 13.4.5 13.4.6 13.4.7 13.4.8
Ambulante Polygraphie – 198 Kleine Polysomnographie – 198 Große Polysomnographie – 198 Multipler Schlaflatenztest (MSLT) – 198 »Maintenance of Wakefulness Test« (MWT) – 198 Therapeutisches Monitoring – 198 Intensivmonitoring (Epilepsie) – 198 EEG nach Schlafentzug – 199
13.5
Signalableitung und Signalverarbeitung – 199
13.5.1 13.5.2 13.5.3
Signalableitung – 199 Visuelle Auswertung – 200 Computerisierte Auswertung – 200
13.3.2
13.1
– 196
Funktion und Anwendung
Schlafstörungen gehören mit einer Prävalenz von 15–20% zu den häufigen Erkrankungen. Dabei handelt es sich zu 50–60% um psychogene Schlafstörungen, zu ca. 30% um Schlafstörungen, bei denen psychische und organische Faktoren als Ursache nicht unterscheidbar sind, und zu 10–20% um rein organisch bedingte Schlafstörungen [12]. Zur letzten Gruppe gehören auch die Patienten mit einem Schlafapnoesyndrom, die zum einen durch ihr erhöhtes vitales Risiko imponieren, denen aber zum anderen oftmals durch eine Symptombehandlung mittels nCPAP-Therapie schnell und erfolgreich geholfen werden kann. Insgesamt unterscheidet die von der American Sleep Disorders Association 1990 veröffentlichte International Classification of Sleep Disorders (ICSD) 83 verschiedene Schlafstörungen [12].
13.9.2 13.9.3 13.9.4 13.9.5
Anwendungsbereiche – 202 – 202
– 203
13.10 Sicherheitstechnische Aspekte – 205 13.10.1 Ambulante Geräte – 205 13.10.2 Geräte im Schlaflabor – 205
13.11 Planerische Hinweise
– 206
13.11.1 Raumbedarf – 206 13.11.2 Zeitbedarf – 206 13.11.3 Personal – 206
Literatur
– 206
Da zum einen die Ursachen der einzelnen Schlafstörungen mannigfaltig, zum anderen aber auch ihre Auswirkungen in verschiedene Bereiche der modernen Medizin hineinreichen, ist für die Diagnostik und Therapie von Schlafstörungen ein interdisziplinäres Herangehen erforderlich. So arbeiten verschiedene Disziplinen und Fachbereiche zusammen: Pneumologie, Pädiatrie, Neurologie, Psychiatrie, Psychologie, Geriatrie, Kardiologie, HNO, Innere Medizin, Urologie, Nephrologie usw. Auf der anderen Seite hat sich die Schlafmedizin aufgrund ihrer speziellen Fragestellungen zu einem eigenen Fachgebiet entwickelt, das die medizinischen Kenntnisse des Schlafs und seiner Störungen umfasst. Fachkenntnisse auf diesem Gebiet können heute in Deutschland an zahlreichen klinischen und privaten Schlafzentren erworben werden.
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _13, © Springer-Verlag Berlin Heidelberg 2011
13 X
194
Kapitel 13 · Schlafdiagnostiksysteme
13.2
I
Schlafdiagnostik, Schlaflabor, Schlafapnoen
13.2.1 Schlafdiagnostik
Alle Verfahren und Methoden, die sowohl zur Beurteilung des gestörten und normalen Schlafs als auch zur Kontrolle einer eingeleiteten Therapie herangezogen werden, lassen sich unter dem Begriff Schlafdiagnostik zusammenfassen. Dabei hat sich aus praktischen Gründen eine stufenweise Einteilung bewährt (⊡ Abb. 13.1). In der 1. Stufe sind Fragen zur Vorgeschichte, Anamneseerhebung und ein standardisierter Kurzfragebogen enthalten. Die 2. Stufe umfasst klinische Untersuchungen mit Labortests und speziellen Schlaf-Wach-Anamnesen. Ein Beispiel für den Inhalt eines Fragebogens bei Verdacht auf Insomnie gibt ⊡ Tab. 13.1 wieder. Das Ziel ist die Klassifikation der Schlafstörung und bei schlafbezogenen Atmungsstörungen (SBAS) die Abschätzung des Risikos. Dies bestimmt das weitere diagnostische und therapeutische Vorgehen. Bei Patienten mit Verdacht auf schlafbezogene Atmungsstörungen schließen sich in einer 3. Stufe Langzeitableitungen an, bei denen insbesondere Atmung, O2-Gehalt des Blutes, Herzfrequenz und Körperlage kontinuierlich erfasst werden. Diese Messungen sind zum größten Teil ambulant durchführbar. Die 4. Stufe beinhaltet Ableitungen meist unter stationären Bedingungen im Schlaflabor. Je nach Fragestellung
⊡ Abb. 13.1. Stufendiagnostik der Schlafstörungen nach [18]
werden hier unterschiedliche Methoden angewandt, bei denen eine Vielzahl von Biosignalen abgeleitet werden. Die eingeleitete Therapie wird durch Kontrolluntersuchungen optimiert bzw. ggf. korrigiert. Zur Durchführung der für eine Diagnostik und Therapiekontrolle erforderlichen polygraphischen Ableitungen wurden von der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM) und von der Arbeitsgruppe Nächtliche Atmungs- und Kreislaufregulationsstörungen der Deutschen Gesellschaft für Pneumologie (AGNAK) Empfehlungen erarbeitet [9, 14]. Diese umfassen atemmechanische Messgrößen (Atemgasfluss, Atemanstrengung, nCPAP-Druck), kardiorespiratorische Messgrößen (Blutdruck, Blutgase, EKG, Puls), neurophysiologische Messgrößen (EEG, EMG und EOG) und patientenbezogene Messgrößen (Bewegung, Lage, Schnarchgeräusch, Videobild) [6]. Darüber hinaus werden die Anzahl der Kanäle, die einzustellenden Ableitparameter, die Applikation der jeweiligen Sensorik, die Analyse einschließlich automatischer Weiterverarbeitung, die Bewertung der Ergebnisse und ergänzende Messgrößen empfohlen [9, 14].
13.2.2 Schlaflabor
In einem Schlaflabor wird der Schlaf unter labormäßigen Bedingungen untersucht, wobei verschiedene Biosignale registriert, gespeichert und unter vielfältigen Kriterien ausgewertet werden. Dabei ist die anamnestisch erfasste
195 13.2 · Schlafdiagnostik, Schlaflabor, Schlafapnoen
Ursache der Schlafstörung für das jeweilige diagnostische Vorgehen entscheidend. Aufgrund der beschriebenen Vielfalt haben sich speziell ausgerichtete Schlaflabors etabliert. Schwerpunkte eines psychiatrisch-neurologischen Schlaflabors sind psychogene und neurologische Hypo- und Hypersomnien, Parasomnien, zirkadiane Störungen des Schlaf-WachRhythmus, Sexualstörungen und insbesondere die Epilepsie. Daraus resultieren zusätzliche EEG-Kanäle für die Anfallsdiagnostik einschließlich Langzeit-EEG, EMG, Körpertemperatur, Aktographie sowie die Registrierung nächtlicher Erektionen. Das psychologische Schlaflabor sieht den Schwerpunkt seiner Untersuchungen im Bereich von Vigilanz, Traum und den Ursachen psychogener Schlafstörungen sowie dem Einfluss von Stress und Lärm auf den Schlaf. Dabei werden neurophysiologische Parameter wie z. B. Hautwiderstand, Haut- und Kerntemperatur, EMG und EEG-Biofeedback zusätzlich erfasst. Der Schwerpunkt des internistisch-pneumologischen Schlaflabors sind schlafbezogene Atmungsstörungen. Die Messung von kardiorespiratorischen Funktionen einschließlich der damit verbundenen Änderung neurophysiologischer Parameter, wie z. B. Auftreten von Arousals, dient hauptsächlich der Diagnostik des Schlafapnoesyndroms. Weitere Messgrößen sind dabei der Atemfluss getrennt für Nase und Mund, der intrathorakale Druck, pCO2, der kontinuierliche Blutdruck, pH-Wert und das Langzeit-EKG. Untersuchungen zur Prüfung der Wirksamkeit eines Medikaments werden im pharmakologischen Schlaflabor durchgeführt.
13.2.3 Schlafapnoen
Eine Episode der Verminderung der Atemamplitude um 50% mit einer Dauer von mehr als 10 s wird als Hypopnoe bezeichnet. Bei einer Apnoe sinkt die Amplitude unter 20% des Ausgangswerts bei einer angenommenen Dauer von mehr als 10 s. Begleitet wird eine Apnoephase von einem initialen Abfall der Herzfrequenz und einem nach einigen Sekunden folgenden Abfall der O2-Sättigung. Die Apnoephase wird durch ein Wecksignal des ZNS beendet und ist durch das Arousal, eine kurzzeitige EEG-Aktivierung, und eine Erhöhung der Herzfrequenz durch kräftiges Atmen sowie einen O2-Anstieg im Blut charakterisiert. Bei einer obstruktiven Apnoe kommt es während des Einatmens durch das Zusammenspiel von entstehendem Unterdruck im Rachenraum und verminderter Innervation der pharyngealen Muskulatur zu einem Verschluss der oberen Atemwege. Dabei sind Thorax- und Abdomenbewegungen weiter vorhanden, wobei oftmals eine entgegengesetzte Bewegung auftritt. Weniger häufig ist die zentrale Apnoe, ein Atemstillstand aufgrund eingeschränkter zerebraler Steuerung der Atmung mit einem Ausfall sowohl des Atemflusses als auch der Atembewegung des Zwerchfells. Bei der gemischten Apnoe, der häufigsten Form einer Apnoe, folgt auf den Beginn mit einer zentralen Apnoe eine obstruktive Apnoephase.
13.2.4 Plötzlicher Kindstod
Eine Sonderstellung der Schlafstörungen nimmt der plötzliche Kindstod (»sudden infant death syndrome«, SIDS)
⊡ Tab. 13.1. Anamneseerhebung am Beispiel der Diagnostik von Insomniepatienten nach [10] Form der Schlafstörung:
Einschlafstörung Durchschlafstörung Früherwachen Erholsamkeit
Symptomatik der Schlafstörung:
Kognitive und emotionale Aktivität in der Nachphase Vegetative Begleitsymptome Spezialsymptome (Atmungsstörungen, Beinbewegungen, Alpträume, Schmerzen, Angst)
Tagesbefindlichkeit:
Vigilanz Aktivität und Belastbarkeit Konzentrations- und Leistungsfähigkeit Affektlage und allgemeines Wohlbefinden
Schlafverhalten:
Zeit im Bett und Schlafdauer Schlafzeiten Abendgestaltung und Einschlafgewohnheit
Verlauf und Dauer der Schlafstörung: Schlaf vor der Erkrankung/Vorbehandlung
Selbstbehandlung (Medikamente, Alkohol) Nichtmedikamentöse Verfahren Schlafmittel (Form, Zeitpunkt und Dosierung der Medikamenteneinnahme)
Psychiatische und organische Anamnese und Symptomatik: Einflussparameter
Private und berufliche Lebenssituation Lebensumstände und Verhaltensweisen mit Wirkung auf Schlaf Physikalische Umgebungseinflüsse Allgemeine Medikamenteneinnahme Genuss von Koffein, Nikotin, Alkohol und Drogen
13
196
I
Kapitel 13 · Schlafdiagnostiksysteme
ein, da er weder durch klinische noch durch umfassende Untersuchungen post mortem erklärbar ist. Er ist die häufigste Todesursache von Säuglingen bis zur Vollendung des 1. Lebensjahrs. Als Ursache wird der Reifegrad zerebraler Strukturen diskutiert. Die Risikogruppen konnten inzwischen erfolgreich identifiziert und unterschiedliche Präventionsstrategien entwickelt werden. Nach wie vor stellt ein Langzeitmonitoring die am häufigsten verwendete Methode der Vorsorge dar [22].
13.3
Technik
Je nach Stufe der Diagnostik von Schlafstörungen unterscheidet sich die eingesetzte Technik. Hierbei spielen Einsatz, Zahl der wählbaren Parameter, Applikation der Sensorik, Bedienbarkeit, Auswertstrategien, Software usw. eine große Rolle.
13.3.1 Geräte zum Monitoring ausgewählter
Parameter für spezielle Anwendungen Zur Registrierung, Kontrolle und Dokumentation der vitalen Funktionen eines Kleinkindes im 1. Lebensjahr bei bestehendem Risiko eines plötzlichen Kindstodes werden spezielle Monitorsysteme angeboten. Diese berücksichtigen einen oder mehrere der folgenden Parameter: Herzfrequenz, Atmung und Bewegung des Säuglings. Aber auch Verfahren, die Methoden der Aktographie nutzen, können hier zur Anwendung kommen [20]. Ziel ist es, bei einem Verlust der vitalen Funktionen die Eltern zu alarmieren, um rechtzeitig Maßnahmen einer Reanimation einleiten zu können.
13.3.2 Ambulante Geräte zur Diagnostik
entsprechend Stufe 3 Es gibt eine Vielzahl ambulant eingesetzter Geräte zur Ableitung und Registrierung polygraphischer Signale. Dabei findet die Ableitung in der gewohnten häuslichen Umgebung des Patienten statt, sodass eine Gewöhnung an Laborbedingungen entfallen kann. Nach erfolgter messtechnischer Erfassung der Biosignale werden diese telemetrisch übertragen oder am nächsten Morgen im Labor vom Arzt auf einen Computer gespielt und ausgewertet. Dabei werden automatische Verfahren der Signalanalyse eingesetzt [7]. Nicht-Labor-Monitor-Systems erlauben die Ableitung, Speicherung und Auswertung von Atmung (Larynxmikrophon), Herzfrequenz (EKG), Körperlage und O2-Sättigung. Die durch eine Erhöhung der Kanalzahl erweiterten diagnostischen Möglichkeiten und der Einsatz von nCPAP-Drucksensoren eröffnen dem Schlafmediziner
weitere Perspektiven. Auch besteht die Möglichkeit, dass ein Schlafzentrum mehrere kleinere Krankenhäuser mit einem Schlaflabor bzw. ambulant tätige Ärzte betreut. Diese leiten ihre abgeleiteten Rohdaten oder Ergebnisse automatischer Analysen verbunden mit den Patientendaten und der Verdachtsdiagnose via Modem an das Zentrum zur Befundung bzw. zur Hilfestellung bei der Befundung weiter. Die entsprechenden Resultate werden ebenfalls über Modem zurückgesandt. Dadurch lässt sich die Qualität in der Diagnostik von Schlafstörungen weiter verbessern. Überweisungen und stationäre Einweisungen werden damit effizienter.
13.3.3 Geräte zur Diagnostik entsprechend
Stufe 4 Geräte zur Diagnostik von Schlafstörungen, die entsprechend dem Konzept einer Stufendiagnostik im Schlaflabor zur Anwendung kommen, umfassen die Bereiche Langzeitaufzeichnung und Polysomnographie. Einzelne Geräte bilden nach Vernetzung ein geschlossenes System der Signalerfassung, Weiterleitung, Analyse, Auswertung und Speicherung. Dabei sind Schnittstellen zu anderen Analysesystemen und Datenverarbeitungsanlagen vorgesehen. So ist die Einbindung in das Krankenhaus-Informationssystem einschließlich Patientenverwaltung und Abrechnung nützlich, da so z. B. alle Untersuchungsbefunde zentral archiviert und damit jedem Arzt des Krankenhauses zur Verfügung stehen. Ein Beispiel für ein Schlaflabor gibt ⊡ Abb. 13.2 wieder. Dieses besteht aus 4 Ableitstationen, von denen eine als mobile Station mit einem Laptop ausgestattet ist. In der Wachstation laufen alle Daten zusammen. Hier versieht die Nachtwache ihren Dienst, werden die Signale analysiert, gespeichert und archiviert. Möglichkeiten der CPAP-Einstellung, der Kommunikation mit den Patienten und der Datenfernübertragung via Modem sind vorhanden. Simultan zu den Biosignalen wird mittels Infrarotvideoanlage das Videobild des Patienten erfasst, gespeichert und kann mit den Signalen korreliert werden. Im angeführten Beispiel steht dem leitenden Arzt eine zusätzliche Auswertstation zur Verfügung, die den Zugriff auf alle erfassten Daten erlaubt. Weite, getrennte Einstellbereiche für die Ableitparameter sowie Abtastraten von 1–1000 Hz sind für eine volle Polygraphiefähigkeit erforderlich. Gerätemäßig reicht das Spektrum von einer 12-kanaligen Einplatzanlage bis zu vernetzten 32kanaligen Mehrbettstationen mit Auswerteeinheit und Server. Eine wichtige Voraussetzung für den Einsatz von Ableitgeräten in der Schlafmedizin ist, dass während einer Ableitung die Signale vorherliegender Zeitabschnitte jederzeit durch die Nachtwache bzw. den Bereitschaftsarzt betrachtet werden können.
197 13.3 · Technik
Ableitstation
Ableitstation REF N in 1
in 2
REF N
resp in 1 in 2
in3
Fp2
Fp1
Pg2
Pg1
T2
A1
F8
F4
Fz
F3
T4
C4
Cz
C3
T3
T6
P4
Pz
P3
T5
T1
F7
A2
O1 Cb2
resp Fp2
Fp1 F8
F4
Fz
F3
T4
C4
Cz
C3
T6
IR - Videokamera mit IR- Strahler
Lage Mikro
P4
Pz
P3
REF N Pg1
T2
A1
Cb1 SaO2 CPAP parallel in
in3
Pg2
Ableitkopf
O2
F7 T3
T1
A2
T5
Cb2
Pg2
Lage Mikro
Patientenbett
Patientenbett
in3 Fp1
resp Fp2
Pg1
T2
A1
IR - Videokamera mit IR- Strahler
Cb1 SaO2 CPAP parallel in
in 1 in 2
Ableitkopf
O2
O1
Ableitstation
F8
F4
T4
C4
T6
P4
Fz Cz
Pz
F3 C3 P3
F7 T3
T1
A2
T5
Ableitkopf
O2
O1 Cb2
IR - Videokamera mit IR- Strahler
Cb1 SaO2 CPAP parallel in
Lage Mikro
Patientenbett
Netzwerk, Steuerleitungen, Video
mobile Ableitstation Videokamera Videomonitor Videorekorder Laptop Polygraphie-
Ableitkopf REF N in 1
Fp2
Fp1
Pg2 T2
A1
resp
in 2 in3
F8 T4 T6
F4 C4 P4
Pg1 Fz
F3
Cz
C3 P3
Pz
F7 T3
T1 A2
T5
O2
O1 Cb2
Cb1
SaO2 CPAP
parallel in
Wachstation
Lage Mikro
Drucker
Laserdrucker
Videosteuerung
Modem
Netzteil
Monitore
CPAP Fernbedienung
Arztzimmer Videorecorder Laserdrucker PC zur Auswertung mit CD-RW
Videorecorder
informationsystem
PC zur Aufnahme und Analyse
Polygraphie-
Server
Netzteile mit Trenntransformator
⊡ Abb. 13.2. Aufbau eines Schlaflabors mit 3 festen und einer mobilen Ableitstation sowie einer zentralen Wachstation und einem zusätzlichen Arbeitsplatz zur Auswertung der Ableitung im Arztzimmer
13.3.4 Therapiegeräte
Eine apparative Therapie schlafbezogener Atmungsstörungen ist die nasale kontinuierliche Überdruckbeatmung. Ziel einer derartigen Therapie ist es, durch einen positiven Druck die Obstruktion der oberen Atemwege in der Einatmungsphase zu verhindern. Dabei kommen hauptsächlich nCPAP (»nasal continuous positive airway pressure«) und BiLEVEL (»nasal bilevel positive airway pressure«) zum Einsatz. Die Benutzung eines Gerätes mit 2 getrennten Drücken für Inspiration und Exspiration erlaubt bei hohen CPAP-Drücken ein leichteres Ausatmen. Die Einstellung des jeweiligen Niveaus für Einatmung und Ausatmung wird durch die Atmung vom Patienten gesteuert und muss in einer absolut kurzen Zeitspanne mit einer hohen Präzision erfolgen. Trägt man den Atemfluss als Funktion des CPAP-Drucks auf, so lässt sich ein Druck finden, ab dem ein Atemfluss nachweisbar ist (⊡ Abb. 13.3, linke Seite). Dieser wird als kritischer Druck Pcrit bezeichnet und ist ein Maß für die Kollapsibilität des Pharynx während des Schlafs. Betrachtet
man den kritischen Druck für Probanden, schnarchende Probanden, Patienten mit obstruktiver Hypopnoe und Patienten mit obstruktiver Apnoe, lässt sich zeigen, dass der Wert für Pcrit in der genannten Reihenfolge zunimmt [23]. Um die Akzeptanz dieser Geräte zu erhöhen, erfolgt in der Einschlafphase eine einschleichende rampenförmige Druckerhöhung bis zum therapeutischen Druck. Neuere Geräte, die auch als automatisches CPAP bezeichnet werden, variieren den Druck in einem 2minütigen Intervall um +2 mbar zum aktuellen Druckniveau bei einer gleichzeitigen Messung der resultierenden Atemflussänderungen. Ziel der Analyse und ggf. Adaptation des aktuellen Drucks ist das Erreichen des optimalen Druck-AtemflussKorridors, bei dem keine respiratorischen Ereignisse (Apnoe, Hypopnoe oder Schnarchen) auftreten [1, 26]. In ⊡ Abb. 13.3 (rechte Seite) wird ein Ausschnitt eines automatischen Titrationsreports mit der Darstellung von Atemfluss (Flow) und Druck gezeigt. Von großer Bedeutung für den Patienten sind sowohl eine Temperierung und Befeuchtung der Beatmungsluft als auch die Geräuschentwicklung der eingebauten Turbine.
13
198
Kapitel 13 · Schlafdiagnostiksysteme
I
⊡ Abb. 13.3. Atemfluss-Druck-Kurve (links), Ausschnitt aus einem automatischen Titrationsreport (rechts)
13.4
Schlafdiagnostikverfahren
13.4.1 Ambulante Polygraphie
Unter dem Begriff der ambulanten Polygraphie werden alle Ableitungen mittels Nicht-Labor-Monitor-Systemen zusammengefasst. Diese stellen zum einen die in der 3. Stufe der Schlafdiagnostik verwendeten Geräte dar. Zum anderen sind hierzu auch alle alarmgebenden Systeme zu zählen, wie sie für ein Monitoring bei Verdacht auf plötzlichen Kindstod im Kinderzimmer eingesetzt werden.
13.4.2 Kleine Polysomnographie
Eine kleine Polysomnographie ist bei psychogenen/psychiatrischen Krankheitsbildern, zur Differentialdiagnose epileptischer Anfallsleiden und zur Therapiekontrolle von Erkrankungen, bei denen Atmungsparameter keine Rolle spielen, indiziert. Dabei werden mindestens 4 Kanäle EEG, das EOG, EMG und EKG registriert. Eine kontinuierliche Beobachtung sowohl des Patienten über Videomonitor und der polygraphischen Registrierung ist erforderlich.
13.4.3 Große Polysomnographie
Eine große Polysomnographie wird bei hartnäckigen und therapieresistenten Schlafstörungen, die nicht auf den ersten Blick psychogener oder psychiatrischer Natur sind, bei Verdacht auf schlafbezogene Atmungsstörungen und bei Tagesschläfrigkeit durchgeführt. Neben EEG, EOG, EMG, EKG, Flow, Effort, Blutgasen können Schnarchen, Blutdruck, Lage, Temperatur, Bewegung, Erektion und intrathorakaler Druck erfasst werden. Eine Videometrie ist erforderlich.
13.4.4 Multipler Schlaflatenztest (MSLT)
Mittels des multiplen Schlaflatenztests kann die Tagesschläfrigkeit objektiviert werden. Er wird direkt nach einer vorausgehenden nächtlichen Polygraphie z. B. zu den Zeitpunkten 10 Uhr, 12 Uhr, 14 Uhr und 16 Uhr durchgeführt. Die Ableitzeit kann jeweils 20 min betragen, wobei der Patient sich nicht gegen den Schlaf wehren soll. Abgeleitet werden EEG, EOG, EMG und EKG.
13.4.5
»Maintenance of Wakefulness Test« (MWT)
Der MWT wird wie der MSLT direkt nach einer vorausgehenden nächtlichen Polygraphie z. B. zu den Zeitpunkten 10 Uhr, 12 Uhr, 14 Uhr und 16 Uhr durchgeführt. Mit ihm wird die Bereitschaft des Patienten, wach zu bleiben, gemessen. Der Patient wird gebeten, sowohl während der Ableitung als auch zwischen den Ableitungen nicht zu schlafen. Es werden die gleichen Parameter wie beim MSLT (EEG, EOG, EMG und EKG) abgeleitet.
13.4.6 Therapeutisches Monitoring
Die technischen Voraussetzungen entsprechen denen einer großen Polysomnographie zuzüglich der Möglichkeit der Registrierung des CPAP-Drucks. Das Monitoring wird zur Kontrolle einer nasalen CPAP- oder einer BiLEVEL-Einstellung durchgeführt, die das Ergebnis einer qualifizierten Anpassung ist. Nach 3, 6 oder 12 Monaten wird routinemäßig die Einstellung kontrolliert.
13.4.7 Intensivmonitoring (Epilepsie)
Das Intensivmonitoring wird hauptsächlich zum Nachweis epileptischer Aktivitäten eingesetzt. Auch hierbei ist
199 13.5 · Signalableitung und Signalverarbeitung
mit Rücksicht auf den Patienten ein stufenweises Vorgehen angezeigt. Es lassen sich Routine-EEG-Ableitungen (20–60 min), prolongierte Ableitungen (1–6 h) und Langzeitableitungen (6–24 h) unterscheiden, die zusammen genommen eine komplexe neurodiagnostische Funktionseinheit bilden. Bei der simultanen Doppelbildaufzeichnung werden das Patientenverhalten und das EEG synchron auf einem Monitor wiedergegeben. Bei Untersuchungen von Patienten mit gesicherter Epilepsie zeigten sich während einer 48stündigen Ableitung bei 75 % der Patienten epileptische Aktivitäten, von denen 10% iktual sind [21]. Damit lassen sich iktuale und interiktuale Aktivitäten vergleichen und weiterführende Aussagen zur Klassifikation treffen. Insbesondere die Schlafphasen haben bei der Diagnostik der Epilepsie eine besondere Bedeutung, da sich die Anfälle zu folgenden Zeiten häufen: im frühen Schlaf zwischen 22 und 24 Uhr, 1–2 h vor dem morgendlichen Erwachen und nach dem morgendlichen Erwachen. Der Anteil spezifischer Potentiale steigt im Schlaf gegenüber dem Wach-EEG um ca. 20% an, v. a. in späten Teilen der Nacht und beim Auftreten von Arousals [5, 25].
13.4.8 EEG nach Schlafentzug
Im Vorfeld des intensiven Monitorings werden in der Epilepsiediagnostik routinemäßig EEG-Ableitungen nach einem 24-stündigen Schlafentzug durchgeführt. Während der Ableitung, die 1–2 h dauert, kann der Patient schlafen. Dadurch wird sowohl der Effekt des Schlafentzugs als auch der Schlaf selbst als Provokationsmethode genutzt, um das Auftreten epileptischer Aktivitäten im EEG zu verstärken bzw. hervorzurufen.
13.5
Signalableitung und Signalverarbeitung
13.5.1 Signalableitung
Entscheidend für die Qualität einer Diagnostik von Schlafstörungen ist die Qualität der Signalerfassung. Einfluss darauf haben neben der Wahl der für die jeweilige Fragestellung erforderlichen Sensoren und Elektroden die richtige Platzierung und Applikation sowie die entsprechend der Signaleigenschaften eingestellten Ableitparameter, wie z. B. Verstärkung, Frequenzbereich und Abtastrate. In ⊡ Tab. 13.2 sind die von der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin empfohlenen gerätemäßigen Einstellungen zusammengefasst. Die Abtastrate für die Digitalisierung der Biosignale sollte so gewählt werden, dass sie mindestens dem doppelten Wert der im Signal enthaltenen höchsten Frequenz entspricht. Hier gilt es, einen Kompromiss zwischen Qualität der Ableitung und Größe des digitalen Speichermediums zu finden. In ⊡ Abb. 13.4 wird ein Ausdruck der Rohdaten einer polygraphischen Ableitung im Rahmen der Diagnostikstufe 3 veranschaulicht. Die Kontrolle der Qualität einer Ableitung muss online erfolgen. Für polysomnographische Ableitungen der Stufe 4 wird eine größere Zahl der Ableitkanäle verwendet und je nach Fragestellung weitere Biosignale erfasst. Hier kann auch das Videobild des schlafenden Patienten mit eingeblendet werden, um eine unmittelbare Zuordnung von Bewegungen des Patienten und Biosignale zu ermöglichen (⊡ Abb. 13.5, 4-Farbteil am Buchende).
⊡ Abb. 13.4. Polysomnographie (ambulant) bei einem Patienten mit obstruktiver Schlafapnoe (die Kanäle von oben nach unten: Atemfluss, Atemanstrengung für Thorax und Abdomen, Schnarchmikrophon, Sauerstoffsättigung, Körperposition und Herzfrequenz). Deutlich imponieren die Obstruktionen mit einer Abflachung des Atemflusses bei verminderter bzw. teilweise entgegengesetzter Auslenkung von Thorax und Abdomen, gefolgt vom Auftreten von Schnarchgeräuschen, einer Verminderung der Sauerstoffsättigung und einer Erhöhung der Herzfrequenz
13
200
Kapitel 13 · Schlafdiagnostiksysteme
⊡ Tab. 13.2. Beispiel für die Ableitparameter zur Erfassung polysomnographischer Signale entsprechend den Empfehlungen der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin [14]
I
Signal
Ableitort
μV/cm
fu in Hz
fo in Hz
Bemerkungen
EEG
C3:A2, C4:A1 oder C3: A1; C4:A2
70
0,53
70
statt A1, A2 auch Mastoid; 10:20 System
EOG
linker, rechter Epikanthus
70
0,53
>30
auch horizontale und vertikale Ableitung möglich
EMG
M. mentalis oder M. submentalis; bipolar
20
<1,6
>70
EKG
in. Manubrium sterni, dif. 5. Interkostalraum
1000
Atemfluss
Mund und beide Nasenöffnungen
Unterscheidung einer Hypoventilation von normaler Atmung Hypoventilation, normale Atmung und Hyperventilation müssen erkennbar sein
Atemanstrengung
thorakal und abdominal
Blutgase
Sauerstoffsättigung am Zeigefinger
EMG
M. tibialis anterior
R-Zacke sowie P- und TWelle gut erkennbar Thermistor oder Thermoelement
Induktions-Plethysmographie, Dehnungsmessstreifen, Piezosensoren oder Impedanzmessung Pulsoximetrie, bei analogem Ausschrieb 1 % pro mm 20
13.5.2 Visuelle Auswertung
Der erste Schritt einer Auswertung ist die visuelle Kontrolle der Rohdaten. Damit lässt sich die Qualität der Ableitung und das Auftreten von Artefakten abschätzen. Die gesamte Ableitung wird mit unterschiedlichen Zeitmaßstab dargestellt, um einen schnelleren Überblick über die gesamte Ableitung zu erhalten. In ⊡ Tab. 13.3 ist eine Übersicht über die Kriterien einer visuellen Auswertung polygraphischer Signale zur Diagnostik von Schlafstörungen zu sehen. Zur Beurteilung der Dynamik des Schlafs und der Schlafqualität werden die jeweiligen Schlafstadien und ihr Wechsel erfasst. Dabei wurde die Einteilung der Schlafstadien von Rechtschaffen und Kales zum Standard. In ⊡ Tab. 13.4 sind die wesentlichen Kriterien, an denen sich diese Klassifikation orientiert, zusammengefasst.
13.5.3 Computerisierte Auswertung
Computergestützte Verfahren der Analyse polysomnographischer Signale berücksichtigen sowohl die respiratorischen als auch die bioelektrischen Signale. Algorithmen zur Auswertung der Atmung gestatten es, Apnoen und Hypopnoen zu erkennen und zwischen obstruktiven und zentralen Atmungsstörungen zu differenzieren (⊡ Abb. 13.6, 4-Farbteil am Buchende). Unter Berücksichtigung der
<1,6
>70
bipolar, 5 cm Abstand
Herzfrequenzvariation und der O2-Sättigung lassen sich weitere differentialdiagnostische Aussagen treffen. Insbesondere die übersichtliche Darstellung der Änderung dieser Parameter über den gesamten Ableitungszeitraum ist für den Arzt eine unentbehrliche Hilfe. Obwohl sich die Schlafstadieneinteilung nach Rechtschaffen und Kales zum Standard entwickelt hat und für viele Anwendungen brauchbare Ergebnisse liefert, beruht sie doch auf einer recht willkürlichen Stadienabgrenzung und ist von der Erfahrung des Arztes abhängig. Andere Verfahren zerlegen mittels Fourier-Analyse das Signal in seine Frequenzkomponenten und berechnen die Leistung als Funktion der Zeit. Insbesondere über die langsamen Aktivitäten im delta-Bereich lässt sich die Schlafarchitektur erfassen. Damit können funktionelle Aspekte der Schlafregulation untersucht werden [3, 11] (⊡ Abb. 13.7, 4-Farbteil am Buchende). Weitere Verfahren sind Analysen im Zeitbereich durch Erkennen von Wellen und Mustern sowie der Einsatz hybrider Systeme mit analog arbeitenden Filtertechniken. Neuere Verfahren nutzen neuronale Netze, die nach einer Lernphase Biosignale nach vorgegebenen Kriterien beurteilen können. Für die Einteilung in Schlafstadien werden derzeit auch Algorithmen auf der Grundlage der »fuzzy logic« entwickelt. Ein zusätzlicher Parameter ist die Pulswellenlaufzeit (»pulse transit time«, PTT). Diese wird aus dem EKG
201 13.5 · Signalableitung und Signalverarbeitung
⊡ Tab. 13.3. Kriterien der visuellen Auswertung polygraphischer Signale im Schlaflabor entsprechend den Empfehlungen der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin [14] Signal
Analyse
Atmung
Amplitude und Phasenverschiebung zwischen der thorakalen und abdominalen Atmungstätigkeit ▬ Atmungsamplitude <10% der normalen Atmung >10 s ⇒ Apnoe ▬ Atmungsamplitude <50% der normalen Atmung ⇒ Hypopnoe ▬ Apnoeindex (AI) = Apnoen pro Stunde Schlafzeit ▬ Hypopnoeindex (HI) = Hypopnoen pro Stunde Schlafzeit Respiratory Disturbance Index (RDI) = Summe aller respiratorischen Ereignisse pro Stunde Schlafzeit
Blutdruck
systolischer, diastolischer und mittlerer Blutdruck ▬ Minimal- und Maximalwerte im Wachen und im Schlaf
Blutgase
klinisch relevant ist ein Absinken >3–4% ▬ Oxygen Desaturation Index (ODI) = mittlere Sättigung, Entsättigungen pro Stunde Schlaf
EEG
visuelle Bestimmung der Schlafstadien nach den Kriterien von Rechtschaffen und Kales in Stadien Wach, 1, 2, 3, 4, REM und MT (⊡ Tab. 13.4)
EKG
Herzfrequenzvariation, Herzrhythmusstörungen mittlere Herzfrequenz Wach und Schlaf, Zeitpunkt maximale Herzfrequenz
EMG M. tibialis
Quantifizierung periodischer Beinbewegungen (PMS) ▬ Dauer zwischen 0,5 und 5 sec, > doppelte Amplitude ▬ periodisch wenn 4 Ereignisse mit Abständen von 4–90 sec bei einem Mttelwert von 20–40 sec ▬ Frage nach Arousal, PMS-Arousalindex = Zahl der Bewegungen mit Arousal pro Stunde Schlaf, ab 5 pathologisch
EMG Kinn
Schlafstadienklassifikation, Quantifizierung nach phasischer und transienter EMG-Aktivität
EOG
Erkennung REM-Schlaf, Berechnung der mittleren REM-Dichte langsame Augenbewegungen bei Schlafstadium 1
Erektion
Diagnostik der erektilen Impotenz; zeitliche Assoziation zu REM-Episoden
Interaktionen
Zusammenhänge zwischen Schlafphasen, Arousals und anderen EEG-Elementen mit kardiorespiratorischen Ereignissen und Bewegungen
Körperlage
Apnoen und Hypopnoen werden für jeweilige Körperlage gezählt
Temperatur
Diagnostik chronobiologischer Störungen des Schlaf-Wach-Verhaltens; Untersuchungszeit >32 h
⊡ Tab. 13.4. Einteilung der Schlafstadien entsprechend den Kriterien von Rechtschaffen und Kales nach [19] Stadium und % am Gesamtschlaf
EEG
EOG
EMG
Wach (1%)
W
dominierend alpha-Aktivität (8–13 Hz), beta-Wellen (>13 Hz)
Lidschläge, rasche Augenbewegungen
hoher Tonus, Bewegungsartefakte
Non-REM (5%)
S1
theta-Aktivität, Vertexwellen
langsame, pendelnde Augenbewegungen
Abnahme des mittleren Muskeltonus, kaum Bewegungsartefakte
(49%)
S2
theta-Aktivität, K-Komplexe, Schlafspindeln
keine Augenbewegungen
Abnahme des mittleren Muskeltonus, kaum Bewegungsartefakte
(8%)
S3
Gruppen hoher delta-Wellen >20%<50%
keine Augenbewegungen
Abnahme des mittleren Muskeltonus, kaum Bewegungsrtefakte
(13%)
S4
Gruppe hoher delta-Wellen >50%
keine Augenbewegungen
Abnahme des mittleren Muskeltonus, kaum Bewegungsartefakte
REM (24%)
REM
theta-Aktivität, Sägezahnwellen
konjugierte rasche Augenbewegungen (Sakkaden)
niedriger mittlerer Tonus, phasische Aktivierung
Movement Time (MT)
>50% der Epoche sind durch Bewegungsartefakte gestört, sodass eine Zuordnung zu einem anderen Stadium nicht möglich ist
13
202
I
Kapitel 13 · Schlafdiagnostiksysteme
und dem photooxymetrisch gewonnenen Pulssignal am Finger bestimmt. Die Pulswellenlaufzeit ist die Zeitdifferenz zwischen dem Maximum der R-Zacke und dem Zeitpunkt des Erreichens von 50 % der Amplitude der Pulskurve. Änderungen der Pulswellenlaufzeit korrelieren sowohl mit Blutdruckschwankungen als auch mit der Atemanstrengung. Damit ergibt sich ein weiterer Parameter, mit dem zwischen obstruktiver und zentraler Apnoe unterschieden werden kann [24] (⊡ Abb. 13.8).
13.6
Die Anwendungsbereiche der Diagnostik von Schlafstörungen sind so vielfältig wie ihre Ursachen. Diese reichen von internistischen, neurologischen und pneumologischen Erkrankungen bis hin zu physiologischen Reaktionen, z. B. nach dem Überqueren von Zeitzonen bei Transmeridianflügen (»jet lag«) [17] oder Schlafstörungen während der Schwangerschaft. Auch altersmäßig umfassen sie alle Bereiche, so z. B. vom plötzlichen Kindstod des Säuglings bis hin zu altersbedingten Schlafstörungen in der Geriatrie. In ⊡ Tab. 13.5 sind die einzelnen Fachgebiete und die jeweiligen Funktionsstörungen aufgeführt. Daraus wird ersichtlich, dass es kaum ein medizinisches Fachgebiet gibt, das nicht direkt oder indirekt mit der Problematik von Schlafstörungen konfrontiert wird.
13.7
⊡ Abb. 13.8. Zur Bestimmung der Pulswellenlaufzeit
Anwendungsbereiche
Methodische Hinweise
Die methodischen Hinweise, die in diesem Kapitel gegeben werden, beziehen sich auf die Durchführung von polysomnographischen Ableitungen. Für die Fragen der Pflege und Wartung sind die Hinweise der jeweiligen Hersteller von Geräten, Zubehör und Sensorik zu beachten. Da die Art der Sensorik, ihre Eigenschaften, die verwendeten Materialien und ihre Applikation voneinander abweichen können, lassen sich nur wenige allgemeingültige Hinweise geben.
⊡ Tab. 13.5. Indikationsbereiche in unterschiedlichen Fachgebieten nach [18] Fachgebiet
Beispiele für Funktionsstörungen und Erkrankungen, die eine Indikation zur Untersuchung auf schlafbezogene Atmungsstörungen darstellen
Andrologie
Potenzstörungen
Endokrinologie
Hypothyreose, Akromegalie, Adipositas permagna
Hämatologie
Polyglobulie
HNO
Erkennbare Obstruktion der oberen Atemwege im Wachzustand des Patienten
Kardiologie
Nächtliche Herzrhythmusstörungen, Hypertonie, Herzinsuffizienz unklarer Genese, dilatative Kardiomyopathie
Neurologie
Neuromuskuläre Erkrankungen, Hypersomnien
Orthopädie
Kyphoskoliose
Pädiatrie
Störungen der Atmungsregulation, SIDS-Überlebende, Kinder mit Verdacht auf Pickwick-Syndrom, Gedeihstörungen, großen Tonsillen und Adenoiden
Pneumologie
Hypoxie / Hyperkapnie mit oder ohne vorbestehende Lungenerkrankung, Rechtsherzinsuffizienz oder globale Herzinsuffizienz unklarer Genese
Psychiatrie
Hypersomnie, Hyposomnie
Psychosomatik
Unklare »Versagenszustände«, Verminderung der Leistungsfähigkeit
Zahn-, Mund- u. Kieferchirurgie
Kraniofaziale Malformationen
203 13.9 · Therapie
13.7.1 Handhabung/Applikation
Die Auswahl der abzuleitenden Biosignale richtet sich nach dem klinischen Problem. Zu Beginn der Ableitung ist neben der technischen auch eine biologische Eichung durch Kommandobewegungen der Augen, Körperbewegungen, willkürliche Apnoe, Hypopnoe und Hyperventilation durchzuführen. Diese dient der Kontrolle der Funktionsfähigkeit der Ableittechnik und dem Sitz der Sensorik. Zur Ableitung bioelektrischer Signale sollten nur Elektroden aus einem Material miteinander verschaltet werden, entweder Gold oder Silber/Silberchlorid. Die Deutsche Gesellschaft für Schlafforschung und Schlafmedizin empfiehlt die Durchführung von polysomnographischen Untersuchungen an mindestens 2 aufeinanderfolgenden Nächten, wobei die erste der Laboreingewöhnung dient. Dabei sollte möglichst eine kontinuierliche Aufzeichnung der Biosignale auf Papier mit einer Papiergeschwindigkeit von 10 oder 15 mm/s erfolgen. Die DGSM empfiehlt eine Archivierung der abgeleiteten Signale auf optischen, magnetischen oder digitalen Medien, sofern sie jederzeit wieder in analoger Form auf einem Polygraphen ausgeschrieben werden können [14].
13.7.2 Artefakte
Ein wichtiges Problem bei der messtechnischen Erfassung von Biosignalen stellen die Artefakte dar. Diese sind als Störsignal dem interessierenden Signal überlagert und können ein Vielfaches der Amplitude des Nutzsignals haben. Man unterscheidet biologische und technische Artefakte. Letztere lassen sich durch die Wahl des Ableitraums, Verbesserung der Applikation der Sensorik (z. B. Verringerung des Elektrodenübergangswiderstands) oder Veränderungen an der Ableittechnik reduzieren. Biologische Artefakte lassen sich nur bedingt ausschließen, z. B. durch Verlagerung der applizierten Sensorik. Diese Artefakte werden vom erfahrenen Auswerter im Signalgemisch identifiziert, bei computergestützter Auswertung können sie zu Fehldeutungen führen (z. B. langsame Augenbewegungen im frontalen EEG).
13.8
Medizinische Bedeutung der Schlafdiagnostik
Die medizinische Bedeutung von Schlafstörungen ergibt sich zum einen aus der Prävalenz, zum anderen aus den jährlichen indirekten Kosten in Milliardenhöhe, die durch Nichterkennung und Nichtbehandlung entstehen. In Deutschland leiden gegenwärtig etwa 20 Mio. Men-
schen an Ein- und Durchschlafstörungen, die nicht durch äußere Einflüsse bedingt sind. Bei der Mehrzahl der Betroffenen sind diese Schlafstörungen chronisch. Unter häufiger oder ständiger Tagesmüdigkeit leiden 3,3 Mio. Menschen, woraus sich auch der hohe Anteil tödlicher Unfälle auf Autobahnen erklärt, die Einschlafen als auslösendes Ereignis haben (24%). 2,7 Mio. Menschen nehmen regelmäßig Schlafmittel ein, obwohl fast die Hälfte der Patienten, die täglich Schlafmittel einnehmen, berichtet, dass ihre Beschwerden unverändert anhalten. Ein großer Teil der Schlafmittel einnehmenden Patienten muss als abhängig bezeichnet werden. Eine medizinische Abklärung der Störung und die Einleitung einer kausalen Therapie sind unbedingt erforderlich. Dies wird um so dringlicher, wenn man sich verdeutlicht, dass weit verbreitete und gefährliche Volkskrankheiten wie z. B. Adipositas, arterielle Hypertonie, Herzinsuffizienz, Herzrhythmusstörungen, plötzlicher Herztod und Stoffwechselerkrankungen kausal mit Schlafstörungen verbunden sein können [4,19]. Insgesamt leiden 800.000 Patienten unter Schlafapnoe, von denen bei mehr als 50% der Risikofaktor Bluthochdruck auftritt. Als Ursache für kardiovaskuläre Folge- und Begleiterkrankungen werden 3 wesentliche Pathomechanismen diskutiert: ▬ Blutgasveränderungen, ▬ intrathorakale Druckschwankungen und ▬ konsekutive Weckreaktionen. Diese können im Verlauf zu Hochdruck im kleinen und großen Kreislauf, Cor pulmonale, Kardiomyopathien, koronaren Herzkrankheiten, Herzrhythmusstörungen und Schlaganfall führen. Die Schlafmedizin konnte zeigen, dass kardiovaskuläre und kardiopulmonale Folgeerkrankungen ausbleiben bzw. reversibel sind, wenn schlafbezogene Atmungsstörungen rechtzeitig diagnostiziert und erfolgreich therapiert werden. In ⊡ Tab. 13.6 sind die Schlafstörungen auf der Grundlage der von der American Sleep Disorders Association veröffentlichten International Classification of Sleep Disorders zusammengefasst. Diese internationale Klassifikation beschreibt die verschiedenen Störungsbilder und bemüht sich um eine ursachenorientierte Einteilung.
13.9
Therapie
Die therapeutischen Verfahren sind so vielgestaltig wie die Schlafstörungen, die mit ihnen behandelt werden. Man kann ein 5-stufiges therapeutisches Schema definieren, das verhaltensmedizinisch-psychotherapeutische, chronobiologische, pharmakologische, apparative und chirurgische Maßnahmen unterscheidet.
13
204
Kapitel 13 · Schlafdiagnostiksysteme
⊡ Tab. 13.6. Internationale Klassifikation der Schlafstörungen nach [12] Dyssomnien
Parasomnien
Schlafstörungen bei organischen/ psychiatrischen Erkrankungen
Schlafstörungen unterschiedlicher Genese
Intrinsische Schlafstörungen Psychophysiologische Schlafstörung, Schlafwahrnehmungsstörung, idiopathische Hyposomnie, Narkolepsie, Rezidivierende Hypersomnie, ideopathische Hypersomnie, Posttraumatische Hypersomnie, obstruktives Schlafapnoe-Syndrom, Zentrales Schlafapnoe-Syndrom, zentrales alveoläres Hypoventilationssyndrom, periodische Arm- und Beinbewegungen, restless legs-Syndrom
Aufwachstörungen Schlaftrunkenheit, Schlafwandeln, Pavor nocturnus
Schlafstörungen bei psychiatrischen Erkrankungen Schizophrenie (Psychosen), depressive Erkrankungen, Angsterkrankungen, Panikerkrankungen, Alkoholabhängigkeit
Schlafstörungen unterschiedlicher Genese Kurzschläfer, Langschläfer, Subvigilanzsyndrom, fragmentarischer Myoklonus, nächtliches Schwitzen, Schlafstörungen bei Menses und Menopause, Schlafstörungen während und nach Schwangerschaft, schlafgebundene neurogene Tachypnoe, schlafgebundener Laryngospasmus, Erstickungsanfälle im Schlaf
Extrinsische Schlafstörungen inadäquate Schlafhygiene, umgebungsbedingte Schlafstörungen, höhenbedingte Schlafstörungen, psychoreaktive Schlafstörungen, Schlafmangelsyndrom, Schlafstörung bei Fehlen fester Schlafzeiten, Einschlafstörungen bei Fehlen des gewohnten Schlafrituals, Schlafstörung bei Nahrungsmittelallergie, Schlafstörung mit Zwang zum Essen und Trinken, Schlafstörung bei Hypnotikaabhängigkeit, Schlafstörung bei Stimulanzienabhängigkeit, Schlafstörung bei Alkoholkonsum, toxisch induzierte Schlafstörung
Schlaf-Wach-Übergangsstörungen Stereotype Bewegungsabläufe im Schlaf, Einschlafzuckungen, Schlafsprechen, nächtliche Wadenkrämpfe
Schlafstörungen bei neurologischen Erkrankungen Degenerative Hirnerkrankungen, Demenz, Parkinsonismus, Letale familäre Schlaflosigkeit, Schlafbezogene Epilepsie, Elektrischer Status spilepticus im Schlaf, Schlafgebundene Kopfschmerzen
Störungen des zirkadianen Schlaf-Wachrhythmus Schlafstörungen bei Zeitzonenwechsel (Jet Lag), Schlafstörungen bei Schichtarbeit, unregelmäßiges Schlaf-Wachmuster, verzögertes Schlafphasen-Syndrom, vorverlagertes Schlafphasen-Syndrom, Schlaf-Wachstörungen bei Abweichungen vom 24-Stunden-Rhythmus
REM-Schlaf-abhängige Parasomnien Alpträume, Schlaflähmungen, eingeschränkte Erektion im Schlaf, schmerzhafte Erektion im Schlaf, Asystolie im REM-Schlaf, abnormales Verhalten im REMSchlaf
Schlafstörungen bei internistischen Erkrankungen Afrikanische Schlafkrankheit, nächtliche kardiale Ischämie, chronisch-obstruktive Lungenerkrankung, schlafgebundenes Asthma, schlafgebundener gastroösophagealer Reflux, Peptischer Ulkus, FibrositisSyndrom
I
Weitere Parasomnien Bruxismus, Enuresis, Verschlucken im Schlaf, Nächtliche paroxysmale Dystonie, Syndrom des ungeklärten nächtlichen Todes bei Asiaten, Primäres Schnarchen, Schlafapnoe bei Säuglingen und Neugeborenen, Angeborenes zentrales Hypoventilationssyndrom, Plötzlicher Kindstod, Gutartiger Schlafmyoklonus bei Neugeborenen
205 13.10 · Sicherheitstechnische Aspekte
13.9.1 Verhaltensmedizinisch-
psychotherapeutische Therapie Hier werden neben Empfehlungen zur Schlafhygiene und der Vermeidung eines schlafstörenden Verhaltens auch Entspannungsübungen eingesetzt.
13.9.2 Chronobiologische Therapie
Sie umfasst Maßnahmen zur Beeinflussung des periodischen Verlaufs biologischer Funktionen wie z. B. mittels Lichttherapie. Damit lässt sich z. B. die Auswirkung einer künstlichen Zeitverschiebung, wie sie beim »jet lag« oder bei Schichtarbeit auftritt, mindern.
13.9.3 Medikamentöse Therapie
Bei primär organischen und chronischen Erkrankungen werden pharmakologische Maßnahmen eingeleitet. Je nach Krankheitsbild werden Stimulanzien, Antidepressiva, Hypnotika und Neuroleptika eingesetzt. Zur medikamentösen Behandlung schlafbezogener Atmungsstörungen bei Patienten mit einem leichten bis mittelschweren Befund kann Theophyllin verwendet werden. Damit ergibt sich eine Therapiemöglichkeit für Patienten, die nicht oder nicht sofort einer nCPAP-Therapie zugeführt werden können [16].
13.9.4 Apparative Therapie
Zur Behandlung schlafbezogener Atmungsstörungen ist eine apparative Therapie häufig das Mittel der Wahl. Dabei werden in erster Linie CPAP-Geräte für eine positive Überdruckbeatmung eingesetzt [8]. Bei hohen Exspirationsdrücken oder als drucklimitiertes Beatmungsgerät bei sowohl zentraler Schlafapnoe als auch zentraler Hypoventilation kann ein BiLEVEL mit der getrennten Steuerung des in- und exspiratorischen Drucks eingesetzt werden [2]. Alternative Möglichkeiten stellen die Esmarch-Prothese dar, durch die der Unterkiefer 2–4 mm nach vorn verlagert werden kann, und das Snore Ex, mit dem die Zunge des Patienten aus dem Mund nach vorn herausgezogen wird. Der therapeutische Effekt dieser Verfahren ist umstritten.
13.9.5 Operative Therapie
Selten gibt es eine klare Indikation zur kieferchirurgischen Operation, die dann gute Erfolge zeigt. Uvulopalatopharyngoplastiken werden zur Stabilisierung des Pharynxlu-
mens eingesetzt. Insbesondere im Kindesalter kann durch Tonsillektomie eine Obstruktion beseitigt werden [13].
13.10
Sicherheitstechnische Aspekte
Voraussetzung des Einsatzes jeglicher medizintechnischer Geräte ist der Nachweis, dass eine Gefährdung für den Patienten, den Anwender und Dritte ausgeschlossen ist. Dies wird in Normen (z. B. VDE-Bestimmung) festgelegt. Grundlegende Bestimmungen sind im Medizinproduktegesetz enthalten. Dieses regelt die Herstellung, das Inverkehrbringen, das Inbetriebnehmen, das Ausstellen, das Errichten, das Betreiben und das Anwenden von Medizinprodukten sowie deren Zubehör. Die Geräte müssen so konzipiert sein, dass auch bei Auftreten eines Fehlers bzw. bei Fehlbedienungen die Sicherheit, Eignung und Leistung der Medizinprodukte nicht gefährdet ist. Neben den applikativen Wünschen muss ein polysomnographisches System die Kriterien der Qualitätssicherung in der Medizin erfüllen.
13.10.1
Ambulante Geräte
Medizintechnische Geräte dürfen die Gesundheit und den Schutz von Patienten, Anwendern und Dritten nicht gefährden. Dies betrifft in einem besonderen Maß die Medizintechnik, die der Patient im Rahmen einer Therapie oder ambulanten Diagnostik von Schlafstörungen zu Hause einsetzt. Hier müssen zusätzlich Bedienbarkeit, Übersichtlichkeit, ein Ausschluss möglicher Fehlbedienungen und lange störungsfreie Betriebszeiten berücksichtigt werden. Letzteres ist eine wesentliche Voraussetzung für den Einsatz von CPAP-Geräten in der Therapie der schlafbezogenen Atmungsstörungen, der mit einem besonderen Service verbunden sein muss. Feste Wartungen in einem Zeitintervall, das etwa 1 Jahr beträgt, sollten zum Standard gehören und neben der Reinigung, dem Auswechseln von Verschleißteilen, dem Nachweis der vollen Funktionsfähigkeit auch der Abstimmung des Verhältnisses von Mensch zu Maschine durch umfassende Betreuung und Beratung des Patienten dienen.
13.10.2
Geräte im Schlaflabor
Die im Schlaflabor verwendeten Geräte werden unter ständiger Kontrolle des Personals am Patienten eingesetzt. Neben den gerätemäßigen Voraussetzungen spielt hier die Fortbildung der Mitarbeiter des Labors durch interne Qualifikation eine wesentliche Rolle. Deshalb schließen die Begutachtungsverfahren der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin zur Qualitätssicherung im Schlaflabor neben einer Kontrolle der räum-
13
206
Kapitel 13 · Schlafdiagnostiksysteme
lichen, apparativen und personellen Ausstattung auch die Qualität in der Diagnose und Therapie mit ein [15].
I
13.11
Planerische Hinweise
13.11.1
Raumbedarf
Für die Planung eines Schlaflabors muss berücksichtigt werden, dass der Schlafraum für den Patienten und der Raum, in dem die Ableit- und Auswertetechnik steht (Wachstation), voneinander räumlich getrennt sind. Die Größe des Schlafraums sollte 12 m2 nicht unterschreiten. Er sollte über eine Schalldämmung, Verdunklungsmöglichkeit und ggf. Klimaanlage verfügen. Eine Infrarotvideoanlage bestehend aus Kamera, Mikrophon, Infrarotstrahler, Monitor und Rekorder ist für die simultane Aufzeichnung des Videobildes des Patienten zusammen mit den abgeleiteten Biosignalen erforderlich und dient auch der Kontrolle des Patienten. Zur Verständigung mit dem Patienten während der Ableitung ist eine Gegensprechanlage erforderlich.
13.11.2
Zeitbedarf
Der Zeitbedarf für eine Schlafuntersuchung ist je nach Fragestellung sehr unterschiedlich und reicht von 20 min (MSLT) bis zu mehreren Tagen (Epilepsiediagnostik und Diagnostik chronobiologischer Schlafstörungen). Die Vorbereitung des Patienten und das Anlegen der Sensorik dauert im Durchschnitt eine halbe bis eine ganze Stunde.
13.11.3
Personal
Ein Schlaflabor wird von einem verantwortlichen Leiter geführt, der das diagnostische Spektrum der Schlafstörungen beherrscht. Ist er kein Arzt, sondern z. B. Psychologe, muss ein verantwortlicher Arzt zur Erfüllung der medizinischen Belange ernannt werden. Empfehlenswert ist der Einsatz von einem Arzt (z. B. für Ambulanz, Befundung, interventionelle Therapie und Rufbereitschaft) sowie zwei Assistent(inn)en (z. B. für Einbestellung, Tagtest, Auswertung, Anlegen und Pflegen der Sensorik) je Ableitplatz. Eine Nachtwache sollte nicht mehr als drei Patienten überwachen, davon maximal zwei CPAP-Einstellungen oder maximal ein Problemfall. Während der Nacht muss ein diensthabender Arzt im Hintergrund zur Verfügung stehen.
Literatur 1. Ayappa I, Norman RG, Hosselet JJ, Rapoport DM (1998) Relative occurrence of flow limitation and snoring during continuous positive airway pressure titration. Chest 114: 685–690
2. Becker H, Brandenburg U, Peter JH, Schneider H, Weber K, von Wichert P (1993) Indikation und Applikation der BiLEVEL-Therapie. Pneumologie 47: 184–188 3. Borbely AA (1992) Die Beeinflussung des Schlafs durch Hypnotika. In: Berger M (Hrsg) Handbuch des normalen und gestörten Schlafs. Springer, Berlin Heidelberg New York Tokio, S 1–44 4. Buysse DJ et al. (1994) Clinical diagnoses in 216 insomnia patients using the international classification of sleep disorders. Sleep 17: 630–637 5. Clarenbach P (1992) Schlafstörungen im Rahmen neurologischer Erkrankungen. In: Berger M (Hrsg) Handbuch des normalen und gestörten Schlafs. Springer, Berlin Heidelberg New York Tokio, S 329–356 6. Duchna HW, Schäfer D, Wiemann J (1994) Schlaflabor-Diagnostik. In: Raschke K, Konermann M, Schäfer T, Schläfke ME, Sturm A, Schultze-Werninghaus G (Hrsg) Schlafbezogene Atmungsstörungen im Kindes- und Erwachsenenalter. MMV Medizin, München, S 69–76 7. Ferber R et al. (1994) Portable recording in the assessment of obstructive sleep apnea. Sleep 17: 378–392 8. Fietze I, Warmuth R, Quispe-Bravo S, Reglin B (1993) Befunde bei Patienten mit obstruktivem Schlafapnoesyndrom unter nCPAPTherapie. Pneumologie 47: 170–174 9. Fischer J et al. (1991) Empfehlungen zur Diagnostik und Therapie nächtlicher Atmungs- und Kreislaufregulationsstörungen. Pneumologie 45: 45–48 10. Hajak G, Rüther E, Hauri PJ (1992) Insomnie. In: Berger M (Hrsg) Handbuch des normalen und gestörten Schlafs. Springer, Berlin Heidelberg New York Tokio, S 67–119 11. Hirshkowitz M, Moore CA (1994) Issues in computerized polysomnography. Sleep 17: 105–112 12. Lund R, Clarenbach P (1992) Schlafstörungen: Klassifikation und Behandlung. Arcis, München 13. Mayer-Brix J, Schwarzenberger-Kesper F, Kusek E, Küsel M, Penzel T (1991) Schnarchen und schlafbezogene Atmungsstörungen bei Kindern – Klinik, Differentialdiagnosen und Indikationen zur Adenotonsillenektomie. Arch Otorhinolaryngol (Suppl): 79–114 14. Penzel T et al. (1993) Empfehlungen zur Durchführung und Auswertung polygraphischer Ableitungen im diagnostischen Schlaflabor. Z EEG-EMG 24: 65–70 15. Penzel T, Berger M, Clarenbach P, Peter JH (1994) Zur Qualitätskontrolle von Schlaflabors in der Bundesrepublik Deutschland. WMW Sonderheft: 120–124 16. Peter JH et al. (1992) Empfehlungen zur ambulanten Diagnostik der Schlafapnoe. Med Klin 87: 310–317 17. Peter JH, Köhler D, Knab B, Mayer G, Penzel T, Raschke F, Zulley J (Hrsg) Weißbuch Schlafmedizin. Roderer, Regensburg (1995) 18. Peter JH, Amed G, Stephan S, Jung W, Ockenga A, Himmelmann H, von Wichert P (1987) Therapie der Schlafapnoe mit abendlich eingenommenem retardiertem Theophyllin (EUPHYLONG). Prax Klin Pneumol 41: 433–437 19. Pollmächer T, Lauer C (1992) Physiologie von Schlaf und Schlafregulation. In: Berger M (Hrsg) Handbuch des normalen und gestörten Schlafs. Springer, Berlin Heidelberg New York Tokio, S 1–44 20. Sadeh A, Hauri PJ, Kripke DF, Lavi P (1995) The role of actigraphy in the evaluation of sleep disorders. Sleep 18: 288–302 21. Sanner B, Konermann M, Wiemann J (1994) Apparative Therapie schlafbezogener Atmungsstörungen im Erwachsenenalter. In: Raschke K, Konermann M, Schäfer T, Schläfke ME, Sturm A, Schultze-Werninghaus G (Hrsg) Schlafbezogene Atmungsstörungen im Kindes- und Erwachsenenalter. MMV Medizin, München, S 99–104 22. Schäfer T (1994) Plötzlicher Kindstod – Ursache, Prävention, Heimmonitoring. In: Raschke K, Konermann M, Schäfer T, Schläfke ME, Sturm A, Schultze-Werninghaus G (Hrsg) Schlafbezogene
207 Literatur
23.
24. 25. 26.
Atmungsstörungen im Kindes- und Erwachsenenalter. MMV Medizin, München, S 137–143 Schwartz AR, Smith PL, Gold AR (1997) Clinical application of quantitative measures of pharyngeal collapsibility. ADSA News 4: 11–12 Smith RP, Argod J, Pepin JL, Levy PA (1999) Pulse transit time: an appraisal of potential clinical applications. THORAX 54: 452–457 Stefan H (1991) Epilepsien, Diagnose und Behandlung. Ed. Medizin, VCH, Weinheim Basel Cambridge New York, S 79–89 Teschler H, Wessendorf TE (1999) Automatisches CPAP. In: Schulz (Hrsg) DGSM Kompendium Schlafmedizin, Therapie von Atmungsstörungen. Ecomed Verlag, Landsberg, S 1–7
13
209 xxxx · xxxx
Nystagmographie K.-P. Hoffmann 14.1
Funktion und Anwendung – 209
14.2
Augenbewegungen
14.2.1 14.2.2 14.2.3 14.2.4 14.2.5
Sakkaden – 210 Folgebewegungen – 210 Nystagmen – 210 Konvergenzbewegungen – 211 Torsionsbewegungen – 211
14.3
Technik und Methodik – 211
14.3.1 14.3.2
Frenzel-Brille – 211 Elektronystagmographie (ENG), Elektrookulographie (EOG) – 211 Photoelektronystagmographie (PENG), Infrarotokulographie (IROG) – 212 Magnetookulographie (MOG) – 212 Elektromagnetische Technik (Search-coilSystem) – 212 Videookulographie (VOG) – 212
14.3.3 14.3.4 14.3.5 14.3.6
14.1
– 210
Funktion und Anwendung
Die Nystagmographie ist eine Methode zur messtechnischen Erfassung, Analyse und Bewertung von spontanen oder durch externe Reize ausgelösten Augenbewegungen. In ⊡ Abb. 14.1 ist stark vereinfacht der prinzipielle Aufbau des okulomotorischen Systems dargestellt. Seine primäre Funktion ist es, die stabile Positionierung der Abbilder
14.4
Verfahren
14.4.1 14.4.2 14.4.3 14.4.4 14.4.5
Spontannystagmus – 213 Sakkaden – 213 Folgebewegungen – 213 Optokinetischer Nystagmus – 214 Vestibulärer Nystagmus – 214
14.5
Signalableitung und Signalverarbeitung – 214
14.6
Medizinische Bedeutung
14.7
Sicherheitstechnische Aspekte – 216
14.8
Raumplanung Literatur
– 213
– 215
– 216
– 216
der visuellen Welt auf der Netzhaut und damit sowohl einen ungestörten Sehvorgang als auch eine konstante Raumwahrnehmung zu ermöglichen. Es müssen einerseits die interessierenden Bildabschnitte auf der Stelle des schärfsten Sehens, der Fovea centralis (ca. 0,8° des zentralen Gesichtsfeldes) binokulär zentriert und fixiert werden. Andererseits gilt es, bei Eigen- und Umweltbewegungen auftretende retinale Bildverschiebungen zu vermeiden. Hierzu stehen prinzipiell
⊡ Abb. 14.1. Vereinfachte Darstellung der Regelung von Augenbewegungen nach [20]
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _14, © Springer-Verlag Berlin Heidelberg 2011
14 X
210
I
Kapitel 14 · Nystagmographie
schnelle und langsame Augenbewegungen zur Verfügung mit den okulomotorischen Systemen Sakkaden, langsame Folgebewegung, vestibulärer und optokinetischer Nystagmus, Konvergenzbewegungen sowie Fixation. Dabei ist die Fixationsphase von Mikrosakkaden gekennzeichnet [13]. Erst die Genauigkeit der sensomotorischen Verknüpfung einschließlich der Möglichkeit der Kompensation von Störungen sichert die Aufrechterhaltung des binokulären räumlichen Sehens [11]. Diese funktionellen Leistungen der Okulomotorik werden durch die zentrale Integration der propriozeptiven, vestibulären und optischen Afferenzen ermöglicht [20]. Daher wird die Nystagmographie interdisziplinär insbesondere in den Fachgebieten Neurologie sowie HalsNasen-Ohren-Heilkunde eingesetzt und hat sich bereits in der Mitte des vorigen Jahrhunderts zu einer routinemäßig durchgeführten Diagnostikmethode etabliert.
14.2
Augenbewegungen
Eine schematische Darstellung der wesentlichen Formen von Augenbewegungen ist in ⊡ Abb. 14.2 zusammengefasst. Es handelt sich dabei um Sakkaden, Folgebewegungen, Nystagmus und Konvergenzbewegung.
14.2.1 Sakkaden
Sakkaden sind schnelle Augenbewegungen, die dem Erfassen eines neuen Fixationspunktes dienen. Unter zerebellärer Kontrolle werden sie in der paramedianen pontinen Formatio reticularis generiert. Ihre maximale Geschwindigkeit nimmt mit der Größe der Bewegung zu und kann bis zu 700°/s betragen. Die Dauer liegt zwischen 30 und 120 ms. Weitere Parameter einer Sakkade sind die Latenz und die Überschwingweite, welche als prozentuale
⊡ Abb. 14.2. Schematische Darstellung von Augenbewegungen
Abweichung der maximalen Augenauslenkung vom Fixationsort nach einer Sakkade beschreibbar ist. Wird durch eine Sakkade das neue Blickziel nicht ganz erreicht, folgt nach 100–300 ms eine Korrektursakkade [2, 9]. Sakkaden lassen sich in intern getriggerte Willkürsakkaden (z. B. Erinnerungssakkaden, Antisakkaden, Suchsakkaden), durch externe Reize getriggerte automatisch ablaufende Reflexsakkaden (z. B. visuell oder akustisch induziert) und spontane scheinbar zufällige Sakkaden unterscheiden.
14.2.2 Folgebewegungen
Mit Folgebewegungen wird das Auge konjugiert und langsam einem bewegten Sehziel nachgeführt. Die Konturen des Objektes können zusätzlich durch Sakkaden abgetastet werden. Die Winkelgeschwindigkeiten liegen durchschnittlich bei 30–50°/s. Sie dienen der Verfolgung und Stabilisierung eines bewegten Sehziels auf der Retina [10].
14.2.3 Nystagmen
Als Nystagmus wird eine unwillkürliche rhythmische, in zwei Phasen ablaufende okuläre Oszillation bezeichnet. Es lassen sich zum einen der Rucknystagmus mit einer langsamen und einer die Richtung des Nystagmus bezeichnenden schnellen Phase und zum anderen der Pendelnystagmus mit in beiden Richtungen gleich schnellen Augenbewegungen unterscheiden. Der optokinetische Nystagmus (OKN), auch als vestibulookulärer Reflex (VOR) bezeichnet, ist ein durch großflächige Reize ausgelöster Rucknystagmus. Ein Beispiel hierfür ist der so genannte Eisenbahnnystagmus, der beim Betrachten von Sehzielen während der Eisenbahnfahrt beobachtbar ist. Die langsame Phase entspricht der Bewegung des Zuges (Folgebewegung), die schnelle Phase einem Fixationswechsel (Sakkade). Eine vestibuläre Reizung kann von einem vestibulookulären Reflex gefolgt werden. Ein vestibulärer Nystagmus tritt bspw. nach kalorischer oder mechanischer Reizung des Labyrinths auf. Letzterer lässt sich durch eine Drehbeschleunigung auslösen. Während der Drehung schlägt der Nystagmus in Drehrichtung, nach Beendigung in Gegenrichtung. Weitere physiologische Nystagmen sind der Zervikalnystagmus bei Drehung der Halswirbelsäule, der audiokinetische Nystagmus bei bewegten Schallquellen, der arthrokinetische Nystagmus bei passiven Arm- und Beinbewegungen sowie der Einstellungs- oder Endstellennystagmus. Pathologische Nystagmen treten infolge von Läsionen im okulomotorischen System auf. Zu ihnen gehören der Blickrichtungsnystagmus, der vestibuläre Spontannystag-
211 14.3 · Technik und Methodik
mus, der Kopfschüttelnystagmus, der Lagerungsnystagmus, der muskelparetische Nystagmus, der periodisch alternierende Nystagmus usw. [2, 4].
14.2.4 Konvergenzbewegungen
Interretinale Bildfehler, die bei einer Fixation möglicherweise auftreten können, werden durch Konvergenzbewegungen ausgeglichen. Diese sind sehr langsam (10°/s) und von geringer Amplitude (maximal 15°) [2].
14.3.1 Frenzel-Brille
Die Frenzel-Brille gestattet die Beobachtung von Augenbewegungen. Durch konvexe Linsen und die Beleuchtung der Augen wird zum einen die Fixation ausgeschlossen, zum anderen die Beurteilung der Augenbewegung bei Lupenvergrößerung möglich [2]. Diese Methode erlaubt nur qualitative Aussagen. Aufgrund der einfachen Handhabung bei ausreichender Beurteilbarkeit ist sie weit verbreitet.
14.3.2 Elektronystagmographie (ENG), 14.2.5 Torsionsbewegungen
Drehbewegungen um die Sehachse mit einer Amplitude bis 10° und Geschwindigkeiten bis 200°/s werden als Torsionsbewegungen bezeichnet. Sie können spontan auftreten oder aber optokinetisch durch den Anblick einer Rollbewegung der Umwelt bzw. vestibulär bei Körperund Kopfkippungen [2].
14.3
Technik und Methodik
Der geübte Kliniker kann eine differenzierte Untersuchung von Augenbewegungen, insbesondere die Erkennung von Augenfehlstellungen, auch ohne aufwendige technische Hilfsmittel durchführen. Die quantitative Erfassung mit der Messung von Latenz und maximaler Geschwindigkeit, Verlaufsbeobachtungen, das Erkennen von spontanen Augenoszillationen sowie die Erfassung von Augenbewegungen bei geschlossenen Lidern ist nur mit geeigneter Technik möglich [2].
Elektrookulographie (EOG) Die Elektronystagmographie ist die in der klinischen Praxis am weitesten verbreitete Methode der messtechnischen Erfassung von Augenbewegungen. Die Signalquelle ist das korneoretinale Bestandspotential aufgrund bestehender Konzentrationsdifferenzen verschiedener Ionen im Pigmentepithel der Retina. Bei Bewegung des Auges lässt sich somit in unmittelbarer Nähe des Auges ein elektrisches Potential ableiten, dessen Änderung dem Kosinus des Winkels zwischen Ableitebene und Dipolachse proportional ist. Diese Potentialänderungen sind mittels Ag/AgClElektroden bipolar für beide Augen getrennt erfassbar (⊡ Abb. 14.3). Die mit dieser Methode gewonnenen Spannungsänderungen lassen sich mit hinreichender Genauigkeit bis 20° als eine lineare Beziehung annehmen [1, 8, 9]. Für die elektronystagmographische Methode ist nur ein geringer technischer Aufwand erforderlich. Neben den Elektroden und einem Registrierteil sind Verstärker in einem Frequenzbereich von 0,1–30 Hz für Folgebewegungen und DC bis 1000 Hz für Sakkaden erforderlich.
⊡ Abb. 14.3. Elektrookulographie. Links: Schematische Darstellung der messtechnischen Erfassung, rechts: Applikation der Ag/AgCI-Elektroden zur bipolaren Ableitung horizontaler und vertikaler Augenbewegungen [9]
14
212
I
Kapitel 14 · Nystagmographie
Messungen in horizontaler und vertikaler Richtung sind sowohl am geöffneten als auch am geschlossenen Auge, beispielsweise während des Schlafs, möglich. Die Auflösung liegt bei 1°. Das gewonnene Signal ist durch eine Reihe von Artefakten behaftet, wie z. B. Lidartefakt, Änderung des Bestandspotentials während der Hell-Dunkeladaptation des Auges, Grundliniendrift durch Änderungen des Hautwiderstands und Muskelartefakte. Aufgrund der uneingeschränkten und einfachen Anwendbarkeit stellt die Elektronystagmographie unverändert die Methode der Wahl für die klinische Routinediagnostik dar.
nete Methode benutzt als Sensor supraleitende Quanteninterferometer. Die Magnetookulographie arbeitet völlig berührungslos. Ihre Auflösung ist derzeit noch geringer als die der Elektrookulographie. Sie ist technisch und finanziell sehr aufwändig, setzt magnetisch abgeschirmte Räume und zum Erzielen der Supraleitung eine Kühlung mit flüssigem Helium voraus. Sie wird daher nur zu Forschungszwecken eingesetzt.
14.3.5 Elektromagnetische Technik
(Search-coil-System) 14.3.3 Photoelektronystagmographie (PENG),
Infrarotokulographie (IROG) Bei der photoelektrischen Methode werden meist ringförmig angeordnete, Infrarotlicht emittierende Dioden zur diffusen Beleuchtung des Auges eingesetzt. Iris und Sklera reflektieren dieses Licht unterschiedlich stark. Dadurch treten an auf den Limbus gerichteten Phototransistoren bei Bewegung des Auges Spannungsdifferenzen auf, deren Wert dieser Bewegung proportional ist (⊡ Abb. 14.4). Diese Methode ist wenig störanfällig und für eine rechnergestützte Auswertung gut geeignet. Die Messung auch sehr kleiner Augenbewegungen bis zu 0,1° ist möglich. Nachteilig wirken sich Bewegungen des Lides und Veränderungen der Pupillenweite aus. Auch kann nur am geöffneten Auge gemessen werden [1, 19].
Eine Kontaktlinse mit einer Spule aus dünnem Draht wird auf das Auge gesetzt. Der Kopf des Patienten befindet sich in einem alternierenden Magnetfeld. Eine Augenbewegung erzeugt in der Spule eine induzierte Spannung, die dem Sinus des Winkels zwischen Spule und Richtung des Magnetfelds proportional ist. Je nach Lage der Spule sind sowohl horizontale als auch vertikale Augenbewegungen, aber auch Torsionsbewegungen registrierbar [2]. Das System liefert ein driftfreies, rauscharmes Signal mit einer Auflösung von wenigen Bogenminuten. Aufgrund des Einsatzes einer Kontaktlinse und der damit verbundenen Unannehmlichkeiten für den Patienten hat sich die elektromagnetische Technik in der Klinik nicht durchgesetzt.
14.3.6 Videookulographie (VOG) 14.3.4 Magnetookulographie (MOG)
Jeder von einem Strom durchflossene Leiter ist von einem Magnetfeld umgeben. Daher ist es möglich, bioelektrische Potentialänderungen über deren Magnetfeldänderungen zu registrieren. Diese als Magnetookulographie bezeich-
⊡ Abb. 14.4. Photoelektronystagmographie, Schematische Darstellung der messtechnischen Erfassung
Miniaturvideokameras auf der Grundlage von infrarotlichtempfindlichen CCD-Sensoren ermöglichen Bildwiederholungsfrequenzen von 250–500 Hz. Dies ist ausreichend, um aus dem Videobild des Auges seine Bewegung zu ermitteln. Die notwendige Illumination des Auges wird durch mindestens zwei auf das Auge gerichtete infrarotlichtemittierende Leuchtdioden (Wellenlänge von 850– 940 nm) erzielt. Die Pupille als der Ort der geringsten Lichtreflexion ist als dunkelster Ort im Bild detektierbar. Der Pupillenmittelpunkt ergibt sich als Schnittpunkt der maximalen Strecken in horizontaler und vertikaler Richtung. Seine Bewegung repräsentiert die entsprechende Augenbewegung (⊡ Abb. 14.5). Darüber hinaus lassen sich Torsionsbewegungen registrieren. Voraussetzungen hierfür sind auf das Auge projizierte Leuchtmarken und die Analyse der Bewegung definierter markanter Muster der Iris. Erforderlich sind hierfür Bildverarbeitungssysteme [1, 4, 18]. Aufgrund der vielfältigen Möglichkeiten handelt es sich bei der Videookulographie um ein modernes Verfahren, das in der letzten Zeit an Bedeutung gewonnen hat. In der zeitlichen Auflösung besteht derzeit gegenüber der Elektrookulographie noch ein gewisser Nachholbedarf.
213 14.4 · Verfahren
⊡ Abb. 14.5. Videookulographie. Links: Schematische Darstellung der messtechnischen Erfassung, rechts: Aufbau eines Messplatzes mit Fixierung des Kopfes. In diesem Beispiel wurde simultan über Elektro-
den das Elektrookulogramm mit registriert. Kopfbewegungen werden durch Kinnstützen minimiert
Neue klinische Möglichkeiten ergeben sich durch die Registrierung von Torsionsbewegungen. Messungen am geschlossenen Auge sind allerdings nicht möglich.
14.4
Verfahren
Die Untersuchungsverfahren richten sich nach der klinischen Fragestellung, den vorhandenen okulomotorischen Störungen und den entsprechenden Generierungsgebieten. Qualitative Aussagen sind dabei durch einfache klinische Tests möglich, wie z. B. die Bewegung eines Fingers durch den Arzt verbunden mit der Bitte an den Patienten, diesen zu fixieren, oder Veränderungen der Lage des Patienten. Dabei werden die so provozierten Augenbewegungen beobachtet. Im Folgenden sollen einige wesentliche gerätetechnische Untersuchungsmethoden kurz vorgestellt werden.
14.4.1 Spontannystagmus
Bei geschlossenen Augen lässt sich das Auftreten von Spontannystagmen untersuchen. Die Augenbewegungen werden meist elektrookulographisch erfasst.
⊡ Abb. 14.6. Elektrookulographisch registrierte Sakkaden mit unterschiedlichen Amplituden. Es ist zu erkennen, dass die maximale Geschwindigkeit mit der Amplitude der Augenbewegung zunimmt nach [8]
dass der Patient auf ein akustisches Signal hin den Fixationswechsel ausführen soll oder zu dem verlöschenden Leuchtpunkt schauen soll. Ein Registrierbeispiel mit unterschiedlichen Amplituden ist in ⊡ Abb. 14.6 dargestellt.
14.4.3 Folgebewegungen 14.4.2 Sakkaden
Sakkaden werden durch zwei vorgegebene Fixationspunkte, beispielsweise zwei im Wechsel aufleuchtende Leuchtdioden, provoziert. Der Patient soll zu dem jeweils aufleuchtenden Punkt sehen. Variationen bestehen darin,
Der Patient wird aufgefordert, einem sich mit einer Geschwindigkeit von 10–40°/s z. B. auf einem Monitor bewegenden Leuchtpunkt mit den Augen zu folgen (⊡ Abb. 14.7). Verstärkungsfaktor (Gain), Kohärenz, Phase und Geschwindigkeitsasymmetrie werden bestimmt [10].
14
214
Kapitel 14 · Nystagmographie
I
⊡ Abb. 14.8. Elektrookulographisch erfasste Nystagmen. Die optokinetische Stimulation erfolgte mit vertikalen Streifenmustern (Streifenbreite 3,5°) die sich mit einer Geschwindigkeit von 20°/s horizontal über einen Monitor bewegten. Die Bewegungsrichtung wechselte. Erkannte Nystagmen sind für das rechte Auge gekennzeichnet
⊡ Abb. 14.7. Elektrookulographisch erfasste Folgebewegungen des rechten und linken Auges mit verschiedenen Geschwindigkeiten eines sich sinusförmig bewegenden Fixationspunktes 10 °/s (oben), 20°/s (Mitte) und 30°/s (unten). Es ist zu erkennen, dass mit Erhöhung der Geschwindigkeit die glatten Folgebewegungen zerfallen und der Anteil sakkadischer Augenbewegungen zunimmt
14.4.4 Optokinetischer Nystagmus
Ein optokinetischer Nystagmus lässt sich durch eine rotierende Trommel, auf der z. B. Streifen aufgebracht wurden, provozieren. Projiziert man auf einen Fernseher sich horizontal bewegende Muster, so lassen sich ebenfalls Nystagmen (⊡ Abb. 14.8) auslösen. Die Geschwindigkeit und Größe der Muster sind variabel.
14.4.5 Vestibulärer Nystagmus
Die kalorische Vestibularisprüfung besteht darin, dass der äußere Gehörgang mit warmem Wasser (44°C) oder kaltem Wasser (30°C) gespült wird. Damit können beide Labyrinthe seitengetrennt untersucht werden. Der Patient liegt dabei mit leicht erhobenem Kopf. So kommt laterale horizontale Bogengang in eine vertikale Stellung. Die Spülung mit warmem Wasser führt zu Thermokonvektionsströmen, die eine Auslenkung von Kupula und Stereozilien nach sich ziehen und die Auslösung eines Nystagmus be-
wirken. Es wird gemessen, ob der Nystagmus symmetrisch von beiden Ohren ausgelöst wird. Diese Methode wird zur klinischen Prüfung des Vestibularisapparats eingesetzt. Ein rotierender Drehstuhl (⊡ Abb. 14.9) wird zur Prüfung des vestibulookulären Reflexes eingesetzt. Häufig eingesetzte Methoden sind der Drehpendeltest, der Drehstoptest und der Rotationstest. Beim Drehpendeltest wird der Stuhl sinusförmig mit definierten Amplituden und Geschwindigkeiten bewegt. Beim Drehstoptest wird der Patient nach einer ausreichenden Adaptation an eine konstante Drehbewegung innerhalb von 1–2 s gestoppt. Der postrotatorische Nystagmus wird nachgewiesen. Bei einem Rotationstest wird der Patient erst beschleunigt, dann mit konstanter Geschwindigkeit weiter bewegt (Plateauphase) und dann allmählich gebremst. Der perrotatorische Nystagmus wird nachgewiesen [2].
14.5
Signalableitung und Signalverarbeitung
Die Signalableitung richtet sich nach der eingesetzten Methodik. Die Signalverarbeitung ist insbesondere von dem benutzten Verfahren und der jeweiligen klinischen Fragestellung abhängig. Neben dem Vergleich der Bewegung des rechten und linken Auges beim Blick nach rechts bzw. links und dem Vergleich mit dem Vorgabesignal tritt die direkte Berechnung von Parametern in den Vordergrund. Für die Sakkaden und Nystagmen ist dabei die Berechnung von Geschwindigkeiten von Bedeutung. Aber auch Latenz, Überschwingweite und Dauer einer Sakkade ermöglichen diagnostikrelevante Aussagen [16]. Für Folgebewegungen spielen der Gain als Ausdruck des Verhältnisses zwischen Antwortamplitude und Reizamplitude, die Bestimmung des Zerfalls der glatten Folgebewegungen, die Phasenbeziehung zwischen Stimulus und
215 14.6 · Medizinische Bedeutung
⊡ Abb. 14.9. Messplatz zur Untersuchung des Nystagmus nach optokinetischer Stimulation mittels bewegter Muster auf einem Fernseher und vestibulärer Stimulation durch Erzeugung verschiedener Bewegungen eines Drehstuhls (Werksfoto Jeager Tönnies GmbH Würzburg)
Augenbewegung, Korrelations- und Kohärenzfunktionen eine wichtige Rolle. Die Berechnung der genannten Parameter wird hierbei sowohl im Zeitbereich als auch nach Fourier-Transformation im Frequenzbereich durchgeführt. Die Ergebnisdarstellung erfolgt getrennt sowohl für beide Augen als auch für die jeweilige Blickrichtung häufig als Funktion der Amplitude der Augenbewegung. Für die Videookulographie kommt eine Reihe von Bildverarbeitungsverfahren zur Anwendung, um die Augenposition zu bestimmen. Die Anforderungen an die Signalverarbeitung steigen ständig und erweitern das Spektrum nystagmographischer Untersuchungsmethoden und verbessern die diagnostischen Aussagemöglichkeiten. Insbesondere die Beschreibung des okulomotorischen Systems durch mathematische Modelle und verschiedene Formen der digitalen Filterung ermöglichen neue Ansätze [5–7, 12].
14.6
Medizinische Bedeutung
Das okulomotorische System ist eines der bestuntersuchten Systeme des Menschen. Die Analyse von Augenbewegungsstörungen bei Patienten erlaubt eine Charakterisierung und präzise lokalisatorische Zuordnung, wie sie bislang nur durch moderne bildgebende Verfahren erreicht werden konnte [14]. Die hauptsächliche Information liegt neben der lokalisatorischen Aussage insbesondere in der Beschreibung einer funktionellen Einschränkung aufgrund einer Läsion, einer Raumforderung, einer systemischen Erkrankung oder der Wirkung von Pharmaka und Substanzen [2]. Dabei ist zu beachten, dass immer gleichzeitig der Versuch einer Kompensation mit erfasst wird [11]. Der Einsatz der Nystagmographie reicht von neurologischen Erkrankungen (wie z.B. der multiplen Sklerose und Raumforderungen) über Muskelerkrankungen (wie
⊡ Abb. 14.10. Analyse sakkadischer Augenbewegungen. Es ist der Verlauf der Geschwindigkeit der Augenbewegung dargestellt. Die Grenzbereiche sind grau unterlegt
z.B. die Myasthenie) bis hin zu vestibulären Symptomen (wie z. B. Schwindel) [2, 13, 15, 17]. In ⊡ Tab. 14.1 sind einige Lokalisationen von Läsionen und ihr Einfluss auf Augenbewegungen wiedergegeben. Weitere Anwendungen der Analyse von Augenbewegungen sind auf dem Gebiet der Diagnostik von Lesestörungen, zur Bestimmung der Schlafstadien in der Schlafdiagnostik, aber auch zur Steuerung von Vorgängen über die Augen beispielsweise bei Querschnittsgelähmten zu finden. Für psychologische Untersuchungen werden Augenbewegungen beispielsweise beim Betrachten von Bildern erfasst (⊡ Abb. 14.10).
14
216
Kapitel 14 · Nystagmographie
⊡ Tab. 14.1. Störungen von horizontalen Augenbewegungen durch verschiedene Hirnläsionen nach [2]
I
Fixation
Sakkaden
Folgebewegungen
Optokinetischer Nystagmus
Frontales Großhirn
Flüchtiger kontraversiver corticaler blickparetischer Nystagmus
Sakkadenparese kontraversiv mit Blickdeviation ipsiversiv
–
Kontraversiv (nach Richtung der schnellen Phase)
Occipitales Großhirn
–
Blickstörung durch Hemianopsie
Ipsiversiv
Kontraversiv
Pontomesencephaler Hirnstamm
Ipsiversiv
Sakkadenverlangsamung oder -parese ipsiversiv mit kontraversiven Blickdeviationen
Ipsiversiv
Ipsiversiv
Kleinhirn
Ipsiversiv
Sakkadendysmetrie
Ipsiversiv
Kontraversiv
14.7
Sicherheitstechnische Aspekte
Es handelt sich bei der Nystagmographie um eine nichtinvasive Diagnostikmethode, die in medizinisch genutzten Räumen angewendet wird. Es ergeben sich daraus keine weiteren speziellen sicherheitstechnischen Aspekte.
14.8
Raumplanung
Der Raumbedarf ist abhängig von der genutzten Methode und unterscheidet sich je nachdem, ob ein Drehstuhl eingesetzt wird oder nicht. Für routinemäßige Anwendungen der Elektronystagmographie ist der Raumbedarf vergleichbar anderer Diagnostikmethoden, wie bspw. der Elektrokardiographie oder Elektromyographie.
Literatur 1. Allum JHJ, Honegger F, Troescher M (1998) Principles underlying real-time nystagmus analysis of horizontal and vertical eye movements recorded with electro-, infrared-, or video-oculographic techniques. J Vestib Res 8: 449–463 2. Brandt B, Büchele W (1983) Augenbewegungsstörungen. Thieme, Leipzig 3. Biousse V, Newman NJ (2009) Neuro-opthalmology illustrated. Thieme, New York 4. Eckert AM, Gizzi M (1998) Video-oculography as part of the ENG battery. Br J Audiol 32: 411–416 5. Enderle JD (1999) Physiological Modeling. In: Enderle JD, Blanchard SM, Bronzino JD (eds) (1999) Introduction to biomedical engineering. Academic Press, London New York, S 279–368 6. Gangemi PF, Messori A, Baldini S, Parigi A, Massi S, Zaccara G (1991) Comparison of two nonlinear models for fitting saccadic eye movement data. Comp Meth Progr Biomed 34: 291–297 7. Hacisalihzade SS, Allen JS, Stark LW (1993) Computer analysis of eye movements. Comp Meth Progr Biomed 40: 181–187 8. Hess CW, Müri R, Meienberg O (1986) Recording of horizontal saccadic eye movements. Neuroophthalmology 6: 189–198
9. Hoffmann KP, Plewe A, Mühlau G, Kästner R (1991) Die sakkadischen Augenbewegungen: methodische Aspekte und Möglichkeiten der klinischen Anwendung. Z EEG-EMG 22: 172–177 10. Hoffmann KP, Both R, Kästner R, Weese R (1992) Zur klinischen Anwendung quantitativ ausgewerteter horizontaler Folgebewegungen des Auges. Z EEG-EMG 23: 190–194 11. Hoffmann KP, Mühlau G, Müller C, Both R, Jahns M, Zahlten W (1993) Adaptive mechanisms of saccadic system in diagnostic use. Electromyogr Clin Neurophys 33: 131–135 12. Juhola M (1988) Detection of nystagmus eye movements using a recursive digital filter. IEEE Trans Biomed Eng 35: 389–395 13. Martinez-Conde S, Macknik SL, Troncoso XG, Dyar TA (2006) Neuron 49: 297–305. 14. Marx P (1984) Augenbewegungsstörungen in Neurologie und Ophthalmologie. Springer, Berlin Heidelberg New York Tokio 15. Mumenthaler M (2008) Neurologie. Thieme, Stuttgart New York 16. Murata A, Furukawa N (2005) Hum Factors 47: 598–612 17. Pawlak-Osinska K, Kazmierczak H, Kazmierczak W (2005) Int Tinnitus 11: 52–3 18. Scherer H, Teiwes W, Clarke AH (1991) Measuring three dimensions of eye movement in dynamic situations by means of videooculography. Acta Otolaryngol 111: 182–187 19. Schmid-Priscoveanu A, Allum JHJ (1999) Die Infrarot- und die Videookulographie – Alternativen zur Elektrookulographie? HNO 47: 472–478 20. Trincker L (1977) Taschenbuch der Physiologie III/2. Fischer, Jena
15 Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung S. Hoth 15.1
Die Grundlagen der Audiometrie – 217
15.3
Objektive Audiometrie
15.1.1 15.1.2 15.1.3
Der Schall und seine Bestimmungsgrößen – 218 Aufbau und Funktion des Hörsystems – 220 Hörstörungen – 225
15.3.1 15.3.2 15.3.3
Impedanzaudiometrie – 241 Otoakustische Emissionen – 244 Akustisch evozierte Potentiale – 251
15.2
Psychoakustik und subjektive Audiometrie – 227
15.4
Hörprothetik
15.4.1 15.4.2 15.4.3 15.4.4
Versorgungsbedürftige Hörstörungen – 256 Hörgeräte: Technik und Anpassverfahren – 257 Implantierbare Hörsysteme – 264 Das Cochlea-Implantat – 265
15.2.1 15.2.2 15.2.3 15.2.4 15.2.5 15.2.6
15.1
Der Zusammenhang zwischen Reiz und Empfindung – 228 Zeitverhalten des Hörsystems – 229 Tonschwellenaudiometrie – 230 Überschwellige Hörprüfungen – 234 Sprachaudiometrie – 235 Prüfung des binauralen Hörens – 239
Die Grundlagen der Audiometrie
Unser Gehör ist wichtig, komplex und empfindlich. Diese drei Eigenschaften bestimmen die Aufgaben der Audiometrie. Weil das Gehör wichtig ist, werden zuverlässige Verfahren zu seiner Untersuchung benötigt. Diese Verfahren sollen nach Möglichkeit auch dann anwendbar sein, wenn der Untersuchte über seine Empfindungen und Wahrnehmungen keine Auskunft zu erteilen vermag. Für die mit Hilfe der Hörprüfungen festgestellten Funktionsdefizite müssen wirksame Gegenmaßnahmen verfügbar sein. Daher sind Audiometrie und Hörprothetik untrennbar miteinander verbunden. Weil das Gehör komplex ist, können prinzipiell viele Funktionsdefizite auftreten und es wird kaum möglich sein, alle Fehlleistungen mit einer einzigen Funktionsprüfung zu erkennen. Daher gibt es nicht den »Hörtest«, sondern ein aus vielen Verfahren bestehendes Methodeninventar. Und schließlich treten viele der möglichen Funktionsdefizite auch tatsächlich auf, weil das Hörorgan empfindlich ist. Seine Strukturen müssen empfindlich sein, weil sie andernfalls für den Nachweis von Schwingungen geringer Intensität nicht geeignet wären. Die Evolution hat dem Rechnung getragen, indem sie dieses empfindliche Messinstrument durch Einbettung in den härtesten Knochen, den unser Organismus aufweist (und der bezeichnenderweise den Namen Felsenbein trägt), soweit wie möglich vor mechanischen Erschütterungen geschützt hat. Dies wiederum erschwert die körpereigene Versorgung des
Literatur
– 241
– 256
– 270
nicht nur empfindlichen, sondern auch energiebedürftigen Sinnesorgans mit den nötigen Ressourcen, und dies wiederum fördert seine Anfälligkeit. Die Aufgabe der Audiometrie besteht in der Beantwortung der folgenden Fragen: ▬ Liegt eine Hörstörung vor? ▬ Durch welche Parameter lässt sie sich beschreiben? ▬ Welche Komponente des Hörsystems ist von der Störung betroffen bzw. für sie verantwortlich? ▬ Wie stark ist der Betroffene1 von der Hörstörung beeinträchtigt? ▬ Welche Möglichkeiten bestehen zur Behebung der Hörstörung? Eine Hörstörung kann viele Ursachen haben: Missbildungen, Fremdkörper, Verletzungen, Entzündungen, Frakturen, veränderter Innenohrdruck, Einwirkung toxischer Substanzen, Alterung, Mangelversorgung, defizitäre Sinneszellen, Schädigung oder Degeneration von Neuronen, Tumoren, Schlaganfälle und zentrale Ausfälle anderer Ursache. Sie kann zu diversen Funktionseinbußen führen: herabgesetzte Empfindlichkeit, gestörte Intensitätsverarbeitung, verminderte Frequenztrennung, nachlassende Zeitauflösung, verringerte Diskriminationsleistung. Die heute verfügbaren konservativen, operativen und apparativen Mittel versetzen uns leider noch nicht in die Lage, alle Funktionsdefizite des Gehörs auszugleichen. Eine vollkommene Wiederherstel1
Hier und auf den folgenden Seiten dieses Beitrages stehen die Artikel vor personenbezogenen Substantiven in keiner Relation zum Geschlecht der respektiven Person.
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _15, © Springer-Verlag Berlin Heidelberg 2011
218
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
lung des normalen Hörvermögens (restitutio ad integrum) ist nur in wenigen Fällen möglich; in der Mehrzahl der Fälle kann die ausgefallene Funktion nur teilweise kompensiert oder substituiert werden. Die Verfahren zur Untersuchung des Gehörs orientieren sich einerseits am Bedarf und andererseits an den Möglichkeiten. Der Betroffene wird ebenso wie der Arzt, von dem er Hilfe erwartet, daran interessiert sein, so viel wie möglich über die vorliegende Hörstörung zu erfahren. Daneben aber besteht das allgemeine ethisch begründete Prinzip, demzufolge die Kenntnis einer Gesundheitsstörung zu ihrer Behebung verpflichtet; daher macht es keinen Sinn, über das Funktionsdefizit eines Organs viel Information zusammenzutragen, wenn die Behebung des Defizits nicht möglich ist. Die praktische Audiometrie beschränkt sich deshalb darauf, die Funktion des Gehörs zu dokumentieren, soweit dem Betroffenen eine Ersatzfunktion angeboten werden kann, und die organische Ursache einer Hörstörung herauszufinden, soweit dies therapeutische Konsequenzen hat. Bezüglich der Funktionsprüfung werden bevorzugt psychoakustische und somit subjektive Verfahren eingesetzt, in Hinblick auf die Klärung der organischen Ursache hingegen sind objektive Messungen im Vorteil. Die Vielfalt des methodischen Inventars ist die große Stärke der heutigen Audiometrie (und sie rechtfertigt den Umfang der Buchbeiträge, die über dieses Thema geschrieben werden).
15.1.1 Der Schall und seine
Bestimmungsgrößen Es kann davon ausgegangen werden, dass der Leser dieses Buches eine durchaus fundierte Vorstellung von Schall hat. Trotzdem ist eine exakte Definition nützlich und notwendig. Da es sich bei Schall um eine fundamentale, allgemein bekannte und vielfach beschriebene Erscheinung handelt, soll den bestehenden Definitionen keine neue hinzugefügt werden. In einem Fachlexikon der Physik ist Schall definiert als »Schwingungen und Wellen im Frequenzbereich zwischen 16 Hz und 20 kHz, die über das menschliche Ohr Ton-, Klang- oder Geräuschempfindungen hervorrufen«. Bemerkenswert hieran ist der Umstand, dass die Definition ganz wesentlich auf einer Sinneswahrnehmung des Menschen beruht und die Akustik somit sehr eng mit der Erfahrungswelt des Menschen verknüpft ist. Wenn dieser Bezug zwischen Physik und Sinnesorgan auch nicht einzigartig ist – denn auch das Licht wird in der physikalischen Optik als »sichtbare elektromagnetische Strahlung« definiert – so deutet beides doch auf die Bedeutung des Hörens und Sehens hin und es zeigt, dass die physikalische Untersuchung und Beschreibung vieler Naturvorgänge lediglich die Fortsetzung der Beobachtung mit Hilfe unserer Sinnesorgane ist. Entstehung und Ausbreitung von Schall sind an materielle Medien gebunden. Diese Medien können aus
gasförmiger, flüssiger oder fester Materie bestehen. Schall stellt eine Störung des Gleichgewichtszustandes dieses Mediums dar: Während im Gleichgewicht die Zustandsgrößen Dichte, Druck und Geschwindigkeit der Moleküle im statistischen Sinne vom Ort unabhängig sind, beruhen Schallerzeugung und -ausbreitung darauf, dass dieser Zustand durch eine lokale Störung aus dem Gleichgewicht gebracht wird. Die Störung kann z. B. darin bestehen, dass jemand in die Hände klatscht oder dass eine Lautsprechermembran sich hin- und herbewegt. Die zwischen den Molekülen herrschenden abstoßenden und anziehenden Kräfte sorgen dafür, dass die Störung nicht auf den Ort ihrer Entstehung beschränkt bleibt, sondern sich auf Nachbarorte auswirkt und sich infolgedessen von der Quelle weg ausbreitet. Am Ursprungsort wird der Druck erhöht oder verringert. Das entspricht einer Kraft auf die atomaren oder molekularen Teilchen. Gemäß dem grundlegenden Newton‘schen Bewegungsgesetz hat dies eine Beschleunigung und somit eine Auswirkung auf die Teilchengeschwindigkeit zur Folge. Weil die Geschwindigkeit mit einer (örtlich begrenzten) Strömung von Materie einhergeht und weil bei der Strömung von Teilchen ihre Gesamtzahl erhalten bleiben muss (Kontinuitätsbedingung), ergibt sich aus der Druckänderung zwanglos eine ihr proportionale Änderung der Dichte. Die Einführung von Näherungen (kleine Auslenkungen aus der Gleichgewichtslage, kein Wärmeaustausch zwischen den bewegten und den benachbarten Bereichen) führt letztendlich zu einer Formel, die in Mathematik und Physik als Differentialgleichung bezeichnet wird, weil sie mathematische Ausdrücke enthält, die die zeitliche Änderung und die Ortsabhängigkeit von Parametern des Mediums beschreiben. Das Aufschreiben dieser Gleichung (Hoth 1999) führt für unsere Zwecke nicht weiter als die Beschreibung ihrer Lösungen. Letztere bestehen aus mathematischen Ausdrücken, die eine Ausbreitung der Störung in alle Raumrichtungen mit fester Geschwindigkeit beschreiben. Das Ausmaß der Störung bzw. der Abweichung vom Gleichgewichtszustand wird durch die Zustandsgrößen Druck, Dichte und Schnelle (s.unten) beschrieben. Die Gradienten dieser Größen verlaufen parallel zur Ausbreitungsrichtung: Schallwellen sind Longitudinalwellen (im Gegensatz zu den transversalen Lichtwellen). Für die graphische Wiedergabe der Welle wird eine der Zustandsgrößen über der Zeitachse (für einen festen Ort) oder über einer Ortsachse (für einen festen Zeitpunkt) aufgetragen. Die zwei Darstellungen sind gleichwertig, weil die bereits erwähnte Schwingungsdifferentialgleichung (und daher auch ihre Lösungen) nur von (x–c·t), nicht jedoch explizit vom Ort x und der Zeit t abhängt (c = Schallgeschwindigkeit; s.unten). Zur Beschreibung der Schallwelle dienen ihre Kenngrößen Amplitude bzw. Intensität, Wellenlänge bzw. Wellenzahl sowie Frequenz bzw. Periode.
15
219 15.1 · Die Grundlagen der Audiometrie
Die Amplitude bezeichnet den aktuellen, von Ort und Zeit abhängigen Wert des Schalldrucks, der Teilchendichte oder der Schallschnelle. An den Orten (und zu den Zeiten), wo der Druck maximal ist, ist auch die Dichte maximal (Verdichtung) und die dem Druck ausgesetzten Teilchen befinden sich in Ruhe: Die Schallschnelle, d. h. die Geschwindigkeit, mit der sich die einzelnen Moleküle infolge der Druckschwankungen um ihre Ruhelage bewegen, weist hier eine Nullstelle auf. Dementsprechend geht auch ein Minimum des Druckes oder der Dichte (Verdünnung) mit einer Nullstelle der Schallschnelle einher. Hingegen ist die Schallschnelle groß, wenn Druck bzw. Dichte den Gleichgewichtswert annehmen und ihr Gradient bzw. die zeitliche Änderung maximal sind. Die Schallschnelle ist kleiner als die Schallgeschwindigkeit (s.unten), welche ihrerseits in der Größenordnung der thermischen Geschwindigkeit liegt. Die Amplitude wird mit dem unspezifischen Symbol a dargestellt; es steht für den Schalldruck (in μPa=10-6 N/m2), die Dichte (in g/ m3) oder die Geschwindigkeit (in m/s) bzw. für die Abweichung dieser Bestimmungsgrößen vom thermischen Gleichgewichtswert. Zur Definition von Wellenlänge und Frequenz muss zunächst auf den Begriff der Phase eingegangen werden. Er bezeichnet den augenblicklichen Zustand der Schwingung bzw. Welle. Dieser Zustand kann z. B. ein Druck- oder Dichtemaximum sein, ein Minimum der Schallschnelle oder ein steigender Nulldurchgang der Amplitude. Die Wellenlänge λ gibt nun an, in welchem Abstand sich eine solchermaßen bestimmte und eindeutig definierte Phase der Welle wiederholt. In Luft liegen die Wellenlängen von Schall zwischen 17 mm und 20 m. Der (mit 2π multiplizierte) Kehrwert der Wellenlänge wird als Wellenzahl bezeichnet; er entspricht der Zahl der in der Längeneinheit enthaltenen Wellenlängen. Die Phasen von Druck bzw. Dichte einerseits und Schnelle andererseits sind gegeneinander um 90° verschoben. Die Frequenz f ist ein Maß dafür, wie oft sich eine bestimmte Phase wiederholt; ihre Dimension ist »Anzahl pro Zeiteinheit« (Maßeinheit 1 Hertz = 1 Hz = 1/s = 1 Schwingung pro Sekunde). Ihr Kehrwert, die Periode, liegt für Schall zwischen ca. 63 ms (bei 16 Hz) und 50 μs (bei 20 kHz). Die mit 2π multiplizierte Frequenz wird als Kreisfrequenz ω bezeichnet. Die Geschwindigkeit der Ausbreitung einer Wellenphase ist die von Temperatur und Druck sowie den elastischen Deformationseigenschaften des schallübertragenden Mediums abhängige Schallgeschwindigkeit c. Bei Raumtemperatur beträgt sie in Luft ca. 340 m/s (in Wasser ca. 1490 m/s). Frequenz f und Wellenlänge λ sind über die Schallgeschwindigkeit miteinander verknüpft. Die maßgebliche Beziehung f= c/λ ergibt sich unmittelbar aus der oben erwähnten Bindung zwischen den Variablen c und t: Wenn der Abstand λ der Wellenberge und die Geschwindigkeit c, mit der die Welle sich ausbreitet, bekannt
sind, dann kann die Häufigkeit f, mit der die Wellenberge beim Beobachter eintreffen, bestimmt werden. Die Schallwelle ist mit einem Energietransport verbunden, der üblicherweise auf die Zeit- und Flächeneinheit bezogen und als Intensität (Energiestromdichte oder Leistungsdichte) in der Einheit W/m2 angegeben wird. Bei der Frequenz 2 kHz beträgt die Intensität an der Hörschwelle etwa 10–12 W/m2 (diese Bezugsintensität I0 entspricht dem Referenzschalldruck p0=20 μPa), an der Schmerzschwelle etwa 1 W/m2. Die im Verhältnis dieser Zahlen zum Ausdruck kommende Größe des Dynamikbereiches begründet die Verwendung eines logarithmischen Maßstabes für den Schallpegel L. Die Einheit des Schallpegels ist das Dezibel (dB):
L p p2 I = 20 ⋅ lg = 10 ⋅ lg 2 = 10 ⋅ lg dB p0 I0 p0
(15.1)
Werden für p0 bzw. I0 die oben angegebenen physikalischen Bezugsgrößen eingesetzt, so ergibt sich der Schalldruckpegel in dB SPL (sound pressure level). Die Zahl vor dieser Maßeinheit gibt dann an, wie viele »Zehntel Größenordnungen« zwischen der betrachteten Intensität und dem entsprechenden Referenzwert liegen. Für den zugehörigen Schalldruck p ergibt sich eine halb so große Maßzahl, weil die Intensität zum Quadrat des (effektiven) Schalldruckes proportional ist:
I=
2 peff
Z
2 = Z ⋅ veff
(15.2)
Die Proportionalitätskonstante ist der Kehrwert der Impedanz Z der Schallwelle, die ihrerseits dem Quotienten aus Schalldruck p und Schallschnelle v entspricht. In Luft beträgt die akustische Impedanz 430 Ns/m3, in Wasser 1,46×106 Ns/m3. An der Grenzfläche zwischen Luft und Wasser liegt daher ein großer Impedanzsprung vor, der für das Hörsystem der landlebenden Wirbeltiere eine große Rolle spielt, weil er die Notwendigkeit des Mittelohrapparates als Impedanzwandler begründet. Eine sinusförmige Schallschwingung enthält nur eine einzige Frequenz und wird als ein reiner Ton empfunden. Da sich mit Hilfe der Fourier-Transformation alle zeitabhängigen Vorgänge in Anteile verschiedener Frequenzen zerlegen lassen (Ohm’sches Gesetz der Akustik), stellen Sinustöne gewissermaßen die Elementarbausteine der Akustik dar. Aus ihm sind Klänge (d. h. akustische Signale, die aus wenigen Komponenten diskreter Frequenzen bestehen), Geräusche (d. h. breitbandige Signale, deren Eigenschaften stationär oder zeitabhängig sein können), Sprache (d. h. meist bedeutungstragende Signale mit schnellen Änderungen von Frequenz und Pegel) und Schallpulse (d. h. auf kurze Zeitspannen begrenzte Signale mit steilen Flanken) zusammengesetzt. Die Definition des Schalldruckpegels von Signalen, die sich aus vielen Frequenzen zusammensetzen, erfordert in Hinblick auf den Schalldruck p in Gleichung (15.1) die Berechnung eines
220
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Effektivwertes peff, der bei Sinustönen mit dem durch √2 dividierten Maximalwert identisch ist (dasselbe gilt sinngemäß für den Effektivwert veff der Schallschnelle). Bei nichtstationären Signalen hängt der Effektivwert von der verwendeten Zeitkonstanten ab und es werden zusätzlich die Spitzenpegel angegeben. Alle genannten Signale (Töne, Klänge, Geräusche, Schallpulse und Sprachsignale) werden in der Audiometrie als Reize zur Prüfung des Gehörs verwendet. Bei einigen von ihnen wird für Spezialanwendungen die Amplitude oder die Frequenz moduliert. Sprachsignale weisen eine natürliche Amplitudenmodulation auf, deren Frequenz der Silbendauer entsprechend bei etwa 4 Hz liegt. Demgemäß wird in der Audiometrie außer stationären Geräuschen (stochastische nichtperiodische Prozesse) auch ein sprachsimulierendes Rauschen angewendet, dessen Frequenzspektrum den Sprachbereich abdeckt und dessen Einhüllende mit 4 Hz moduliert ist. Zu den impulsartigen Signalen ist zu bemerken, dass ihre physikalische Amplitude zur Erzielung einer von der Signaldauer unabhängigen Lautstärkeempfindung an die Signaldauer angepasst werden muss. Ihre Intensität wird durch die Spitzenpegel charakterisiert, da die Angabe von Effektivwerten wenig sinnvoll ist. Die Ausbreitung von Schall wird durch Körper, deren Impedanz von der des Ausbreitungsmediums verschieden ist, beeinträchtigt. Die Auswirkung der Hindernisse hängt von ihrer Dimension ab: Ein im Vergleich zur Wellenlänge großes Hindernis wirft einen geometrischen Schatten, wohingegen die Schallwellen um kleine Hindernisse gebeugt werden und auf der der Quelle abgewandten Seite Interferenzmuster bilden können. Breitbandige Signale werden somit durch einen Körper gegebener Größe in frequenzabhängiger Weise beeinflusst: Niederfrequente Wellen, deren Wellenlänge in der Größenordnung der Ausdehnung des Hindernisses liegt, sind auch auf der Rückseite mit unverminderter Amplitude vorhanden, hochfrequente Anteile werden hingegen abgeschirmt. Dieser Effekt spielt beim räumlichen Hören und beim Hören der eigenen Stimme eine Rolle. Wenn die Wellenlänge im Vergleich zu den Abmessungen des Hindernisses klein (bzw. die Frequenz genügend groß) ist, können Beugungsphänomene vernachlässigt und die Wechselwirkung zwischen Schallfeld und Mediumgrenze durch die Reflexionsgesetze beschrieben werden. In Räumen, die ganz oder teilweise durch Wände begrenzt werden, können durch die Überlagerung von einfallender und reflektierter Welle Eigenschwingungen entstehen, die von den Randbedingungen abhängen (stehende Wellen). Im Fall zweier fester Enden (verschwindende Schallschnelle an den ideal schallharten Grenzflächen) werden die Resonanzbedingungen nur von Wellen erfüllt, die an den Wänden Knoten der Schallschnelle (bzw. Schwingungsbäuche des Schalldrucks) aufweisen. Diese Auswahlbedingung ist nur für Räume erfüllt, deren
Ausdehnung mit einem ganzzahligen Vielfachen der halben Wellenlänge übereinstimmt. Dieselbe Bedingung gilt bei zwei freien Enden (Knoten des Schalldrucks bzw. Bauch der Schallschnelle im Fall von ideal schallweichen Abschlüssen). Viele Blasinstrumente (gedeckte Pfeifen) sowie auch der offene Gehörgang des unversorgten Ohres weisen ein freies und ein festes Ende auf. Die Wellenlängen stehender Wellen sind dann durch die Bedingung gegeben, dass die Raumdimension mit einem ungeradzahligen Vielfachen eines Viertels der Wellenlänge übereinstimmt. Für den Gehörgang mit einer Länge von etwa 2,5 cm liegt die niedrigste Resonanzfrequenz bei etwa 3,4 kHz. Die Existenz von Gehörgangsresonanzen infolge stehender Wellen beeinflusst die Ergebnisse akustischer Messungen im Gehörgang (Impedanzaudiometrie, OAE-Messung, in situ-Messung) und sie wirkt sich auf das Klangbild von Hörgeräten aus. Die genannten Randbedingungen (freier und fester Abschluss) sind hier jedoch nur näherungsweise erfüllt, da weder Gehörgangswände und Trommelfell als ideal schallhart noch die Öffnung des Gehörganges als ideal schallweich angesetzt werden dürfen und die Impedanz des Trommelfells zudem von der Frequenz abhängt. Daher genügen die tatsächlich auftretenden Resonanzfrequenzen nicht exakt den angegebenen Regeln. Voraussetzung für die Entstehung stehender Wellen ist eine vollständige Reflexion der einfallenden Schallwelle an der Mediumgrenze. Sie ist dadurch gekennzeichnet, dass der durch die Impedanzen Z1 und Z2 der aneinander grenzenden Medien gegebene Reflexionskoeffizient r=
ζ −1 PLW mit ζ = Z 2 Z1 ζ +1
(15.3)
den Wert 1 annimmt. Die auf die Grenzfläche zwischen zwei Medien unterschiedlicher Impedanz auftreffende Schallwelle wird zu einem Anteil r = 1−α reflektiert, der restliche Anteil α (= Absorptionsgrad) dringt in das Medium ein. Im Zusammenhang mit dem Hören spielt v. a. die Grenzfläche zwischen Luft (in der Paukenhöhle) und Wasser (im Innenohr) eine große Rolle. Wegen der unterschiedlichen Impedanz der zwei Medien weist diese Grenzfläche einen großen Reflexionskoeffizienten auf. Das Mittelohr hat die Aufgabe, diesen Impedanzsprung zu überwinden. Mit Hilfe der Impedanzaudiometrie kann die Funktion dieses Impedanzwandlers überprüft werden.
15.1.2 Aufbau und Funktion des Hörsystems
An der Verarbeitung der akustischen Information im Gehör sind zahlreiche anatomische Strukturen und komplexe physiologische Vorgänge beteiligt. Das eigentliche Sinnesorgan für die Wahrnehmung von Schallwellen ist das Corti-Organ im Innenohr (Schnecke, Cochlea). Hierhin gelangt der Schall über die Luft, das Außenohr, den
221 15.1 · Die Grundlagen der Audiometrie
äußeren Gehörgang, das Trommelfell und das Mittelohr (Gehörknöchelchen). Vom Innenohr aus wird die im Schallsignal enthaltene Information über die neuralen Strukturen der Hörbahn (Hörnerv, Hinterhirn, Mittelhirn, Thalamus, Hirnrinde und kortikale Assoziationsfelder) weitergeleitet, verarbeitet, registriert, gedeutet und eingeordnet. Die Hörbahnen beider Ohren kreuzen sich in ihrem Verlauf, sodass die Information in beiden Hirnhälften vorliegt und für höhere Leistungen des Gehörs, wie das Richtungshören oder die Störschallunterdrückung, genutzt werden kann. Die peripheren Teile des Gehörs sind in ⊡ Abb. 15.1 dargestellt. Außenohr und äußerer Gehörgang dienen der Schallzuführung; sie bewirken eine richtungs- und frequenzabhängige Verstärkung, sie üben eine Schutzfunkti-
⊡ Abb. 15.1. Querschnitt durch Außenohr, Gehörgang, Mittelohr, Innenohr und Hörnerv. Die Paukenhöhle ist über die Tube (Eustach’sche Röhre) mit dem Nasenrachenraum verbunden (nach Boenninghaus 1996)
on aus und sie tragen zur Unterdrückung von Strömungsgeräuschen (Wind) bei. Über Trommelfell, Mittelohr und Gehörknöchelchen (Ossikel) werden die Schallschwingungen der Cochlea zugeleitet. Dem aus Trommelfell und Gehörknöchelchenkette bestehenden Apparat kommt hierbei die wichtige Aufgabe zu, die niedrige akustische Impedanz der Luft an die hohe Impedanz der Flüssigkeit im Innenohr anzupassen. Die Sinneszellen im Innenohr stehen mit afferenten (aufsteigenden) und efferenten (absteigenden) Fasern des Hörnerven in Verbindung. Sie werden durch die vom Schall ausgelösten Bewegungen zur Ausschüttung eines chemischen Botenstoffes (Neurotransmitter) veranlasst, der in den aufsteigenden Nervenfasern Aktionspotentiale auslöst. Diese stellen die Elementarquanten der diskret kodierten auditorischen Information dar, welche im Gehirn analysiert und verwertet wird. Der in zweieinhalb Windungen angelegte, mit dem Liquorraum in Verbindung stehende Innenraum der Cochlea hat eine Länge von ca. 32 mm (bei Frauen) bzw. 37 mm (bei Männern). Er ist in Längsrichtung durch die Reissner’sche Membran und die Basilarmembran in drei flüssigkeitsgefüllte Hohlräume unterteilt (⊡ Abb. 15.2): die mit Perilymphe gefüllte Scala tympani (Paukentreppe), die endolymphhaltige Scala media (Ductus cochlearis, Schneckengang) und die wiederum mit Perilymphe gefüllte Scala vestibuli (Vorhoftreppe). Letztere wird gegen den Mittelohrraum (Paukenhöhle) durch die Membran des ovalen Fensters begrenzt, an welcher der Stapes als das letzte unter den Gehörknöchelchen angreift. An der Schneckenspitze (Apex) sind Pauken- und Vorhoftreppe durch eine kleine Öffnung (Helicotrema, Schneckentor) miteinander verbunden. Dadurch wird bei statischen Druckschwankungen und langsamen Schwingungen ein Druckausgleich über die Membran des runden Fensters, die die Scala tympani gegen die Paukenhöhle abgrenzt, ermöglicht. Das auf der Basilarmembran angeordnete Corti-Organ enthält als funktionelle Elemente etwa 3400 Gruppen von
⊡ Abb. 15.2. Querschnitt durch das Innenohr und Vergrößerung des Ductus cochlearis mit Corti-Organ und Haarzellen (nach Boenninghaus 1996)
15
222
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Haarsinneszellen, welche die eigentlichen Rezeptoren für Schallschwingungen darstellen. Sie sind mit elektroakustischen Wandlern (Mikrophonen) vergleichbar. Unter den Haarzellen werden zwei Sorten unterschieden: Die schlanken äußeren Haarzellen sind in drei bis fünf Reihen angeordnet und vorwiegend mit efferenten (absteigenden) Hörnervenfasern verbunden, die bauchigen inneren Haarzellen sind näher an der Schneckenachse aufgereiht, fast vollständig von Stützzellen umgeben und nahezu ausschließlich afferent (d. h. von aufsteigenden Fasern) innerviert. Am oberen Ende (apikaler Pol) beider Haarzelltypen befinden sich jeweils etwa 50–120 Sinneshärchen (Stereozilien). Die Stereozilien der äußeren Haarzellen sind in der aufliegenden Deckmembran (Membrana tectoria) verankert, die der inneren Haarzellen schweben frei in der Endolymphe des Schneckenganges. Die Haarsinneszellen des menschlichen Ohres sind ausdifferenziert, sie können sich nicht durch Zellteilung reproduzieren. Die durch den Verlust der Haarzellen bedingten Hörschäden sind daher irreversibel. In jüngerer Zeit ist es zwar im Tierversuch gelungen, Haarzellen aus Stammzellkulturen zu züchten, der Anwendung beim Menschen stehen jedoch derzeit noch große methodische Hindernisse im Weg. Dies begründet die Unabwendbarkeit einer apparativen Hilfe bei Innenohrschäden. An ihrem unteren Ende (basalen Pol) sind die Haarzellen über synaptische Verbindungen mit den Fasern des Hörnervs verbunden. Hier ist der Eingang des zentralen auditorischen Systems (Hörbahn), welches sich aus hintereinander geschalteten Neuronen zusammensetzt, die die Information vom Innenohr bis zum auditorischen Cortex leiten. Die Fasern des ersten afferenten Neurons verlaufen zunächst gebündelt in der Schneckenachse (Ganglion spirale) und enden nach Verlassen des inneren Gehörgangs im ersten Kerngebiet des Hirnstamms, dem Nucleus cochlearis (Cochleariskern). Von hier bestehen Verbindungen zum oberen Olivenkomplex (Oliva superior). Dieses Kerngebiet ist mit den Cochleariskernen beider Seiten verbunden. Eine weitere Kreuzung der Hörbahn erfolgt zwischen dem Colliculus inferior (Vierhügelgebiet) im Tectum mesencephali (»Dach« des Mittelhirns) und dem Corpus geniculatum mediale (medialer Kniehöcker), einer weiteren Schaltstelle der Hörbahn im Thalamus (Zwischenhirn). Von hier ziehen die als Hörstrahlung (Radiatio acustica) bezeichneten Verbindungen zum jeweiligen Gyrus temporalis (Hirnwindung des Schläfenlappens), dem Sitz des auditorischen Cortex. Die Funktionsabläufe in den beschriebenen Strukturen können hier wegen ihrer Komplexität nur in ihren Grundzügen beschrieben werden. Über den äußeren Gehörgang gelangen die Schallwellen an das Trommelfell und versetzen es in Schwingungen. An dieser nur etwa 0.1 mm dicken und 60 mm2 großen trichterförmigen Membran ist das erste der drei Gehörknöchelchen, der Hammer (Malleus), befestigt. Er führt mit dem Trom-
melfell ähnliche Schwingungsbewegungen aus wie die Luft im äußeren Gehörgang und leitet sie über das zweite Gehörknöchelchen, den Amboss (Incus) an das dritte Gehörknöchelchen, den Steigbügel (Stapes) weiter. Dieser ist mit seiner Fußplatte an der Membran des ovalen Fensters befestigt, hinter der sich der perilymphatische Raum (die Vorhoftreppe oder Scala vestibuli) des Innenohres befindet. Die Gehörknöchelchen sind über zwei Muskeln (Musculus stapedius und Musculus tensor tympani) mit der Paukenhöhle und untereinander mit beweglichen Gelenken verbunden. Die Aufgabe des Mittelohres besteht darin, den Wirkungsgrad bei der Übertragung der Schallschwingungen von der Luft in die Perilymphe des Innenohres zu erhöhen. Eine direkte Anregung des Innenohres durch den Luftschall wäre wegen des durch die Grenzfläche gegebenen Impedanzsprunges mit einem Intensitätsverlust von etwa 99% (40 dB) verbunden. Die Wirkung des aus Trommelfell, Gehörknöchelchen und Paukenhöhle zusammengesetzten Impedanzwandlers beruht im Wesentlichen darauf, dass der Schalldruck durch das Verhältnis der Flächen von Trommelfell und Stapesfußplatte vergrößert und die Schallschnelle infolge der unterschiedlich großen Hebelarme verringert wird. Die quantitative Auswirkung dieser Effekte lässt sich durch Modellberechnungen abschätzen, die Ergebnisse schwanken jedoch wegen der unterschiedlichen Modellannahmen ganz erheblich. Experimentell lässt sich feststellen, dass die (frequenzabhängige) Eingangsimpedanz des Ohres bei Aufnahme der Schallenergie am Trommelfell um einen Faktor 30 bis 75 geringer ist als die der Cochlea. Dies hat zur Folge, dass etwa 60% der Schallenergie ins Innenohr übertragen werden, verglichen mit etwa 1 bis 2%, die das Innenohr ohne die Mitwirkung des Mittelohres erreichen würden. Die Bewegung der Membran des ovalen Fensters erzeugt in der Perilymphe eine Schwingung, die auch die aus Basilarmembran, Corti-Organ, zähflüssiger Endolymphe und Reissner-Membran zusammengesetzte cochleäre Trennwand erfasst und sich entlang der Schneckenwindung ausbreitet. Wegen der ortsabhängigen Eigenschaften von Flüssigkeitssäule (der Querschnitt der Schneckengänge nimmt von der Schneckenbasis zur Spitze ab) und Basilarmembran (ihre Steifigkeit nimmt von der Basis zur Spitze ab, die Breite zu) hängen Ausbreitungsgeschwindigkeit und somit Wellenlänge der Schwingung vom Ort ab und es entsteht eine Wanderwelle, die nur an einer, von der Frequenz des Schalles abhängigen Stelle ein eng umgrenztes Amplitudenmaximum ausbildet (⊡ Abb. 15.3). Die auf Dispersion beruhende Tonotopie des Innenohres, d. h. die Abbildung der Tonhöhenskala auf die Basilarmembran, ist somit auf die mechanischen Eigenschaften des Innenohres zurückzuführen. Sie hat zur Folge, dass hohe Frequenzen nahe des ovalen Fensters (also an der Schneckenbasis) und niedrige Frequenzen an der Schneckenspitze (Apex) verarbeitet werden.
223 15.1 · Die Grundlagen der Audiometrie
⊡ Abb. 15.3. Schwingung der cochleären Trennwand bei einer Frequenz von 200 Hz. Es sind Momentaufnahmen der Wanderwelle für zwei verschiedene Zeitpunkte sowie die Einhüllende gezeigt (nach von Békésy 1960)
Auf der Basilarmembran befinden sich die Haarsinneszellen des Corti’schen Organs, deren Sinneshaare (Stereozilien) durch die Scherbewegung zwischen Basilar- und Tektorialmembran ausgelenkt werden. Durch die Auslenkung der Stereozilien, deren Durchmesser etwa 0,5 μm beträgt, werden am apikalen Ende (bzw. an der apikalen Zellmembran) der Haarzelle Kaliumkanäle geöffnet. Der Einstrom von Kalium-Ionen aus der Endolymphe depolarisiert die Zellmembran (Rezeptorpotential), wodurch sich in der lateralen Zellwand Calciumkanäle öffnen. Das einströmende Calcium führt bei der äußeren Haarzelle (outer hair cell, OHC) zu aktiven Bewegungen, die die Auslenkungsamplitude in einem eng umgrenzten Bereich vergrößert, und in der inneren Haarzelle (inner hair cell, IHC) zur Ausschüttung eines chemischen Botenstoffes (Neurotransmitter). Nach diesen Vorgängen findet eine schnelle Repolarisation der Zellmembran statt. Die hierfür benötigte Energie bezieht die Haarzelle aus der elektrochemischen Potentialdifferenz zwischen Endo- und Perilymphe, die von der Stria vascularis aufrechterhalten wird. Der ausgeschüttete Transmitter überwindet innerhalb von etwa 0,5 ms den etwa 20 nm schmalen synaptischen Spalt durch Diffusion und regt mit Hilfe von speziellen Rezeptoren in der zugehörigen afferenten Hörnervenfaser die Erzeugung eines Aktionspotentials an (Exzitation). Werden die Sinneshärchen in umgekehrter Richtung (vom längsten Zilium weggerichtet) ausgelenkt, so wird der einwärts gerichtete Kaliumstrom blockiert und das Zellpotential erhöht (Hyperpolarisation). Es werden keine Bewegungen der äußeren Haarzellen angeregt, die Transmitterausschüttung der inneren Haarzellen wird gehemmt und die Entladungsrate des Hörnervs reduziert sich auf Werte unterhalb der Spontanrate (Inhibition). Durch das Wechselspiel von anregenden und hemmenden Auslenkungen der Stereozilien wirken die Haarzellen wie ein Gleichrichter (half wave rectification) des akustischen Eingangssignals. Für eine Koordinierung der Zilienbewegun-
gen sorgen dünne (Ø ca. 50 Å) elastische filamentförmige Protein-Verbindungen zwischen den einzelnen Sinneshärchen (tip links). Dieser Mechanismus einer kollektiven Bewegung des Zilienbündels trägt u. a. dazu bei, dass die kleinsten zu einer Hörempfindung führenden Auslenkungen (sie liegen im Bereich weniger Ångström) nicht bereits durch thermische Bewegungen hervorgerufen werden. Solange die Reizfrequenz die durch die zelluläre Refraktärzeit gesetzte Grenze von etwa 1 kHz nicht überschreitet, laufen die beschriebenen Vorgänge in jeder mit einer Depolarisation einhergehenden Phase der Schallschwingung ab. Somit ist die Information über die Frequenz des Schallsignals sowohl im Entstehungsort als auch in der Entstehungsrate der Aktionspotentiale einer einzelnen Hörnervenfaser enthalten. Die Grenzen der Frequenzauflösung werden also von der Schärfe des Wanderwellenmaximums und der neuralen und zentralnervösen Unterscheidung von Zeitmustern mitbestimmt. Für Ersteres, nämlich die Abbildung einzelner Frequenzen auf verschiedene Bereiche der Basilarmembran, gibt die auf der passiven Wanderwelle beruhende Theorie allerdings nur eine lückenhafte Erklärung. Erst durch die frequenzselektiven aktiven Kontraktionen der äußeren Haarzellen wird das durch den akustischen Reiz entstandene Amplitudenmaximum der Wanderwelle in einem sehr schmalen Bereich der Basilarmembran um mehrere Größenordnungen verstärkt und so das Frequenzselektionsvermögen und zugleich die Empfindlichkeit des Gehörs erhöht (⊡ Abb. 15.4). Messbar und diagnostisch nutzbar sind diese zellulären Vorgänge in Form der otoakustischen Emissionen. Das Innenohr ist in den härtesten Knochen des Skeletts, das Felsenbein, eingebettet. Das schützt es einerseits sehr gut gegen mechanische Beschädigung, andererseits kann es dadurch auch von Knochen- bzw. Körperschall erreicht und angeregt werden. Dieses Phänomen hat für die natürliche Funktion des Ohres wenig Bedeutung, es wird aber in der Audiometrie für die Prüfung des Innenohres unter Umgehung der Schallzuführung über das Mittelohr ausgenützt. Beim Aufsetzen der schwingenden Stimmgabel oder des Knochenleitungshörers auf den Schädelknochen, aber auch (in geringerem Maße) bei der Verwendung eines normalen (Luftleitungs-)Kopfhörers werden Perilymphe und Basilarmembran durch den Knochen in Schwingung versetzt und dadurch ein Höreindruck hervorgerufen. Die mechanischen Vorgänge im Innenohr (Entstehung und Ausbreitungsrichtung der Wanderwelle) laufen hierbei genauso ab wie bei Luftleitungsanregung. Grundsätzlich werden vom Knochenschall beide Innenohren erreicht, und zwar mit nahezu gleicher Intensität unabhängig vom Ort der Anregung. Hierdurch entsteht das so genannte Überhören eines einseitig dargebotenen akustischen Reizes auf das Gegenohr. Der Hörnerv (Nervus acusticus) besteht aus etwa 30.000 Nervenfasern. Die meisten dieser Nervenfasern sind afferent, d. h., sie leiten Information von den Sinnes-
15
224
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 15.4. Mit Hilfe des kernphysikalischen Mößbauer-Effektes gemessene Schallpegel für konstante Auslenkungsgeschwindigkeit (0,04 mm/s) eines Punktes der Basilarmembran in Abhängigkeit von der Frequenz des anregenden Schalls. Der Vergleich der an einem gesunden (gefüllte Kreise) und einem geschädigten (offene Kreise) Meerschweinchenohr erhaltenen Ergebnisse beweist die Existenz eines vulnerablen frequenzselektiven Prozesses, der die Empfindlichkeit im Bereich der charakteristischen Frequenz um etwa 40 dB erhöht (nach Sellick et al. 1982)
zellen ans Gehirn. Von diesen wiederum sind etwa 95% mit den äußeren Haarzellen verbunden, die inneren Haarzellen werden vorwiegend efferent (absteigend) innerviert. Afferente und efferente Fasern des Hörnervs ziehen von den Haarzellen in radialer Richtung zur Schneckenachse (Modiolus), wo sie sich zu dem in Achsenrichtung verlaufenden Strang des Hörnervs vereinigen. Dieser durchquert gemeinsam mit dem Gleichgewichtsnerven (Nervus vestibularis) den etwa 2 cm langen inneren Gehörgang und tritt im Kleinhirnbrückenwinkel in den Hirnstamm ein. Die kleinste Einheit der neuralen Informationsübertragung ist das Aktionspotential. Es stellt eine eng umgrenzte depolarisierte Zone dar, die sich mit hoher Geschwindigkeit entlang der Fortsätze (Dendriten und Axone) der Nervenzelle (Neuron) ausbreitet. In der Zellmembran dieser Zone sind für kurze Zeit Ionenkanäle geöffnet, die nur für Na+-Ionen durchlässig sind. Durch die einströmenden Kationen wird die zwischen –60 mV und –80 mV liegende Potentialdifferenz zwischen Zellplasma und Umgebung aufgehoben und sogar umgekehrt. Die Depolarisation bewirkt die Schließung der Na+-Kanäle und die Öffnung von K+-Kanälen, wodurch das Ruhepotential wiederhergestellt wird. Wesentliche Voraussetzung für eine schnelle Ausbreitung des Aktionspotentials entlang der Nervenfaser ist
die bei den Typ-1-Neuronen der afferenten Hörbahn vorhandene und in regelmäßigen Abständen unterbrochene elektrische Isolation der Faser durch die sie einhüllenden Schwann’schen Zellen (Myelin-Scheide). Das Aktionspotential wird ausgelöst, indem der Botenstoff (Transmitter), der die Nervenzelle über ihren Anschluss (Synapse) an die Sinneszelle erreicht, sich an spezifische Rezeptorproteine heftet, die Öffnung von Ionenkanälen in der postsynaptischen Membran veranlasst und ein Generatorpotential (exzitatorisches postsynaptisches Potential, EPSP) erzeugt. Wenn sich genügend solcher EPSP überlagern und der Schwellenwert von etwa 10 mV überschritten ist, öffnen sich die Na+-Kanäle und es entsteht das Aktionspotential. Doch auch ohne den Reiz durch eine Haarsinneszelle entstehen ständig in unregelmäßiger Folge Aktionspotentiale (Ruhe- oder Spontanaktivität). Die Depolarisation der Haarzelle hat eine Erhöhung, ihre Hyperpolarisation eine Verringerung dieser spontanen Entladungsrate zur Folge. Bei Auslenkung der Basilarmembran zur Scala tympani erhöht sich die Erzeugungsrate von Aktionspotentialen, bei Auslenkung in der Gegenrichtung wird sie verringert. Die Phase des Reizes und somit auch seine Frequenz finden sich infolgedessen in der Nervenaktivität wieder. Wegen der nach jedem Aktionspotential eintretenden Refraktärzeit der einzelnen Nervenfaser funktioniert dieses Codierungsprinzip nur für niedrige Reizfrequenzen (die Grenze liegt bei etwa 1 kHz). Statistisch sind jedoch auch bei hohen Frequenzen Phase und Frequenz des Reizes in der Gesamtaktivität der dem jeweiligen Frequenzbereich zugeordneten Nervenfasern verschlüsselt, da sich in jeder Sogphase des Schallsignals die Wahrscheinlichkeit für die Entstehung von Aktionspotentialen erhöht. Die Zahl der pro Zeiteinheit auftretenden Aktionspotentiale entspricht jedoch nur im statistischen Mittel der Frequenz des Reizes. Die Auswertung des zeitlichen Abstandes zwischen den Entladungen in einer Häufigkeitsverteilung (post stimulus time histogram) zeigt, dass dieser Abstand eine Streuung um seinen Mittelwert, der der Periode des Reizes entspricht, aufweist. Neuronale Vorgänge erfolgen nicht streng deterministisch, sondern stochastisch. Der Hörnerv als erstes Neuron der Hörbahn weist eine tonotope Organisation auf, d. h. ebenso wie in der Cochlea besteht eine feste Zuordnung zwischen einem Ort bzw. einer Faser und der Frequenz des Reizes. Dieses Prinzip setzt sich in den Zielregionen des Hörnerven, dem dorsalen und ventralen Cochleariskern, bis hinauf zum primären auditorischen Cortex fort. In den Kerngebieten verläuft die Informationsübertragung zwischen zwei Neuronen auf ähnliche Weise wie sie oben für die Verbindung zwischen Sinneszelle und Neuron beschrieben wurde. Die Schnittstelle zwischen dem auslaufenden Fortsatz (Axon) eines Neurons und dem einlaufenden Ast (Dendrit) des nachgeschalteten Neurons wird als axodendritische Synapse bezeichnet. Zwischen dem prä- und dem postsynaptischen Aktionspotential verstreicht jeweils die bereits
225 15.1 · Die Grundlagen der Audiometrie
erwähnte Synapsenzeit von etwa 0,5 ms. Bereits im Hirnstamm (in den Olivenkernen) lässt sich bei monauraler und binauraler Stimulation eine unterschiedliche Aktivität nachweisen. Dadurch können die von beiden Seiten eintreffenden Signale hinsichtlich der für das Richtungshören wichtigen interauralen Laufzeit- und Intensitätsdifferenzen ausgewertet werden. Die Reizung eines jeden Ohres führt wegen der mehrfach kreuzenden Nervenverbindungen zur Aktivierung des primären Hörzentrums (Heschl’sche Querwindung) in den Schläfenlappen beider Hirnhälften. Hier findet die Extraktion von komplexen Merkmalen des Schallsignals, die z. B. für Sprache typisch sind, statt. Im sensorischen Sprachzentrum (Wernicke’sches Areal) v. a. der linken Hirnhemisphäre werden die akustischen Erinnerungsbilder von Wörtern gespeichert. Der Diskrimination von Sprache und ihrer semantischen, syntaktischen und grammatikalischen Analyse entsprechen noch spätere Verarbeitungsschritte in den Assoziationsfeldern, die einen großen Teil der Großhirnrinde ausmachen. Mit Hilfe der elektrischen Reaktions-Audiometrie können von der Kopfhaut strukturierte reizevozierte Potentialmuster abgeleitet werden, die die Vorgänge vom Hörnerv bis zur Hirnrinde widerspiegeln und in der audiologischen Diagnostik genutzt werden.
15.1.3 Hörstörungen
Im Hörsystem können infolge seiner komplexen Anatomie und Physiologie viele Funktionsstörungen auftreten, deren Ursachen in einer oder mehreren Komponenten des Gesamtsystems liegen. Unter diesen Komponenten kommen dem Außenohr und dem äußeren Gehörgang für das Hören und die Audiometrie nur wenig Bedeutung zu. Störungen in diesem Bereich können durch Missbildungen, Verengungen (Stenosen), Ohrsekret (Cerumen), Wucherungen oder Fremdkörper verursacht werden. Weiter zentral lokalisierte Hörstörungen werden – je nachdem, ob ihre Ursache im Mittelohr, in der Schnecke, im Hörnerven oder im Gehirn liegt – als Mittelohroder Schallleitungschwerhörigkeiten, sensorische, neurale und zentrale Hörstörungen bezeichnet (⊡ Abb. 15.5). Sensorisch (endocochleär) und neural (retrocochleär) be-
dingte Hörstörungen werden häufig unter dem Begriff »Schallempfindungsschwerhörigkeit« oder »sensorineurale Schwerhörigkeit« zusammengefasst. Mögliche Ursachen für das Auftreten von Schallleitungs- oder Mittelohrschwerhörigkeiten (konduktive Hörstörung oder Transmissionsschwerhörigkeit) sind: ▬ Tubenventilationsstörungen, d. h. ein behinderter Druckausgleich der Paukenhöhle über die Eustach’sche Röhre; ▬ Unterdruck in der Paukenhöhle infolge Sauerstoffverbrauch durch entzündliche Prozesse; ▬ Verletzungen des Trommelfells; ▬ Chronische Mittelohrknocheneiterung (Cholesteatom); ▬ Mittelohrentzündungen (Otitis media) mit der Folge einer Ansammlung von Flüssigkeit oder schleimigem Sekret (Mittelohrerguss) in der Paukenhöhle; ▬ Otosklerose, d. h. eine Wucherung von Knochengewebe an der Stapesfußplatte mit der Folge, dass die Schwingungsübertragung über das ovale Fenster beoder verhindert ist; ▬ Frakturen (Knochenbrüche) oder Luxationen (Trennung der Gelenkverbindungen) in der Gehörknöchelchenkette; ▬ Missbildungen unterschiedlicher Art. Mittelohrbedingte Hörstörungen können wegen der Anregung des Innenohres über Knochenleitung niemals eine vollständige Taubheit zur Folge haben. Denn auch bei einem vollständigen Funktionsausfall des Mittelohrapparates – etwa infolge einer Luxation der Gehörknöchelchenkette – versetzt der Luftschall bei genügend hoher Intensität mit einem Verlust von etwa 50 dB den Schädelknochen und somit die Endolymphe in Schwingungen. Die meisten Mittelohrschwerhörigkeiten können konservativ oder operativ behoben werden. In den wenigen Fällen, wo dies nicht möglich ist, kann der betroffene Patient mit einem speziellen Hörgerät versorgt werden, welches den Schall in Vibrationen umwandelt und diese als Körperschall auf den Knochen hinter der Ohrmuschel überträgt (Knochenleitungshörgerät). Sehr vielfältig sind die Ursachen und Erscheinungsformen von endocochleären, sensorischen oder Innenohrschwerhörigkeiten:
Innenohr
Mittelohr Schallleitung
Hörnerv Schallempfindung
Konduktiv
Wahrnehmung
Sensorisch
Retrocochleär
Sensorisch
Neutral Sensorineural
Peripher ⊡ Abb. 15.5. Einteilung der Hörstörungen gemäß dem Ort der Schädigung
Gehirn
Zentral
15
226
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
▬ erblich (hereditär) bedingter Hörverlust, häufig bei mittleren Frequenzen besonders stark ausgeprägt; ▬ langsam fortschreitende Zunahme des Hörverlustes v. a. bei hohen Frequenzen (Presbyakusis), wahrscheinlich verursacht durch verschiedene Noxen (Lärm, Medikamenteneinwirkung, unzureichende Blutversorgung, Alterung); ▬ durch Lärm- oder Knalltrauma hervorgerufene Haarzellschädigung mit Auswirkung v. a. auf das Hörvermögen bei hohen Frequenzen; ▬ körpereigene Zerstörung von Haarzellen als Folge bakterieller Infektionskrankheiten (z. B. Meningitis); ▬ Haarzellschädigung durch ototoxische Antibiotika, Aminoglykoside (Zytostatika) oder Entwässerungsmittel (Diuretika); ▬ akut (innerhalb weniger Minuten) und ohne erkennbare äußere Ursache auftretender Hörverlust (Hörsturz), möglicherweise verursacht durch metabolische Erschöpfung oder Mangelversorgung des Innenohres mit Sauerstoff; häufig Therapieerfolge durch durchblutungsfördernde Infusionen; ▬ anfallsartig auftretender hydrostatischer Überdruck (Hydrops) im Endolymphraum der Cochlea (Morbus Menière) mit Auswirkung auf das Hörvermögen v. a. bei niedrigen Frequenzen; ▬ Missbildungen unterschiedlicher Art. Viele der aufgezählten Innenohrerkrankungen gehen mit subjektiv wahrgenommen Ohrgeräuschen, denen kein realer akustischer Reiz gegenübersteht (Tinnitus), und Schwindel (Vertigo) einher. Bei allen erwähnten Krankheitsbildern kann der Hörverlust bis zur völligen Taubheit gehen. Innenohrbedingte Schwerhörigkeiten werden, solange ein verwertbares Resthörvermögen vorliegt, mit Hilfe von Hörgeräten korrigiert. Wenn jedoch selbst die maximale mit Hörgeräten mögliche Verstärkung des Schalls nicht ausreicht, stellt das Cochlea-Implantat die einzige Möglichkeit zur Wiederherstellung eines Hörvermögens und der lautsprachlichen Kommunikation dar. Eine weitere häufige Begleiterscheinung endocochleärer Hörstörungen ist der pathologische Lautheitsanstieg (auch als Lautheitsausgleich oder Recruitment bezeichnet). Hierunter versteht man die Erfahrung des Hörgeschädigten, dass schwache akustische Reize gar nicht oder nur sehr leise wahrgenommen werden, während hohe Schallintensitäten als sehr laut oder gar schmerzhaft empfunden werden. Aller Erfahrung nach tritt dieses Phänomen eines stark eingeschränkten Dynamikbereiches nicht bei konduktiven und retrocochleären Hörstörungen auf. Deshalb ermöglicht ein Test, der ein solches Recruitment nachweist, die Bestätigung einer sensorischen Störung. Die physiologische Erklärung für den pathologischen Lautheitsanstieg beruht auf der aktiven Schallverstärkung durch die äußeren Haarzellen. Diese führt bei niedrigen Schallintensitäten zu einer Erhöhung der Empfindlichkeit
(⊡ Abb. 15.6). Sind nun, wie es bei den meisten Innenohrschäden der Fall ist, vorwiegend die äußeren Haarzellen geschädigt oder zerstört, so werden schwache Reize nicht mehr wahrgenommen, während die Verarbeitung starker Reize durch die robusteren und daher unversehrten inneren Haarzellen nicht beeinträchtigt ist. Das zu einem festen Eingangssignalbereich gehörende Intervall von Ausgangssignalen wird dadurch erheblich vergrößert und der Dynamikbereich folglich eingeengt. Eine besonders häufig vorkommende und gut untersuchte recruitmentpositive Hörstörung ist die Lärmschwerhörigkeit. Die Beschallung eines Ohres mit hoher Intensität führt zunächst zu einer vorübergehenden Schwellenabwanderung (temporary threshold shift, TTS), d. h. einer Schwerhörigkeit geringen Ausmaßes, die sich nach kurzer Zeit (innerhalb von Minuten bis Stunden) wieder zurückbildet. Personen, die einer dauerhaften Lärmbelastung ausgesetzt sind, fallen tonaudiometrisch zunächst durch eine signifikant schlechtere Hörschwelle im Bereich um 4 kHz auf (C5-Senke in ⊡ Abb. 15.8, E). Dies ist das typische Anzeichen einer beginnenden Lärmschwerhörigkeit. Es bildet sich nicht mehr vollständig zurück (permanent threshold shift, PTS). Hält die Lärmbelastung weiter an, so nimmt der Hörverlust zu und der betroffene Frequenzbereich dehnt sich aus. Auch bei vorwiegend tieffrequenter Beschallung ergibt sich nach langjähriger Schädigung als typisches Audiogramm ein Hochtonabfall (⊡ Abb. 15.8, E). Dies lässt sich möglicherweise damit erklären, dass die Wanderwelle unabhängig von der Schallfrequenz immer zunächst die basalen Bereiche des Corti-Organs passieren muss und somit die für die hohen Frequenzen zuständigen Haarzellen grundsätzlich stärker beansprucht werden.
⊡ Abb. 15.6. Der pathologische Lautheitsanstieg lässt sich auf das Zusammenwirken von inneren und äußeren Haarsinneszellen zurückführen. Die letzteren bewirken eine Verstärkung des cochleären Ausgangssignals bei niedrigen Reizpegeln und vergrößern somit die Empfindlichkeit (durchgezogene Linie). Sind die äußeren Haarzellen funktionsunfähig oder zerstört, so ergibt sich die gestrichelte lineare Eingangs/Ausgangs-Kennlinie der inneren Haarzellen
227 15.2 · Psychoakustik und subjektive Audiometrie
Bei neuralen oder retrocochleären Hörstörungen liegt ein Funktionsdefizit in der Fortleitung oder Verarbeitung der Information im Hörnerv oder in der Hörbahn vor. In vielen Fällen ist die Beeinträchtigung des Hörvermögens nur Begleiterscheinung oder Folge von Erkrankungen, die weder ausschließlich noch primär das Gehör betreffen: ▬ Kompression des Hörnervs durch Gefäßschlingen; ▬ Tumoren im inneren Gehörgang oder Kleinhirnbrückenwinkel (z. B. Akustikusneurinom); ▬ multiple Sklerose (soweit Hörbahnanteile von der Entmarkung betroffen sind); ▬ diffuse Hirnstammschädigungen mit Nervenzellverlusten ohne ausgeprägte Herde; ▬ Mangelversorgung der für die auditorische Informationsverarbeitung relevanten Hirnstammbereiche, verursacht z. B. durch Gefäßausstülpungen (Aneurysmen) oder Infarkte. Neurale Hörstörungen gehen häufig mit Funktionsdefiziten des Innenohrs einher, da raumfordernde Prozesse im inneren Gehörgang auch die arterielle Versorgung der Cochlea beeinträchtigen können. Darüber hinaus sind viele unspezifische Begleitsymptome (Tinnitus, Schwindel, Beeinträchtigung der motorischen und sensorischen Gesichtsnerven) möglich. Die Versorgung der neural bedingten Schwerhörigkeit mit Hörgeräten kann zwar in Hinblick auf die Schwerhörigkeit erfolgreich sein, sie kann aber, soweit eine normale Innenohrfunktion vorliegt, nicht als angemessene Therapie bezeichnet werden. Hörnervenund Hirnstammtumoren müssen, da sie lebenswichtige Funktionen des Hirnstamms beeinträchtigen könnten, operativ entfernt werden. Der neurochirurgische Eingriff kann eine postoperative Taubheit zur Folge haben. Wegen der Beschädigung oder Durchtrennung des Hörnervs ist in solchen Fällen auch von der Versorgung mit einem Cochlea-Implantat keine Wiederherstellung des Hörvermögens zu erwarten. Allenfalls die derzeit noch experimentelle Implantation von Hirnstammelektroden kann wieder zu auditorischen Sinneseindrücken verhelfen. Begrifflich ist auch die Auditorische Neuropathie oder Perisynaptische Audiopathie (AN/AS; engl.: auditory neuropathy spectrum disorder, ANSD) den neuralen Hörstörungen zuzurechnen, wenngleich der pathophysiologische Hintergrund dieser Erkrankung derzeit noch weitgehend im Unklaren liegt. Eine auditorische Neuropathie liegt vor, wenn die Innenohrfunktion ausweislich der otoakustischen Emissionen normal und die Funktion der peripheren Hörbahn ausweislich der frühen akustisch evozierten Potentiale pathologisch verändert ist. Zur Erklärung dieser Konstellation wären auch Störungen der Funktion der inneren Haarzellen, der synaptischen Übertragung oder der Spiralganglienzellen denkbar. Eine AN/ AS kann ein- oder beidseitig auftreten und bis zur vollständigen Taubheit reichen. Die therapeutischen Ansätze sind ähnlich unscharf definiert wie das in den letzten
Jahren zunehmend in den Fokus geratene Krankheitsbild selber; sie reichen von pädagogischen Fördermaßnahmen bis zur Versorgung mit einem Cochlea-Implantat. Zentrale Hörstörungen sind durch Einschränkungen bei höheren Diskriminationsleistungen (Richtungsgehör, Sprachverstehen im Störgeräusch) des Hörsystems gekennzeichnet. Sie können z. B. durch Hirnblutungen verursacht sein. Liegt keine organische Schädigung vor, so spricht man von einer rein kognitiven Auditiven Wahrnehmungsund Verarbeitungsstörung (AVWS, engl. central auditory processing disorder, CAPD). Sie ist definiert als das Auftreten von Störungen in der vorbewussten und bewussten Analyse von Zeit-, Frequenz- und Intensitätsbeziehungen akustischer Signale sowie in der binauralen Interaktion. Die diagnostische Aufgabe besteht darin, Auffälligkeiten in der Verarbeitung von Schall und insbesondere von Sprache unter Störschallbedingungen in Abwesenheit von nachweisbaren organischen Defekten und bei normaler nonverbaler Intelligenz zu erfassen. Eine Hörgeräteversorgung ist bei kognitiven Hörstörungen nicht angemessen, da im Sinnesorgan kein Schaden vorliegt und somit von einer Erhöhung des Schallpegels kein Gewinn zu erwarten ist.
15.2
Psychoakustik und subjektive Audiometrie
Die Lehre von den Schallreizen und den durch sie ausgelösten Empfindungen wird als Psychoakustik bezeichnet. Ein großer Teil der heute vorliegenden Erkenntnisse über das Leistungsvermögen des Gehörs wurde mit Hilfe von psychoakustischen Untersuchungsmethoden gewonnen. Die im Detail sehr unterschiedlichen Verfahren haben miteinander das Prinzip gemeinsam, dass das Gehör eines Probanden mit den für die jeweilige Fragestellung geeigneten Signalen stimuliert wird und seine subjektiven Empfindungen2 registriert und in Abhängigkeit von den Reizparametern ausgewertet werden. Auf diese Weise können Wahrnehmungsschwellen, Lautstärke- und Tonhöhenempfindungen, Unterscheidungsschwellen, Maskierungsphänomene und die sprachliche Diskriminationsleistung quantitativ erfasst werden. Die Tatsache, dass die Messgröße in der Psychoakustik eine subjektive Wahrnehmung ist, bringt es mit sich, dass immer das gesamte Gehör vom peripheren Sinnesorgan bis hinauf zu den Assoziationszentren der Großhirnrinde zum Messergebnis beiträgt. Neben vielen für rein wissenschaftliche Zwecke eingesetzten Testverfahren ist auch ein großer Teil der diagnostisch angewendeten Hörprüfungen, nämlich die so genannten subjektiven Hörtests, der Psychoakustik zuzurechnen. 2
In der experimentellen Psychologie werden Empfindungen und Wahrnehmungen voneinander abgegrenzt; die komplexe Wahrnehmung ergibt sich demnach aus Verarbeitung und Assoziation der elementaren, durch Qualität und Intensität definierten Empfindungen.
15
228
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
15.2.1 Der Zusammenhang zwischen
Reiz und Empfindung
I
Mit der in Abschn. 15.1 definierten dB SPL-Skala werden die Schallpegel aller Frequenzen auf den Referenzwert 20 μPa bezogen. Dieser Schalldruck entspricht der Hörschwelle junger normalhörender Probanden bei 2 kHz, nahe der größten Empfindlichkeit des Gehörs (die bei ca. 3 kHz vorliegt), der Schallpegel 0 dB SPL entspricht somit bei dieser Frequenz der unteren Wahrnehmungsgrenze. Töne der meisten anderen Frequenzen werden erst bei höheren Pegeln wahrgenommen. Dies zeigt die in ⊡ Abb. 15.7 wiedergegebene Abhängigkeit des gerade wahrnehmbaren Schallpegels (also der absoluten Hörschwelle) von der Tonfrequenz. Die mittlere normale Hörschwellenkurve verbindet die gerade hörbaren und somit als gleich laut empfundenen Pegel von Tönen unterschiedlicher Frequenz, sie stellt somit eine Isophone dar. Werden bei höheren Schallintensitäten Paarvergleiche von zwei Tönen unterschiedlicher Frequenz durchgeführt (wobei der 1000 Hz-Ton als Referenz gilt), so erhält man das in ⊡ Abb. 15.7 gezeigte Isophonenfeld. Es ist die Grundlage für die Einführung des Lautstärkepegels LN mit der Einheit phon als Maß für die subjektiv empfundene Lautstärke von reinen Sinustönen: > Der in phon gemessene Lautstärkepegel eines Tones ist gegeben durch den in dB SPL ausgedrückten Schallpegel des gleich laut erscheinenden 1000 Hz-Tones.
Die Hörschwelle entspricht der 3-phon-Linie3, die Unbehaglichkeitsschwelle der 110-phon-Linie. Gelegentlich 3
… nicht etwa die 0 phon-Linie, denn die mittlere Normalschwelle bei 1000 Hz beträgt etwa 3 dB SPL.
⊡ Abb. 15.7. Die Kurven gleicher Lautstärke (Isophonen) des normalhörenden Ohres definieren die Hörschwelle (unterste Kurve) und den Lautstärkepegel LN (phon) für Sinustöne. Darauf aufbauend wird die Lautheit für f=1 kHz bei L=40 dB SPL willkürlich mit N=1 sone gleichgesetzt. Bei höheren Pegeln entspricht eine Zunahme um 10 dB einer Verdoppelung der Lautheit, bei Pegeln unterhalb von 40 dB gilt dieses Potenzgesetz nicht. Als Hörfeld wird der Bereich zwischen Wahrnehmungs- und Unbehaglichkeitsschwelle bezeichnet. Das Sprachfeld nimmt nur einen Teil dieses Bereiches ein
wird die 75-phon-Linie als Isophone angenehm lauten Hörens bezeichnet. Die Phonskala gibt die Frequenzabhängigkeit der subjektiven Lautstärkeempfindung realistisch wieder, nicht jedoch die Empfindung von Intensitätsunterschieden: Ein Zuwachs des Lautstärkepegels um 10 phon entspricht, zumindest bei Schallpegeln über 40 dB SPL, in etwa einer Verdoppelung der Lautstärkeempfindung. Für die Schaffung einer Skala, deren Maßzahl zur subjektiven Empfindung proportional ist (und dies auch bei niedrigen Pegeln), sind rein physikalische Messgrößen untauglich, es muss auf psychometrische Methoden zurückgegriffen werden. Mit Hilfe der vergleichenden Skalierung ergibt sich die in der Einheit sone gemessene Verhältnislautheit N. Da dieser Maßeinheit in der Audiologie nur wenig Bedeutung zukommt, wird für eine nähere Beschreibung auf die weiterführende Literatur verwiesen (s. z. B. Hoth 1999 und dort angegebene Originalliteratur). Ebenso wie Intensität und Lautstärke sind auch Frequenz und Tonhöhe zusammengehörende Paare von Reizund Empfindungsgrößen. Und ebenso wie für die empfundene Lautstärke die psychoakustische Messgröße Lautheit eingeführt wird, dient die Bezeichnung Tonheit zur quantitativen Beschreibung der empfundenen Tonhöhe. Die Einheit dieser Messgröße ist das mel, zu deren Definition zunächst dem Ton mit der Frequenz 131 Hz (in der Musik als c0 bezeichnet) die Tonheit z=131 mel zugeordnet wird. Für Frequenzen unterhalb von 500 HZ wird die Maßzahl für die Tonhöhe in mel mit der durch die Einheit Hz geteilten Frequenz gleichgesetzt, da in diesem Bereich eine Verdoppelung der Frequenz (Oktave) als gleich große Zunahme empfunden wird. Die Fortsetzung der TonheitsSkala zu hohen Frequenzen ergibt sich aus der Forderung, dass die Tonheiten für jeweils zwei Töne, die subjektiv als
229 15.2 · Psychoakustik und subjektive Audiometrie
halb bzw. doppelt so hoch empfunden werden, sich um einen Faktor 2 unterscheiden (Zwicker u. Feldtkeller 1967). Aufgetragen über der Frequenz nimmt die Tonheit bei niedrigen Frequenzen zunächst konstant um 1 mel pro Hz und bei hohen Frequenzen mit kleinerer Steigung zu. Neben der Beschreibung von Qualität (Tonhöhe) und Quantität (Lautstärke) der Empfindung ist die Fähigkeit zur Erkennung von Unterschieden oder Änderungen von Frequenz oder Intensität eines Schallsignals ein wichtiger Gegenstand psychoakustischer Messungen, wohingegen die praktische Audiometrie diesen Leistungsmerkmalen des Gehörs nur wenig Beachtung schenkt. Die Empfindlichkeit des Gehörs wird durch die ebenmerklichen Unterschiede (just noticeable differences, jnd) beschrieben. Ebenmerkliche Unterschiede können mit verschiedenen Methoden bestimmt werden. Beim Modulationsverfahren wird der untersuchte Reizparameter (Amplitude oder Frequenz) eines kontinuierlich dargebotenen Tones sinusförmig moduliert und der Proband nach dem kleinsten noch feststellbaren Modulationshub gefragt. Die auf diese Weise gefundenen Änderungsschwellen werden als Modulationsschwellen bezeichnet. Etwas andere (i. Allg. niedriger liegende) Änderungsschwellen ergeben sich, wenn das Ohr nacheinander mit zwei Tönen stimuliert wird, die durch eine Pause voneinander getrennt sind. Die auf diese Weise ermittelten Schwellen werden als Unterschiedsschwellen bezeichnet. Die gleichzeitige Darbietung zweier Reize ergibt wegen der Überlagerung der cochleären Anregungsbereiche völlig andere Schwellenwerte: die Mithörschwelle im Falle der Amplitudendiskrimination bzw. die Frequenzunterscheidungsgrenze bei der Tonhöhenunterscheidung. Die geringe audiometrische Relevanz von Unterscheidungs- oder Auflösungsvermögen in Bezug auf Frequenz und Intensität des Reizes erklärt sich daraus, dass die Kenntnis von Defiziten bei diesen Diskriminationsleistungen wenig diagnostische und praktisch keine therapeutischen Konsequenzen hat. Unabhängig davon, ob die Diskriminationsleistung mit gleichzeitig vorliegenden, nacheinander dargebotenen oder modulierten Signalen bestimmt wird, ist sie bei grundsätzlich bei hohen Reizpegeln höher als in Schwellennähe und bei mittleren Frequenzen (1 kHz) besser als bei niedrigen und hohen Frequenzen. Als orientierende Werte seien hier für die Amplitudenmodulationsschwelle eine ebenmerkliche Pegeldifferenz von 0,3 dB und für die Frequenzmodulationsschwelle eine ebenmerkliche Frequenzdifferenz von 3 Hz angegeben (experimentelle Werte bei 1 kHz und 60 dB SPL). Wie sich soeben im Zusammenhang mit der Diskrimination von Reizen gezeigt hat, kann die Wahrnehmung eines akustischen Signals durch die gleichzeitige Darbietung eines zweiten Signals beeinflusst werden. Aus alltäglicher Erfahrung ist bekannt, dass ein Nutzsignal durch Störschall »übertönt« werden kann. In der Psychoakustik und Audiologie spricht man von Verdeckung oder Maskie-
rung. Wird die Hörschwelle nicht in ruhiger Umgebung sondern vor einem Geräuschhintergrund bestimmt, so spricht man von der Mithörschwelle. Sie spielt bei einigen Hörprüfungen eine wichtige Rolle. Die Mithörschwelle unterscheidet sich von der absoluten oder Ruhehörschwelle umso mehr, je näher die Frequenzen der zwei konkurrierenden Signale beieinander liegen. Für ein vertieftes Verständnis der Phänomene ist die Betrachtung der am Hörvorgang beteiligten nichtlinearen Effekte sowie eine Auseinandersetzung mit dem Konzept der Frequenzgruppen erforderlich. Im Rahmen dieser Übersicht muss hierfür an die weiterführende Literatur verwiesen werden (s. z. B. Zwicker u. Fastl 1990). In der praktischen Audiometrie spielen die mit Verdeckung und Maskierung zusammenhängenden Phänomene bei der Vertäubung des nicht geprüften Ohres in der Tonaudiometrie, der Feststellung von Recruitment-Äquivalenten in der Überschwelligen Audiometrie, der Untersuchung des Sprachverstehens im Störgeräusch in der Sprachaudiometrie und dem Design spezieller Reizparadigmen in der objektiven Audiometrie (z. B. bei der notch noise BERA) eine Rolle.
15.2.2 Zeitverhalten des Hörsystems
Zur vollständigen Beschreibung von akustischen Signalen gehört neben Frequenz und Intensität als dritte Dimension die Zeit. Alle in Abschn. 15.2.1 auf die Lautstärkeempfindung bezogenen Ausführungen sind in ihrer Gültigkeit auf Dauerreize beschränkt. Einige der Aussagen sind nicht auf Reize kurzer Dauer oder veränderliche, nicht-stationäre Signale übertragbar. So hängt bspw. die subjektiv empfundene Lautstärke eines Reizes von seiner Dauer ab: Kurze Reize werden bei gleichem Schalldruck weniger laut empfunden als Dauerreize. Oberhalb der bei etwa 200 ms liegenden Grenze ist die empfundene Lautstärke eines akustischen Reizes von seiner Dauer unabhängig (Integrationsvermögen des Gehörs), unterhalb dieser Grenze muss zur Erzielung gleicher Lautstärke der Reizpegel jeweils um rund 10 dB erhöht werden wenn die Reizdauer auf ein Zehntel verkürzt wird. Pulsartige Reize werden daher weniger laut empfunden als es ihrem Schalldruck entspricht. Da das Ausmaß von Gehörschäden durch die physikalische Intensität und nicht durch die empfundene Lautstärke bestimmt ist, wird das Schädigungspotential von impulsartigem Schall somit durch die subjektive Bewertung unterschätzt. Der Schallpegel von Impulsen wird sowohl durch den Spitzenwert des Schalldrucks angegeben (dB SPL p.e. = peak equivalent) als auch durch den für die Wahrnehmung relevanten und i.a. viel kleineren Wert (dB HL = hearing level). Es sei noch erwähnt, dass diese Aspekte schon allein in Hinblick auf die relevante Zeitskala völlig verschieden sind von denen der weiter unten behandelten Adaptation, bei der gerade eine lange Reizdauer der Hörbarkeit entgegenwirkt.
15
230
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Die meisten bedeutungstragenden akustischen Signale weisen schnelle zeitliche Änderungen von Frequenz und Intensität auf. Die gilt besonders für die Sprache, bei der ein Großteil der Information in den Übergängen (Transienten) zwischen den Vokalen oder zwischen Vokal und Konsonant enthalten ist. Die Fähigkeit zur Analyse von Zeitstrukturen ist daher für das Gehör des Menschen sehr wichtig. Dies spiegelt sich darin wider, dass viele Neurone der Hörbahn nur auf zeitliche Änderungen des Reizes ansprechen. Durch die psychoakustische Messung des Zeitauflösungsvermögens kann die funktionelle Integrität der an der Zeitstrukturanalyse beteiligten Komponenten des Hörsystems getestet werden. Ein Maß für das Zeitauflösungsvermögen ist der ebenmerkliche Zeitabstand zwischen zwei Rauschimpulsen. Er lässt sich messen, indem einer Versuchsperson nacheinander zwei Pulse weißen Rauschens begrenzter Dauer (200 ms) vorgespielt werden, von denen einer durch eine Pause variabler Länge unterbrochen ist, und sie entscheiden lässt, welcher der zwei Reize als ein Paar von Impulsen zu erkennen war (gap detection threshold). Im Falle einer richtigen Antwort wird die Pausendauer verkürzt, andernfalls verlängert. Nach einer festen Anzahl von Umkehrungen wird aus den dazugehörigen Zeitabständen der Mittelwert berechnet. Die auf diese Weise ermittelten ebenmerklichen Lücken betragen bei Normalhörenden etwa 5 ms. Ähnliche Werte erhält man, wenn die Aufgabe darin besteht, von zwei Reizen unterschiedlicher Dauer den kürzeren zu erkennen (temporal difference limen). Zum Zeitverhalten des Gehörs gehört auch seine Reaktion auf länger anhaltende Stimulation. Diese Reaktion besteht darin, dass die Intensität der Empfindung im Laufe der Zeit nachlässt. Die hierfür verantwortlichen physiologischen Vorgänge sind nicht im Detail bekannt. Empirisch wird zwischen Adaptation und Ermüdung unterschieden. Die Abgrenzung geschieht anhand der auftretenden Zeitkonstanten und der Abhängigkeit von der Reizstärke: Als Adaptation wird das Nachlassen der Empfindungsstärke bei geringen Reizpegeln bezeichnet. Es tritt innerhalb weniger Minuten ein, ebenso wie die normale Empfindlichkeit wenige Minuten nach Ende der Stimulation wiederkehrt. Der Adaptation liegen vermutlich neuronale Mechanismen zugrunde. Hierfür spricht die Beobachtung, dass die neuronale Feuerungsrate bei Beschallung mit niedriger Intensität mit denselben Zeitkonstanten abnimmt. Die bei sehr intensiver Beschallung eintretende Empfindlichkeitseinbuße wird als Hörermüdung (auditory fatigue) bezeichnet. Sie erholt sich nach der Schallexposition nur sehr langsam, d. h. sie wirkt sich wie eine vorübergehende Schwellenabwanderung (temporary threshold shift, TTS) aus. Die Ermüdung ist wohl auf eine Reduktion des Sauerstoffgehalts und eine Ansammlung metabolischer Endprodukte in der Endolymphe zurückzuführen, die sogar zu Haarzellschäden führen können.
Weiter oben ist ausgeführt worden, dass die Hörschwelle für Töne durch die Anwesenheit eines Störgeräusches angehoben wird. Nach Abschalten des Störgeräusches sinkt die Schwelle wieder auf ihren Normalwert ab. Diese Absenkung erfolgt aber nicht simultan sondern verzögert. Infolge der Nachverdeckung (oder Nachmaskierung) wird die Ruhehörschwelle in Abhängigkeit vom Störgeräuschpegel erst nach etwa 200 ms erreicht (Zwicker u. Feldtkeller 1967). Bei innenohrbedingten Hörstörungen sind diese Zeiten länger, d. h. die Fähigkeit, in die Lücken eines nichtstationären, amplitudenmodulierten Störgeräusches »hineinzuhören«, geht verloren. Dies ist einer der Gründe dafür, dass es Personen mit Schallempfindungsschwerhörigkeit schwerer fällt als Normalhörenden, z. B. eine Durchsage in einer von pulsartigem Lärm und Nachhall erfüllten Bahnhofshalle zu verstehen.
15.2.3 Tonschwellenaudiometrie
Historischer Vorgänger der heutigen Tonaudiometrie war die Prüfung des Gehörs mit Hilfe von Stimmgabeln. Sie liefert zwar keine quantitativen Ergebnisse, doch lässt sich mit ihrer Hilfe die Frequenzabhängigkeit einer Hörstörung und ggf. eine Progredienz feststellen. Zu einem anderen Zweck hat die Stimulation des Gehörs mit Stimmgabeln noch heute einen festen Platz in der Audiometrie: Die schwingende Stimmgabel führt, wenn ihr Fuß auf den Schädelknochen aufgesetzt wird, zu einer Reizung des Innenohres über Knochenleitung. Es zeigt sich nun, dass bei einseitigen Hörstörungen eine krankheitsspezifische Lateralisation des Höreindrucks auftritt (Weber-Test): Im Falle einer Innenohrschwerhörigkeit hört der Proband die auf Stirn oder Scheitel aufgesetzte Stimmgabel im gesunden Ohr, hingegen wird der Ton bei Schallleitungsstörungen auf die kranke Seite lateralisiert. Zur Erklärung dieses bisher nicht befriedigend gedeuteten Phänomens werden verschiedene Effekte vorgeschlagen: Erstens ist die Abstrahlung der dem Innenohr zugeführten Schallenergie bei Schallleitungsstörungen infolge der unterbrochenen Luftleitungsverbindung behindert und zweitens könnte das deprivierte Innenohr an geringere Schallintensitäten adaptiert und daher empfindlicher sein als das gesunde Ohr. In einem weiteren Stimmgabelversuch wird die Schallzuführung über Knochenleitung mit der über Luftleitung verglichen (Rinne-Test): Der Fuß der schwingenden Stimmgabel wird zunächst auf den Warzenfortsatz (Mastoid) aufgesetzt. Sobald sie vom Patienten nicht mehr wahrgenommen wird, hält der Untersucher die noch schwingenden Zinken der Stimmgabel vor den Gehörgangseingang. Der innenohrschwerhörige Patient kann im Gegensatz zum Patienten mit konduktiv bedingter Hörstörung den Ton nun wieder hören. Weber- und Rinne-Test dienen somit als Orientierungshilfen zur qualitativen Unterscheidung zwischen Schallleitungs- und Schallempfindungsschwer-
231 15.2 · Psychoakustik und subjektive Audiometrie
hörigkeiten. Bei kombinierten Mittelohr- und Innenohrstörungen sind die Ergebnisse beider Tests nicht eindeutig interpretierbar, ebenso wie der Weber-Test bei beidseitiger Hörstörung nicht aussagekräftig ist. Der für das Erreichen der normalen Hörschwelle erforderliche Schalldruckpegel ist in hohem Maße von der Frequenz abhängig (⊡ Abb. 15.7): Bei 50 Hz liegt er um 40 dB höher als bei 2 kHz. Für die Audiometrie ist die Verwendung einer Skala, in der die Hörschwelle des Normalhörenden von der Frequenz abhängt, nicht sehr praktisch. Deshalb sind die Skalen der für die Hörschwellenbestimmung verwendeten Geräte (Audiometer) so geeicht, dass jeder Ton unabhängig von seiner Frequenz vom Normalhörenden gerade eben wahrgenommen wird, wenn der Pegelsteller auf 0 dB steht. Diese frequenzabhängige Transformation hat die Folge, dass die Hörschwellenkurve des normalhörenden Ohres einer horizontalen Linie im Frequenz-Pegel-Diagramm entspricht. Die solchermaßen geeichten Schallpegel werden in der Einheit dB HL (hearing level) angegeben. Die Angabe L=40 dB HL bedeutet also unabhängig von der Frequenz, dass der Pegel des Tons 40 dB oberhalb der Normalschwelle liegt. Physikalisch hat ein 40 dB HL-100 Hz-Ton einen um etwa 20 dB höheren Pegel (bzw. einen 10-mal höheren Schalldruck) als ein 40 dB HL-1 kHz-Ton. Außer der dB SPL- und der dB HL-Skala wird in der Audiometrie – und zwar zur Angabe überschwelliger Schallpegel – häufig die Einheit dB SL (sensation level) verwendet. Diese Maßeinheit hängt somit vom Messobjekt (also dem untersuchten Ohr) ab. Ein 1000-Hz-Ton mit einem Pegel von 10 dB SL liegt definitionsgemäß 10 dB oberhalb der 1000-Hz-Hörschwelle des untersuchten Ohres. Auf ein anderes Ohr bezogen ist demselben Ton i. Allg. ein anderer dB SL-Pegel zugeordnet. Vor allem in der überschwelligen Audiometrie und bei der Angabe von Reflexschwellen ist diese Pegelangabe gebräuchlich und nützlich. Die Ermittlung der Hörschwelle – d. h. des niedrigsten gerade noch wahrnehmbaren Schallpegels – ist mit einigen Schwierigkeiten verbunden. Eine der Schwierigkeiten beruht darauf, dass das wesentliche Merkmal des niedrigsten eben wahrnehmbaren Pegels die maximal ungewisse Wahrnehmung ist und es daher dem Patienten schwer fällt, zuverlässige Angaben über seine Hörempfindung zu machen. Auch wenn die Voraussetzung eines ausreichend ruhigen Untersuchungsraumes (Einhaltung der Störschallpegelgrenzwerte nach DIN ISO 8253) erfüllt ist, fordert die Hörschwellenmessung vom Patienten viel Kooperationsbereitschaft, Konzentration und Geduld. Die Genauigkeit der Ergebnisse hängt entscheidend von diesen Faktoren ab. Bei ungenügender Kooperationsfähigkeit oder -bereitschaft ist die Durchführung subjektiver Hörprüfungen nicht möglich. Ein weiteres Problem bei der Schwellenermittlung besteht darin, dass die Schwelle eines Ohres bestimmt werden soll, der Patient aber i. Allg. zwei
hörende Ohren hat. Dem wird dadurch Rechnung getragen, dass die Reize über Kopfhörer und nicht im freien Schallfeld angeboten werden. Trotzdem kann der Prüfton im gegenseitigen Ohr wahrgenommen (übergehört) werden, ohne dass Patient und Untersucher sich dessen bewusst sind. Hier kann jedoch durch die Vertäubung des Gegenohres in den meisten Fällen die richtige Schwelle gefunden werden. In der praktischen Audiometrie kann die Hörschwellenermittlung nicht nach den strengen, in der experimentellen Psychoakustik gültigen Maßstäben erfolgen. Für diagnostische Zwecke wird eine Genauigkeit von ±5 dB als ausreichend angesehen. Dementsprechend beträgt bei den meisten Audiometern die minimale Schrittweite für die Variation des Ausgangspegels 2,5 dB. Bei -10 dB HL beginnend erhöht der Untersucher den Pegel des kontinuierlichen oder gepulsten Testtons bis der Patient eine Hörempfindung anzeigt, z. B. durch Betätigung der Antworttaste. Der in diesem Moment wirksame Reizpegel liegt i. Allg. bereits einige dB über der Hörschwelle. Dies wird entweder durch eine pauschale Korrektur berücksichtigt oder die Schwelle durch Verringerung der Intensität zunächst wieder unterschritten und durch mehrmalige Wiederholung dieser Prozedur genauer eingegabelt. Das Reintonaudiogramm enthält die Schwellen bei den Frequenzen 100 Hz bis 10 kHz in Oktav- oder Halboktavabständen, für die Untersuchung des erweiterten Hochtonbereiches wird die Frequenz in kleineren Schritten bis 16 kHz erhöht. Konventionsgemäß wird der Reizpegel im Tonaudiogramm nach unten aufgetragen, sodass die Hörschwellenkurve eines normalhörenden Ohres weiter oben liegt als die eines Schwerhörigen (⊡ Abb. 15.8). Die mit dem dB HL-Wert identische Differenz zwischen gemessener Hörschwelle und Normalwert wird auch als Hörverlust (hearing loss) bezeichnet. Neben der beschriebenen Luftleitungskurve (LL) gehört zum Tonschwellenaudiogramm auch die Hörschwelle bei Reizung über Knochenleitung (KL). Auf den Warzenfortsatz (das Mastoid) hinter der Ohrmuschel wird ein Vibrationshörer (Knochenhörer) aufgesetzt. Wenn Kontaktfläche und Andruckkraft den vorgesehenen Werten entsprechen, wird eine definierte Schallintensität über den Knochen in das Innenohr übertragen. Auf diese Weise kann die Innenohrfunktion unter Umgehung der Schallzuführung über Gehörgang, Trommelfell und Mittelohr geprüft werden. Die Kalibrierungen von Luft- und Knochenhörer sind derart aufeinander abgestimmt, dass die zwei Schwellenkurven bei intakter physiologischer Schalleitung miteinander übereinstimmen. Die Knochenleitungsschwelle kann nur für Frequenzen oberhalb 250 Hz zuverlässig gemessen werden, da bei niedrigen Frequenzen vor Erreichen der ohnehin tiefer liegenden Leistungsgrenze der KL-Reiz nicht nur gehört, sondern auch gefühlt wird (⊡ Abb. 15.8, F). Auch bei hohen Frequenzen oberhalb 6 kHz ist die Bestimmung der Knochen-
15
232
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 15.8. Reintonaudiogramme bei Normalgehör (A), TieftonMittelohrschwerhörigkeit (B), kombinierter Schallleitungs- und Schallempfindungsschwerhörigkeit (C), pancochleärer Schallempfindungsschwerhörigkeit (D), zwei Stadien einer lärmbedingten Innenohr-
schwerhörigkeit (E) und Taubheit bzw. Hörrestigkeit mit Fühlwerten für Knochenleitung im Tieftonbereich (F) (left corner audiogram). Außer in Bild E sind jeweils die Schwellen für Luft- und Knochenleitung eingezeichnet
leitungsschwelle problematisch, weil der Knochenhörer mit steigender Frequenz zunehmend auch Luftschall abstrahlt, der das Ohr über die Schallleitungskette erreicht und anregt. Zusätzlich zu diesen Effekten ist bei allen Frequenzen die auf das Innenohr übertragene Reizstärke wegen der individuellen Variabilität von Andruckkraft und Hautdicke weitaus weniger reproduzierbar als bei der Luftleitung. Die Genauigkeit der KL-Schwellenbestimmung beträgt unter den für Routineuntersuchungen typischen Bedingungen nur etwa ±10 dB. Der Vergleich von Luft- und Knochenleitungsschwelle gestattet – ähnlich wie der Rinne’sche Stimmgabelversuch – Rückschlüsse auf das Vorliegen von Mittelohrschwerhörigkeiten. Liegt die Schwelle für KL-Reizung deutlich günstiger als die Luftleitungsschwelle (air-bone-gap), so muss die Schallzuführung über Trommelfell und Gehörknöchelchen durch eine pathologische Veränderung des Mittelohres beeinträchtigt sein (⊡ Abb. 15.8, B und C). Die Frequenzabhängigkeit der als Schallleitungs- oder Mittelohrkomponente bezeichneten Schwellendifferenz gibt nähere Auskunft über die Art der Erkrankung: Hat sich infolge einer Mittelohrentzündung in der Paukenhöhle Flüssigkeit angesammelt oder Sekret am Trommelfell abgelagert, so ist die Reibung im Mittelohr oder die Masse des
Schallleitungsapparates erhöht und die LL-Schwelle ist vorwiegend bei hohen Frequenzen angehoben. Im Falle einer Versteifung der Gehörknöchelchenkette werden hingegen niedrige Frequenzen schlechter übertragen. Frakturen oder Luxationen der Gehörknöchelchenkette wirken sich auf den gesamten Frequenzbereich aus, ebenso wie ein Mittelohrblock bei fortgeschrittener Otosklerose (einer durch verhärtete Knochenwucherung im ovalen Fenster bedingten Fixation des Steigbügels). Der in der Differenz zwischen Luft- und Knochenleitungsschwelle zum Ausdruck kommende mittelohrbedingte Hörverlust kann niemals mehr als 50 dB betragen, weil erstens die schallverstärkende Wirkung des Mittelohrapparates auf diesen Wert begrenzt ist und zweitens jeder genügend intensive Luftschall auch die Entstehung von Körperschall bewirkt. Letzteres wird in den folgenden Absätzen näher ausgeführt. Die Reizung des Gehörs über Knochenleitung ist nicht seitenspezifisch, denn sie versetzt unabhängig vom Ort der Anregung den ganzen Schädelknochen in Schwingung. Auch wenn der Knochenhörer auf das Mastoid aufgesetzt wird, betragen Übertragungsverluste zur Gegenseite maximal 10 dB, sodass beide Innenohren mit nahezu der gleichen Intensität stimuliert werden. Doch auch bei Reizgebung über Luftleitung geht ein gewisser
15
233 15.2 · Psychoakustik und subjektive Audiometrie
Anteil der Schwingungsenergie in Knochenschall über und stimuliert damit das Gegenohr gleichermaßen wie das Prüfohr. Für die in der Audiometrie vorwiegend angewendeten geschlossenen supraauralen Kopfhörer liegt die Überhördämpfung bei etwa 50 dB, d. h. erst bei Prüftonpegeln LP≥50 dB HL wird Knochenschall erzeugt und mit der Intensität LP−50 dB auch im gegenseitigen Innenohr wirksam. Wenn dieses Innenohr die bessere Hörleistung aufweist, wird der langsam lauter werdende Prüfton zuerst hier wahrgenommen. Aufmerksame Patienten werden bei der Schwellenbestimmung zwar angeben, dass die Wahrnehmung auf der Gegenseite erfolgte, aber damit ist noch nicht die Schwelle des Prüfohres bestimmt. Das Mithören des Gegenohres kann verhindert werden, indem es durch ein über Luftleitung dargebotenes Geräusch künstlich schwerhörig gemacht (vertäubt) wird. Hierzu werden meist Schmalbandgeräusche (Terzbandrauschen) verwendet, die den übergehörten Sinuston verdecken (maskieren) und sich vom Prüfreiz im Charakter genügend unterscheiden, um nicht mit ihm verwechselt zu werden. Die Vertäubung geschieht immer über Luftleitung, da ein über Knochenleitung angebotenes Rauschen beide Ohren gleichermaßen ausschalten würde. Die Vertäubung des Gegenohres erfüllt nur dann ihren Zweck, wenn der im nicht geprüften Innenohr wirksame Pegel des Maskierers den übergehörten Pegel des Prüftones (LP−50 dB) übertrifft. Damit ist für den minimalen Vertäubungspegel LV eine untere Grenze definiert. Da der über Luftleitung angebotene Maskierer das vertäubungsseitige Mittelohr passieren muss, ist diese Grenze nur dann hoch genug, wenn dieses Mittelohr eine normale Funktion aufweist (auf dem Vertäubungsohr also kein Schallleitungsverlust vorliegt). Ist dies nicht der Fall, so liegt der Vertäubungspegel möglicherweise (aber nicht zwangsläufig) unter der Luftleitungsschwelle des Vertäubungsohres und er muss um den Betrag der (vertäubungsseitigen) Mittelohrdämpfung DV erhöht werden, um den Verlust auszugleichen und eine ausreichende Verdeckungswirkung zu erzielen: LV ≥ LP − 50dB + DV
(15.4)
Die in DV zum Ausdruck kommende Mittelohrkomponente des Vertäubungsohres kann maximal 50 dB betragen. In diesem Fall ergibt sich LV≥LP. Da DV zum Zeitpunkt der Untersuchung nicht als bekannt vorausgesetzt werden kann und ein zu niedriger Vertäubungspegel meistens schwerer wiegt als eine zu starke Vertäubung, kann man in der Praxis vom Extremfall einer maximalen Mittelohrkomponente auf dem Vertäubungsohr ausgehen (DV=50 dB) und erhält so die sehr praktikable und in den meisten Fällen richtige Vertäubungsregel: falls LP ≥ 50 dB LV ≈ L P IDOOV (für Prüfung in Luftleitung)
Vertäubungs- und Prüftonpegel sind also einander gleich und werden bei der Schwellenbestimmung gemeinsam erhöht. Es ist wichtig darauf hinzuweisen, dass die in den Gleichungen (4) und (5) empfohlenen Vertäubungspegel Minimalwerte sind, bei denen die Verdeckungswirkung gerade beginnt. Wird der Prüfton noch immer übergehört, so kann der Vertäubungspegel vorsichtig um einige dB erhöht werden. Wenn aber das Prüfohr einen mittelohrbedingten Hörverlust aufweist, besteht die Gefahr der Übervertäubung, d. h. der mit 50 dB Verlust auf den Knochen übergehende Maskierer überschreitet die Knochenleitungsschwelle des Prüfohres obwohl dessen Luftleitungsschwelle noch oberhalb von LP liegt4. Der Patient muss daher angewiesen werden, nur auf die Prüftöne zu achten und das Rauschen im Gegenohr (evtl. auch im Prüfohr) zu ignorieren. Etwas andere Vertäubungsregeln müssen bei der Ermittlung der Knochenleitungsschwelle angewendet werden. Hier geht der Prüfton nahezu ohne Verluste auf das Gegenohr über, d. h. es liegt immer – und nicht erst oberhalb von 50 dB – auch im gegenseitigen Innenohr ein Reiz des Pegels LP vor. Die Hörempfindung entsteht dann im besser hörenden Innenohr. Der für die Kopfhörerkapsel des Gegenohres eingestellte Vertäubungspegel muss daher so hoch gewählt werden, dass er im Innenohr mindestens den Wert LP ergibt, d. h. LV≥LP bei intaktem Mittelohr und LV≥LP+50 dB bei vollständiger Schallleitungsstörung auf der Vertäubungsseite. Die allgemeine Regel lautet also hier:
LV ≥ L P + DV .
Während bei der Luftleitungsmessung auf der Vertäubungsseite ein vollständiger Mittelohrverlust von 50 dB angenommen werden kann, um eine allgemeingültige und möglichst einfache Vertäubungsregel zu erhalten, ist dies bei der Knochenleitung nicht möglich, denn dann würde sich nach LV ≥ LP + 50 dB ein Vertäubungspegel ergeben, der das Prüfohr mit mindestens der Intensität des Prüftones maskiert (Übervertäubung). Der minimale Vertäubungspegels muss also unter dieser Grenze bleiben. Zugleich muss er den Prüftonpegel übertreffen, denn der Verschluss des vertäubungsseitigen Gehörgangs durch den Kopfhörer erhöht die Empfindlichkeit des dazugehörigen Innenohres (Verschlusseffekt5). Es kann also kein fester Wert, sondern nur ein Bereich für den richtigen Vertäubungspegel angegeben werden: L P + 20 dB ≤ LV ≤ L P + 50 dB (für Prüfung in Knochenleitung)
4
5
(15.5)
(15.6)
(15.5)
Aus diesem Grund kann eine beidseitige Mittelohrkomponente von 50 dB tonaudiometrisch nicht exakt bestimmt werden. Wegen dieses Effektes muss auch darauf geachtet werden, dass der Gehörgang des Prüfohres bei der KL-Messung offen bleibt.
234
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Es muss noch einmal betont werden, dass die Regeln (5) und (7) zwar in vielen, aber nicht in allen Fällen richtig sind. Ein ohne Einschränkung gültiges Kriterium für die richtige Wahl des Vertäubungspegels ergibt sich daraus, dass der Schwellenwert isometrisch mit dem Vertäubungspegel ansteigt, solange infolge zu schwacher Vertäubung nicht die Hörschwelle des Prüfohres sondern die Mithörschwelle des Gegenohres gemessen wird. Erst bei genügend hohen contralateralen Maskiererpegeln stabilisiert sich die Schwellenabgabe des Patienten, d. h., sie steigt mit zunehmendem Vertäubungspegel nicht weiter an. Bei diesem Vorgehen ist – wie bei der Vertäubung ganz allgemein – immer darauf zu achten, dass die Unbehaglichkeitsschwelle des Vertäubungsohres nicht überschritten wird.
15.2.4 Überschwellige Hörprüfungen
Alle Hörtests, bei denen mit Hilfe von Schallsignalen oberhalb der (individuellen) Hörschwelle versucht wird, einen pathologischen Lautheitsanstieg nachzuweisen, werden unter dem Begriff »Überschwellige Tests« zusammengefasst. Die einfachste und zuverlässigste Feststellung eines Recruitments lässt sich durchführen, wenn ein Patient nur einseitig von einer Hörstörung betroffen ist, das andere Ohr also normal hört. Der hierzu eingesetzte Fowler-Test6 ist ein interauraler Lautheitsvergleich. Dem Patienten werden Töne gleicher Frequenz und veränderlicher Intensität abwechselnd auf beiden Ohren dargeboten. Bei jedem Paarvergleich wird der Pegel auf dem besser hörenden Ohr so lange nachgeregelt, bis der Patient die Töne auf beiden Ohren mit gleicher Lautstärke wahrnimmt. Diese Pegel werden in die Audiogramme eingezeichnet und durch Linien miteinander verbunden. Verlaufen die Verbindungslinien bei allen Pegeln parallel, so liegt kein Lautheitsausgleich vor, bei zusammenlaufenden Linien ist der Recruitment-Test hingegen positiv: Hier empfindet der Patient hohe Schallintensitäten auf der schwerhörigen und der normalhörenden Seite als gleich laut. Dieser Befund ist gleichbedeutend mit der für endocochleäre Hörstörungen pathognomonischen Feststellung, der Patient habe auf der hörgeschädigten Seite einen eingeschränkten Dynamikbereich. Ebenfalls zum Nachweis des Recruitments – aber ohne die Beschränkung auf einseitig normalhörende Patienten – dient der SISI-Test (short increment sensitivity index). Testgröße ist der (prozentuale) Anteil richtig erkannter 1 dB-Inkremente, mit denen ein überschwelliger Dauerton rechteckförmig moduliert ist. Der Zusammenhang zwischen dieser Testgröße und einem pathologi-
6
In der angelsächsischen Literatur heißt dieser Test ABLB (alternate binaural loudness balance).
schen Lautheitsanstieg ist offensichtlich: Aufgrund der zumindest abschnittsweise steileren Eingangs/AusgangsKennlinie entspricht eine gegebene Pegeldifferenz beim haarzellgeschädigten Ohr einer stärkeren Zunahme der subjektiv empfundenen Lautheit als beim Normalohr (⊡ Abb. 15.6) und ist daher besser erkennbar. Für die Durchführung des SISI-Tests wird eine Prüffrequenz gewählt, bei der der Hörverlust mindestens 40 dB beträgt. Bei geringeren Hörverlusten ist die Anwendung des Tests nicht sinnvoll, weil nur ein stark ausgeprägter Funktionsausfall von äußeren Haarzellen einen pathologischen Lautheitsanstieg zur Folge hat. Der Dauerton wird 20 dB überschwellig eingestellt. In regelmäßigen Abständen von 5 s wird sein Pegel für 0,2 s erhöht. Zur Konditionierung des Patienten werden zunächst 5 dB-Inkremente angeboten, dann beginnt der eigentliche Test mit 1 dBInkrementen. Erkennt der Patient über 70% dieser Inkremente, so wird das als Hinweis auf ein Recruitment und somit eine cochleär bedingte Schwerhörigkeit gewertet. Negative Testergebnisse (unterhalb von 30%) sprechen gegen eine Innenohrschädigung und weisen daher auf eine neurale Ursache der Schwerhörigkeit hin (z. B. eine Verarmung von Hörnervenfasern). Erkennungsraten zwischen 35% und 65% sollten zurückhaltend interpretiert werden, sie könnten auf ungenügende Kooperation des Patienten oder auf die Wahl ungeeigneter Testparameter (Frequenz und Intensität des Reizes) zurückzuführen sein. Die Wahrnehmungsgrenze für Intensitätsänderungen lässt sich auch mit dem in der Durchführung etwas verschiedenen, aber in seinen Aussagen und Ergebnissen sehr ähnlichen Lüscher-Test bestimmen. Hier wird nicht gezählt, wie oft ein kleiner und fest vorgegebener Pegelunterschied vom Patienten richtig erkannt wird, sondern der ebenmerkliche Pegelunterschied wird direkt bestimmt, indem die Inkremente des wiederum auf 20 dB SL eingestellten Dauertones von 4 dB ausgehend bis hinab zu 0,2 dB solange verringert werden, bis der Patient keine Lautstärkeschwankungen mehr wahrnimmt. Die Geräuschaudiometrie nach Langenbeck ist ein weiteres Verfahren, mit dem ein Recruitmentäquivalent nachgewiesen werden kann. Bei diesem Test wird für mehrere Frequenzen die Mithörschwelle eines Sinustones im schmalbandigen Störgeräusch ermittelt. Die Wahrnehmung eines Tones im gleichzeitig vorliegenden Störgeräusch stellt eine Leistung dar, die der Wahrnehmung kleiner und kurzzeitiger Lautstärkeerhöhungen sehr ähnlich ist. Daher kann durch die Messung der Mithörschwelle eine ausgeprägte Empfindlichkeit für Pegelunterschiede nachgewiesen werden. Das Prinzip des Langenbeck-Tests besteht darin, diese Mithörschwelle bei mehreren Frequenzen mit unterschiedlich stark ausgeprägtem Hörverlust zu messen. Dadurch können die Pegelunterscheidungsschwellen geschädigter und ungeschädigter Bereiche desselben Innenohres miteinander verglichen werden. Für den Test geeignet sind Ohren mit sensorineuraler Hoch-
235 15.2 · Psychoakustik und subjektive Audiometrie
tonsenke oder Hochtonabfall, soweit im Tieftonbereich eine annähernd normale Hörschwelle vorliegt. Der Pegel des maskierenden Breitband- oder Schmalbandrauschens wird je nach Audiogramm auf einen festen Wert zwischen 45 und 75 dB eingestellt. Niedrigere Pegel sind aus physiologischen Gründen (Arbeitsbereich der äußeren Haarzellen) nicht sinnvoll, höhere Geräuschpegel können eine Hörermüdung und dadurch verfälschte Ergebnisse zur Folge haben. Dem Terzbandrauschen wird ein zunächst unhörbarer Sinuston niedriger Frequenz beigemischt. Bei langsamer Erhöhung des Testtonpegels wird die vom Patienten angegebene Wahrnehmungsschwelle registriert. Nach Erhöhung der Tonfrequenz (wie auch der Mittenfrequenz des Rauschens) wird eine weitere Mithörschwelle bestimmt. Nähert sich die Frequenz dem von der Hörstörung betroffenen Bereich, so wirkt sich das im Fall eines pathologischen Lautheitsanstiegs nicht auf die Lage der Mithörschwelle aus. Dieses Einmünden der Mithörschwelle in die Ruhehörschwelle ist das Merkmal einer sensorisch bedingten Hörstörung. Im Fall einer neural bedingten Hörstörung hingegen weicht die Mithörschwelle der Ruhehörschwelle aus, d. h. die Mithörschwelle ist in dem von der Hörstörung betroffenen Frequenzbereich angehoben. Dies ist zu erwarten und plausibel, wenn der retrocochleären Störung eine derart ausgeprägte Verarmung von Hörnervenfasern zugrunde liegt, dass die Kapazität zur Informationsübertragung bereits bei der Verarbeitung von hörschwellennahen Reintönen erschöpft ist. Der diagnostische Nutzen von SISI- und LangenbeckTest besteht darin, dass sie auf Recruitmentäquivalente empfindlich sind und dadurch das Fehlen einer natürlichen Dynamikkompression anzeigen. Sie erteilen aber keine qualitative Auskunft über das Ausmaß dieser Fehlfunktion – im Gegensatz zum Fowler-Test, dessen Nachteil aber darin besteht, dass er nur bei einseitig normalhörenden Patienten anwendbar ist. Als Alternative steht ein quantitativer und bei allen Patienten anwendbarer RecruitmentTest zur Verfügung: die unter diversen Bezeichnungen (u. a. »Würzburger Hörfeldskalierung«, »KU-Lautheitsskalierung«, »Hörfeldaudiometrie«und »Oldenburger Hörfläche«) bekannt gewordene direkte Skalierung der Kategoriallautheit nach Heller, Moser und Hellbrück7. Bei diesem Verfahren skaliert der Patient seine subjektive Lautstärkeempfindung, indem er den angebotenen Reizen verbale Kategorien zuordnet, die von »Nicht gehört« bis »Zu laut« reichen (⊡ Abb. 15.9) und in einer numerischen Skala weiter unterteilt werden können. Mittenfrequenz und Pegel der Schmalbandpulse decken möglichst das ganze Hörfeld von 250 Hz bis 8 kHz ab und werden randomisiert angeboten. Der Untersucher erhält für jede geprüfte Frequenz eine Pegel-Lautheits-Kennlinie. Aus der Gesamtheit dieser
⊡ Abb. 15.9. Lautstärkeskalierung bei einem normalhörenden und einem innenohrschwerhörigen Patienten (schematisch). Die 7 verbalen Lautstärkekategorien entsprechen 50 numerischen KU-Einheiten (Kategorien-Unterteilung)
psychometrischen Funktionen lassen sich Isophonen konstruieren und als individuelles Hörfeld in das Audiogramms eintragen. Der Schnittpunkt der einzelnen Pegel-Lautheits-Funktion mit der Abszisse entspricht der Hörschwelle, der mit »Zu laut« bewertete Pegel der Unbehaglichkeitsschwelle. Liegt ein pathologischer Lautheitsanstieg vor, so verläuft die Kennlinie sehr steil, d. h. der horizontale Abstand zwischen der individuellen Kurve und dem Normalwert nimmt mit zunehmendem Pegel ab. Dieser horizontale Abstand entspricht dem pegel- und frequenzabhängigen Verstärkungsbedarf, der somit unmittelbar als Ausgangswert für die Einstellung von Verstärkung und Kompression eines Hörgerätes genutzt werden kann. Das Vorliegen einer pathologisch veränderten Adaptation wird geprüft, indem das Ohr mit schwach überschwelligen Dauertönen stimuliert und der niedrigste Pegel aufgesucht wird, bei dem der Ton mindestens 30 s lang hörbar bleibt (Schwellenschwundtest nach Carhart). Liegt dieser Pegel bis zu 10 dB über der Hörschwelle, so wird die Adaptation noch als normal gewertet. Liegt der Schwellenschwund zwischen 15 und 25 dB, so spricht dies gemeinsam mit anderen Indikatoren (Recruitment) für eine Innenohrschädigung (pathologische Adaptation). Schwellenabwanderungen von mindestens 30 dB werden als Hörermüdung bezeichnet (obwohl es sich um ein Adaptationsphänomen handelt) und als Hinweis auf eine neurale Hörstörung gewertet.
15.2.5 Sprachaudiometrie 7
Die kategoriale Lautheit ist von der in Abschn. 15.2.1 beschriebenen Verhältnislautheit zu unterscheiden.
Das Verstehen von Sprache stellt höchste Anforderungen an die Leistungsfähigkeit des Hörsystems. Sprachsignale
15
236
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
weisen sich daher nicht a priori als besonders geeignete Reize für Hörprüfungen aus. Wegen ihrer Komplexität würde die Verwendung von Sprachreizen bei vielen Hörstörungen und Fragestellungen eher zu einer Verschleierung als zu einer Aufklärung der Krankheitsursache beitragen. Wenn die Aufgabe eines Hörtests jedoch darin besteht, die in der sprachlichen Kommunikation auftretende Behinderung zu beurteilen oder die durch eine Hörprothese erreichte Wiederherstellung der lautsprachlichen Kommunikationsfähigkeit zu überprüfen, so ist die Verwendung von Sprache als Testmaterial unerlässlich. Die Komplexität der Sprache bringt noch eine weitere Schwierigkeit mit sich: Anders als bei den elementaren Reizen, die in anderen Bereichen der Audiometrie verwendet werden, wirken sich in der Sprachaudiometrie nicht nur das Hörvermögen, sondern auch die intellektuellen Fähigkeiten sowie die Muttersprache und der Wortschatz des Probanden sehr stark auf das Untersuchungsergebnis aus. Es kann keinen universellen Sprachdiskriminationstest geben, mit dem einerseits der Effekt des binauralen Hörens auf die Spracherkennungsleistung junger normalhörender Probanden und andererseits die Fortschritte eines gehörlos geborenen und spät versorgten CI-Trägers ( Abschn. 15.4) erfasst werden können. Daher gehören zur Sprachaudiometrie sehr viele Tests, die sich in ihrem Anwendungsbereich und ihrer Aussagekraft unterscheiden. Gemeinsames Merkmal aller Sprachtests ist, dass mit ihnen die Fähigkeit des Probanden zur Erkennung (Perzeption) von sprachlichen Lauten geprüft wird8. Wenn die Sprachperzeption in irgendeiner Form von Schallpegeln abhängt, so lässt sich – ebenfalls bei allen Sprachtests – eine psychometrische Diskriminationsfunktion definieren, die die Testergebnisse wiedergibt und den Vergleich verschiedener Testverfahren ermöglicht. Die Fähigkeit zur Perzeption und Diskrimination von Sprache kann nur bei Berücksichtigung ihrer akustischen Eigenschaften in audiologische Zusammenhänge eingebettet werden. Daher folgt hier eine kurze Beschreibung der physikalischen Merkmale der Signale, die von den menschlichen Organen zur Phonation (Erzeugung von Stimme) und Artikulation (Erweiterung der Stimme zur informationstragenden Sprache) erzeugt und vom Hörsystem empfangen und verwertet werden. Die einfachsten Grundelemente der Sprache (Phoneme) sind die Vokale, die durch einen periodischen, aus dem Grundton (er entspricht der Stimmhöhe) und zwei oder mehr Obertönen (Formanten) zusammensetzten Schwingungsverlauf gekennzeichnet sind. Die Lage der Formanten ist für jeden Vokal charakteristisch, sie variiert nur geringfügig mit der Stimmhöhe und von Sprecher zu Sprecher. Der Formant F1 liegt im Bereich um 500 Hz, F2 zwischen 1 und 2 kHz und die hö8
Meistens kommt es hierbei nur auf die linguistische und nicht die semantische Erkennung an (obwohl die semantische Erkennung eines Testwortes seine korrekte linguistische Wiedergabe sehr unterstützt).
heren, für das Verstehen der Vokalen weniger bedeutsamen Formanten F3 und F4 zwischen 2 und 4 kHz. Die Konsonanten können nicht durch so einfache Merkmale beschrieben werden. Soweit charakteristische Frequenzen definiert werden können, liegen diese im Bereich der Formanten F3 und F4. Anders als die immer mit einer Phonation einhergehenden Vokale können Konsonanten stimmlos und stimmhaft sein. Stimmlose Konsonanten (f, ss, p, t, k) entstehen bei nicht schwingenden Stimmlippen durch Verengungen im Ansatzrohr, die zur Beschleunigung der Luftströmung und damit zur Wirbelbildung Anlass geben. Bei stimmhaften Konsonanten (l, m, n, r) überlagern sich diese Mechanismen mit der Stimmlippenschwingung. In der Phonetik werden die Konsonanten weiterhin nach ihrem Artikulationsort (bilabiale, dentale, velare Laute etc.) und der Artikulationsart (plosive, frikative, liquide Laute etc.) unterschieden. Viele Konsonanten entsprechen einem frequenzmäßigen Übergang zum vorangegangenen oder nachfolgenden Vokal (Transienten). Ein und derselbe Konsonant kann, je nachdem, mit welchem Vokal er als Anlaut, Inlaut oder Auslaut in Verbindung steht, ganz verschiedene Frequenzen enthalten. Transienten und Formanten sind im Spektrogramm (auch als Sonagramm bezeichnet) erkennbar, einem Diagramm zur Darstellung von Frequenz und Intensität des Sprachsignals in Abhängigkeit von der Zeit (⊡ Abb. 15.10). Anwendung finden die in der Abbildung gezeigten Diagramme sowohl in der technischen als auch in der phoniatrischen (stimmärztlichen) Sprachanalyse. Frequenz und Intensität der Sprachbestandteile können grob ins Tonaudiogramm übertragen werden, um die Auswirkung von Schwerhörigkeit auf das Sprachverstehen abzuschätzen (⊡ Abb. 15.11). Bei einem Hochtonhörverlust wird die Erkennung vieler Konsonanten (v. a. der Zischlaute) am stärksten in Mitleidenschaft gezogen. Bei ausgeprägten Tieftonschwerhörigkeiten werden nur die Grundtöne, die der für das Sprachverständnis nicht sehr wichtigen Stimmhöhe entsprechen, nicht richtig wahrgenommen. Betrifft die Schwerhörigkeit alle Frequenzen gleichermaßen und beträgt der Hörverlust 40 bis 50 dB, so werden zwar die Vokale und sehr starke Zischlaute, nicht aber die leisen Konsonanten richtig verstanden. Das bei vielen Innenohrschwerhörigkeiten auftretende pathologische Lautheitsempfinden hat die Folge, dass leise Sprachelemente gar nicht oder zu schwach, die lauteren Anteile hingegen deutlich oder gar als unangenehm laut wahrgenommen werden. Die Probleme, die sich für den Schwerhörigen aus der Zeitabhängigkeit von Sprachsignalen – insbesondere aus den schnellen Übergängen zwischen lauten Vokalen und leisen Konsonanten – ergeben, können in diesem Diagramm nicht dargestellt werden. Für die Sprachaudiometrie wird Testmaterial verwendet, dessen Auswahl sich an der Zielsetzung orientiert: Eine rudimentäre Perzeptionsleistung lässt sich nur erfassen, wenn das Testmaterial genügend Redundanz enthält,
15
237 15.2 · Psychoakustik und subjektive Audiometrie
⊡ Abb. 15.10. Oszillogramm (oben) und Spektrogramm (unten) des Wortes »Straße« (männlicher Sprecher)
⊡ Abb. 15.11. Projektion des für Umgangssprache relevanten Frequenzund Pegelbereiches (»Sprachfeld« nach Fant) ins Tonaudiogramm
wie es z. B. bei semantisch sinnvollen Sätzen der Fall ist. Das andere Extrem sind nahezu redundanzfreie einsilbige Testwörter. Zwischen diesen Extremen liegen die im Freiburger Sprachverständlichkeitstest nach DIN 45621 verwendeten Zahlwörter, bei denen die Antworten des Probanden einem bekannten und sehr begrenzten Antwortinventar entstammen. Liegt das Sprachmaterial fest, so kann der Schwierigkeitsgrad des Tests noch dadurch beeinflusst werden, dass Antwortalternativen angeboten werden. Um den Test bei einem Probanden mehrmals durchführen zu können ohne die Verfälschung der Ergebnisse durch Lerneffekte befürchten zu müssen, muss das Material in äquivalente Testlisten aufgeteilt sein (die z. B. jeweils 10 Alltagssätze oder 20 einsilbige Testwörter
enthalten). Unabhängig von der Zielsetzung sollte das Testmaterial eine sprachstatistisch repräsentative Verteilung der Phonemhäufigkeit aufweisen. Die Darbietung einer Gruppe bzw. Liste der auf einem Tonträger gespeicherten Test-items geschieht über Kopfhörer oder Lautsprecher, wahlweise mit einem gleichzeitig dargebotenen definierten Störgeräusch. Der Proband wird aufgefordert, das item (Wort oder Satz) nachzusprechen oder aus vorgegebenen Antwortalternativen auszuwählen, der Untersucher zählt die Anzahl richtiger Antworten. Das Untersuchungsergebnis besteht in der (prozentualen) Angabe richtig wiedergegebener Testworte in Abhängigkeit vom absoluten oder relativen (auf den Störgeräuschpegel bezogenen) Sprachpegel. Der Zusammenhang zwischen Reizpegel (bzw. Pegeldifferenz) und dem Anteil richtiger Antworten (Sprachverständlichkeitsindex) wird als Diskriminationsfunktion (performance-intensity function) bezeichnet. Sie zeigt einen stufenförmigen Verlauf und lässt sich mit ausreichender Genauigkeit durch zwei Parameter beschreiben: den Pegel (bzw. das Signal/Rausch-Verhältnis) L50, bei der die Wahrscheinlichkeit für eine richtige Antwort 50% beträgt, und die Steigung s50 an dieser Stelle (⊡ Abb. 15.12). Für die mathematische Beschreibung wird häufig die folgende logistische Modellfunktion verwendet: 1
p( L ) = 1+ e
−
L − L50 u
mit u = PLW
1 4 s 50
(15.8)
Im deutschsprachigen Raum wird für die praktische Audiometrie heute noch immer vorwiegend der im Jahre 1957 von Hahlbrock eingeführte Freiburger Test angewendet. Das Testmaterial besteht aus zweistelligen Zahlen und einsilbigen Wörtern, die in phonetisch ausgeglichenen Gruppen (10 aus je 10 Zahlwörtern bzw. 20 aus je 20 Einsilbern bestehende Listen) angeordnet sind und von einem geschulten Sprecher aufgesprochen wurden.
238
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 15.12. Die Zunahme des Anteils richtig wiedergegebener Test-Items mit steigendem Reizpegel bzw. Signal/Rausch-Verhältnis wird durch eine sigmoide psychometrische Funktion beschrieben ( Gl. 15.8)
Unterhalb eines gewissen Sprachpegels (10 dB SPL für Zahlwörter und 15 dB SPL für Einsilber) wird vom Normalhörenden keines der Testwörter richtig verstanden. Mit zunehmender Lautstärke nimmt der Anteil richtig verstandener Worte zu und erreicht schließlich 100% bei etwa 30 dB SPL (Zahlwörter) bzw. 50 dB SPL (Einsilber). Ein 50%-iges Zahlwörterverständnis erzielen Normalhörende durchschnittlich bei einem Schallpegel von 18,5 dB, die Steigung s50 beträgt hier etwa 5%/dB. Wegen der großen Redundanz der Zahlwörter verläuft die Diskriminationskurve sehr steil. Aus demselben Grund beeinflussen Hörstörungen nur die Lage, nicht jedoch die Gestalt der Diskriminationskurve. Die Auswirkung einer Hörstörung lässt sich also durch die Differenz aus dem beim Schwerhörigen bestimmten L50 und dem Normalwert vollständig beschreiben. Diese Differenz wird als Hörverlust für Sprache bezeichnet. Weil die richtige Wahrnehmung der niedrigen Vokalfrequenzen für das Zahlwörterverstehen bereits ausreicht, korreliert dieser Sprachhörverlust gut mit der im Tieftonbereich vorliegenden Hörschwelle. Ein reiner Hochtonverlust wirkt sich hingegen auf die Diskriminationskurve für Zahlwörter nahezu nicht aus. Die Einsilberkurve ist gegenüber der Zahlwörterkurve zu höheren Pegeln verschoben und sie verläuft flacher. Beides ist darauf zurückzuführen, dass für die richtige Erkennung der Testwörter nicht nur die lauten Vokale, sondern auch die leiseren Konsonanten wichtig sind. Hörstörungen wirken sich hier nicht nur auf die Lage, sondern auch auf die Gestalt der Diskriminationskurve aus. Es ist daher nicht sinnvoll, sie durch ihre Verschiebung zu charakterisieren. Besonders bei ausgeprägten Hochtonhörverlusten verläuft die Kurve wegen der erschwerten Erkennung der hohen Konsonanten sehr flach. Häufig wird dann bis zum Erreichen der Unbehaglichkeitsschwelle kein 100%-iges Einsilberverstehen erzielt, d. h., es liegt ein
Diskriminationsverlust vor. In seltenen Fällen nimmt die Sprachdiskrimination, nachdem sie einen Maximalwert erreicht hat, zu höheren Pegeln wieder ab (roll-off). Diskriminationsverlust und die bei einem Sprachpegel von 65 dB SPL erhaltene Sprachverständlichkeit sind die wichtigsten mit dem Einsilbertest erhaltenen Messgrößen. Der standardisierte Freiburger Sprachverständlichkeitstest wird insbesondere bei der Indikation von Hörgeräten und die spätere Erfolgskontrolle sowie als Maß für die Berechnung der MdE (Minderung der Erwerbsfähigkeit) bei berufsbedingt erworbenen Hörstörungen eingesetzt. Er weist einige Nachteile auf, die zur Entwicklung weiterer Sprachtests geführt haben: ▬ Bei hochgradig Schwerhörigen oder mit einem Cochlea-Implantat versorgten Patienten liefert er keine verwertbaren Ergebnisse. ▬ Die Testlisten sind phonetisch nicht ausgewogen und in Hinblick auf den Schwierigkeitsgrad nicht miteinander äquivalent. ▬ Die Prüfung des Sprachverstehens im Störgeräusch ist nicht standardisiert. ▬ Der Proband muss mit der deutschen Sprache vertraut sein. ▬ Der Testablauf ist nicht automatisierbar, da die Antwort des Patienten vom Untersucher ausgewertet wird. ▬ Die Antwort des Probanden wird nur als richtig oder falsch bewertet, eine Auswertung der Phonemverwechslungen ist nicht möglich. ▬ Das Fehlen eines Ankündigungsreizes hat eine unangemessen hohe Quote falscher Antworten zur Folge. Wegen dieser Nachteile sind weitere Sprachverständlichkeitstests entwickelt und erprobt worden. Die Problematik bei der Untersuchung des Sprachverstehens resthöriger Patienten besteht darin, dass der Zahlwörtertest in vielen Fällen zwar zu bewältigen ist aber keiner realistischen Hörsituation entspricht, wohingegen der Einsilbertest sich als zu schwierig erweist. Für diesen Einsatzbereich ist nur ein geschlossener Test (bei dem der Proband das Test-item aus einer Liste von möglichen Antworten bezeichnet) oder ein offener Test mit redundantem Sprachmaterial (z. B. bedeutungstragende Sätze) geeignet. Dem zuletzt genannten Konzept entspricht der Oldenburger Satztest (Wagener u. Kollmeier 2005), dessen Testmaterial aus Sätzen besteht, die aus 5 Wörtern (Eigenname, Verb, Zahlwort, Adjektiv und Objekt) zusammengesetzt sind (z. B. »Doris malt neun nasse Sessel«). Jedes der 5 Wörter entstammt einem Vorrat aus 10 Alternativen, aus denen die Sätze nach dem Zufallsprinzip zusammengestellt werden. Dadurch wird die Wiedererkennung eines Testsatzes unwahrscheinlich und die Zahl der verwendbaren Testlisten vergrößert. Die Diskriminationsfunktion des Oldenburger Satztests weist an der Sprachverständlichkeitsschwelle L50 eine Steigung von 17 bis 20%/dB auf, sodass die Sprachver-
239 15.2 · Psychoakustik und subjektive Audiometrie
ständlichkeitsschwelle auch im Störgeräusch mit hoher Genauigkeit bestimmt werden kann. Allgemein kann bei allen Sprachverständlichkeitstests die Untersuchungsdauer durch die Optimierung von Testmaterial und -strategie reduziert werden. Der Zeitbedarf ist proportional zur Zahl von Testlisten, die für die Aussage des Tests geprüft werden müssen. Sprachtests mit redundantem Testmaterial (Zahlwörter- und Satztests) sind durch eine steile Diskriminationskurve gekennzeichnet, die sich bei Hörstörungen nur verschiebt, aber nicht verformt. Es muss daher im Idealfall nur eine Testliste geprüft werden, wenn der gewählte Schallpegel so liegt, dass L50 zuverlässig bestimmt werden kann. Weist das Testmaterial wenig Redundanz auf (Einsilbertests), so ist die psychometrische Kurve flacher und sie wird bei Hörstörungen nicht nur verschoben, sondern auch verformt. Um sie zu rekonstruieren, müssen mindestens zwei Testlisten geprüft werden. Unabhängig von den Details der Diskriminationskurve ist der Untersucher meistens daran interessiert, möglichst keine Messungen in Bereichen mit 0 oder 100% Sprachdiskrimination durchzuführen. Normalwerte und die oben genannten Zusammenhänge zwischen Ton- und Sprachgehör helfen zunächst bei der Auffindung von sinnvollen Startpegeln in der Nähe des Wendepunktes L50. Durch eine adaptive Pegelsteuerung kann der Zielpunkt noch genauer und schneller erreicht werden. Hierbei wird der Darbietungspegel eines jeden Test-items gemäß den vorhergehenden Antworten erhöht oder verringert, d. h., die bevorstehende Testaufgabe wird schwieriger gestaltet, wenn die vorgehende richtig gelöst wurde (und sinngemäß umgekehrt). Neben der Sprachdiskrimination in Ruhe ist auch die Untersuchung der für viele Hörgeschädigte und Hörgeräteträger problematischen sprachlichen Kommunikation im Störgeräusch und der Störbefreiungseffekt durch das binaurale Hören Gegenstand der Sprachaudiometrie. Der Freiburger Einsilbertest ist wegen der geringen Redundanz des Testmaterials für die Messung der Diskrimination in Abhängigkeit vom Signal/Rausch-Verhältnis wenig geeignet. Es ist aber eine Modifikation dieses Tests ausgearbeitet und erprobt worden, bei der die einsilbigen Testwörter in dreifacher Wiederholung dargeboten werden (»Dreinsilbertest« nach Döring). Dies erhöht die Sprachverständlichkeit in dem Maße, dass die Detektion auch im Störschall gelingt. Wenn die schwierigste Hörsituation des Patienten, nämlich einem von Stimmengewirr überlagerten Gespräch zu folgen, realistisch nachgebildet werden soll, müssen Störgeräusch und Nutzsignal spektral aufeinander abgestimmt sein. Das mit dem Dreinsilbertest kombinierte Störgeräusch wird synthetisch durch 32-fache zeitlich versetzte Überlagerung der einsilbigen Testwörter des Freiburger Tests erzeugt. Es entspricht in seinem Spektrum und seiner Zeitstruktur den Eigenschaften einer (männlichen) Stimme und enthält infolge der Überlagerung keine semantische Information. Aus
der Messung des Sprachverstehens bei verschiedenen Signal/Rausch-Verhältnissen S/N (fester Störgeräuschpegel, variabler Nutzsignalpegel) ergibt sich die Diskriminationskurve. Wird der Test mit Normalhörenden im freien Schallfeld durchgeführt, so liegt der Wendepunkt dieser Kurve bei S/N50 = 0 dB in der 0°-Situation (Nutz- und Störsignal von vorne) bzw. bei S/N50=–11 dB in der ±45°Situation (Nutz- und Störsignalquelle lateral vorne um 90° voneinander getrennt). Weitere Verfahren zur Untersuchung der Sprachperzeption im Störgeräusch sind neben dem oben beschriebenen Oldenburger Satztest der aus 10 Testlisten zu je 10 Sätzen bestehende Göttinger Satztest nach Wesselkamp und Kollmeier mit dem Stimmengewirr nach Sotschek als Störschall und der aus 30 Listen zu je 20 Sätzen bestehende Innsbrucker Satztest nach Hochmair, Schulz und Moser (HSM-Test) mit sprachsimulierendem CCITT-Rauschen. Das Spektrum des international genormten CCITT-Rauschens ist an die mittlere Häufigkeitsverteilung mehrerer Sprachen (bei Übertragung weiblicher und männlicher Stimmen über Telefonleitungen) angepasst. Es weist seine höchste Intensität bei 800 Hz auf. Die zeitlich modulierte Variante des CCITT-Rauschens wird als Fastl-Rauschen bezeichnet. Für die Modulation wird nicht eine feste Frequenz verwendet, sondern ein Bandpassrauschen, dessen Maximum entsprechend der mittleren Silbenlänge bei 4 Hz liegt. Bisherigen Erfahrungen zufolge ist der schnell und von einem ungeschulten Sprecher aufgesprochene Göttinger Satztest gut für die die Anwendung bei Hörgeräteträgern geeignet, während der HSM-Test aufgrund der langsamen und gut artikulierten Aufsprache einen niedrigeren Schwierigkeitsgrad aufweist und in erster Linie für die Anwendung bei CI-Trägern konzipiert ist.
15.2.6 Prüfung des binauralen Hörens
Alle bisher geschilderten Eigenschaften des Gehörs sind das Ergebnis psychoakustischer Untersuchungen bei Stimulation eines Ohres. Ohne Zweifel ist das beidohrige (binaurale) Hören als die natürliche Hörsituation anzusehen. Es unterscheidet sich vom monauralen Hören zunächst durch eine niedrigere Wahrnehmungsschwelle. Die binaurale Hörschwelle liegt (wegen der Verdoppelung der genutzten Schallenergie) um durchschnittlich 3 dB niedriger als die monaurale Schwelle. Bei überschwelligen Reizen ist der Unterschied zwischen ein- und beidohrigem Hören noch größer. Er entspricht etwa 10 dB, d. h. die Hinzunahme des zweiten Ohres bewirkt eine Verdoppelung der Lautheit. Dieser Effekt wird als binaurale Lautheitssummation bezeichnet. Auch die Fähigkeit zum räumlichen Hören und zur Lokalisation von Schallquellen ist größtenteils eine Folge der beidohrigen Erfassung und Verarbeitung der akustischen Signale. Zusätzlich spielt aber auch die Ohrmuschel eine
15
240
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Rolle: Ihrer akustischen Funktion nach stellt sie ein Filter dar, dessen Übertragungsfunktion von Richtung und Entfernung der Schallquelle abhängt. Räumliche Merkmale des Schallfeldes werden durch Reflexion, Abschattung, Streuung, Beugung, Interferenz und Resonanz in zeitliche Merkmale umkodiert, deren zentralnervöse Repräsentation einen bei Stimulation über Kopfhörer nicht entstehenden Eindruck von Räumlichkeit hervorruft. Für einen anderen Aspekt des räumlichen Hörens, nämlich das Richtungshören, ist das Vorliegen zweier Eingangssignale, der gekreuzte Verlauf der Hörbahn und die Verwertung der Differenzen zwischen beiden Signalen (binauraler Prozessor) Voraussetzung. Die Lage der Ohrmuscheln an beiden Seiten des Kopfes hat zur Folge, dass die zwei bei seitlicher Beschallung eintreffenden Eingangssignale Pegel-, Laufzeit- und Klangfarbenunterschiede aufweisen. Die unterschiedliche Klangfarbe ergibt sich daraus, dass die Abschattung durch den Kopf nur für hohe Frequenzen wirksam ist. Aus demselben Grund treten auch vorwiegend bei hohen Frequenzen, die nicht um den Kopf gebeugt werden, interaurale Pegelunterschiede auf. Sie tragen zur Lateralisation des Hörereignisses bei, sowie sie mehr als 1 dB betragen. Weiterhin erreichen die Schallwellen von Quellen, die sich außerhalb der Medianebene befinden, die zwei Ohren zu unterschiedlichen Zeiten (bzw. es liegen zu gleichen Zeiten unterschiedliche Phasen vor). Die experimentell bestimmte Untergrenze für die Verwertung dieser interauralen Laufzeitdifferenzen liegt unter 30 μs. Zeit- und Pegeldifferenzen ermöglichen eine Richtungsbestimmung mit einer Genauigkeit von 3 bis 5°. Diese Quellenortung ist allerdings nicht eindeutig: Alle Quellen, die sich auf der Oberfläche des in ⊡ Abb. 15.13 gezeigten Kegels (cone of confusion) befinden, weisen näherungsweise dieselben interauralen Differenzen auf. Sie unterscheiden sich lediglich in der Klangfarbe. Tatsächlich werden bei Richtungshörtests in der Horizontalebene am häufigsten die Schallereignisorte verwechselt, die in Hinblick auf die interauralen Zeit- und Pegeldifferenzen gleichwertig sind. Ein Sonderfall hiervon ist die Verwechslung von vorne und hinten. Auch die Bestimmung der Elevation, d. h. die Ortung von Schallquellen, die sich in der Medianebene befinden (Öffnungswinkel des Kegels gleich 180°), geschieht ohne Zuhilfenahme interauraler Differenzen und ist dementsprechend unsicher. Interaurale Laufzeitdifferenzen sind für die Ortung von Schallquellen nur dann verwertbar, wenn das Signal zeitlich genügend scharf begrenzt ist. Diese Voraussetzung ist bei Dauertönen oder beim Auftreten von Echos nicht erfüllt. In diesen Fällen verschmilzt der Höreindruck beider Ohren zu einem einzigen Hörereignis. Dass die Quellen von Dauerreizen oder ein von Echos begleitetes kurzes Signal trotzdem lokalisiert werden können liegt daran, dass der Ort solcher Hörereignisse in erster Linie von der Schalldruckänderung bestimmt wird, die als erste den Hörer erreicht (Gesetz der ersten Wellenfront oder
⊡ Abb. 15.13. Bei seitlichem Schalleinfall trifft das Signal in beiden Ohren zu verschiedenen Zeiten und mit unterschiedlicher Intensität ein. Es gibt viele Schallereignisorte, die in Hinblick auf diese Differenzen gleichwertig sind. Sie liegen auf dem Mantel eines Kegels (cone of confusion), dessen Spitze in der Kopfmitte liegt und dessen Achse mit der Verbindungslinie der Ohren zusammenfällt. Dies gilt allerdings nur, wenn der Kopf durch eine Kugel ohne Ohrmuscheln und mit einander diametral gegenüberliegenden Gehörgangseingängen approximiert wird. Dies ist eine sehr grobe und realitätsferne Näherung
»Präzedenzeffekt«). Dieser für das Hören in geschlossenen Räumen wichtige Mechanismus versagt natürlich, sowie sich stehende Wellen bilden. Das beidohrige Hören trägt entscheidend zur Wahrnehmung und Erkennung von Signalen im Störgeräusch bei. Ein Sinuston ist im Rauschen besser (d. h. bei geringerem Signal/Rausch-Abstand) erkennbar, wenn beide Signalquellen räumlich voneinander getrennt sind. Experimentell lässt sich der Effekt des binauralen Hörens auf die Verdeckung (Maskierung) eines Signals einfach nachbilden, indem über Kopfhörer zunächst ein Ohr mit einem Gemisch aus Testton und breitbandigem Rauschen beschallt wird. Die Versuchsperson regelt den Testtonpegel soweit herunter, dass sie den Ton gerade nicht mehr wahrnimmt. Bietet man nun dasselbe Rauschen zugleich am anderen Ohr an (alternativ hierzu kann die Phase des Rauschens im monaural dargebotenen Signalgemisch umgekehrt werden), so wird das Rauschen zwar subjektiv lauter, der Testton wird aber wieder hörbar und die zugehörige (binaurale) Mithörschwelle liegt niedriger als im monauralen Fall (binaural masking level difference, BMLD). Auf ähnliche Weise lässt sich die binaurale Schwelle für das Verstehen eines Testwortes ermitteln und mit der monauralen Schwelle vergleichen (binaural intelligibility level
15
241 15.3 · Objektive Audiometrie
difference, BILD). Je nach der räumlichen Anordnung von Nutz- und Störsignalquelle beträgt die Schwellendifferenz bei Normalhörenden etwa 10 dB. Die durch BMLD und BILD beschriebene Verbesserung der Signalerkennung hängt eng mit der Fähigkeit zum Sprachverstehen im Störgeräusch zusammen (Cocktailparty-Effekt), welche ein funktionsfähiges binaurales System voraussetzt. Bereits durch eine geringfügige einseitige Schwerhörigkeit kann die Funktion des empfindlichen binauralen Systems beeinträchtigt werden. Die Messung der ein- und beidohrigen Diskriminationsschwellen eignet sich daher zur quantitativen Beschreibung der Fähigkeit, im Störgeräusch einer Unterhaltung zu folgen. Es hat sich gezeigt, dass BMLD und BILD bei schwerhörigen Patienten und auch bei älteren normalhörenden Probanden herabgesetzt sind.
15.3
Objektive Audiometrie
In Abgrenzung zur subjektiven Audiometrie, die sich psychoakustischer Methoden bedient, wird die Gesamtheit der Verfahren, bei denen eine mit dem Hörvorgang einhergehende physiologische Reaktion zum Zwecke der Funktionsprüfung des Gehörs gemessen wird, als objektive Audiometrie bezeichnet. Die registrierten Signale unterliegen in weit geringerem Maße der Aufmerksamkeit und aktiven Mitarbeit des Probanden als dies bei den subjektiven Verfahren der Fall ist. Unter den Reaktionen auf akustische Reize sind für audiometrische Zwecke die physikalischen Eigenschaften des Trommelfells (Impedanzaudiometrie), die vom Innenohr ausgesandten Schallschwingungen (otoakustische Emissionen) und die in Hörnerv, Hörbahn und Hirnrinde ablaufenden elektrischen Vorgänge (akustisch evozierte Potentiale) verwertbar. Weil alle für die objektive Audiometrie verwendeten Signale von Störeinflüssen überlagert sind, lässt sich mit ihnen nur eine begrenzte Messgenauigkeit erzielen. Für die Hörschwellenbestimmung ist ihre Anwendung daher in erster Linie bei kooperationsunfähigen oder -unwilligen Patienten interessant. Ist hingegen eine ausreichende Mitarbeit des Patienten sichergestellt, so gibt es keine zuverlässigere, genauere und schnellere Methode als die Befragung nach den subjektiven Hörempfindungen. Die objektiven Verfahren liefern aber differentialdiagnostische Aussagen, die sich mit subjektiven Verfahren nicht gewinnen lassen. In Hinblick auf die Lokalisation der Ursache einer Hörstörung stellt die objektive Audiometrie somit keinen Ersatz, sondern eine Ergänzung zur subjektiven Audiometrie dar.
dieser Impedanz in Abhängigkeit von Luftdruck und Sondentonfrequenz gibt Auskunft über die physikalischen Eigenschaften von Trommelfell, Mittelohr und Gehörknöchelchen, die Messung der Impedanz während akustischer Stimulation mit Tonpulsen ermöglicht die Beobachtung physiologischer Reaktionen. An der Grenzfläche zwischen zwei Medien unterschiedlicher Schallimpedanzen Z0 und Z1 werden Schallwellen reflektiert. Die Messung der Impedanz beruht auf der Beziehung zwischen Reflexionskoeffizient r und der normierten Impedanzdifferenz: r=
( Z1 − Z 0 ) 2 ( Z1 + Z 0 ) 2
(15.9)
Die Impedanz des Mittelohres hängt von der Masse M (Trommelfell, Ossikel, evtl. Sekret), der Reibung R (Paukenhöhle und Innenohr), der Elastizität k (Trommelfell, Mittelohrsehnen, Paukenluft) und der Schallfrequenz f (bzw. Kreisfrequenz ω) ab (⊡ Abb. 15.14): 2
Z=
k· § R 2 + ¨ ωM − ¸ ω¹ ©
(15.10)
Abgesehen von der Frequenz sind alle Größen, die in die Berechnung der Impedanz eingehen, für den Zustand des Mittelohres charakteristisch. Diesem Umstand verdankt die Impedanz ihre diagnostische Bedeutung. Den zahlenmäßig größten und diagnostisch bedeutendsten Beitrag zur Impedanz liefert bei den üblichen Testfrequenzen der Elastizitätsterm. Der Zusammenhang zwischen Impedanz und Schallfrequenz wird in der praktischen Tympanometrie wenig ausgenutzt, da die Impedanz nahezu ausschließlich mit einer Prüffrequenz von 220 Hz gemessen wird. Dies hat seinen wichtigsten Grund darin, dass bei höheren Frequenzen stehende Wellen entstehen können (λ/4-Resonanz) und das Messergebnis dadurch von der Geometrie des Gehörgangs beeinflusst wird. Bei manchen Geräten ste-
15.3.1 Impedanzaudiometrie
Gegenstand der Impedanzaudiometrie ist die Messung des akustischen Widerstands, den das Trommelfell der eintreffenden Schallwelle entgegenstellt. Die Messung
⊡ Abb. 15.14. Vektorielle Berechnung der komplexen Impedanz Z aus den reellen Komponenten (ω M und k/ω) und dem imaginären Anteil R
242
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
hen außer 220 Hz noch höhere Prüftonfrequenzen (z. B. 600 oder 1000 Hz) zur Verfügung. Mit diesen »Hochfrequenztympanogrammen« lassen sich mehr Information über die physikalischen Vorgänge im Mittelohr gewinnen und die Auswirkungen von operativen Veränderungen besser objektivieren, Messungen an verschiedenen Patienten sind aber nicht immer miteinander vergleichbar. In der Audiometrie wird selten die Impedanz (in der zugehörigen Einheit »akustisches Ohm« = kg/m2s), sondern meistens ihr Kehrwert (die Admittanz) angegeben. Da die Impedanz den Widerstand des Mittelohres beschreibt, entspricht die Admittanz der Bereitwilligkeit (compliance) des Mittelohres, den Schall ans Innenohr weiterzuleiten. Eine große Admittanz entspricht daher einem geringen Schallwellenwiderstand und somit einer hohen Nachgiebigkeit des Trommelfells. Die Maßeinheit für die compliance ist m2s/kg. Da diese Einheit nicht besonders anschaulich ist, hat sich die Beschreibung der compliance durch ein äquivalentes Volumen eingebürgert (dessen Einheit das cm3 oder ein ml ist). Der Gehörgang und seine Abgrenzung zum Mittelohr wird hierbei als ein Luftvolumen aufgefasst, das allerdings veränderlich ist: Wenn der Schall reflektiert wird, verhält sich das gesamte System wie ein kleines Luftvolumen (mit starren Wänden), wenn der Schall absorbiert wird, entspricht es einem größeren Luftvolumen. Die Messung der Trommelfellimpedanz geschieht indirekt über die Messung des reflektierten Anteils eines Prüftones bekannter Intensität, der in den Gehörgang eingestrahlt wird. Die wesentlichen Bestandteile eines Gerätes zur Messung der Mittelohrimpedanz sind: ▬ ein Lautsprecher für die Erzeugung des Prüftones; ▬ ein Mikrophon für die Messung der Intensität des reflektierten Schalls; ▬ eine Pumpe und ein Manometer für Veränderung bzw. Messung des Luftdrucks im Gehörgang; ▬ eine Vorrichtung zur Ausgabe der Messergebnisse (Zeigerinstrument, XY-Schreiber oder Display). Die Verbindung zwischen Messgerät und Patient wird über eine Sonde hergestellt, die mit Hilfe eines Anpassstückes variabler Größe luftdicht in den Gehörgang eingesetzt wird (⊡ Abb. 15.15).
Tympanogramm Im Tympanogramm ist die compliance als Funktion des vom Gerät eingestellten und gemessenen Luftdrucks im Gehörgang aufgetragen (⊡ Abb. 15.16). Bei Überdruck wird das Trommelfell nach innen gewölbt und stärker als bei Normaldruck gespannt, es ist daher weniger schwingungsfähig und reflektiert einen großen Teil des Testtones. Die Folge ist eine verringerte Elastizität und somit nach (9) eine erhöhte Impedanz bzw. eine geringe compliance. Bei Unterdruck ist das Trommelfell ebenfalls stärker gespannt als bei Normaldruck, denn der (unveränderte)
⊡ Abb. 15.15. Die Impedanz-Messsonde mit den drei Schlauchleitungen für Lautsprecher, Mikrophon und Luftpumpe/ Manometer muss den Gehörgang luftdicht abschließen (nach Stange 1993)
⊡ Abb. 15.16. Bei normaler Mittelohrfunktion ergeben sich bei Anwendung von Über- oder Unterdruck im Gehörgang für die compliance des Trommelfells sehr niedrige Werte. Bei Normaldruck (keine Druckdifferenz zwischen Gehörgang und Paukenhöhle) liegt maximale compliance vor (schematische Darstellung)
Druck in der Paukenhöhle wölbt das Trommelfell nach außen; somit ergibt sich auch bei Unterdruck eine niedrige compliance. Die günstigsten Schwingungseigenschaften weist das Trommelfell auf, wenn der äußere Druck gleich dem Druck im Mittelohr ist. Das ist i. d. R. bei normalem Atmosphärendruck der Fall. Daher hat ein normales Tympanogramm sein compliance-Maximum bei Normaldruck (p=0). Die maximalen bei Routinemessungen angewendeten Druckdifferenzen betragen ±30 hPa. Das wichtigste Merkmal eines Tympanogramms ist das compliance-Maximum, welches durch seine Lage, seine Höhe und einen Formparameter quantitativ beschrieben werden kann. Die Höhe des Gipfels variiert bei verschiedenen Individuen sehr stark. Liegt die maximale compliance signifikant oberhalb des Normalwertes, so liegt ein narbig schlaffes Trommelfell, eine Schenkelchenfraktur oder ein Ambossdefekt vor. Sehr flache compliance-Gipfel
243 15.3 · Objektive Audiometrie
werden beobachtet, wenn das Mittelohr mit Sekret gefüllt ist (Paukenerguss) oder wenn das Trommelfell durch eine Narbe versteift ist. Die Verschiebung des Maximums zu positiven oder negativen Werten zeigt einen Überoder Unterdruck in der Paukenhöhle an. Ein Überdruck kann infolge einer Tubenfunktionsstörung auftreten, ein Unterdruck stellt sich bei sauerstoffverbrauchenden entzündlichen Mittelohrerkrankungen – z. B. einer beginnenden Otitis media ohne Erguss – ein. Variationen des Mittelohrdrucks im Bereich ±100 daPa sind ohne diagnostische Bedeutung. Wenn im Mittelohr ein zähflüssiger Erguss vorliegt, lagert sich Sekret am Trommelfell ab und beeinträchtigt seine Beweglichkeit. Das Tympanogramm weist dann keinen compliance-Gipfel auf, es verläuft flach mit einem leichten Anstieg zu negativen Drucken. Ein ähnliches Bild ergibt sich bei einem perforierten Trommelfell, weil dann nicht die vom Luftdruck beeinflusste Admittanz des Trommelfells, sondern die druckunabhängige Admittanz des größeren, aus Gehörgang und Mittelohr zusammengesetzten Volumens gemessen wird. Flache Tympanogramme können auch auf Fehler bei der Messung (z. B. eine verschmutzte oder an der Gehörgangswand anliegende Sondenöffnung) hinweisen.
⊡ Abb. 15.17. Kurze Zeit nach der Einwirkung eines genügend starken Tonpulses ist bei normalem Gehör infolge des Stapediusreflexes die Impedanz beider Trommelfelle vorübergehend erhöht
Stapediusreflex Das zweite Anwendungsgebiet der Impedanzaudiometrie ist der Nachweis des Stapediusreflexes. Er erfolgt über die Registrierung einer zeitlichen Änderung der Impedanz während der akustischen Stimulation eines Ohres (⊡ Abb. 15.17). Die Impedanzänderung entsteht dadurch, dass der am Steigbügelköpfchen ansetzende Musculus stapedius und der am Hammergriff ansetzende Musculus tensor tympani durch starke akustische Reize zu Kontraktionen veranlasst werden. Dies hat eine Versteifung der Gehörknöchelchenkette und damit eine Erhöhung der Trommelfellimpedanz zur Folge. Die Muskelkontraktion – und somit die Impedanzänderung – folgt der Reizgebung mit einer geringen Verzögerung (Latenzzeit etwa 10 ms); sie hält für die Dauer des Reizes an. Die bei starker Beschallung eintretende reflexartige Kontraktion des am Stapes oberhalb der Schenkelchen angreifenden Stapediusmuskels behindert die Schwingungsbewegungen des Steigbügels und schützt somit das Innenohr vor zu hohen Schallintensitäten. Für das Verständnis des Reflexablaufs und zur Interpretation der Befunde muss der Reflexbogen näher betrachtet werden (⊡ Abb. 15.18). Der Stapediusreflex ist ein akustikofazialer Reflex, d. h. zum auslösenden (afferenten) Zweig gehören Mittelohr, Innenohr und Hörnerv; den ausführenden (efferenten) Schenkel bildet der motorische Gesichtsnerv (Nervus facialis), der die Mittelohrmuskeln innerviert. Afferenter und efferenter Schenkel des Reflexbogens sind in den Hörnerven- und Fazialiskernen des Hirnstamms miteinander verschaltet. Da der ausführende Zweig die Mittelohrmuskeln beider Ohren innerviert, bewirkt eine monaurale Beschallung eine beidseitige Impedanzänderung: Der Stapediusreflex kann durch ipsilaterale und durch kontralaterale Reizung ausgelöst werden. In den meisten praktisch vorkommenden Fällen ist die Frage zu klären, ob auf einem Ohr der Reflex auslösbar ist, d. h., es geht in erster Linie um das Reizohr. Es gibt jedoch auch Fragestellungen, bei denen das Interesse dem Sondenohr gilt. Bei der Registrierung des ipsilateralen Stapediusreflexes wird von dem mit der Gehörgangssonde verbundenen Hörer außer dem Impedanzprüfton von 220 Hz für begrenzte Zeit (1 s) ein reflexauslösender Ton mit der vom Unter-
⊡ Abb. 15.18. Verlauf des ipsilateralen (links) und contralateralen (rechts) akustikofazialen Reflexbogens bei der Auslösung des Stapediusreflexes (schematische Darstellung). Die Abkürzung MO steht für Mittelohr
15
244
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
sucher gewählten Frequenz (500 Hz, 1 kHz, 2 kHz oder 4 kHz) und Intensität (Pegel zwischen 70 und 110 dB HL) abgegeben. Zur Messung des contralateralen Stapediusreflexes wird auf der Reizseite ein Kopfhörer aufgesetzt, auf der Sondenseite wird die Messsonde im Gehörgang platziert. Die Messung des Reflexes geschieht immer bei dem Druck, bei welchem im Tympanogramm das compliance-Maximum liegt. Beginnend bei etwa 70 dB HL wird durch Erhöhung des Reiztonpegels nach der Reflexschwelle gesucht. Diese ist definiert als der niedrigste Reizpegel, bei dem eine für den Reflex typische Impedanzzunahme registrierbar ist. Sie liegt bei Normalhörenden zwischen 70 und 90 dB HL, bei Schwerhörigen unter Umständen höher. Ein geringer Prozentsatz der Normalhörenden weist keinen Reflex auf. Der Stapediusreflex wird grundsätzlich nur von Reizen ausgelöst, die mit einer großen subjektiven Lautheit einhergehen. Die Reflexschwelle korreliert daher nicht direkt mit dem Pegel des Reizes (dB HL), sondern eher mit dem auf die individuelle Hörschwelle des untersuchten Ohres bezogenen Pegel (dB SL). Bei Mittelohrschwerhörigkeiten ist die Reflexschwelle daher um den Betrag des Hörverlustes angehoben. Beträgt der Hörverlust mehr als etwa 30 dB, so kann kein Reflex ausgelöst werden, denn dazu wäre ein Reizpegel von mindestens 110 dB HL (≥70 dB über der Schwelle) erforderlich. An dem von einer Mittelohrschwerhörigkeit betroffenen Ohr ist der Reflex somit nicht auslösbar – und (aus anderen Gründen) in den meisten Fällen auch nicht registrierbar. Bei Innenohrschwerhörigkeiten ist die Reflexschwelle regelmäßig erst dann erhöht, wenn der Hörverlust mehr als 50 dB beträgt. Dies hat zur Folge, dass die Reflexschwelle bei vielen sensorischen Hörstörungen näher an der Hörschwelle liegt als beim Normalhörenden. Hierin manifestiert sich die eingeengte Dynamik des haarzellgeschädigten Ohres (Metz-Recruitment). Innenohrschwerhörigkeiten wirken sich nur auf der Reizseite, nicht aber auf der Sondenseite aus. Die Auswirkung neural bedingter Hörstörungen auf den Stapediusreflex hängt davon ab, ob die Störung peripher der Reflexverbindung im Hörnerv oder weiter zentral im Hirnstamm lokalisiert ist. Im ersten Fall fehlt der Reflex oder es zeigt sich eine pathologische Reflexermüdung (decay), im zweiten Fall ist der Stapediusreflex nicht beeinträchtigt. Es können sich sowohl am Reizohr als auch am Sondenohr auffällige Befunde ergeben. In sehr vielen Fällen wird die Interpretation der Befunde durch die Auswirkung zusätzlich vorhandener cochleärer Hörstörungen erschwert.
15.3.2 Otoakustische Emissionen
Schallwellen, die im Innenohr entstehen und über Gehörknöchelchen und Trommelfell in den äußeren Gehörgang abgestrahlt werden, werden als otoakustische Emissionen (OAE) bezeichnet. Es wird unterschieden zwischen spon-
tanen Emissionen (SOAE), die ohne Einwirkung eines akustischen Reizes vorhanden sind, und evozierten Emissionen (EOAE), die während oder nach einem akustischen Reiz auftreten. Die OAE werden auf die nichtlinearen und aktiven Vorgänge der cochleären Schallvorverarbeitung zurückgeführt, die sich bereits in der Mikromechanik der Basilarmembran manifestieren und für die hohe Empfindlichkeit, den großen Dynamikbereich und das gute Frequenzauflösungsvermögen des Gehörs verantwortlich sind. Quelle der cochleären Emissionen sind mikroskopische Bewegungen der äußeren Haarsinneszellen (outer hair cells, OHC). Im Präparat kultivierte OHC können durch chemische, elektrische und mechanische Reize zu aktiven Kontraktionen angeregt werden. Es wird angenommen, dass die OHC beim physiologischen Hörvorgang in einem der Reizfrequenz entsprechenden eng umgrenzten Bereich der Cochlea stimulierte Kontraktionen und Elongationen ausführen, wodurch einerseits das Auslenkungsmaximum der Basilarmembran erhöht und eingeengt wird und andererseits eine sekundäre Wanderwelle kleiner Amplitude entsteht, welche sich retrograd ausbreitet und über das Trommelfell zu messbaren Schalldruckschwankungen im Gehörgang führt. Die evozierten Emissionen können somit als Nebenprodukt eines nichtlinearen, rückgekoppelten – und dadurch zu Eigenschwingungen neigenden – mechanischen Systems gedeutet werden. Der Nichtlinearität der biologischen Transduktionsfunktion entsprechend können quadratische und kubische Effekte auftreten, die sich durch die zugehörigen Verzerrungen des Eingangssignals nachweisen lassen. Zur Gewinnung audiologischer Diagnosen werden fast ausschließlich die EOAE genutzt. Sie sind bei nahezu 100% der Normalhörenden nachweisbar. Wegen ihrer geringen Intensität und der unvermeidlichen Anwesenheit von Störgeräuschen sind zu ihrem Nachweis ein empfindliches Mikrophon und eine aufwändige Signalverarbeitung erforderlich. Eine weitere Schwierigkeit besteht darin, dass zur Auslösung der EOAE ein akustischer Reiz notwendig ist, dessen Intensität die der Emissionen um Größenordnungen übertrifft und der außer den OAE ein passives Echo von Trommelfell und Gehörgangswänden hervorruft, welches sich dem physiologischen Signal überlagert. Die EOAE werden in poststimulatorische (verzögerte) transitorisch evozierte otoakustische Emissionen (TEOAE) und perstimulatorische Emissionen eingeteilt (⊡ Abb. 15.19). Bei letzteren wird weiterhin danach differenziert, ob die Frequenz der Emission mit der des Stimulus übereinstimmt (stimulus frequency otoacoustic emissions, SFOAE) oder ob sich die Frequenzen von Reiz- und Antwortsignal unterscheiden (Verzerrungsprodukte oder distortion product otoacoustic emissions, DPOAE). Die sehr zuverlässig nachweisbaren TEOAE sind in der audiologischen Diagnostik bereits fest etabliert. Hingegen ist der Nachweis der SFOAE schwierig, daher werden unter den perstimulatorischen OAE ausschließlich die DPOAE zu diagnostischen Zwe-
245 15.3 · Objektive Audiometrie
cken genutzt. Nur die zwei in der praktischen Audiometrie genutzten Spezialfälle otoakustischer Emissionen – nämlich TEOAE und DPOAE – werden in den zwei Abschnitten dieses Kapitels ausführlicher beschrieben. Es besteht bisher keine Klarheit darüber, ob die Entstehungsmechanismen für TEOAE und DPOAE verschieden sind und ob somit die verzögerten und die simultanen Emissionen unterschiedliche Information über die Innenohrfunktion liefern. Wahrscheinlich handelt es sich bei den verschiedenen Emissionstypen nur um zwei auf verschiedene Weise gemessene Aspekte desselben aktiven und nichtlinearen cochleären Verstärkers. Die unterschiedliche Nachweistechnik wirkt sich aber auf die praktische Anwendung und die Informationsausbeute aus, denn bei vergleichbaren Stimuluspegeln sind die DPOAE mit größerer Empfindlichkeit, d. h. auch bei stärker ausgeprägtem Hörverlust, nachweisbar als die TEOAE.
Transitorisch evozierte otoakustische Emissionen Zur Messung der transitorisch evozierten otoakustischen Emissionen (TEOAE) wird das im Gehörgang vorliegende akustische Signal im unmittelbaren Anschluss an eine vorübergehende Stimulation aufgezeichnet. Das aktive physiologische Echo wird von Stimulus, Umgebungsgeräuschen und passiven (mechanischen) Echosignalen
überlagert. Die Amplitude dieser Konkurrenzsignale übertrifft das Messsignal i.a. um mehrere Größenordnungen. Um die verzögerte Emission dennoch nachzuweisen, muss mit Hilfe von analoger und digitaler Signalverarbeitung das Signal/Rausch-Verhältnis verbessert werden. Die wichtigsten hierbei angewendeten Prinzipien sind eine wirksame akustische Abschirmung und die Selektion und Mittelung vieler Signalabschnitte. Bei den meisten Anwendungen der TEOAE erfolgt die akustische Reizung mit einer zeitlichen Folge von Clicks, d. h. einzelnen rechteckförmigen Signalen einer Dauer von etwa 100 μs, die in regelmäßigen oder unregelmäßigen Intervallen von mindestens 20 ms dargeboten werden. Zeitverlauf und Spektrum eines Clickreizes sind in ⊡ Abb. 15.20 dargestellt. Auf der Aufzeichnung des Reizes und seines Frequenzspektrums im Gehörgang beruhen Kontrolle und eventuelle Korrektur der Sondenanpassung. Im Idealfall weist der Clickreiz ein weißes Spektrum auf, d. h. alle Frequenzen sind mit gleicher Intensität vertreten. Eine solche Konstellation ist zum einen das Kriterium für ein abgeschlossenes und resonanzfreies Gehörgangsrestvolumen, zum anderen ist sie auch Voraussetzung für die Funktionsprüfung der gesamten cochleären Trennwand mit einem einzigen Reiz. Die in den Gehörgang eingebrachte Sonde (⊡ Abb. 15.21) enthält einen magnetischen Hörer, über den ein Kurzzeitreiz (Click oder Tonpuls) dargeboten wird, sowie ein empfind-
⊡ Abb. 15.19. Einteilung und Nomenklatur der otoakustischen Emissionen
⊡ Abb. 15.20. Zeitverlauf (links) und Frequenzspektrum (rechts) des Clickreizes. Das im Gehörgang registrierte Spektrum enthält ein sehr breites Frequenzgemisch mit nahezu frequenzunabhängiger Intensität (Hoth u. Neumann 2006)
15
246
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
⊡ Abb. 15.21. Gehörgangssonde für Reizgebung und OAE-Messung (Madsen Capella, GN Otometrics)
Signalabschnitte, die mit mindestens einem Momentanwert eine vorgegebene (aber variable) Amplitudengrenze überschreiten, werden von der weiteren Verwertung ausgeschlossen. Das kommt einer Unterbrechung der Messung zu Zeiten ungünstiger Signal/Rausch-Verhältnisse gleich. Die zugelassenen, d. h. von der Artefaktunterdrückung nicht verworfenen Signalabschnitte werden punktweise addiert und ergeben so eine zeitabhängige Mittelwertkurve. Durch die Signalmittelung werden alle reizkorrelierten Signalanteile gegenüber stochastischen Anteilen in ihrer Amplitude angehoben. Dies beruht auf der Gültigkeit unterschiedlicher Additionsgesetze: Die nach jeder Reizung in unveränderter Weise auftretenden Signalamplituden überlagern sich bei der Addition linear, während sich bei den stochastischen Anteilen die Varianzen addieren. Falls die Voraussetzungen einer stabilen deterministischen Reizantwort und einer stationären Störgeräuschquelle erfüllt sind, verbessert sich somit bei N Additionen (bzw. Mittelungsschritten) das Signal/Rausch-Verhältnis um den Faktor √N (⊡ Abb. 15.22). Die durch die Signalmittelung erzielte Verbesserung des Signal/Rausch-Verhältnisses ist nicht mit einer selektiven Verstärkung der physiologischen Reizantwort gleichbedeutend, da auch die relative Amplitude aller anderen reizkorrelierten Signalanteile, wie z. B. des akustischen Reizes und seines zeitlich abklingenden Echos, verstärkt wird. Um die passiven (mechanischen) von den aktiven (physiologischen) Antworten zu trennen, wird eine besondere Reizsequenz angewendet (»nichtlinearer Stimulus-Block«, ⊡ Abb. 15.23).
⊡ Abb. 15.22. Durch Mittelung bzw. Summation werden unveränderliche (stabile) Signale in größerem Maße verstärkt als Rauschen: Während die Signalamplitude linear mit der Zahl von Summationen zunimmt, wächst das Rauschen nur entsprechend einer Wurzelfunktion. Beträgt die effektive Amplitude des ungemittelten Rauschens das 10-fache der (ungemittelten) Signalamplitude, so sind Signal- und
Rauschamplitude nach 100 Summationen gleich groß (links). Wird derselbe Sachverhalt in einer doppeltlogarithmischen Darstellung betrachtet (rechts), so tritt die Umkehrung von negativem zu positivem Signal/Rausch-Abstand noch deutlicher hervor. Der Übergang von Summation zu Mittelung bewirkt lediglich eine Maßstabskorrektur, jedoch keine Änderung der Größenverhältnisse (Hoth u. Lenarz 1997)
liches Elektretmikrophon für die Registrierung des Schalldrucksignals. Die analoge Verarbeitung des nach dem Reiz registrierten Mikrophonsignals besteht aus einer Bandpassfilterung im Bereich von etwa 300 Hz bis etwa 10 kHz und einer linearen Verstärkung. Das verstärkte Signal wird mit einer auf die obere Grenzfrequenz abgestimmten Abtastrate analog/digital-gewandelt und dem Rechner zugeführt. Der erste Schritt der digitalen Signalverarbeitung besteht in der Auswahl der geeigneten Signalabschnitte nach Maßgabe eines Amplitudenkriteriums (Artefaktunterdrückung):
247 15.3 · Objektive Audiometrie
⊡ Abb. 15.23. Ausnützung der Nichtlinearität der TEOAE zur Trennung von den in linearer Weise von der Reizamplitude abhängenden nichtphysiologischen Signalkomponenten mit Hilfe einer aus Reizen unterschiedlicher Amplitude bestehenden Sequenz (Hoth u. Lenarz 1997)
Die Wirkungsweise der »nichtlinearen Reizsequenz« beruht ebenfalls auf der Gültigkeit unterschiedlicher Additionsgesetze – allerdings für Antworten, die durch unterschiedlich starke Reize ausgelöst wurden: Während die Amplitude der physiologischen Reizantwort mit zunehmender Reizamplitude ein Sättigungsverhalten aufweist, wächst die Amplitude der mechanischen Antwort in guter Näherung linear mit der Reizamplitude. Daher können die passiven Signalkomponenten von k Reizen durch einen Reiz der k-fachen Amplitude kompensiert werden. Für die nichtlinearen aktiven Komponenten ist diese Kompensation nur unvollständig. Bei der Verwendung einer »nichtlinearen«, d. h. zur Kompensation linearer Signalanteile geeigneten Reizsequenz besteht das Nutzsignal aus dem nicht kompensierten Anteil. Verglichen mit der konventionellen Reizung verliert zwar die cochleäre Emission an Amplitude, gegenüber dem mechanischen Reizecho tritt sie jedoch deutlicher hervor. Das Ergebnis einer TEOAE-Messung besteht aus einer oder zwei Kurven, die den gemittelten zeitabhängigen Verlauf des im Gehörgang vorliegenden poststimulatorischen Schalldrucks wiedergeben (⊡ Abb. 15.24). Die Transformation dieser Kurven in den Frequenzbereich liefert das Spektrum der TEOAE. Wenn das Summationsergebnis in zweifacher Ausfertigung vorliegt, z. B. indem bereits während des Mittelungsvorganges zwei bis auf die Reststörung miteinander gleichwertige Teilmittelwertkurven gebildet wurden, können für Signal und Rauschen getrennte Spektren (Kreuzleistungsspektren) berechnet und die Informationsausbeute dadurch erhöht werden. Weiterhin ermöglicht die Verfügbarkeit zweier Teilmittelwertkurven A(t) und B(t) die Berechnung eines Korrelationskoeffizienten (Reproduzierbarkeit) und die Abschätzung der Varianz des Restrauschens. Aus dem Gesamtmittelwert (A+B)/2 kann die effektive Amplitude des Gesamtsignals als Wurzel aus der Varianz (root mean
square, RMS) und aus der mittleren Abweichung (A-B)/2 die effektive Amplitude des Restrauschens geschätzt werden. Zusätzlich zu diesen Daten gehören zur Dokumentation einer TEOAE-Untersuchung die Darstellung von Zeitverlauf und Spektrum des im Gehörgang registrierten Reizes, die Zahl von Mittelungsschritten und Artefakten, die Lage der Amplitudenschranke, die Reizintensität und die Stabilität der Reizbedingungen. Für Auswertung und Beurteilung von TEOAE-Messungen muss zunächst die Frage nach dem Vorhandensein von Signalen cochleären Ursprungs beantwortet werden. Dies ist gleichbedeutend mit der Abgrenzung der verzögerten Emissionen gegenüber gemitteltem Störgeräusch (Restrauschen) und passiv entstandenen Echosignalen (Reizartefakt). Ein wichtiges Hilfsmittel stellt hierbei die durch den Korrelationskoeffizienten ausgedrückte Reproduzierbarkeit dar: Weist sie einen großen Zahlenwert auf, so kann es sich bei dem gemessenen Signal nicht um reines Restrauschen handeln. Die Auswirkung des (trotz nichtlinearer Reizsequenz noch immer vorhandenen) Reizartefaktes lässt sich durch die Ausblendung einzelner Zeitbereiche abschätzen: Wenn eine hohe Reproduzierbarkeit lediglich in den ersten wenigen Millisekunden nach dem Reiz vorliegt, ist ein cochleärer Ursprung des Signals unwahrscheinlich. Mit der zuverlässigen und eindeutigen Unterscheidung zwischen Störeinflüssen und Signalanteilen cochleären Ursprungs ist der wesentliche Teil der in den TEOAE enthaltenen Information bereits genutzt. Empirisch gewonnenen Daten zufolge weist ein Ohr, an dem verzögerte Emissionen nachgewiesen werden können, zumindest in einem Bereich des Audiogramms eine annähernd normale Hörschwelle auf. Die Inzidenz von eindeutig nachweisbaren TEOAE nimmt mit zunehmendem innenohrbedingtem Hörverlust stufenförmig von 100% auf 0% ab. Die Lage der Stufe ist von der Reizintensität
15
248
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
abhängig; für einen Reizpegel von L=80dB SPL liegt die 50%-ige Inzidenz bei HVmin=32 dB (Hoth u. Neumann 2006). Hierbei bezeichnet HVmin den minimalen im Frequenzbereich 1–4 kHz auftretenden Hörverlust, d. h. die günstigste Hörschwelle; diese Variablenwahl trägt dem Umstand Rechnung, dass für das Auftreten von TEOAE bereits eine eng umgrenzte normale Innenohrfunktion hinreichend ist. Bereiche mit stärker ausgeprägten Hörstörungen tragen zur cochleären Antwort nicht bei. Die Auswertung des Frequenzspektrums und der in einzelnen Frequenzbändern berechneten Reproduzierbarkeit der Emission ermöglicht eine Eingrenzung des von der Hörstörung betroffenen Frequenzbereiches. Die bisher beschriebenen Zusammenhänge zwischen Hörschwelle und TEOAE beziehen sich auf den Spezialfall rein sensorischer (endocochleärer) Hörstörungen. Selbstverständlich wirken sich auch Schallleitungsstörungen auf Nachweisbarkeit und Amplitude der TEOAE aus. Die behinderte Schallübertragung des Mittelohrapparates hat eine Abschwächung von Reiz und Emission zur Folge. Ist die Mittelohrkomponente genügend stark ausgeprägt (20 dB oder mehr) und sind alle Frequenzen von ihr betroffen, so sind keine TEOAE mehr nachweisbar. Rein retrococh-
leäre Hörstörungen wirken sich auf die TEOAE nicht aus. Charakteristisch für rein neurale Hörstörungen ist somit die Befundkonstellation einer schlechten Hörschwelle mit annähernd normalen Emissionen. Da viele Ursachen retrocochleärer Hörstörungen – z. B. raumfordernde Prozesse im Kleinhirnbrückenwinkel – mit cochleären Folgeschäden einhergehen, tritt diese Konstellation aber nicht zwingend auf. Insbesondere bei großen oder schon längere Zeit bestehenden Tumoren liefert die TEOAE-Messung keinen Hinweis auf die neurale Genese der Hörstörung, d. h., nachweisbare Emissionen sind auf die Frequenzbereiche annähernder Normalhörigkeit beschränkt. Die Messung der TEOAE ermöglicht keine quantitative und frequenzspezifische Bestimmung der Hörschwelle. Das Spektrum einer jeden verzögerten Emission weist unregelmäßige und individuell verschiedene Spitzen und Kerben auf, denen kein Hörverlust im Audiogramm gegenübersteht. Erst wenn in einem sehr breiten Frequenzintervall keine Emissionen auftreten, kann dies als Hinweis auf eine angehobene Hörschwelle für diese Frequenzen interpretiert werden. Eine Besonderheit ist allerdings beim isolierten Tieftonhörverlust zu beachten: Es fehlen in diesem Fall nicht grundsätzlich die Emis-
⊡ Abb. 15.24. Transitorisch evozierte otoakustische Emissionen, gemessen an einem normalhörenden Ohr. Das primäre Messergebnis sind die zwei Teilmittelwertkurven A (t) und B (t) (großer Kasten). Hie-
raus werden Spektren, Emissionsamplitude, Reproduzierbarkeit und Restrauschen berechnet. Außerdem sind die Reiz- und Geräuschbedingungen angegeben
249 15.3 · Objektive Audiometrie
sionen niedriger Frequenz, sondern die tieffrequenten Anteile mit langer Latenz (da die apikalen Antworten der Cochlea erst zu späteren Zeiten erfolgen). Dies kann aus der zeitabhängigen Schalldruckkurve oder aus den daraus berechneten Spektrogrammen abgelesen werden und es lässt sich durch Fensterung und Bandpassfilterung der gemessenen Antwort bestätigen. Bei Verwendung eines breitbandigen Reizes (Click) sind somit im Spektrum der cochleären Emissionen alle Frequenzen enthalten, bei denen die Cochlea eine annähernd ungestörte Funktion aufweist. Hörstörungen, bei denen der Hörverlust die Grenze von etwa 30 dB überschreitet, haben das Verschwinden der verzögerten Emissionen zur Folge. Die vollständige Abwesenheit eines physiologischen Echos bedeutet somit, dass der Hörverlust bei allen Frequenzen diesen Wert überschreitet. Umgekehrt kann aus der Anwesenheit von Emissionen geschlossen werden, dass zumindest ein Teil der Haarzellen eine annähernd normale Funktion aufweist und somit der minimale Hörverlust weniger als etwa 30 dB beträgt. Die Gültigkeit dieser Aussagen ist auf den Frequenzbereich zwischen 1 und 4 kHz begrenzt, Hörverluste außerhalb dieser Grenzen können mit den TEOAE nicht erfasst werden.
Otoakustische Distorsionsprodukte Die Nichtlinearität der cochleären Signalverarbeitung hat zur Folge, dass das Innenohr zwei genügend nah beieinander liegende Frequenzen nicht unabhängig voneinander verarbeiten kann. Wird es mit einem Gemisch zweier Reintöne angeregt, so entstehen bei der physiologischen Verarbeitung Sekundärtöne mit Frequenzen, die im Reiz nicht enthalten sind. Diese Verzerrungen sind sowohl subjektiv wahrnehmbar als auch in Form akustischer Aussendungen des Innenohres im Gehörgang messbar.
a
Hierauf beruht die Messung der DPOAE (distortion product otoacoustic emissions). Aus der mathematischen Betrachtung der nichtlinearen Verzerrungen mit Hilfe einer Potenzreihenentwicklung ergeben sich unter Verwendung der für trigonometrische Funktionen gültigen Rechenregeln die Formeln für die im Ausgangssignal eines nichtlinearen Systems neben den Primärfrequenzen f1 und f2 enthaltenen Frequenzen. Nach steigenden Frequenzen geordnet führen die symmetrischen (quadratischen) Verzerrungen zu Beiträgen mit den Frequenzen f2 – f1, 2f1, f2 + f1 und 2f2, die antisymmetrischen (kubischen) Verzerrungen liefern Signalkomponenten mit den Frequenzen 2f1 – f2, 2f2 – f1, 3f1, 2f1 + f2, 2f2 + f1 und 3f2. Viele dieser theoretisch möglichen Kombinationstöne sind an den Ohren von Versuchstieren und Menschen gemessen worden. Für die Funktionsprüfung des Gehörs beschränkt man sich wegen ihrer relativ guten Nachweisbarkeit auf die kubischen Distorsionsprodukte mit den Frequenzen 2f1 – f2 und 2f2 – f1, und unter diesen wiederum meist auf das erstere, also den Ton, dessen Frequenz um den Differenzbetrag der Primärfrequenzen unterhalb der beiden Reiztöne liegt (⊡ Abb. 15.25a,b). Bei den perstimulatorischen DPOAE kann die Antwort nicht im Zeitbereich, sondern nur im Frequenzbereich vom Reiz getrennt werden. Der Signalnachweis kann weitgehend automatisiert werden, da sich die Frequenz der cochleären Emission mit Hilfe der oben genannten Relationen exakt aus den Reizfrequenzen vorhersagen lässt. Die Auslösung messbarer Distorsionsprodukte gelingt am besten mit einem Reiz, der aus zwei überschwelligen Sinusdauertönen annähernd gleicher Intensität mit den Frequenzen f1 und f2 = 1.2 · f1 zusammengesetzt ist. Um den Nachweis von Verzerrungseffekten physiologischen Ursprungs zu ermöglichen, müssen technisch bedingte Nichtlinearitäten soweit wie möglich
b
⊡ Abb. 15.25a,b. a Im Gehörgang gemessenes Spektrum bei Stimulation mit zwei Sinustönen. Mit zunehmender Zahl von Mittelungen ragen die den kubischen Differenztönen entsprechenden Verzerrungen immer deutlicher aus dem Geräuschuntergrund heraus. b Darstellung der Amplitude des Distorsionsproduktes in dB SPL in Abhängigkeit von der
Reizfrequenz f2 in kHz (DP-gram) bei Stimulation eines normalhörenden Ohres mit zwei Primärtönen gleicher Intensität (L1=L2=67 dB SPL). Die schattierte Fläche im unteren Teil des Diagramms entspricht dem Restrauschen, ihre oberen Grenzen sind gegeben durch den um eine bzw. zwei Standardabweichungen vermehrten mittleren Geräuschpegel
15
250
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
eingeschränkt werden. Aus diesem Grund werden die zwei Sinustöne über getrennte Wandler ans Ohr gebracht. Die DPOAE-Gehörgangssonde enthält daher zwei Hörer und ein Mikrophon. Vor Beginn der Messung werden die im Restvolumen des Gehörgangs vorliegenden akustischen Bedingungen überprüft, indem die Übertragungsfunktion des Gehörgangs bei Anregung mit breitbandigen Clickreizen registriert wird. Im Idealfall erhält man einen geradlinigen horizontalen Verlauf des Schallpegels über einen breiten Frequenzbereich, bei größeren Schwankungen muss die Sondenlage kontrolliert und korrigiert werden. Werden die Wandler zu verschiedenen Zeiten angesteuert und die Antworten getrennt aufgezeichnet, so lässt sich nicht nur die Gehörgangsantwort, sondern zugleich die Funktion der zwei Hörer und der dazugehörigen Sondenbohrungen überprüfen. Während der DPOAE-Messung werden zeitlich begrenzte und auf die Phase der Reiztöne synchronisierte Abschnitte des Mikrophonsignals aufgezeichnet und summiert. Die phasengerechte Summation bewirkt eine relative Verstärkung von Reiz und cochleärer Antwort gegenüber dem nicht synchronisierten Störgeräusch. Im Spektrum des aktuellen Mittelungsergebnisses treten dadurch die Linien, welche den Frequenzen der Distorsionsprodukte entsprechen, zunehmend deutlicher aus dem Geräuschuntergrund hervor (⊡ Abb. 15.25a). Die Amplitude des Distorsionsprodukts mit der Frequenz 2f1–f2 wird aus dem Spektrum abgelesen und für mehrere Reizfrequenzen gemeinsam mit der Amplitude des jeweils aus einem schmalen Frequenzband berechneten Hintergrundgeräusches dargestellt (⊡ Abb. 15.25b). Die frequenzselektive Reizung mit zwei Sinustönen regt nur eng umgrenzte Bereiche der Basilarmembran an. Dem konstanten Frequenzverhältnis f2/f1≈1,2 entspricht ein fester, von den Reizfrequenzen unabhängiger Abstand zwischen den aktivierten Bereichen. Er beträgt etwa 1,3 mm und entspricht bei Frequenzen oberhalb von 500 Hz einer Frequenzgruppenbreite. Das Verzerrungsprodukt entsteht in der Überlappungszone der zwei primär angeregten Bereiche. Wegen der Asymmetrie des Wanderwellenmaximums liegt diese Zone nicht exakt in der Mitte, sondern näher an dem Ort, an dem die höhere der zwei Frequenzen (f2) verarbeitet wird. Dementsprechend ist die Korrelation zwischen der Emissionsamplitude ADP und der bei f2 bestimmten Hörschwelle HV(f2) sehr viel deutlicher als zwischen ADP und HV(f1). Ein weiterer Hinweis auf die Entstehung des Distorsionsproduktes an dem der Frequenz f2 zugeordneten Ort wurde mit Suppressionsexperimenten erhalten: Es zeigt sich, dass die Unterdrückung der DPOAE durch Beschallung mit einer variablen Frequenz dann die größte Wirkung hat, wenn die Frequenz des Suppressors gleich f2 ist. Die Breite der Überlappungszone nimmt mit steigendem Reizpegel zu. Hieraus ergeben sich zwei Konsequenzen: Erstens erteilt die Messung der DPOAE zumin-
dest bei hohen Reizpegeln keine sehr frequenzspezifische Auskunft über die Hörschwelle, und zweitens müssen Frequenzverhältnis oder Pegeldifferenz der Primärtöne gezielt verändert werden, wenn die DPOAE mit schwellennahen Reizen gemessen werden sollen. Für den Zusammenhang zwischen DPOAE-Parametern und Hörverlust gelten Regeln, die denen bei den TEOAE sehr ähnlich sind: ▬ Die mit den Frequenzen f1 und f2 = 1,2 · f1 ausgelösten DPOAE treten bei normalhörenden Ohren mit einer Inzidenz von annähernd 100% auf. ▬ Die Emissionsamplitude nimmt mit zunehmendem Hörverlust statistisch ab. ▬ Beträgt der Hörverlust bei der Frequenz f2 mehr als etwa 50 dB, so sind im statistischen Mittel keine DPOAE mehr nachweisbar. ▬ Inzidenz und Amplitude der DPOAE werden durch rein retrocochleäre Hörstörungen nicht beeinflusst. ▬ Schallleitungsschwerhörigkeiten bewirken zunächst eine Dämpfung der niedrigen Frequenzen, bei stärkerem Hörverlust verschwinden die DPOAE vollständig. Diese Regeln gelten für alle Reiztonpaare, für die f2 zwischen 1 und 4 kHz liegt. Bei niedrigeren Frequenzen liegt die Inzidenz nachweisbarer Emissionen selbst bei normalhörenden Ohren deutlich unterhalb 100%, bei höheren Frequenzen wird die DPOAE-Messung häufig durch technisch bedingte Verzerrungen verfälscht. Die derzeitige Anwendung der OAE in der praktischen Audiometrie geht davon aus, dass mit ihrer Hilfe zwar keine exakte Bestimmung, aber eine Eingrenzung der Hörschwelle in die Kategorien geringgradiger, mittelgradiger und hochgradiger Innenohrhörstörungen zulassen. Diese Eingrenzung gelingt durch die Kombination von TEOAE und DPOAE, da bei standardisierten Messbedingungen die ersteren nur nachgewiesen werden können, wenn das untersuchte Ohr bei keiner Frequenz einen Hörverlust oberhalb 30 dB aufweist, die letzteren hingegen bis zu einer um etwa 50 dB angehobenen Hörschwelle erhalten bleiben. Insbesondere für die gegenüber Störeinflüssen sehr robusten TEOAE ist die Eignung zu einer zuverlässigen und objektiven, evtl. auch in Hinblick auf die Auswertung automatisierbaren Hörprüfung vielfach erwiesen, wodurch dieses Verfahren die optimalen Voraussetzungen für ein screening zur Früherkennung kindlicher Hörstörungen aufweist. Ob mit den OAE über dichotome Aussagen hinaus quantitative Ergebnisse z. B. in Hinblick auf die frequenzspezifische objektive Hörschwellenbestimmung gewonnen werden können, ist derzeit noch nicht abzusehen. Viele aktuelle Arbeiten konzentrieren sich auf die Frage, ob mit Hilfe der Reizpegelabhängigkeit der Amplitude (»Wachstumsfunktion«) oder anderer signalanzeigender Parameter der OAE die Hörschwelle quantitativ bestimmt werden kann. Die Ergebnisse sind ermutigend, jedoch für die praktische Anwendung noch nicht abgesichert.
251 15.3 · Objektive Audiometrie
15.3.3 Akustisch evozierte Potentiale
Akustisch evozierte Potentiale (AEP) sind elektrische Spannungen physiologischen Ursprungs, die durch einen mit auditorischen Empfindungen einhergehenden akustischen oder elektrischen Reiz ausgelöst und mit Hilfe von Elektroden gemessen werden können. Die Gesamtheit der Verfahren zur Untersuchung von Eigenschaften des Gehörs mit Hilfe der AEP wird als electric response audiometry (ERA) oder »Elektrische Reaktions-Audiometrie« bezeichnet. Es handelt sich um objektive Funktionsprüfungen, die eine quantitative Hörschwellenbestimmung ermöglichen. Schon allein aufgrund dieses Merkmals kommt der ERA innerhalb des audiometrischen Testinventars eine große Bedeutung zu. Noch größerer Nutzen wird jedoch darüber hinaus aus der Tatsache gezogen, dass mit Hilfe der ERA differential- oder topodiagnostische Aussagen, insbesondere zur Unterscheidung zwischen sensorisch und neural bedingten Hörstörungen, gewonnen werden können. Die Schwierigkeit bei der Messung der AEP besteht darin, dass ein Signal sehr kleiner Amplitude (das AEP) in Anwesenheit eines starken Rauschens (dem spontanen EEG) nachgewiesen werden muss. Die Amplitude der Störeinflüsse kann – v. a. wenn zum EEG noch Muskelpotentiale und externe elektromagnetische Störsignale hinzukommen – je nach Frequenzbereich um einige Größenordnungen über der Amplitude des Nutzsignals liegen. Die Messung der AEP erfordert daher zunächst eine weitgehende Einschränkung vermeidbarer Störungen. Die folgenden Maßnahmen tragen zur Verbesserung des Signal/Rausch-Verhältnisses bei: ▬ Entspannte und bequeme Lagerung des Patienten ▬ Akustische und elektrische Abschirmung ▬ Lineare EEG-Verstärkung mit hoher Gleichtaktunterdrückung ▬ Filterung des EEG-Signals ▬ Artefaktunterdrückung ▬ Signalmittelung. Die Messung der AEP beruht auf der Ableitung des EEG während akustischer Stimulation. Der Patient sollte während der Messung entspannt sitzen oder liegen. Soweit die Potentiale von der Vigilanz unabhängig sind (wie dies bei den peripher entstehenden Komponenten der Fall ist), lassen sich die Messbedingungen durch Spontanschlaf, Sedierung oder Narkose verbessern. Die akustische Stimulation erfolgt über Kopfhörer, seltener über Freifeldlautsprecher, Knochenhörer oder Einsteckhörer. Die akustischen Reize weisen bei den meisten praktischen Anwendungen eine kurze Dauer auf oder sie sind zeitlich moduliert. Die EEG-Aktivität wird über Oberflächenelektroden registriert, die auf die Kopfhaut geklebt werden. Wenn ein akustisch und elektrisch abgeschirmter Raum verfügbar ist, werden Patient, Wandler und EEG-Ver-
stärker darin untergebracht. Außerhalb der Abschirmung befinden sich der Untersucher und die restliche Apparatur, die im Wesentlichen aus einem Reizgenerator, einem Analog/Digital-Wandler und einem Rechner besteht.
Transiente Potentiale Ein großer Teil der elektrischen Reaktionen des Hörsystems ist nur als verzögerte und zeitlich begrenzte (transiente) Antwort auf den Beginn eines zeitlich begrenzten Reizes registrierbar. Messung und Reizgebung EEG-Analyse sind aufeinander synchronisiert, wobei die Intervalle zwischen zwei Reizen konstant oder randomisiert sein können. Die Registrierung eines EEG-Abschnitts beginnt gleichzeitig mit oder kurz vor der Reizgebung. Die Mittelung vieler reizkorrelierter Signalabschnitte ergibt eine zeitabhängige Potentialkurve, die außer den AEP das in der Amplitude reduzierte EEG-Rauschen (Reststörung) enthält. Die gehördiagnostischen Aussagen ergeben sich aus der Auswertung der mit Reizen unterschiedlicher Qualität (z. B. Frequenz) und Intensität gemessenen Potentialkurven und den aus ihnen abgelesenen Bestimmungsgrößen. Für das Zustandekommen messbarer evozierter Potentiale müssen viele Nervenaktionspotentiale mit einem hohen Synchronisationsgrad erzeugt werden. Dies gelingt nur mit Reizen, die mit schnellen Änderungen einhergehen. Die Änderungen können prinzipiell jedes auditorisch differenzierbare Merkmal des Reizes betreffen. Am häufigsten ist dieses Merkmal die Intensität bzw. der Schalldruck des Reizes, und die Änderung wird durch das Ein- oder Ausschalten des Reizes herbeigeführt. Die üblichen transitorischen Reize sind der breitbandige Click und der frequenzselektive Tonpuls. Grundsätzlich schließen sich hohe Frequenzselektivität und kurze Reizdauer gegenseitig aus. Potentiale, die eine hohe Synchronisation erfordern, liefern aus diesem Grund wenig frequenzspezifische Information. Umgekehrt lässt sich mit den frequenzselektiven Reizen keine genaue Auskunft über die Zeitabhängigkeit (Latenz) der Potentiale gewinnen. Die transienten AEP setzen sich aus vielen einzelnen vertexpositiven und -negativen Potentialgipfeln zusammen, die in verschiedenen Teilen der aufsteigenden Hörbahn entstehen und entsprechend ihrer Latenzzeit in drei Gruppen eingeteilt werden: Als frühe akustisch evozierte Potentiale (FAEP) bezeichnet man die Komponenten im Zeitbereich von 1–10 ms, die mittleren AEP (MAEP) schließen sich mit Latenzen bis 50 ms an und ihnen folgen die späten AEP (SAEP) mit Latenzen bis 500 ms. Die Messmethoden werden mit BERA (brainstem electric response audiometry) für die frühen, MLRA (middle latency response audiometry) für die mittleren und CERA (cortical electric response audiometry) für die späten AEP bezeichnet. Die genannten Namen der Untersuchungsverfahren weisen teilweise auf die anatomische Lokalisati-
15
252
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
on der Potentialgeneratoren hin. Die Zuordnung ist nicht eindeutig geklärt, doch kann als sicher angesehen werden, dass das Potential J1 im Hörnerven, die FAEP J3 und J5 im Hirnstamm, die MAEP im Thalamus (Zwischenhirn) und im primären auditorischen Cortex und die SAEP in der Hörrinde generiert werden. Außer den bisher genannten Potentialen sind noch spätere elektrische Reizantworten bekannt, die den Ablauf von auditiven Wahrnehmungs- oder Diskriminationsprozessen widerspiegeln. Zu ihnen zählt eine vertexnegative Welle mit einer Latenz von etwa 200 ms (N200). Sie lässt sich beobachten, wenn in eine Reihe gleichartiger Töne seltene abweichende Reize eingebettet werden (mismatch negativity, MMN). Wird der Proband aufgefordert, die seltenen Reize mitzuzählen oder mit einer motorischen Reaktion anzuzeigen, so entsteht eine positive Halbwelle (event related potential, ERP) mit einer Latenz von etwa 300 ms (P300). Da der Nachweis dieser Potentiale eine aktive Mitarbeit des Probanden erfordert, werden sie für die objektive Audiometrie wenig verwendet. In sehr langsamen Spannungsänderungen (contingent negative variation, CNV) und noch späteren Vorgängen (N400) spiegeln sich die Erwartung eines durch eine Warnung angekündigten Reizes und die Verarbeitung der semantischen Information in Sprachsignalen wider. Auf die Unterschiede in Reizgebung und Signalverarbeitung ist es zurückzuführen, dass nicht alle AEP mit einer einzigen Messung erfasst werden können. Prinzipiell ist das Vorgehen bei der Messung früher, mittlerer und später Potentiale aber das gleiche, sodass sich mit einer Apparatur durch Veränderung einiger Reiz- und Messparameter (Reiztyp, Reizpause, EEG-Verstärkung, Filtergrenzen, Abtastrate und Zahl der Mittelungen) alle Potentiale messen lassen. Das EEG-Signal wird mit Hilfe von Elektroden erfasst, die üblicherweise an Vertex und Mastoid befestigt werden. Die Erdungselektrode befindet sich an der Stirn. Das verstärkte, gefilterte und A/D-gewandelte EEG-Signal wird im Rechner einer Artefaktkontrolle unterworfen, die der Auswahl der unterhalb einer vorgegebenen Amplitudenschranke liegenden EEG-Abschnitte dient. Die Summation von N Signalabschnitten (N≈2000 für FAEP, N≈600 für MAEP und N≈50 für SAEP) verstärkt die reizkorrelierten Signalanteile (z. B. die AEP) linear, die stochastischen Anteile hingegen im Fall stationärer Bedingungen näherungsweise proportional zu √N und verbessert somit das Signal/ Rausch-Verhältnis gemäß dem durch G =10 · log N dB gegebenen Störbefreiungsgewinn (vgl. ⊡ Abb. 15.22). Sind die Störungen nicht stationär, so lässt sich die Signalqualität durch die gewichtete Mittelung verbessern, wobei die Kehrwerte von Varianz oder Maximalamplitude der einzelnen Abschnitte als Gewichte dienen. Qualität und Zuverlässigkeit der Messergebnisse lassen sich durch das Verhältnis der Varianzen von Gesamtantwort und Restrauschen (response to noise ratio, SNR),
durch den aus zwei Teilmittelwertkurven berechneten Korrelationskoeffizienten oder durch einen visuellen Vergleich der Teilmittelwerte untereinander abschätzen. Zur Auswertung der AEP gehören die Identifizierung der einzelnen Potentialkomponenten und die Ermittlung ihrer Koordinaten (Latenz und Amplitude). Ersteres dient der Hörschwellenbestimmung, letzteres ermöglicht die Differentialdiagnostik von Hörstörungen. Die Gesamtheit der frühen Potentiale aus Hörnerv und Hirnstamm (FAEP) wird mit der BERA untersucht. Die häufig auch als Hirnstammaudiometrie bezeichnete Methode umfasst den post-Stimulus-Zeitbereich von 1 bis etwa 12 ms. Die FAEP lassen sich wegen ihrer kleinen Amplitude (100 nV bis 0,5 μV) nur durch einen hohen Synchronisationsgrad, wie er z. B. durch den Clickreiz erzeugt wird, mit genügend großer Amplitude messen. Eine frequenzspezifische Bestimmung der Hörschwelle ist daher nicht möglich. Die frühen Potentiale sind sehr stabil gegenüber Vigilanzschwankungen und pharmakologischen Einflüssen, daher ist ihre Ableitung auch im Schlaf oder in Narkose möglich. Sie sind regelmäßig ab Geburt vorhanden, allerdings in den ersten Lebensmonaten in einer modifizierten Form, die wegen der noch nicht abgeschlossenen Hörbahnreifung hinsichtlich Morphologie und Latenzen vom Potentialmuster des Erwachsenen abweicht. Die FAEP setzten sich aus mehreren Potentialkomponenten zusammen, die in verschiedenen Stationen der aufsteigenden Hörbahn in Hörnerv und Hirnstamm entstehen und entsprechend ihrer zeitlichen Aufeinanderfolge mit J1 bis J5 bezeichnet werden (⊡ Abb. 15.26). Das vollständige Potentialmuster ist nur bei weit überschwelliger Stimulation zu beobachten. Die Amplituden der Potentiale nehmen mit zunehmender Reizintensität zu, ihre Latenzzeiten nehmen hingegen ab (d. h., Reize geringerer Intensität gehen mit einer längeren cochleären Verarbeitungszeit einher). Diese Zusammenhänge werden in einem Kennliniendiagramm dargestellt, in welchem auch etwaige Abweichungen vom Normalverlauf gut erkennbar sind. Die mangelnde Frequenzspezifität der durch breitbandige Clickreize ausgelösten FAEP begrenzt den infolge ihrer sonstigen günstigen Eigenschaften (Unabhängigkeit von Reifungszustand und Vigilanzniveau) breiten Einsatzbereich. Dies war Motiv für intensive Bemühungen um eine frequenzspezifische Audiometrie mit Hilfe früher Potentiale. Einer der zahlreichen Ansätze beruht auf der Stimulation mit kurzen Tonpulsen und gleichzeitiger Maskierung mit kerbgefiltertem Breitbandrauschen (notch noise BERA). Die mit diesem Verfahren erhaltenen Reizantworten können für Frequenzen zwischen 500 Hz und 4 kHz in vielen Fällen bis in die Nähe der Hörschwelle nachgewiesen werden. Den Eigenschaften der cochleären Wanderwelle entsprechend sind die Latenzzeiten der Antworten länger für niedrige als für hohe Frequenzen. Dieselben physiologischen Mechanismen sind der Grund
253 15.3 · Objektive Audiometrie
⊡ Abb. 15.26. FAEP bei Normalgehör (gemessen an einer 15-jährigen Patientin). Es sind links die Potentialkurven und rechts die Tabelle mit Latenz- und Amplitudenwerten sowie die daraus erzeugten Kennlinien gezeigt
dafür, dass die neuronale Aktivität bei niedrigen Frequenzen weniger gut synchronisiert ist und dies wiederum begrenzt die Genauigkeit der Hörschwellenbestimmung. Die wichtigsten Einsatzgebiete der BERA sind die objektive Bestimmung der Hörschwelle bei Säuglingen, Kleinkindern und Kindern sowie die topodiagnostische Unterscheidung zwischen sensorischen und neuralen Hörstörungen. Die Hörschwelle wird visuell aus den Messkurven oder – bei ausreichender Messqualität – aus der Amplitudenkennlinie abgelesen. Für die Gewinnung differentialdiagnostischer Aussagen werden Latenzen und Amplituden gemessen und in Abhängigkeit vom Reizpegel aufgetragen. Über den Vergleich mit den Normalkennlinien, die Berechnung von Latenzdifferenzen, insbesondere der cochleo-mesencephalen Latenzdifferenz (»Hirnstammlaufzeit«) t5–t1, und die Auswertung von Seitendifferenzen kann zwischen konduktiven, sensorischen und neuralen Läsionen unterschieden werden. Verlängerte Latenzen aller Potentiale treten bei mittelohrbedingten Hörstörungen auf. Bei innenohrbedingten Hörstörungen werden – je nachdem, welcher Frequenzbereich von der Störung betroffen ist – Latenzverlängerungen allenfalls bei schwellennahen Reizen beobachtet,
im überschwelligen Reizpegelbereich liegen hingegen häufig normale Latenzen vor. Die BERA weist im Hinblick auf den Nachweis von raumfordernden Prozessen im Kleinhirnbrückenwinkel eine hohe Sensitivität auf. Sie leistet somit etwas, was mit subjektiven Verfahren grundsätzlich nicht oder nur mit geringer Zuverlässigkeit möglich ist. Ergänzt wird sie durch die Untersuchung des Stapediusreflexes und die Funktionsprüfung des Gleichgewichtsorgans. Wenn eine oder mehrere dieser Untersuchungen den Verdacht auf das Vorliegen einer retrocochleären Störung erhärten, wird der Befund mit Hilfe von bildgebenden Verfahren (Computer- und Kernspintomographie) überprüft. Die akustisch evozierten Potentiale mittlerer Latenz (MAEP) werden in der audiologischen Diagnostik wenig genutzt. Hinsichtlich ihrer Eigenschaften (z. B. Amplitude, Reifungsabhängigkeit und Vigilanzeinfluss) und ihrer diagnostischen Aussagekraft (z. B. Frequenzspezifität) liegen sie zwischen den frühen und den späten AEP-Komponenten. Sie erreichen jedoch weder die den FAEP eigene hohe Stabilität gegenüber Reifung, Vigilanzzustand und pharmakologischen Einflüssen, noch können sie sich in der Zuverlässigkeit der frequenzspezifischen Hörschwel-
15
254
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
lenbestimmung mit den SAEP messen. Daher wird in der Praxis selten die MLRA, sondern je nach Fragestellung entweder die BERA oder die CERA angewendet. Die mit der CERA erfassten späten oder Hirnrindenpotentiale liegen im Zeitbereich 100 bis 500 ms post Stimulus. Ihre Potentialmaxima und -minima bei etwa 100, 200 und 300 ms werden mit N1, P2 und N2 bezeichnet (⊡ Abb. 15.27). Die Amplitude des Potentialkomplexes nimmt mit steigendem Reizpegel zu, die Latenz der einzelnen Komponenten hängt nur in Schwellennähe vom Reizpegel ab. Latenz und Amplitude können sich im Schlafzustand und bei Vigilanzschwankungen stark verändern. Daher sind nur bei wachen und aufmerksamen Patienten zuverlässige Ergebnisse zu erwarten. Bei Säuglingen und Kleinkindern ist die CERA aus diesen Gründen und wegen der nicht abgeschlossenen Reifung der cortikalen Hörbahn nicht einsetzbar. Hirnrindenpotentiale können mit nahezu allen zeitlich begrenzten akustischen Reizen ausgelöst werden. Typischerweise werden Tonpulse definierter Frequenz mit einer Dauer von etwa 30 bis 500 ms verwendet. Wird der Pegel dieser Reize verändert, so kann für jede Frequenz aus
der Anwesenheit der Potentiale die Hörschwelle bestimmt und somit ein objektives Tonaudiogramm geschrieben werden. Die Genauigkeit beträgt hierbei etwa ±10 dB. Da die bewusste Wahrnehmung nicht der Aktivität im primären auditorischen Cortex sondern in den höheren Assoziationszentren entspricht, kann der subjektive Hörvorgang auch mit den SAEP nicht nachgewiesen werden. Hierzu sind allenfalls andere Untersuchungsverfahren, die noch spätere Reizantworten erfassen und eine aktive Mitarbeit des Patienten erfordern, in der Lage.
Steady state responses Während die Messung der bisher behandelten transienten Potentiale eine Pause zwischen den akustischen Reizen erfordert, wird mit den stationären Potentialen oder auditory steady state responses (ASSR) das Hörsystem im eingeschwungenen Zustand untersucht. Der akustische Reiz liegt ohne Unterbrechung vor, während das EEG registriert und analysiert wird. Weil die perstimulatorische Analyse des EEG-Signals eine andere Vorgehensweise verlangt, unterscheidet sich die Messung der ASSR
⊡ Abb. 15.27. Mit der CERA an einem 51-jährigen normalhörenden Probanden bei vier Frequenzen und verschiedenen Reizpegeln gemessene SAEP. Links neben jeder Kurve sind Reiz- und Vertäubungspegel, am rechten Rand jeweils die Effektivamplituden des Gesamtmittelwertes im Zähler und im Nenner der (durch 2 dividierten) Differenz der Teilmittelwerte angegeben
255 15.3 · Objektive Audiometrie
in methodischer Hinsicht grundsätzlich von der konventionellen ERA. Durch die Mittelung oder statistische Auswertung wird hier nicht eine zeitabhängige Kurve rekonstruiert, sondern ein mit der physiologischen Reizverarbeitung zusammenhängendes Merkmal des EEGSignals herausgearbeitet. Zeitlich unveränderliche Reize sind hierfür allerdings ungeeignet, denn sie führen zu einer zwar stochastischen aber stationären und dadurch vor dem Hintergrund des EEG nicht nachweisbaren neuronalen Aktivität. Unter mehreren Varianten der ASSR haben die Antworten auf amplitudenmodulierte Reize (amplitude modulation following responses, AMFR) in jüngerer Zeit besondere Bedeutung gewonnen. Akustischer Reiz und Signalnachweis sind in ⊡ Abb. 15.28 schematisch dargestellt. Die Amplitude eines Dauertones, dessen Trägerfrequenz fT im Bereich von 250–8000 Hz liegt, wird mit einer Modulationsfrequenz fM zwischen 40 und 120 Hz moduliert. Der Modulationshub beträgt 80–100%. Häufig wird zugleich auch die Frequenz fT moduliert, zur Wahrung der Frequenzspezifität allerdings mit einer wesentlich kleineren Modulationstiefe von typischerweise 10%. Der modulierte Reiz führt zu einer Synchronisation der Aktivität von Neuronengruppen, wahrscheinlich in den zwischen Mittelhirn und Thalamus liegenden Abschnitten der Hörbahn. Daher findet sich die Modulationsfrequenz im EEG-Signal wieder, das entweder lateral (Vertex gegen Mastoid) oder – insbesondere bei der simultanen Stimulation beider Ohren – medial (Vertex gegen Okziput) abgeleitet wird. Zur Detektion dieser Frequenz wird das verstärkte und schmalbandig gefilterte Elektrodensignal in den Frequenzbereich transformiert und in der Umgebung der Modulationsfrequenz hinsichtlich Amplitude und Phase analysiert. Die neuronale Reizantwort gilt als nachgewiesen, wenn die Amplitude der Frequenz fM nach Maßgabe statistischer Tests signifikant aus dem Untergrund des gemittelten Spektrums herausragt oder die auf die Modulation des Reizes bezogene Phase dieser Frequenz eine signifikante Abweichung von der Zufallsverteilung aufweist. Grundsätzlich gilt für hohe mehr als für niedrige Modulationsfrequenzen, dass die Amplitude der Reizantwort vom Vigilanzzustand und von der altersabhängigen organischen und funktionellen Reifung der Hörbahn unabhängig ist. Ziel und Anspruch der Methode bestehen darin, eine frequenzspezifische, objektive und automatische Bestimmung der Hörschwelle bei Kindern zu ermöglichen. Hierfür haben sich Modulationsfrequenzen im Bereich von 90 Hz als geeignet herausgestellt weil die von ihnen evozierte EEG-Aktivität in geringerem Maße als die Antworten auf niedrige Modulationsfrequenzen von Vigilanz und Reifung abhängen. Da die Identifikation der AMFR auf der im EEG repräsentierten Modulationsfrequenz des Reizes beruht, kann die Stimulation mit mehreren unterschiedlich modulierten Trägerfrequenzen und sogar auf beiden Ohren zur glei-
chen Zeit erfolgen, soweit die verwendeten Reizpegel eine gegenseitige Maskierung ausschließen. Das diagnostische Potential der AMFR kann gegenwärtig noch nicht abschließend bewertet werden. In der experimentellen Audiologie werden derzeit effektive Reizparadigmen erprobt und statistische Verfahren für den Signalnachweis hinsichtlich ihrer Leistungsfähigkeit verglichen. Für die praktische Anwendung existieren bereits einige Systeme, die die für den amplitudenmodulierten Reiz charakteristische EEG-Aktivität detektieren und die Reizantwortschelle mit Hilfe adaptiver Algorithmen aufsuchen.
⊡ Abb. 15.28. Schematische Darstellung des Reizes und des Signalnachweises bei der Registrierung von AMFR. Das Spektrum des amplitudenmodulierten Reizes (oben) weist drei Linien bei den Frequenzen fT–fM, fT und fT+fM auf (Mitte). Die Modulationsfrequenz fM findet sich im Spektrum des EEG-Signals wieder (unten)
15
256
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
15.4
I
Hörprothetik
Viele Hörstörungen können mit apparativer Hilfe zumindest teilweise kompensiert werden. Zu den technischen Hörhilfen gehören das konventionelle schallverstärkende Hörgerät (HG) sowie (teil)implantierbare Hörsysteme und das Cochlea-Implantat (CI). Da weder Hörgeräte noch ein CI das normale Hörvermögen wiederherstellen können, wird von der Möglichkeit einer apparativen Korrektur nur dann Gebrauch gemacht, wenn alle in Frage kommenden konservativen und operativen Maßnahmen zu keinem befriedigenden Erfolg führen. Wie bei jeder medizinisch indizierten Therapie muss auch in der Hörprothetik das Auftreten unerwünschter Nebenwirkungen gegen den zu erwartenden Behandlungserfolg abgewogen werden. Bei Hörgeräten, die ja die Aufgabe haben, das geschädigte Ohr mit einer erhöhten Intensität zu beschallen, besteht grundsätzlich die Gefahr einer Lärmschädigung des versorgten Ohres. Die CI-Versorgung ist mit den allgemeinen Risiken einer Operation verbunden und sie kann zum Verlust eines eventuell noch vorhandenen Restgehörs führen. Hieraus wird deutlich, dass der HNO-Arzt in die Entscheidung zur prothetischen Versorgung und die Überwachung des Versorgungserfolges eingebunden sein muss. Die Auswahl des geeigneten Hörgerätes und seine individuelle Anpassung an das Ohr sind hingegen Sache des Hörgeräte-Akustikers. Ausgenommen von dieser vertraglich vereinbarten Arbeitsteilung sind die CI-Versorgung, die nur an hierfür spezialisierten Zentren durchgeführt werden kann, und die HG-Versorgung von Kindern, in die außer HNO-Arzt und HG-Akustiker auch Pädaudiologen und Fachpädagogen einbezogen sind.
15.4.1 Versorgungsbedürftige Hörstörungen
Als Fundament für die Abwägung verschiedener Therapiemöglichkeiten benötigt der HNO-Arzt einen möglichst vollständigen audiometrischen Befund. Unter Ausschöpfung der in Abschn. 15.2 und Abschn. 15.3 beschriebenen diagnostischen Möglichkeiten muss Klarheit darüber gewonnen werden, welche Komponente des Gehörs ein Funktionsdefizit aufweist und somit für die Schwerhörigkeit verantwortlich ist. Hieraus ergeben sich Möglichkeit bzw. Notwendigkeit einer Korrektur mittels einer Hörhilfe sowie Hinweise auf die optimale Versorgungsart. Entsprechend der in ⊡ Abb. 15.5 gezeigten Klassifikation muss zwischen mittelohrbedingten, sensorischen, neuralen und zentralen Schwerhörigkeiten unterschieden werden. Mittelohrschwerhörigkeiten können in vielen Fällen konservativ (d. h. mit Hilfe von Medikamenten) oder operativ (d. h. durch einen ohrchirurgischen Eingriff) behoben werden. Störungen des Innenohres lassen sich in den meisten Fällen auf einen Funktionsausfall der äußeren Haarzellen zurückführen; zur Wiederherstellung
ihrer Funktion bestehen heute weder konservative noch operative Möglichkeiten. Hinter retrocochleären (neuralen) Hörstörungen verbergen sich häufig ernste Krankheitsbilder, wie z. B. Multiple Sklerose oder Nerven- bzw. Hirnstammtumoren. Die Behandlung dieser Erkrankung nimmt für die betroffenen Patienten vor der Behandlung der Hörstörung die höhere Priorität ein. Ein Hörgerät kommt somit als Mittel zur Korrektur einer Hörstörung in Betracht, wenn ▬ eine Mittelohrschwerhörigkeit ausgeschlossen oder nicht korrigierbar ist; ▬ eine Innenohrschwerhörigkeit vorliegt; ▬ bei neuralen oder zentralen Schwerhörigkeiten keine konservative oder operative Korrektur möglich ist. Die audiologischen Kriterien für eine Hörgeräteversorgung sind in den einschlägigen Bestimmungen folgendermaßen festgelegt: ▬ Im Fall einer beidseitigen Schwerhörigkeit muss der Hörverlust auf dem besser hörenden Ohr bei mindestens einer der Prüffrequenzen zwischen 500 und 3000 Hz die Grenze von 30 dB überschreiten. ▬ Im Fall einer einseitigen Schwerhörigkeit muss der Hörverlust auf dem besser hörenden Ohr bei mindestens zwei Prüffrequenzen innerhalb des angegebenen Bereiches oder bei 2000 Hz die Grenze von 30 dB überschreiten. ▬ Das Einsilberverstehen darf bei 65 dB die Grenze von 80% nicht überschreiten. Die beidseitige Schwerhörigkeit begründet den Anspruch auf eine beidohrige (binaurale) HG-Versorgung, da die andernfalls verbleibende einseitige Schwerhörigkeit das Richtungshörvermögen und die sprachliche Kommunikation im Störgeräusch und in halliger Umgebung beeinträchtigt und zur Entstehung von subjektiven Ohrgeräuschen (Tinnitus) führen kann. Dies gilt für alle technischen Hörhilfen einschließlich CI. Bei schallverstärkenden konventionellen oder implantierbaren Hörsystemen ist darüber hinaus zu beachten, dass die beidohrige Versorgung mit einem kleineren Schädigungsrisiko verbunden ist, da das Hören mit zwei Ohren den nutzbaren Schallpegel um 3 dB erhöht und somit ein geringerer Verstärkungsbedarf besteht. Der Versorgungserfolg wird bei konventionellen schallverstärkenden Hörgeräten auch von der Bauform mitbestimmt. In den meisten Fällen werden heute hinter dem Ohr (HdO) oder im Ohr (IdO) getragene Hörgeräte verwendet. Bei letzteren werden weiter die vollständig im Gehörgang untergebrachten CIC-Geräte (completely in the canal) und die größeren, teilweise in der Ohrmuschel getragenen Concha-Geräte unterschieden. Von kosmetischen und praktischen Aspekten abgesehen weist das IdO-Gerät im Vergleich zum HdO-Gerät den Vorteil auf, dass die natürliche Verstärkung und richtungsabhängige
257 15.4 · Hörprothetik
Filterung des Außenohres weiterhin genutzt werden kann. Dies reduziert den Verstärkungsbedarf und es verbessert das Richtungshörvermögen und das Sprachverstehen im Störgeräusch. Darüber hinaus wird das Schallsignal weniger verzerrt, da für die Schallzuführung kein Schallschlauch erforderlich ist.
15.4.2
Hörgeräte: Technik und Anpassverfahren
Das konventionelle schallverstärkende HG ist ein elektronisches Hilfsmittel, welches den akustischen Reiz in verstärkter Form bereitstellt. Seine wesentlichen Bestandteile sind ein Schallaufnehmer (Mikrophon), ein Verstärker mit den notwendigen Korrektur- bzw. Stellorganen, eine Energiequelle (Batterie) zum Betrieb des Verstärkers und ein Schallgeber (Hörer). Als zusätzliche Bestandteile können Schallschlauch, Ohrpassstück (Otoplastik), akustische Filter, eine Induktionsspule (Telefonspule), eine Eingangsbuchse und eine Fernbedienung vorhanden sein. Der prinzipielle Aufbau und das Funktionsprinzip eines Hörgerätes sind in ⊡ Abb. 15.29 gezeigt. Das Schallsignal wird vom Mikrophon in eine zeitabhängige elektrische Spannung gewandelt. Liegt die akustische Information zusätzlich als elektrisches Signal vor (z. B. bei Telefon, Fernseher oder Stereoanlage), so können zwei Wandlungen umgangen werden, indem das elektrische Signal entweder über eine Induktionsspule oder eine Eingangsbuchse direkt in das Hörgerät eingespeist wird. Das elektrische Signal wird um einen Faktor, der von Frequenz und Intensität abhängen kann, verstärkt, optional gefiltert und begrenzt und schließlich dem Ausgangswandler (Hörer) zugeführt. Dieser strahlt es mit einem erhöhten Schalldruck ab, es wird entweder direkt oder über einen Schlauch dem Trommelfell zugeführt und steht somit dem schwerhörigen Ohr in höherer Intensität zur Verfügung. Gegebenenfalls müssen Einrichtungen zur Unterdrückung der akustischen Rückkopplung vorgesehen werden. Die hohen Anforderungen an ein Hörgerätemikrophon hinsichtlich Abmessungen, Wirkungsgrad, Übertragungseigenschaften, Empfindlichkeit, Energiebedarf und Temperaturunabhängigkeit erfüllt das mit einem Feldeffekttransistor als Impedanzwandler betriebene Elektretmikrophon. Sein Wirkprinzip entspricht dem eines Konden-
⊡ Abb. 15.29. Vereinfachte Darstellung der wesentlichen Komponenten eines Hörgerätes
satorwandlers, wobei die Ladung der Kondensatorflächen nicht von einer externen Spannung sondern von einer dauerpolarisierten Folie aufrechterhalten wird. In den meisten Hörgeräten werden omnidirektionale Mikrophone (Druckempfänger) verwendet. Eine Richtwirkung ergibt sich durch den Kopf und die Lage der Einsprechöffnung hinter dem Ohr, in der Ohrmuschel oder im Gehörgang. Richtmikrophone mit zwei Öffnungen (Druckgradientenempfänger) oder Arrays aus mehreren Mikrophonen werden bei Bedarf eingesetzt, um die akustische Fokussierung und die Störgeräuschunterdrückung zu verbessern. Die Verstärkung des elektrischen Mikrophonsignals wird mit der Eingangs/Ausgangs-Kennlinie des Verstärkers, d. h. durch den funktionalen Zusammenhang zwischen Eingangspegel LE und Ausgangspegel LA beschrieben. Der Verstärkungsfaktor ist i. Allg. von Frequenz und Pegel des Eingangssignals abhängig. Ist dies nicht der Fall, so stellen sich die Verstärkerkennlinien bei allen Frequenzen in der doppeltlogarithmischen Darstellung als Geraden dar, die mit der Steigung ΔLA/ΔLE=1 dB / dB parallel zur Winkelhalbierenden verlaufen (⊡ Abb. 15.30, A). Die zu unterschiedlichen Verstärkungsfaktoren gehörenden Kennlinien sind dann parallel zueinander verschoben. Aus der Kennlinie eines linearen Verstärkers lässt sich der Verstärkungsfaktor in dB als Differenz LA–LE an einem einzigen Punkt ablesen. Das Ausgangssignal eines jeden Verstärkers ist in seiner Amplitude dadurch begrenzt, dass die Betriebsspannung eine obere Leistungsgrenze vorgibt. Bei Hörgeräten besteht ein weiterer begrenzender Effekt darin, dass bei zu hohen Ausgangspegeln die Rückkopplungsneigung nicht mehr beherrscht werden kann. Diesen zwangsläufigen und unkontrollierbaren Amplitudenbegrenzungen wird mit Hilfe einer Schaltung aus Dioden, welche die Spannungsspitzen oberhalb einer vorgegebenen Grenze abschneidet (peak clipping, PC) zuvorgekommen. Im Kennlinienfeld hat die PC ein waagerechtes Abknicken der Verstärkerkennlinien zur Folge (⊡ Abb. 15.30, B). Im Gegensatz zu anderen Begrenzungsverfahren wird die PC ohne zeitliche Verzögerung wirksam. Außer der oberen Begrenzung des Ausgangsschallpegels ist noch eine ungewollte aber zwangsläufige untere Begrenzung wirksam, die ihren Ursprung im Eigenrauschen von Verstärker und Wandlern hat. Dieses Eigenrauschen wird teilweise mitverstärkt, sodass es einem minimalen Eingangsschallpegel äquivalent ist. Schallsignale, deren Pegel unterhalb dieser Grenze liegen, können nicht sinnvoll übertragen werden, da sie ganz oder teilweise vom Eigenrauschen überdeckt sind. Die Begrenzung des Ausgangssignals schützt den Hörgeräteträger vor Schallintensitäten, die oberhalb seiner Unbehaglichkeitsschwelle liegen. Die bei vielen Innenohrhörstörungen fehlende natürliche Dynamikkompression vermag sie aber nicht auszugleichen. Besser lässt sich der pathologische Lautheitsanstieg durch einen Verstärkungsfaktor kompensieren, der bei kleinen Schallpegeln
15
258
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 15.30. Die Dynamikkennlinien eines linearen Verstärkers lassen sich in doppeltlogarithmischer Darstellung durch Geraden darstellen, die parallel zur Winkelhalbierenden verlaufen und deren Lage vom Verstärkungsfaktor abhängt (A). Mit Hilfe einer PC-Schaltung wird der maximale Ausgangspegel auf vorgegebene Werte begrenzt (B). Die AGC/I bewirkt eine Dynamikkompression im Pegelbereich oberhalb der Regelschwelle. Wird die Grundverstärkung verringert, so setzt die Regelung bei einem niedrigeren Ausgangspegel ein (C), anders
als bei der AGC/O, wo die Regelschwelle unabhängig von der Grundverstärkung bei einem festen Ausgangspegel liegt (D). Bei niedrig liegender Regelschwelle kann ein Bypass für eine lineare unverstärkte Wiedergabe bei hohen Pegeln sorgen (E). Durch die Kombination zweier AGC-Schaltungen kann eine pegelabhängige Kompression mit niedriger Einsatzschwelle realisiert werden (F). Nähere Erläuterungen insbesondere der Abkürzungen finden sich im Text
groß ist und oberhalb einer um 50 dB liegenden Grenze mit zunehmendem Pegel kontinuierlich heruntergeregelt wird. Die einfachste Regelung der Verstärkung besteht darin, dass der Hörgeräteträger den Pegelsteller betätigt, sowie er den Schall als zu laut oder zu leise empfindet. Mit diesem Vorgehen kann aber weder präzise noch schnell genug auf Schallpegeländerungen reagiert werden. Daher sind viele Hörgeräte mit einer automatischen Verstärkungsregelung (automatic gain control, AGC) ausgestattet. Sie bewirkt eine Verringerung des Verstärkungsfaktors bei zunehmendem Schallpegel und somit eine Kompression des akustischen Dynamikbereiches. Anders als die Begrenzungsschaltungen wirken die mit einer AGC verbundenen Regelkreise aber nicht simultan, sondern nur mit einer gewissen zeitlichen Verzögerung. Die Ein- und Ausschwingzeiten der Verstärkungsregelung müssen größer sein als die Periode der niedrigsten zu verstärkenden Frequenz, da sonst die Amplitude innerhalb einer einzelnen Schallwelle geregelt und das Signal verzerrt wird. Die untere Grenze liegt somit bei etwa 10 ms. Im eingeschwungenen Zustand müssen Si-
nusschwingungen aller Frequenzen als Sinusschwingungen übertragen werden. Bei langsamen Änderungen des Schalldrucks treten keine Ein- und Ausschwingvorgänge auf (statischer Grenzfall), anders als bei schnellen Änderungen, wie sie z. B. in Sprachsignalen vorkommen (dynamisches Verhalten). Sie können zu kurzzeitigen Schallspitzen führen, die den maximal zulässigen Ausgangspegel überschreiten. Um diese zu verhindern, wird die AGC mit einer PC-Schaltung kombiniert. Bei sehr langen Regelzeiten (>200 ms) spricht die Regelung nur auf langsame Änderungen an, sie leistet somit das, was der HG-Träger durch eine manuelle Anpassung des Lautstärkereglers erreichen würde (automatic volume control, AVC). Regelzeiten unterhalb von 20 ms ermöglichen die Kompression einzelner Silben. Dies erhöht die Sprachverständlichkeit, da die Nachverdeckung von Sprachelementen mit hohem Pegel (z. B. Vokale) auf unmittelbar darauf folgende Sprachelemente mit niedrigerem Pegel (z. B. Frikative) verringert wird (Silbenkompressor). Die Auswirkung der Verstärkungsregelung auf die statische Dynamikkennlinie des Hörgerätes ist aus
259 15.4 · Hörprothetik
⊡ Abb. 15.30, C und D ersichtlich. Je nachdem, ob das
Eingangs- oder das Ausgangssignal für den Regelvorgang herangezogen wird, unterscheidet man zwischen der eingangsgeregelten (AGC/I) und der ausgangsgeregelten (AGC/O) AGC. In beiden Fällen weicht die Dynamikkennlinie oberhalb des Einsatzpunktes (Regelschwelle oder Kniepunkt) nach unten von der linearen Verstärkungsgeraden ab. Unterhalb des Einsatzpunktes arbeitet der Verstärker also linear, oberhalb des Einsatzpunktes wird die Verstärkung in Abhängigkeit vom Pegel immer geringer. Die Kompression c=ΔLE /ΔLA ergibt sich aus der Steigung der statischen Verstärkerkennlinie. Der Zweck der Verstärkungsregelung besteht darin, hohe Schallpegel am Ohr des HG-Trägers, also am Ausgang des Verstärkers, zu verhindern. Unter diesem Gesichtspunkt ist nur die Regelung nach Maßgabe des Ausgangssignals (AGC/O) sinnvoll. Diese ist aber mit wesentlich längeren Regelzeiten verbunden als eine eingangsgeregelte AGC, sodass die AGC/I oftmals vorteilhafter ist. Wie in ⊡ Abb. 15.30 zu erkennen ist, regelt aber die AGC/I den Ausgangspegel bei verschieden starken Grundverstärkungen in gleichem Maße, obwohl der HG-Träger bei kleineren Pegeln möglicherweise keine Kompression benötigt. Beide AGC-Schaltungen weisen also Vor- und Nachteile auf und es muss im Einzelfall ausprobiert werden, ob die Unabhängigkeit von der Grundverstärkung oder möglichst kurze Regelzeiten für den schwerhörigen Patienten Vorrang haben. Spezielle Anforderungen an das dynamische Verhalten können mit speziellen Analogschaltungen oder – wesentlich flexibler – mit digitaler Signalverarbeitung erfüllt werden. Beispielsweise wird zur Erzielung einer Tieftonkompression eine zweikanalige AGC/I eingesetzt, um die vorwiegend niederfrequenten Störgeräusche zu dämpfen und dadurch u. a. den vom HG-Träger gehörten Pegel der eigenen Stimme zu reduzieren. Wie bei der konventionellen AGC/I nimmt die Verstärkung mit zunehmendem Eingangsschalldruckpegel ab, ebenso wie die Betonung der hohen Frequenzen. Bei hohen Eingangspegeln (über 80 dB) verbleibt nur noch eine leichte Verstärkung im Bereich von 3 kHz, die die verlorengegangene Gehörgangsresonanz ausgleichen soll. Der Einsatzpunkt der Regelung liegt bei 40 dB, das Kompressionsverhältnis beträgt 2:1 (⊡ Abb. 15.30, E). Der Hochtonbereich wird in solchen zweikanaligen Geräten linear verstärkt. Die Erhöhung der Sprachverständlichkeit beruht darauf, dass die Aufwärtsmaskierung der im Bereich hoher Frequenzen liegenden Sprachsignalanteile durch die schon bei kleinen Pegeln einsetzende Kompression des Tieftonbereiches vermieden wird. Eine noch effektivere Nutzung des Restdynamikbereiches lässt sich mit Hörgeräten erreichen, deren Kompressionsverhältnis im gesamten Dynamikbereich einstellbar ist (wide oder full dynamic range compression, WDRC oder FDRC). Unterhalb der bei LE=45 dB liegenden Re-
gelschwelle arbeitet der Verstärker linear, im Regelbereich bis 85 dB kann das Kompressionsverhältnis zwischen 1 und 3 individuell eingestellt werden. Bei noch höheren Pegeln wird eine konventionelle AGC mit festem Kompressionsverhältnis wirksam (⊡ Abb. 15.30, F). Zusammengefasst besteht das wichtigste Merkmal von Ausgangspegelbegrenzung und automatischer Verstärkungsregelung darin, dass die Verstärkung mit zunehmender Schallintensität immer schwächer wird. Das entspricht einem nichtlinearen System und hat zwangsläufig Verzerrungen des übertragenen Signals zur Folge. Eine Kompression des Dynamikbereiches ohne die Nebenwirkung nichtlinearer Signalverzerrungen ist nicht realisierbar. Die Folge der Verzerrungen sind harmonische Obertöne, die sich nachteilig auf die Klangqualität und das Sprachverstehen auswirken. Sie sind der Preis, der dafür gezahlt werden muss, dass ein Recruitment nur mit Hilfe einer geregelten Verstärkung kompensiert werden kann. Durch die bisher beschriebenen Verstärkereigenschaften wird in erster Linie die Pegelabhängigkeit des Verstärkungsbedarfs berücksichtigt. Im Allgemeinen sind jedoch der Hörverlust und daher der Korrekturbedarf auch von der Frequenz abhängig. Dies kann dadurch berücksichtigt werden, dass der Frequenzgang durch einstellbare Filter beeinflusst und näherungsweise an den individuellen Verstärkungsbedarf des Schwerhörigen angepasst wird. Effektiver kann die Frequenzabhängigkeit des eingeschränkten Hörvermögens durch eine mehrkanalige Signalverarbeitung berücksichtigt werden. Bei komprimierenden Geräten ist dies auch dann vorteilhaft, wenn die Verstärkung nicht von der Frequenz abhängt, denn andernfalls bewirkt ein schmalbandiges Geräusch genügender Intensität die Reduktion der Verstärkung im gesamten Frequenzbereich. In Mehrkanalgeräten wird das Eingangssignal durch eine Filterbank in mehrere Anteile aufgespaltet. Grundverstärkung, Einsatzpunkt der AGC und evtl. auch das Kompressionsverhältnis sind für jeden Kanal getrennt programmierbar und gespeichert. Das Ausgangssignal wird durch Summation der einzeln verarbeiteten Anteile rekonstruiert. Mehrkanalige Hörgeräte wurden früher als digital gesteuerte Analoggeräte realisiert, bei denen mehrere Speicher für unterschiedliche Hörprogramme zur Verfügung standen. In heutigen volldigitalen Hörgeräten erfolgt die Verarbeitung des digitalisierten Signals in einem Signalprozessor. Den Möglichkeiten der Signalverarbeitung ist hier nur durch die Forderung, dass der zugrunde liegende Algorithmus in Echtzeit realisiert werden muss, eine (sehr hoch liegende) Grenze gesetzt. Digitale Hörgeräte ermöglichen eine vielkanalige nichtlineare Verstärkung mit flexibler Einstellung der Parameter. Darüber hinaus enthalten sie optional Systeme zur Störgeräuschunterdrückung, zur passiven oder aktiven Rückkopplungsunterdrückung (feedback cancelling) und zur automatischen Einstellung des der jeweiligen akustischen Situation am
15
260
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
besten entsprechenden Hörprogramms mit Hilfe lernfähiger neuronaler Netze. Das digital verarbeitete Signal wird D/A-gewandelt und dem Endverstärker zugeführt. Aus dem verarbeiteten elektrischen Signal muss am HG-Ausgang wiederum eine akustische Schwingung erzeugt (elektroakustische Wandlung im Hörer) und dem Ohr zugeführt werden. Wie bei den Mikrophonen müssen für den Hörer kleine Abmessungen, ein hoher Wirkungsgrad, ein konstantes Übertragungsmaß innerhalb eines großen Frequenzbereiches und eine lineare Übertragungscharakteristik gefordert werden. Diese Forderungen widersprechen einander teilweise (bspw. nimmt die Wiedergabequalität im Tieftonbereich grundsätzlich mit den Abmessungen ab) und sind daher nicht immer gleichzeitig zu erfüllen. Hörgerätehörer beruhen fast ausschließlich auf dem elektromagnetischen Prinzip, d. h. der Veränderung der magnetischen Induktion durch Bewegung einer Metallmembran (Anker) im Feld eines von einer Spule umwickelten Permanentmagneten. Mit Ausnahme des selten verwendeten Taschengerätes besteht bei allen Hörgerätetypen das Problem der akustischen Rückkopplung. Ihm liegt der Effekt zugrunde, dass Schallwellen, die in einem elektroakustischen System verstärkt wurden, bei Wiedereintritt in den Eingangskanal einer nochmaligen Verstärkung zugeführt werden (feedback). Ist der Faktor für diese Schleifenverstärkung größer als 1, so gibt der Lautsprecher einen Pfeifton von sich, dessen Intensität nur durch die Aussteuerungsgrenze des Verstärkers begrenzt ist. Um dies zu vermeiden, muss entweder die Verstärkung reduziert oder der Wiedereintritt des Ausgangsschalls in das Mikrophon verhindert werden. Ersteres ist selten möglich oder sinnvoll, da die notwendige Verstärkung durch das Ausmaß der Hörstörung und nicht durch die Rückkopplungsneigung festgelegt ist. Für letzteres sind mehrere Maßnahmen denkbar: die Verwendung von Richtmikrophonen, die akustische Trennung des Ausgangs vom Eingang mit Hilfe einer CROS9-Versorgung oder die akustische Isolation durch ein Ohrpassstück (die Otoplastik), welches den Gehörgang teilweise oder vollständig abdichtet und somit die Verbindung zwischen dem verstärktem Schall in der Trommelfellebene und der Mikrophonöffnung über (HdO) bzw. in (IdO) der Ohrmuschel unterbricht. Bei vielen modernen digitalen Hörsystemen wird die akustische Rückkopplung durch Filterung oder aktive Kompensation vermieden und die Otoplastik dadurch entbehrlich (offene Anpassung). Zur Anfertigung des individuell angepassten Ohrpassstückes nimmt der HG-Akustiker mit Hilfe eines schnell härtenden Zweikomponentenkunststoffs einen Ohrabdruck ab, nach welchem die eigentliche Otoplastik wahl-
9
contralateral routing of signals: das Mikrophon befindet sich auf der Seite des unversorgten Ohres.
weise aus durchsichtigem Hartkunststoff (Acrylat) oder weichem Silikon hergestellt wird. Bei IdO-Geräten sind Ohrpassstück und Gerätegehäuse miteinander identisch. Beim HdO-Gerät wird die Verbindung zwischen HG und Ohrpassstück durch einen Schlauch hergestellt, der am Tragehaken des Hörgerätes und auf dem Ansatzstutzen des Ohrpassstückes befestigt ist. Der Schall wird durch eine Bohrung im Ohrpassstück dem vor dem Trommelfell freibleibenden Gehörgangsrestvolumen zugeführt. Bohrung und Schlauch haben Verzerrungen des Schallsignals zur Folge. Hiervon werden v. a. die hohen Frequenzen betroffen, wohingegen niedrige Frequenzen nahezu ohne Abschwächung übertragen werden. Die besten Übertragungseigenschaften ergeben sich bei einem Schlauchdurchmesser von 2,4–3,0 mm. Durch zusätzliche Bohrungen können die akustischen Eigenschaften des Ohrpassstückes weiter beeinflusst werden: ▬ Die Hochtonbohrung (Frequenzausgleichsbohrung) mit einem Durchmesser zwischen 0,8 und 2,0 mm wirkt als Tiefpass und verbessert die Hochtonverstärkung. ▬ Eine trichterförmige Aufweitung des Schallaustrittsöffnung (Libby- bzw. Bakke-Horn), erhöht die Verstärkung im Bereich zwischen 2 kHz und 4 kHz um bis zu 30 dB. ▬ Die offene Otoplastik, d. h. die Anbringung einer Zusatzbohrung mit über 2,5 mm Durchmesser, führt zum Verschwinden der Tieftonverstärkung, sodass im Falle einer reinen Hochtonschwerhörigkeit die niedrigen Frequenzen weiterhin mit dem natürlichen Gehör verarbeitet werden können. Die Möglichkeiten zur Beeinflussung der Akustik über Zusatzbohrungen sind umso mehr begrenzt, je größer die erforderliche Schallverstärkung ist. Hochgradige Hörstörungen erfordern auch heute noch einen akustisch dichten Abschluss des Gehörgangsrestvolumens und können auch nicht mit der aktuell eingeführten externen Hörertechnologie versorgt werden. Liegt hingegen der Hörverlust unter der zwischen 80 und 100 dB verlaufenden Grenze, so kann der Ausgangswandler im Gehörgang untergebracht und dort mit einem Fixierschirm oder einer pilzförmigen Dichtung gehalten werden. Ein großer Vorteil des externen Hörers besteht in dem geringeren Verlust bei den Höhen und der dadurch besseren Klangqualität. Die Beschreibung der Eigenschaften einzelner Komponenten lässt keine zuverlässigen Rückschlüsse auf das akustische Verhalten des Gesamtsystems zu. Um das Übertragungsverhalten des Hörgerätes beurteilen zu können, müssen akustische Messungen am Kuppler – d. h. einem Hohlraum, der Geometrie und Akustik des Gehörgangs nachbildet – oder in situ – d. h. als Sondenmessung im Gehörgang des versorgten Ohres – durchgeführt werden. Das Ergebnis solcher Messungen sind Kurven, aus denen die Wiedergabeeigenschaften des Hörgerätes bei verschie-
261 15.4 · Hörprothetik
denen Frequenzen und Pegeln abgelesen werden können. Die wichtigste dieser Kurven ist die normale akustische Wiedergabekurve. Sie entsteht durch die Messung des Ausgangsschallpegels LA bei Einspeisung von Sinustönen variabler Frequenz und fester Intensität; der Eingangspegel LE beträgt 60 dB SPL, das HG ist so eingestellt, dass der Ausgangspegel bei der Bezugs-Prüffrequenz (i. d. R. 1600 Hz, bei Hochtongeräten 2500 Hz) um 15 dB unterhalb des Ausgangspegels liegt, der bei einem Eingangspegel von 90 dB SPL und maximal eingestellter Verstärkung gemessen wurde. Die akustischen Wiedergabekurven LA(f) zu anderen Eingangspegeln (50 bis 100 dB SPL) werden ohne Veränderung dieser Geräteeinstellung gemessen. Das hierbei entstehende akustische Wiedergabekurvenfeld (⊡ Abb. 15.31) gibt einen Überblick über das frequenz- und pegelabhängige Verhalten des Hörgerätes. In den Datenblättern eines Hörgerätes wird zusätzlich zu den mit unveränderter HG-Einstellung gemessenen Wiedergabekurven oftmals noch die Kurve des größten erreichbaren Schallpegels gezeigt. Sie wird standardgemäß bei der höchsten Verstärkerposition und einem über alle Frequenzen konstanten Eingangsschallpegel von 90 dB SPL gemessen (OSPL90-Kurve). Ein weiteres häufig verwendetes Diagramm ist die Kurve der maximalen Verstärkung (Auftragung des im linearen Arbeitsbereich des HG bei einem Eingangsschallpegel von 50 dB SPL und mit maximaler Verstärkung gemessenen Verstärkungsfaktors in Abhängigkeit von der Frequenz). Die vollständige graphische Darstellung der Eigenschaften eines Hörgerätes stellt ein vieldimensionales Problem dar, da der Ausgangsschallpegel LA vom Eingangsschallpegel LE, der Schallfrequenz f und der Hörgeräteeinstellung (z. B. Verstärkungsfaktor v=LA–LE und Kompressionsverhältnis c=ΔLE/ΔLA) abhängt. Aus einer vollständigen LA(f)-Kurvenschar (⊡ Abb. 15.31) können LA(LE)-Kurven (⊡ Abb. 15.30) konstruiert werden, von denen jede einzelne für eine feste Frequenz und eine bestimmte Hörgeräteeinstellung gültig ist. Aus dem Wiedergabekurvenfeld kann unmittelbar abgelesen werden, ob und in welchem Bereich von Eingangspegeln sich das Hörgerät linear verhält. Eine ideale
lineare Signalverarbeitung ist durch einen glatten Frequenzgang LA(f) gekennzeichnet, der sich bei Änderung des Eingangspegels LE um die Pegeldifferenz ΔLE vertikal verschiebt. Hierzu gleichwertig ist die Forderung, dass die Dynamikkennlinien LA(LE) eines linearen Hörgerätes bei allen Frequenzen und im ganzen Pegelbereich die Steigung 1 dB/dB aufweisen. Obwohl (oder gerade weil) es keine Hörgeräte mit dieser Eigenschaft gibt, hat es sich eingebürgert, ein HG dann als »linear« zu bezeichnen, wenn die bei verschiedenen Eingangspegeln gemessenen Wiedergabekurven durch eine reine Verschiebung ineinander überführt werden können (selbst dann, wenn die Verschiebung von der zugehörigen Differenz der Eingangspegel verschieden ist). Ein in dieser Nomenklatur »nichtlineares« Hörgerät weist bei verschiedenen Eingangspegeln Wiedergabekurven auf, die nicht zueinander parallel verlaufen. Eine möglichst lückenlose Kenntnis der Hörgeräteeigenschaften ist die erste von drei Säulen der Hörgeräteversorgung. Die zweite Säule ist die Gesamtheit der audiometrischen Daten. Die Anpassung des Hörgerätes verknüpft als dritte Säule die zwei Datensätze miteinander, wobei ein Parametersatz des fertig eingestellten Hörgerätes entsteht. Die Aufgabe dieses Gerätes besteht darin, den Frequenz- und Intensitätsbereich des normalen Hörens (v. a. den Sprachbereich) auf das eingeschränkte Hörfeld des zu versorgenden Ohres abzubilden (⊡ Abb. 15.32). Die wichtigsten Kenngrößen des Hörgerätes sind die wirksame akustische Verstärkung, das Kompressionsverhältnis und der maximale Ausgangspegel. Wie an ⊡ Abb. 15.32 zu erkennen ist, können alle diese Größen von Frequenz und Pegel abhängen. Außer diesen Parametern ist für ein gutes Sprachverstehen natürlich das Zeitverhalten des Hörgerätes von großer Bedeutung. Dieses spielt v. a. bei der Verstärkungsregelung eine Rolle. Die aus Hörschwelle, Unbehaglichkeitsschwelle, Hörfeldskalierung und Sprachaudiogramm bestehenden audiometrischen Daten bestimmen die Vorauswahl und Voreinstellung des Hörgerätes. Der frequenzabhängige Verstärkungsbedarf kann aus der Hörschwelle abgeschätzt werden. Die nahe liegende Vorstellung, dass der Verstärkungsbedarf dem Ausmaß
⊡ Abb. 15.31. Messung des akustischen Wiedergabekurvenfeldes eines Hörgerätes mit dem links gezeigten 2 cm3-Kuppler. Jede Wiedergabekurve LA(f) wird bei festem Eingangsschallpegel LE gemessen, die Einstellung der Hörgeräteparameter ist für alle Kurven gleich. Durch Bildung von Querschnittsflächen konstanter Frequenz entstehen die Dynamikkennlinien LA(LE)
15
262
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 15.32. Projektion der Sprachfläche in das Hörfeld des Schwerhörigen mit Hilfe eines Hörgerätes. Die miteinander verbundenen Kreise zeigen die Hörschwelle an
des Hörverlustes gleich ist (Spiegelung des Audiogramms), erweist sich aber schon aufgrund des mitverstärkten Eigenrauschens in den meisten Fällen als unbrauchbar. Die Signalverstärkung muss i. Allg. geringer sein als die Hörschwellenverschiebung. Dem einfachsten unter den präskriptiven Verfahren zufolge sollte die im 2 cm3-Kuppler gemessene Verstärkung v dem halben Hörverlust HV entsprechen: v=HV/2. Eine Verfeinerung dieser Regel ist die Berger-Formel, mit der der Verstärkungsbedarf ebenfalls allein aus der Hörschwelle berechnet wird, indem der Hörverlust durch eine frequenzabhängige Zahl N dividiert wird: v( f ) =
HV ( f ) + C ( f ) N( f )
(15.11)
Der zwischen 1,5 und 2,0 liegende Nenner N(f) hängt dergestalt von der Frequenz ab, dass sich bei mittleren Frequenzen eine etwas höhere Verstärkung ergibt als bei tiefen und hohen Frequenzen. Diese Mittenanhebung wird durch die zusätzliche additive Korrektur C(f) unabhängig vom Hörverlust noch weiter betont. Die für HdO-Geräte vorgeschlagene Formel (11) muss für IdO-Geräte etwas modifiziert werden, um dem geringeren Verstärkungsbedarf Rechnung zu tragen. Bei der Zielkurvenkonstruktion nach einem anderen präskriptiven Verfahren (prescription of gain and output, POGO) hängt nur der hörverlustunabhängige Term von der Frequenz ab: v( f ) =
HV ( f ) + C ( f ) N
(15.11)
Beim NAL-Verfahren10 schließlich geht in die Berechnung der bei einer vorgegebenen Frequenz benötigten Verstärkung v(f) nicht nur der bei dieser Frequenz bestimmte Hörverlust HV(f) ein, sondern mit geringerem Gewicht auch der über 3 Frequenzen (0,5, 1 und 2 kHz) gemittelte
10
National Acoustics Laboratories, Sydney.
Hörverlust. Die nach Berger-, POGO- und NAL-Formel für eine vorgegebene Schwellenkurve berechneten Zielfrequenzgänge können erheblich voneinander abweichen. Dies macht auch deutlich, dass die Hörschwelle allein kein zuverlässiges Kriterium zur Berechnung des individuellen Verstärkungsbedarfs darstellt. Bei den bisher genannten Verfahren wird der aus audiometrischen Daten abgeleitete Verstärkungsbedarf für die Voreinstellung des Hörgerätes herangezogen und das Hörgerät anhand dieser Vorgabe mit Hilfe einer Kupplermessung (s.unten) eingestellt. Dieses Vorgehen beinhaltet zwei Fehlerquellen: den bei der Tonaudiometrie verwendeten Wandler und die Simulation des Gehörgangs durch ein genormtes Kupplervolumen. Beide entsprechen nicht den Verhältnissen im Gehörgang des versorgten Ohres. Besonders groß ist die Abweichung bei Kindern, deren Gehörgang klein und im Wachstum begriffen ist. Es ist das Ziel der DSL-Methode (desired speech level) nach Seewald, den Einfluss dieser Fehlerquellen zu begrenzen. Der Ansatz besteht darin, die Hörschwelle unter Verwendung eines Sondenmikrophonsystems (oder alternativ mit Hilfe eines Einsteckhörers) durch die Schalldruckpegel im Gehörgang zu beschreiben. Unter Verwendung der individuellen Ohr-Kuppler-Transferfunktion (real ear to coupler difference, RECD) oder mit Hilfe pauschaler Korrekturfaktoren können die Vorgaben für die Hörgerätewiedergabe zur Erzielung der gewünschten schwellenbezogenen Sprachschallpegel bestimmt werden. Damit soll sichergestellt werden, dass das Sprachsignal breitbandig hörbar ist, angenehm klingt und unverzerrt ist. Der Erfolg hängt wesentlich von der Durchführung häufiger Kontrollen der Ohr-Kuppler-Transferfunktion und der entsprechenden Korrektur der Verstärkung ab. Die alleinige Orientierung an der Hörschwelle ist für eine angemessene Einstellung des Hörgerätes im gesamten überschwelligen Pegelbereich ungünstig. Eine korrekte Einstellung erfordert die Einbeziehung zumindest der Unbehaglichkeitsschwelle, besser aber des gesamten Hörfeldes, welches sich mit Hilfe der subjektiven
15
263 15.4 · Hörprothetik
Skalierung der Kategoriallautheit erfassen lässt. Aus den bei verschiedenen Frequenzen gemessenen Lautstärkezuwachsfunktionen lässt sich durch Vergleich mit der Normalkurve für jeden Pegel der Verstärkungsbedarf ablesen (⊡ Abb. 15.33). Die Hörfeldaudiometrie berücksichtigt somit als einziges Verfahren konsequent die von Frequenz und Pegel abhängige subjektive Lautstärkeempfindung und liefert nicht nur den Verstärkungs-, sondern auch den Kompressionsbedarf. Die voreingestellte Verstärkung des Hörgerätes kann durch Messungen am Ohrsimulator (Kuppler) in der Messbox überprüft und kontrolliert werden. Diese Messungen des Ausgangspegels bei definierten Eingangssignalen liefern sehr exakte und gut reproduzierbare Ergebnisse, sie sind aber, da der Kuppler als künstliches Ohr nur einen statistischen Mittelwert repräsentieren kann, für die Verhältnisse im Gehörgang des Hörgeschädigten nicht immer relevant. Um die Wiedergabeeigenschaften des Hörgerätes am Trommelfell zu erfassen, müssen Sondenmikrophonmessungen im Gehörgang durchgeführt werden (in situ-Messung). Im Gegensatz zu den Kupplermessungen erfassen sie die Arbeitsweise des Hörgerätes unter dem Einfluss von Schallzuführung, Otoplastik, Gehörgangsrestvolumen und Mittelohrimpedanz. Bei vielen in situ-Messgeräten wird nicht das Mikrophon, sondern ein mit ihm verbundener Sondenschlauch in den Gehörgang gebracht. Die in situ-Messung wird sowohl ohne als auch mit HG durchgeführt (⊡ Abb. 15.34a, b). Das Sondenmikrophon registriert das im Gehörgang vorliegende Schallsignal während der Darbietung von Rausch- oder Sinusreizen definierter Frequenz und Intensität. Ein Echtzeitanalysator verarbeitet das Mikrophonsignal zu Wiedergabekurven LA(f) oder Dynamikkennlinien LA(LE). Zu Beginn der in situ-Messung wird die Außenohrübertragungsfunktion gemessen, indem der Sondenschlauch in das offene Ohr des Patienten gelegt wird. Über der Frequenz aufgetragen ergibt sich eine Kurve, die im Bereich zwischen 2 und 5 kHz verschiedene Maxima aufweist (dunkle Fläche in ⊡ Abb. 15.34c). Bei einem Eingangssignal frequenzunabhängiger Intensität spiegelt diese Kurve die natürliche Verstärkungswirkung von Außenohr und Gehörgang wider (open ear gain, OEG). Im nächsten Schritt der in situ-Anpassung wird die im Gehörgang vorliegende Schallintensität bei eingesetztem Ohrpassstück mit eingeschaltetem Hörgerät gemessen (helle Fläche in ⊡ Abb. 15.34c). Die Differenz zwischen den mit und ohne HG gemessenen Frequenzgängen entspricht der frequenzabhängigen wirksamen akustischen Verstärkung (insertion gain, IG). Die in situ-Messung ist in Hinblick auf die Ermittlung von Frequenzgang und Dynamikverhalten als eine vorteilhafte Alternative zur Kupplermessung anzusehen; dies gilt insbesondere für die HG-Anpassung bei Kindern, deren Gehörgang durch einen Kuppler schlecht appro-
⊡ Abb. 15.33. Ermittlung des pegelabhängigen Verstärkungsbedarfs für eine Frequenz (Terzbandrauschen) aus dem Vergleich zwischen der Lautstärkeskalierungsfunktion eines Schwerhörigen (Messwerte) mit dem schattierten Normalbereich. Die bei den Kategorien »leise« 15 KU), »mittellaut« (25 KU) und »laut« (35 KU) erforderliche Verstärkung entspricht der Länge der horizontalen Pfeile (nach Steffens 1996)
a
b
c
⊡ Abb. 15.34a–c. In situ-Messung mit Sondenschlauch im Gehörgang a ohne und b mit HG (nach Kießling et al. 1997). c Die Sondenmessung ergibt die Außenohrübertragungsfunktion (dunkel schattiert) bei offenem Gehörgang (open ear gain) und die in-situVerstärkung (hell schattiert) mit Hörgerät. Die Differenz beider Kurven (mittlere Linie) entspricht der wirksamen akustischen Verstärkung (insertion gain)
264
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
15.4.3 Implantierbare Hörsysteme
der Otoplastik und die Stigmatisierung des Hörgeräteträgers durch die sichtbar getragene Prothese zu nennen. Gemeinsames Merkmal aller (voll- oder teil-)implantierbaren Hörsysteme ist die direkte mechanische Übertragung des aufbereiteten Schallsignals durch vibratorische Anregung der Gehörknöchelchen. Im Vergleich zur akustischen Stimulation werden hierdurch zwei Wandlungen vermieden und das Signal dadurch weniger verfälscht. Dies wirkt sich v. a. im Bereich hoher Frequenzen und somit auf die Klangqualität aus. Bei einem teilimplantierbaren Hörsystem bilden Mikrophon, Signalprozessor und Energiequelle die externen Teile. Zur Übertragung der Information an die implantierten Teile sowie zu ihrer Energieversorgung dient eine transkutane Hochfrequenzverbindung. Das retroaurikulär implantierte Verstärkermodul steuert ein am langen Ambossschenkel befestigtes magnetisches Schwingungssystem (floating mass transducer, FMT) oder einen hydromechanischen Antrieb, der im operativ erweiterten Mittelohrraum implantiert und über eine Koppelstange mit dem Ambosskörper verbunden ist (Otologics MET™). Der etwas irreführend auch als VORP (vibratory ossicular replacement prosthesis) bezeichnete FMT (Med-El Vibrant Soundbridge®, ⊡ Abb. 15.35) besteht aus einem kleinen Zylinder, dessen Wand eine stromführende Spule enthält, mit der eine bewegliche magnetische Masse entlang der Zylinderachse angetrieben wird. Die Schwingung dieser Masse überträgt sich auf den Amboss, und dessen Bewegung setzt sich wie beim natürlichen Hörvorgang über den Steigbügel ins Innenohr fort. Bei vollimplantierbaren Systemen sind neben Verstärker und Ausgangswandler auch Mikrophon, Signalprozessor und Energiequelle implantiert. Das Mikrophon befindet sich unter einer dünnen Hautschicht im Gehörgang. Dies begünstigt eine natürliche Klangwirkung, da die richtungsabhängige Filterwirkung von Außenohr und Gehörgang anders als bei den meisten anderen technischen Hörhilfen weiterhin genutzt wird. Das Mikrophonsignal wird der im Mastoid implantierten Prozessoreinheit zugeführt, deren Ausgangssignal einen piezoelektrischen Wandler treibt. Dieser versetzt über eine in der Nähe des Hammer/Amboss-Gelenkes endende Koppelstange die Gehör-
Die bisher beschriebenen konventionellen schallverstärkenden Hörgeräte sind mit einer Reihe von Nachteilen verbunden, unter denen einige durch Implantation des Hörgerätes oder einiger seiner Komponenten unter die Körperoberfläche ausgeglichen werden können. Zur Beschreibung dieser Nachteile und zur Abgrenzung der Einsatzbereiche implantierbarer Hörsysteme muss zwischen akustischen, audiologischen, medizinischen und kosmetischen Aspekten unterschieden werden. In dieser Reihenfolge sind als Nachteile des konventionellen Hörgeräts die akustische Rückkopplung, die schlechte Übertragung hoher Frequenzen, die gelegentlich (insbesondere bei Neigung zu Gehörgangsentzündungen) auftretende Unverträglichkeit
⊡ Abb. 15.35. Aufbau (links) und audiologischer Indikationsbereich (rechts) eines teilimplantierbaren Hörsystems (Med-El Vibrant Soundbridge®)
ximiert werden kann und interindividuell stark variiert. Hinsichtlich der Beurteilung des Ohrpassstückes und seiner Übertragungseigenschaften ist die in situ-Messung sogar konkurrenzlos. Sie ermöglicht die Erfassung der Effekte von Zusatzbohrungen, die der Akustiker zur Beeinflussung des Klangeindrucks anbringt, und ist somit ein unentbehrliches Werkzeug für die systematische Durchführung von Manipulationen an der Otoplastik. Trotz dieser Vorteile kann ein HG nicht allein auf der Basis der in situ-Messung angepasst werden, da auch die exakte Messung des Schalls am Trommelfell keine Auskunft über das subjektive Klangempfinden des Patienten und v. a. über sein Sprachverstehen geben kann. Für die Feineinstellung des Hörgerätes und die Kontrolle des Anpasserfolges sind nur Skalierungsverfahren und Sprachaudiometrie geeignet. Die Hörschwellenkurve des versorgten Ohres (Aufblähkurve) ist in dieser Hinsicht wenig aussagekräftig, weil sich bei der Reizung mit Sinustönen im abgeschlossenen Gehörgangsrestvolumen stehende Wellen ausbilden können. Da die Aufblähkurve außerdem nur die statische Wiedergabe eingeschwungener Sinustöne, nicht aber das dynamische Verhalten des Hörgerätes bei der Verarbeitung von Sprachsignalen beschreiben kann, dient sie bei der Beurteilung des Versorgungserfolges lediglich zur groben Orientierung. Der im Sprachverstehen erzielte Gewinn einer Hörgeräteversorgung wird anhand des im freien Schallfeld gemessenen Sprachaudiogramms definiert. Die Versorgung gilt als erfolgreich, wenn die mit dem Freiburger Test ermittelte Verständlichkeit für einsilbige Testwörter bei 65 dB um mindestens 20% besser ist als ohne Hörhilfe bzw. wenn die Verständlichkeit bei 65 dB so gut ist wie das ohne HG erzielbare Optimum. Zusätzlich ist die Sprachdiskrimination bei 80 dB in Ruhe und bei 60 dB im Störgeräusch (z. B. mit dem Göttinger oder dem Oldenburger Satztest) zu prüfen. Bei beidohriger Versorgung kann der binaurale Diskriminationsgewinn mit Hilfe des BILD-Verfahrens nachgewiesen werden.
265 15.4 · Hörprothetik
knöchelchenkette in Bewegung. Das System deckt seinen Energiebedarf aus Batterien, die sich im implantierten Hauptmodul befinden und transkutan durch eine temporär mit einem Kopfbügel getragene Spule induktiv aufgeladen werden. Das hier beschriebene erste anwendungsreife vollimplantierbare System TICA® (totally integrated cochlea amplifier) ist allerdings wegen nicht beherrschbarer akustischer Rückkopplung nach einer ersten klinischen Erprobungsphase wieder vom Markt genommen worden. Bei einem weiteren vollimplantierbaren Hörsystem (EnvoyTM medical) wird der Ort der Schallaufnahme noch konsequenter dem natürlichen Hörvorgang angenähert: Als Mikrophonmembran dient das Trommelfell, wo das Schallsignal mit einem piezoelektrischen Sensor vom Hammer (Malleus) abgegriffen und dem retroaurikulär implantierten Elektronikmodul zugeleitet wird. Das verstärkte Signal wird über einen zweiten Piezowandler auf den Steigbügel (Stapes) übertragen. Zur Vermeidung der Rückkopplung muss der Amboss (Incus) entfernt oder seine Verbindung zum Hammer durchtrennt werden. Hingegen erfordert der fully-implantable ossicular stimulator (Otologics MET™ Carina), bei dem sich das Mikrophon unter der Haut am Hinterkopf befindet, keine Unterbrechung der Gehörknöchelchenkette. Hier wird die Vibration mit Hilfe eines elektromagnetischen Wandlers auf den Ambosskörper übertragen. Um die Wertigkeit der implantierbaren Hörsysteme zu beurteilen, müssen die zu Beginn dieses Abschnittes genannten Aspekte getrennt voneinander betrachtet werden. Der überzeugende und allen genannten Systemen gemeinsame Vorteil besteht in der überlegenen Klangqualität, die auf die direkte mechanische Anregung des Innenohres zurückzuführen ist. Die akustische Rückkopplung ist mit digitaler Technik in vielen Fällen gut beherrschbar, sodass heute auch mit konventionellen schallverstärkenden Hörgeräten oftmals eine offene Anpassung möglich ist. Dadurch verliert die Problematik der Gehörgangsokklusion ganz erheblich an Gewicht. Teilimplantierbare Systeme sind audiologisch zumindest im Vergleich zum IdO-Gerät durch die ungünstige extraaurikuläre Plazierung des Mikrophons im Nachteil. Der kosmetische Aspekt und die stigmatisierende Wirkung des konventionellen Hörgeräts sollten nicht über-
bewertet werden, da nur vollimplantierbare Systeme wirklich unsichtbar sind. In diesem Zusammenhang ist noch zu erwähnen, dass die Vorteile des freien Gehörganges, der fehlenden akustischen Rückkopplung und der Unsichtbarkeit in einem weiteren System (auric RetroX) vereint sind, bei dem ein retroaurikulär angeordnetes digitales Hochtonhörgerät den verstärkten Schall über ein implantiertes Titanhülsensystem direkt in den Gehörgang abgibt. Der Zweck der beschriebenen implantierbaren Hörsysteme besteht in der alternativen Versorgung von Innenohrschwerhörigkeiten. Demgegenüber ist das knochenverankerte Hörsystem BAHA® (bone anchored hearing aid) für die Zielgruppe nicht korrigierbarer Mittelohrschwerhörigkeiten und zur Lösung von Gehörgangsproblemen (z. B. Gehörgangsatresie) konzipiert. Es besteht aus einem Knochenleitungshörgerät, das auf eine in den Schädelknochen hinter dem Ohr implantierte Titanschraube aufgesteckt wird. Der Schall wird vom integrierten Mikrophon aufgenommen und in eine vibratorische Anregung des Knochens umgesetzt, sodass das Außenohr, der Gehörgang und das Mittelohr nicht in die Übertragungskette einbezogen sind. Der Körperschall regt beide Innenohren mit annähernd gleicher Intensität an. In Abhängigkeit von der Frequenz bestehen jedoch kleine Seitendifferenzen, sodass einem beidseitig mit BAHA-Systemen versorgten Patienten eine zumindest rudimentäre Richtungsinformation zur Verfügung steht.
15.4.4 Das Cochlea-Implantat
Bei Taubheit, an Taubheit grenzender Schwerhörigkeit oder Restgehör ist weder mit konventionellen schallverstärkenden Hörgeräten noch mit den beschriebenen implantierbaren Hörsystemen ein Versorgungserfolg zu erzielen. Unter bestimmten Voraussetzungen ist jedoch eine (Re-)Habilitation der betroffenen Patienten mit dem Cochlea-Implantat (CI) möglich. Das CI stimuliert die distalen Hörnervenendigungen oder das Ganglion spirale mit Hilfe von intracochleär implantierten Elektroden (⊡ Abb. 15.36). Die Parameter der elektrischen Reizpulse werden in einem Sprachprozessor aus dem akustischen
⊡ Abb. 15.36. Komponenten eines CI-Systems (nucleus® N5 system). Implantiert sind die verkapselte Empfänger- und Dekodierschaltung und die Elektrodenträger. Hinter dem Ohr trägt der Patient den Sprachprozessor und die magnetisch gehaltene Sendespule. Rechts sind das Implantat (oben) und der Sprachprozessor mit Sendespule (unten) gezeigt (Reproduktion mit freundlicher Genehmigung von Cochlear Ltd.)
15
266
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Signal berechnet und in Form von Hochfrequenzpulsen durch die Haut hindurch (transkutan) an das Implantat übertragen. Die artifizielle elektrische Reizung des Hörnervs ist prinzipiell verschieden vom natürlichen Hörvorgang, bei dem die Aktionspotentiale des Hörnervs infolge der von den Neurotransmittern erzeugten und sich überlagernden elementaren Generatorpotentiale entstehen. Befinden sich die von den inneren Haarzellen kommenden afferenten Radiärfasern des Hörnerven in einem elektrischen Feld, so entstehen ebenfalls Aktionspotentiale, die durch einen rechteckförmigen Zeitverlauf der zwischen zwei Elektroden liegenden Spannung synchronisiert werden können. Die elektrische Feldverteilung ist von der relativen Lage der Elektroden zum Hörnerven und den dazwischenliegenden Flüssigkeiten und Gewebearten abhängig. Es ist zwischen einer bipolaren Reizung, bei der sich beide Elektroden in der Nähe der Spiralganglienzellen befinden, und der monopolaren Reizung, bei der die Referenzelektrode in größerer Entfernung von den stimulierenden Kontakten befindet, zu unterscheiden. Die bipolare Anordnung führt zu örtlich eng umgrenzten Feldern mit hohen Gradienten und sie ermöglicht i. Allg. eine bessere Kanaltrennung als die monopolare Reizung. Die Aufgabe der elektrischen Cochleaprothese besteht darin, die Zeitstruktur von Frequenz und Intensität des Schallsignals in eine für die zentrale auditorische Verarbeitung verwertbare Folge von Aktionspotentialen umzusetzen. Eine exakte Nachahmung des natürlichen Vorbildes scheitert an dessen Komplexität und an der Unvollständigkeit des Wissens über die Details seiner Funktion. Im Hinblick auf die neurale Codierung der Schallfrequenz ist es aber plausibel (und durch den Erfolg gerechtfertigt), sowohl die tonotope Organisation der Cochlea zu simulieren als auch die Fähigkeit des Hörnerven zur Analyse der Periodizität des Signals zu nutzen. Daher befinden sich die Reizelektroden im Innenohr, wo sie entlang der Schneckenwindung aufgereiht sind und – möglichst unter Einhaltung der frequenzabhängigen cochleären Laufzeit – eine selektive Reizung der für die jeweilige Frequenz empfindlichen Region ermöglichen. Bei den meisten Sprachcodierungsstrategien findet sich außerdem die Zeitstruktur des Signals zumindest teilweise in der Folge der elektrischen Reizpulse wieder. Anders als beim natürlichen Hörvorgang entstehen bei elektrischer Reizung die Aktionspotentiale aber nicht probabilistisch, sondern synchron und streng deterministisch. Bei allen auf pulsatiler Stimulation beruhenden Prothesen sind die Reize biphasische, ladungsneutrale Strompulse, die von den programmierbaren Stromquellen an jede der Elektroden abgegeben werden können. Im Falle bipolarer Reizung kann die direkt benachbarte oder eine weiter entfernt liegende Elektrode als jeweils wirksame Referenz gewählt werden. Ein enger Stimulationsmodus
führt zu einer örtlich eng begrenzten Verteilung des elektrischen Feldes, es werden aber hohe Stromstärken benötigt, um die weit entfernt liegenden neuralen Strukturen zu erreichen. Am niedrigsten liegen die Reizschwellen, wenn alle nicht aktiven Elektroden zu einer gemeinsamen Referenz kurzgeschlossen werden (common ground). Bei der monopolaren Stimulation dienen metallische Kontakte am Gehäuse des Implantats und/oder eine zusätzliche extracochleäre Elektrode als Referenz für den Strompfad. Die Intensität des Schallsignals wird beim natürlichen Hören in der Entladungsrate der einzelnen Faser und der Anzahl aktiver Fasern verschlüsselt. Bei elektrischer Stimulation nimmt die Zahl der Aktionspotentiale und zugleich auch der subjektive Lautheitseindruck mit der Stromstärke und der Dauer des elektrischen Pulses zu. Es werden alle Fasern erfasst, die sich in einer Region überschwelliger Feldstärke befinden. Die Überlagerung der elektrischen Felder begrenzt die sinnvolle Zahl intracochleärer Elektroden bereits bei schwachen Reizen auf etwa 15 bis 20, bei Erhöhung der Reizstärke nimmt die Ortsauflösung – und damit auch die Fähigkeit zur Unterscheidung von Tonhöhen – weiter ab. Die Zeitauflösung ist durch Dauer und Folgefrequenz der Pulse begrenzt. Typische Werte liegen bei 40 μs und 1000 Pulsen pro Elektrode und Sekunde. Durch die zeitlich versetzte Ansteuerung der verschiedenen Elektroden erhöht sich die Gesamtpulsrate entsprechend der Elektrodenzahl. Zu einem Cochlea-Implantat gehören mehrere Komponenten (⊡ Abb. 15.36). Das eigentliche Implantat ist ein verkapselter integrierter Schaltkreis, der sich hinter der Ohrmuschel unter der Kopfhaut befindet. Seine Längsabmessung beträgt etwa 2 cm, seine Dicke einige Millimeter. Am Implantatgehäuse sind eine Empfängerspule und ein Permanentmagnet befestigt, sowie ein dünner schlauchförmiger Fortsatz, an dessen Spitze sich je nach Produkt 12 bis 22 ring- oder kugelförmige Platinelektroden befinden. Die Elektroden werden in die unteren eineinhalb Windungen der Scala tympani eingeführt. Die räumliche Anordnung der Elektroden innerhalb der Schnecke ist der natürlichen tonotopen Organisation des Innenohres angepasst: Eine elektrische Reizung über die vorderste Elektrode erfasst apikale oder mediale Fasern und löst die Empfindung eines tiefen Tones aus; die hintersten Elektroden liegen am basalen Ende der Hörschnecke, ihre Aktivierung bewirkt die Entstehung von Hochtoneindrücken. Neben dieser tonotopen Frequenzzuordnung (place pitch) kann die Tonhöhenwahrnehmung auch durch Veränderung der Pulsrate beeinflusst werden (rate discrimination). Die externen Bestandteile des CI-Systems sind das Mikrophon, der Sprachprozessor und die Sendespule. Mikrophon und Sprachprozessor befinden sich in einem Gehäuse, das als HdO-Gerät hinter der Ohrmuschel getragen wird. Die über ein Kabel mit diesem Gehäuse verbundene Sendespule ist wie die Empfängerspule des
267 15.4 · Hörprothetik
Implantats mit einem Permanentmagneten ausgestattet, sodass die Außenspule fixiert und auf die implantierte Spule justiert ist. Die Umsetzung des akustischen Signals in elektrische Reizpulse umfasst mehrere Verarbeitungsschritte. In allen CI-Systemen wird das Mikrophonsignal nach einer analogen Vorverarbeitung (Verstärkung, Hochpassfilterung und evtl. Kompression) in ein digitales Signal gewandelt und als solches in einem Signalprozessor verarbeitet. Ergebnis der weiter unten näher beschriebenen digitalen Verarbeitung sind die Parameter der elektrischen Reizpulse, die in rechteckige Hochfrequenzpulse (z. B. f=5 MHz) verschlüsselt werden. Das Implantat empfängt die transkutan übertragenen HFPulse, decodiert die in ihnen enthaltene Information und nutzt zugleich die in den Pulsen enthaltene Leistung für seine Energieversorgung. Eine Kontroll-Logik sorgt dafür, dass fehlerhafte Übertragungen erkannt werden und keine unbeabsichtigten Stimulationen stattfinden. Die programmierbaren Stromquellen geben rechteckförmige biphasische Pulse variabler Dauer (im Bereich 20 bis 500 μs) und Stärke (bis maximal 1,5 μA) auf die von einem Multiplexer angewählte Elektrode ab. Jeder Elektrode ist ein Frequenzbereich zugeordnet, dessen Mittenfrequenz und Breite von apikal nach basal nach einer logarithmisch geteilten Skala zunimmt. Viele CI-Systeme verfügen über die Möglichkeit, die Spannung zwischen zwei Elektroden zu messen und den Messwert über eine Verstimmung des HF-Schwingkreises nach außen zu übertragen (Rückwärts-Telemetrie). Auf diese Weise können einerseits Elektrodenimpedanzen bestimmt und andererseits elektrisch evozierte Hörnervenpotentiale gemessen werden (telemetry of electrically evoked compound action potentials, TECAP). Für die Codierung des Schallsignals werden unterschiedliche Strategien angewendet. Die meisten von ihnen beruhen auf einer pulsatilen Reizung des Hörnervs. Eine Ausnahme bildet die analoge Stimulationsstrategie, bei der der Zeitverlauf des Elektrodenstroms dem des akustischen Eingangssignals entspricht (compressed analogue). Hier wird das Mikrophonsignal mit einer Filterbank in mehrere Anteile zerlegt. Jedem Bandpassfilter ist eine Elektrode zugeordnet. Die einzelnen Anteile werden digitalisiert und in den Dynamikbereich der zugehörigen Elektroden transformiert (mapping). Es ergibt sich ein sinusähnlicher Zeitverlauf der Elektrodenströme mit hoher Frequenz bei den basalen und mit niedriger Frequenz bei den apikalen Elektroden. Die Stimulationsamplituden entsprechen der Schallintensität in den einzelnen Frequenzbändern. Das Schallsignal wird ohne Codierungsverluste oder Verzögerungen übertragen. Anders als bei den pulsatilen Verfahren werden mehrere Elektroden simultan angesprochen. Die dadurch auftretende Überlappung elektrischer Felder kann aber das Diskriminationsvermögen beeinträchtigen und zu nichtauditiven Nebenempfindungen führen.
Eine der historisch ersten pulsatilen Codierungsstrategien beruhte auf dem Prinzip der Parameterextraktion (feature extraction). Dem Ansatz lag die Vorstellung zugrunde, dass wegen der apparativ begrenzten Zeit- und Frequenzauflösung allenfalls ein Teil der sprachlichen Information genutzt werden kann. Das Signal wurde daher auf wenige seiner informationstragenden Elemente – die Grundfrequenz, den ersten und den zweiten Formanten sowie die breitbandig gemessene Gesamtamplitude – reduziert (F0F1F2-Strategie). Die Formanten F1 und F2 wurden durch Filterung, die Grundfrequenz F0 durch Zählen der Nulldurchgänge bestimmt. Die Frequenz der Formanten bestimmte die Auswahl der stimulierenden Elektroden, die Grundfrequenz legte die Pulsrate auf diesen Elektroden fest, und aus der über alle Frequenzen gemittelten Schallintensität ergaben sich, unter Einhaltung der für jede Elektrode eingestellten patientenspezifischen Grenzen, Stromstärke und Breite der Reizpulse. Trotz der offensichtlichen Beschränkungen v. a. in Hinblick auf die stimmlosen Laute (für die F0 nicht definiert ist) erzielten viele CI-Träger mit der F0F1F2-Strategie eine gute Sprachdiskrimination bis hin zum offenen Sprachverstehen. Bei der weniger sprachspezifischen n of m strategy werden aus der Gesamtzahl von m Kanälen n Stimulationselektroden nach Maßgabe der Bereiche größter Intensität im Schallspektrum bestimmt. Dem geregelten Vorverstärker ist eine Filterbank mit programmierbaren Bandpässen nachgeschaltet, deren Mittenfrequenzen zwischen 250 Hz und 10 kHz liegen. Jedem Bandpass ist eine Elektrode zugeordnet, wobei niedrige Frequenzen auf apikale und hohe Frequenzen auf basale Elektroden abgebildet werden. Die Anzahl aktiver Elektroden ist von der Gesamtintensität des Signals abhängig. Dadurch werden bei lauten und breitbandigen Vokalen mehr Kanäle stimuliert als bei leisen Konsonanten. Die ebenfalls von der Gesamtintensität und darüber hinaus von der Anzahl spektraler Maxima abhängige Reizrate liegt zwischen 180 und 300 Hz. Die Elektroden werden sequentiell von basal nach apikal angesteuert, wobei zur Erzielung einer hohen Informationsübertragungsrate alle nicht ausgewählten Elektroden ohne Pause übersprungen werden. Während die Parameterextraktion und die Codierung der spektralen Maxima vorwiegend auf dem Tonotopieprinzip beruhen, wird bei der CIS-Strategie (continuous interleaved sampling) die zeitliche Struktur des Schallsignals stärker betont und damit die Fähigkeit des auditorischen Systems zur Analyse von Periodizitäten besser ausgenützt (⊡ Abb. 15.37). Das verstärkte und hochpassgefilterte Mikrophonsignal wird mit einer Filterbank in eine gerätespezifische Anzahl von Frequenzbändern aufgeteilt. In jedem Kanal wird durch Gleichrichtung und Tiefpassfilterung die Einhüllende des Zeitsignals berechnet. Aus den Abtastwerten der Einhüllenden ergibt sich durch eine nichtlineare Transformation die Amplitude des Reizpulses. Infolge der schnellen kontinuierlichen
15
268
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 15.37. Blockdiagramm (oben) und Funktionsprinzip (unten) der CIS-Strategie. Am Beispiel eines Schallsignals, das von zunächst niedrigen Frequenzen (z. B. Vokal) zu hohen Frequenzen (z. B. Zischlaut) übergeht, ist die Beziehung zwischen der Amplitude der Einhüllenden und der zeitlichen Folge elektrischer Pulse wiedergegeben
zeitversetzten Abtastung und der sequentiellen, basal beginnenden Aktivierung der Elektroden spiegelt sich die Zeit- und Frequenzabhängigkeit der Schallintensität in der zeitlichen Abfolge und der räumlichen Verteilung der Stimulationspulse wider. Bei typischen Pulsbreiten von 80 μs können Stimulationsraten von etwa 1 kHz pro Kanal realisiert werden. Bis auf die sehr grobe Rasterung der Frequenzachse weist diese Codierungsstrategie große Ähnlichkeit mit dem natürlichen Vorbild der peripheren Signalverarbeitung in Cochlea und Hörnerv auf. Neben »n of m« und CIS findet in einem der derzeit verfügbaren CI-Systeme die ACE-Strategie (advanced combination encoders) verbreitete Anwendung. Sie kann als eine Modifikation der n of m strategy aufgefasst werden, bei der die Maximalzahl n der jeweils aktivierten Elektroden und die Kanalrate innerhalb der durch die gerätespezifische
Kapazität (typischerweise 20.000 pps) gesetzte Grenze variabel sind. Anders als bei der CIS-Strategie werden die bis zu n aktivierten Elektroden für jedes berechnete Stimulationsmuster (frame) aus dem Gesamtvorrat m neu bestimmt, sodass auch bei kleinem n eine spektral hochaufgelöste Abbildung des Signals möglich ist. Generell beruht die Sprachcodierung in CI-Systemen auf dem Ansatz, durch die Abbildung des Frequenzspektrums auf die Elektrodenorte und die Übertragung der Zeitstruktur des Sprachsignals auf die Pulsfolge die Kombination von Orts- und Periodizitätsprinzip der natürlichen Tonhöhenerkennung und Zeitmusteranalyse nachzuahmen. Der Umsetzung dieses Zieles stehen die Grenzen der technischen Mittel im Wege. Die verfügbaren Systeme unterscheiden sich voneinander in ihrer Leistungsfähigkeit. Diese Unterschiede sind jedoch
269 15.4 · Hörprothetik
geringfügig in Relation zur Diskrepanz zwischen dem natürlichen Vorbild und dem erreichbaren technischen Standard. Trotz der noch zu erwartenden Fortschritte – v. a. in Geschwindigkeit und Leistungsfähigkeit der Signalverarbeitung, aber auch in der Zahl und Dichte der Elektroden – wird diese Diskrepanz wohl bestehen bleiben. Die Ersetzung von etwa 3400 natürlichen Rezeptorgruppen durch 12 bis 22 Elektroden kann nicht zu einer Wiederherstellung des normalen Diskriminationsvermögens führen. Dies ist der wichtigste Grund dafür, dass die mit einem CI versorgten Patienten nach der Operation eine intensive technische, audiologische, logopädische und pädagogische Betreuung benötigen. Voraussetzung für die Versorgung mit einem CI ist eine beidseitige vollständige Taubheit oder eine so ausgeprägte beidseitige Schwerhörigkeit, dass eine konventionelle Hörgeräteversorgung im Hinblick auf das Sprachverständnis keinen Gewinn erbringt. Der Versorgungserfolg hängt wesentlich von Zeitpunkt und Dauer der Ertaubung ab. Bei gehörlos geborenen oder prälingual ertaubten Patienten verhilft die späte Versorgung mit einem CI i. Allg. nicht zu einem offenen Sprachverstehen. Durch eine frühzeitige Versorgung aber kann auch vielen gehörlosen Säuglingen und früh ertaubten Kleinkindern eine annähernd normale Entwicklung der auditorischen und lautsprachlichen Fähigkeiten ermöglicht werden. Im Grenzgebiet zwischen HG- und CI-Versorgung finden sich Patienten mit noch nutzbaren und daher erhaltenswerten Hörresten, vornehmlich im Tieftonbereich. Durch die Kombination von elektrischer und akustischer Stimulation (EAS) kann in derartigen Fällen die auditive Rehabilitation optimiert werden. Voraussetzung ist eine gehörerhaltende Implantationstechnik und die Verwendung von verkürzten Elektrodenträgern, die den apikalen (Tiefton-)Bereich nicht erreichen. Die apparative Versorgung erfolgt mit einem Sprachprozessor und einem schallverstärkenden Hörgerät bzw. mit einem kombinierten Gerät, welches das Schallsignal sowohl akustisch in verstärkter Form in den Gehörgang abgibt als auch in HF-Pulse für das Implantat verschlüsselt. Es ist gezeigt worden, dass eine große Zahl von Patienten von dieser Versorgung in Hinblick auf ihre sprachliche Diskriminationsleistung profitieren. Die Versorgung mit einem Cochlea-Implantat erfordert eine umfangreiche präoperative Diagnostik. Zu den über die Basisdiagnostik hinausgehenden Eignungstests gehören bildgebende Verfahren wie die Computertomographie (CT) zur Darstellung des Knochenaufbaus im Implantationsgebiet und die Kernspintomographie (MRT) für den Nachweis einer flüssigkeitsgefüllten Cochlea. Die Funktionsfähigkeit des Hörnervs wird in einem präoperativen Elektrostimulationsversuch geprüft. An eine extratympanale Gehörgangselektrode oder eine transtympanale Nadelelektrode, deren Spitze auf dem Promontorium bzw. in der Nische des runden Fensters liegt, wird ein Reiz-
gerät angeschlossen. Während der Darbietung elektrischer Pulse veränderlicher Frequenz und Stromstärke wird der Patient nach seinen Wahrnehmungen befragt. Bei allen Reizfrequenzen, die zu auditorischen Empfindungen führen, werden die Reizstromstärken ermittelt, die den subjektiven Wahrnehmungs- und Unbehaglichkeitsschwellen entsprechen. Wenn der subjektive Test nicht durchführbar ist, kann die Aktivität von Hörnerv und Hörbahn in Narkose mit elektrisch evozierten Potentialen objektiviert werden, doch führt dies wegen der elektrischen Reizartefakte nicht immer zu eindeutig interpretierbaren Ergebnissen. Die Implantation der Elektroden erfolgt in Vollnarkose. Der Elektrodenträger wird durch den ausgeräumten Warzenfortsatz (Mastoid), das Mittelohr und das runde Fenster bzw. eine unmittelbar daneben geschaffene Öffnung (Cochleostomie) in die Scala tympani eingeführt. Die Öffnung des Innenohres wird mit Gewebe und Kleber verschlossen und das Implantat mechanisch befestigt. Noch während der Operation kann die Funktion des Implantats und seine Wirkung auf das Hörsystem durch Beobachtung der Stapediusreflexes während der Stimulation des Hörnervs über Sprachprozessor und Implantat oder durch Ableitung der oben beschriebenen TECAP kontrolliert werden. Bei der postoperativen Anpassung des Sprachprozessors ist der akustische Eingang stillgelegt und der Sprachprozessor an einen Computer angeschlossen, über den die Reizparameter gesteuert werden. Als wichtigste Parameter des Signalverarbeitungsprogramms müssen für alle Elektroden die Bereiche sinnvoller und zulässiger Reizstärken ermittelt werden. Entlang der geräteinternen Reizstärkeskala wird die Stromstärke und evtl. auch die Dauer der einzelnen Reizpulse gemäß einer für alle Elektroden gültigen logarithmischen Funktion erhöht. Aus den Reizstärken, die den subjektiven Schwellen- und Unbehaglichkeitswerten entsprechen, wird für jede Elektrode eine Transduktionsfunktion (mapping law) definiert, die die akustische Eingangsamplitude auf den verfügbaren elektrischen Dynamikbereich abbildet (⊡ Abb. 15.38). Zusätzlich können einige Formparameter dieser Funktion modifiziert werden, um die Lautstärkeempfindung zu beeinflussen oder die Störgeräusche zu unterdrücken. Die patientenspezifischen Parameter der Sprachcodierung beruhen auf subjektiven Angaben. Wenn diese nicht zuverlässig sind, kann die Anpassung durch objektive Verfahren, z. B. die Messung des elektrisch ausgelösten und contralateral registrierten Stapediusreflexes, der TECAP oder der akustisch evozierten Potentiale, ergänzt werden. Aus den Ergebnissen dieser Messungen kann die Funktion des Gesamtsystems überprüft werden und es lassen sich objektive Hinweise auf die Lage der akustischen und elektrischen Reizschwellen ermitteln. Im postoperativen Hörtraining erhält der Patient die für die Verarbeitung der neuartigen Eindrücke notwendige Anleitung und Unterstützung. Die auditorischen Fä-
15
270
I
Kapitel 15 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
⊡ Abb. 15.38. Wahrnehmungs- und Unbehaglichkeitsschwellen (WS bzw. US) für die 16 Elektroden eines (fiktiven) CI-Systems. Die vom Patienten angegebenen Grenzen des Dynamikbereiches (links) gehen in die Definition der Abbildungsvorschrift ein, die den akustischen Schalldruck mit der elektrischen Reizstärke verknüpft (rechts)
higkeiten werden mit einer nach Schwierigkeitsgraden gestaffelten Testbatterie ermittelt. Sie lassen sich in drei Stufen einteilen: Eine akustische Orientierung, d. h. eine Wahrnehmung und Erkennung von Umweltgeräuschen, ist bei allen Patienten zu erwarten, eine Unterstützung beim Lippenablesen gewährt das Implantat meistens auch prälingual ertaubten Patienten, ein offenes Sprachverständnis ohne Blickkontakt zum Sprecher und die Fähigkeit zur telefonischen Kommunikation wird hingegen i. Allg. nur von postlingual ertaubten Patienten erreicht. Grundsätzlich ist das Sprachverstehen im Störgeräusch für CI-Träger auch bei beidseitiger Versorgung problematisch. Ansätze zur Lösung dieses Problems beruhen auf digitaler Störgeräuschunterdrückung oder auf digitaler Verzögerung und Überlagerung des von mehreren Mikrophonen aufgenommenen akustischen Signals (adaptive beam forming). In dieser Hinsicht wie auch in anderen Bereichen ist die technische Entwicklung noch nicht abgeschlossen und die derzeit noch beständig zunehmenden Rehabilitationserfolge lassen weitere Fortschritte erwarten.
Literatur von Békésy G (1960) Experiments in Hearing. McGraw-Hill, New York Böhme G, Welzl-Müller K (1993) Audiometrie. Hörprüfungen im Erwachsenen- und Kindesalter. Ein Lehrbuch. 3. Aufl. Hans Huber, Bern Boenninghaus HG, Lenarz T (2001) Hals-Nasen-Ohrenheilkunde für Medizinstudenten, 11. Aufl. Springer, Heidelberg Borucki H (1993) Einführung in die Akustik. BI, Mannheim Ernst A, Battmer RD, Todt I (2009) Cochlear Implant heute. Springer, Heidelberg Fricke J, Moser LM, Scheurer H, Schubert G (1983) Schall und Schallschutz: Grundlagen und Anwendungen. Physik-Verlag, Weinheim Hellbrück J (1993) Hören. Physiologie, Psychologie, Pathologie. Hogrefe, Göttingen Hoke M, Hoke EE (1997) Auditorische reiz- und ereigniskorrelierte Potentiale und Magnetfelder in der audiologischen Diagnostik. Verhandlungsber (Referate) d Dt Ges f HNO-Heilkunde, Kopf- und Hals-Chirurgie, 175–217. Springer, Heidelberg Hoth S (1999) Medizinische Akustik und Audiologie. In: Bille J, Schlegel W (Hrsg) Medizinische Physik Bd 1 Grundlagen. Springer, Heidelberg, S 305–427 Hoth S, Lenarz T (1994) Elektrische Reaktions-Audiometrie. Springer, Heidelberg
Hoth S, Lenarz T (1997) Otoakustische Emissionen. Grundlagen und Anwendung, 2. Aufl. Thieme, Stuttgart Hoth S, Neumann K (2006) Das OAE-Handbuch. Otoakustische Emissionen in der Praxis. Thieme, Stuttgart Jerger J, Northern JL (1980) Clinical impedance audiometry, 2nd edition. Thieme, Stuttgart Kießling J, Kollmeier B, Diller G (2008) Versorgung und Rehabilitation mit Hörgeräten. 2. Aufl. Thieme, Stuttgart Klinke R (1987) Die Verarbeitung von Schallreizen im Innenohr – Eine Übersicht über neuere Forschungsergebnisse. HNO 35: 139–148 Kompis M (2004) Audiologie. Huber, Bern Lehnhardt E, Laszig R (2009) Praxis der Audiometrie, 9. Aufl. Thieme, Stuttgart Lehnhardt B, Bertram B (1991) Rehabilitation von Cochlear-ImplantKindern. Springer, Heidelberg Mrowinski D, Scholz G (2002) Audiometrie. Eine Anleitung für die praktische Hörprüfung, 2. Aufl. Thieme, Stuttgart Müller-Deile J (2009) Verfahren zur Anpassung und Evaluation von Cochlear Implant Sprachprozessoren. Median, Heidelberg Pickles JO (1988) An introduction to the physiology of hearing, 2nd ed. Academic Press, London Roederer JG (1977) Physikalische und psychoakustische Grundlagen der Musik. Springer, Berlin Schorn K, Stecker M (1994) Hörprüfungen. In: Naumann H, Helms J, Herberhold C, Kastenbauer E (Hrsg) Oto-Rhino-Laryngologie in Klinik und Praxis. Bd 1: Helms J (Hrsg) Ohr. Thieme, Stuttgart Schorn K, Stecker M (1994) Hörgeräte. In: Naumann H, Helms J, Herberhold C, Kastenbauer E (Hrsg) Oto-Rhino-Laryngologie in Klinik und Praxis. Bd 1: Helms J (Hrsg) Ohr. Thieme, Stuttgart Sellick PM, Patuzzi R, Johnstone BM (1982) Measurement of basilar membrane motion in the guinea pig using the Mössbauer technique. J Am Soc Am 72: 131–141 Spillmann T, Wille C (2005) Audiometrie. Eine Anleitung für die Praxis. 2. Aufl. InnoForce EST, Liechtenstein Stange G (1993) Funktionsprüfungen der Hör- und Gleichgewichtsorgane. Ein praktischer Leitfaden. Thieme, Stuttgart Steffens T (1996) Die sinnvolle Nutzung moderner Hörgerätetechnik. HNO 44: 213–222 und 273–285 Ulrich J, Hoffmann E (2007) Hörakustik. Theorie und Praxis. DOZ Verlag, Heidelberg Vonlanthen A (1995) Handbuch der Hörgerätetechnik. Median, Heidelberg Wagener K, Kollmeier B (2005) Evaluation des Oldenburger Satztests mit Kindern und Oldenburger Kinder-Satztest. Z Audiol 44: 134– 143 Zenner HP (1994) Hören. Physiologie, Biochemie, Zell- und Neurobiologie. Thieme, Stuttgart Zwicker E, Fastl H (1990) Psychoacoustics. Facts and Models. Springer, Berlin Zwicker E, Feldtkeller R (1967) Das Ohr als Nachrichtenempfänger, 2. Aufl. Hirzel, Stuttgart
16 Grundzüge der ophthalmologischen Messtechnik Albert J. Augustin 16.1
Augeninnendruckmessung – 271
16.11 Elektrookulogramm (EOG) – 284
16.1.1 16.1.2 16.1.3 16.1.4 16.1.5
Applanationstonometrie nach Goldmann – 271 Impressionstonometrie (nach Schiötz) – 272 Non-contact-Tonometrie (Air-puff-Tonometer) – 272 Mackay-Marg-Tonometrie (Tonopen) – 272 Dynamische Konturtonometrie (DCT, Pascal) – 273
16.12 Adaptometrie – 285
16.2
Optische Kohärenztomographie (OCT) – 273
16.2.1 16.2.2 16.2.3
Makula – 273 Papille – 274 Visante – 274
16.3
Laser-Scanning-Tomographie (HRT)
16.4
GDx Nervenfaserpolarimetrie – 275
16.5
Das Rostock Kornea-Modul (konfokales Lasermikroskop) – 275
16.13 Aberrometrie (Wellenfrontanalyse) – 286 16.14 Ophthalmoskopische Keratometrie – 287 16.15 Strichskiaskopie – 287 16.16 Ultraschall
– 288
16.16.1 A-Scan-Ultraschall, Ultraschallbiometrie – 288 16.16.2 A-Scan-Ultraschall, Ultraschallpachymetrie – 288 16.16.3 B-Scan-Ultraschall – 289
– 274
16.6
Autorefraktometer – 276
16.7
Visuell evozierte Potentiale (VEP) – 276
16.7.1 16.7.2
Blitz-VEP – 276 Muster-VEP – 277
16.8
Ganzfeld-ERG (Ganzfeld-Elektroretinogramm) – 278
16.9
Musterelektroretinogramm (Pattern-ERG, PERG) – 281
16.17 Hornhaut-Topographie – 289 16.18 Orbscan – 289 16.19 Scheimpfluguntersuchung – 290 16.20 Fluoreszeinangiographie der Netzhaut (Natriumfluoreszein) – 290 16.21 Fluoreszenzangiographie der Netzhaut (Indocyaningrün) – 292 16.22 Gesichtsfeldmessung (Perimetrie) – 292 16.23 Exophthalmometrie – 293 Literatur – 295 Weiterführende Literatur
– 295
16.10 Multifokale Elektroretinographie (mfERG) – 282
16.1
Augeninnendruckmessung
Messobjekt: Die Tonometrie dient der Messung des intraokularen Druckes. Messung: Verschiedene Geräte stehen zur Verfügung: Applanationstonometer nach Goldmann, Impressionstonometer nach Schiötz, Non-contact-Impressionstonometer und Macky-Marg-Tonometer. Das Applanationstonometer nach Goldmann gilt als Standard. Eine Verlaufsmessung mit verschiedenen Messmethoden ist aufgrund zahlreicher Einflussfaktoren nicht empfehlenswert. Die Hornhautdicke beeinflusst das Messergebnis und sollte daher immer bestimmt werden (s.u.).
16.1.1 Applanationstonometrie
nach Goldmann Messung: Das Goldmann-Applanationstonometer ist an der Spaltlampe montiert. Die Halterung kann je nach Her-
steller variieren. Die Vorderfläche des Tonometerköpfchens hat einen standardisierten Durchmesser von 3,06 mm. Vor der Messung sind fluoreszeierende und betäubende Augentropfen zu verabreichen. Anschließend wird unter blauem Licht das Tonometerköpfchen der Hornhaut angenähert, bis die Oberflächen sich berühren. Wegen des speziellen Schliffs im Messkopf sind zwei gelbe Halbkreise durch die Spaltlampe sichtbar. Ist der ausgeübte Druck ausreichend, um die gesamte Fläche des Messkopfes auf der Hornhaut abzuflachen, berühren sich die beiden Innenränder der Halbkreise. Die Druckregulierung erfolgt über ein Rädchen an der Tonometerhalterung. Nimmt man eine durchschnittliche Hornhautdicke und ein normales Maß an Tränenflüssigkeit an, lassen sich bei der oben beschriebenen runden Fläche (mit dem Durchmesser von 3,06 mm) die Adhäsionskraft der Tränenflüssigkeit und die notwendige Kraft zur Hornhautverformung gegeneinander subtrahieren, und der gemessene Druck kann dem intraokularen Druck gleichgesetzt werden.
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _16, © Springer-Verlag Berlin Heidelberg 2011
272
I
Kapitel 16 · Grundzüge der ophthalmologischen Messtechnik
Indikation: Der Augeninnendruck ist ein entscheidender Parameter zur Beurteilung des Glaukoms und der Therapie. Die Applanationstonometrie ist eine einfache, elegante und – abgesehen von bestimmten Ausnahmen – sehr genaue Messmethode zur Augeninnendruckmessung. Auswertung: Die Hornhautdicke beeinflusst die Messung. In der Literatur finden sich verschiedene Berechnungsmöglichkeiten für den Korrekturfaktor. Die am häufigsten angewandte ist die Formel nach Orssengo-Pey.
16.1.2 Impressionstonometrie (nach Schiötz)
Messobjekt: Die Messung ermittelt die Eindelltiefe der Hornhaut bei definierter (Schwer-)Krafteinwirkung. Messung: Das Instrument gleicht einem umgedrehten Zirkel. Der untere Anteil besteht aus einem Handhalter, einer Fußplatte und einem beweglichen koaxialen Stift. Nach Tropfanästhesie wird das Instrument mit der Fußplatte auf die Hornhaut senkrecht aufgesetzt. Die Auslenkung des Stifts wird mit Hilfe eines Gelenks auf der Skala am oberen Teil des Tonometers angezeigt. Die Messung kann durch leichtes Verkippen des Tonometers stark verfälscht werden. Es empfiehlt sich deshalb, den Patienten so flach wie möglich zu lagern. Indikation: Die Impressionstonometrie nach Schiötz ist nach der Applanationstonometrie die am häufigsten verwendete Messmethode des Augeninnendrucks. Bettlägerige Patienten stellen die häufigste Indikation für die Anwendung dieses Verfahrens dar. Auswertung: Der an der Skala abgelesene Wert wird mit Hilfe der dem Schiötz-Tonometer beigefügten Tabelle in den Augeninnendruckwert umgewandelt. Es ist dabei zu beachten, dass je nach eingesetztem Gewicht unterschiedliche Spalten der Tabelle gelten. Neuere Impressionstonometer errechnen die Werte automatisch. Relevanz: Bei erhöhter Abhängigkeit von der individuell unterschiedlichen Dehnungsfähigkeit von Sklera und Hornhaut wie z. B. bei hoher Myopie, ist das Risiko einer Fehlmessung viel größer als bei der Applanationstonometrie. Deshalb wird dieses ältere Verfahren nur in den Fällen eingesetzt, in denen Applantationstonometrie nicht möglich ist, z. B. am liegenden Patienten.
16.1.3 Non-contact-Tonometrie
(Air-puff-Tonometer) Messobjekt: Die Messung ermittelt die Zeit, die notwendig ist, bis zur Abflachung der Hornhaut bei definierter (Luftstoß-)Krafteinwirkung. Messung: Die Messung geschieht automatisch ohne vorherige Anästhesie. Der Patient sitzt in der Regel wie an der Spaltlampe vor dem Gerät. Er sollte die Augen ruhig und möglichst weit offen halten. Bei reduzierter
Sehschärfe sollte zur besseren Fixationanregung das nicht untersuchte Auge abgeklebt werden. Die Zeit, die für die Abflachung der Hornhaut durch einen Luftstoß erforderlich ist, wird durch ein optisches System bestimmt. Die Messung wird in der Regel dreimal wiederholt. Aus den Werten wird dann ein Mittelwert errechnet. Indikation: Die Air-puff-Tonometrie ist vor allem dann nützlich und sinnvoll, wenn eine Berührung der Hornhaut vermieden werden soll (z. B. bei Infektionen oder Verletzungen des Hornhautepithels). Auswertung: Die Werte werden digital mitgeteilt. Je nach Gerätetypus werden Werte > 30 mmHg häufig nur noch als zu hohe Werte angezeigt (mit der Empfehlung, die Messung mit dem Standard (Applanation) zu wiederholen. Bei Lidschluss können falsche Werte oder aber auch keine Werte angezeigt werden. Trägt der Patient eine weiche Kontaktlinse, werden um ~ 4 mmHg höhere Werte bestimmt. Im Vergleich zur Goldmann-Tonometrie werden in der Regel höhere Werte bestimmt. Besteht eine hohe Hornhaut-Irregularität, z. B. nach Keratoplastik, Epithelödem oder nach Salbenapplikation, kann das Gerät nicht mehr sinnhaftig verwendet werden. Relevanz: Die einfache Bedienung des Tonometers erlaubt es, dass die Messung auch durch nichtärztliches Personal durchgeführt werden kann.
16.1.4 Mackay-Marg-Tonometrie (Tonopen)
Messobjekt, Messung: Die Messung kann mit oder ohne Lokalanästhesie erfolgen, dies im Liegen und Sitzen. Das Gerät hat die Form eines dicken Stiftes und misst den Druck durch einen Mikro-Stempel (transducer). Aus hygienischen Gründen ist vor jeder Messung ein Gummiüberzug aufzuziehen. Bei weit offenen Augen ist das Gerät mit dem Messkopf senkrecht auf die Hornhaut aufzusetzen. Indikation: Das Mackay-Marg-Tonometer wird vor allem bei Patienten mit irregulärer Hornhautoberfläche (z. B. nach Verätzung) eingesetzt. Es gilt als das einzige Gerät, mit dem unter solchen Umständen exakte Messwerte gemessen werden können. Auswertung: Die Messung ergab beim ursprünglichen Mackay-Marg-Tonometer eine zweizackige Kurve des erzeugten Druckes in Abhängigkeit von der Zeit. Die erste Spitze ist der gesuchte intraokulare Druck. Die zweite Spitze spiegelt den Druck wider, der für die Applanation der Hornhaut durch den Stempel und den umgebenden Ring notwendig ist. Die Messung ist mehrmals zu wiederholen, um einen Mittelwert zu bestimmen. Bei neueren Geräten (Tonopen) werden die Messungen automatisch interpretiert und gemittelt, sodass am Ende eine digitale Anzeige den errechneten Wert anzeigt. Verglichen mit dem Goldmann-Tonometer, können die Augendruckwerte mit dem Mackay-Marg-Tonometer geringfügig höher gemessen werden.
273 16.2 · Optische Kohärenztomographie (OCT)
Relevanz: Obwohl das Prinzip des Mackay-Marg schon seit mehr als 50 Jahren bekannt ist, ist seine Ausbreitung noch gering. In der Zukunft dürfte die SchiötzTonometrie durch den Tonopen ersetzt werden.
16.1.5 Dynamische Konturtonometrie
(DCT, Pascal) Messobjekt: Der intraokulare Druck wird mit Hilfe eines Piezzo-Kristall-Sensors erfasst. Die am Piezzo-Kristall gemessene Spannung verhält sich proportional zum einwirkenden Druck. Messung: Die dynamische Konturtonometrie (DCT) ist eine nichtinvasive und direkte Messung des intraokularen Drucks (IOD), die durch strukturelle Eigenschaften des Auges weniger beeinflusst werden soll. Die Kontur des Tonometerkopfes ist konkav gewölbt und nur leicht flacher als die menschliche Hornhaut. Die Messung ähnelt vom Aufbau und Verlauf der Goldmann-Tonometrie. Das Tonometer wird an der Spaltlampe angebracht und auf die Hornhaut gebracht. Durch die konkav geformte Spitze »umfasst« der Messkopf die natürliche Hornhautkrümmung. Tangentiale und biegende Kräfte sind in diesem Zustand zu vernachlässigen, sodass der gemessene Druck auf der Hornhautoberfläche dem intraokularen Druck entspricht. Durch die digitale Aufnahme der Werte, kann im Anschluss an die Messung eine Kurve mit dem zeitlichen Druckverlauf erstellt werden. Indikation: Vorteil gegenüber allen anderen Tonometern ist die dynamische Messung über eine gewisse Zeitperiode. Mit der DCT ist es möglich, den diastolischen und den systolischen IOD zu messen und dessen Differenz und die okulare Pulsamplitude zu bestimmen. Diese ist ein indirekter Hinweis für die chorioidale Perfusion. Auswertung: Das DCT misst einen im Mittel 3,2 mm Hg höheren IOD als das Goldmann-Applanationstonometer. Die Messung ist hier unabhängig von der Hornhautdicke. Relevanz: Sie könnte in der Diagnose und Therapie des Glaukoms eine wichtige Rolle spielen. Wissenschaftliche Erhebungen finden statt.
16.2
Optische Kohärenztomographie (OCT)
Messobjekt: Das OCT ermöglicht die In-vivo-Darstellung verschiedener anatomischer Strukturen des Auges bis zu einer Auflösung von < 10 μm longitudinal und < 20 μm transversal. Messung: Bei der Messung wird das zu untersuchende Objekt automatisch mit einem infraroten Laserstrahl (mit einer Kohärenzlänge von 830 nm) gescannt. Der reflektierte Strahl wird in seiner Intensität bestimmt. Die
zeitliche Verzögerung erlaubt eine Aussage über die Entfernung des gescannten Objektes. Relevanz: Netzhaut: Die OCT-Untersuchung der Makula und der Papille hat sich in den letzten Jahren als Ergänzung zur Angiographie (Makula) und in der Glaukomdiagnostik (Papille) durchgesetzt. Vorderer Augenabschnitt: Die Untersuchung der Vorderkammer und der Hornhaut mittels OCT ist eine vielversprechende Alternative zu der Ultraschallbiomikroskopie.
16.2.1 Makula
Indikation: Das OCT der Makula gilt heute als Standarduntersuchungen bei zahlreichen Erkrankungen wie z. B. Makulaforamen oder epiretinalen Gliosen. Als Erweiterung zur Angiographie ermöglicht das OCT Volumenmessungen (Quantifizierung eines Makulaödems). Mittels neuer hochauflösender OCTs lassen sich einzelne Netzhautschichten differenzieren (In-vivo-Histologie) (⊡ Abb. 16.1, 4-Farbteil am Buchende). Auswertung: Die OCT-Untersuchung der Makula ergibt zweidimensionale Darstellungen der Netzhaut. Die Intensität des zurückgestrahlten Lichtes wird entweder farbkodiert (rot = stark, blau = schwach) oder in unterschiedlichen Graustufen (hell = stark, dunkel = schwach) dargestellt. Orte der starken Reflexion sind Nervenfasern, Gefäße, das Pigmentepithel und epiretinale Gliosen. Die neurosensorische Netzhaut und die Aderhaut haben in der Regel einen mittleren Reflexionsgrad. Ausnahme ist ein Pigmentepitheldefekt, der der darunter liegenden Aderhaut eine erhöhte Intensität verleiht. Der Glaskörper besitzt einen niedrigen Reflexionsgrad. Das OCT ermöglicht bei starker Kontrasterhöhung die Darstellung von relevanten Glaskörperstrukturen, wie z. B. eine vitreoretinale Traktion und die Glaskörpergrenzmembran. Mit Hilfe von Computerrekonstruktionen lassen sich dreidimensionale Darstellungen von Strukturen erstellen. Das Volumen des Makulaödems kann genau bestimmt und mit vorhergehenden Untersuchungen verglichen werden. Durch die höhere Auflösung der neueren Generation von OCT lassen sich auch dreidimensionale Darstellungen bestimmter Netzhautschichten berechnen. Das Ausmaß einer Pigmentepithelelevation oder der Verlust von Nervenfasern kann bildlich dargestellt und über Dickenmessungen oder direkte Volumenbestimmungen quantifiziert werden. Als Standard hat sich die Darstellung der zentralen Netzhautdicke als »map« durchgesetzt. Bei dieser wird die Makula als farbige runde Fläche abgebildet. Die normale »map« der Netzhaut hat eine blaue Farbe mit einem grünen oder gelblichen Ring zentral für den fovealen Wall. Wenn die Netzhaut zentral verdickt ist, zeigt sich die »map« gelb bis rot (bei stark erhöhten Werten sogar weiß). Neben der farbkodierten Darstellung werden auch Mittelwerte für
16
274
I
Kapitel 16 · Grundzüge der ophthalmologischen Messtechnik
bestimmte Regionen der Makula (zentral, nasal, temporal, oben und unten) in Microns (= μm) errechnet und in der Regel neben oder in Kombination mit der »map« auf dem OCT-Ausdruck aufgelistet. Eine Netzhautdicke von mehr als 180 μm gilt als pathologisch.
16.2.2 Papille
Indikation: Das OCT der Papille ist neben anderen Messverfahren (sog. HRT bzw. Polarimetrie [GDx]) eine hochsensitive und sehr spezifische Untersuchung zur Darstellung von Nervenfaserverlusten bei Glaukom. Als Vorteil gegenüber der GDx ermöglichen OCT und HRT auch genaue Bestimmungen von Papillengröße und der Papillenexkavation. Auswertung: Die Messung von Papillengröße und der Papillenexkavation erfolgt automatisch. Nur bei besonders konfigurierten Papillen ist eine manuelle Einstellung der Konturen in der OCT-Aufnahme durch den Untersucher notwendig. Auf dem Ausdruck wird in der Regel der senkrechte Schnitt durch die Papille dargestellt. Für jeden einzelnen Schnitt (vertikal, horizontal, und schräg) werden vom Computer der Papillendurchmesser, der Exkavationsdurchmesser und die Breite des Papillenrandes angegeben. Aus der Analyse aller Schnitte werden dann die Papillenfläche (»disk area«) und die Exkavationsfläche (»cup area«) bestimmt. Das Verhältnis der beiden Flächen stellt die »cup disk area ratio« dar. Neben dieser wird auch eine »cup disk horizontal« und »vertikal ratio« vom Gerät angegeben. Die vertikale »cup disk ratio« sollte bei einer normal geformten Papille kleiner sein als die horizontale »cup disk ratio«. Die Messung der Nervenfaserschichtdicke funktioniert nach dem Prinzip der Schichtdickenbestimmung, die oben (OCT Makula) besprochen wird. Die Nervenfaserschichtdicken werden je nach Lokalisation (superior, inferior, temporal und nasal) mit den Werten eines Normalkollektives verglichen ( Abschn. 16.3).
16.2.3 Visante
Indikation: Das OCT des vorderen Augenabschnittes ist neben der Ultraschallbiomikroskopie eine genaue Messmethode zur Bestimmung der Vorderkammertiefe und des Kammerwinkels. Es stellt ein hervorragendes Werkzeug zur Diagnostik und Beurteilung des Engwinkelglaukoms dar. Nach der Darstellung der Hornhaut kann vor und nach einem refraktiven Eingriff die Hornhautdicke und die Dicke der Hornhautscheibe (flap) exakt gemessen werden. Bei der Diagnose eines Keratokonus ermöglicht das Visante-OCT eine Diagnosesicherung und Verlaufsbeobachtung. Das Visante-OCT ermöglicht auch die Messung von Tumorprominenzen auf der Irisvorderfläche, ist jedoch der Ultraschallbiomikroskopie unterlegen.
Auswertung: Die Bestimmung der Vorderkammertiefe und des Kammerwinkels werden durch den Untersucher manuell festgelegt. Die Hornhautdicke wird farbkodiert dargestellt. Dünne Hornhautstellen zeigen sich orange bis dunkelrot. In vom Gerät zur dargestellten Tabelle lassen sich folgende Parameter ablesen: kleinste und größte Hornhautdicke sowie ein Durchschnittswert für unterschiedliche Lokalisationen (⊡ Abb. 16.2, 4-Farbteil am Buchende).
16.3
Laser-Scanning-Tomographie (HRT)
⊡ Abb. 16.3, 4-Farbteil am Buchende
Messobjekt: Die Laser-Scanning-Tomographie ermöglicht die In-vivo-Topographie verschiedener anatomischer Strukturen des Auges. Messung: Mit Hilfe eines Dioden-Lasers werden Serien zweidimensionaler optischer Schnittbilder aus 32 tiefengeschichteten Fokalebenen (z-Achse) aufgenommen. Die Aufnahmen werden vom Computer dann für die Rekonstruktion der räumlichen Struktur verwendet. Vom Untersucher sind die Standardreferenzebene und die Papillengrenze zu definieren. Diese beiden Werte können die Messung entscheidend beeinflussen. Zur Vermeidung von Fehlerquellen (besonders der Untersuchervariabilität) existieren Rechenmodelle zur Mustererkennung. Diese können mittels einer Kombination aus HRT und ophthalmoskopischer Aufnahme die Papillengrenze automatisch festlegen. Zur besseren Auflösung bearbeitet der Computer mit Hilfe der »TruTrak«-Software Bewegungsartefakte. Außerdem gleicht sie die Position der Bilder zwischen verschiedenen Messungen an, indem sie verglichen werden. Indikation: Das Laser-Scanning-Tomograph wird am häufigsten für die Glaukomdiagnostik eingesetzt. Auswertung: Wie bei der OCT der Papille werden folgende Messgrößen erhoben: Papillengröße, Papillenexkavation, Papillenrandsaum, Dicke der retinalen Nervenfaserschicht. Die Werte können bei Verlaufsbeobachtungen mit den vorherigen Aufnahmen verglichen werden. Des Weiteren besteht wie beim OCT die Möglichkeit, die individuellen Messungen mit Werten eines Normalkollektivs zu vergleichen. Dazu wird eine graphische Darstellung verwendet. Sie zeigt den Anteil der Papillenexkavation und des Papillenrandsaumes als farbige Anteile eines Balken. Die Exkavation ist rot, der neuroretinale Randsaum ist grün und der geneigte Randsaum blau dargestellt. Verschiedene Lokalisationen (temporal, temporal und superior etc.) werden dargestellt. Vorgegebene Kurven schneiden die Balken und markieren die Bereiche der normalen (predicted) und die von der Mehrheit des Kollektivs abweichende Balkenaufteilung. Die Regressionsanalyse nach Moorfield erlaubt daraus eine Klassifizierung des Papillenbefundes mit einer Sensitivität für glaukomatöse Schäden von 74–90%.
275 16.5 · Das Rostock Kornea-Modul (konfokales Lasermikroskop)
Relevanz: Das Laser-Scanning-Tomograph ist eine (vor allem in Praxen) weitverbreitete Methode zur objektiven Befunddokumentation von Papille und Nervenfaserschicht. Sie hat große Bedeutung in der Frühdiagnostik und Verlaufsdokumentation bei Glaukom.
16.4
GDx Nervenfaserpolarimetrie
Messobjekt: Bei der Untersuchung wird die Retardation von polarisiertem Licht gemessen und daraus die peripapilläre und makuläre Nervenfaserdicke errechnet. Messung: Vor der Messung ist eine Pupillenerweiterung sinnvoll, aber nicht zwingend notwendig. Innerhalb von weniger als einer Sekunde erfolgt dann die vollautomatisierte Messung an 32768 Messpunkten. Das Gerät verbindet die Eigenschaften eines Scanning-LaserOphthalmoskops und eines Fourier-Ellipsometers. Die Netzhaut wird mit polarisiertem Infrarotlicht (780 nm) abgescannt und an das Pigmentepithel (bei Defekt an die Sklera) reflektiert. Je nach Beschaffenheit und Dicke des bestrahlten Gewebes durchdringt das polarisierte Licht dieses unterschiedlich schnell. Strukturen mit gerichtetem Faserverlauf verlängern die Durchdringzeit des Lichtes mit senkrecht zur Faserrichtung schwingenden Wellen. Aus der Differenz zwischen den Laufzeiten verschieden polarisierten Lichtes wird dann durch eine Umrechnung anhand von histologischen Vergleichen die Nervenfaserdicke (Pseudodicke) bestimmt. Indikation: Das Verfahren eignet sich zur Bestimmung der peripapillären Nervenfasersaum- und der Nervenfaserbündeldefekte. Es besitzt eine Sensitivität von 96% und eine Spezifität von 93% in der Früherkennung von glaukomatösen Schäden. Eine glaukomatöse Änderung kann noch vor Veränderungen in der Perimetrie erkannt werden. Besonders gut eignet sich das Gerät zu Verlaufskontrollen bei Glaukom. Auswertung: Die Daten werden zu einem dreidimensionalen oder falschfarbenkodierten Bild umgewandelt. Im falschfarbenkodierten Bild werden dicke Strukturen gelb bis rot gekennzeichnet und dünne hell- bis dunkelblau. Entsprechend der ISNT-Regel sind die oberen und unteren Nervenfaserbündel rot und gelb und die temporalen und nasalen blau dargestellt. Des Weiteren besitzt das Gerät auch eine alters- und rassenspezifische Datenbank von Normalwerten. Damit lassen sich die erhobenen Werte beurteilen. Die Auswertung erfolgt wie beim OCT und HRT tabellarisch und graphisch. In der Tabelle werden die errechneten Durchschnittswerte nach Lokalisation (superior, inferior) und zirkulär aufgezählt. Sind die Werte pathologisch, erscheinen sie rot untermalt. Die Tabelle zeigt auch die Standardabweichung vom Normalkollektiv und die Differenz zwischen beiden Augen, was die Wahrscheinlichkeit einer Glaukomerkrankung (Nerve Fiber Indicator [NFI] = The Number) ergibt. Die Wahrscheinlichkeit für
eine Glaukomerkrankung ist bei einen NFI ≤ 30 niedrig, von 30–50 grenzwertig und von ≥ 50 hoch. Relevanz: Das nichtinvasive diagnostische Verfahren eignet sich gut zur Beurteilung eines verdächtigten Nervenfaserdefektes oder Papillenrandsaumdefektes. Gegenüber der HRT- und OCT-Untersuchung besitzt diese Untersuchung nicht die Möglichkeit einer Papillengrößen- und Exkavations-Messung. Die Messung ist anfällig bei Hornhaut- oder Linsenanomalien, Myopie und Hyperopie. Die Entwicklung eines Software-Moduls (enhanced cornea compensation, ECC) konnte die Abweichung teilweise korrigieren.
16.5
Das Rostock Kornea-Modul (konfokales Lasermikroskop)
Messobjekt: Zur Untersuchung und Messung von Hornhaut- und Bindehautschichten. Messung: Es werden frontale Schnittaufnahmen mit einer maximalen Eindringtiefe von etwa 1500 μm und einer Größe von 400 μm x 400 μm gemacht. Indikation: Das Verfahren ermöglicht die Darstellung von Keratozyten, Endothelzellen und Nervenfasern in der Hornhaut. Somit eignet es sich gut zur Beurteilung von Hornhauterkrankungen und zur Verlaufskontrolle nach refraktiven Eingriffen. Es stellt des Weiteren eine Möglichkeit zum Monitoring der Filterkissenmorphologie nach filtrierender Glaukomchirurgie dar. Auswertung: Die Quantifizierung von Endothelzelldichte erfolgt durch Auszählen der Zellen in einer bestimmten Fläche. Durch die Darstellung aller Korneaanteile ist es möglich, die Dicke der jeweiligen Strukturen zu bestimmen und so eine Frühdiagnose bei Dystrophien zu stellen. Relevanz: Das noch junge, nichtinvasive Verfahren hat ein großes Potential in der Diagnostik von Hornhaut und Bindehaut. Es wird aber heutzutage nur in begrenztem Maße, vor allem an spezialisierten Zentren, eingesetzt (⊡ Abb. 16.4).
⊡ Abb. 16.4. Bild der Hornhautinnenschicht, aufgenommen mit konfokaler Technik
16
276
Kapitel 16 · Grundzüge der ophthalmologischen Messtechnik
16.6
I
Autorefraktometer
Messobjekt: Es wird die Qualität der optischen Abbildung auf der Netzhaut bestimmt. Die Linsenkombination mit der bestmöglichen Abbildung ergibt die gesuchte Refraktion. Messung: Die Messungen erfolgen automatisch und je nach Gerät sitzend (in der Regel), stehend oder liegend. Für die Untersuchung ist es besonders wichtig, dass der Patient in die Ferne schaut. Ein eingebautes Bild im Gerät bewerkstelligt dies. Bei Kindern empfiehlt sich eine Cycloplegie, da dann vollständig ausgeschlossen werden kann, dass die Akkommodationsfähigkeit die Messung verfälscht. Bei Patienten mit mangelhafter Fixation kann das nicht untersuchte Auge abgedeckt werden, um so eine bessere Messung zu erzielen. Die Messungen erfolgen nach verschiedenen Prinzipien. Folgende Verfahren werden in der Regel eingesetzt: ▬ Foucaultsches Schneidenverfahren, ▬ Scheiner-Prinzip, ▬ Bildmessverfahren. Bei dem Foucaultschen Schneidenverfahren wird eine punktförmige Lichtquelle durch eine Linse in ein paralleles Lichtstrahlbündel umgewandelt. Das parallele Strahlenbündel trifft auf das Auge und wird zu einem Punkt auf der Netzhaut gebündelt. Besteht eine mangelhafte Refraktion im Auge, erscheint der Punkt als Fleck oder Strich. Das reflektierte Licht verstärkt diesen Befund. Die ehemals punktförmige Lichtquelle ist bei einer mangelhaften Refraktion noch weiter verzerrt. Bei einer optimalen Refraktion wird das Licht auf den ursprünglichen Punkt reflektiert. Treten abweichende Lichtstrahlen von der ursprünglichen Lichtquelle auf, so kann dies mit Hilfe eines Licht-Detektors bestimmt und quantifiziert werden. Durch Vorschalten von verschiedenen Linsen, die korrigierend auf die Augenrefraktion wirken, kann die Abweichung von der Lichtquelle verringert werden. Wenn die Abweichung de facto nicht mehr nachweisbar ist, entspricht die Brechkraft der vorgeschalteten Linsen der gesuchten optimalen Refraktion. Im Scheiner-Prinzip bedient man sich einer Blende, die zwei punktförmige parallele Lichstrahlen erzeugt. Die Lichtstrahlen werden durch die brechenden Medien im Auge gebrochen und fokussiert. Je nach Abstand der beiden Lochblenden und der Refraktion im Auge werden die Lichtstrahlen auf der Netzhaut davor oder dahinter fokussiert. Durch Verstellen der Entfernung zwischen den Blenden kann die Refraktion bei definierter Bulbuslänge errechnet werden. Das Bildmessverfahren ist eine Abwandlung des Scheiner-Prinzips. Durch Reflexion eines einfallenden Lichtstrahls entsteht auf der Netzhaut eine punktförmige Lichtquelle. Durch die Refraktion am Auge werden die Lichtstrahlen gebrochen und können mit einer Linse erneut fokussiert werden, sodass sie je nach ihrem Einfallswinkel unterschiedlich weit auf einen Detektor projiziert werden. Der gemessene Abstand ist für das emmetrope Auge definiert. Bei Myopie
wird der Abstand größer und bei Hyperopie kleiner. Durch Vorschalten von brechenden Gläsern vor das Auge wird die Refraktion bestimmt, die zu einer Emmetropie führt. Indikation: Die Bestimmung der objektiven Refraktion gehört zu jeder ophthalmologischen Untersuchung. Besonders vor und nach einem refraktiven Eingriff (Cataract-Operation, refraktive Hornhautchirurge) ist eine Messung unerlässlich. Auswertung: Je nach Gerät werden drei Messungen automatisch oder erst auf Knopfdruck für eine genaue Refraktion benötigt. Die integrierte Software errechnet dann aus den drei Werten die wahrscheinliche Refraktion. Eine häufige Fehlerquelle ist eine »Gerätemyopisierung«. Diese tritt dann auf, wenn der Patient ein unscharfes Bild sieht und durch reflexartiges Anpassen der Linse eine Vergrößerung der Myopie induziert. Bei minimalem oder nicht vorhandenem Astigmatismus können falsche Werte von bis zu 0,5 dpt. bestimmt werden. Charakteristisch für diese ist ein stark wechselnder Astigmatismuswinkel. Relevanz: Die automatische Refraktion gehört heutzutage zur Standardeinrichtung jeder ophthalmologischen Praxis oder Klinik. Sie erlaubt ein schnelles und einfaches Messen der objektiven Refraktion. In der Regel wird in der ophthalmologischen Praxis der Autorefraktometer von medizinischem Hilfspersonal bedient.
16.7
Visuell evozierte Potentiale (VEP)
Messobjekt: Visuell evozierte Potentiale sind elektrische Potentialdifferenzen, die nach einem Lichtreiz von der Kopfhaut über der Sehrinde abgeleitet werden können. VEP sind eine spezielle Form evozierter Potentiale. Die Messung der Laufzeit (Latenzzeit) und der Höhe (Amplitude) der Potentiale gibt Hinweise auf die Funktion der Sehbahn. Die visuelle Reizung der Retina erfolgt entweder mit Lichtblitzen (Blitz-VEP) oder mit einem so genannten Schachbrettmuster mit Kontrastumkehr (Muster-VEP). Die Pupillen sollen bei der letzten Untersuchung unbeeinflusst bleiben. Bei Gesunden liegt die Latenzzeit für das primär kortikale Potential bei 100 Millisekunden.
16.7.1 Blitz-VEP
Messung: Die Stimulation erfolgt mit Einzelblitzen meist aus einer Xenonbogenlampe. Sie sollte in einem Sehwinkel von wenigstens 20° dem Patienten gegenüber aufgestellt sein. Wahlweise kann ein Standardblitz wie beim Ganzfeld-ERG oder ein Blitz mit einer Intensität von 1,5-3 cd/m2 (< 1,5 Hz) verwendet werden. Die Blitzdauer sollte maximal 5 ms betragen. Indikationen: Mit dieser Untersuchung können Nervenleitungsverzögerungen im Rahmen von z. B. entzündlichen Veränderungen im Bereich des Sehnerven untersucht wer-
16
277 16.7 · Visuell evozierte Potentiale (VEP)
den. Auch sonstige Schädigungen im Bereich der Sehbahn bis hin zur Sehrinde am Hinterkopf können untersucht werden. Es wird hier im Seitenvergleich der Nervenantwortreiz aufgezeichnet und vermessen. Die Blitz-VEP-Untersuchung kann z. B. bei Säuglingen, bei hochgradiger Visuseinschränkung, erheblicher Medientrübung oder fehlender Mitarbeit hilfreich sein, um qualitativ Aufschluss über eine vorhandene retinokortikale Transmission zu erhalten. Der Vorteil liegt in der kaum erforderlichen Mitarbeit des Patienten. Auswertung: Auf Lichtblitze hin lässt sich eine komplexe Antwort ableiten, die bei etwa 30 ms beginnt und bei etwa 300 ms endet. Positive und negative Peaks werden jeweils nach der Reihenfolge ihres Auftretens nummeriert: N für einen negativen und P für einen positiven Peak. Den Gipfeln der N2 und P2 bei etwa 90–120 ms kommt die wichtigste Bedeutung zu. Blitzevozierte VEPs sind bereits bei Frühgeborenen in der 24. Gestationswoche mit einem Gipfel bei 300 ms ableitbar. Relevanz: Das Blitz-VEP ist bezüglich der Aussagemöglichkeiten dem Muster-VEP weit unterlegen, da man lediglich eine Antwort auf eine grobe Änderung der Leuchtdichte erhält. Daher variiert die Latenz interindividuell teils erheblich, eine Aussage kann anders als beim Muster-VEP erst im Verlauf (wenn überhaupt) getroffen werden.
16.7.2 Muster-VEP
Messung: In einem abgeschirmten Raum wird der Patient vor einen Bildschirm gesetzt. Für die Dauer von
20 Minuten wird ihm ein Schachbrettmuster auf einem Bildschirm präsentiert. Es erfolgt ein so genannter Umkehrreiz des Schachbrettmusters, sodass die weißen Felder schwarz und die schwarzen Felder weiß werden, dies in raschem Wechsel. Es wird jeweils ein Auge mit einer Klappe verdeckt, sodass immer mit einem Auge ein bestimmter Punkt auf dem Monitor fixiert werden muss. Drei Elektroden werden an bestimmten Stellen am Kopf angebracht, um die Impulse zu messen (kleine Nadelelektroden/Akupunkturnadeln können auch unter die Kopfhaut gestochen werden). Danach setzt sich der Patient in entspannter Sitzposition, den Monitor an einem bestimmten Punkt fixierend. Auswertung: Schwankungen der Latenz zwischen mehreren Messungen betragen bis zu 5%, während die der Amplitude bis zu 25% betragen können. Daher ist die Latenz der sensitivere Parameter im VEP. Maximale Amplituden werden bei Stimulationen mit 10–20 Sehwinkelminuten abgeleitet, während mit kleineren oder größeren Reizmustern die Amplitude der P100-Komponente wieder abnimmt. Bei sehr großen Reizmustern (> 2°) gleichen die Ergebnisse den blitzevozierten VEP-Antworten. Die Latenz verlängert sich bei sehr großen und sehr kleinen Reizmustern (> 15°, < 2°). Allgemein gilt die Regel: je schwächer der Kontrast des Stimulus, desto kleiner die Amplitude und desto länger die Latenz. Das Muster-VEP ist eine der wichtigsten Untersuchungen in der Neuroophthalmolgie. Als alleiniges Mittel ist es aber nicht ausreichend. Es kann nur eine Diagnose erhärten, bestenfalls bestätigen (⊡ Abb. 16.5).
OD
OS P100
+
P100
5 μV
Amplitude [μV]
30 ms
G1 13,7'
C1 13,7' P100
P100
N75
N75
N140
E1 60'
N75
N140
A1 60'
N75 N140 N140
Zeit [ms]
Zeit [ms]
⊡ Abb. 16.5. Pattern-VEP-Ableitung bei einem gesunden Probanden für rechtes Auge (OD) und linkes Auge (OS). Verwendete Reizmustergrößen von oben nach unten: 13.7’ (oben) und 60’ (unten). Die Positivität (+) des Signals ist nach oben, die Negativität (–) nach unten aufgezeichnet. Aus Platzgründen wird hier nur eine Ableitung pro Reizmuster gezeigt. Gipfelzeiten OD/OS (bei entsprechender Reizmustergröße) für die P100Komponente 121/120 ms (13,7’); 112/115 ms (60’); Amplituden (μV) OD/OS (bei entsprechender Reizmustergröße) für die P100-Komponente 30/33 (13,7’); 17, 8/20 (60’) (P100 = P100-Komponente; N75 = N75-Komponente; N140 = N140-Komponente)
278
Kapitel 16 · Grundzüge der ophthalmologischen Messtechnik
16.8
I
Ganzfeld-ERG (Ganzfeld-Elektroretinogramm)
Messobjekt: Es wird die lichtevozierte elektrische Summenantwort (Potentialänderung) neuronaler und nichtneuronaler Zellen gemessen. Messung: Mit Hilfe einer aktiven Elektrode an der Hornhaut werden die ERG-Potentiale aufgefangen und gegen eine temporal der äußeren Lidkante, an der ipsilateralen Schläfenseite aufgebreiteten Referenzelektrode abgeleitet. Als aktive Elektroden können verschiedene Modelle benutzt werden: Burian-Allen, Henkes, Jet, Dawson-Trick-Litzkow, Arden. Die Elektroden nach BurianAllen, Henkes und Jet sind Kontaktlinsen. Sie werden mit einem Kontaktgel (Methylcelluloseanteil ≤ 5%) wie eine therapeutische Kontaktlinse oder ein Kontaktglas auf die Hornhaut aufgebracht. Bei der Burian-Allen-Elektrode ist im Vergleich zu der Jet-Elektrode ein Lidschluss nicht mehr möglich. Die DTL-Elektrode (DTL für DawsonTrick-Litzkow) ist eine Fadenelektrode. Sie besteht aus einem metallbeschichteten Nylonfaden, welcher zwischen den medialen und lateralen Lidwinkel befestigt wird, sodass dieser auf den Tränenfilm über den Unterlidrand im unteren Viertel der Hornhaut zu Liegen kommt. Die Goldfolienelektrode nach Arden wird als metallische Folie bodenförmig über der mittleren Unterlidkante angebracht, sodass Kontakt zur Bindehaut besteht. Eine Verwendung von aktiven Elektroden, die auf der Haut angebracht werden, ist nicht empfohlen. Als Referenzelektrode werden Silber-Silberchloridoder Goldnapfelektroden auf der Haut temporal der äußeren Lidkante angebracht. Vor dem Aufbringen der Elektroden ist die Haut von fetthaltigem Sekret zu reinigen, da ansonsten der Hautwiderstand erhöht ist. Anschließend sollte die Hautleitfähigkeit mit Elektrodenpaste verbessert werden. Der gemessene Hautwiderstand sollte danach weniger als 5 kΏ (zwischen 10–100Hz) betragen. Zur Erdung ist eine dritte Elektrode zu verwenden. Sie wird in der Regel an der Stirn oder am Ohrläppchen angebracht und sollte eine ähnliche Impedanz aufweisen wie die Referenzelektrode. Die Signale der Elektroden werden bei der Messung laufend in einer Elektrodenbox gesammelt und vom Patienten isoliert um den Faktor 1000–10000 verstärkt. Es ist besonders darauf zu achten, dass der Eingangswiderstand am Verstärker um den Faktor 100 größer ist als der Elektrodenwiderstand (aktive und Referenzelektrode) und mindestens 10 MΏ beträgt. Die Frequenzbreite des Verstärkers sollte einen Bereich von 0,3–300 Hz umfassen und variabel einstellbar sein. Zur Darstellung wird entweder ein Oszilloskop oder ein A/D-Wandler verwendet. Heutzutage wird in der Regel das letzte Gerät nach dem Verstärker angeschlossen. Dieser sollte eine Abtastfrequenz von mindestens 1000 Hz/Kanal aufweisen, um Informationsverluste zur vermeiden. Zur Messung
von Potentialen werden standardisierte Lichtstimuli (bei einer bestimmten Hintergrundbeleuchtung) angeboten. Diese werden je nach Untersuchung (z. B. photopisches, skotopisches ERG) in Dauer, Intensität, Wellenlänge, Frequenz und Intervall variiert, um so eine Differenzierung zwischen den zellspezifischen Summenantworten zu erreichen. Für die Generierung der Lichtstimuli wird eine Ganzfeldkugel, ähnlich einer Perimetriehalbkugel, verwendet. Zur optimalen Ausleuchtung der Netzhaut sollte jede ERG-Messung in Mydriasis erfolgen. Vor der Untersuchung sind eine 20-minütige Dunkeladaptation beim skotopischen und eine 10-minütige Helladaptation beim photopischen ERG notwendig. Das Verhältnis zwischen Lichtstimulus (»standard flash« = SF) und Hintergrundbeleuchtung (Ganzfeldbeleuchtung) sollte 3 : 34 betragen. Indikation: Die häufigste Indikation für das (Ganzfeld-)ERG stellen hereditäre Netzhauterkrankungen sowie unklare Sehverschlechterungen dar. Bei einer Diskrepanz zwischen ophthalmologischem Befund und der Sehfunktion ist eine elektrophysiologische Untersuchung unverzichtbar. Auswertung: Das Elektroretinogramm besteht aus mehreren Komponenten. Sie spiegeln die komplexe Antwort verschiedenster daran beteiligter Neurone und Mechanismen wider. Das Diagramm wird unterteilt in: ▬ frühes Rezeptorpotential, ▬ a-Welle, ▬ b-Welle, ▬ oszillatorische Potentiale, ▬ c-Welle und ▬ skotopische Schwellenantwort. Das frühe Rezeptorpotential (»early receptor potential« = ERP, distale PIII-Welle) besteht aus einer korneapositiven Komponente, der korneanegative Anteile folgen. Sie dürften mit den Spannungsveränderungen während der photochemischen Prozesse zusammenhängen. Die positiven Potentiale (R1) werden vor allem von den Außensegmenten der Zapfen erzeugt. Die nachfolgenden negativen Potentiale (R2) werden durch die Außensegmente der Stäbchen und Zapfen generiert. Eine Messung ist in der Regel erschwert, da eine erhebliche Lichtintensität und spezielle Reizbedingungen erforderlich sind. Die a-Welle wird an den Photorezeptorinnensegmenten generiert. Je nach Untersuchungsbedingung (skotopisch oder photopisch) wird die Welle überwiegend stäbchengeneriert oder zapfengeneriert. Die Welle entsteht durch eine Hyperpolarisation als Folge der Phototransduktionskaskade (Natriumionenkanalverschluss) in den jeweiligen Rezeptoren. Auf der Hornhaut entsteht dadurch ein negatives Potential, welches von der aktiven Elektrode abgeleitet wird. Im ERG-Diagramm ist nur der abfallende Schenkel der korneanegativen Welle zu sehen, da der restliche Teil durch die nachfolgende b-Welle überlagert wird. Die Amplitude der a-Welle wird von der Grundlinie kurz
16
279 16.8 · Ganzfeld-ERG (Ganzfeld-Elektroretinogramm)
vor Beginn der a-Wellen-Amplitude bis zum maximalen negativen Ausschlag der a-Welle gemessen. Die Gipfelzeit ist definiert als die Zeit zwischen Beginn des Lichtstimmulus bis zum Maximum der Amplitude. Eine Bestimmung der Steigung (»slope«) der a-Welle ist bei sehr heller Intensität möglich. Damit kann eine genauere Aussage über den Phototransduktionsprozess gewonnen werden. Die b-Welle wird in den den Rezeptoren nachgeschalteten Bipolarzellen gebildet. Je nach Lichtstimulus und Hintergrundbeleuchtung können die Antworten unterschiedlicher Bipolarzellen abgeleitet werden. Man geht davon aus, dass bei der skotopischen Antwort und niedrigem Stimulus (Lichtblitzdauer < 100 ms) hauptsächlich die on-Bipolarzellen der Stäbchen dargestellt werden. Bei höherem Stimulus kommen zu der Antwort zusätzlich die on-Bipolarzellen der Zapfen dazu. Die zusätzlich von Zapfen direkt aktivierten off-Bipolarzellen werden häufig als nicht substantiell für die Antwort betrachtet. Erfolgt die Messung unter photopischen Bedingungen, ist die b-Welle als eine komplexe Antwort unterschiedlicher (on- und off-) Bipolarzellen und weiterer Neuronen zu sehen. Die b-Welle folgt der a-Welle und ist eine positive Auslenkung nach oben. Die Amplitude der b-Welle wird vom maximalen negativen Ausschlag der a-Welle bis zum maximalen positiven Ausschlag der b-Welle gemessen. Die Gipfelzeit der b-Welle ist definiert als die Zeit vom Beginn des Lichtstimulus bis zum Maximum der Amplitude der b-Welle. Dem ansteigenden Schenkel der b-Welle sind schnelle oszillierende Komponenten aufgelagert. Diese werden als oszillatorische Potentiale bezeichnet. Sie haben eine hohe Frequenz (100–160 Hz) und kleine Amplitude. Das Maximum dieser Potentiale liegt in der inneren Körnerschicht und inneren plexiformen Schicht. Es wird vermutet, dass vor allem die Aktivitäten der amakrinen Zellen und von Erregungskreisläufen (Amakrinzellen-Bipolarzellen und Amakrinzellen-Ganglienzellen) der inneren plexiformen Schicht für die Potentiale ursächlich sind. Für die Bestimmung der Amplitude der oszillatorischen Potentiale gibt es bisher keine einheitliche Definition. Die Amplituden werden abhängig vom jeweiligen Labor entweder vom vorangehenden negativen Tal zum maximalen Gipfel oder vom Gipfel der Amplitude zum nachfolgenden Tal gemessen. Es ist möglich, einen Mittelwert der Amplituden zu errechnen. Je nach Labor kann die Beurteilung unterschiedlich erfolgen. Die c-Welle ist die Summe der korneapositiven Hyperpolarisation des retinalen Pigmetepithels und der korneanegativen Hyperpolarisation der Müllerzellen in Folge der Abnahme der extrazellulären Kaliumkonzentration. Die Messung sollte unter skotopischen Bedingungen und mit Stimuli hoher Intensität (Leuchtdichte: 10 s) durchgeführt werden. Die erschwerten Ableitungsbedingungen sowie die Gefahr von Blinkartefakten haben dazu geführt, dass diese Komponente in der klinische Routine nicht untersucht wird.
Die skotopische Schwellenantwort (»scotopic threshold response«, STR) ist ein korneanegatives Potential, das im maximal dunkeladaptierten Zustand und auf schwache Lichtintensitäten abgeleitet werden kann. Sie dürfte wesentlich von Amakrinenzellen generiert sein. In der klinischen Untersuchung ist sie von untergeordneter Bedeutung. Für die Interpretation der Werte sollte jedes Labor eigene Normwerte ermitteln. Da es sich hier nicht um normalverteilte Daten handelt, setzt sich zunehmend der Vergleich mit Medianwerten, der 5%- und 95%-Perzentile durch. Als subnormal gelten Amplitudenminderungen bzw. Gipfelzeitverlängerungen oberhalb der 5%- bzw. 95%-Perzentile. Zur weiteren Beurteilung können die Amplituden und Gipfelzeiten der skotopischen b-Welle in Abhängigkeit von der Intensität grafisch aufgetragen werden. Für die Amplitude kann folgender Kurvenverlauf beschrieben werden: V/Vmax = I/(In + σ n)
(16.1)
V steht für die Amplitude, I für die Stimulusintensität und σ für die Stimulusintensität, bei der die halbmaximale Amplitude Vmax erreicht ist. N ist der Wert der Steigung und kann mit etwa 1 gleichgesetzt werden. Ein Verlust der Photorezeptoren führt bis zu einem gewissen Grad primär zu einer Verminderung der maximalen Amplitude (⊡ Abb. 16.6).
Amplitude a - Welle
a
Amplitude b - Welle
Beginn des Stimulus
Gipfelzeit b - Welle
Latzenz a - Welle Gipfelzeit a - Welle
b
Beginn des Stimulus
⊡ Abb. 16.6. a Auswertung der Komponenten des ERG (a-, b-Welle, Amplitude und ipfelzeit von a- und b-Welle). b Unterschied zwischen Latenz und Gipfelzeit der Komponenten
280
I
Kapitel 16 · Grundzüge der ophthalmologischen Messtechnik
Fallbeispiele: Zur Differentialdiagnostik werden nachfolgend typische ERG-Befunde retinaler Erkrankungen aufgezählt. Die Retinopathia pigmentosa zeigt bereits im sehr frühen Krankheitsstadium noch vor Auftreten von Fundusveränderungen verminderte Amplituden und Gipfelzeiten. Typischerweise ist (bei Stäbchendystrophie) zuerst im skotopischen ERG bei maximaler Lichtstimulusintensität eine Verminderung der Amplitude und Gipfelzeit der a-Welle zu verzeichnen. Das Gleiche kann sich auch bei der Untersuchung des Zapfensystems zeigen. Je nach Vererbungsmuster und Ausprägung, können so mit Hilfe des ERG Differenzierung des Befalls und Verlauf beurteilt werden. Bei der kongenitalen Leber-Amaurose (= LCA) erhält man typischerweise keine oder nur rudimentäre Restantworten der Rezeptoren. Häufig ist das ERG bei unauffälligen funduskopischen Untersuchungen pathologisch. Bei der Zapfendystrophie ist das stäbchengenerierte ERG primär regelrecht oder stark erhöht (Amplituden), während die Antworten des Zapfensystems subnormal oder nicht mehr nachweisbar sind. Die Zapfen-Stäbchen-Dystrophie ist gekennzeichnet durch relativ frühe progrediente Veränderungen der oszillatorischen Potentiale und des stäbchendominierten ERG. Bei Morbus Refsum zeigen sich im ERG Amplitudenreduktionen beider Rezeptorarten, eine Gipfelzeitverlängerung ist selten. Die A-Betalipoproteinämie zeigt auch bei fehlenden Fundusveränderungen meist stärker beeinträchtigte Antworten des Stäbchensystems als des Zapfensystems und nur selten Gipfelzeitverlängerungen. Mukopolysaccharidosen können mit Hilfe des ERG eingeteilt werden. Die Mukopolysaccharidose I-H (M. Pfaundler-Hurler) zeigt im ERG subnormale bis nicht mehr messbare Antworten der beiden Rezeptorarten, mit stärkerem Befall der Stäbchen. Bei der Mukopolysaccharidose I-S (Scheie) ist erst nach der 3. bis 4. Lebensdekade eine pathologische ERG-Antwort des Stäbchen- und Zapfensystems erkennbar. Die Mukopolysaccharidose II (Hunter) kann bei Vorliegen einer Pigmentepithelretinopathie ERG-Veränderungen aufweisen. Bei der Mukopolysaccharidose III-A (Sanfilippo Typ A) findet sich eine Pigmentdegeneration mit subnormalen Antworten des Stäbchen- und Zapfensystems im ERG. Andere Mukopolysaccharidosen (Typ IV A, Typ VI und VII) weisen keine ERG-Veränderungen auf. Die neuronale Zeroidlipofuszinose (Morbus Batten), eine lysosomale Speichererkrankung, zeigt im ERG bei einer Beteiligung der Netzhaut eine Amplitudenminderung der b-Welle (in der skotopischen und photopischen Untersuchung). Typischerweise treten bei der neuronalen Zeroidlipofuszinose Typ III die ophthalmologischen Befunde erst spät auf, sodass dem ERG hier eine besondere Rolle zukommt. Das Kearns-Sayre-Syndrom ist eine mitochondriale Erkrankung, die mit einer atypischen Pigmentretinopathie einhergeht. Im ERG sind die Antworten der Stäbchen- und Zapfensysteme erst im
Verlauf mild bis mittelgradig reduziert, wobei das Stäbchensystem meist stärker betroffen ist. Das ERG ist in der Differentialdiagnostik von stationären Erkrankungen der Stäbchen- und Zapfensysteme von wegweisender Bedeutung. Typischerweise zeigt die Achromatopsie von Geburt an keine oder nur subnormale Antworten des Zapfensystems, während die Antworten des Stäbchensystem im Normbereich liegen. Bei der Blauzapfenmonochromasie lassen sich ähnliche Antworten wie bei der Achromasie nachweisen, jedoch mit dem Unterschied, dass sich Flimmerlichtantworten bis 45 Hz noch nachweisen lassen können. Die Oligo-Cone-Trichromasie ist auch durch eine reduzierte Antwort des Zapfensystems bei normalen Antworten des Stäbchensystems gekennzeichnet. Die kongenitale stationäre Nachblindheit kann je nach Form unterschiedliche Befunde zeigen. Bei der Schubert-Bornschein-Erkrankung (kompletter Typ) fehlen im skotopischen ERG die rein stäbchengenerierten Antworten. Auf einen Stimulus mit maximaler Intensität wird ein negatives ERG abgeleitet, die Amplitude der a-Welle ist größer als die nachfolgende b-Welle. Des Weiteren sind keine oszillatorische Potentiale in 60–70% mehr nachweisbar. Bei der Form Schubert-Bornschein vom inkompletten Typ lassen sich im ERG Restantworten des Stäbchensystems generieren und bei maximaler Stimulusintensität ein negatives ERG. Anders als beim kompletten Typ lassen sich hier oszillatorische Potentiale ableiten, und die Antworten des Zapfensystems sind beeinträchtigt. Die 30-Hz-Flimmerlichtantwort weist eine Doppelgipfligkeit auf. Bei der kongenital stationären Nachblindheit vom Riggs-Typ lassen sich im skotopischen ERG subnormale Amplitude und Gipfelzeit der b-Welle für das Stäbchensystem ableiten. Die Amplitude der a-Welle des Stäbchensystems kann entweder reduziert oder regelrecht sein. Die Antworten der Zapfen sind aber bezüglich der Amplitude reduziert. Morbus Oguchi ist eine weitere Form der kongenital stationären Nachblindheit, die zwei Unterformen (Typ I und II) aufweist. Beim Typ I finden sich unter skotopischen Bedingungen reduzierte stäbchengenerierte Antworten, die sich bei zunehmender Dunkeladaptation nahezu normalisieren. Bei Typ II hingegen sind die Antworten des Stäbchensystems selbst nach längerer Dunkeladaptation subnormal. In beiden Unterformen kann ein negatives skotopisches ERG abgeleitet werden. Die Antworten des Zapfensystems sind aber beidseitig regelrecht. Beim Fundus albipunctatus lassen sich bei ungenügender Dunkeladaptation pathologische Befunde im ERG ableiten, die sich nach verlängerter Dunkeladaptation von Stunden bis Tagen aber temporär verbessern. Relevanz: Das Ganzfeld-ERG ist eine wichtige Untersuchung zur Differentialdiagnose retinaler Erkrankungen im klinischen Alltag. Die Untersuchung selbst sollte nie am Anfang der Diagnostik stehen, sondern am Ende zur Befunddifferenzierung oder zum Ausschluss einer retinalen Pathologie bei morphologisch unauffälligen Befund.
281 16.9 · Musterelektroretinogramm (Pattern-ERG, PERG)
16.9
Musterelektroretinogramm (Pattern-ERG, PERG)
Messobjekt: Es wird die elektroretinographische Antwort der zentralen Netzhaut auf zeitlich modulierte Musterumkehrreize konstanter Leuchtdichte gemessen. Messung: Das Messprinzip entspricht dem GanzfeldERG. Zur Ableitung eignen sich aber nur aktive Elektroden, die die Sehschärfe nicht beeinträchtigen. Nur so können die notwendigen Reizmuster für die Messung scharf auf der Netzhaut abgebildet werden. Daher sollten Goldfolien- oder DTL-Elektroden verwendet und die bestmögliche Nahaddition vorgeschaltet werden. Der Patient sollte darauf hingewiesen werden, dass er während der Untersuchung auf das Reizmuster zu schauen hat, um laterale Augenbewegungen und Artefakte zu vermeiden. Die abgeleiteten Signale werden während der Messung mindestens um den Faktor 10000 AC-gekoppelt verstärkt. Der Eingangswiderstand für den Verstärker sollte mindestens 10 MΩ betragen, und der verwendete Bandpass sollte ein Filter von 1–10 Hz besitzen. Da es sich um relativ kleine Antwortkomponenten mit einer Größe von maximal etwa 8 μV handelt, sollte die Möglichkeit der Antwortmittelung (≥ 150) und automatischen Artefaktunterdrückung gegeben sein. Letztere sollte Störantworten von mehr als 100 μV eliminieren können. Die weitere Verarbeitung erfolgt automatisch durch einen Computer, der durch Interpolieren die gesuchten Werte bestimmt. Der angebotene Stimulus sollte am besten einem Schachbrettmuster entsprechen. Die Größe des Reizmusters ist standardisiert. Ein Feld sollte etwa 0,8° und die Gesamtfläche 10°–16° betragen. Der Kontrast zwischen den hellen und dunklen Feldern sollte mindestens 80% betragen. Die Leuchtdichte für das weiße Stimulusfeld sollte mindestens 80 cd/m2 betragen, dies bei nur schwacher Hintergrundbeleuchtung. Die angebotenen Reize sollten sich mit einer Frequenz von 1–3 Hz (2–6 Umkehrreize/s) beim transienten PERG und 8Hz (16 Umkehrreize/s) beim Steady-state-PERG verändern. Der Patient sollte bei neutralen Pupillen untersucht werden. Zur besseren Fixation kann eine binokulare Untersuchung erfolgen. Zum Ausschluss einer Verfälschung der Ableitung am schlechteren Auge sollte in der zweiten Untersuchung das bessere Auge abgedeckt werden. Indikation: Das PERG ist besonders aussagekräftig bezüglich der Aktivitäten der Ganglienzellensicht. Erkrankungen des dritten Neurons, wie z. B. bei Glaukom und okulärer Hypertension, diabetischer Retinopathie, Neuritis nervi optici, hereditären Optikusatrophien, Drusenpapille und Nervus-opticus-Kompression, sind mit Hilfe der PERG diagnostizierbar. In Kombination mit dem pVEP lassen sich auch Erkrankungen der vorderen Sehbahn differentialdiagnostisch bewerten. Auswertung: Die graphische Darstellung der PERGAbleitung ergibt eine Kurve mit Spannungsänderungen
(in μV) entlang der Zeitachse (in ms). Die Kurve enthält zwei Täler und eine Spitze, die als Komponenten bezeichnet werden. Die erste Komponente (= N35) ist ein Tal, das in der Regel nach ca. 35 ms gemessen wird. Ihr folgt die Spitze oder positive Komponente (= P50), die nach ca. 50 ms bestimmt werden kann. Am Ende folgt die zweite negative Komponente (= N95). Sie kann in der Regel nach 95 ms gemessen werden. Die Komponenten werden anhand der Gipfelzeit und der Amplitudenhöhe beurteilt. Die Amplitude der N35Komponente ist die Auslenkung von der Basislinie bis zum ersten negativen Maximum (Tal) der N35-Komponente. Die Amplitude der P50-Komponente wird vom ersten maximalen negativen Ausschlag der Kurve (N35) bis zum höchsten Gipfel der Kurve gemessen. Sofern die N35-Komponente nicht bestimmt werden kann, sollte stattdessen der Durchschnitt aus dem Wert zum Zeitpunkt Null und dem Wert zu Beginn der P50-Komponente genommen werden. Die Amplitude der N95-Komponente wird entweder vom Gipfel der P50-Komponente oder von der Basislinie zum eigenen maximalen negativen Ausschlag berechnet. Die Gipfelzeiten entsprechen immer der Zeitspanne vom Stimulus bis zum jeweiligen negativen oder positiven Maximum (N35, P50 und N95) der Spannungsänderung. An der Generierung der Komponenten dürften beim Menschen neben den Ganglienzellen des Nervus opticus auch noch weitere neuronale und nichtneuronale Strukturen mit einfließen. Für die Entstehung der P50-Komponente werden z.T. Zellen der inneren Netzhautschichten, wie z. B. die amakrinen Zellen, vermutet. Vereinfacht kann angenommen werden, dass die N95-Komponente zum größten Teil durch Ganglienzellen generiert wird, während die P50-Komponente zum größten Teil anterior der Ganglienzellen entsteht. Ein kleiner Anteil der Ganglienzellen an der P50-Komponente ist aber dennoch möglich. Zur Differenzierung der Lage der Funktionsstörungen kann der Quotient aus den Amplituden N95 : P50 besonders aussagekräftig sein. Eine Kombination aus PERG mit dem Muster-VEP ist zur Differentialdiagnose besonders sinnvoll. Eine veränderte P100-Latenz im Muster-VEP kann mit Hilfe des PERG in eine Erkrankung des Sehnnerven (mit und ohne Beteiligung der Ganglienzellen) oder eine retinale Erkrankung differenziert werden. Fallbeispiele: Patienten mit Offenwinkelglaukom zeigen im PERG schon vor dem Auftreten von Gesichtfelddefekten reduzierte Amplituden. Vor allem die N95Komponente ist betroffen. Bei einer Kompression des Nervus opticus kann es bei einer absteigenden Atrophie zur Verminderung der N95-Komponente und des Quotienten N95 : P50 kommen. In seltenen Fällen kann auch die P50-Komponente vermindert sein. Ein solches subnormales PERG ist immer mit einer erheblich schlechteren Prognose für die Sehfunktion verbunden als ein unauffälliger Befund. Bei Patienten mit Diabetes mellitus
16
282
I
Kapitel 16 · Grundzüge der ophthalmologischen Messtechnik
ist eine neuronale Schädigung noch vor dem Auftreten von sichtbaren diabetischen Fundusveränderungen mit dem PERG nachweisbar. Im Vergleich zum Normkollektiv zeigen sich in diesem Fall reduzierte Amplituden, die bei fortschreitender Erkrankung zunehmen. Bei Patienten mit fortgeschrittener diabetischen Retinopathie wurden Veränderungen vor allem der P50-Komponente als prognostisch ungünstiges Zeichen gewertet. Bei Makulaerkrankungen eignet sich die PERG besonders gut zur Differentialdiagnose von Erkrankungen der Ganglienzellschicht. Typischerweise sind sowohl die P50- als auch die N95-Komponente bei einer Makuladegeneration absolut vermindert, der Quotient N95 : P50 ist aber nicht verändert. Erkrankungen des Sehnervs zeigen in 40% der Fälle eine Beeinträchtigung im PERG. In 85% der Fälle liegen eine regelrechte P50-Komponente und eine Reduktion der N95-Komponente vor. Bei der Neuritis nervi optici kann je nach Krankheitszeitpunkt ein unterschiedlich stark verändertes PERG abgeleitet werden. In der akuten Phase, meist in den ersten 2–4 Wochen, kann sich eine reversible Verminderung der Amplitude der P50-Komponente zeigen. Parallel zur Erholung der P50-Komponente kommt es zu einer Verminderung der N95-Komponente, die sich jedoch in den ersten 2–4 Wochen wieder erholt. Hereditäre Opticusatrophien zeigen im PERG typischerweise stark verminderte Amplituden der N95-Komponente und damit einhergehend eine Erniedrigung des Quotienten N95 : P50. Nur selten (in 10% der Fälle) kann eine subnormale Amplitude der P50-Komponente gemessen werden. Bei der hereditären Leber-Optikusneuropathie kann im akutem, aber auch im subklinischen Stadium vor dem Auftreten einer Sehbeeinträchtigung eine Verminderung oder Verlust der N95-Komponente nachweisbar sein. Relevanz: Das PERG stellt ein gutes und effizientes Mittel dar zur Beurteilung der Funktion der retinalen Ganglienzellen. Seine Verwendung ist angesichts seiner Möglichkeiten heute noch eher gering.
16.10
Multifokale Elektroretinographie (mfERG)
Messobjekt: Es werden die elektroretinographischen Antworten von mehreren benachbarten Netzhautarealen des zentralen Gesichtsfeldes (entsprechend eines Gebietes innerhalb der 25°-Isoptere) abgeleitet. Die Funktionen des Zapfensystems und der mit ihnen verbundenen Nervenzellen werden somit beurteilt. Messung: Die mfERG-Messung erfolgt prinzipiell analog der Ganzfeld-ERG und PERG. Die verwendeten aktiven Elektroden können Burian-Allen-Kontaktlinsenelektroden oder DTL-Elektroden sein. Ähnlich wie bei der PERG ist darauf zu achten, dass die Fixation und die Sehkraft durch die verwendete Linse nicht beeinträchtigt
werden. Wie bei der Ganzfeld-ERG und der PERG sind eine Referenzelektrode am temporalen Rand der Orbita der ipsilateralen Gesichtshälfte und eine Erdungselektrode an der Mitte der Stirn anzubringen. Das Signal sollte im Anschluss um 100000–200000 verstärkt werden und mit einem Bandpass von 10–300Hz gefiltert werden, um anschließend mit einer Abtastrate von 16/Bildfrequenz digitalisiert zu werden. Aus den ERG-Summenantworten bei verschiedenen Stimuli kann mit Hilfe eines m-transfom-Algorithmus die lokale ERG-Antwort extrahiert werden. Mit Hilfe von weiteren Berechnungsmodellen können gesonderte Informationen über innere und äußeren Netzhautanteile gewonnen werden. Die Stimulation erfolgt durch einen Computermonitor mit einer Bildfrequenz von 75Hz. Das Stimulationsfeld besteht aus dicht gepackten hexagonalen (61,103 oder 241) Feldern. Die Größe der Felder ist im Zentrum um 4,7-mal kleiner als in der Peripherie. Die Leuchtdichte jedes Hexagons wird unabhängig voneinander entsprechend einer pseudorandomisierten binären m-Sequenz moduliert, sodass innerhalb dieser Sequenz jedes Hexagon unabhängig voneinander zwischen schwarz und weiss alterniert. Die mittlere Leuchtdichte sollte 100–200cd/m2 für die hellen und < 1 cd/m2 für die dunklen Stimuluselemente betragen. Der Kontrast sollte mindestens 90% sein und die Helligkeit über der gesamten Monitorfläche sollte um weniger als 15% variieren. Die Stimulation dauert etwa 8 Minuten und besteht aus Abschnitten von jeweils 60 Sekunden. Während dieser Zeit erfolgt 214–mal ein Leuchtdichtenwechsel pro Hexagon. Die Messung sollte bei bestmöglicher Sehkraft (für die Nähe) und in Mydriasis erfolgen (⊡ Abb. 16.7). Indikation: Das mfERG eignet sich zur Beurteilung und Differenzierung von Makulaerkrankungen und stellt somit eine weitere Möglichkeit zur Differentialdiagnose bei unklarer Visusminderung und unauffälligem Netzhautbefund dar. Mit Hilfe des mfERG können pathologische Veränderungen vor dem Auftreten von morphologischen Zeichen bei folgenden Erkrankungen gefunden werden: Morbus Stargardt, okuläre Makuladystrophie, zentral areoläre Aderhautdystrophie, toxische Makulopathie bei Chloroquin. Auswertung: Die graphische Darstellung der Ableitung ist beim mfERG vielfältig. Die errechneten Kurven für jedes der Hexagone können einzeln dargestellt werden in der Trace array. Für jedes Hexagon erscheint ein einzelnes ERG mit zwei negativen Maxima (Täler) und einem positiven Maximum (Spitze). Dabei wird das erste negative Maximum als N1-Komponente, das erste positive Maximum als P1-Komponente und der zweite negative Peak als N2-Komponente bezeichnet. Die N1Amplitude wird von der Basislinie bis zum maximalen negativen Ausschlag der N1-Komponente gemessen. Die P1-Amplitude wird vom Maximum der N1-Komponente bis zum Maximum der P1-Komponente gemessen. Die Gipfelzeiten werden analog der Evaluation der Ganzfeld-
16
283 16.10 · Multifokale Elektroretinographie (mfERG)
20
200 nV 100 ms
a
c
0 deg 0
2
4
6
8
10
12
20 14
16
18
20 nV/deg2
Latenz [ms] 17,5 29,2 47,5 16,7 30,8 45,8 15,8 30,0 44,1 15,8 30,0 44,1 16,7 30,8 45,0 16,7 31,7 45,8
1 2 3
5° 10° 15° 20° 25° 4 5 6
Wert 2 [nV/deg ] -105,5 119,5 -75,3 -43,6 54,8 -26,7 -29,2 38,4 -12,8 -23,4 33,0 -9,4 -20,4 28,3 -7,8 -17,3 27,0 -7,9
RMS
b
d
0
10
20
30
40
50
60
70
80
90 100 ms
⊡ Abb. 16.7. Multifokales ERG. Normbefunde. a Fokale ERG-Antworten (»trace arrays«), ermittelt mit 103 hexagonalen Stimuli im zentralen 25°Bereich (b). c Dreidimensionale Darstellung (Skalarprodukt) der in a gezeigten Antworten. d Einteilung der fokalen ERG-Antworten in fünf um das Zentrum angeordnete Ringgruppen (b). Die Höhe der Amplitude bezieht sich auf die Fläche der jeweiligen Ringgruppen (nV/deg2)
ERG vom Stimulusbeginn bis zum jeweiligen Maximum der Kurve gemessen. Zur Erleichterung der Beurteilung erstellt der Rechner ein Skalarprodukt aus dem Punktprodukt der lokalen Antwort und einer Vorlage. Als Vorlage dienen dabei z. B. die gemittelten fokalen Antworten eines Normalkollektivs, die normalisierte gemittelte Antwort der Gesamtuntersuchung oder die eines der Hexagons entsprechenden Areals. Die errechneten Skalarprodukte (in seltenen Fällen die Amplitude P1) werden für eine zwei- (selten) oder dreidimensionale Darstellung verwendet. Dabei macht man sich die Tatsache zunutze, dass die Größe der Hexagone so gewählt wurde, dass die Ergebnisse jedes Hexagons gleich groß sind. Durch das Teilen der errechneten Skalarantwort durch die Fläche erhält man die Zapfendichte pro Hexagon (nV/deg2). Die dreidimensionale mfERG-Darstellung ergibt beim gesunden Patienten eine in der Mitte spitz zulaufende Figur, die von flach abfallenden Bereichen umgeben ist. Die graphische Darstellung ist eine Vereinfachung der Ergebnisse, die auch zur Fehlinterpretation führen kann. Bei Latenzverschiebungen kann es zu einer Ver-
minderung des Skalarprodukts kommen, das wiederum die graphische Darstellung verändern kann. Ein größeres Problem stellt sich ein, wenn keine oder sehr schlechte Ableitungen vorliegen. Die automatische Auswertung würde das gemessene Rauschen als Antwort übernehmen, durch die unterschiedliche Feldgröße teilen und so zu einer augenscheinlich regelrechten, spitz zulaufenden mfERG-Darstellung kommen. Neben der drei- oder zweidimensionalen Auswertung der Ergebnisse kann auch die Errechnung von Antwortgruppen zur Beurteilung herangezogen werden. In diesem Fall werden die Hexagone in Ringgruppen um das Fixzentrum vereinigt. Je nach Gerät werden 5–6 Ringgruppen gebildet. Die Ringgruppen werden mit 1–6 von der Mitte an nummeriert. In der Graphik werden die 6 Kurven untereinander zum Vergleich dargestellt und eine Statistik mit der Rezeptordichte, Latenz und Amplitudenhöhe pro Gruppe abgebildet. Neben der Bestimmung und graphischen Darstellung der Antwort auf Helligkeit lässt sich mit dem mfERG auch eine Ableitung errechnen für die Zeit des Wechsels zwischen Hell und Dunkel. Die unterschiedlichen Ant-
284
I
Kapitel 16 · Grundzüge der ophthalmologischen Messtechnik
worten werden eingeteilt in 1. Kern (first order kernel) für die Ableitung bei Helligkeit und 2. Kern (second order kernel) für die Ableitung bei Wechsel zwischen Hell und Dunkel. Während der 1. Kern vor allem als eine Antwort der äußeren und mittleren Netzhautschichten betrachtet wird, stellt der 2. Kern vor allem Anteile der inneren und innersten Netzhautschichten. Durch Extraktion kann eine »Optic-nerve-head-Komponente«, die eine reine Ganglienzellkomponente darstellt, erhalten werden. Fallbeispiele: Eine geschädigte Funktion der zentralen Netzhaut äußert sich je nach Krankheit unterschiedlich. Nachfolgend werden anhand einiger Beispiele die pathologischen Befunde aufgezeichnet. Beim Morbus Stargardt zeigen sich Amplitudenminderungen bereits vor Auftreten morphologische Veränderungen, während Veränderungen der Gipfelzeiten z.T. (10%) erst in fortgeschrittenen Stadien anzutreffen sind. Im Gegensatz dazu zeigen sich bei der Retinitis pigmentosa neben der Amplitudenverminderung ausgeprägte Verlängerungen der Gipfelzeiten, die zur Peripherie hin zunehmen. Auch Carrier einer Xchromosomalen Retinitis pigmentosa können im mfERG lokale Amplitudenminderungen und Gipfelzeitverlängerungen aufweisen, bei sonst asymptomatischem Befund. Die Makuladystrophie hat als Merkmal im mfERG eine signifikante Reduktion der Amplituden im Zentrum. Bei der zentral areolären Aderhautdystrophie lassen sich reduzierte Zapfendichten und geringgradig verzögerte Gipfelzeiten im sichtbaren Atrophiebereich und weniger stark reduzierte Amplitudenminderungen in den ophthalmoskopisch unauffälligen Bereichen darstellen. Toxische Makulopathien können je nach Substanz und Dosis völlig unterschiedliche mfERG liefern. Bei Chloroquin kann eine reduzierte Zapfendichte bereits im asymptomatischen Stadium beobachtet werden. Deferoxamin führt nach multiplen Injektionen zu einer Amplitudenreduktion in den zentralen Anteilen des Stimulationsfeldes. Nach Einnahme von Thallium zeigt sich im mfERG eine Amplitudenreduktion in den zentralen 10°. Bei Vigabatrin kann im mfERG eine Reduktion der Amplituden in 60% der Fälle vorliegen. Bei der trockenen altersbedingten Makuladegeneration kommt es zu einer Amplitudenreduktion von 5–10% pro Lebensdekade. Stärker betroffen sind die parafovealen Ableitungen, die bis zu 7,5% Amplitudenreduktion pro Lebensdekade aufweisen können. Eine Beeinträchtigung der Gipfelzeiten ist aber bei einer Zunahme von 1% pro Lebensdekade kaum vorhanden. Bei Vorliegen von konfluierenden Drusen konnten in den korrespondierenden Arealen in erster Linie Gipfelzeitverlängerungen um 14% (N1) und 19% (P1) neben einer geringen Amplitudenminderung beobachtet werden. Bei Patienten mit x-chromosomaler Retinoschisis wurden Amplitudenminderungen und Gipfelzeitverlängerungen im fovealen Bereich beobachtet. Ein Vergleich zwischen der Amplitudenminderung zwischen den Kernen offenbart eine stärkere Ausprägung im 2. Kern. Die vitelliforme
Makuladegeneration ist gekennzeichnet durch eine Verminderung der Zapfendichte. Allenfalls zeigt sich eine geringfügige Gipfelzeitverlängerung im mfERG. Bei der Retinopathia centralis serosa können subnormale Amplituden und verkürzte Gipfelzeiten sowohl im Bereich der Exsudation als auch am hinteren Pol und in manchen Fällen sogar am nichtbetroffenen Auge gemessen werden. Bei Patienten mit diabetischer Retinopathie kann es sowohl im 1. als auch im 2. Kern zu Auffälligkeiten kommen. Typischerweise kommt es zu einer Amplitudenreduktion und Gipfelzeitverlängerung schon in der Frühphase der Erkrankung. Bei der Analyse des 2. Kerns zeigt sich schon bei Diabetikern ohne eine klinisch sichtbare Retinopathie eine Amplitudenreduktion. Eine Hypoglykämie, z. B. bei Typ-1-Diabetikern ohne ophthalmoskopisch sichtbare Veränderungen, führt hingegen zu kürzeren Gipfelzeiten und einer Erhöhung der Amplitude (P1, N2). Liegt ein Makulaforamen vor, so zeigen sich im mfERG reduzierte Amplituden, die sich nicht nur auf den Bereich des Foramens begrenzen, sondern auch die umgebenden parafovealen Bereiche betreffen. Eine Netzhautablösung mit Makulabeteiligung zeigt in den abgehobenen Arealen eine Amplitudenreduktion und eine Gipfelzeitverlängerung. Nach erfolgreichem Wiederanlegen der Netzhaut steigen die Amplituden wieder an, aber die Gipfelzeiten bleiben unverändert zum präoperativen Befund. Das Multiple Evanescent White Dot Syndrom (MEWDS) kann zu Beginn der Erkrankung zu einer Amplitudenerhöhung führen. Im Verlauf kommt es dann in erster Linie zu einer Amplitudenminderung in den Kurven des ersten Kerns, die nach Abklingen der entzündlichen Veränderungen überwiegend eine partielle oder vollständige Restitution erfährt. Bei der multifokalen Chorioiditis zeigt sich auch eine Amplitudenminderung in der akuten Phase. Im Gegensatz zu den mfERG-Befunden beim MEWDS zeigt sich im Verlauf keine Restitution der Amplituden. Retinale Venenverschlüsse mit Makulabeteiligung gehen auch mit einer Veränderung im mfERG einher. Es können eine verminderte Zapfendichte bei Amplitudenminderung und Gipfelzeitverlängerung gemessen werden. Relevanz: Das mfERG ist heute für differentialdiagnostische Erwägungen, auch bei Makulaerkrankungen, in jeder größeren Klinik (neben der Fluoreszenzangiographie und hochauflösenden OCT) vorhanden.
16.11
Elektrookulogramm (EOG)
Messobjekt: Das Elektrookulogramm registriert ein konstant vorhandenes Potential am Auge. Ursprung des Potentials ist eine über dem retinalen Pigmentepithel liegende, transepitheliale Ladungsdifferenz. Messung: Für die Messung eignen sich Silber-/Silberchloridelektroden oder schwach polarisierbare Elektroden, wie z. B. die beim Ganzfeld-ERG gebräuchlichen Re-
285 16.12 · Adaptometrie
ferenzelektroden. Die Elektroden sollten möglichst nah an den temporalen und medialen Augenwinkeln angebracht werden. Die Haut sollte zuvor gereinigt und mit einer leitfähigen Paste behandelt sein. Die Impedanz sollte weniger als 10 kΩ betragen und bei einem Frequenzbereich zwischen 30 und 200 Hz liegen. Zur Erdung sollte eine Elektrode an der Stirn angebracht werden. Die abgeleiteten Signale sollten mit 5 K verstärkt werden, dabei eignen sich Wechselstromverstärker am besten, um Artefakte zu vermeiden. Die Stimulation erfolgt mittels einer homogen ausgeleuchteten Ganzfeldkugel (wie beim Ganzfeld-ERG). Als Fixationshilfe bei der Blickbewegung sind rote Leuchtdioden bei ungefähr 30° rechts und links vom Fixationszentrum in der Halbkugel angebracht. Eine Stimulusleuchtdichte von 50–100 cd/m2 wird empfohlen. Die Untersuchung hat in Mydriasis zu erfolgen, um eine bessere Beleuchtung der Netzhaut zu erreichen. Ist eine Mydriasis nicht möglich, dann empfiehlt es sich, eine höhere Stimulusleuchtdichte (400–600 cd/m2) zu benutzen. Während der Messung muss die Durchführung gleichmäßiger horizontaler Sakkaden mit einer Dauer von 2–5 s hervorgerufen werden. Als Faustregel gilt: Jede Minute sollten mindestens 10 Sakkaden erfolgt sein. Vor der Untersuchung sollte keine starke Beleuchtung (z. B. Ophthalmoskopie) am Auge erfolgt sein. Zu Beginn der Untersuchung ist eine 15-minütige Präadaptationsphase einzuhalten. Dieser Dunkelphase folgt die Hellphase. Mindestens 5 Minuten vor dem Beginn der Hellphase sollte der Patient anfangen, Sakkaden zu machen. Gleichzeitig sollte mit der Aufzeichnung der Signale begonnen werden. Die Untersuchung sollte erst 25 Minuten nach dem Beginn der Hellphase beendet werden. Neben dieser standardmäßigen Untersuchung mit dem Bestandpotential (»slow oscillation«), mit langsamem Wechsel zwischen Dunkel und Hell, hat sich auch ein schneller Wechsel zwischen Hell und Dunkel als »Fast-oscillation«-Untersuchung etabliert. Hierbei werden sechs Zyklen aus Hell- und Dunkelphasen von jeweils 60–80 Sekunden Länge durchlaufen. Während dieser Zeit muss der Patient, wie bei der »Slow-oscillation«-Messung, horizontale Sakkaden vollführen. Indikation: Das EOG ist eine nichtinvasive Methode, die Auskunft über die Funktion des Pigmentepthels ermöglicht. Das EOG kann deshalb wichtige differentialdiagnostische Informationen bei retinalen Erkrankungen liefern. Sie kann vor allem zum Ausschluss einer Pigmentepitheliopathie bei unklarer Sehminderung verwendet werden. Mit Hilfe des ERG kann differenziert werden zwischen einer vitelliformen Best-Makulopathie und einer adulten vitelliformen Makuladegeneraion. Bei der Chorioideremie und der Atrophia gyrata ist das EOG schon im frühen Stadium pathologisch. Auswertung: Die abgeleiteten Signale der »Slowoscillation«-Untersuchung ergeben pro Bulbusbewegung eine rechteckig schwingende Kurve. Von besonderem Interesse ist die Spannungsdifferenz zwischen dem oberen
und unteren Maximum der Welle. Nach der Dunkeladaptation sinkt die Differenz stetig bis zu einem so genannten Dunkeltal. Als Wert für das Dunkeltal ist die niedrigste Spannungsdifferenz während der Dunkelphase zu verwenden. In der Regel kann diese nach 11–12 Minuten Dunkelheit gemessen werden. Zur Bestimmung des Ruhepotentials sollte man den Mittelwert aus Messungen vor Beginn der Hellphase nehmen. Nach der Beleuchtung kommt es in den ersten 5 Minuten zu einem steilen Anstieg der Spannungsdifferenz pro Bulbusbewegung (Durchlauf). Am Ende des Anstiegs ist der Hellgipfel erreicht. Das Verhältnis vom Hellgipfel zum Dunkeltal (Arden-Quotient) ist ein wichtiger Bewertungsmaßstab für das EOG. Daneben gibt es auch den Quotienten aus Hellgipfel und Ruhepotential, welcher immer etwas kleiner als der Arden-Quotient ist. Als Latenz wird die Zeit vom Beginn der Hellphase bis zum Erreichen des Hellgipfels bezeichnet. Neben den Quotienten aus Hellgipfel und Dunkeltal können sich auch die absoluten Werte der Bestandpotentiale (μV/°Blickbewegung) ergeben. Wie bei allen elektrophysiologischen Untersuchungen ist auch beim EOG die Erstellung von eigenen Normwerten zur Differenzierung von pathologischen Befunden notwendig. Die fast-oscillation-Untersuchung ergibt eine Spannnungsdifferenz-Kurve mit abwechselnden Potentialgipfeln und -tälern. Aus den sechs Zyklen wird ein Gipfel- und Tälermittelwert gebildet. Daraus wird dann ein Quotient gebildet. Zusätzlich wird auch eine mittlere Latenz bestimmt. Als Latenzdauer bezeichnet man analog der slow oscillation Untersuchung die Zeit zwischen Dunkeltal und Hellgipfel. Mögliche Fehlmessungen können entstehen bei Kopfbewegungen. Dann kann fälschlicherweise ein erniedrigter Quotient aus Hell- und Dunkelwert entstehen. Daher ist besonders darauf zu achten, dass sich der Kopf immer in »Geradeaus-Position« befindet.
16.12
Adaptometrie
Messobjekt: Es wird die Zeit gemessen, die notwendig ist, um ein Muster zu erkennen. Das Erkennen des Musters ist abhängig von der Lichtintensität. Durch Veränderungen der Variablen können dann unterschiedliche Adaptationszeiten ermittelt werden. Indikation: Die Adaptometrie eignet sich besonders zur Diagnostik von Zapfen und Stäbchenfunktionsstörungen, wie z. B. die Zapfen-Stäbchen-Dystrophie, Retinitis Pigmetosa, Retinis-Pigmentosa-assoziierte Syndrome, kongenitale stationäre Nachtblindheit, Fundus albipunctatus, Oguchi-Krankheit, Morbus Stargardt, Achromatopsie. Auch bei entzündlichen Erkrankungen wie z. B. der posterioren Uveitis und einer Intoxikation mit Chloroquin, Ethambutol oder Eisenoxid kann mit Hilfe der Adaptometrie eine gestörte retinale Funktion nachgewiesen werden.
16
286
I
Kapitel 16 · Grundzüge der ophthalmologischen Messtechnik
Messung: Für die Messung dient wie bei der EOG- und ERG-Untersuchung eine gleichmäßig beleuchtete Halbkugel. Die Untersuchung begint im Zustand der hellsten Beleuchtung in Mydriasis und mit der besten refraktiven Korrektur. Vor und nach der Untersuchung sollte der Pupillendurchmesser dokumentiert werden. Nach fünf Minuten Adaptationszeit kann der Patient eine Mattscheibe, auf der ein Schreifenmuster abgebildet ist, erkennen. Mit Hilfe eines Tasters signaliert er dem Untersucher das Erkennen des Musters. Die Dauer bis zum Signal wird automatisch registriert. Bei den nachfolgenden Schritten wird die Testlichtintensität immer nach dem Erkennen des Musters um eine konstante Stufe (ca. 1,8 log Einheiten) reduziert. Anschließend erfolgt eine Annäherung der Testlichthelligkeit bis zur Wahrnehmungsschwelle des Probanden. Erkennt der Proband das Steifenmuster, ist die gesuchte Schwelle erreicht, und die Prozedur kann wiederholt werden. Auswertung: Die gemessenen Werte ergeben eine abfallende Kurve der noch wahrnehmbaren Lichtintensität (relative Schwellenreizstärke) entlang der Dunkeladaptationszeit. In Abhängigkeit von der verwendeten Wellenlänge (grün oder rot) ist die Kurve steiler oder flacher. Die Adaptationskurve zeigt beim Übergang vom Hellen zum Dunkeln im Normalfall einen zweiphasigen Verlauf mit einem charakteristischen Knick. Der Knick, KohlrauschKnick genannt, tritt typischerweise nach 6–7 Minuten auf und zeigt an, dass die Funktion der Zapfen ab diesen Zeitpunkt ausgereizt ist. Ab dem Kohlrausch-Knick erfolgt die Steigerung der Empfindlichkeit ausschließlich durch die Funktion der Stäbchen. Typischerweise erfolgt dieser Anstieg von 3–4 Zehnerpotenzen über 30–50 Minuten, bis am Ende die Absolutschwelle der Adaptation erreicht ist. Pathologische Kurven sind gekennzeichnet durch einen so genannten monophasischen Verlauf, da entweder der Zapfen- oder der Stäbchenanteil der Kurve fehlt. Relevanz: Die Adaptometrie stellt weiterhin ein sensibles Mittel zur Detektion und Verlaufbeobachtung von retinaler Erkrankungen dar. Größere Kliniken, aber auch Praxen bedienen sich der Untersuchung, z. B. bei Führerscheingutachten. In der Diagnostik ist die Adaptometrie der Ganzfeld-ERG teilweise unterlegen, da die Mitarbeit des Patienten erforderlich ist und eine relativ lange Untersuchungszeit beansprucht wird.
16.13
Aberrometrie (Wellenfrontanalyse)
Messobjekt: Es wird die durch Brechungsfehler höherer Ordnung verursachte Beeinträchtigung der retinalen Bildqualität gemessen. Zur Quantifizierung der Gesamtabbildung haben sich folgende Begriffe durchgesetzt: Wellenfrontvarianz und Strehl-Ratio. Die Wellenfrontvarianz quantifiziert die Veränderung der Gesamtoptik. Beim menschlichen Auge ist sie abhängig von der Pupillengröße. Berechnet wird sie direkt
aus den einzelnen Wellenfrontfehlern ( Auswertung). Aus der Wellenfrontvarianz (RMS) kann die optische Qualität anhand der Strehl-Zahl (Strehl-Ratio) berechnet werden. Sie ist eine Maßzahl für die Abbildungsqualität der Optik. Errechnet wird sie aus dem Verhältnis zwischen dem Intensitätsmaximum der erzeugten zur maximal möglichen Intensität bei aberrationsfreier Abbildung. Indikation: Die Aberrometrie ist zur Minimierung von Brechungsfehlern höherer Ordnung in der refraktiven Chirurgie empfohlen. Prinzip: Die Aberrometrie kann mit Hilfe von verschiedenen Geräten bestimmt werden, wie z. B. dem Hartmann-Shack-Sensor, dem Tscherning-Aberrometer, dem »Ray-tracing«-Aberrometer und dem »spatially resolved refractometer«. Beim Hartmann-Shack-Sensor, dem am weitesten verbreiteten Aberrometer, wird mittels einer punktförmigen Lichtquelle ein sehr scharf abgebildeter Fokuspunkt auf der Netzhaut erzeugt. Dieser wird an der Netzhautoberfläche reflektiert, sodass eine punktförmige Lichtquelle auf der Netzhaut entsteht. Diese punktförmige Lichtquelle ist der Ursprung einer sphärischen Wellenfront, die nach dem Durchtritt durch die Optik des Auges in ein Bündel aus parallelen Lichtstrahlen gebrochen wird. Mit Hilfe von Mikrolinsen wird das Bündel in mehrere kleine Brennpunkte gebrochen, die dann mit Hilfe einer CCDKamera abgebildet werden. Wenn die Optik optimal ist, befinden sich die Abbildungen der einzelnen Strahlen auf der Aufnahme gleich weit voneinander entfernt. Ist das nicht der Fall und die Abbildungen weichen voneinander ab, so kann anhand der Abweichung von der Referenzposition in x- und y-Richtung die Wellenfrontabweichung durch Ableiten bestimmt werden. Das Tscherning-Aberrometer verwendet einen Laserstrahl, der sich mit Hilfe einer Aperturmaske in viele Strahlen aufteilt. Die Teilstrahlen durchlaufen die Optik im Auge und werden auf die Netzhaut projiziert. Das so entstandene Muster auf der Netzhaut kann mit einer Ophthalmoskoplinse betrachtet werden. Wenn die Optik optimal ist, dann liegen die Punkte auf der Netzhaut in gleicher Entfernung zueinander wie vor dem Eintritt im Auge. Ist das nicht der Fall, so kann aus der Abweichung in x- und y-Richtung auf die Wellenfrontabweichung wie beim Harmann-Shack-Sensor geschlossen werden. Beim »Ray-Traycing«-Sensor wird das Auge mit einem Laserstrahl parallel zur optischen Achse untersucht. Der von der optischen Achse leicht verschobene Lichtstrahl wird von Hornhaut und Linse gebrochen und trifft zuletzt auf die Netzhaut auf. Bei einer optimalen Optik treffen alle Lichtstrahlen an der gleichen Stelle auf die Netzhaut. Weichen die Auftreffposition voneinander ab, so kann dies mit Hilfe eines »positioning sensing detector« bestimmt werden. Aus den Verschiebungen in x- und y-Richtung kann dann analog zu den vorherigen Verfahren die Wellenfront errechnet werden.
287 16.15 · Strichskiaskopie
Das »spatially resolved refractometer« (oder auch Scheiner-Aberrometer) bedient sich zweier Laserstrahlen. Ein Strahl ist fix, und der andere ist beweglich. Der fixe Lichtstrahl verläuft durch die Pupillenmitte, und der zweite Lichtstrahl ist beweglich an unterschiedlichen Positionen in der Pupille. Bei nichtoptimaler Optik treffen beide Strahlen voneinander versetzt auf der Netzhaut auf. Durch Verstellen des Eintrittswinkels und der Eintrittsposition kann der Verlauf des Strahls so verändert werden, dass eine Fusion der Strahlen auf der Netzhaut eintritt. Anhand des Winkels und der Pupillenposition kann dann die Wellenfront errechnet werden. Auswertung: Eine Strehl-Zahl von 1,0 steht für eine aberrationsfreie Brechung. In der Realität ist dies aber nur sehr schwer möglich. Deshalb gilt für die Praxis, dass eine physiologische Optik dann als aberrationsfrei angesehen wird, wenn die Strehl-Ratio größer als 0,8 ist. Die Ergebnisse werden in Abhängigkeit von der Pupillengröße gezeigt. In der Regel ist ein Pupillendurchmesser von 4 mm zu verwenden. Die Abbildung ist meist farbig kodiert, die Farbe Rot stellt eine positive Aberration (in μm) und die Farbei Blau eine negative Aberration dar. Die Farben Grün und Gelb repräsentieren die optimale Wellenfront. Zusätzlich zu den Gesamtwerten kann dann die Wellenfrontvarianz berechnet werden. Die Wellenfrontvarianz wird auch RMS-Wellenfrontfehler (root mean square-Wellenfrontfehler) bezeichnet. Er ist die Wurzel aus dem Mittelwert der Quadrate der Wellenfrontfehler. Für die Auswertung wird der Wert im Verhältnis zur verwendeten Wellenlänge gesetzt. Anschließend wird anhand des Marechal-Kriteriums die optische Qualität beurteilt. Das Marechal-Kriterium besagt, dass die optische Abbildung dann optimal ist, wenn das Verhältnis RMSWellenfrontfehler zu Wellenlänge kleiner als 1/14 ist. Ist die Pupillenweite eines Auge gerade so groß, dass das Verhältniss RMS-Wellenfrontfehler und Wellenlänge 1/14 beträgt, liegt eine kritische Pupillengröße vor (critical pupil size). Relevanz: Die Aberrometrie ist ein wichtiges Werkzeug in der refraktiven Hornhautchirurgie geworden. Da in diesem Gebiet die Ansprüche an die Sehqualität sehr hoch sind, stellt die Aberrometrie die letzte Stufe zur Beurteilung der optischen Abbildung auf der Netzhaut dar. Wellenfront gesteuerte Lasik führt im Vergleich zur normalen Lasik zu einem subjektiv besseren Sehen. Die Anzahl der Aberrationen höherer Ordnung konnte damit deutlich reduziert werden.
16.14
Ophthalmoskopische Keratometrie
Messobjekt: Unter Keratometrie versteht man die Messung der Krümmungsradien der Hornhaut in verschiedenen Meridianen. Untersuchung: Die Untersuchung erfolgt mit Hilfe von Hornhautspiegelbildchen. Gemessen werden Stärke
und Achse des zentralen Hornhautastigmatismus. Der Untersucher kann mit Hilfe eines Mikroskopes die Projektionen der Bilder auf der Hornhaut erkennen. Der Einfallwinkel der Projektionen kann manuell unter Sicht verändert werden. Bei optimalem Einfallwinkel berühren sich die beiden Hornhaut-Projektionen. Ist der Winkel zu groß, dann liegen die Bilder auseinander. Ist der Winkel zu klein, verdecken sich die Bilder teilweise. Der Einfallwinkel ist so geeicht, dass man daraus den Krümmungswinkel errechnen bzw. je nach Gerät direkt ablesen kann. Indikation: Die Keratometrie ist besonders für die Diagnose eines Keratokonus, für die Kontaktlinsenanpassung und die Berechnung einer Intraokularlinse (Biometrie) wichtig. Relevanz: Die automatische Bestimmung der Krümmungsradien der Hornhaut kann heute auch durch andere moderne Geräte erfolgen (z. B. automatischer Refraktometer, IOL-Master, Hornhaut-Topographie), daher ist die ophthalmoskopische Keratometrie nach Javal oder mit der Zeiss-Bombe selten geworden.
16.15
Strichskiaskopie
Messobjekt: Es erfolgt eine ophthalmoskopische Messung des Brechzustandes des Auges unabhängig von subjektiven Angaben des Patienten. Das Untersuchungskriterium ist die Beobachtung von Licht-Schatten-Phänomenen in der Prüflingspupille. Diese Phänomene entstehen bei Projektion eines Lichtbandes auf die Netzhaut des Patienten. Messung: Das elektrisch betriebene Handskiaskop wirft Licht in die Pupille des Untersuchten, die rot aufleuchtet (Lichtreflex). Der Arzt sitzt 50 cm vor dem Patienten mit einem vorgeschalteten Glas von +2,0 dpt, um die Entfernung auszugleichen und im Falle der Emmetropie das vom Augenhindergrund zurückfallende Licht auf dem Untersuchungsabstand zu fokussieren. Beim Drehen des Skiaskopes um dessen vertikale Längsachse beobachtet der Untersucher, wie der Lichtreflex in der Pupille wandert. Bei Hyperopie bewegt sich der Lichtreflex in derselben Richtung wie die Drehung, bei Myopie gegenläufig zur Drehrichtung des Skiaskopes. Der Untersucher kann durch Vorschalten von Probiergläsern die Refraktion des Auges verändern. Wenn die richtige Refraktion vorliegt, bewegt sich der Lichtreflex beim Drehen des Skiaskopes nicht mehr. Bei Emmetropie leuchtet die Netzhaut beim Drehen des Skiaskopes nur kurz auf, man nennt dieses Aufleuchten »Flackerpunkt«. Zur Bestimmung des Astigmatismus skiaskopiert man waagerecht und senkrecht mit der strichförmigen Lichtquelle. Alternativ kann das Strichskiaskop in Richtung der Astigmatismusachse bewegt werden und nachfolgend senkrecht dazu. Aus den gemessenen Gläserstärken kann eine Differenz errechnet werden. Sie stellt den Zylinderwert in der Richtung der Astigmatismusachse dar. Anstelle von Probiergläsern
16
288
I
Kapitel 16 · Grundzüge der ophthalmologischen Messtechnik
kann auch eine Leiste mit eingearbeiteten Gläsern unterschiedlicher Dioptrien verwendet werden. Zur schnellen Messung sind Skiaskopieleisten besonders bei Kindern gut geeignet. Die Ausschaltung der Akkommodation mittels Cycloplegie vor allem bei jungen Patienten ist wie bei allen Refraktionsbestimmungen auch hier sehr wichtig. Relevanz: Der Einsatz von Autorefraktometern (AR) zur objektiven Refraktionsbestimmung ist in den letzten 15 Jahren immer populärer geworden und hat in manchen Kliniken and Praxen die Skiaskopie fast vollständig verdrängt (außer bei Kindern bzw. fehlender Kooperation). Mit Hilfe der Skiaskopie kann der Refraktionszustand des Auges sehr rasch ermittelt werden.
16.16
Ultraschall
Messobjekt: Es können exakte eindimensionale (A-Scan) oder zweidimensionale (B-Scan) Messungen der Achsenlänge bzw. Bulbusgröße, Vorderkammertiefe oder Hornhautdicke vorgenommen werden. Bei der Messung wird ein Ultraschallsignal ausgesendet, welches an den Grenzflächen der verschiedenen Medien reflektiert wird. Zur Berechnung der Strecke in mm gilt folgende Formel: Strecke [mm] = Schallgeschwindigkeit [m/s] x Laufzeit [μs/2000]. (16.2) Die Schallgeschwindigkeit ist je nach Medium verschieden. Im Glaskörper beträgt sie 1532 m/s, im Silikonöl 984 m/s. Die mittlere Schallgeschwindigkeit im Gesamtsystem Auge beträgt beim phaken Auge 1550 m/s.
16.16.1 A-Scan-Ultraschall, Ultraschallbiometrie
Indikation: Die A-Scan-Messung wird hauptsächlich zur biometrischen Messung der Achsenlänge vor einer intraokularen Linsenimplantation durchgeführt. Weitere Indikationen sind die Dickenmessung und Beurteilung von intraokularen Tumoren (ggf. intraorbitalen Tumoren der vorderen Orbita) und die Darstellung von Netzhaut-, Aderhautamotio oder Retinoschisis. Messung: Ein 8-MHz-Schallkopf mit parallelem Schallstrahl wird über die mit Gel oder Wasser bedeckte Augenoberfläche gehalten. Zur Bedeckung des Auges mit Wasser wird ein spezieller Trichter, der über die Hornhaut gehalten wird, verwendet. Die Messung ergibt graphisch ein zweidimensionales Diagramm. Auf der x-Achse ist die Entfernung vom Schallkopf und auf der y-Achse die Intensität der Schallreflexion aufgetragen. Die Messung erfolgt zwischen zwei Echopeaks, die an der Grenzfläche zweier Medien entstehen. Für die Größenbestimmung ist deshalb die Differenz zwischen den Echopeaks zu verwenden. Exakte Messungen für die Biometrie werden mit der Wasserbenetzung und durch so genannte Teil-
streckenbiometrien erreicht. Es empfiehlt sich daher, die einzelnen Teilstrecken (Vorderkammertiefe, Linsendicke, Abstand Linse zur Netzhaut) gesondert zu bestimmen. Mögliche Fehlerquellen für die Biometrie sind Alter des Patienten und Verformungen des Bulbus. Ist der Patient jünger als 14 Jahre, so muss ein Bulbuswachstum bei der Auswahl der Linse mitbedacht werden. Staphylome, stark myope Augen können durch falsches Messen einen zu kurzen Bulbus vortäuschen. Besonders wichtig für die Biometrie ist die Kooperation des Patienten. Beim Bewegen des Auges kann es zu einer falschen Messung der Achsenlänge kommen, deshalb ist eine Messung in Vollnarkose bei mangelhafter Kooperation indiziert. Zur Bestimmung der Achsenlänge ist stets ein Mittelwert zu bilden aus 4–5 Messungen. Da in 90% der Fälle die Achsenlänge des Partnerauges annähernd gleich ist, sollte der Untersucher seine Messung stets wiederholen, wenn dies im aktuellen Fall nicht so sein sollte. Bei der Berechnung der intraokularen Linse wird die bestimmte Achsenlänge und ggf. die Vorderkammertiefe mit der Keratometrie oder Refraktion und der A-Konstanten verrechnet. Hierfür existieren zahlreiche Formeln, die sich in zwei Hauptgruppen unterteilen lassen: ▬ physikalische oder geometrisch-optische Formeln, die auf einem theoretischen Modell des Auges beruhen, ▬ empirische (Regressions-)Formeln, die statistisch aus postoperativen Daten errechnet wurden. Die A-Konstante ist abhängig von der verwendeten Linse. Sie variiert je nach Design und Material. Die empirisch bestimmten Formeln sind besonders genau bei Augen mit einer Achsenlänge von 24 mm +/– 1 mm. Das entspricht der großen Mehrheit der Bevölkerung. Bei längeren oder kürzeren Achsenlängen empfiehlt es sich, auf die theoretisch erstellten Formeln zurückzugreifen, da hier die empirischen Formeln häufig unzureichend sind. Relevanz: Die Ultraschallbiometrie wurde wegen der größeren Ungenauigkeit durch die Laserinterferenzbiometrie nahezu vollständig verdrängt. Bei optisch zu dichten Medien, wie z. B. einer maturen Cataract, bleibt die Ultraschallbiometrie jedoch weiterhin die genaueste Untersuchung zur Bestimmung der Stärke der Intraokularlinse.
16.16.2 A-Scan-Ultraschall,
Ultraschallpachymetrie Ziel: Die Vermessung bzw. die topographische Darstellung der Hornhautdicke. Die Hornhautpachymetrie kann mittels folgendem Verfahren durchgeführt werden: Messung der Hornhautdicke mittels Ultraschall (20-MHz-Sonde). Durch die Messung der Zeitdauer, die der Schall zur Durchdringung der Hornhaut benötigt, kann die Dicke errechnet werden.
289 16.18 · Orbscan
16.16.3 B-Scan-Ultraschall
Indikation: Die B-Scan-Untersuchung eignet sich zur zweidimensionalen Darstellung und Abmessung von z. B. Tumoren der Netzhaut oder des Zilliarkörpers, Papillenprominenzen oder Glaskörperveränderungen, Netzhautoder Aderhautamotiones, Retinoschisis, intravitrealer Fremdkörper. Messung: Wie bei der A-Scan-Untersuchung ist die Kontaktfläche des Schallkopfes mit Gel oder Wasser zu benetzen. Bei Vorderkammeruntersuchungen ist stets ein Wasserbad zu verwenden. Die graphische Darstellung ergibt ein Schnittbild durch das Auge bzw. die Vorderkammer. Mit Hilfe eines beweglichen Calipers kann auf dem Schnittbild der Durchmesser der Struktur in allen Richtungen bestimmt werden. Manche Geräte können nach dem Markieren die Fläche der untersuchten Struktur automatisch bestimmen. Relevanz: Wegen seiner guten Auflösung, der einfachen Handhabung, dem Fehlen von schädigenden Strahlen, den niedrigen Kosten und der guten Verfügbarkeit ist der B-Scan-Ultraschall eine wichtige Untersuchungsmethode zur Beurteilung und Verlaufskontrolle von verschiedener Veränderungen im Auge.
16.17
Hornhaut-Topographie
Messobjekt: Es wird die Krümmung der gesamten Hornhautoberfläche gemessen und dargestellt. Messung: Es gibt verschiedene Möglichkeiten, die Krümmung der Hornhaut zu messen. Hier soll ein kurzer Überblick über die PlacidoScheiben- und Astra-Max-Technik gegeben werden. Die Placido-Scheiben-Darstellung basiert auf den Verzerrungen oder ggf. Überlagerungen von projizierten Lichtringen auf der Hornhaut. Bildhaft erinnert das Muster auf der Hornhaut an eine Schießscheibe. Es gilt dabei folgende Regel: Je enger die Kreise beieinander liegen, desto steiler ist die Krümmung, und je weiter die Kreise voneinander dargestellt werden, desto flacher ist die Krümmung. Die Placido-Scheiben-Geräte können im Untersuchungsprinzip variieren. Es gibt zwei Gerätetypen, die entweder in Augennähe arbeiten (auch »small target typ« genannt) oder in einer relativen Ferne das Auge untersuchen (auch »large target typ« genannt). Beide Gerätearten haben Vorund Nachteile. Das »Small-target«-System braucht weniger Licht und kann eine größere Fläche untersuchen, ist aber störanfällig bei Bewegungen. Zudem kann je nach Gesichtsanatomie, z. B. bei tiefstehenden Augen, die Messung erschwert sein. Das »Large-target«-System besitzt gegensätzliche Eigenschaften. Es braucht mehr Beleuchtung, kann nur eine relativ kleine Hornhautoberfläche untersuchen, ist aber weniger anfällig für Bewegungsartefakte. Die Astra-Max-Technik (dreidimensionale Topographie) bedient sich anstelle der Lichtringe eines konzen-
trisch angeordneten Schachbrettmusters (»polar grid«). Das Muster wird automatisch aus drei verschiedenen Winkeln aufgenommen und verarbeitet. Anhand der drei Aufnahmen kann aus geometrischen Berechnungen die Krümmung der Hornhaut über die gesamte Hornhaut (»Limbus-zu-Limbus-Messung«) in besserer Qualität errechnet werden. Indikation: Grundsätzlich gibt es zwei Anwendungsbereiche für die Hornhaut-Topographie: Verlaufskontrollen von Keratektasien und deren Differentialdiagnose und prä- und postoperative Begutachtung der Hornhaut bei refraktiv-chirurgischen Eingriffen. Des Weiteren kann auch bei Pterygium der induzierte Astigmatismus bildhaft dargestellt und so die Indikation für eine Operation gestellt werden. Bei unklaren Visusstörungen und unklaren Ergebnissen einer sorgfältig durchgeführten Refraktion sollte eine Topographie durchgeführt werden, da so beispielsweise frühe und abortive Keratokonusformen aufgedeckt und quantifiziert werden können. Bei gutachterlichen Fragestellungen kann anhand der Topographie gezeigt werden, dass der bestkorrigierte Visus nur in einer kleinen Zone möglich ist und damit keinen Gebrauchswert hat. Auswertung: Die Ergebnisse werden typischerweise farbkodiert dargestellt. Besitzt die Hornhautoberfläche keinen Astigmatismus, so besitzt die Abbildung im Zentrum eine runde oder ovale Fläche von hellgelb bis hellblau gefärbt. Bei einem Astigmatismus ist typischerweise eine Sanduhrform zu sehen. Ist die Achse der Sanduhrfigur senkrecht, so spricht man vom Astigmatismus rectus, wenn sie waagerecht liegt, vom Astigmatismus inversus. Ein Astigmatismus obliquus bezeichnet den Zustand, bei der die Sanduhrfigur schräg liegt. Erscheint die Sanduhr verzerrt, so spricht man vom irregulären Astigmatismus. Dieser kann die Vorstufe zu einem Keratokonus (lazyeight) oder durch eine Narbe induziert sein. Weitere Topographien, die einen Keratokonus indizieren, sind eine starke exzentrische Ektasie, die rot gefärbt auf einer grünen oder dunkelblauen Fläche (im fortgeschrittenen Stadium) erscheint (⊡ Abb. 16.8, 4-Farbteil am Buchende). Relevanz: Eine Hornhaut-Topographie ist vor jedem refraktiven Eingriff unerlässlich, nach dem Eingriff dient sie als Erfolgskontrolle. Somit gehört sie zum Standardinventar einer refraktiven Einrichtung. Sie ist allerdings auch wichtig zur Diagnostik und Verlaufsbeobachtung von ektatischen Hornhauterkrankungen wie z. B. Keratokonus sowie neuer Therapieansätze (cross linking).
16.18
Orbscan
Messobjekt: Die Krümmung der Hornhautvorder- und Rückfläche und der Linsenoberfläche werden gemessen. Zusätzlich werden noch folgende Informationen gesammelt: Vorderkammertiefe, Topographie der Irisoberflä-
16
290
I
Kapitel 16 · Grundzüge der ophthalmologischen Messtechnik
che, Pupillenlokalisation und -durchmesser, Winkel κ, Weiß-zu-weiß-Abstand und Hornhautdicke. Messung: Die Messung wird mit Hilfe eines bewegten Lichtspaltes, der – wie die Spaltlampe – Schnittaufnahmen vom vorderen Augenabschnitt macht, durchgeführt. Die in Bruchteilen einer Sekunde aufgenommenen Bilder des Lichtspaltes werden automatisch ausgewertet. Aus den Daten kann dann die Vorder- und Rückfläche der Hornhaut errechnet werden. Diese Technologie liefert weitere wichtige Zusatzinformationen über den vorderen Augenabschnitt. Indikation: Besonders für refraktive Eingriffe am Auge ist der Orbscan ein ideales Mittel, denn er ermöglich neben der einfachen Hornhaut-Topographie auch die Topographie der Hornhautrückfläche und der Linsenoberfläche. Des Weiteren bestimmt man mit dem Orbscan die Hornautdicke vor einer Laserung. Auswertung: Die Auswertung erfolgt analog der Befundung bei der Hornhaut-Topographie, der Pachymetrie und der Darstellung des vorderen Augenabschnitts. Relevanz: Der Orbscan ist den anderen Verfahren zur Hornhautuntersuchung überlegen, da er mehrere Informationen (Topographie, Pachymetrie) in einer Sitzung liefern kann. Bei der Pachymetrie weichen die Werte um 23–28 μm nach oben von der Ultraschalluntersuchung ab.
16.19
Scheimpfluguntersuchung
Messobjekt: Darstellung und Messung aller sichtbaren vorderen Augenabschnittsstrukturen anhand einer computergestützten Rekonstruktion von 20–50 Aufnahmen. Messung: Die Messung geschieht automatisch, indem eine hochauflösende Kamera in Bruchteilen von Sekunden um das Auge rotiert. Die gewonnenen Aufnahmen werden anschließend zu einem dreidimensionalen Hologramm verrechnet. Indikation: Wie die Orbscan-Messung ist die Scheimpflugkamera ein gutes Mittel zur Darstellung und Messung verschiedenster Strukturen und Größenverhältnisse des vorderen Augenabschnittes.
16.20
Fluoreszeinangiographie der Netzhaut (Natriumfluoreszein)
Messobjekt: Es werden der Zeitlauf des Einstroms und die Verteilung des Farbstoffes in die Netzhaut und Aderhaut mittels einer speziellen Funduskamera dargestellt und dokumentiert. Indikation: Die Fluoreszenzangiographie gilt bis heute als der Goldstandard bildgebender Verfahren bei der Diagnostik der meisten Netzhaut und Aderhaut-Erkrankungen.
Durchführung: Für eine fluoreszenzangiographische Untersuchung werden ca. 500 mg Natriumfluoreszein (10%ige Lösung in 5 ml oder 5%ige Lösung in 10 ml) intravenös injiziert. Einfallendes blaues Anregungslicht (Exzitationsfilter: 490 nm) hebt die Elektronen des Moleküls Natriumfluoreszein auf ein höheres Energieniveau. Beim Rückfall der Elektronen auf das normale Energieniveau kommt es zur Emission von grünem Licht (530 nm). Ein gelbgrüner Sperrfilter verhindert die Aufnahme von reflektiertem blauen Licht. Das Bild wird zunächst entweder auf Film (schwarz-weiß) dargestellt oder digital dokumentiert. Natriumfluoreszein hat ein relativ niedriges Molekulargewicht (Formel: C20H12O5Na); das Molekül diffundiert frei durch die Bruch-Membran und die Poren der Choriokapillaris. Physiologische Diffusionsbarrieren sind die größeren Chorioidalgefäße, die Netzhautgefäße und das retinale Pigmentepithel. Als Folge der Injektion kann es zu lokaler Irritation (bei Extravasation des Farbstoffes), Übelkeit, Erbrechen, Synkopen, Asthmaanfälle (selten) kommen. Auch ein anaphylaktischer Schock (sehr selten) mit Todesfolge (extrem selten) wurde beschrieben. Im Angiographieraum sollte sich immer eine Notfallausrüstung befinden. Auswertung: Phasen der Fluoreszeinangiographie: Da die Fluoreszeinangiographie ein dynamisches Verfahren ist, wird der zeitliche Verlauf der Angiographie dokumentiert und in fünf Phasen unterteilt. Sie beginnt etwa 12–25 s (Arm-Retina-Zeit) nach Beginn der Injektion.
Die fünf Phasen der Fluoreszeinangiographie
▬ Präarterielle Phase (Aderhautfüllung): Die Fül-
▬ ▬
▬
▬
lung der Aderhaut tritt etwa 1 Sekunde vor der Füllung der retinalen Gefäße auf. Sie kann als homogene Hintergrundfluoreszenz in Abhängikeit vom Pigmentierungsgrad des Fundus beobachtet werden. Arterielle Phase: Sie beginnt kurz nach der Füllung der Choriokapillaris und endet mit der vollständigen Füllung der Arterien. Arteriovenöse Phase: Sie ist durch eine komplette Füllung der Arteriolen und Kapillaren gekennzeichnet und endet mit dem Beginn einer laminären Füllung der Venen. Venöse Phase: Sie endet mit der vollständigen Füllung der Venen und kann in eine frühe (Arteriolen und Venolen mit Fluoreszenz gleicher Intensität) und eine späte venöse Phase (deutlich geringere Fluoreszenz der Arteriolen) unterteilt werden. Spätphase (Rezirkulationsphase): Aufgrund der retinalen Passage (Filtration) des Farbstoffes erfolgt ein ausgeprägter Rückgang der Fluoreszenz in der Netzhaut von Gesunden.
291 16.20 · Fluoreszeinangiographie der Netzhaut (Natriumfluoreszein)
⊡ Abb. 16.9a–f. Fluoreszelnangiogramm eines Gesunden. a Infrarotbild; b Autofluoreszenz; c arterielle Phase; d frühvenöse Phase: laminarer venöser Rückstrom; e späte venöse Phase; f Spätphase
16
292
I
Kapitel 16 · Grundzüge der ophthalmologischen Messtechnik
Hypofluoreszenz: Eine Hypofluoreszenz kann entweder durch Blockade der regulären Fluoreszenz oder durch Füllungsdefekte im Sinne einer Minderperfusion verursacht werden. Hyperfluoreszenz: Eine Hyperfluoreszenz kann in Form verstärkter Hintergrundfluoreszenz durch einen Defekt des retinalen Pigmentepithels zustande kommen. Dieser Transmissionsdefekt (Fensterdefekt) entsteht durch eine fokale RPE-Atrophie oder das Fehlen des retinalen Pigmentepithels (RPE) mit resultierender Freilegung der chorioidalen Fluoreszenz. Er ist durch eine frühe Hyperfluoreszenz charakterisiert, die an Intensität zunimmt und dann ohne Änderung der Größe oder Form schwächer wird. Ferner kann eine Hyperfluoreszenz durch den Austritt von Fluoreszein aus chorioidalen Gefäßen durch Defekte der äußeren Blut-RetinaSchranke entstehen. Defekte der Netzhautgefäße oder abnorme Gefäße (wie z. B. Proliferationen) können zu einer Fluoreszeinleckage führen. Auch die Färbung der Gewebe (Staining) als das Ergebnis einer anhaltenden Farbstoffretention (z. B. bei Drusen, Narbenbildung) kann in der Spätphase des Angiogramm gesehen werden.
16.21
Fluoreszenzangiographie der Netzhaut (Indocyaningrün)
Messobjekt: Fluoreszenzangiographie. Indikation: Die Indocyaningrünangiographie bietet gegenüber der Fluoreszenzangigraphie den Vorteil der besseren Darstellbarkeit chorioidaler Gefäße, einer geringeren Blockade der Fluoreszenz durch das retinale Pigmentepithel und einer hohen Affinität zu den Chorioidalgefäßen. Indikationen sind deshalb auch von der Aderhaut ausgehende Erkrankungen, wie z. B. chorioidale Neovaskularisation (CNV) bei altersbedingter Makuladegeneration oder primär chorioidale Erkrankungen (z. B. Aderhautdurchblutungsstörungen). Durchführung: Es werden 25–50 mg, gelöst in 2–4 ml Aqua ad Injectabile, relativ schnell injiziert. Anschließend erfolgt eine Nachinjektion von 5 ml physiologischer Kochsalzlösung. Damit wird eine möglichst scharfe Farbstofffront in der Frühphase erreicht. Die Fluoreszenz von Indocyaningrün (ICG) entspricht etwa 4% der von Natriumfluoreszein, sodass sehr sensitive Aufnahmesysteme erforderlich sind. ICG ist ein wasserlöslicher Tricarbocyanin-Farbstoff. 98% des intravenös verabreichten ICG werden an Plasmatoproteinen gebunden. Es wird nicht metabolisiert, sondern ausschließlich via Leber und Gallengewebe ausgeschieden. Es gilt als relativ sicher und nebenwirkungsarm (die Todesrate infolge der Anwendung des ICG liegt bei 1 : 3333333 gegenüber 1 : 222000 für die Fluoreszenzangiographie). Die häufigste Nebenwirkungen sind
Übelkeit (2,9%), Erbrechen, »Flush«, Jucken, Exanthem, Dyspnoe und Synkopen (0,2%).
16.22
Gesichtsfeldmessung (Perimetrie)
Allgemeines: Das Gesichtsfeld beschreibt den Bereich, den man mit dem Auge wahrnehmen kann, ohne dieses zu bewegen. Es erfasst den gesamten Sehraum vom Zentrum bis zum äußersten Rand. Hierbei wird zwischen dem monokularen und binokularen Gesichtsfeld unterschieden. Außerdem ist das Gesichtsfeld abhängig von der Adaptation, der Größe und der Helligkeit eines betrachteten Objekts. Im Alter nimmt die Größe des Gesichtsfelds aufgrund normaler Alterungsprozesse ab. Für Farben ist das Gesichtsfeld kleiner als für weißes Licht. Gegenstände, die sich am Rande des Feldes befinden, können deshalb nicht farbig wahrgenommen werden. Messung: Bei allen Untersuchungen muss der Patient einen bestimmten Punkt fixieren und darf die Augen nicht bewegen. Die Untersuchung wird seitengetrennt vorgenommen (ein Auge ist abzudecken). Die automatische statische Perimetrie ist die am häufigsten angewandte Methode der Gesichtsfeldmessung. Bei der statischen Perimetrie sitzt man vor dem Perimeter, auf dem in zufälliger Reihenfolge aufblinkende Lichtpunkte angezeigt werden. Während die zu testende Person auf ein Fixierlicht in der Mitte des Schirms blickt, muss sie immer dann, wenn sie ein Licht in der Umgebung bemerkt, einen Signalknopf drücken. Wird bei einer Lichtmarke der Knopf nicht betätigt, wird zunächst die Lichtstärke erhöht. Nimmt die Person den Punkt wieder nicht wahr, registriert der Computer einen Ausfall. Eine Variante der automatischen Perimetrie ist die so genannte Blau-GelbPerimetrie. Dabei wird dem Patienten in der mit einem gelblichen Licht ausgeleuchteten Halbkugel ein blauer Lichtreiz dargeboten. Sie ist besonders empfindlich für frühe Gesichtsfeldveränderungen. Die kinetische Perimetrie (Goldmann-Perimetrie) ist die älteste Methode der Gesichtsfeldmessung. Auch bei dieser Methode sitzt die zu testende Person meist vor einem halbrunden, selten vor einem flachen Testschirm. Auf diesem werden bewegte Lichtpunkte von außen nach innen in ihr Gesichtsfeld geführt. Um die Größe des Gesichtsfeldes zu bestimmen, wird der Zeitpunkt, ab dem die Punkte wahrgenommen werden, ausgewertet. Für Führerscheingutachten ist nur diese Art von Gesichtsfelduntersuchung erlaubt. Sie wird in der Regel manuell durchgeführt. Für die Untersuchung werden in der Regel unterschiedlich helle und große Punkte verwendet. So können unterschiedlich große Wahrnehmungsgrenzen gemessen werden, die Isoptere genannt werden. Für die Darstellung des blinden Flecks muss der Untersucher diesen zuerst bei ca. 15° parazentral aufsuchen und anschließend aus dem blinden
293 16.23 · Exophthalmometrie
Fleck heraus seine Grenzen bestimmen. Eine ausführliche Routineuntersuchung am Goldmann-Perimeter sollte die Außengrenzen mit folgenden Marken in der angegebenen Reihenfolge prüfen: V/4, I/4, I/3, I/2 und I/1. Der blinde Fleck wird meist mit der Marke I/4 geprüft. Für Gutachtenfragen ist zur Bestimmung der Außengrenzen die Marke III/4 anstelle der Marke V/4 zu verwenden. Die Fingerperimetrie (Konfrontationstest, Parallelversuch, Vergleichsperimetrie) ist die einfachste, schnellste und mit wenig Aufwand durchzuführende Untersuchung des Gesichtsfeldes. Untersucher und Patient sitzen sich dabei im Abstand von etwa einem halben Meter gegenüber. Beide verdecken eines ihrer Augen mit der Hand, sodass sich die jeweils gegenüberliegenden Augen fixieren. Der Arzt bewegt nun mit der anderen Hand einen Gegenstand, z. B. einen Stift, aus allen Richtungen in das Gesichtsfeld hinein. Der Patient gibt an, ab wann er den Stift sieht, und der Arzt kann dies mit seiner eigenen Wahrnehmung und seinem normalen Gesichtsfeld vergleichen. Vor allem die Außengrenzen sowie Halbseitenausfälle des Gesichtsfeldes lassen sich mit diesem Test schnell und gut am Krankenbett bestimmen (⊡ Abb. 16.10). Indikation: Durch verschiedene Erkrankungen des Auges oder des Gehirns, wie beispielsweise Grüner Star oder Apoplex, kann das Gesichtsfeld beeinträchtigt werden. Ausfälle im Gesichtsfeld werden mit der Gesichtsfeldmessung bestimmt. Das Messergebnis wird anschließend mit einem standardisierten Normalbefund verglichen. Die Blau-Gelb-Perimetrie ist empfindlicher als die automatische Standardperimetrie. So ermöglicht dieses Verfahren die Erfassung von frühesten Gesichtsfeldschädigungen, wie sie z. B. im Anfangsstadium einer Glaukomerkrankung vorkommen. Für ältere Patienten ist die Blau-Gelb-Perimetrie häufig ungeeignet, da durch die altersbedingte Linsentrübung die Anteile des Lichtes von der Linse unterschiedlich gefiltert werden. Die BlauGelb-Perimetrie wird insbesondere bei jungen Patienten mit einer okulären Hypertension zur Frühdiagnostik eingesetzt. Auswertung: Man ermittelt anhand von Richtwerten gesunder Personen, ob das Gesichtsfeld des Untersuchten normal oder eingeschränkt ist. Für weißes Licht sind die Gesichtsfeldgrenzen z. B. für das linke Auge: nach oben 50°, nach nasal 60°, nach unten 70°, nach temporal 95°. Normalerweis ist der blinde Fleck temporal zwischen 10° und 20° zu finden. Je nach Untersuchung (kinetisch oder statisch) können die Außengrenzen variieren, denn die Wahrnehmungsschwelle für bewegte Punkte ist häufig höher als für statisch aufleuchtende. Bei einer Perimetrie sind stets beide Augen (getrennt) zu untersuchen, denn nur so kann eine zentrale (ZNS) von einer lokalen (Auge) Schädigung differenziert wer-
den. Nur in Ausnahmefällen wird das binokulare Gesichtsfeld bestimmt. Die Ergebnisse der automatischen Perimetrie können auf unterschiedliche Weise dargestellt werden: Wertetafel, Unterschiedstafel , Defekttiefe, Grauskala oder Grauton. Eine Wertetafel ist ein Punkt-für-Punkt-Ausdruck der Schwellenwerte in Dezibel. Die Unterschiedstafel ist ein Punkt-für-Punkt-Ausdruck der algebraischen Unterschiede zwischen den aktuell gemessenen Schwellen und den erwarteten oder alterskorrigierten Normalwerten. Unterschiede von 4 dB oder weniger werden in der Regel als ein Symbol gedruckt. Differenzen von 4–9 dB werden als leichte Defekte, von 10–19 dB als mäßige Defekte und von 20 dB oder größer als tiefe Defekte gekennzeichnet. Die Grauskala oder Grauton ist eine graphische Darstellung der gemessenen Schwellen. Der Gesamtbereich des verfügbaren Teststimulus ist dafür in 9–10 Intervalle unterteilt und jedem dieser Bereiche ist ein Grauton entsprechend einer Skala zugeordnet worden. Helle Grautöne sind physiologisch, dunkelgraue und schwarze Töne sind, mit Ausnahme des blinden Fleckes, pathologisch.
16.23
Exophthalmometrie
Messobjekt: Bei der Exophthalmometrie wird das Ausmaß der Protrusio bulbi gemessen. Messung: Es stehen verschiedene Geräte zur Verfügung: Exopthalmometer nach Mutch, nach Luedde und nach Hertel. Das am häufigsten verwendete ist das Exophthalmometer nach Hertel. Bei der Messung mit diesem Ophthalmoskop werden zwei bewegliche Stutzen so weit voneinander gestellt, dass sie die lateralen Orbitaränder berühren. Der Abstand zwischen den beiden Stutzen wird als Basis (bzw. Basislinie) notiert. Im nächsten Schritt muss der Untersucher die Position der kornealen Apices mit Hilfe des Umlenkspiegels an der Stutzeninnenseite ablesen. Indikation: Der Hertel-Exophthalmometer stellt eine einfache und bei korrekter Anwendung genaue Messmethode zur Diagnostik einer retrobulbären Raumforderung dar. Die Exophthalmometrie gehört zur Basisuntersuchung der endokrinen Orbitopathie. Auswertung: Für eine Verlaufsbeobachtung ist die gleiche Basis zu verwenden. Der Abstand zwischen Orbitarand und Apex corneae beträgt für Europäer in der Regel 18–24 mm. Ein Unterschied von mehr als 2 mm zwischen den beiden Augen oder mehr als 24 mm gilt als pathologisch. Eine mögliche Fehlerquelle ist eine Gesichtsasymmetrie. Relevanz: Als einfache Messung zur Quantifizierung der Augenposition bei Verdacht auf Protrusio bulbi gehört die Messung zum Standard der Ophthalmologie und sollte in keiner ophthalmologischen Klinik oder Praxis fehlen.
16
294
Kapitel 16 · Grundzüge der ophthalmologischen Messtechnik
I
⊡ Abb. 16.10. Physiologisches Gesichtsfeld des rechten Auges
295 Weiterführende Literatur
Literatur Augustin AJ (2007) Augenheilkunde. 3. Aufl. Springer, Berlin Heidelberg Tokyo Bogan SJ, Waring GO 3rd, Ibrahim O, Drews C, Curtis L (1990) Classification of normal corneal topography based on computer-assisted videokeratography. Arch Ophthalmol 108: 945–949
Weiterführende Literatur Bille J, Schlegel W (2005) Medizinische Physik 3: Medizinische Laserphysik. Springer, Berlin Heidelberg Tokyo Porter J, Queener H (2006) Adaptive Optics for Vision Science. WileyInterscience, New York Schmidt RF, Lang F, Thews G (2010) Physiologie des Menschen: Mit Pathophysiologie von Robert F. Schmidt. 31. Aufl. Springer, Berlin Heidelberg Tokyo Braun T, Röhler A, Weber F (2006) Kurzlehrbuch Physiologie. Urban und Fischer, München Swartz T, Marten L, Wang M (2007) Measuring the cornea: the latest developments in corneal topography. Curr Opin Ophthalmol 18: 325–333
16
17 Digitale Radiographie L. Heuser 17.1
Historische Entwicklung – 299
17.2
Vom analogen zum digitalen Bild – 300
17.2.1
Ortsauflösung, Graustufendynamik, DosisQuanten-Effizienz – 300 Unterschiede zwischen analogem und digitalem Bild – 300
17.2.2
17.3
Digitale Bildsysteme in der Radiologie – 303
17.3.1
Digitale Bildverstärkerradiographie und konventionelle DSA – 303 Digitale Speicherfolien (computed radiography, CR) – 305 Digitale Festkörperdetektoren (Flachbilddetektoren, Flächendetektoren) – 308
17.3.2 17.3.3
17.1
Historische Entwicklung
Seit der Entdeckung der Röntgenstrahlen dient der Film als bildgebendes Medium in der Projektionsradiographie. Digitale Bildtechniken wurden ursprünglich durch die Astronomie eingeführt. In der medizinischen Radiologie war die 1973 eingeführte Computertomographie das erste bildgebende Verfahren, das sich der digitalen Bildtechnik bediente. Ermöglicht wurde diese Entwicklung durch die Verfügbarkeit von leistungsfähigen Prozessrechnern mit geringem Raumbedarf einerseits und dem Preisverfall der Mikroelektronik andererseits. Gemessen an den heutigen Verhältnissen, waren Rechengeschwindigkeit und Rechenkapazität sehr gering; daher verfügten die ersten Anlagen auch nur über eine kleine Matrix von 64 x 64 Bildpunkten. Diese wurde dann bei den ersten Ganzkörper-Computertomographen auf 128 x 128 Bildpunkte erweitert. Im Vergleich zum konventionellen Röntgenfilm war die Ortsauflösung der Bilder deutlich geringer, der Dynamikbereich jedoch um Zehnerpotenzen höher. Mit der Einführung dieser neuen Technik ergab sich auch ein neues Problem: In der konventionellen Röntgentechnik war der Film gleichzeitig Bildempfängersystem und Medium der Langzeitspeicherung. Medien zur Langzeitspeicherung der CT-Daten mit schnellem Zugriff existierten noch nicht. Die Festplatten der Prozessrechner hatten nur eine geringe Kapazität. Daher mussten die CT-Daten auf Magnetbänder abgespeichert werden. Da jedoch Magnetbänder sich nicht für eine lange Datenspeicherung, wie von der Röntgenverordnung gefordert, eignen und zudem relativ lange Zugriffszeiten besitzen,
17.4
Digitale Bildbearbeitung – 312
17.4.1 17.4.2 17.4.3
Frequenzfilterung – 313 Multifrequenzfilterungen – 314 Zweispektrenradiographie (Energiesubtraktion) und temporale Subtraktion – 314
17.5
Bildkommunikation und Archiv – 314
17.5.1
Beispiel 1: Ambulanter Patient im Krankenhaus oder Patient in niedergelassener Praxis – 315 Beispiel 2: Stationärer Krankenhauspatient – 315
17.5.2
Literatur
– 315
mussten die CT-Bilder auf konventionellen Filmen dokumentiert werden. Das zweite digitale Verfahren war die Magnetresonanztomographie (MRT), die 1976 in die klinische Radiologie eingeführt wurde. Auch wenn das Prinzip der Datenakquisition gänzlich verschieden von dem der CT war, erfolgte die Bildrekonstruktion in ähnlicher Weise. Die Matrix der ersten Geräte war ähnlich klein wie bei der Computertomographie. Die Langzeitspeicherung der Bilddaten erfolgte ebenfalls auf Film. Die Digitalisierung des fluoroskopischen Bildes führte 1981 zur Entwicklung der Digitalen Subtraktionsangiographie (DSA). Kapazitäten und Geschwindigkeit der Computer waren inzwischen größer geworden, sodass die Bildmatrix auf 512 x 512 Bildpunkte erweitert werden konnte. Danach folgte dann auch die unsubtrahierte Variante dieser Technik: die Digitale Bildschirmradiographie mit einer Bildmatrix von 1000 x 1000 und später sogar mit 2000 x 2000 Pixeln. Die Digitalisierungstiefe beträgt hierbei 10 bit, was einer Dynamik vom 1024 Graustufen entspricht. Die Digitalisierung der Projektionsradiographie erfolgte durch die Einführung der digitalen Speicherfolien im Format der üblichen Röntgenkassetten im Jahre 1984. Entwicklungstechnisch handelte es sich um eine Weiterentwicklung der Verstärkerfolien der bis dahin verwendeten Film-Folien-Systeme. Statt die aufgenommene Energie vollständig in Form von Fluoreszenzlicht abzugeben, waren diese neuen Folien, die eine ähnliche chemische Struktur besitzen, in der Lage, die Energie über längere Zeit zu speichern und erst in einem Ausleseprozess durch einen
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _17, © Springer-Verlag Berlin Heidelberg 2011
300
II
Kapitel 17 · Digitale Radiographie
punktförmigen Laserstrahl freizugeben. Die Matrix der ersten Systeme betrug 2000 x 2000 Pixel bei 10 bit Bildtiefe. Obgleich die Ortsauflösung deutlich schlechter als die der Film-Folien-Systeme war, gab es keine Monitore mit entsprechender Auflösung. Daher mussten die Bilder auf Film ausgeprintet (belichtet) werden, um eine Bildanalyse zu ermöglichen. Der Film diente dann auch als Speichermedium. Zudem wurde relativ teure Hardware zum Processing und zur Monitor-Darstellung benötigt. Möglichkeiten der Dosiseinsparung ergaben sich ebenfalls nicht. Diese Nachteile relativierten die eindeutigen Vorteile der digitalen Bildtechnik und standen einer raschen Verbreitung zunächst im Wege. In einer späteren Weiterentwicklung wurde die Matrix auf 4000 x 4000 Pixel angehoben, was zu eine deutlichen Verbesserung der Ortauflösung beitrug. Von nun an konnten digitale Kassetten in allen Bereichen der Projektionsradiographie eingesetzt werden. Mit der Einführung der Digitalen Festkörperdetektoren (Flachbilddetektoren, Flächendetektoren) im Jahr 2000 standen erstmals volldigitalisierte Röntgenanlagen zur Verfügung. Aufgrund der besseren Dosis-Quanteneffizienz (DQE) war eine im Vergleich zum Film-FolienSystem deutliche Dosisreduzierung möglich. Weitere Vorteile waren der fehlende Transport der Kassetten und die Verfügbarkeit der Bilder in wenigen Sekunden. Die Matrix beträgt 3000 x 3000 Pixel. Heute hat die digitale Bildtechnik in vielen radiologischen Instituten und Abteilungen Einzug gehalten und dazu geführt, dass »filmlos« gearbeitet wird. Die technische Weiterentwicklung sowie der Preisverfall der Computer-Hardware und der Speichermedien haben dazu geführt, dass eine rein digitale Arbeitsweise keine finanziellen Nachteile mehr besitzt.
17.2
Vom analogen zum digitalen Bild
Beim analogen Bild dienten entweder ein Fluoreszenzschirm oder ein Film als Bildempfänger. Das erzeugte Bildsignal war direkt proportional zur eingestrahlten Dosis. Innerhalb der ersten 100 Jahre nach Entdeckung der Röntgenstrahlen wurden diese Systeme optimiert, was zu einer deutlichen Verringerung der Strahlendosis führte. Für das Fluoreszenzbild wurde der Röntgenbildverstärker, für den Film die Verstärkerfolien entwickelt.
⊡ Abb. 17.1. Schwärzungskurve des Films (0 = Grauschleier; I = Durchhang; II = gerader Teil; III = Schulter; IV = Solarisation)
Bildempfängersystem. Empfindlichkeit und Ortsauflösung waren reziprok von der Korngröße der Folien abhängig, d. h., je größer das Korn, desto größer war die Empfindlichkeit und desto schlechter die Ortsauflösung. Der Röntgenfilm selbst besitzt ca. 220000 Silberbromidkörnchen pro cm2, die als Bildpunkte fungieren. Ein besonderes Merkmal ist die Schwärzungskurve des Films (⊡ Abb. 17.1). Wie auf der Abbildung zu erkennen ist, besteht nur im Abschnitt II (gerader Teil) eine Proportionalität zwischen eingestrahlter Dosis und Schwärzung. Die Zahl der abzubildenden Graustufen ist abhängig von der Gradation, d. h. von der Steigung des graden Teils. In der Regel besitzt der Film 40 Graustufen. Spezielle »Low-Grade«-Filme können dagegen bis zu 80 Graustufen abbilden. Demgegenüber besteht das digitale Bild aus einer fest vorgegebenen Zahl von Bildpunkten. Die Bildpunkte – ursprünglich »picture element cells« – werden als Pixel bezeichnet (⊡ Abb. 17.2). Die Gesamtzahl der Pixel ist die Bildmatrix. Die Matrixgrößen reichen je nach Methode von 512 x 512 (= 262144) bis zu 4000 x 4000 (= 16000000) Pixeln (⊡ Abb. 17.3). Die Graustufen der Pixel liegen als binär kodierte Zahlenwerte vor (⊡ Abb. 17.1). Der Dynamikbereich oder die Bildtiefe beträgt 10 bit (210 = 1024) oder 12 bit (212 = 4096). Da ein Monitor in der Regel nur 64 Graustufen (= 6 bit) darstellen, das menschliche Auge sogar nur 16 Graustaufen (= 4 bit) auflösen kann, sind spezielle Fensterschaltungen notwendig, um alle Anteile des Dynamikbereiches sichtbar zu machen (30).
17.2.1 Ortsauflösung, Graustufendynamik,
Dosis-Quanten-Effizienz 17.2.2 Unterschiede zwischen analogem
Zu den wichtigsten Kenngrößen eines Bildempfängersystems gehören die Dosis-Quanten-Effizienz (DQE), die Ortsauflösung und die Graustufendynamik. Lange Zeit galt die Film-Folien-Kombination mit auf die Basisfarbe des Films abgestimmter Lichtemission als das dosiseffektivste
und digitalem Bild Organisation In der konventionellen Film-Folien-Technik (FFT) ist der Film Bilddetektor, Bilddarstellungs- und Archivme-
17
301 17.2 · Vom analogen zum digitalen Bild
16 Pixel-Matrix
64 Pixel-Matrix
⊡ Abb. 17.4. Einfluss der Bildmatrix auf das Rauschen. Rechts: 16Pixel-Matrix. Links: Vergrößerung der Bildmatrix auf 64 Pixel. Die Zahl der Bildpunkte ohne Information steigt von 6 auf 50 an
a
Grauwert Speicherfolie Film b
⊡ Abb. 17.2a,b. a Rasterelektronenmikroskopische Aufnahme einer Filmemulsion mit Darstellung der Silberbromidkörnchen. b Digitalisierung eines analogen Bildes. Matrixgröße und Bildtiefe sind willkürlich festgelegt
CT H R -C T DS A Digitale Bildschirmradiographie Flächendetektor Digitale Lumineszenzradiographie
512 x 512 1024 x 1024 1024 x 1024 2000 x 2000 3000 x 3000 4000 x 4000
⊡ Abb. 17.3. Beispiele für Matrixgrößen der verschiedenen bildgebenden Verfahren in der Radiologie
dium. In der digitalen Bildtechnik werden diese drei Hauptfunktionen entkoppelt. Als Detektorsysteme fungieren Röntgenbildverstärker, digitale Speicherfolien und Flächendetektoren. Diese erzeugen zunächst analoge elektrische Signale, die mittels Analog-Digital-Converter (ADC) in digitale Daten umgewandelt werden. Die Bilddaten werden in Rechnern zum Bild zusammengesetzt und durch spezielle Rechenoperationen für die Analyse durch das menschliche Auge aufbereitet. Als Archiv dient ein digitales Speichermedium (Festplattenlaufwerk, DVD etc.), das redundant organisiert ist, sodass bei Ausfall ein Zugriff auf die Daten weiter möglich ist.
Kenndaten des digitalen Bildes Während die Bildtiefe beim digitalen Bild um ein Vielfaches besser ist, ergibt sich bei der Ortsauflösung, die von der Gesamtzahl der Bildpunkte abhängig ist, ein umgekehrtes Verhältnis. So besitzt eine digitale Spei-
Dosis ⊡ Abb. 17.5. Signalverhalten beim Film und bei der digitalen Speicherfolie
cherfolie vom Format 30 x 40 cm die schon erwähnten 16000000 Bildpunkte. Ein entsprechend großer Film kommt dagegen auf 264000000 Silberbromidkörnchen, die als einzelne Informationsträger fungieren. Die Gesamtauflösung ist jedoch ein Produkt aus Ortsauflösung und Graustufendynamik, sodass bei einer 4-K-Matrix (= 4000 × 4000 Bildpunkte) keine diagnoserelevanten Details verloren gehen. Bei der Vergrößerung der Bildmatrix sind mehrere Probleme zu lösen: Zunächst entsteht ein höherer Bedarf an Rechen- und Speicherkapazität. Ein weiteres, nicht zu unterschätzendes Problem besteht in der Zunahme des Bildrauschens. ⊡ Abb. 17.4 verdeutlicht die Zunahme des Bildrauschens mit der Vergrößerung der Matrix, wenn alle übrigen Parameter gleich bleiben. Dieser Nachteil kann aber durch Erhöhung der Strahlendosis, der Quanteneffizienz des Bildempfängermediums oder spezieller Auslesetechniken ausgeglichen werden. Deutliche Vorteile ergeben sich beim digitalen Bild in der Belichtung: Da über mehrere Zehnerpotenzen eine Linearität zwischen Dosis und Signal besteht, bleiben Helligkeit und Kontrast unverändert (⊡ Abb. 17.5). Man nennt dies Signalnormierung. Dies bedeutet, dass es keine Fehlbelichtungen gibt und dass man unter bestimmten Bedingungen die Dosis im Vergleich zum Film-Folien-System reduzieren kann (⊡ Abb. 17.6). Bei
302
Kapitel 17 · Digitale Radiographie
70 kV 0.5 mAs A L 2.4 S 1452
70 kV 2.3 mAs B L 2.6 S 129
II
⊡ Abb. 17.6. Darstellung eines Schädelpräparates mit vier verschiedenen Expositionsdosen. Bild (D) wurde mit einer 500fach höheren Strahlendosis als Bild (A) exponiert. Bildhelligkeit und -kontrast bleiben bei unterschiedlichen Expositionsdosen über mehrere Zehnerpotenzen konstant. Eine unverhältnismäßig hohe Dosis (D) ist am Bildeindruck nicht mehr erkennbar
318 S: S: 318
48 kV 16 mAs
70 kV 22 mAs C L 2.3 S 17
S:S: 1005 1005
48 kV 8 mAs
⊡ Abb. 17.7. Signalnormierung in der digitalen Radiographie. Aufnahmen eines Femurpräparates. Bei der linken Aufnahme wurde bei gleicher Strahlenqualität die Dosis halbiert. Bei gleicher Helligkeit beobachtet man eine Zunahme des Bildrauschens und eine Abnahme der Detailerkennbarkeit
einer zu starken Reduktion der Dosis nimmt jedoch das Bildrauschen derart zu, dass Detailerkennbarkeit verloren geht (⊡ Abb. 17.7). Ein Nachteil der digitalen Technik besteht darin, dass Dosisüberschreitungen durch die Prozesskette völlig kompensiert werden und daher aus dem Bildeindruck nicht mehr erkennbar sind.
Bildreproduktion, Bildbearbeitung, Bildnachverarbeitung Die Tatsache, dass ein digitales Bild als binär kodierter Datensatz vorliegt, eröffnet viele Vorteile: Reproduktion und Vervielfältigung sind ohne Verluste möglich. Bildbe-
70 kV 220 mAs D L 2.1 S2
arbeitung bedeutet, dass alle Bildanteile durch Veränderung von Kontrast und Helligkeit optimal für das Auge des Betrachters eingestellt werden können. Dies ist besonders wichtig bei großen Kontrastunterschieden. Bildnachverarbeitung bedeutet, dass der Datensatz speziellen Rechenprozeduren unterworfen wird (z. B. Subtraktion, Integration, Tiefpassfilter etc.). Hierdurch entsteht häufig ein völlig neuer Bildeindruck. Ein Hauptanwendungsbereich ist die Digitale Subtraktionsangiographie (DSA). Die bereits auf Filmbasis in den 30er Jahren des vorigen Jahrhunderts entwickelte Subtraktionstechnik (»Maskentechnik«) hat durch die Digitalisierung der Bilder eine Renaissance erfahren. Wenngleich sich die nachfolgend beschriebenen digitalen Bildsysteme in vieler Hinsicht unterscheiden, ergeben sich zusammengefasst gemeinsame fundamentale Unterschiede zur Film-Folien-Technik (46): ▬ Entkopplung von Bildakquisition, -präsentation und -archivierung: Dies bedingt zwangsläufig weitere Investitionen (Betrachtungs- und Befundungs-Workstations, PACS). ▬ Großer Dynamikumfang (> 100fach): Daher führen auch größere Dosisunterschiede nicht zu einer Überoder Untersteuerung des Bildsignals. ▬ Bildhelligkeit und -kontrast sind dosisunabhängig zu modifizieren und zu optimieren. ▬ Gefahr eines unbemerkten Dosisanstiegs, da bei der Signalnormierung eine Dosiskontrolle wie beim Film anhand der »Schwärzung« wegfällt. ▬ Die Bildqualität und diagnostische Aussagekraft sind außer vom Detektor auch von der Qualität des Wiedergabesystems (Monitor, Hardcopy etc.) abhängig.
303 17.3 · Digitale Bildsysteme in der Radiologie
17.3
Digitale Bildsysteme in der Radiologie
In ⊡ Abb. 17.8 sind die verschiedenen Detektorsysteme vergleichend gegenübergestellt. Sie werden nachfolgend im Detail besprochen.
17.3.1 Digitale Bildverstärkerradiographie
und konventionelle DSA In der Digitalen Bildverstärkerradiographie und der DSA entsteht das Bild zunächst analog auf einem Fluoreszenzschirm (Eingangsbild) und erfährt im konventionellen Bildverstärker eine Verkleinerung und Intensivierung. Es erscheint um den Faktor 300 heller, kleiner und um 180° gedreht auf dem Ausgangsbildschirm. Die Umwandlung in ein analoges Videosignal erfolgt nun entweder über eine Bildröhre (z. B. Vidicon etc.) oder einen CCD(»charged coupled device«)-Chip. Es handelt sich somit um eine komplette Röntgenbildverstärker-Fernsehkette. Danach wird das Signal in einem Analog-DigitalWandler (Digitizer) digitalisiert. Die jetzt digitalen Daten können in einem Rechner entsprechend verarbeitet werden (⊡ Abb. 17.9). Zur Darstellung auf einem Monitor war lange Zeit eine erneute Umwandlung (von digital nach analog) erforderlich. Diese ist heute bei Verwendung neuerer digitaler Displays nicht mehr erforderlich. Die Matrixgrößen liegen bei 1000 x 1000 (1K) für Bildserien und 2000 x 2000 (2K) für Einzelbilder. Gegenüber der konventionellen Film-Folien-Technik ergeben sich Vorteile durch spezielle Bildbearbeitung, z. B. Kontrast- und Helligkeitsregelung, Harmonisierung,
d. h. Kontrastausgleich und Pixelvergrößerung. Die Ortsauflösung liegt dagegen deutlich unter der des FilmFolien-Systems. Diese wird zum einen durch die Leistungsfähigkeit des Bildverstärkers, zum anderen durch die Matrixgröße begrenzt. Bei der konventionellen Digitalen Subtraktionsangiographie (DSA) entsteht das Bild ebenfalls in einer Röntgenbildverstärker-Fernsehkette. Nach der Digitalisierung erfolgt die Bildverarbeitung in der so genannten Maskentechnik: Zu Beginn der angiographischen Serien werden Bilder ohne intravasalen Kontrast aufgenommen, die als Masken bezeichnet werden. Diese können einzeln oder als Summe von den nachfolgenden Bildern mit intravasalem Kontrast subtrahiert werden. Hierdurch werden alle Strukturen, die sowohl in der Maske als auch im Füllungsbild vorhanden sind, entfernt, und es resultiert ein reines Gefäßbild (⊡ Abb. 17.10). Das resultierende Differenzsignal wird dann nochmals elektronisch verstärkt, was in einer Kontrastanhebung resultiert. Da es sich hierbei um binäre Datensätze handelt, erfolgt der gesamte Vorgang in Echtzeit, sodass der Fluss des Kontrastblutes im Gefäß auf dem Monitor beobachtet werden kann. Die Vorteile dieser Technik sind: ▬ Geringe intravasale Kontrastmittelmengen im Vergleich zur Blattfilm-Angiographie: Dies hat insbesondere in der Diagnostik der Hirnarterien zu einer deutlich höheren Sicherheit und geringeren Risiko geführt. War man bei der konventionellen Blattfilmtechnik noch auf maschinelle Injektion größerer Kontrastmittelmengen mit entsprechender Flussrate angewiesen, genügt heute eine Injektion per Hand von 3– 5 ml.
⊡ Abb. 17.8. Die verschiedenen Detektorsysteme und ihre Funktionsweise im Vergleich. (Aus: Schaefer-Prokop et al. 2003)
17
304
Kapitel 17 · Digitale Radiographie
II
⊡ Abb. 17.9. Schematische Darstellung der Digitalen Bildverstärkerradiographie. Die Bildaufnahme erfolgt analog in einer Röntgenbildverstärker-Fernsehkette und wird dann in einem Analog-Digital-Converter (ADC) digitalisiert. Die Bildverarbeitung erfolgt in einem Rechner. Von hier aus können dann Übertragung und Speicherung erfolgen. Zur Darstellung auf analogen Medien ist wieder eine Umwandlung in ein analoges Signal (DAC) erforderlich. (Aus: Schaefer-Prokop et al. 2003)
⊡ Abb. 17.10. Schematische Darstellung der Maskentechnik (obere Reihe) und Originalbilder (A. carotis interna) in der Digitalen Subtraktionsangiographie (DSA)
305 17.3 · Digitale Bildsysteme in der Radiologie
▬ Nutzung auch von negativen Kontrastmitteln, z. B. CO2 zur Gefäßdarstellung (⊡ Abb. 17.11): Hiervon profitieren alle Patienten mit Kontraindikationen gegen jodhaltige Kontrastmittel (z. B. Niereninsuffizienz, Hyperthyreose etc.).
a
Nachteilig sind Bewegungsartefakte durch willkürliche oder unwillkürliche Bewegungen (Herzpulsationen, Darmperistaltik etc.). Hierdurch kommt es zu Verschiebungen der subtraktionspflichtigen Bildstrukturen zwischen Maske und Füllungsbild, wodurch eine Beurteilung der Gefäße unmöglich werden kann. Es gibt zwei Möglichkeiten, diese Bewegungsartefakte zu korrigieren: Remasking und Pixelshift. Beim Remasking wählt man eine Maske, die möglichst nahe am Füllungsbild liegt. Hierdurch wird das Zeitintervall zwischen Maske und Füllungsbild und damit auch der Zeitraum für Bewegungen verkürzt. Bewegungsartefakte lassen sich so deutlich reduzieren. Bei Bewegungen während oder nach der Kontrastmittelinjektion ist eine Korrektur auf diesem Wege nicht möglich. Beim Pixelshifting lassen sich Maske und Füllungsbild gegeneinander verschieben, bis die anatomischen Strukturen wieder deckungsgleich sind. Auch dies führt zu einer deutlichen Verbesserung der Bildqualität.
17.3.2 Digitale Speicherfolien
(computed radiography, CR)
b ⊡ Abb. 17.11a,b. Digitale Subtraktionsangiographie mit CO2 bei einem Patienten mit Zustand nach Nierentransplantation. a: Unsubtrahiertes Bild nach Injektion von 50 ml CO2. b: Subtraktionsbild. Die Qualität der Gefäßdarstellung ist der mit positivem Röntgenkontrastmittel vergleichbar. Diese Technik eignet sich für Patienten mit Kontraindikationen für jodhaltige Kontrastmittel
▬ Überlagerungsfreie Gefäßdarstellung: Auch hiervon profitiert die Hirngefäßdarstellung am meisten, da bei Überlagerung von Hirngefäßen mit Knochen eine Beurteilung ohne Subtraktion schwierig bis unmöglich sein kann.
Speicherfolien sind ähnlich wie Verstärkerfolien aufgebaut. Auf einer Polyesterunterlage ist das Speichermedium (z. B. BaF) pulverförmig aufgetragen. Sie geben jedoch die aufgenommene Energie nur zu einem geringen Teil als sichtbares Licht ab und besitzen die Fähigkeit, die Bilder über lange Zeit zu speichern. Dies wird dadurch erreicht, dass der Leuchtstoff dotiert, d. h. durch ein anderes Element (Europium) verunreinigt ist. Hierdurch wird die Kristallgitterstruktur gestört, und es entstehen so genannte Elektronenfallen. Die durch Exposition mit Röntgenquanten angeregten Elektronen fallen nicht wieder unter Aussendung von Fluorenszenzlicht in ihren Grundzustand zurück, sondern bleiben in diesen Fallen auf einem höheren metastabilen Energieniveau haften (⊡ Abb. 17.12). Dieser Zustand dauert einige Stunden an. In der Ausleseeinheit wird die Folie aus der Kassette herausgenommen und von einem feinen Laserstrahl punktförmig abgetastet. Hierbei kehren die Elektronen unter Aussendung von Fluoreszenzlicht in ihre stabile Ausgangssituation zurück. Das emittierte Licht wird von Photodetektoren gemessen, in elektrische Signale umgewandelt und digitalisiert (⊡ Abb. 17.13). Nach dem Auslesevorgang wird die Folie mit hellem, sichtbarem Licht wieder gelöscht und in die Kassette geladen. Sie steht dann für die nächste Exposition wieder bereit. Ähnlich wie bei den konventionellen Verstärkerfolien ergibt sich
17
306
Kapitel 17 · Digitale Radiographie
II
⊡ Abb. 17.12. Schematische Darstellung des Energieverlaufs bei Exposition und Auslesevorgang einer digitalen Lumineszenzfolie
Photodetektor
Schutzschicht Laserstrahl
Photomultiplier Spiegel
Empfindliche Schicht
Trägerschicht Speicherfolie
Licht Speicherfolie
Lichtundurchlässige Schicht
⊡ Abb. 17.13. Schematische Darstellung des »Read-out«-Prozesses einer digitalen Speicherfolie. Das punktförmige Abtasten des Laserstrahls setzt die »gefangenen« Elektronen frei, und das dadurch emittierte Licht wird direkt oder über einen Spiegel dem Photomultipier zugeleitet. Im Photodetektor erfolgt dann die Umwandlung in ein elektrisches Signal
das Problem der reziproken Verknüpfung zwischen Empfindlichkeit und Bildschärfe: Das bedeutet: Eine dickere Konversionsschicht besitzt ein höhere Empfindlichkeit; durch die größere Lichtstreuung resultiert aber eine geringer Bildschärfe. Die Lichtstreuung der Leuchtschicht sollte daher möglichst gering gehalten werden, was zum einen durch Anfärben der Leuchtschicht, zum anderen durch spezielle Bindemittel (z. B. Kunstharzlacke) erzielt wird. Im Computer entsteht zunächst ein Rohbild, das durch spezielle Programme weiterverarbeitet wird. Je nach Art des Processings entsteht ein dem konventionellen Film angeglichener Bildeindruck oder auch eine mehr kantenbetonte Version. Ebenso lassen sich steilere oder flachere Gradationen durch spezielle Look Up Tables (LUT) erzeugen. Während die ersten Systeme mit einer 2-K-Matrix begannen, sind heute Matrixgrößen
von 4K üblich. Die Verwendung erfolgt sowohl in Röntgenkassetten als auch an feststehenden Arbeitsplätzen (z. B. Thoraxarbeitsplatz für Aufnahmen am stehenden Patienten). Die Detektoreingangsdosis beträgt 2,5 μGy, ist also mit einem Film-Folien-System der Empfindlichkeitsklasse 400 vergleichbar (46). Vorteile dieser Technik sind: ▬ Die Verwendung von normalen Kassettenformaten: Hierdurch ist ein direkter Austausch der Filmkassetten gegen die Digitalkassetten möglich, ohne dass die Röntgenanlage erneuert oder umgebaut werden muss. ▬ Infolge der Signalnormierung resultiert immer eine korrekte »Belichtung«, d. h., Helligkeit und Kontrast bleiben auch bei größeren Dosissprüngen unverändert. Eine direkte Einsparung von Dosis ist jedoch von wenigen Ausnahmen abgesehen bei diesen Systemen nicht möglich. Eine Weiterentwicklung dieser Technik bestand im dual scanning (⊡ Abb. 17.14 und ⊡ Abb. 17.15). Durch Verwendung eines lichtdurchlässigen Trägermaterials ist der Auslesevorgang mittels eines zusätzlichen Photodetektors von beiden Seiten möglich, was zu einem besseren Signal-zu-Rausch-Verhältnis und einem Anstieg der DQE um 40% führt (28, 29, 32).
Speicherfolien mit Nadelkristalldetektoren (needle image plates, NIP) Eine weitere Entwicklung der Speicherfolientechnologie verwendet anstelle eines pulverförmigen Lumineszenzmaterials Nadelkristalle aus CsBr (⊡ Abb. 17.16 und ⊡ Abb. 17.17). Hierbei wird das Lumineszenzlicht innerhalb der Kristallnadeln geleitet und so die laterale Lichtdiffusion verringert. Die Detektorschicht ist entspre-
307 17.3 · Digitale Bildsysteme in der Radiologie
Schutzschicht
Photodetektor
Laserstrahl
Empfindliche Schicht
Photomultiplier
Spiegel
Transparente Trägerschicht
Speicherfolie
Licht Speicherfolie Photomultiplier
Photodetektor ⊡ Abb. 17.14. Schematische Darstellung des »Read-out«-Prozesses in der Technik des »dual scanning«. Anders als beim einfachen Auslesevorgang besitzen die Lumineszenzfolien hier eine transparente Trägerschicht, sodass der Auslesevorgang durch Photomultipier auf beiden Seiten erfolgen kann
a
b
⊡ Abb. 17.15. Ausleseeinheit FCR PROFECT CS der Firma Fujifilm®. Das System arbeitet mit vier Einschüben für unterschiedliche Kassettenformate (Quelle: Fujifilm®)
⊡ Abb. 17.16. Rasterelektronische Aufnahmen der Konversionsschichten einer herkömmlichen Folie mit pulverförmigem Lumineszenzmaterial (a) und einer Nadelkristallfolie (b). Die Nadelkristalle wirken ähnlich wie Lichtleiter und reduzieren die Lichtstreuung. Sie besitzen eine bessere DQE
17
308
II
Kapitel 17 · Digitale Radiographie
chend dicker aufgebaut und erhöht dadurch die Dosiseffizienz bei gleich bleibender Ortsauflösung. Auch beim Auslesevorgang ergeben sich Vorteile durch das tiefere Eindringen des Laserauslesestrahls in die Lumineszenzschicht, was letztlich das Bildrauschen verringert (12). Da Konfiguration und Anordnung der Kristalle denen der Flachbilddetektoren sehr ähnlich sind, resultiert eine Verbesserung der DQE. Es ergibt sich eine Dosiseinsparung von bis zu 50% gegenüber den herkömmlichen Folien (12, 23).
17.3.3 Digitale Festkörperdetektoren (Flach-
bilddetektoren, Flächendetektoren) Festkörperdetektoren sind feste Bestandteile einer Röntgeneinrichtung. Dies bedeutet, dass der Detektor online entweder über Kabel oder drahtlos (WLAN, Bluetooth etc.) mit dem Bildrechner verbunden ist. Während die Kassetten mit den digitalen Speicherfolien ähnlich wie bei der Film-Folien-Technik nach der Exposition aus der Kassettenlade herausgenommen und zum Lesegerät (»Reader«) transportiert werden müssen, steht bei der Direktradiographie mit Festkörperdetektoren das Bild in wenigen Sekunden zur Verfügung. Es wurden zwei Typen von Flachbilddetektoren entwickelt: solche mit direkter und solche mit indirekter Energiekonversion. Bei direkter Energiekonversion werden die Röntgenquanten direkt in ein elektrisches Signal umgewandelt, während bei indirekter Energiekonversion zunächst Fluoreszenzlicht entsteht, das dann über Photodioden in elektrische Signale umgewandelt wird. Beiden Verfahren ist dann wieder eine aktive Matrix aus Kondensatoren und DünnfilmTransistoren (TFTs) gemein, die aus amorphem Silizium besteht und als Schalter für die Ortskodierung fungiert (⊡ Abb. 17.18).
Detektoren mit indirekter Energiekonversion
⊡ Abb. 17.17. Ausleseeinheit DX-G der Firma Agfa® für Nadelkristallfolien und herkömmliche Lumineszenzfolien
Die einfallenden Röntgenquanten erzeugen in einem Szintillator aus Cäsiumjodid oder Gadolinium Oxysulfid sichtbares Licht, das unter dem Szintillator in einer Matrix aus Photodioden aus amorphem Silizium in elektrische Signale umgewandelt wird. Ein Problem bei diesem Verfahren stellt die Lichtstreuung im Szintillator dar, die zur Signalaufspreizung führt und dadurch die Ortsauflösung negativ beeinflusst. Dieses Problem lässt sich
Aktive Matrix
Trixell Detektor (Siemens / Philips) - Kenndaten Detektortyp 143 μm
Aktives Format [cm] Pixels Pixelgröße [μm] (MÜF)
⊡ Abb. 17.18. Darstellung der aktiven Matrix und der Kerndaten eines Detektors mit indirekter Konversion
Graustufen Empfindlichkeit
Indirekt amorphes Silizium 43 x 43 9 Mio 143 (3.5 lp/mm) 16384 (14 bit) 400 – 800
309 17.3 · Digitale Bildsysteme in der Radiologie
jedoch begrenzen, indem man die Cäsiumjodid(CsJ)Kristalle nadelförmig gestaltet, sodass sie ähnlich wie Lichtleiter wirken und einen gerichteten Lichttransport ermöglichen. Systeme mit indirekter Konversion (optodirekte Systeme) weisen die höchste Quanteneffizienz aller digitalen Detektoren im Bereich der Skelettradiologie (55–70 KV) auf (⊡ Abb. 17.19). Bei 70KV beträgt die DQE bis zu 65%. Die für posteroanteriore Thoraxaufnahmen erforderliche Detektoreingangsdosis liegt bei 1–1,5μGy, was einem vergleichbaren Dosisbedarf eines Film-FolienSystems der Empfindlichkeitsklasse800 entspricht.
⊡ Abb. 17.19. Signalstärke in Abhängigkeit von der Quantenenergie bei direkter Energiekonversion mit amorphem Selen (Se) und indirekter Konversion bei Cäsiumjodid (CsJ) und Gadoliniumoxisulfid (Gd2O2S). Es wird deutlich, dass die Detektoren im KV-Bereich der Skelettdiagnostik eine bessere Signalausbeute haben, während der Selendetektor im Weichstrahlbereich der Mammographie überlegen ist
a
Detektoren mit direkter Energiekonversion Beim direkten Verfahren entfällt der Zwischenschritt der Lichtumwandlung. In der Konverterschicht aus amorphem Selen mit einer Dicke von 500 μm werden durch Absorption von Röntgenstrahlung direkt elektrische Ladungen generiert. Der prinzipielle Aufbau eines solchen Detektors ist in ⊡ Abb. 17.20 dargestellt. Eine angelegte Hochspannung bewirkt die Trennung der durch Röntgenstrahlung erzeugten Elektronenlochpaare. Unter der Selen-Schicht befindet sich eine Matrix von Sammelelektroden, welche die individuellen Pixel definieren. Unter jeder Elektrode befinden sich ein Kondensator zur Ladungsspeicherung und ein Schalttransistor zum Auslesen. Die DQE der Systeme mit direkter Konversion (elektrodirekter Systeme) ist in diesem Bereich niedriger, im Bereich von 20–30 KV jedoch höher. Zudem haben diese Systeme den Vorteil eines höheren Signals bei kleinen Hochkontraststrukturen und bieten sich daher besonders für die digitale Mammographie an. Sie fanden aber auch (trotz der im Hartstrahlbereich ungünstigeren DQE) in automatischen Thoraxarbeitsplätzen Verwendung. Die ersten Vertreter von Direktdetektoren in der Radiologie waren CCD-Systeme (»charged coupled device«). Da das Format des CCD-Chips nur 2–4cm2 beträgt, muss das Aufnahmeformat mit einer Linsen- oder Fiberglasoptik entsprechend verkleinert werden, was zu einer erheblichen Einbuße an Dosiseffizienz und Bildqualität führt. Alternativ werden CCD-Chips linear angeordnet und das Bild sequenziell aus Vollformatzeilen zusammengesetzt (Slot-Scan-Verfahren). Durch diese Schlitztechnik wird die Streustrahlung so stark reduziert, dass auf ein
b
⊡ Abb. 17.20a, b. Schematische Darstellung der Funktionsweise von Flächendetektoren mit indirekter (a) und direkter (b) Energiekonversion. (Aus: Spahn et al. 2003)
17
310
Kapitel 17 · Digitale Radiographie
Raster verzichtet werden kann. Die dadurch eingesparte Dosis kompensiert weitestgehend die niedrigere DQE der CCD-Technologie (37). Die Vorteile von Direktdetektoren gegenüber den Speicherfoliensystemen liegen in der höheren Dosiseffizienz (zumindest bei den pulverbeschichteten Speicherfolien) und in der Schnelligkeit der Verfahren, die das aufgenommene Bild in wenigen Sekunden präsentiert, die Überwachung kritischer Patienten erleichtert und eine höhere Untersuchungsfrequenz ermöglicht (⊡ Abb. 17.21). Inzwischen gibt es auch mobile Geräte mit einem transportablen Detektor, der entweder per Kabel oder per Funk die Bilddaten überträgt und somit bei Aufnahmen im Operationssaal oder auf der Intensivstation die Bildinformation direkt nach der Exposition der Aufnahme zur Verfügung stellt. Dem gegenüber stehen höhere Anschaffungskosten (Faktor 3–4).
II
Flachbilddetektoren für die Durchleuchtung (Fluoroskopie) und Angiographie (DSA)
⊡ Abb. 17.21. Flächendetektor (Trixell) im Arbeitsplatz Axiom Aristos der Firma Siemens. Die Vorteile der Direktradiographie sind erkennbar: Das Bild erscheint wenige Sekunden nach der Exposition auf dem Monitor
Die Flachbilddetektortechnologie besitzt auch gegenüber dem Bildverstärker Vorteile und hat diesen in den neuen Angiographie-Anlagen verdrängt. Je nach Einsatzgebiet (Interventionelle Radiologie, Neuroradiologie, Kardiologie) werden Detektoren in unterschiedlichen Größen als Ein- oder Zweiebenen-Anlagen angeboten. Wie bei der statischen Radiographie gibt es bei den Flachbilddetektoren für die Angiographie und Fluoroskopie Detektortypen mit indirekter und direkter Konversion der Röntgenstrahlung, wie sie oben bereits beschrieben wurden. Für das bei der Angiographie und Fluoroskopie verwendete Röntgenspektrum hat Cäsiumjodid (CsJ) als Absorbermaterial wegen der höheren Ordnungszahl der beteiligten Materialien erhebliche Vorteile gegenüber Selen. Dies bedeutet eine höhere DQE und resultiert in einem besseren Signal-RauschAbstand. Die technischen Anforderungen an Flachbilddetektoren für dynamische Anwendungen sind deutlich höher als die in der Radiographie. Insbesondere stellen die Anforderungen bei DSA, Zwei-Ebenen-Röntgenbetrieb und Fluoroskopie bezüglich möglichst niedriger Dosen besondere Herausforderungen an die DQE, die Bildauslesegeschwindigkeit und das zeitliche Verhalten von dynamischen Flachbilddetektoren dar. Eines der Hauptprobleme ist der Auslesevorgang: Er sollte möglichst kurz gehalten werden, um Bewegungsunschärfen bei der Durchleuchtung zu vermeiden. Der Auslesevorgang, insbesondere die zur Verfügung stehende Zeit, nimmt jedoch Einfluss auf die DQE. Die Pixelgrößen liegen zwischen 150 und 200 μm. Die Bildfrequenzen reichen vom Einzelbild bis zu 60 Bildern/s (Kinderkardiologie). Gegenüber konventionellen Röntgenbildverstärkern bieten die Flachbilddetektoren technische Vorteile (41):
311 17.3 · Digitale Bildsysteme in der Radiologie
⊡ Abb. 17.22. C-Bogen-Angiographieanlage mit Flächendetektor (Axiom Artis der Firma Siemens). Die räumlichen Abmessungen des Detektors sind gering
▬ homogene Bildqualität über die gesamte Bildfläche (Verzeichnungsfreiheit, unabhängig vom Erdmagnetfeld), ▬ bessere Darstellung im Hochkontrast (z. B. Katheterspitzen, Führungsdrähte etc.), ▬ höherer linearer Dynamikbereich (C-Bogen-CT), ▬ besseres Übertragungsverhalten von Kontrastunterschieden (höhere MTF), ▬ höhere DQE, ▬ quadratische oder rechteckige Geometrie der röntgensensitiven Fläche (Vorteile bei 3-D-Rekonstruktionen), ▬ geringes Volumen und dadurch günstige räumliche Einbaubedingungen (⊡ Abb. 17.22), ▬ Einsetzbarkeit in Umgebung mit starken magnetischen Feldern (magnetische Navigation).
a
C-Bogen-CT (Flachdetektor-CT) Erste Berichte und Versuche, Projektionsdaten über 180° plus Fächerstrahlwinkel zu akquirieren, gehen auf die Zeit zwischen 1997 und 2001 zurück (10, 11). Sie wurden mit C-Bogen-Systemen durchgeführt, die mit herkömmlichen Bildverstärkern ausgestattet waren. Eine geringere Dynamik, Bildverzerrungen und eventuelle Störungen durch Magnetfelder während der Rotationsbewegung limitieren die Leistung der Bildverstärker als Detektoren für CT-Systeme und verhindern ihre Verwendung für klassische CT-artige Anwendungen wie die Bildgebung von Weichgewebestrukturen (3). Daher wurden bildverstärkerbasierte Systeme nur für Hochkontrastaufnahmen und die so genannte 3D-Rotationsangiographie (3DDSA) verwendet (1, 10, 11, 25). Es ist davon auszugehen, dass diese Systeme nach und nach durch FD-basierte CBogen-CT-Systeme ersetzt werden (⊡ Abb. 17.23), da sie
b ⊡ Abb. 17.23a,b. a Bild aus einer Rotationsangiographie der A. carotis interna. b 3D-Rekonstruktion mit Darstellung eines kleinen Aneurysmas (Pfeil)
17
312
Kapitel 17 · Digitale Radiographie
II
a
b
⊡ Abb. 17.24. Umschriebene Hirnblutung in der konventionellen CT (a) und in der C-Bogen-CT (b). Die Bildqualität der C-Bogen-CT ist mit der CT praktisch identisch. (Aus: Struffert u. Doerfler 2009)
eine größere Dosiseffizienz und eine bessere Bildqualität bieten. Die Anfertigung von 3D-DSA-Bildern mittels FD-CT während eines interventionellen Eingriffs ist bereits weit verbreitet (44, 18, 2). Die FD-Technologie besitzt gegenüber BV-basierten Systemen eine deutlich bessere Weichteilbildgebung, sodass der Spiral-CT ähnliche Bilder entstehen (⊡ Abb. 17.24). Die FD-CT wird auch als Kegelstrahl-CT bezeichnet. Sie erfordert wegen der starken Divergenz der lateralen Strahlen spezielle Bildrekonstruktionsverfahren. Die Rekonstruktionsmethode der Wahl ist der so genannte Feldkamp-Algorithmus (13). Im Prinzip kann eine hohe Bildqualität nur für die dem Zentralstrahl entsprechende zentrale Schicht gesichert werden. Die Bildqualität nimmt für Regionen außerhalb der zentralen Schicht ab, und Artefakte nehmen mit zunehmender Entfernung von der zentralen Schicht zu. Diese Artefakte werden allgemein Kegelstrahlartefakte (21) genannt. Um sie zu vermeiden, sind exakte Rekonstruktionsalgorithmen notwendig, die generell berechnungsaufwändig und derzeit noch nicht praxisrelevant sind, deren Einsatz jedoch durch Fortschritte in der Computertechnik zunehmend realistischer wird.
17.4
Digitale Bildbearbeitung
Das vom Detektor gelieferte Rohbild ist für eine Darstellung unzureichend. Artefakte müssen beseitigt und die Bildinformation zu einer qualitativ hochwertigen Aufnahme aufbereitet werden. Hierzu sind robuste Programme notwendig, die organadaptiert konstante Helligkeit und Kontrast liefern (⊡ Abb. 17.25). Bei Flächendetektoren besteht ein Problem darin, dass die Kristalle keine einheitliche Länge (Toleranzen bei Produktion) besitzen und aus diesem Grund, aber auch bedingt durch andere Fehler, unterschiedliche Signalstärken liefern. Diese distracting effects werden durch flat fielding beseitigt. Hierbei werden alle Pixel mit individuellen Korrekturfaktoren belegt. Offset effects der Pixel werden mit »dark field images« (= Bilddatenakquisition ohne Strahlung) erfasst und ebenfalls korrigiert. Unterschiede in der Pixelsensitivität und Variationen in der Signalverstärkung der Pixel lassen sich mit »flood field images« (= Bilddatenakquisition mit konstanter homogener Strahlung über die gesamte Detektorfläche) korrigieren. Die größte Herausforderung für die Image-Processing-Software besteht in der Identifikation derjenigen Pixel, die einer Korrektur bedürfen (35). Nichtfunktio-
313 17.4 · Digitale Bildbearbeitung
a
b
⊡ Abb. 17.25a,b. Einfluss der Bildbearbeitung auf die Darstellung. a Rohdatenbild einer CR/DR-Anlage diagnostisch nicht verwertbar. b Nach Bearbeitung mit der Software MUSICA 2 der Firma Agfa. Knochen- und Weichteilkontraste sind optimal dargestellt
nierende Pixel sind (durch entsprechende Grenzwerte im »offset« und »gain«) leicht zu identifizieren, indem man die vorbeschriebenen Maßnahmen anwendet. Partiell arbeitende Pixel oder solche mit nichtlinearem Ansprechen werden durch diese Methoden nicht erfasst. Werden andererseits die Grenzwerte für »offset« und »gain« zu eng gesetzt, werden normal arbeitende Pixel fälschlicherweise als defekt erkannt. Eine weitere sehr verbreitete Methode zur Beseitigung der »bad lines« (= Linienartefakte) oder des Salz- und Pfefferrauschens bei Pixeldefekten ist der Median Filter (6). Hierbei wird der defekte Pixelwert mit dem Median der Nachbarpixelwerte ersetzt.
17.4.1 Frequenzfilterung
Die digitale Bildbearbeitung wird zum einen eingesetzt, um die nominell geringere Ortsauflösung digitaler Systeme zu kompensieren (MTF-Restoration), zum anderen, um die intrinsischen Vorteile der digitalen Detektoren zu nutzen. So wird z. B. bei Thoraxaufnahmen durch eine digitale Reduktion des Dynamikumfangs (dynamic range reduction, DRR, oder DRC, dynamic range compression) erreicht, dass bei unverändert gutem Kontrast im Bereich der Lunge eine verbesserte Transparenz und ein verbesserter Kontrast im Mediastinum entstehen (31). Damit kann der inhärente Nachteil der konventionellen Radiographie – das reziproke Verhältnis von Kontrast
und Dynamikumfang – durchbrochen werden. Zusätzlich entsteht durch geeignete Filterung der Effekt einer lokalen Kontrastanhebung, was die Erkennbarkeit von Strukturen mit niedrigem Kontrast erleichtert, jedoch die Bildcharakteristik gegenüber konventionellen Röntgenbildern stärker abweichen lässt. Aus diesem Grund sollten derartige Verfahren zur lokalen Kontrasterhebung oder Strukturbetonung (Frequenzmodulation) in der Regel zurückhaltend angewendet werden. Prinzipiell werden für Flat-Panel-Detektoren die gleichen Bildverarbeitungsalgorithmen verwendet wie für Speicherfoliensysteme. Es finden sich aber herstellerabhängige Unterschiede, die sich auf Bezeichnungen und Standards, aber auch die dahinter liegenden Filterungen beziehen. Nun ist es gerade in der Thoraxradiographie wichtig, die Bildverarbeitung unterschiedlicher Bildsysteme und Hersteller aufeinander abzustimmen, sollten diese in einem Mischbetrieb nebeneinander laufen, um die Beurteilung von Verlaufskontrollen nicht zu beeinträchtigen. In Geräten mit unscharfer Maskenfilterung sollten ein großer Filterkernel zur Dynamikkompression und Harmonisierung und nur ein geringer Gewichtungsfakor (0,5) gewählt werden. DRC-, DRR- oder vergleichbare Algorithmen sind meist nicht so anfällig für Fehlverarbeitung wie kantenbetonende Filter. Gerade Letztere können den Bildcharakter verfälschen (zu starke Betonung vaskulärer Strukturen) und dann Fleck- oder Flächenschatten maskieren.
17
314
Kapitel 17 · Digitale Radiographie
17.4.2 Multifrequenzfilterungen
II
Multifrequenzfilterungen werden heute von vielen Herstellern angeboten (multiscale image contrast amplification, MUSICA, von Agfa®; UNIQUE von Philips®; multiobjektive frequency processing, MFP, von Fuji®). Es sind komplexe Bildbearbeitungsverfahren, die eine Kontrastanhebung unter Berücksichtigung des Ausgangskontrastes und der Größe des betreffenden Objektes (Ortsfrequenzzusammensetzung) ermöglichen (49, 42, 43, 16). Durch geeignete Wahl der Filterparameter können Strukturen mit niedrigem Kontrast (im Originalbild schwer erkennbar) angehoben und Strukturen mit hohem Kontrast (im Originalbild gut erkennbar) im Kontrast entsprechend reduziert werden (38). Das niedrigere Bildrauschen der Direktradiographie ermöglicht durch Multifrequenzfilterungen eine Optimierung der Darstellung auch kleinster oder kontrastarmer Strukturen ohne Limitation der Auflösung durch überlagerndes Bildrauschen (7).
17.4.3 Zweispektrenradiographie
(Energiesubtraktion) und temporale Subtraktion Für die Energiesubtraktion wurden zwei unterschiedliche Techniken entwickelt: die Single-Exposure-Dual-Detector-Technik und die Dual-Exposure-Single-DetectorTechnik. Bei der Single-Exposure-Dual-Detector-Technik erfolgt nur eine Exposition auf zwei hintereinander positionierte Detektoren, die durch einen Filter (Cu) getrennt sind. So entsteht eine Aufnahme mit einem ungefilterten Spektrum und einem entsprechenden Anteil niederenergetischer Quanten und eine mit einem aufgehärteten Spektrum, bei dem die höherenergetischen Quanten überwiegen. Bei der Dual-Exposure-Single-Detector-Technik wird nur ein Detektor benötigt. Es erfolgen zwei Expositionen mit einer Röhrenspannung von 120 KV und einer einem 400ter System entsprechenden Dosis sowie mit 60 KV und einer einem 1000er System entsprechenden Dosis. Eingesetzt wurde diese Technik bei Thoraxuntersuchungen zur Detektion und Charakterisierung von kalzifizierenden Herden (14, 22, 34). Wenngleich sich diagnostische Vorteile gegenüber der einfachen Thoraxaufnahme ergaben, konnte sich diese Technik bis heute in der Routine nicht durchsetzen, da das Hauptproblem der Diagnostik von Lungenrundherden, nämlich die Unterscheidung in benigne und maligne, nicht möglich war. Die temporale Subtraktion wurde zur Beurteilung neu aufgetretener Läsionen bzw. im Intervall aufgetretener Veränderungen eingesetzt und beruht auf dem direkten Vergleich mit Voraufnahmen (33). Nach Einsatz speziell
entwickelter Software-Algorithmen zur möglichst artefaktfreien Subtraktion (»iterative image warping«) stellen sich Intervallveränderungen auf dem Differenzbild als dunkle (Zunahme) oder helle Flecken (Abnahme) dar. Die temporale Subtraktion erwies sich als vorteilhaft in der Detektion einzelner fokaler Läsionen und von multifokalen flauen fleckigen Veränderungen sowie in der Verlaufskontrolle flächenhafter Veränderungen (45, 19). Kontrastarme Läsionen und Läsionen in verdeckter Lokalisation (z. B. infraklavikulär) waren mit dieser Technik besser zu diagnostizieren.
17.5
Bildkommunikation und Archiv
Ein weiterer Vorteil der digitalen Bildtechnik besteht in der Tatsache, dass digitale Datensätze über entsprechende Datenleitungen transportiert werden können. Das weltweite Standard-Datenformat ist DICOM (Diagnostic Imaging and Communication). Die Übertragungsgeschwindigkeit hängt dabei von der Bandbreite des Datennetzes ab. Es ist leicht vorstellbar, dass der Transport bei konventionellen Filmen an personelle Ressourcen gebunden ist und dass diese Ressourcen heute in den Krankenhäusern nicht mehr zur Verfügung stehen. Dies führt spätestens während der Bereitschaftsdienste zu Konflikten. Noch aufwändiger ist der Bildtransport in Form von »Röntgentüten« zwischen verschiedenen Instituten oder Krankenhäusern per Post, Kfz oder öffentlichen Verkehrsmitteln. Daher ist die Bildübertragung per Datennetz von der bildgebenden Modalität zum anfordernden Arzt die einzig sinnvolle Lösung für einen effizienten Arbeitsfluss. Dies hat zu einem Ausbau lokaler Datennetze in Kliniken und Praxen geführt. Regionale Netze, die patientenversorgende Institutionen verbinden, existieren ebenfalls und werden ständig weiterentwickelt. Ähnlich verhält es sich mit der Archivierung der Bilder. Für die konventionellen Filme mussten tonnenschwere Archivsysteme mit erheblichem Raumbedarf gebaut werden. Bedenkt man, dass sich durch die rapide Weiterentwicklung im Bereich CT und MRT die Anzahl der Einzelbilder um den Faktor 10–100 vermehrt hat, dann ist es leicht zu verstehen, dass weder Geldmittel für Filme noch Räume für die wachsenden Archive zur Verfügung stehen. Das digitale Archiv nimmt im Vergleich zur konventionellen Technik nur einen kleinen Bruchteil dieses Raumes ein. Die anfänglich hohen Kosten für Speichermedien sind längst so stark gesunken, dass ein Vergleich immer zugunsten des digitalen Archivs ausfällt. Der wahre Fortschritt für den Arzt ergibt sich aus der Tatsache, dass die Bilder im digitalen Archiv alphanumerisch sortiert zur Verfügung stehen und von dort aus jederzeit abrufbar sind. Das zeitaufwändige Suchen von »Röntgentüten« z. B. für eine Operation – die Krux früherer Tage – entfällt.
315 Literatur
Für die radiologischen bildgebenden Verfahren wurden spezielle »Picture Archive and Communication Systems« (PACS) entwickelt. Diese sollen außer der Bildkommunikation und -archivierung auch den Arbeitsfluss in einem radiologischen Institut unterstützen. Dies bedeutet, dass ein solches PACS mehr können muss als nur die von den einzelnen Modalitäten generierten Bilddaten zu speichern, zu archivieren und zu verteilen. Vielmehr ist die Verbindung und Kommunikation mit dem Radiologie-Informationssystem (RIS) bzw. dem KrankenhausInformationssystem gefragt. Die Kommunikation mit RIS und KIS erfolgt über eine HL7-Schnittstelle, während die Verbindung zu den Modalitäten über spezielle DICOMProtokolle erfolgt ( Kap. 48 und 54). In der Regel entwickelt sich der Arbeitsfluss in folgender Weise:
17.5.1 Beispiel 1: Ambulanter Patient
im Krankenhaus oder Patient in niedergelassener Praxis a) Erster Kontakt des Patienten ist die zentrale Aufnahme. Hier werden die Stammdaten erfasst und vom KIS an das RIS übergeben. Im Falle der Praxis erfolgt die Aufnahme der Stammdaten unmittelbar im RIS. b) Im RIS wird der Radiologieauftrag generiert und über den DICOM-Worklist-Server an die entsprechende Modalität übergeben, wo er in der Worklist erscheint. Je nach System und Konfiguration erfolgt auch ein Prefetching-Auftrag an den Archivserver zur Bereitstellung entsprechender Voraufnahmen des zu untersuchenden Patienten. c) An der Modalität werden automatisch die Stammdaten übergeben, sodass die Untersuchung durchgeführt werden kann. d) Nach Abschluss der Untersuchung werden die erstellten Bilder ans PACS, die Untersuchungsdaten ans RIS gesandt. e) Die Workstation des befundenden Arztes besteht in der Regel aus drei Monitoren. Zwei für die Bildbetrachtung und einer für die RIS-Daten. Sie ermöglicht somit die Bildanalyse der im PACS gespeicherten Bilder wie auch den Zugriff auf die Untersuchungsdaten und etwaige Vorbefunde. Weitere »add ons« sind digitales Diktat und Spracherkennung, die ebenfalls im RIS implementiert sind. f) Bilder und Befunde können auf einer CD/DVD gespeichert und dem Patienten mitgegeben werden. Auch sog. Hard Copies auf Film oder Papier können erstellt werden. g) Die Speicherung der Bilder erfolgt zunächst im PACSServer, wo sie eine den speziellen Bedürfnissen entsprechende Zeit (z. B. 3–5 Jahre) vorgehalten werden. Gleichzeitig werden sie in ein Langzeit-Archiv überschrieben und dort in Form eines komprimierten
Datensatzes abgelegt. Bilddaten und Befunde können auch im PACS mit den Bildern abgespeichert werden. Die jeweiligen Originale sind jedoch auch im RIS hinterlegt.
17.5.2 Beispiel 2: Stationärer
Krankenhauspatient Hier erfolgt bei vorhandenen Stammdaten die Anmeldung über ein sog. Order Entry Modul im KIS. Die Daten werden an das RIS übergeben, wo sie eingesehen werden können. An dieser Schnittstelle besteht die Möglichkeit, den Auftrag zu bestätigen und freizugeben oder zurückzuweisen, wenn es die Umstände (Indikation, fehlende Laborwerte usw.) erfordern. Ist der Auftrag freigegeben, ergibt sich die gleiche Reihenfolge wie im Beispiel 1 ab Schritt b. Nach Abschluss der Untersuchung und Freigabe der Befunde werden diese vom RIS ans KIS zur Aufnahme in die elektronische Patientenakte übergeben. Dort werden Sie mit den übrigen Patientendaten (Labor, OP-Berichte, Ambulanz- und Entlassungsbriefe usw.) archiviert.
Literatur 1. Baba R, Konno Y, Ueda K et al. (2002) Comparison of flat-panel detector and image-intensifier detector for cone-beam CT. Comput Med Imaging Graph 26: 153–158 2. Becker HC, Meissner O, Waggershauser T (2009) C-Bogen-CT-unterstützte 3D-Navigation perkutaner Interventionen. Radiologe 49: 852–855 3. Bruijns TJC, Bastiaens RJM, Hoornaert B et al. (2002) Image quality of a large-area dynamic flat detector: comparison with a state-ofthe-art II/TV system. Proc SPIE 4682: 332–343 4. Busch HP, Busch S, Decker C, Schilz C (2003) Bildqualität und Dosis in der Digitalen Projektionsradiographie. RöFo 175: 32–37 5. Busch HP, Faulkner K (2005) Image Quality and Dose Management in Digital Radiography: A new Paradigm for Optimization. Radiation Protection Dosimetry 117: 143–147 6. Dougherty ER, Astola J (1994) An Intruduction to Nonlinear Image Processing. SPIE, Bellingham (Washington DC) 7. Dencker E, Stahl M, Dippels S et al. (2000) Nonlinear multiscale processing in digital chest radiography: results of a patient study with simulated chest lesions. Eur Radiol 10 [suppl 2]: abstr 1319 8. Dobbins JT, Samei E, Chotas HG, Warp RJ, Baydush AH, Floyd CE Jr, Ravin CE (2003) Chest Radiography: Optimization of X-ray Spectrum for Cesium Iodide – Amorphous Silicon Flat-Panel Detector. Radiology 226: 221–230 9. Dragusin O, Breisch R, Bokou C, Beissel CJ (2010) Does a Flat Panel Detector ReduceTHE Patient Radiation Dose in Interventional Cardiology? Radiation Protection Dosimetry, 1–5 10. El-Sheik M, Heverhagen JT, Alfke H et al. (2001) Multiplanar reconstructions and three-dimensional imaging (computed rotational osteography) of complex fractures by using a C-arm system: initial results. Radiology 221: 843–849 11. Fahrig R, Fox S, Lownie S et al. (1997) Use of a C-arm system to generate true 3D computed rotational angiograms: preliminary in vitro and in vivo results. Am J Neuroradiology 18: 1507–1514
17
316
II
Kapitel 17 · Digitale Radiographie
12. Fasbender R, Schaetzing R (2003) New computed radiography technologies in digital radiography. Radiologe 43: 367–373 13. Feldkamp LA, Davis LC, Kress JW (1984) Practical cone-beam algorithm. J Opt Soc Am A 1: 612–619 14. Fischbach F, Freund T, Röttgen R, Engert U, Felix R, Ricke J (2002) Dual-Energy Chest Radiography with a Flat-Panel Digital Detector: Revealing Calcified Chest Abnormalities. AJR 181: 1519–1524 15. Grampp S, Czerny C, Krestan C, Henk C, Heiner L, Imhof H (2003) Flachbilddetektorsysteme in der Skelettradiologie. Radiologe 43: 362–366 16. Hoeppner S, Maack I, Neitzel U, Stahl M (2002) Equalized contrast display processing for digital radiography. Proc SPIE 4681: 617–625 17. Honey ID, Mackenzie A, Evans DS (2005) Investigation of Optimum Energies for Chest Imaging Using Film-Screen and Computed Radiography. The British Journal of Radiology 78: 422–427 18. Huppert P, Firlbeck G,Meissner OA, Wietholtz H (2009) C-Arm-CT bei der Chemoembolisation von Lebertumoren Radiologe 49: 830–836 19. Kakeda S, Nakamura K, Kamada K et al. (2002) Improved detection of lung nodules by using a temporal subtraction technique. Radiology 224: 145–151 20. Kalender WA (2003) Der Einsatz von Flachbilddetektoren für die CT-Bildgebung. Radiologe 43: 379–387 21. Kalender WA (2005) Computed Tomography. Fundamentals, system technology, image quality, applications. Publicis, Erlangen 22. Kelcz F, Zink FE, Peppler WW, Kruger DG, Ergun DL, Mistretta CA (1994) Conventional Chest Radiography vs Dual-Energy Computed Radiography in the Detection and Characterization of Pulmonary Nodules AJR: 271–278 23. Körner M, Wirth S, Treitl M et al. (2005) Initial clinical results with a new needle screen storage phosphor system in chest radiograms. Röfo 177: 1491–1496 24. Kyriakou Y, Struffert T, Dörfler A, Kalender WA (2009) Grundlagen der Flachdetektor-CT (FD-CT). Radiologe 49: 811–819 25. Linsenmaier U, Rock C, Euler E et al. (2002) Three-dimensional CT with a modified C-arm image intensifier: feasibility. Radiology 224: 286–292 26. Loose R, Wucherer M (2007) Occupational Exposure to Radiation. Radiologe 47: 27–40 27. Ludewig E, Hirsch W, Bosch B, Gäbler K, Sorge I, Succow D, Werrmann A, Gosch D (2010) Untersuchungen zur Qualität von Thoraxaufnahmen bei Katzen mit einem auf einer Nadelstruktur basierenden Speicherfoliensystem – Modelluntersuchungen zur Bewertung der Bildqualität bei Neugeborenen. RöFo 182: 122–132 28. Monnin P, Holzer Z, Wolf R et al. (2006) Influence of cassette type on the DQE of CR systems. Med Phys 33: 3637–3639 29. Monnin P, Holzer Z, Wolf R, Neitzel U, Vock P, Gudinchet F, Verdun FR (2006) Influence of cassette type on the DQE of CR systems. Med Phys 33: 3637–3639 30. New PFJ, Scott WR (1975) Computed Tomography of the Brain and Orbit. Williams and Williams, Baltimore 31. Prokop M, Schaefer-Prokop CM (1997) Digital image processing. Eur Radiol [suppl 3]: 73–82 32. Riccardi L, Cauzzo MC, Fabbris R et al. (2007) Comparison between a built-in »dual side« chest imaging device and a standard »single side« CR. Med Phys 34: 119–126 33. Ricke J, Fischbach F, Teichgräber U et al. (2001) First experiences with a detector based dual energy system for thorax radiography. Eur Radiol 12 [suppl]: B0261 34. Ricke J, Fischbach F, Freund T, Teichgraber U, Hanninen EL, Rottgen R, Engert U, Eichstadt H, Felix R (2003) Clinical Results of CsIDetector-Based Dual-Exposure Dual Energy in Chest Radiography. Eur Radiol 13: 2577–2582 35. Rowlands JA, Yorkston J (2000) Flat Panel Detectors for Digital Radiography. In: Beutel J, Kundel HL, van Metter RL (eds) Handbook
36.
37.
38.
39.
40. 41. 42.
43. 44.
45.
46.
47.
48.
49. 50.
of Medical Imaging Part 1. SPIE, Bellingham (Washington DC), pp 223–328 Rühl R, Wozniak MM, Werk M, Laurent F, Mager G, Montaudon M, Pattermann A, Scherrer A, Tasu J-P, Pech M, Ricke J (2008) CsIdetector-based dual-exposure dual energy in chest radiography for lung nodule detection: results of an international multicenter trial. Eur Radiol 18: 1831–1839 Samei E, Flynn MJ (2003) An experimental comparison of detector performance for direct and indirect digital radiography systems. Med Phys 30: 608–622 Schaefer-Prokop C, Uffmann M, Sailer J, Kabalan N, Herold C, Prokop M (2003) Digitale Thoraxradiographie: Flat-panel-Detektor oder Speicherfolie? Radiologe 43: 351–361 Schaetzing R (2003) Computed radiography technology. In: Samei E, Durham NC (eds) Advances in digital radiography: RSNA categorial course in diagnostic radiology physics. Radiological Society of North America, Inc., Oak Brook, pp 7–22 Schmidt EL, Herbig W (2003) Der Flachbilddetektor auf der Basis von amorphem Selen. Radiologe 43: 374–378 Spahn M, Heer V, Freytag R (2003) Flachbilddetektoren in der Röntgendiagnostik. Radiologe 43: 340–350 Stahl M, Aach T, Buzug TM, Dippel S, Neitzel U (1999) Noiseresistant weak-structure enhancement for digital radiography. Proc SPIE 3661: 1406–1417 Stahl M, Aach T, Dippel S (2000) Digital radiography enhancement by nonlinear multiscale processing. Med Phys 27: 56–65 Struffert T, Doerfler A (2009) Flachdetektor-CT in der diagnostischen und interventionellen Neuroradiologie. Radiologe 49: 820–829 Tsubamato M, Johkoh T, Kozuka T et al. (2002) Temporal subtraction for the detection of hazy pulmonary opacities on chest radiography. AJR 179: 467–471 Uffmann M, Schaefer-Prokop C, Neitzel U (2008) Abwägen von Dosisbedarf und Bildqualität in der digitalen Radiographie. Radiologe 48: 249–257 Vano E (2005) ICRP Recommendations on Managing Patient Dose in Digital Radiology. Radiation Protection Dosimetry 114: 126– 130 Vano E, Geiger B, Schreiner A, Back C, Beisse J (2005) Dynamic flat panel detector versus image intensifier in cardiac imaging: dose and image quality. Phys Med Biol 50: 5731–5742 Vuylsteke P, Schoeters E (1994) Multiscale image contrast amplification (MUSICA). SPIE Medical Imag Proc 2167: 551–560 Yaffe MJ (2000) Digital Mammography. In: Beutel J, Kundel HL, van Metter RL (eds) Handbook of Medical Imaging, Part 1. SPIE, Bellingham (Washington DC), pp 329–372
18 Computertomographie (CT) T. M. Buzug 18.1
Einleitung – 317
18.2
Historie der Computertomographie – 318
18.2.1 18.2.2 18.2.3
Verwischungstomographie und Tomosynthese – 318 System-Generationen – 319 Spiral-CT – 321
18.5
Bedienung und Anwendungen – 328
18.5.1 18.5.2 18.5.3
Aufnahmeplanung – 328 Dreidimensionale Datenvisualisierung – 330 Klinische Applikationen – 331
18.6
Dosis – 331
18.3
Technologie – 322
18.7
Spezielle Systeme – 334
18.3.1 18.3.2
Röntgenröhre – 322 Detektorsystem – 323
18.7.1 18.7.2 18.7.3 18.7.4 18.7.5
Elektronenstrahl-CT (EBCT) – 334 Volume-CT – 334 Mikro-CT – 335 PET-CT – 336 Dual-Source CT – 336
18.8
Dank – 336
18.4
Bildrekonstruktion – 324
18.4.1 18.4.2 18.4.3 18.4.4
Fourier-Scheiben-Theorem – 325 Gefilterte Rückprojektion – 325 Rohdateninterpolation bei der Spiral-CT – 326 Artefakte – 327
18.1
Einleitung
Die Computertomographie (CT) ist heute genauso spannend wie zu Beginn ihrer Entwicklung in den sechziger und siebziger Jahren des letzten Jahrhunderts. Sie stellt das Verfahren dar, das als erstes axiale überlagerungsfreie Schnittbilder aus dem menschlichen Körper erzeugen konnte (⊡ Abb. 18.1). Die Erfindung der Computertomographie war ein enormer Schritt innerhalb der diagnostischen Möglichkeiten der Medizin. Heute gibt es einige konkurrierende Verfahren zur Computertomographie, allen voran die Magnetresonanztomographie (MRT).
a
b
c
⊡ Abb. 18.1a–c. Durch moderne, sehr schnelle CT-Scanner mit Multizeilen-Detektorsystemen lassen sich heute Ganzkörperübersichten aufnehmen, bei denen selbst kleinere Gefäße gut abbildbar sind
Literatur – 336
Aber auch wenn seit Erfindung der Magnetresonanztomographie der Computertomographie immer wieder ihr Ende vorausgesagt wird, bleibt doch festzustellen, dass die überwiegende Zahl der Bilder aus der Radiologie derzeit durch CT erzeugt wird. In einigen Kliniken entfällt sogar der konventionelle Schockraum und wird durch einen CT-basierten, virtuellen Schockraum ersetzt. Die Tomographen sind in dieser Anwendung mit Anästhesie ausgestattet und die Erstversorgung der Patienten erfolgt intermittierend mit der Bildgebung. Gerade im Bereich der schnellen 3D-Diagnostik von Traumapatienten, bei denen vor der Messung nicht geklärt werden kann, ob eine Magnetresonanztomographie überhaupt durchgeführt werden darf, ist die Computertomographie der Standard. Neuerdings kommen darüber hinaus aber auch interessante technische, anthropologische und forensische sowie archäologische und paläontologische Anwendungen der Computertomographie hinzu, die die Stellung des Verfahrens über die Verwendung in der Medizin hinaus als allgemein-diagnostisches Werkzeug zur zerstörungsfreien Materialprüfung und dreidimensionalen Visualisierung weiter stärken. Aufgrund der einfachen Handhabung und der klaren physikalisch-diagnostischen Aussage sowie der Fortschritte bei der Reduktion der Strahlenbelastung wird die Computertomographie ihren festen Platz im radiologischen Umfeld behalten. Zu dieser Entwicklung hat ganz wesentlich der rasante Fortschritt der Röhren- und der Detektortechnologie beigetragen. Speziell bei den Detektorarrays sind kommerzielle Scanner aller großen Hersteller heute bei 64 Zeilen angelangt, und ein Ende der Entwicklung ist nicht abzusehen. Wenn
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _18, © Springer-Verlag Berlin Heidelberg 2011
318
II
Kapitel 18 · Computertomographie (CT)
man heute von Tomographie spricht, so ist dies trotz der diagnostischen Konkurrenzverfahren wie MRT oder PET (Positronen-Emissions-Tomographie) immer noch ganz stark mit CT, also der Röntgen-Computertomographie, verbunden. Im englischsprachigen Raum wird die Computertomographie auch CAT (Computerized Axial Tomography) genannt. Die Darstellung eines Herzstents (⊡ Abb. 18.1b) oder der kleineren Gefäße (z. B. im Fußbereich, ⊡ Abb. 18.1c) sind heute klinische Routine. Und selbst wenn sich ein Chirurg auf den intraoperativen Eindruck des Bildverstärkers eines C-Bogens vorbereiten möchte, braucht man keine zusätzliche Röntgenaufnahme, denn aus dem präoperativ aufgenommenen tomographischen Schichtenstapel lassen sich synthetische Projektionen berechnen, die den konventionellen Aufnahmen praktisch gleichen. Aufgrund der hohen Qualität der Planungs-Übersichtsaufnahmen wird in einigen CT-basierten Schockräumen sogar auf konventionelle Röntgenaufnahmen verzichtet. Hinzu kommt, dass die Berufsgenossenschaften bei Arbeitsunfällen zunehmend auf einer tomographischen Abklärung bestehen. Auch deswegen ist CT in der Unfallklinik zur Standarddiagnostik avanciert. Bei schweren Traumata, Frakturen und Luxationen ist CT aber auch inhaltlich vorzuziehen. Eine Fraktur 20 sec stillzuhalten, ist für den verunfallten Patienten i. d. R. sehr schmerzhaft. Mit den neuen Multizeilen-Detektoren kann die Zeit für eine 3D-Bildakquisition heute wesentlich reduziert werden. Und hierbei ist CT der MRT auch technisch vorzuziehen, weil z. B. kleine abgesprengte Knochenteile (Fossikel) im MRT kaum sichtbar sind. Mit den modernen CT-Systemen ergeben sich neue Anforderungen an die Infrastruktur einer Klinik. Die zugunsten der Bildschirmbefundungsplätze ausgeschalteten Alternatoren sind dabei nur ein äußeres Zeichen dieses Wandels. Entscheidend sind natürlich ein leistungsfähiges PACS mit einem Kliniknetzwerk hoher Bandbreite. Darüber hinaus erfordert die Bilderflut der modernen Computertomographen ein anderes Umgehen der Ärzte mit den Daten. Tatsächlich ist heute nicht mehr die Akquisitionstechnik das zeitliche Nadelöhr bei einer Untersuchung, sondern die ärztliche Befundung. Da die großen Datensätze den Radiologen überfordern, ist zu beobachten, dass sich die Paradigmen ändern. Zunehmend sind nämlich dreidimensionale Bilder des Patienten Bestandteil der Befundung (⊡ Abb. 18.1). Der Arzt kann mit der 3D-Rekonstruktion schneller befunden, als bei der Durchsicht von hunderten von Bildern. Dabei ist die Entwicklung der hochauflösenden Multizeilen-Detektoren wiederum eine Voraussetzung für qualitativ hochwertige Sekundärrekonstruktionen und ihre dreidimensionalen Visualisierungen. In diesem Kapitel soll die Historie der Computertomographie ( Abschn. 18.2), die moderne Technologie mit Schwerpunkt auf Röntgenstrahlenerzeugung und -detektion ( Abschn. 18.3) sowie die Bildrekonstruktion
( Abschn. 18.4) besprochen werden. Darüber hinaus sind Aspekte der Bedienung und Anwendung ( Abschn. 18.5), der Dosis bei der Computertomographie ( Abschn. 18.6) sowie ein kleiner Abschnitt über spezielle CT-Entwicklungen enthalten ( Abschn. 18.7). Da dieses Kapitel nur den Charakter eines Überblicks besitzt, sei an dieser Stelle schon auf aktuelle Bücher verwiesen, die eine ausführliche Beschreibung der Technologie der Computertomographie geben (Kalender 2000; Seeram 2001; Hsieh 2003 u. Buzug 2004).
18.2
Historie der Computertomographie
Konventionelle Röntgenverfahren haben den schwer wiegenden Nachteil, dass sie lediglich Projektionsbilder liefern. Dies führt natürlich zu einem Verlust an räumlicher Information (das kann eine geübte Radiologin oder ein geübter Radiologe aber verschmerzen und durch Erfahrung ergänzen). Darüber hinaus stellt die Projektion aber eine Mittelung dar. Man kann sich dies so vorstellen, dass der Körper in einzelne Schichtbilder zerlegt wird, die zur Betrachtung alle übereinander gelegt werden. Dies ist auch für Experten weniger gut zu verschmerzen, da mit der Mittelung ein erheblicher Kontrastverlust gegenüber dem Kontrast einer einzelnen Schicht verbunden ist. In ⊡ Abb. 18.2a ist jeweils eine konventionelle Schädelaufnahme (links) und eine Knieaufnahme (rechts) zu sehen, die zwar die hohe Schwächung der Röntgenstrahlung im Bereich z. B. des Schädelknochens und ganz extrem die Schwächung im Bereich der Zahnfüllungen zeigt, die kleinen Röntgenschwächungsunterschiede, die die Weichteile charakterisieren, sind aber nicht zu erkennen. Insbesondere ist die Morphologie des Gehirns im Mittelungsprozess vollständig verloren gegangen. Beim Knie bilden sich durch die Überlagerung selbst die Knochenstrukturen nur mit geringem Kontrast ab.
18.2.1 Verwischungstomographie
und Tomosynthese Der Wunsch, den Mittelungsprozess, der die konventionellen Röntgenaufnahmen charakterisiert, rückgängig zu machen, führte in den 20er Jahren des letzten Jahrhunderts zu den ersten tomographischen Konzepten. Das Wort Tomographie setzt sich dabei aus den beiden griechischen Worten tomos (Schnitt) und graphein (zeichnen) zusammen. Das Wort Tomographie wurde ganz wesentlich durch den Berliner Arzt G. Grossmann geprägt, dessen Grossmann-Tomograph in der Lage war, eine einzelne Schicht im Körper abzubilden. Das Tomographieprinzip dieses Verfahrens ist in ⊡ Abb. 18.2b illustriert. Während der Röntgenaufnahme wird die Röntgenröhre linear in die eine Richtung und der Röntgenfilm
319 18.2 · Historie der Computertomographie
a
⊡ Abb.18.2a,b. Konventionelles Projektionsröntgen führt zu kontrastschwachen Bildern, die keine Weichteildiagnostik zulassen. a Zu sehen ist eine Schädelaufnahme (links), bei der die Feinheiten der räumlichen Strukturen des Gehirns nicht mehr zu erkennen sind. In der Knieaufnahme (rechts) sind selbst die knöchernen Strukturen sehr kontrastarm dargestellt. b Die ersten Versuche, Schnittbilder aus dem Körper zu erzeugen, begannen mit der so genannten Verwischungstomographie
b
simultan in die andere Richtung verschoben. Dadurch bilden sich nur Punkte in der Drehpunktebene scharf ab. Alle Punkte über- und unterhalb dieser Ebene werden auf dem Bild verwischt und zwar umso stärker, je weiter sie von der Ebene entfernt sind. Daher nennt man dieses Verfahren auch Verwischungstomographie (es wird auch »Tomosynthese« genannt, wenn die Projektionsbilder digital weiterverarbeitet werden). Natürlich sind die verwischten Informationen nicht verschwunden, sondern sie legen sich als Grauschleier über die scharfe Abbildungsebene, sodass auch hier ein erheblicher Kontrastverlust zu verzeichnen ist. Der Qualitätsgewinn gegenüber einer einfachen Durchleuchtung ist aber am Beispiel der tomosynthetisch aufgenommenen Schichtsequenz des Knies gut zu erkennen (Härer et al. 1999 und 2003). Ein verwandtes Verfahren, die so genannte Orthopantomographie, ist heute in der Dentalradiographie weit verbreitet. Mit diesem Verfahren wird eine Panoramadarstellung der Zahnreihen auf gekrümmten Schichten entlang des Kieferbogens dargestellt.
18.2.2 System-Generationen
Die Computertomographie vermeidet die Überlagerung von verwischten Ebenen und erzeugt damit einen großen Kontrast, sodass auch Weichteile gut abgebildet werden. Der diagnostische Qualitätssprung, der damit einherging, begründet den enormen Erfolg der Computertomographie. Etabliert ist eine Unterscheidung in vier Generationen von Computertomographen, die in ⊡ Abb. 18.3 zu sehen sind. Diese Unterscheidung ist historisch gewachsen und bezieht sich sowohl auf die Art, wie Röntgenquelle und Detektor konstruiert sind, als auch auf die Art, wie beide sich um den Patienten bewegen.
a
b
c
d
⊡ Abb.18.3a–d. Generationen von Computertomographen. a Erste Generation: Rotation-Translation des Nadelstrahls, b zweite Generation: Rotation-Translation eines kleinen Fächerstrahls, c dritte Generation: Rotation-Rotation eines großen Fächerstrahls und d vierte Generation: Rotation-Fix mit geschlossenem Detektorring
1. Generation Die erste Generation von Computertomographen besitzt eine Röntgenquelle, die einen einzelnen Nadelstrahl aussendet, der mit Hilfe von entsprechenden Kollimatoren aus dem Röntgenkegel selektiert wird. Diese Geometrie wird »Pencil«-Strahlform oder Nadelstrahlform genannt. Auf der der Röntgenquelle gegenüberliegenden Seite des
18
320
II
Kapitel 18 · Computertomographie (CT)
Messfeldes befindet sich ein einzelner Detektor, der synchron mit der Röntgenquelle unter verschiedenen Projektionswinkeln γ linear verschoben wird (⊡ Abb. 18.3a). Abhängig von den spezifischen Schwächungseigenschaften des Gewebes wird die Intensität des Strahls beim Durchgang durch den Körper geschwächt. Der erste CTScanner, den ein Außenseiter, nämlich die für Schallplatten bekannte Firma EMI gebaut hatte, beruhte auf dem Nadelstrahlprinzip. 1972 realisierte Godfrey N. Hounsfield (1919–2004) diesen ersten Computertomographen in den EMI Forschungslaboratorien. Dafür erhielt er 1979 zusammen mit Allen M. Cormack (1924–1998) den Nobelpreis für Medizin. Ein Photo des ersten EMI-Kopfscanners aus dem Jahre 1972 zeigt ⊡ Abb. 18.4. Die ersten kommerziellen Scanner besaßen tatsächlich einen eng fokussierten Röntgenstrahl und einen einzelnen NaI-Szintillationsdetektor. Dieses technisch heute nicht mehr realisierte Prinzip ist von grundsätzlicher Bedeutung, da die mathematischen Verfahren zur Rekonstruktion hier besonders einfach zu verstehen sind. Insbesondere kann man die mathematischen Verfahren für die moderneren Geometrien durch geeignete Koordinatentransformationen aus der Nadelstrahlgeometrie gewinnen. ⊡ Abb. 18.4 zeigt einen der ersten Tomographen der ersten Generation, der 1974 von Siemens produziert
wurde, sowie das Ergebnis eines axialen Kopfscans mit einer Bildmatrix von 80×80 Pixeln. Die weitere rasante Entwicklung der Computertomographie wurde und wird von drei wesentlichen Forderungen vorangetrieben: Reduktion der Aufnahmezeit, Reduktion der Strahlenbelastung und nicht zuletzt Reduktion der Kosten. Auf dem Weg, diese Faktoren zu optimieren, gibt es mehrere historische Stationen, die in den folgenden Abschnitten kurz besprochen werden sollen.
2. Generation Der Computertomograph der zweiten Generation besitzt eine Röntgenquelle mit Fächerstrahlgeometrie und ein kurzes Detektorarray mit etwa 30 Elementen (⊡ Abb. 18.3b). Allerdings ist die Fächerstrahlöffnung immer noch sehr klein, sodass auch hier Röhre und Detektor linear verschoben werden müssen, bevor ein neuer Projektionswinkel eingestellt werden kann. Bei den ersten Geräten betrug der Öffnungswinkel des Röntgenfächerstrahls etwa 10°. Immerhin konnte aber die Akquisitionszeit schon auf einige Minuten pro Schicht gesenkt werden, da man mit dem Array gleichzeitig mehrere Intensitäten messen kann. Das Messfeld war dennoch nur für Schädelaufnahmen geeignet.
⊡ Abb.18.4. Historische Entwicklung der CT-Scanner. 1972: EMI Kopfscanner (1. Generation); 1974: Siemens Siretom (1. Generation); 1975: Philips Tomoscan 200 (2. Generation); 2005 Philips Brilliance (3. Generation)
321 18.2 · Historie der Computertomographie
Dass bei dem Tomographen der ersten und zweiten Generation der Schädel als klinischer Applikationsschwerpunkt gewählt wurde, liegt im Wesentlichen an der langen Akquisitionszeit. Der Schädel ist gut zu fixieren und zeigt keine großen Bewegungen innerhalb der Aufnahmezeit. Das ist bei Aufnahmen in dem Bereich des Thorax oder des Abdomen natürlich anders, da die Bewegung des Herzens und der Lunge sowie über das Zwerchfell auch die Bewegung der weichen Organe des Abdomens zu Artefakten in den rekonstruierten Bildern führt. Die Rekonstruktionsmathematik erfordert es, dass alle zu rekonstruierenden Punkte einer Schicht über 180° durchleuchtet werden. Wenn aufgrund der Patientenbewegung ein Punkt während eines Umlaufs des Scanners aus der Schicht herauswandert, führt dies unweigerlich zu Fehlern in der Bildwiedergabe. ⊡ Abb. 18.4 zeigt den Philips Tomoscan 200 Scanner der zweiten Generation aus dem Jahr 1975.
3. Generation Das Hauptziel neuer Entwicklungen in den 70er Jahren des letzten Jahrhunderts war die Reduktion der Akquisitionszeit auf unter 20 s. Dies sollte ausreichen, um in einem Atemstopp des Patienten auch Bilder des Abdomens einigermaßen fehlerfrei zu rekonstruieren. Ein großer Entwicklungsschritt in diese Richtung war die konsequente Weiterführung des Fächerstrahlkonzeptes der zweiten Generation, nämlich die Einführung eines wesentlich größeren Öffnungswinkels des Röntgenfächers und ein dazugehöriges längeres Detektorarray. ⊡ Abb. 18.3c zeigt das Prinzip dieser dritten Generation wieder schematisch. Das rekonstruierbare Messfeld ist hier ebenfalls illustriert. Der Öffnungswinkel des Röntgenfächers ist typischerweise zwischen 40° und 60° groß und das Detektorarray ist i. d. R. als Detektorbogen mit heute zwischen 400 und 1000 Elementen ausgelegt. Auf diese Weise kann nun unter jedem eingestellten Projektionswinkel γ das gesamte Messfeld, in dem jetzt auch der Körperstamm liegen kann, simultan durchleuchtet werden. Somit kann man bei der dritten Generation ganz auf die lineare Verschiebung verzichten. Mit dieser Idee verkürzt sich die Akquisitionszeit erheblich, da eine kontinuierliche Drehung erfolgen kann, ohne dass Pausen für die lineare Verschiebung eingelegt werden müssen. Die überwiegende Zahl der heute installierten Geräte sind die Fächerstrahlsysteme der dritten Generation. ⊡ Abb. 18.4 zeigt zwei CT-Scanner der zweiten und der dritten Generation aus dem Jahre 1975 bzw. 2005. Während sich die Geräte äußerlich kaum unterscheiden, hat die Röhren- und Detektortechnologie in den letzten Jahrzehnten erhebliche Fortschritte gemacht.
4. Generation Die vierte Generation der Computertomographen unterscheidet sich hinsichtlich der Röntgenquelle nicht von
den Tomographen der dritten Generation. Auch hier dreht sich die Fächerstrahlquelle kontinuierlich ohne lineare Verschiebung um das Messfeld. Der Unterschied zur dritten Generation liegt im geschlossenen, ortsfesten Detektorring mit bis zu 5000 Einzelelementen. Hierbei kann die Röntgenröhre außerhalb (⊡ Abb. 18.3d) oder innerhalb des Detektorrings rotieren. Für die Anordnung der Röhre außerhalb des Detektorrings ist klar, dass der Röntgenstrahl nicht die der Quelle jeweils nahe liegenden Detektoren von hinten durchstrahlen soll. Daher wird der Detektorring gegenüber der Bahn der Röhre dynamisch geneigt, sodass die Sichtlinie zwischen der Röhre und dem Arbeitsbereich des Detektorrings nur durch den Patienten (und den Patiententisch) und nicht durch die Detektorelektronik geht. Tomographen der vierten Generation bilden so genannte inverse Fächerstrahlen aus, deren jeweilige Zentren die einzelnen Detektoren sind. Man nennt den inversen Fächer auch Detektorfächer im Unterschied zum Röntgenfächer der Tomographen dritter Generation. Lediglich beschränkt durch die Abtastrate, mit der die einzelnen Detektoren ausgelesen werden können, kann ein sehr dichter inverser Fächer gemessen werden. Auf diese Weise ist man im Gegensatz zu den Tomographen der dritten Generation in der räumlichen Auflösung des einzelnen Fächers im Prinzip nicht beschränkt.
18.2.3 Spiral-CT
Ein Entwicklungsschritt, der einen enormen Sprung in der Leistungsfähigkeit von Computertomographen der dritten Generation zur Folge hatte, ist die Einführung der Schleifringtechnologie. Mit ihr hatte man die Möglichkeit, den Patienten spiralförmig abzutasten. Da der Röntgenröhre kontinuierlich Energie zugeführt werden muss, war bei den ersten Scannern durch die Kabelzuführung der Winkelverfahrweg beschränkt. Dieses Problem war eine hohe Barriere bei der Reduktion der Akquisitionszeiten. Ständig musste die Abtasteinheit anfahren und wieder stoppen. Zwar hat man sowohl bei Links- wie auch der nachfolgenden Rechtsdrehung jeweils Daten akquiriert, aber durch die entstehenden Drehmomente war der Scangeschwindigkeit Grenzen gesetzt. Die Kabelverbindung wurde bei diesem Prozess in der einen Richtung abgewickelt und in der anderen Richtung vorsichtig wieder aufgewickelt. Gelöst wurde dieses Problem durch die Schleifringtechnologie. Die Energie wird hierbei durch Schleifkontakte von dem äußeren Rahmen, der so genannten Gantry, auf die sich drehende Abtasteinheit übertragen. Jetzt konnte die Abtasteinheit, die die Röntgenquelle und in der dritten Generation auch das Detektorarray trägt, kontinuierlich rotieren. Dabei sind heute Rotationsfrequenzen von 2 Umdrehungen pro Sekunde in so genannten Subsekundenscannern Standard.
18
322
II
Kapitel 18 · Computertomographie (CT)
Allerdings gibt es auch kleinere Kompaktgeräte, die ihre Unabhängigkeit von einer äußeren Energiezufuhr während der Rotation der Abtasteinheit durch Akkumulatoren herstellen. Ein Beispiel hierfür ist der mobile Tomoscan M Computertomograph von Philips. Dieser Tomograph kommt ganz ohne Schleifringtechnologie aus. Bei der Übertragung der Messdaten zurück auf die ruhende Gantry findet man grundsätzlich verschiedene Wege. Während viele Geräte ihre Daten auch über einen Schleifkontakt nach außen geben, wird bspw. beim Tomoscan M eine kontaktlose kapazitive RF-Übertragung genutzt. Bei der derzeitigen Entwicklung zu einer immer größer werdenden Detektorenanzahl bei gleichzeitiger Steigerung der Umdrehungsgeschwindigkeit stellt die Datenübertragung von der Abtasteinheit auf die Gantry einen Flaschenhals dar, der in neueren Geräten auch mit optischer Datenübertragung überbrückt wird. Die kabellose Energie- und Datenübertragung ermöglichte ein neues CT-Scanprotokoll. Bei kontinuierlichem Patiententischvorschub ist es nämlich nun möglich, Daten auf einer spiralförmigen Abtastbahn zu messen. Dieses Spiral-CT-Verfahren, auf das in Abschn. 18.4.3 noch einmal eingegangen wird, wurde 1989 von Willi Kalender an einem Prototypen erfolgreich demonstriert (Kalender et al. 1989).
18.3
Technologie
Computertomographen bestehen aus einem Frontend, dem eigentlichen Scanner, und einem Backend, der Bedienkonsole und der Viewing-Station. Sämtliche Komponenten des Frontends (Röntgenröhre, Filter, Blenden, Kollimator, Detektorsystem, Generator, Kühlsystem, Datenerfassungssystem, Schleifring, Patiententisch, Motorsteuerungen und Mechanik) sind heute technisch hoch entwickelt und haben zum Teil lange Entwicklungszeiten hinter sich. In diesem Abschnitt sollen aufgrund ihrer zentralen Bedeutung nur die Hauptkomponenten des Frontends besprochen werden, die Röntgenröhre und das Detektorsystem.
18.3.1 Röntgenröhre
Röntgenstrahlung ist elektromagnetischer Natur. Sie besteht aus Wellen des Wellenlängenbereichs 10-8 m bis 10-13 m und wird beim Eintritt schneller Elektronen in ein Metall erzeugt. Dabei ist die Energie der Röntgenstrahlung abhängig von der Geschwindigkeit v der Elektronen. Diese wiederum ist abhängig von der Beschleunigungsspannung UB zwischen Kathode und Anode, die von dem Bediener im CT-Scanprotokoll typischer Weise im Bereich zwischen 90 kV und 140 kV eingestellt werden kann. In der allgemeinen medizinischen Röntgendiagnostik liegen die Beschleunigungsspannungen zwischen 25 kV und
150 kV, für die Strahlentherapie zwischen 10 kV und 300 kV und für die Materialprüfung bei bis zu 500 kV. Während die Beschleunigungsspannung die Energie des Röntgenspektrums bestimmt, steuert der Anodenstrom, der ebenfalls durch den Bediener festgelegt wird, die Intensität des erzeugten Röntgenspektrums. Beim Eintritt der so beschleunigten Elektronen in die Anode, laufen dicht an der Anodenoberfläche mehrere Prozesse ab. Grundsätzlich werden die Elektronen durch die elektrischen Felder der Atome im Anodenmaterial abgelenkt und abgebremst. Die Abbremsung geschieht dabei in Wechselwirkungen mit den orbitalen Elektronen und dem Atomkern. Da beim Bremsen von Ladung Energie in Form einer elektromagnetischen Welle frei wird, entstehen Photonen. Meistens entstehen bei diesem Prozess mehrere Photonen. Es kann aber auch vorkommen, dass die gesamte Energie eines Elektrons in ein einzelnes Photon umgewandelt wird. Aufgrund der Vielfalt der Abbremsungsprozesse im Anodenmaterial ist das so genannte Bremsspektrum kontinuierlich. Zu dem kontinuierlichen Bremsspektrum überlagert sich ein Linienspektrum, das durch direkte Wechselwirkung der schnellen Elektronen mit inneren Hüllenelektronen des Anodenmaterials entsteht. Da die niederenergetische, so genannte weiche Röntgenstrahlung nicht zum Bildgebungsprozess beiträgt, wird sie direkt an der Röhre durch Metallfilter gedämpft. Der Wirkungsgrad der Energieumwandlung in Röntgenstrahlung liegt bei Wolframanoden (Kernladungszahl Z=74) mit einer Beschleunigungsspannung von UB = 100 kV in der Größenordnung von 1%. Damit hat man ein massives Wärmeproblem, denn die Anode wird an der Oberfläche bis zum Glühen erhitzt, darf aber nicht schmelzen. Um die thermische Belastung auf der Anode zu verteilen, werden seit einigen Jahrzehnten Drehanoden eingesetzt. Die Energie des Elektronenstrahls verteilt sich auf einer abgeschrägten Bahn, der so genannten Brennfleckbahn. In ⊡ Abb. 18.5a–c ( 4-Farbteil am Buchende) ist eine moderne Philips MRC 600 Röntgenröhre zu sehen. In einem Flüssigmetall-Spiralrillenlager wird die Drehanode direkt gekühlt. Durch den großflächigen Kontakt des Flüssigmetalls ist die Wärmeableitung sehr effizient. Die Größe und Form des Brennflecks auf dem Anodenteller beeinflusst die medizinischen Abbildungseigenschaften. Aufgrund der Schrägung des Anodentellers ist die Projektion der Brennfleckgeometrie in Richtung der austretenden Strahlung entscheidend für die Qualität der Abbildung. Man spricht daher von dem optischen Brennfleck, der möglichst klein gehalten werden muss. Üblich sind bei diagnostischen Röntgenröhren Brennfleckabmessungen zwischen 0.3 mm und 2 mm, wobei durch Fokussierung auf unterschiedliche Schrägungen häufig zwischen zwei Brennfleckgrößen umgeschaltet werden kann. Je größer der Brennfleck ist, desto besser ist die unerwünschte Wärmeenergie auf der Anode zu verteilen, allerdings beeinträchtigt andererseits die Halbschattenunschärfe bei
323 18.3 · Technologie
einem großen optischen Brennfleck die Schärfe des Bildes. Der mathematische Zusammenhang der Brennfleckgröße mit der Abbildungsqualität wird durch die so genannte Modulationstransferfunktion beschrieben. Ein weiterer Faktor, der in Bezug auf die Abbildungsqualität Beachtung finden muss, ist die Richtungscharakteristik der Röntgenstrahlung, denn die Intensität der Röntgenstrahlung sinkt für Strahlen, die die Anode streifend verlassen. Dieser Effekt beruht auf der Selbstabsorption der Anode im Bereich der Oberflächenrauhigkeit. Je kleiner der Winkel zwischen austretender Röntgenstrahlung und der Anodenoberfläche ist, desto stärker wirkt sich die Absorption aufgrund der Rauhigkeit entlang der Brennfleckbahn aus. Dieser so genannte Heel-Effekt verstärkt sich mit der Alterung der Röhre, da allmählich Material durch Elektronenbeschuss abgetragen wird, wodurch die Rauhigkeit der Brennfleckbahn zunimmt (Heinzerling 1998). In den modernen Computertomographen möchte man möglichst viel Röntgenstrahlung des an der Anode entstehenden Strahlkegels nutzen. Daher ist es wichtig, die Strahlcharakteristik der Röntgenröhre genau zu kennen, denn die Basis aller Rekonstruktionsverfahren ist die Annahme, dass das zu untersuchende Objekt homogen ausgeleuchtet wird. Leichte Inhomogenitäten können durch spezielle röntgenseitige Filter sowie durch eine Detektorkalibrierung kompensiert werden.
18.3.2 Detektorsystem
Die Detektion von Röntgenstrahlung beruht auf Effekten der Wechselwirkung zwischen Strahlung und Materie. Das heißt, die Röntgenquanten werden nicht direkt gemessen, sondern nur die Wechselwirkungsprodukte wie z. B. Photoelektronen.
Gasdetektoren Da Röntgenstrahlung die Fähigkeit besitzt, Gase zu ionisieren, liegt es nahe, Detektoren zu verwenden, die auf diesem physikalischen Sachverhalt basieren. Das GeigerMüller-Zählrohr ist einer der bekanntesten Detektoren für ionisierende Strahlung. Tatsächlich wurden die ersten Versuche zur Computertomographie auch mit GeigerMüller-Zählrohrdetektoren realisiert. Auf dem gleichen physikalischen Prinzip basieren auch die Gasdetektoren, die in Tomographen der dritten Generation zum Einsatz kommen. Als Gas wird häufig Xenongas unter hohem Druck in die Ionisationskammer gefüllt. Die Gleichung hν + Xe → Xe + + e - beschreibt dabei den ersten Teil des Detektionsprozesses. Die ionisierten Xenonatome und die Elektronen werden durch eine Hochspannung zur Kathode bzw. Anode beschleunigt und der Strom dort als Maß für die Intensität der eintretenden ionisierenden Strahlung gemessen. Die schwache Quanteneffizienz des
Ionisationsprozesses kann durch hohe Kammern ausgeglichen werden. Die große Kammerhöhe bietet den Vorteil der Richtungsselektivität, denn je länger der Weg der Quanten durch das Gas ist, desto größer ist die Ionisierungswahrscheinlichkeit. Quanten mit schrägem Einfall legen nur einen kurzen Weg in der Kammer zurück.
Szintillationsdetektoren Die meisten Computertomographen sind heute mit Szintillationsdetektoren ausgestattet. Ein solcher Detektor besteht im Wesentlichen aus einem Kristall und einer Photodiode. Die einfallende (kurzwellige) Röntgenstrahlung wird in dem Szintillationskristall zunächst in (langwelliges) Licht umgewandelt. Diese Kristalle bestehen z. B. aus Cäsiumjodid, Wismutgermanat oder auch Cadmium-Wolframat. Für die Wahl der Kristalle spielen Anforderungen wie die Effizienz der Umwandlung von Röntgenstrahlung in Licht aber auch die Abklingzeit bzw. das Nachleuchten (Afterglow) der Kristalle eine große Rolle. Für sehr schnelle Abklingzeiten, die heute bei den Subsekundenscannern benötigt werden, kommen auch Keramiken wie Gadoliniumoxysulfid (Gd2O2S) zum Einsatz. Die einzelnen Detektorblöcke sind auf einem Kreisabschnitt an der sich drehenden Abtasteinheit angebracht. Dies ist in ⊡ Abb. 18.3c am Scanner der dritten Generation schematisch gezeigt. Damit möglichst nur Strahlung von der direkten Verbindungslinie zwischen Röntgenfokus und Detektor in den Kristall einfällt, verwendet man lamellenförmige Abgrenzungen zwischen den einzelnen Kanälen. Ohne dieses so genannte Streustrahlenraster, das einen detektorseitigen Kollimator darstellt, würde einfallende Störstrahlung die Bildqualität erheblich beeinträchtigen. Ein Nachteil des Streustrahlenkollimators liegt auf der Hand. Durch die zur Abschirmung gestreuter Röntgenstrahlung notwendige Lamellendicke von etwa 0.1 mm hat der Detektor nur eine geometrische Gesamteffizienz von 50–80%. Die Toträume reduzieren das Auflösungsvermögen.
Festkörper-Mehrzeilen-Detektoren Die im vorhergehenden Kapitel beschriebenen Kristallbzw. Keramikdetektoren können durch Aneinanderreihung leicht zu mehrzeiligen Detektorarrays aufgerüstet werden. Die zentrale Forderung hierbei ist, dass die Toträume der Arrays möglichst klein bleiben. Quantitativ wird dies durch den so genannten Füllfaktor gemessen. Der Füllfaktor ist definiert als röntgensensitive Fläche des Sensors bezogen auf die Gesamtfläche des Sensors. Für die Xenondetektoren ist dies in kompakter Bauweise nicht möglich. Daher bestehen praktisch alle Mehrzeilensysteme aus Szintillationsdetektoren. Im Gegensatz zu den im technischen Einsatz häufig vorkommenden planaren Detektoren, sind in medizinischen Anwendungen zurzeit die zylindrischen Anordnungen in der Überzahl.
18
324
II
Kapitel 18 · Computertomographie (CT)
So wie in ⊡ Abb. 18.5d schematisch illustriert, bildet das Mehrzeilensystem ein Segment eines Zylindermantels, dessen Zentrum in der Röntgenquelle liegt. ⊡ Abb. 18.5e zeigt einen modernen Detektor eines Siemens 64-Zeilen CT-Systems. Wenn die Anzahl der Zeilen dieser Detektoren so groß wird, dass die Neigung der zu rekonstruierenden Schicht nicht mehr zu vernachlässigen ist, sind größere Anstrengungen in der Rekonstruktionsmathematik ( Abschn. 18.4) erforderlich. Diese Anstrengungen werden aber mit einer verbesserten Bildqualität belohnt. Detektoren können so paarweise elektronisch zusammen geschaltet werden, dass sich die gewünschte Anzahl von gleichzeitig messbaren Schichten mit den dazugehörigen Schichtdicken ergeben.
Festkörper-Flat-Panel-Detektoren Wird bei großen Mehrzeilen-Detektorsystemen die Neigung der Schichten im Röntgenkegel innerhalb des Rekonstruktionsalgorithmus nicht berücksichtigt, dann ergeben sich Bildfehler, die in der diagnostischen Anwendung inakzeptabel sind. Da nun andererseits die Rekonstruktionsmathematik für eine echte Kegelstrahlrekonstruktion, die diese Artefakte vermeiden kann, ohnehin ein Umdenken in der praktischen Implementierung erfordert, ist es nahe liegend, das Mehrzeilenprinzip bei den Detektoren zu verlassen und direkt zu Flächendetektoren überzugehen. Das Kernstück des Detektors besteht aus einem Glassubstrat, auf dem eine Matrix aus 2048×2048 Sensoren mit einer Größe von je 200 μm aufgebracht ist (Brunst 2002). Dies geschieht in Dünnfilmbeschichtungstechnik monolithisch, sodass kein Aneinanderstückeln mehrerer kleinerer Panels erforderlich ist. In Kombination mit der Photolithographie sowie weiterer Ätzschritte ist diese Technik der übliche physikalisch-chemische Weg, der in der Mikroelektronik beschritten wird, um sehr feine Strukturen herzustellen. Mit dieser Verfahrensweise wird ein Detektorfeld mit sehr großem Füllfaktor erzeugt, wie dies mit den Detektortypen aus vorangegangenen Abschnitten nicht möglich wäre. Jedes einzelne Sensorelement besteht aus einer Photodiode aus amorphem Silizium und einem Dünnfilmtransistor (TFT). Auf die entstehende Pixelmatrix ist eine röntgenempfindliche Szintillationsschicht aus Cäsiumjodid (CsI) aufgebracht. Das einfallende Röntgenlicht wird zunächst vom CsI-Szintillator in Licht umgewandelt, das zu den darunter liegenden Photodioden weitergeleitet wird. Die Photonen werden in den Photodioden absorbiert und erzeugen dort eine elektrische Ladung, die der Intensität der Röntgenstrahlung proportional ist. Während der Belichtung wird die Ladung in der Photodiode integriert und gespeichert. Der eigentliche Auslesevorgang wird durch den Dünnfilmtransistor gestartet, der die Ladung über die Datenleitung zur Ausleseelektronik schaltet. Dort finden eine Verstärkung und die Analog-Digital-Wandlung statt. In ⊡ Abb. 18.5f ist ein
unkonfektionierter Flat-Panel-Detektor mit den Datenleitungen zur Auswerteelektronik zu sehen. Der Flächendetektor besitzt eine über sehr weite Belichtungsbereiche lineare Dynamikkennlinie und einen sehr hohen Dynamikumfang. Hoch- und niedrigbelichtete Bereiche haben so die volle Kontrastinformation, was zu einer ausgezeichneten Hochkontrastauflösung führt. Im Bereich der Niedrigkontrastauflösung erreichen heutige Systeme allerdings noch nicht die Leistungsfähigkeit der dedizierten CT-Detektoren aus den vorangegangenen Abschnitten. Die zweite, für die spätere Bildqualität bedeutende Eigenschaft ist die exzellente Ortsauflösung. Um die Ortsauflösung zu optimieren, wird das Cäsiumjodid in einem speziellen Aufdampfprozess so auf die Matrix aufgebracht, dass es in direkten Kontakt mit der darunter liegenden Photodiodenmatrix kommt. Dabei gelingt es, das Cäsiumjodid in Form feiner Nadeln zu strukturieren. Werden innerhalb dieser Struktur durch einfallende Röntgenquanten Photonen freigesetzt, dann wirken die Nadeln wie kleine Lichtfasern, sodass die Photonen sich überwiegend entlang dieser Strukturen bewegen. Damit bewegen sie sich also entweder auf direktem Wege zur Photodiode oder zunächst in entgegengesetzter Richtung von der Photodiode weg, um an der Oberkante der CsI-Schicht reflektiert zu werden und dann zur Photodiode zu gelangen. Dieser Lichtleiteffekt ist das Geheimnis der hohen Quanteneffizienz der digitalen Detektoren. Man kann nämlich so die röntgensensitive Schicht des Detektors sehr dick aufdampfen, ohne dass durch breitere Streuung die Ortsauflösung beeinträchtigt wird. Das Szintillationslicht bleibt durch die CsI-Fasern auf einen sehr kleinen Fleck auf der Photodiodenmatrix gebündelt. In Abschn. 18.7, ⊡ Abb. 18.12b ist ein Prototyp eines solchen Volumen- bzw. Kegelstrahl-CT mit einem Flat-Panel-Detektor zu sehen.
18.4
Bildrekonstruktion
Das zentrale Problem der Computertomographie ist leicht formuliert: Man rekonstruiere ein Objekt aus den Projektionen dieses Objektes. Mathematisch handelt es sich bei der Computertomographie um ein so genanntes inverses Problem. Die Bedeutung des mathematischen Begriffs des inversen Problems erschließt sich sofort, denn man hat keinen direkten Einblick in die räumliche Verteilung der Objekte, die man darstellen möchte. Man hat nur die Projektionen entlang der sich drehenden Detektorkoordinate, und zwar gemessen über einen Winkel von mindestens 180°, aus denen man nun – gewissermaßen rückwärts – die räumliche Verteilung der Objekte berechnen muss. Es handelt sich hierbei um die Inversion von Integraltransformationen. Aus einer Sequenz von gemessenen Projektionen {pγ1(ξ), pγ2(ξ), pγ3(ξ), ....} muss also die verborgene Anatomie – genauer, die räumliche Verteilung
325 18.4 · Bildrekonstruktion
der Schwächungskoeffizienten μ(ξ,η) innerhalb einer gewählten Schicht durch den Körper – errechnet werden.
18.4.1 Fourier-Scheiben-Theorem
Abhängig vom Weg η, den die Röntgenstrahlen durch den Körper nehmen (von der Röntgenröhre η = 0 bis zum Detektor η = s), wird die Intensität in unterschiedlichem Ausmaß geschwächt. Nach dem Logarithmieren der mit dem Detektorelement ξ gemessenen Intensität erhält man die Summe der Schwächungen pγ(ξ) entlang des Röntgenstrahls aus der Richtung γ. Um ein Bild des Körperinneren zu berechnen, ist es erforderlich, dass jeder Punkt des Messfeldes aus allen Richtungen γ, also über mindestens 180° durchleuchtet wurde. In ⊡ Abb. 18.6a sind die Schwächungsprofile pγ(ξ) über dem Winkel γ aufgetragen. Durch die kreisförmige Bewegung der Röntgenröhre und Detektoreinheit um den Patienten ergibt sich eine sinusförmige Struktur in dieser Datenrepräsentation, daher wird dieses Diagramm auch Sinogramm genannt. Das »Sinogramm« stellt die Sammlung der Rohdaten des Abtastprozesses dar. Mathematisch handelt es sich um den so genannten Radonraum, benannt nach dem böhmischen Mathematiker Johann Radon (Radon 1917).
Das zentrale mathematische Hilfsmittel zur Bildrekonstruktion aus den Projektionen ist das Fourier-Schichten- oder Fourier-Scheiben-Theorem (engl.: Fourier-Slice- oder Projection-Slice-Theorem). Dieses Theorem stellt einen Zusammenhang zwischen den jeweiligen Fouriertransformierten des Radonraums und des zu rekonstruierenden Bildes her. Es besagt nämlich, dass man die eindimensionale Fouriertransformierte Pγ(q) des gemessenen Projektionsprofils pγ(ξ) in der zweidimensionalen Fouriertransformierten F(u,v) des gesuchten Bildes f (x,y) unter dem Winkel γ findet, unter dem das Profil gemessen wurde. Dabei gilt, dass u=q cos(γ) und v=q sin(γ). Würde man den Fourierraum F(u,v) über alle gemessenen Winkel γ auf diese Weise füllen, so könnte man mit einer zweidimensionalen inversen Fouriertransformation das gesuchte Bild erhalten. Diese so genannte direkte Rekonstruktion wird aufgrund von Interpolationsproblemen heute allerdings nicht verwendet.
18.4.2 Gefilterte Rückprojektion
In praktisch allen CT-Scannern ist derzeit die gefilterte Rückprojektion implementiert. Im Rahmen dieses Verfahrens wird das Sinogramm einer Hochpassfilterung
c
a
b
d
e f
g
⊡ Abb. 18.6a–g. Von den Rohdaten zum rekonstruierten Bild. a Sinogramm der Schwächungs- und Projektionswerte, b hochpassgefilterte Projektionswerte, c Rückverschmierung der gefilterten Projektion, d Akkumulation aller Rückverschmierungen der gefilterten und e der ungefilterten Projektionsprofile, f Datenakquisition bei der Spiral-CT, g Rohdateninterpolation bei der Spiral-CT
18
326
II
Kapitel 18 · Computertomographie (CT)
unterworfen. Dies geschieht im Frequenzraum durch lineare Gewichtung von Pγ(q) mit |q|. Das Ergebnis hγ(ξ) der Filterung des gemessenen Schwächungsprofils pγ(ξ) ist in ⊡ Abb. 18.6b illustriert. Es ist gut zu sehen, dass die sinusförmige Struktur der Daten erhalten bleibt. Allerdings sind in hγ(ξ) aufgrund der Hochpassfilterung nur die Änderungen von pγ(ξ) enthalten. Das hochpassgefilterte Projektionsprofil hγ(ξ) wird in einem zweiten Schritt nun über das zu berechnende Bildfeld zurückverschmiert, und zwar in die Richtung γ, aus der das Projektionsprofil pγ(ξ) ursprünglich auch gemessen wurde. Dieser Vorgang ist in ⊡ Abb. 18.6c für einen einzigen Winkel γ schematisch illustriert. Das Bild ist an dieser Stelle natürlich noch nicht zu erkennen. In ⊡ Abb. 18.6d ist die gefilterte Rückprojektion für eine ansteigende Anzahl von Projektionswinkeln Np={1,2,3,10,45,180} dargestellt. Nur bei einer großen Anzahl von Projektionsmessungen kann auf diese Weise das Bild rekonstruiert werden, da die Fehler der einzelnen Rückverschmierung durch alle anderen gemessenen Projektionen im Überlagerungsprozess kompensiert werden müssen. In ⊡ Abb. 18.6e ist dargestellt was passiert, wenn man auf die Hochpassfilterung verzichten und das Projektionsprofil pγ(ξ) direkt zurückverschmieren würde. Diese »naive« Vorgehensweise führt zu einem sehr verschwommenen Bild, das diagnostisch ungeeignet ist. Wenn man das Scanprotokoll am CT vorbereitet, muss man immer auch ein Filter auswählen. Dieses Filter bezieht sich auf die Art der oben beschriebenen Hochpassfilterung. Die lineare Gewichtung von Pγ(q) mit |q| ist das mathematisch ideale Filter. In der Praxis ist es oft empfehlenswert, die Gewichtung im Frequenzraum weniger progressiv zu wählen. Der Anwender kann von einer Filterbank eine Vielzahl von Filtertypen von ‚sehr weich’ bis ‚sehr scharf ’ auswählen, die auf die jeweils zu untersuchende Anatomie angepasst sind. Die optimale Wahl eines Filters ist immer ein Kompromiss zwischen einer hohen räumlichen Auflösung mit einem stärkerem Bildrauschen und einem glatteren Bild mit kleinerer räumlicher Auflösung. Eine Normierung dieser Filter, die gelegentlich mit Faltungskern, Rekonstruktionsalgorithmus, Rekonstruktionsfilter oder Filterkernel bezeichnet werden, gibt es nicht.
18.4.3 Rohdateninterpolation bei der Spiral-CT
Einen ersten Schritt zu einer echten CT-Volumenaufnahme stellt das so genannte Spiralverfahren ( Abschn. 18.2.3) dar, das Kalender 1989 auf der jährlich stattfindenden Konferenz der RSNA (Radiological Society of North America) zum ersten Mal präsentierte (Kalender et al. 1989). Die Unzulänglichkeiten des einfachen Schichtenstapels sind leicht einzusehen. Jede Schicht hat aufgrund der vorgegebenen Kollimation eine gewisse Breite, man spricht
von der Schichtdicke. Innerhalb dieser Schichtdicke wird die Intensität gewichtet mit dem Empfindlichkeitsprofil gemittelt. Diese Mittelung ist immer dann ein Problem, wenn sich das Objekt durch schräg zur axialen Schicht verlaufende Kanten auszeichnet, also die abzubildende Struktur sich in der Vorschubrichtung des Patiententisches schnell ändert. Dann führt die Mittelung zu einer Stufigkeit des Schichtenstapels, die der abzubildenden Struktur ein treppenförmiges Erscheinungsbild gibt. Mit der Entwicklung der Schleifringtechnologie, die in Abschn. 18.2.3 schon kurz beschrieben ist, wurde es möglich, das Abtastsystem, also die Röhren-Detektorarray-Anordnung, kontinuierlich drehen zu lassen. Wird der Patiententisch während dieser Drehung ebenfalls auf kontinuierlichen Vorschub gesetzt, dann umläuft die Röntgenquelle den Patienten auf einer besonderen Spiralbahn, nämlich einer Helix (⊡ Abb. 18.6f ). Bei dieser Überlegung geht man von einem Koordinatensystem aus, das sich mit dem Patiententisch bewegt, denn natürlich läuft die Röntgenquelle weiterhin auf einer Kreisbahn. Nur aus Sicht des Patienten ergibt sich die Spiralbahn. Damit ist eine lückenlose Erfassung des zu untersuchenden Objektes möglich, wobei im Vergleich zur konventionellen Tomographie die Aufnahmezeit für ein Volumen entscheidend verkürzt werden konnte. Es ist zunächst überraschend, dass die Spiral-Computertomographie überhaupt funktioniert. Voraussetzung für die Rekonstruktionsverfahren, die in den vorangegangenen Abschn. 18.4.1 und 18.4.2 beschrieben wurden, ist die Vollständigkeit der Daten. Das bedeutet, ein Objekt im Messfeld kann nur dann fehlerfrei rekonstruiert werden, wenn alle Punkte des Objektes von allen Seiten – also über 180° – durchstrahlt wurden. Diese Forderung ist der Grund dafür, warum konventionelle CT-Aufnahmen am Herzen praktisch unmöglich sind, denn innerhalb der Drehung der Abtasteinheit um das Herz, bewegt sich dieses aus der zu rekonstruierenden Schicht heraus. Damit passen die der Rekonstruktion zugrunde liegenden Projektionsdaten aus unterschiedlichen Richtungen nicht mehr zusammen. Das rekonstruierte Tomogramm leidet dann unter so genannten Bewegungsartefakten ( Abschn. 18.4.4). Bei der Spiral-CT ist die Bewegung der zu rekonstruierenden Objekte aufgrund des kontinuierlichen Patiententischvorschubs gerade die entscheidende Innovation gegenüber der konventionellen Computertomographie. Damit ist aber die Bahn keine geschlossene Kreisbahn mehr und die Daten liegen zur Rekonstruktion nicht vollständig vor. Die zentrale Idee der Rekonstruktion beim Spiralverfahren ist nun, dass die fehlenden Daten einer Schicht durch Interpolation ergänzt werden (⊡ Abb. 18.6g). Hat man dies erledigt, dann steht das im vorangegangenen Abschn. 18.4.2 beschriebene Rekonstruktionsverfahren wieder uneingeschränkt zur Verfügung. ⊡ Abb. 18.6g zeigt das einfachste Prinzip einer Schichtinterpolation. Die Steighöhe der Helix, also der Weg, den der Patiententisch während
327 18.4 · Bildrekonstruktion
einer 360°-Umdrehung der Abtasteinheit zurücklegt, sei hier mit s bezeichnet. Man kann nun eine beliebige Schichtlage zr wählen, denn wegen des gleichmäßigen Tischvorschubes ist aus Sicht der Datenlage keine axiale Position bevorzugt. Für die gewählte Schicht gibt es zunächst nur einen einzigen Winkel γr, für den der Projektionsdatensatz pγ (ξ) vorliegt. Die Projektionsdaten pγ (ξ) aller anderen r Winkel müssen entsprechend interpoliert werden. Dabei geht man so vor, dass man die Daten, die unter den anderen benötigten Projektionswinkeln innerhalb der gewählten Schichtposition zr nicht gemessen wurden, aus den jeweils nächstliegend benachbarten, tatsächlich gemessenen Winkeln der Helixbahn interpoliert. Die Steighöhe der Helix s, bezogen auf die eingestellte Kollimatorbreite, definiert den so genannten Pitch als Parameter des Spiralverfahrens.
werden, ergeben sich konsequenter Weise Inkonsistenzen zwischen den Projektionen.
18.4.4 Artefakte
Bewegungsartefakte. Bisher wurde immer davon ausgegangen, dass sich die Morphologie innerhalb der zu rekonstruierenden Schicht während der Datenakquisition nicht ändert. Muss man aber die zeitliche Veränderung des Schwächungskoeffizienten ebenfalls berücksichtigen, so ergibt sich das Problem der Rekonstruktion bei sich ändernder Datengrundlage. Die gemessenen Daten beim Umlauf des Abtastsystems um den Patienten sind damit inkonsistent. Ziel der heutigen Entwicklung von Computertomographen, gerade in Bezug auf die Zeitkonstanten bei anatomischen bzw. physiologischen Bewegungen, ist die Beschleunigung der Datenakquisition.
Artefakte sind Bildfehler, die durch die Art der Rekonstruktion – das ist heute in der Praxis die gefilterte Rückprojektion – oder durch den Einsatz spezieller Technologien oder Anordnungen bei der Messwerterfassung entstehen. Die Kenntnis der Ursachen von Artefakten ist die Voraussetzung für Gegenmaßnahmen. Diese Gegenmaßnahmen sind umso wichtiger, da es in der Natur der gefilterten Rückprojektion liegt, Artefakte über das gesamte Bild zu verschmieren und so den diagnostischen Wert des gesamten Bildes zu reduzieren oder ganz zu vernichten. An dieser Stelle soll nur eine kurze Übersicht über potentiell auftretende Artefakte gegeben werden. Eine ausführliche Diskussion findet man bei Buzug 2004. Teil- oder Partialvolumenartefakte. Durch die endliche Detektorbreite werden Intensitätswerte über einen Raumwinkelbereich gemittelt. Insbesondere bei der Messung von Objektkanten kommt es dadurch zu Inkonsistenzen der Projektionsprofile zwischen den einzelnen Winkeln. Als Konsequenz funktioniert die empfindliche Kompensation der Rückverschmierung (so wie in ⊡ Abb. 18.6d illustriert) nicht mehr. Neben einer verschmierten Darstellung von Objekten werden Objektkanten über das Objekt hinaus verlängert. Diese Artefakte lassen sich nur durch ein feineres Detektorarray und durch dünnere Schichten verringern. Aufhärtungsartefakte. Die gefilterte Rückprojektion geht davon aus, dass monochromatische Röntgenstrahlung verwendet wird. Normale Röntgenröhren ( Abschn. 18.3.1) erzeugen aber polychromatisches Röntgenlicht. Da die Schwächungskoeffizienten der Materie wellenlängenabhängig sind, ergibt sich bei niederenergetischer Strahlung ein anderes Bild als bei hochenergetischer Strahlung. Da im Detektor die ankommenden Röntgenquanten unabhängig von ihrer Energie detektiert
Metallartefakte. Metalle in Form von Zahnfüllungen, wie Amalgam oder Gold, sowie Hüftprothesen aus Stahl absorbieren auch die hochenergetische Röntgenstrahlung stärker als das umliegende Gewebe und führen zu inkonsistenten Schwächungswerten. Im rekonstruierten Bild führt dies häufig zu dunklen Streifen zwischen den Metallobjekten und zu sternförmigen, von den Objekten ausgehenden Streifen, die das umliegende Gewebe überlagern und hierdurch die diagnostische Beurteilung erschweren. Zurückzuführen sind diese Probleme auf ein niedriges Signal-Rausch-Verhältnis im Bereich des Metallschattens, ein erhöhtes Verhältnis von Streustrahlung zu Primärstrahlung und auf Strahlaufhärtungsartefakte.
Abtastartefakte. Das Shannon’sche Abtasttheorem darf auch bei der Computertomographie nicht verletzt werden. Das gilt sowohl für die Rekonstruktion einer axialen Schicht als auch für die so genannte sekundäre Rekonstruktion von 3D-Datenansichten durch Schichtenstapelung ( Abschn. 18.5.3). Auch hier führt die Unterabtastung eines Signals zu den typischen Aliasing-Artefakten. Speziell für die verwendeten Detektorarrays mit rechteckigem Empfindlichkeitsprofil gibt es das inhärente Abtastproblem, dass die einzelnen Elemente eigentlich im halben Abstand ihrer eigenen Breite angeordnet sein müssten. Da diese Forderung aus nahe liegenden Gründen technisch nicht umsetzbar ist, behilft man sich mit eleganten technischen Tricks. Die heute realisierte Gegenmaßnahme gegen das Aliasing ist entweder die Detektorviertelverschiebung oder der so genannte Flying-Focus der Röntgenröhre. Elektronische Artefakte (Ringartefakte). Es gibt eine Reihe von elektronischen Defekten, die zur Verschlechterung, überwiegend sogar zur Unbrauchbarkeit des Bildes beitragen. Ein häufiger elektronischer Defekt ist ein Ausfall eines Detektorkanals. Diese Fehler sind bei Computertomographen der dritten Generation anzutreffen und werden Ringartefakte genannt. Durch die feste Verbindung zwischen Röntgenquelle und Detektorarray
18
328
II
Kapitel 18 · Computertomographie (CT)
macht sich der Ausfall eines einzelnen Detektorelementes spezifisch bemerkbar. Im Verlauf der gefilterten Rückprojektion bilden die Verbindungslinien zwischen dem betreffenden Detektorelement und der Röntgenquelle die Tangenten eines Kreises. Es entstehen nun für jeden Punkt jeder Linie Inkonsistenzen mit den Messwerten der jeweils anderen Projektionsrichtungen und deren korrespondierenden Detektoren. Streustrahlenartefakte. Während es für das Detektorelement, das im direkten Strahlengang liegt, im Prinzip egal sein kann, welcher physikalische Mechanismus der Wechselwirkung von Röntgenstrahlung mit Materie im Detail die Intensität verringert, können andere Detektorelemente, die außerhalb der direkten Verbindungslinie liegen, sehr wohl unter bestimmten Wechselwirkungen leiden. Besonders im Bereich stärker schwächender anatomischer Objekte wie z. B. Schulter, Bauch und Becken kann es zu Messwertverfälschungen durch Streustrahlung mit einem beträchtlichen Anteil am Gesamtsignal kommen. Während die Streustrahlung für alle Projektionswinkel in etwa gleich groß ist, gilt dies für das Nutzsignal nicht. In Projektionsrichtungen, in denen stark absorbierende Objekte hintereinander liegen, kann das Nutzsignal so schwach werden, dass die Streustrahlung das Signal dominiert. Bei der gefilterten Rückprojektion kommt es dann aus dieser Projektionsrichtung zu Inkonsistenzen, die zu streifenartigen Artefakten führen.
18.5
Bedienung und Anwendungen
In den nächsten Abschnitten werden einige wichtige Gesichtspunkte aus der Praxis der Computertomographie dargestellt. Dazu zählen sowohl die Aufnahmeplanung als auch die Datenaufbereitung und Datendarstellung. Bei den klinischen Anwendungen der Computertomographie ist die Planung der Aufnahmen besonders wichtig, denn aufgrund der systembedingten Strahlendosis, die im Patienten platziert wird, können Aufnahmen nicht beliebig wiederholt werden. Neben der Planung, also der Vorbereitung der Bildakquisition, ist auch die Kenntnis der Darstellungsformen, also der Nachverarbeitung sehr wichtig, denn aus den Bildern kann mit Hilfe moderner Visualisierungstechniken sehr viel an Information gewonnen werden.
Drehung der Abtasteinheit gestoppt und die Abtasteinheit in eine feste Position gebracht. Möglich ist im Prinzip jede Position, typische Positionen sind aber anterior-posterior (a.p.), das ist die Durchleuchtung von der Patientenvorderseite zur Patientenrückseite und lateral, das ist die seitliche Durchleuchtung. Während der Durchleuchtung wird der Patiententisch kontinuierlich durch das Messfeld geschoben. Beispielhafte Bildergebnisse für eine a.p. und eine laterale Übersichtsaufnahme sind in ⊡ Abb. 18.7a dargestellt. Mit Hilfe der a.p. Übersichtsaufnahme kann jetzt eine bestimmte Schichtebene, die Schichtdicke und die Anzahl der Schichten bzw. das Volumen geplant und programmiert werden. Bei der lateralen Übersichtsaufnahme ergibt sich zusätzlich die Möglichkeit, bestimmte Schichtorientierungen durch Verkippung der Gantry zu programmieren. Dies ist bei Schädel- und Wirbelsäulentomogrammen häufig gewünscht. ⊡ Abb. 18.7a zeigt die a.p. Übersichtsaufnahme eines Thorax. Typischerweise werden hier axiale Schichten in 8 bis 10 mm Dicke und Abstand gemessen. Bei Untersuchungen der Lendenwirbel ist eine der Orientierung der einzelnen Wirbelkörper angepasste Gantryverkippung zu planen. ⊡ Abb. 18.7a zeigt, dass es nur so gelingt, bspw. die Bandscheiben flächig abzubilden. ⊡ Abb. 18.7b,c zeigt zwei unterschiedliche Schädelorientierungen. Möchte man koronale Schädelaufnahmen akquirieren, so ist dies durch entsprechende Lagerung des Patienten möglich. In ⊡ Abb. 18.7b ist eine laterale Übersichtsaufnahme eines Patienten zu sehen. Der Patient ist auf dem Bauch gelagert und sein Kopf ist weit in den Nacken überstreckt. Diese Überstreckung ist erforderlich, da die Verkippungsmöglichkeit der Gantry beschränkt ist. Zwei tomographische Schichten sind jeweils rechts in ⊡ Abb. 18.7b,c zu sehen. Fragestellungen solcher Aufnahmen sind neben der Ausdehnung einer chronischen Sinusitis häufig auch die Beurteilung von Frakturen. In der Schicht 1 sind Artefakte durch Zahnfüllungen deutlich erkennbar. Die Schicht 2 zeigt einen Anschnitt der vorderen Schädelkalotte mit Spongiosa. In beiden Aufnahmen sind freie Nasennebenhöhlen zu erkennen.
Hounsfield-Skala und Grauwertedarstellung Bei der Computertomographie werden die rekonstruierten Schwächungswerte μ als Graustufen dargestellt. Dabei hat sich ein Vorschlag von Hounsfield durchgesetzt, die Schwächungswerte auf eine dimensionslose Skala zu transformieren und dabei auf Wasser zu beziehen. Die Definition dieser CT-Werte ist durch
18.5.1 Aufnahmeplanung
CT-Wert = Das wichtigste Element der Planung einer computertomographischen Aufnahme ist die so genannte Übersichtsaufnahme, die je nach Hersteller z. B. Topogram (Siemens), Scanogram (Philips) oder Scout View (General Electric) genannt wird. Um diese Aufnahme zu akquirieren, wird die
μ − μWasser 1000 μ
(18.1)
gegeben. Die Einheit dieser Werte wird zu Ehren Hounsfields
[CT-Wert ] = HU
(18.2)
18
329 18.5 · Bedienung und Anwendungen
Hounsfield-Einheit (Hounsfield Unit: HU) genannt. In dieser Skala erhält Luft den CT-Wert –1000 HU und Wasser den CT-Wert 0 HU. Die Skala ist im Prinzip nach oben hin offen, praktisch endet sie aber bei etwa 3000 HU. Der Wertebereich von insgesamt 4000 HU ist durch Bilder mit einer Graustufentiefe von 12 Bit gut zu erfassen. Diese Skalierung ist willkürlich hat aber praktische Konsequenzen. Da sich die Schwächungswerte fast aller Organe – ausgenommen Knochen – nur wenig von Wasser unterscheiden, ist durch Hounsfields Gleichung eine Abweichung in Promille von dem Schwächungswert von Wasser gegeben. Radiologen sind es gewohnt, die CT-Werte als absolute Werte zu sehen, die Organen eindeutig zuzuordnen sind. a
b
c
⊡ Abb. 18.7a–c. a Erstellung einer Übersichtsaufnahme zur Planung der Schichtebenenlage. Bei fester Röhren-Detektor-Position wird der Patiententisch kontinuierlich durch die Abtasteinheit geschoben. Man erhält so Projektionsbilder, wie sie vom Durchleuchtungsröntgen bekannt sind. Typisch sind zwei Geometrien: Lateral und anterior-posterior (a.p.). b,c Laterale Übersichtsaufnahmen zur Planung der Schichtlage bei Kopftomogrammen. Aufgrund der begrenzten Kippfähigkeit der Gantry muss der Patient für eine koronale Darstellung des Gesichtsschädels in Bauchlage den Kopf in den Nacken überstrecken: Schicht (1) und (2). Im Vergleich dazu axiale Aufnahmen ohne Verkippung der Gantry: Schicht (3) und (4)
Abweichungen dieser CT-Werte für bestimmte Organe stellen Pathologien dar. In Abschn. 18.4.4 wurde schon auf die Abhängigkeit der Röntgenschwächung von der Wellenlänge der Strahlung hingewiesen und die dadurch möglichen Artefakte besprochen. Dieses grundsätzliche Problem, das sich für alle in der diagnostischen Bildgebung verwendeten Tomographen ergibt, ist eine Konsequenz der Verwendung polychromatischer Röntgenstrahlung. Beim Durchlaufen des Körpers verändert sich die spektrale Verteilung der Strahlung, sodass eine eindeutige Zuordnung von Schwächungswerten eigentlich nicht möglich ist. Dennoch ist die Sicht der Radiologen weitestgehend gerechtfertigt, da sich die meisten Organe strahlenphysikalisch wie Wasser verhalten, sodass durch eine Kalibrationsmessung, die mit Wasser durchgeführt wird, für diese Gruppe eine Aufhärtungskorrektur möglich ist. Man kann die gesamte Hounsfieldskala in diagnostisch relevante Bereiche unterteilen. In ⊡ Abb. 18.8a ist das Histogramm der relativen Häufigkeiten der CT-Werte für ein Abdomenschichtbild gegeben. Deutlich sichtbar sind die Häufungen bei Luft, der Schaumstoff-Patientenauflage sowie bei Fett und den Organen. Im Fenster für die so genannten parenchymatösen Organe ist es so, dass sich viele Organe in sich überlappenden CT-Wertebereichen abbilden. Das macht die Diagnostik nicht leicht, sodass in der klinischen Praxis auch Texturen von Organen wichtig sind. Für das menschliche Auge ist der gesamte Dynamikbereich von –1000 HU bis 3000 HU in 4000 Stufungen nicht auflösbar. Deswegen werden auf den Sichtgeräten z. B. nur Grauwertdiskretisierungen in 256 Stufen eingestellt. Tatsächlich kann der Mensch je nach Helligkeit im Auswerteraum zwischen 20 und 50 verschiedene Grauwerte unterscheiden. Will man Unterschiede zwischen Organen erkennen, die in Bezug auf ihre Abschwächung sehr ähnlich sind, so muss die Hounsfieldskala auf den wahrnehmbaren Grauwertebereich geeignet abgebildet werden. Hierzu verwendet man die stückweise gerade Funktion
WW °0 für CT-Werte ≤ WL − 2 ° WW · ° § G = 255 ⋅ ®WW −1 ¨ CT-Wert − WL + ¸ 2 ¹ © ° ° WW °1 für CT-Werte ≥ WL + ¯ 2
(18.3)
Dabei sind durch WW die Fensterbreite (Window Width) und durch WL die Fenstermitte (Window Level) gegeben. ⊡ Abb. 18.8b,c zeigt die jeweilige stückweise lineare Funktion für ein Knochenfenster (WL=+300 HU, WW=1500 HU) und ein Weichteilfenster (WL=+50 HU, WW=350 HU) sowie die Auswirkungen auf die Darstellung für ein abdominales Tomogramm. Nur im Knochenfenster (⊡ Abb. 18.8b) sind Dichteunterschiede im Wirbelfortsatz zu erkennen, jedoch ist aufgrund der großen
330
Kapitel 18 · Computertomographie (CT)
Viewing-Station stellt eine Vielzahl von Organfenstern als voreingestellte Parametersätze zur Verfügung.
18.5.2 Dreidimensionale Datenvisualisierung
II
⊡ Abb.18.8a–c. Schwächungswerte der Gewebetypen in Hounsfieldeinheiten. Die Wertebereiche sind aus E. Krestel (Krestel 1990) und M. Hofer (Hofer 2000) zusammengestellt. Prinzip der Fensterung: a Die Hounsfieldwerte (HU), die im Bereich von –1000 HU bis 3000 HU liegen, sind in ihrer vollen Breite vom menschlichen Auge nicht unterscheidbar. Daher müssen die anatomisch jeweils interessanten Hounsfieldbereiche auf einen unterscheidbaren Grauwertebereich abgebildet werden. Unten rechts sieht man die Kennlinie für zwei anatomische Fenster. Darüber sieht man das Ergebnis b des Knochen- (WL=+300 HU, WW=1500 HU) und c des Weichteilfensters (WL=+50 HU, WW=350 HU)
Breite des Fensters keine Differenzierung des Weichteilgewebes möglich. Beim Weichteilfenster (⊡ Abb. 18.8c) sind Organe wie Leber und Nieren sehr gut zu unterscheiden, allerdings werden in diesem relativ schmalen Fenster alle CT-Werte oberhalb von +225 HU undifferenziert weiß dargestellt. Bei diesen Thoraxaufnahmen hat man die besondere Schwierigkeit, dass Lungengewebe, Weichteile und Knochen diagnostisch interessant sein können. Für diese Klassifikation der Bereiche haben sich drei Fenster als praktisch erwiesen. Zu den oben schon genannten Weichteil- und Knochenfenstern kommt hier das so genannte Lungenbzw. Pleurafenster (WL=–200 HU, WW=2000 HU) hinzu, in dem Lungengewebe geringerer Dichte ebenfalls differenzierbar wird. Die Auswertesoftware an der klinischen
In den vorangegangenen Abschnitten wurde nur von zweidimensionalen Bildern gesprochen. Mit der Computertomographie – ⊡ Abb. 18.1 zeigt das ganz eindrucksvoll – verbindet man aber in der Medizin vor allem die dreidimensionale Bildgebung. Hierbei wird so vorgegangen, dass aus dem Bilderstapel, der zunächst immer aus einer Abfolge von axialen Schichtbildern besteht, andere Schichtangulationen oder direkt die dreidimensionale Darstellung der Anatomie errechnet wird. Man spricht hierbei von sekundärer Rekonstruktion. Wenn die Schichtabfolge so gewählt wurde, dass in axialer Richtung die räumliche Auflösung in derselben Größenordnung liegt wie innerhalb der Schicht, dann lassen sich durch Interpolation beliebig geneigte Ebenen durch das Volumen berechnen. Dieses Verfahren nennt man multiplanares Reformatieren (MPR). Typischerweise stellt man zunächst die drei Hauptrichtungen nebeneinander dar: axial, sagittal und koronal. In ⊡ Abb. 18.9e ( 4-Farbteil am Buchende) ist die koronale Reformatierung einer Abdomenaufnahme zu sehen. Neben der MPR-Technik wird das Verfahren der Maximum-Intensity-Projection (MIP) speziell bei angiographischen Fragestellungen angewendet. Hierbei wird entlang einer virtuellen Sichtlinie nach dem höchsten Wert im CT-Volumen gesucht und dieser dann dargestellt. In ⊡ Abb. 18.9a ist eine computertomographische Angiographie (CTA) mit MIP visualisiert. Dieses Verfahren lässt sich einfach variieren, indem z. B. nach minimalen Werten gesucht wird oder die Summe aller Werte entlang der Sichtlinie gebildet und dann dargestellt wird. Zwei ganz unterschiedliche Ansätze zur 3D-Visualisierung sind das Volumen- und das Oberflächen-Rendering. Beim Volumen-Rendering wird jedem räumlichen Pixel, dem so genannten Voxel (Volume x element in Erweiterung zu Picture x element), eine physikalische Lichtabsorption, Reflexion und Streuung zugeordnet. Im Computer beleuchtet man diesen »Datennebel« dann mit einer virtuellen Lichtquelle und berechnet den optischen Eindruck, den eine reale Wechselwirkung des Lichts mit diesem Nebel erzeugen würde. Ordnet man Knochen und Organen bzw. einem Kontrastmittel in den Gefäßen unterschiedliche optische Eigenschaften zu, so erhält man aufschlussreiche Darstellungen (vgl. ⊡ Abb. 18.9b–d), bei denen man mit spezieller Nachverarbeitung einzelne Organe in der Gesamtvisualisierung auch wieder unterdrücken kann. In ⊡ Abb. 18.9d ist die Elimination der Knochen mit einem Nachverarbeitungsschritt illustriert. Eine Alternative zum Volumen-Rendering ist das so genannte Oberflächen-Rendering. Die einzelnen Grautöne der Schichten im Datenstapel repräsentieren die Stärke
331 18.6 · Dosis
der physikalischen Schwächung des Röntgenstrahls. Im klinischen Umfeld wird aus Abweichungen zur normalen Verteilung dieser Werte auf pathologische Veränderungen des Patienten geschlossen. Bei der Visualisierung muss man nun entscheiden, ganz bestimmte Wertebereiche darzustellen und andere gezielt auszublenden. Entscheidet sich der Betrachter für einen konstanten Grauwert, so repräsentieren alle Raumpunkte mit diesem Wert eine so genannte Isofläche. Diese Isograuwertfläche wird dann mit Dreiecken graphisch nachgebildet (Triangulierung). Das Mosaik aus Dreiecken wird dann wieder mit dem oben beschriebenen Verfahren virtuell beleuchtet und dargestellt. Je größer die Anzahl der Mosaiksteine für die Nachbildung der Fläche gewählt ist, desto naturgetreuer ist das Ergebnis. Neben der Darstellung von Organ- oder Knochenoberflächen, die am Computer interaktiv gedreht werden können, sind auf diese Weise auch Innenansichten von Hohlorganen, Atemwegen und kontrastierten Gefäßen rekonstruierbar. Dadurch sind virtuelle Fahrten z. B. durch das Bronchialsystem oder durch den Darm möglich. In den ⊡ Abb. 18.9g–i ist die virtuelle Einsicht in den menschlichen Darm exemplarisch demonstriert. Der zentrale Gewinn der 3D-Diagnostik liegt in der Reduktion der Datenflut, die einer normalen Schicht-für-SchichtBefundung nicht mehr zugänglich ist.
18.5.3 Klinische Applikationen
In diesem Abschnitt soll zusammenfassend und nur beispielhaft auf die Fülle der klinischen Applikationen moderner CT-Bildgebung hingewiesen werden. In ⊡ Abb. 18.10 ( 4-Farbteil am Buchende) sind vier Anwendungen dargestellt. Speziell die Perfusionsmessungen geben der Computertomographie den Charakter einer funktionellen Bildgebungsmodalität. Hierbei wird der Blutfluss nach Kontrastmittelinjektion in verschiedenen Organen erfasst. Hirnperfusion. Die Hirndurchblutung (CBF), das Hirnblutvolumen (CBV), die mittlere Transitzeit (MTT) und die Peakzeit für das Bolusmaximum (TTP) können farblich auf die CT-Bilder gelegt werden, sodass man zur Beurteilung eines akuten oder chronischen Infarkts Farbkarten der Gewebevitalität erhält (⊡ Abb. 18.10a). Leberperfusion. Arterielle und portale Perfusionsmessungen bei Leberstudien. Tumorperfusionen. Charakterisierung von bekannten Läsionen anhand ihrer Perfusionen. Lungenmessungen. Diagnostik eines Lungenemphysems (⊡ Abb. 18.10b), automatische Detektion von Rundherden in der Lunge.
Kalzium-Scoring. Quantifizierung von Koronararterienverkalkung. Gefäßanalyse (CTA). Darstellung der Gefäße (⊡ Abb. 18.10c: Beispiel des Kopf-Hals-Bereichs), Analyse von Stenosen und Aneurismen, Planung von Stents. Kardio CT. Identifizierung und Quantifizierung von Gefäßstenosen sowie Planung von Stents und Darstellung von implantierten Stents (⊡ Abb. 18.10d). Dies wird durch EKG-getriggerte Bildgebung möglich. Virtuelle Endoskopie. 3D CT-Daten als Grundlage für anatomische Innenansichten von Hohlorganen (⊡ Abb. 18.9i) und kontrastierten Gefäßen. Trauma. Schnelle Bildgebung des gesamten Körpers in der Unfalldiagnostik (⊡ Abb. 18.1a) Dentalplanung. Panorama und Querschnitte des Oberund Unterkiefers zur Unterstützung des Kieferchirurgen bei der Planung von Prothesenimplantaten. Bestrahlungsplanung. 3D CT-Daten als Grundlage für die Dosisplanung bei der Bestrahlung von Tumoren. Bildgeführte Chirurgie. 3D CT-Daten als Grundlage für die Planung chirurgischer Eingriffe und für die intraoperative Navigation. Interventionelle Bildgebung. Darstellung der Instrumentenspitze während einer Biopsie. Dies wird durch die sehr schnelle Bildgebung und die Multi-Zeilen-Detektoren erleichtert.
18.6
Dosis
In der Anfangszeit der Computertomographie war der Enthusiasmus aufgrund der erzielbaren Kontraste grenzenlos, sodass man sich erst zweitrangig Gedanken um die applizierte Dosis machte. Aus der Anzahl der installierten Geräte in Deutschland und einer durchschnittlichen Anzahl von 3500 Untersuchungen pro Jahr lässt sich abschätzen, dass heute einige hundert Millionen Schnitte pro Jahr gemessen werden. Das liegt in derselben Größenordnung wie die Summe aller anderen projektionsradiographischen Aufnahmen (Nagel 2002). Wenn man sich das Spektrum der verschiedenen Röntgenuntersuchungen anschaut, dann fällt folgende Diskrepanz auf. Während die Computertomographie nur etwa 4% aller röntgenbasierten Untersuchungen ausmacht, ist ihr prozentualer Anteil an der kollektiven effektiven Dosis ungefähr 35%. Damit leistet CT den größten Beitrag zur medizinisch bedingten Strahlenexposition. Die neuen Gerätegenera-
18
332
II
Kapitel 18 · Computertomographie (CT)
tionen, wie die Spiral-Multizeilen-CT verringern die applizierte Dosis nicht. Eher ist zu erwarten, dass aufgrund der längeren Strecken und dünneren Schichten, die heute sehr schnell und problemlos gemessen werden können, die Dosis für die einzelne Untersuchung steigen wird (Nagel 2002). Ausgelöst durch Berichte über unnötig hohe Strahlenexposition bei pädiatrischen CT-Untersuchungen (Sternberg 2000), die mit denselben Scanprotokollen wie bei Erwachsenen vorgenommen wurden, ist heute bei allen Herstellern und Anwendern eine hohe Sensibilität in Bezug auf die applizierte Dosis erkennbar. ⊡ Abb. 18.11a zeigt, dass man über den Röhrenstrom sehr einfach zwischen dickeren und dünneren Patienten bzw. Erwachsenen und Kindern die Dosis anpassen kann (Belichtungsautomatik). Den Zusammenhang zwischen der Dosis mit dem gerade noch wahrnehmbaren Kontrast einer Lochreihe eines Messphantoms stellt die so genannte Niedrigkontrastauflösung her (Morneburg 1995). Danach besteht zwischen der Dosis D und dem gerade noch erkennbaren
⊡ Abb. 18.11a–e. Aktive Verfahren zur Dosisreduktion (Nagel 2002). a Belichtungsautomatik, b longitudinale Dosismodulation, c zirkulare Dosismodulation, d zeitliche Dosismodulation, e Dosisvariation bei Kombination aus longitudinaler und zirkularer Dosismodulation bei kontinuierlichem Tischvorschub
Kontrast Kd die Proportionalität Kd ∝ D -1/2, wobei d den Durchmesser einzelner Löcher der Lochreihe eines Phantoms kennzeichnet. Intelligente Scanner bedienen sich dieses Zusammenhangs so, dass der Anodenstrom dem jeweiligen anatomischen Bereich dynamisch angepasst wird. ⊡ Abb. 18.11 zeigt dieses Konzept schematisch. In ⊡ Abb. 18.11b ist die dynamische Anpassung des Röhrenstroms, bzw. der Dosis an die anatomische Situation entlang der axialen z-Achse dargestellt (longitudinale Dosismodulation). In anatomischen Bereichen, in denen eine kleine Schwächung der Röntgenintensität zu erwarten ist – wie z. B. im Bereich der Lunge – kann der Röhrenstrom und damit die Dosis herab gesetzt werden, ohne dass es zu einer Verschlechterung der Bildqualität kommt. Fährt man dagegen alle Bereiche mit demselben Röhrenstrom, so ergeben sich entweder zu hohe Dosen oder zu starke Rauschpegel. ⊡ Abb. 18.11c zeigt die dynamische Anpassung des Röhrenstroms über den Projektionswinkel γ (zirkulare Dosismodulation). Bei allen Körperschnitten, die eher
333 18.6 · Dosis
oval als kreisförmig sind, kommt die zirkulare Dosismodulation zum Tragen. Speziell bei Aufnahmen der Schulter ist eine starke Modulation angebracht. In ⊡ Abb. 18.11d ist eine Triggersequenz für eine EKG-gesteuerte Aufnahme des Herzens zu sehen. Da die Daten nur innerhalb der Ruhephase des schlagenden Herzens akquiriert werden, kann die Gesamtdosis leicht reduziert werden, wenn der Röhrenstrom außerhalb des Datenfensters abgeschaltet wird (zeitliche Dosismodulation). ⊡ Abb. 18.11e zeigt den Effekt der Kombination von longitudinaler und zirkularer Dosismodulation auf die Dosis entlang der axialen Patientenrichtung bei kontinuierlichem Patiententischvorschub. Neben den geräteseitigen Maßnahmen zur Reduktion der Strahlenexposition, für die die Hersteller Verantwortung tragen, gibt es eine Reihe von anwenderseitigen Maßnahmen, die die applizierte Dosis beeinflussen. Im Folgenden sind die im Scanprotokoll einstellbaren Größen und ihr Zusammenhang mit der Dosis zusammengestellt. Für eine ausführliche Diskussion der Strahlenexposition in der Computertomographie sei auf das Buch von Nagel, 2000 verwiesen. Strom-Zeit-Produkt (mAs-Produkt). Dosis und mAsProdukt, also das Produkt aus Röhrenstrom und Abtastzeit (bzw. Strahlzeit der Röntgenröhre), besitzen eine lineare Abhängigkeit. Die Standardabweichung, die das Bildrauschen beschreibt, vergrößert sich allerdings umgekehrt proportional zur Wurzel aus dem Strom-ZeitProdukt. Abtastzeit. Bei konstantem Röhrenstrom wächst die Dosis linear mit der Abtastzeit. Allerdings ist immer das mAs-Produkt insgesamt zu betrachten, sodass man bei gleicher Dosis die Abtastzeit herabsetzen kann bei gleichzeitiger Steigerung des Röhrenstroms. Das Bildrauschen bleibt dadurch unverändert, allerdings sinkt bei kurzen Abtastzeiten die Gefahr von Bewegungsartefakten ( Abschn. 18.4.4). Röhrenspannung. Bei Erhöhung der Röhrenspannung UB ( Abschn. 18.3.1) wachsen der Wirkungsgrad der Röntgenröhre und die Durchdringungsfähigkeit der Strahlung. Die Intensität der Strahlung nimmt mit UB im Mittel mit der 3,5-ten Potenz zu. Mit einer erhöhten Durchdringungsfähigkeit der Strahlung nimmt der Bildkontrast natürlich ab, allerdings wird dies durch die bessere Quantenstatistik mehr als kompensiert, sodass die Bildgüte insgesamt wächst – natürlich auf Kosten einer Dosissteigerung für den Patienten. Will man z. B. eine Spannungserhöhung von UB=120 kV auf 140 kV nutzen, um die Dosis bei gleich bleibender Bildqualität zu verringern, so muss das mAs-Produkt um 40% erniedrigt werden. Dadurch erzielt man insgesamt eine Dosisreduktion von etwa 15% (Nagel 2000).
Objektdicke. Bei Kindern und bei schlanken Patienten ist darauf zu achten, dass ein kleineres mAs-Produkt eingestellt wird. Wegen der geringeren Schwächung ist die Statistik der Röntgenquanten immer noch so gut wie bei Erwachsenen oder dickeren Patienten, sodass die Bildqualität nicht leidet. Bei sehr dicken Patienten ist die Erhöhung der Röhrenspannung gegenüber einer Erhöhung des mAs-Produkts vorzuziehen, da hierbei die Strahlenexposition weniger stark zunimmt. Schichtdicke. Die Schichtdicke, die durch einen röhrenseitigen Kollimator typischer Weise zwischen 1 mm und 10 mm eingestellt werden kann, beeinflusst die Dosis dann nicht, wenn derselbe Körperabschnitt gemessen werden soll. Der Vorteil einer feineren Schichtfolge ist das Verringern von Teil- oder Partialvolumenartefakten sowie von Stufen bei koronaler oder sagittaler Reformatierung des Bildes. Der Nachteil ist, dass bei einer feineren Kollimation eben auch weniger Röntgenquanten den Detektor erreichen und somit das Bildrauschen steigt. Will man die Bildqualität konstant halten, so muss das mAs-Produkt – und damit die Dosis – umgekehrt proportional zur Schichtdicke steigen. Pitchfaktor. Ein Pitchfaktor von p=1 bedeutet, dass sich der Tisch in einer vollen Umdrehung der Abtasteinheit um eine Schichtdicke fortbewegt ( Abschn. 18.4.3). Wählt man p<1, so misst man mit stärkerer Überlappung, sodass die Bildqualität besser wird, dies jedoch auf Kosten einer erhöhten Dosis. Mit p>1 kann man die Dosis also verringern. Theoretisch sollte bis zu einem Pitch von p=2 eine artefaktfreie Bildrekonstruktion möglich sein. Bei einer dadurch vergrößerten Scanlänge und gleichem mAs-Produkt sind aber weniger Röntgenquanten für den Bildgebungsprozess eines größeren Körperabschnittes verwendet worden, sodass das Bildrauschen zunimmt. Scanlänge. Bei Vergrößerung des zu vermessenden Körperabschnittes vergrößert sich die Dosis für den Patienten entsprechend. Dies wird durch die effektive Dosis oder das Dosis-Längen-Produkt ausgedrückt. Die Anzahl der Schichten ist vom Anwender immer auf den diagnostisch notwendigen Ausschnitt zu beschränken, der mit der Planungsübersicht ( Abschn. 18.5.1) festzulegen ist. Filterkern. Die Wahl des Filterkerns hat zunächst keinen unmittelbaren Einfluss auf die Dosis. Wie allerdings in Abschn. 18.4.2 beschrieben wurde, beeinflusst die Wahl des Hochpassfilters bei der gefilterten Rückprojektion das Erscheinungsbild der CT-Rekonstruktion als Kompromiss zwischen Rauschen und Ortsauflösung. Will man bei einer hohen Ortsauflösung das Rauschen also verringern, so geht das nur auf Kosten einer Dosiserhöhung. Insofern hängt es immer von der diagnostischen Fragestellung ab,
18
334
Kapitel 18 · Computertomographie (CT)
ob eine geschickte Wahl des Filters zur Dosisreduktion genutzt werden kann.
II
Fensterweite. Die zur Darstellung der CT-Bilder verwendete Fensterbreite (vgl. Abschn. 18.5.2 »Window Width«) hat zunächst keinen direkten Einfluss auf die Dosis. Je höher man jedoch den Kontrast durch Einengung des Fensters wählt, desto stärker wird auch das Rauschen in den Bildern sichtbar. Umgekehrt kann durch Vergrößerung der Fensterweite das Bild geglättet werden. Wenn man aufgrund der diagnostischen Fragestellung genug Kontrastreserven besitzt, kann man die Glättung bei der Visualisierung schon bei der Aufnahmeplanung zur Erniedrigung des mAs-Produkts und damit der Strahlenexposition verwenden.
sehr kleine Strukturen im μm-Bereich untersuchen, so ist die räumliche Auflösung der klinischen CTs nicht ausreichend. Hierfür wurden spezielle Mikro-CTs entwickelt ( Abschn. 18.7.3). Da die Nuklearbildgebung in der Lage ist, den Metabolismus des Körpers abzubilden, CT dazu gewissermaßen komplementär nur die Morphologie abbildet, ist eine konsequente Weiterentwicklung die Kombination beider Geräte in so genannten PET-CT-Scannern, die in Abschn. 18.7.4 kurz beschrieben werden. Zuletzt wird in Abschn. 18.7.5 eine Systemerweiterung auf zwei Abtastsysteme, bestehend jeweils aus einer Röntgenröhre und einem Detektor unter einem Winkel von 90° zueinander, beschrieben, die eine Halbierung der Abtastzeit erzielt.
18.7.1 Elektronenstrahl-CT (EBCT)
Field-of-View (FOV). Verwendet man ein sehr kleines FOV, d. h. eine sehr starke Detailvergrößerung, so ist i. d. R. auch ein sehr scharfes Rekonstruktionsfilter zu verwenden, denn die Ausschnittsvergrößerung wird ja nur deswegen gewählt, weil man ein örtlich detailreicheres Bild analysieren möchte. Das hat unmittelbar Konsequenzen auf das Bildrauschen, das nur mit einer Erhöhung des mAs-Produkts und damit der Dosis wieder verringert werden könnte. Zuletzt sei in diesem Kapitel noch darauf hingewiesen, dass die Entwicklung zu immer kleineren Detektorelementen ebenfalls Konsequenzen in Bezug auf die Dosis hat. Man kann nämlich zeigen, dass bei gleich bleibendem Signal-Rausch-Verhältnis die Dosis mit der vierten Potenz steigt, sobald die Detektorelementgröße verringert wird (Buzug 2004). Das setzt dem Wunsch nach weiterer Verkleinerung der Detektorelemente natürlich eine Grenze, da die Dosis nicht beliebig gesteigert werden darf.
18.7
Spezielle Systeme
Für bestimmte Anwendungen wurden in den letzten Jahrzehnten immer wieder spezielle Systeme entwickelt, von denen hier vier in einer kleinen Übersicht kurz beschrieben werden. Für die Abbildung des Herzens bspw. ergibt sich mit den bisher vorgestellten Verfahren sehr schnell das Problem der Bewegungsartefakte ( Abschn. 18.4.4). Bei den CT-Systemen der 3. Generation ist man daher auf eine EKG-getriggerte Datenakquisition angewiesen, denn bezogen auf die Zeitkonstante der Herzbewegung sind auch moderne Subsekundenscanner ohne EKG-Triggerung zu langsam. Speziell für die Herzbildgebung wurde daher das Elektronenstrahl-CT entwickelt, das in Abschn. 18.7.1 vorgestellt wird. Daneben wird das Volumen- oder Kegelstrahl-CT, eine konsequente Weiterentwicklung des Multizeilen-CT vorgestellt ( Abschn. 18.7.2). Will man
Wenn man zu sehr kurzen Datenakquisitionszeiten kommen möchte, dann muss man das Konzept der sich bewegenden Systeme, wie sie in Abschn. 18.2 beschrieben wurden, vollständig verlassen. Einen Ansatz dazu bietet die so genannte Elektronenstrahl-Computertomographie (Electron Beam Computerized Tomography EBCT). Diese Form der Computertomographie wurde speziell für Aufnahmen des Herzens entwickelt. Eine lokalisierte Röntgenröhre, die sich um den Patienten dreht, gibt es hier nicht mehr. Vielmehr befindet sich der Patient gewissermaßen innerhalb der Röntgenröhre. Ein Elektronenstrahl wird auf kreisförmig um den Patienten angeordnete Wolframtargetringe fokussiert und erzeugt beim Aufprall auf das Wolfram den gewünschten Röntgenstrahlfächer. Die Röntgenstrahlung wird dann mit einem fest stehenden Detektorring gemessen. Solche Systeme wurden von der Firma Imatron überwiegend an Kardiologien verkauft. Das Elektronenstrahlverfahren ist in der Lage, Schichten in 50 msec zu akquirieren. ⊡ Abb. 18.12a zeigt die Skizze eines EBCT-Systems sowie die Abbildung eines modernen Imatronsystems. Weitere technische Details findet man z. B. bei G. Weisser (Weisser 2000).
18.7.2 Volume-CT
Eine einheitliche Begriffsbildung hat bei den CT-Entwicklungsstufen bisher nicht statt gefunden. Bei J. T. Bushberg (Bushberg et al. 2002) werden Geräte mit kegelförmigem Röntgenstrahl und flächigem Detektor mit der siebten Generation bezeichnet. Aber selbst innerhalb der Kegelstrahltypen muss eigentlich noch unterschieden werden, ob nur eine kleine Kegelöffnung verwendet wird, sodass man nur von einem schmalen Multischicht- bzw. Multizeilensystem (MSCT) spricht oder ob tatsächlich ein symmetrischer Röntgenkegel genutzt wird. Die zu verwendenden Rekonstruktionsverfahren unterscheiden sich nämlich erheblich.
335 18.7 · Spezielle Systeme
⊡ Abb.18.12a–d. a Elektronenstrahl-CT, b Volumen- oder Kegelstrahl-CT, c PET-CT und d Dual-Source CT
Zur Motivation dieses Entwicklungsschrittes sei daran erinnert, dass der Schritt vom Nadelstrahl- zum Fächerkonzept ( Abschn. 18.2.2) neben der Verkürzung der Messzeiten den weiteren Vorteil besitzt, dass die erzeugte Röntgenstrahlung sehr viel effektiver ausgenutzt wird. In Abschn. 18.3.1 wurde erwähnt, dass die Effizienz der Energieumwandlung bei der Erzeugung von Röntgenstrahlung bei nur etwa 1% liegt. Da die produzierte Wärme in den Röntgenröhren ganz wesentlich die physikalische Belastbarkeit definiert und damit die Messzeit beschränkt, beinhaltet ein konsequenter Schritt in der Entwicklung von Computertomographen die bessere Nutzung des ohnehin vorhandenen kegelförmigen Röntgenstrahls. Die Nadelstrahl- und die Fächerstrahlgeometrie wurde ja nur durch geeignete Kollimatoren erzeugt, die den vorhandenen natürlichen Röntgenkegel einengen. Technologisch gibt es drei wichtige Probleme, die für eine erfolgreiche Verwendung der Kegelstrahlgeometrie gelöst werden mussten. Erstens musste auf der Detektorseite des Tomographen ein Flächendetektor eingesetzt werden, den es noch nicht sehr lange gibt. Zweitens musste die enorme Rohdatenmenge, die insbesondere bei Subsekundenscannern in sehr kurzer Zeit entsteht, von dem sich drehenden Abtastsystem nach außen zum Bildrekonstruktionsrechner übertragen werden. Die benötigte Bandbreite für diesen Datentransfer ist auch heute noch eine Herausforderung. Und drittens steht man vor dem eigentlichen Rekonstruktionsproblem, dessen Mathematik gegenüber den zweidimensionalen Verfahren etwas verwickelter ist. ⊡ Abb. 18.12b zeigt einen Prototypen eines Kegelstrahltomographen in den GE Laboratorien.
18.7.3 Mikro-CT
Seit einiger Zeit sind so genannte Mikro-CT s kommerziell erhältlich, die im Wesentlichen einer miniaturisierten Form des Volumen- oder Kegelstrahl-CTs des vorhergehenden Abschn. 18.7.2 entsprechen und zur zerstörungsfreien, dreidimensionalen Mikroskopie genutzt werden. Das durchstrahlte Messfeld ist mit typischerweise 2 cm3 so klein, dass medizinische Anwendungen auszuscheiden scheinen. Tatsächlich werden diese Geräte eher in der Materialprüfung und -analyse verwendet, aber auch medizinische Anwendungen rücken zunehmend in das Zentrum des Interesses. Humanmedizinische Fragestellungen sind z. B. Untersuchungen der Trabekularstruktur von Knochen. Mikro-CTs sind darüber hinaus ideale Geräte, um radiologische Diagnostik an Kleintieren zu betreiben. Mikro-CTs sind häufig als Tischgerät ausgelegt und besitzen eine Messkammer, die mit Bleiwänden gegen nach außen dringende Röntgenstrahlung vollständig abgeschirmt ist, sodass keine weiteren Schutzmaßnahmen ergriffen werden müssen. Das zu untersuchende Objekt wird auf einem Drehteller platziert, der von einem Schrittmotor gesteuert wird. Die beiden entscheidenden Komponenten von Mikro-CTs sind die Röntgenröhre und das Detektorarray. Hierbei sind es speziell die Fokusgröße und die Größe der Detektorelemente, die neben der mechanischen Genauigkeit der Drehbewegung das Auflösungsvermögen bestimmen. Dabei sind Röntgenfokusgrößen unterhalb von 10 μm wünschenswert. Natürlich kann bei einer so kleinen Elektronentargetfläche der Anodenstrom nicht sehr groß gewählt werden. Hier sind Ströme von
18
336
II
Kapitel 18 · Computertomographie (CT)
I<100 μA typisch. Da der Strom die Intensität des Röntgenspektrums steuert, unterliegt man in Bezug auf die zu untersuchenden Materialien natürlich gewissen Einschränkungen. Als Detektor wird häufig ein gekühlter 12 Bit Röntgen-CCD-Chip mit einer Pixelmatrix von 1024×1024 genutzt, der über eine Fiberoptik an einen Szintillationskristall angekoppelt ist. Die Größe der Bildelemente liegt ebenfalls in der Größenordnung von etwa 10 μm. Die Firma SkyScan gibt ein Auflösungsvermögen von insgesamt etwa 10 μm an. Da es sich bei Mikro-CTs um Kegelstrahlröntgensysteme handelt, sind dreidimensionale Rekonstruktionsverfahren erforderlich, um die Bilder zu berechnen.
18.7.4 PET-CT
Wenn man von Kontrastmitteltechniken absieht, dann vermag die Computertomographie allein nur morphologische Informationen, also Informationen über die Form der Objekte zu liefern. Andererseits liefert die PositronenEmissions-Tomographie (PET) Informationen über den Metabolismus, also die Funktion bzw. den Stoffwechsel (Ruhlmann et al. 1998). Da die Computertomographie auf der Absorption von Röntgenstrahlung beruht, können sich unterschiedliche Organe mit unterschiedlichen Absorptionseigenschaften nur der Form nach abbilden. Der Patient bleibt in diesem Verfahren passiv. Bei der Positronen-Emissions-Tomographie wird dem Patienten ein radioaktiv markierter so genannter Tracer gespritzt, der im Körper verstoffwechselt wird. Ein interessanter Ansatz in der bildgebenden Diagnostik ist die Kombination beider Verfahren. Die Idee, neben der Form auch die Funktion in einem Bild darzustellen, wird schon länger mit Methoden der so genannten Registrierung verfolgt. Dabei wird der Patient nacheinander mit verschiedenen Geräten gescannt. Aufgrund der unterschiedlichen Lagerung des Patienten, ist aber immer die Registrierung als Bildverarbeitungsschritt erforderlich. Außerdem vergeht eine gewisse Zeit zwischen den beiden Aufnahmen. In PET-CT-Kombinationsgeräten werden PET- und CT-Bilder praktisch simultan in gleicher Patientenlage gemessen, sodass die Lage eines Tumors im Verhältnis zur übrigen Anatomie unmittelbar dargestellt werden kann (⊡ Abb. 18.12c).
18.7.5 Dual-Source CT
Der Dual-Source Computertomograph ist eine pragmatische Umsetzung einer nahe liegenden Idee. Wenn man zwei komplette Abtastsysteme, bestehend jeweils aus Röntgenröhre und Detektor, im Winkel von 90° zueinander auf der sich drehenden Abtasteinheit integriert, kann die Abtastzeit um den Faktor zwei verkürzt wer-
den. ⊡ Abb. 18.12d zeigt die Realisierung dieser Idee im Siemens SOMATON Definition. Damit eignet sich das Gerät ganz besonders zur Bildgebung am Herzen. Das Gerät besitzt eine Gantryöffnung von 78 cm und einen Scanbereich von 200 cm. Hinsichtlich der Dosis ( Abschn. 18.6) wäre unter normalen Umständen eine Verdopplung der Strahlenexposition zu erwarten. In dem abgebildeten Gerät ist die zeitliche Dosismodulation (vgl. ⊡ Abb. 18.11d) aber optimal umgesetzt, sodass die Röhren tatsächlich nur in den diastolischen Phasen des Herzens strahlen und der Scan darüber hinaus natürlich nur die Hälfte der Zeit in Anspruch nimmt, die normale Scanner mit nur einem Abtastsystem benötigen. Damit ist die Strahlenbelastung effektiv geringer als bei Einzelröhrensystemen ohne zeitliche Dosismodulation. Dieses Konzept lädt dazu ein, auch die Dual-EnergyBildgebung bei CT näher zu betrachten. Werden die beiden Röntgenröhren nämlich mit unterschiedlicher Beschleunigungsspannung betrieben, so unterscheidet sich die spektrale Verteilung der Röntgenstrahlung etwas. Da die Schwächungskoeffizienten abhängig von der Wellenlänge sind, ergeben sich etwas unterschiedliche Bildinhalte, die z. B. unter Subtraktion die Diagnostik potentiell unterstützen. Allerdings müsste man bei solchen Verfahren eine entsprechend erhöhte Dosis beachten.
18.8
Dank
Ich möchte den Firmen Philips, Siemens und General Electric ganz herzlich für die Unterstützung durch Bildmaterial danken. Ganz besonders möchte ich Frau Annette Halstrick und Herrn Dr. Hans-Dieter Nagel, Philips Medizin Systeme, Hamburg sowie Herrn Leon de Vries, Philips Medical Systems, Best danken. Weiterhin gilt mein Dank Frau Doris Pischitz und Herrn Jürgen Greim, Siemens Medical Solutions, Forchheim sowie Herrn Dieter Keidel und Herrn Jan Liedtke, General Electric, Solingen.
Literatur Brunst G (2002) High Resolution Digital Flat Panel Detectors for X-Ray Applications – Basics. In: Niederlag W, Lemke HU (eds) Medical Imaging. Health Academy 2: 63 Bushberg JT, Seibert JA, Leidholdt EM, Boone JM (2002) The Essential Physics of Medical Imaging. Lippincott, Williams & Wilkins, Philadelphia Buzug TM (2004) Einführung in die Computertomographie. SpringerVerlag, Heidelberg Härer W, Lauritsch G, Mertelmeier T, Wiesent K (1999) Rekonstruktive Röngenbildgebung. Physikalische Blätter 55: 37 Härer W, Lauritsch G, Mertelmeier T (2003) Tomographie – Prinzip und Potential der Schichtbildverfahren. In: Schmidt Th (Hrsg) Handbuch diagnostische Radiologie. Springer-Verlag, Heidelberg
337 Literatur
Heinzerling J (1988) Röntgenstrahler. In: Ewen K (Hrsg) Moderne Bildgebung. Thieme Verlag, Stuttgart, 77 Hofer M (2000) CT-Kursbuch. Matthias Hofer Verlag, Düsseldorf Hsieh J (2003) Computed Tomography. SPIE Press, Bellingham Kalender WA (2000) Computertomographie. Publicis MCD Verlag, München Kalender WA, Seissler W, Vock P (1989) Single-Breath-Hold Spiral Volumetric CT by Continuouspatient Translation and Scanner Rotation. Radiology 173: 414 Krestel E (Hrsg) (1990) Imaging Systems for Medical Diagnostics. Siemens Aktiengesellschaft, Berlin Morneburg H (Hrsg) (1995) Bildgebende Systeme für die medizinische Diagnostik. Publicis MCD Verlag, München Nagel HD (Hrsg) (2002) Strahlenexposition in der Computertomographie, 3. Aufl. CTB-Publications, Hamburg Philips (2005) CT Clinical Innovations & Reseach. Philips Medical Systems, Best, spring 2005 Radon J (1917) Über die Bestimmung von Funktionen längs gewisser Mannigfaltigkeiten. Berichte der mathematisch-physikalischen Kl. Sächsischen Gesellschaft der Wissenschaften 59, Leipzig, 262 Ruhlmann J, Oehr P, Biersack HJ (Hrsg) (1998) PET in der Onkologie – Grundlagen und klinische Anwendung. Springer-Verlag, Heidelberg Seeram E (2001) Computed Tomography. W.B. Saunders Company, Philadelphia Siemens (2005) Excellence in CT, SOMATON Definition. Siemens Medical Solutions, Computed Tomographie, Forchheim Sternberg S (2000) CT Scans: ‘A Very High-Dose’ Diagnosis. USA Today, nov. 20, 2000 Weisser G (2000) Technische Grundlagen der EBCT. In: Gaa J, Lehmann K-J, Georgi M (Hrsg) MR-Angiographie und Elektronenstrahl-CTAngiographie. Thieme Verlag, Stuttgart, 145
18
19 Magnetresonanztomographie (MRT) W. R. Nitz
19.1
Historie – 339
19.4.3
19.2
Komponenten – 340
19.2.1 19.2.2 19.2.3 19.2.4
Der Magnet – die Magnetfeldstärke – 340 Das Magnetfeldgradientensystem – 342 Das Hochfrequenzsystem – 343 Steuerungs- und Bildberechnungssystem – 344
19.4.4
19.3
Grundprinzip und Anwendungsfelder – 345
19.3.1 19.3.2 19.3.3 19.3.4 19.3.5 19.3.6
Das Lokalisationsverfahren – 345 Die Spin-Echo-Sequenz – 346 Die Multi-Echo-Spin-Echo-Sequenz – 348 Die Gradienten-Echo-Sequenz – 348 Die Sequenz-Familie – 349 Die MR-Spektroskopie – 350
19.4
Sicherheitsrelevante Aspekte – 351
19.4.1 19.4.2
Magnetische Anziehungs- und Torsionskräfte – 351 HF-Wechselwirkung mit dem Patienten – 352
19.1
Historie
Der theoretische Physiker Wolfgang Pauli postulierte 1924 die Existenz eines Kernspins, ein Jahr nachdem George Eugene Uhlenbeck und Samuel A. Goudsmit das Konzept des Elektronenspins vorgestellt hatten [1]. Im Jahre 1933 gelang es Otto Stern und Walther Gerlach, den Kernspin durch Ablenkung eines Strahls von Wasserstoffmolekülen nachzuweisen [2]. Im Jahre 1937 gelang Isidor Isaac Rabi an der Columbia University in New York die Messung des »nuclear magnetic moments« [3], aber erst, als er von Cornelis Jacobus Gorter unterstützt wurde, der mit ähnlichen Experimenten keinen Erfolg gehabt hatte. Gorter war der Erste, der den Ausdruck »nuclear magnetic resonance – NMR« in Veröffentlichungen verwendete [4]. Die für die NMR ausschlaggebenden Entdeckungen werden Felix Bloch und Edward M. Purcell zugeschrieben, die 1946 den Kernspin bzw. die Magnetresonanz experimentell nachgewiesen [5] und dafür im Jahre 1952 den Nobelpreis erhalten haben. Der Spin lässt sich als ein Drehimpuls, verknüpft mit einem magnetischen Moment, beschreiben. Das magnetische Moment des Protons kann, bei einer vorgegebenen Spinquantenzahl ½, in einem Magnetfeld entweder eine parallele Ausrichtung zum Magnetfeld B0 annehmen oder eine antiparallele. Die beiden Zustände unterscheiden sich über eine Energiedifferenz, wobei die parallele Ausrichtung den energetisch günstigeren Zustand darstellt. Durch Zuführung von Energie über eine elektromagnetische
19.4.5 19.4.6
Wechselwirkung mit aktiven und passiven Implantaten – 352 Wechselwirkung durch Änderung von Magnetfeldgradienten – 352 Gefahren im Fall des Verlustes der Supraleitung – 353 Gadoliniumhaltige Kontrastmittel und die Gefahr von NSF – 353
19.5
Zukunftsperspektiven – 353
19.5.1 19.5.2 19.5.3 19.5.4 19.5.5
Magnetfeldstärke – 354 HF-Technologie – 354 Anwendungsentwicklungen – 354 Hybridsysteme – 354 Theranostics – Therapie unter Bildgebung – 355
Literatur – 355 Weiterführende Literatur – 356
Welle können parallel ausgerichtete Kernspins temporär in eine antiparallele Ausrichtung gebracht werden, wobei bei der Rückkehr in den Grundzustand die Energie wieder in Form einer elektromagnetischen Welle frei wird. Diese bezeichnet man auch als Kernspinsignal. Da die eingestrahlte elektromagnetische Welle die gleiche Wellenlänge haben muss, die die entsprechende Energiedifferenz vorgibt ΔE = γ · ħ · B0,
(19.1)
spricht man auch von »Magnetresonanz«. Da sich mehr Kernspins parallel zum Feld ausrichten als antiparallel, kommt es zur Ausbildung einer longitudinalen Kernmagnetisierung, die nach physikalisch klassischen Prinzipien behandelt werden kann. Eine Ablenkung aus der Parallelausrichtung führt zu einer Präzessionsbewegung dieser Kernmagnetisierung. Die Frequenz der Präzessionsbewegung heißt auch Larmor-Frequenz und entspricht der Frequenz der bereits diskutierten Energiedifferenz der quantenmechanischen Betrachtung. Die Projektion in die Transversalebene wird als transversale Kernmagnetisierung bezeichnet. Wird die komplett zur Verfügung stehende longitudinale Kernmagnetisierung in eine transversale Kernmagnetisierung umgewandelt, so spricht man von einer 90° HF-Anregung. Nach einer Anregung braucht das Gewebe Zeit, damit sich wieder eine longitudinale Magnetisierung aufbaut. Diese »Erholzeit« wurde von Felix Bloch in seiner phänomenologischen Bloch-Gleichung [6] mit T1 bezeichnet. Der Mechanismus
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _19, © Springer-Verlag Berlin Heidelberg 2011
340
II
Kapitel 19 · Magnetresonanztomographie (MRT)
der Erholung wird allgemein als »Relaxation« bezeichnet und die Zeitkonstante entsprechend mit T1-Relaxationszeit. Die präzedierende transversale Magnetisierung induziert ein Signal in einem um das Objekt angebrachten Antennensystem. Man beobachtet ein Verschwinden dieses Signals mit einer gewebespezifischen Zeitkonstanten, die Felix Bloch mit T2 bezeichnete. Der zugrunde liegende Mechanismus wird als T2-Relaxation bezeichnet und die Zeitkonstante heißt entsprechend T2-Relaxationszeit. Schon 1955 wurden NMR-Studien an lebenden Zellen und Tiergewebe durchgeführt, einschließlich der Messung gewebespezifischer Relaxationszeiten [7]. Raymond Damadian vom Downstate Medical Center in Brooklyn und Donald P. Hollis von der Johns Hopkins Universität in Baltimore untersuchten die T1- und T2-Relaxationszeiten von normalem und Krebsgewebe und kamen zu der Erkenntnis, dass Krebsgewebe längere Relaxationszeiten aufwies [8]. Damadian glaubte, die ultimative Technologie für die Krebsdiagnostik gefunden zu haben [9]. Leider gab Damadian keinen brauchbaren Hinweis, wie man den menschlichen Körper nach Krebs durchsuchen könnte. Der amerikanische Chemiker Paul Lauterbur von der State University in New York hatte 1971 die Idee, dem statischen Magnetfeld einen Magnetfeldgradienten zu überlagern, um dem Signal eine Rauminformation mitzugeben [10]. Die schon erwähnte Resonanzfrequenz ist eine Funktion der Magnetfeldstärke. Überlagert man dem statischen Magnetfeld einen Magnetfeldgradienten, so wird die Magnetfeldstärke und damit auch die Resonanzfrequenz zu einer Funktion des Ortes. Über eine Fourieranalyse des Kernspinsignals lassen sich die Frequenzkomponenten extrahieren, und die jeweiligen Amplituden können Bildpunkthelligkeiten zugeordnet werden, entsprechend der örtlich vorliegenden Signalstärken. Paul Lauterbur demonstrierte das Verfahren durch die Abbildung zweier mit Wasser gefüllter Reagenzgläser mit magnetischer Kernresonanz (NMR, nuclear magnetic resonance), indem er dem homogenen Grundfeld magnetische Feldgradienten überlagerte und als Messsignal eine Projektion des Untersuchungsobjektes erhielt. Durch Wiederholung des Experiments mit sukzessiv gedrehten Feldgradienten konnte er mit den Rekonstruktionsalgorithmen der kurz zuvor erfundenen Röntgen-Computertomographie ein Bild des untersuchten Gegenstandes erstellen. Im April 1974 gab Lauterbur eine Präsentation in Raleigh, North Carolina, die auch von Richard Ernst aus Zürich besucht wurde. Ernst erkannte das Potential, die bis dahin verwendete Rückprojektion durch eine Kombination von Phasen- und Frequenzkodierung zu ersetzen [11], wie sie zum großen Teil auch heute noch in der MRT verwendet wird. Die englische Firma EMI, die bereits 1973 mit der Vorstellung der Röntgen-Computertomographie die Medizintechnik revolutioniert hatte, kündigte 1976 die Entwicklung eines »Radiowellenscanners« an und stellte 1978 die
erste mit MRT gewonnene Abbildung eines menschlichen Kopfes vor. Diese Ankündigung gab der Entwicklung der MRT einen kräftigen Schub, da die medizinische Großgeräteindustrie ihren bei der CT gemachten Fehler nicht noch einmal wiederholen wollte. Anfang der 80er Jahre kam es zur Installation der ersten MR-Produktserien für die Anwendung in der klinischen Routinebildgebung.
19.2
Komponenten
19.2.1 Der Magnet – die Magnetfeldstärke
Das Phänomen der Magnetresonanz ist nur in Gegenwart eines starken Magnetfeldes zu beobachten. Die Magnetfeldstärke des statischen Magnetfeldes B0 wird dabei im medizinischen Sprachgebrauch mit Tesla T bezeichnet (für die Physiker ist dies die magnetische Feldinduktion in Vs/m2). In den ersten Anfängen (1983) kamen Elektromagnete mit Luftspulen zum Einsatz mit einer Magnetfeldstärke von 0,1–0,2 T. Noch im gleichen Jahr wurde man sich darüber klar, dass man die Supraleitung für die Erzeugung hoher Magnetfelder ausnutzen musste. Seither ist die Feldstärke sukzessive gestiegen. Waren es im Jahre 1985 noch primär 0,5-T-Systeme, so ist derzeit (2010) eine starke Tendenz zu 3,0-T-Systemen zu verzeichnen, wobei der größte Marktanteil noch bei den 1,5-T-Systemen liegt. Der primäre Grund für das Streben nach höherer Feldstärke liegt auf der Hand. Näherungsweise ist das Signal-zu-Rausch-Verhältnis (SNR) proportional zur verwendeten Magnetfeldstärke [12]. Das elektromagnetische Rauschen N, welches seinen Ursprung im Patienten hat, steht näherungsweise in linearer Abhängigkeit zur verwendeten Magnetfeldstärke B0. N ∼ B0
(19.2)
Das induzierte Kernspinsignal ist eine Funktion der Änderung der (transversalen) Kernmagnetisierung über der Zeit – also proportional zu Resonanzfrequenz und der Größe der (transversalen) Kernmagnetisierung. dM
S ∼ xy⁄dt ∼ ν · Mxy ν ∼ γ · B0
(19.3)
Die transversale Kernmagnetisierung Mxy wird mit einem HF-Anregungspuls aus der longitudinalen Kernmagnetisierung Mz erzeugt. Ist der verwendete Impuls ein 90° HF-Anregungsimpuls, so wird aus der gesamten longitudinalen Kernmagnetisierung eine transversale Kernmagnetisierung. Die longitudinale Kernmagnetisierung ist eine Funktion der Besetzungswahrscheinlichkeit der Niveaus. Die longitudinale Kernmagnetisierung steigt Mz linear mit der verwendeten Magnetfeldstärke. Mz ∼ B 0
(19.4)
341 19.2 · Komponenten
Damit steigt die Amplitude des induzierten Signals mit dem Quadrat der verwendeten Magnetfeldstärke ⇒ S ∼ B02 ,
(19.5)
und das Signal-zu-Rausch-Verhältnis – SNR (signal to noise ratio) – ist annähernd linear zur Magnetfeldstärke S SNR = __ ∼ B0 · f (T1, T2) N
(19.6)
und natürlich eine Funktion der gewebespezifischen Relaxationszeiten T1 und T2. Die Zunahme des SNR mit der Magnetfeldstärke ist natürlich nur eine Aspekt solcher »Hochfeldsysteme«. Es gibt eine ganze Reihe von anderen Phänomenen, die ein Pro-und-Contra darstellen. Dazu gehören u. a. ▬ die Feldstärkenabhängigkeit der T1-Relaxationszeiten, ▬ die Empfindlichkeit auf magnetische Suszeptibilitätsgradienten, ▬ die Zunahme von Bildartefakten als Folge der Signalzunahme auch in sich bewegenden Strukturen, ▬ eine Reihe sicherheitsrelevanter Aspekte [13] und ▬ natürlich die mit der Feldstärke ansteigenden Kosten für ein MRT. Im Jahre 1991 kamen die ersten Bestrebungen, parallel zu den »Hochfeldsystemen« auch kostengünstigere »Niederfeldsysteme (bis 0,4 T)« anzubieten, wie sie auch heute noch kommerziell erhältlich sind (⊡ Abb. 19.1). Bis zu einer Feldstärke von 0,35 T lässt sich durch Zusammenfügen von Permanentmagneten ein permanentes
Magnetfeld erzeugen. Derzeit gibt es nur noch einen Hersteller, der mit Resistivmagneten arbeitet (Stand-up MRI, FONAR Corp.). Alle anderen Hersteller (Siemens, General Electric, Philips, Toshiba etc.) arbeiten entweder mit Permanentmagneten oder mit supraleitenden Magneten. Relativ kostengünstig in der Produktion und im Unterhalt sind die Permanentmagnete. Nachteilig sind die Begrenzung der Magnetfeldstärke mit dem dadurch bedingten limitieren SNR und die Temperaturempfindlichkeit. Für ein 0,35-T-System muss man mit einem Gewicht von etwa 14 t rechnen. Resistivmagnete sind kostengünstig in der Produktion, aber sie sind kostenträchtig im Unterhalt, haben in der Regel ein extrem hohes Gewicht (40 t) und teilen den Nachteil der Temperaturempfindlichkeit mit den Permanentmagneten. Supraleitende Magnete sind zwar relativ teuer in der Herstellung und, wenn Helium verbraucht wird, sind sie auch teuer im Unterhalt, ansonsten bieten sie den Vorteil einer temperaturunempfindlichen Feldstärke, einer theoretisch beliebig erzeugbaren Feldstärke und eines moderaten Gewichts (ca. 4 t für ein 1,5 T System). Die mit der Erhöhung der Magnetfeldstärke einhergehenden Vorteile und Herausforderungen werden im Zusammenhang mit den sicherheitsrelevanten Aspekten und klinischen Anwendungen noch eingehender diskutiert. Neben der Magnetfeldstärke spielt das Magnetdesign eine nicht zu unterschätzende Rolle. Waren die supraleitenden System in der Vergangenheit mit einer bis zu 60 cm großen Patientenöffnung versehen, so etablieren sich
⊡ Abb. 19.1. Das dargestellte Permanentmagnetsystem mit einer Stärke von 0,35 T ist kommerziell erhältlich (MAGNETOM C!). Die T1-gewichtete sagittale Kopfaufnahme mit einer Schichtdicke von 4 mm wurde an einem solchen System innerhalb einer Messzeit von 5 Minuten erzielt (mit freundlicher Genehmigung des Airforce General Hospital, Beijing, P.R. China)
19
342
Kapitel 19 · Magnetresonanztomographie (MRT)
II
⊡ Abb. 19.2. Das dargestellte supraleitende Magnetsystem mit einer Stärke von 3 T und einer Patientenöffnung von 70 cm ist kommerziell erhältlich (MAGNETOM SKYRA). Die T1-gewichtete sagittale Kopfaufnahme mit einer Schichtdicke von 1,2 mm wurde an einem solchen System innerhalb einer Messzeit von 9 Minuten erzielt
seit 2004 zunehmend die Systeme mit einer 70 cm Patientenöffnung (⊡ Abb. 19.2). Die größere Patientenöffnung ist nicht nur ein Bequemlichkeitsfaktor für den Patienten, sie dient auch der Reduktion der Untersuchungsverweigerungen als Folge einer moderaten Klaustrophobie und erlaubt die Untersuchung von Patienten, die von ihrem Umfang her einfach mehr als 60 cm Patientenöffnung brauchen.
19.2.2 Das Magnetfeldgradientensystem
Die Anregung einer dünnen Schicht innerhalb des Patienten erfolgt durch die Etablierung eines Magnetfeldgradienten senkrecht zu der gewünschten Schicht. Dies erzeugt unterschiedliche Resonanzfrequenzen in Schichtselektionsrichtung. Durch HF-Einstrahlung in einem bestimmten Frequenzbereich wird nur der in Resonanz liegende Bereich angeregt. Für die Abdeckung aller Raumrichtungen und aller Schichtorientierung setzt sich eine Magnetfeldgradientenspule aus drei orthogonal zueinander angeordneten Gradientenspulensystemen zusammen (x, y, z; ⊡ Abb. 19.3). Durch Kombination der so erzeugbaren Magnetfeldgradienten lässt sich jede beliebige Schichtorientierung »elektronisch« und ohne Bewegung mechanischer Komponenten wählen. Während der Datenakquisition wird dem Signal dadurch eine Ortsinformation mitgegeben, dass man zum gleichen Zeitpunkt einen Magnetfeldgradienten einschaltet und damit über die Frequenzinformation des empfangenen Signals eine Ortszugehörigkeit ermittelt.
⊡ Abb. 19.3. Prinzipaufbau eines MRT
Die fließenden Ströme I in der Magnetfeldgradientenspule, in Gegenwart eines starken Magnetfeldes B0, unterliegen der Lorentzkraft F. →
→
→
F ∼ I × B0
(19.7)
Diese auf die einzelnen Leiter der Gradientenspulen wirkenden Kräfte sind Ursache für eine Vibration der zusammengesetzten Gradientenspule und primäre Geräuschquelle während einer MR Untersuchung. Die Maximalamplitude eines Magnetfeldgradientensystems bestimmt in erster Linie die Möglichkeiten der räumlichen Auflösung, ist wichtig für Anwendungen wie die Diffusionswichtung und verkürzt die Datenakquisition für Ereignisse, bei denen es nur auf das Amplitudenzeitin-
343 19.2 · Komponenten
tegral ankommt. Die Schnelligkeit eines Magnetfeldgradientensystems wird durch die Rampenzeit charakterisiert und bestimmt die Kürze zwischen Anregung und Datenakquisition und hat damit direkt Einfluss auf die Bildqualität. Die Rampenzeit bedeutet dabei die Zeit von 0 auf Sollamplitude des gewünschten Magnetfeldgradienten. Für den Quotienten aus Maximalamplitude und Rampenzeit wurde der Begriff »Slew-Rate« eingeführt, was einer Anstiegsgeschwindigkeit entspricht. Im Jahre 1986 wurde eine luftgekühlte Gradientenspule mit einer Gradientenstärke von 3 mT/m und einer Slew-Rate von 3 T/m/s verwendet. Im Jahr 2003 lagen Gradientenstärke und Schnelligkeit bei 45 mT/m mit einer Slew-Rate 200 T/m/s unter Verwendung von Wasserkühlung. Die Schaltzeiten für die Etablierung eines Magnetfeldgradienten liegen zwischen 100 und 800 μs (Mikrosekunden), wobei einige hundert Ampere fließen. Um die entsprechenden Anstiegszeiten zu erreichen, sind bis zu 2000 V erforderlich. Die Entwicklung zu noch stärkeren und noch schnelleren Magnetfeldgradientensystemen ist durch die menschliche Physiologie limitiert. Mittlerweile ist der Schwellwert erreicht, bei dem der Patient das Schalten der Magnetfeldgradienten spüren kann. Sich schnell ändernde hohe Magnetfeldgradienten induzieren Spannungen im menschlichen Körper, die Muskelkontraktionssignale simulieren können. Man spricht von einer »peripheren Nervenstimulation (PNS)«, die es zu vermeiden gilt, da sie potentiell zu schmerzhaften Empfindungen führen könnte. Die Hersteller fangen solche Situationen mit entsprechenden »Stimulationsmonitoren« ab. Beginnend mit der Entwicklung der kernspintomographischen Bildgebung hat es immer wieder erfolgreiche Ansätze gegeben, die Messzeit durch eine Unterabtastung der erforderlichen Daten zu kürzen und die dabei entstehenden Mehrdeutigkeiten durch komplexe Algorithmen zu korrigieren. Auch für die derzeitige Limitierung der Gradientenstärke sind ähnliche Ansätze in der Diskussion, die potentiell einen weiteren technologischen Sprung in Aussicht stellen [14].
19.2.3 Das Hochfrequenzsystem
Das Hochfrequenzsystem besteht aus Sender, Antennen und Empfänger. Je nach verwendeter Magnetfeldstärke liegt die Grundfrequenz eines solchen Systems bei 8 MHz (0,2 T) bis 128 MHz (bei 3 T). Der Hochfrequenzsender muss für die Hochfrequenzpulse eine Spitzenleistung von einigen Kilowatt abgeben. Verantwortlich für die Umwandlung der longitudinalen Kernmagnetisierung in eine transversale Kernmagnetisierung ist die magnetische Komponente des Hochfrequenzpulses, die mit B1 bezeichnet wird. In den Anfängen der Magnetresonanztomographie hat man mit einer »Ganzkörperantenne« gearbeitet, die sich direkt hinter der Verkleidung befin-
⊡ Abb. 19.4. Kontrastmittelgestützte MR-Ganzkörper-Angiographie, durchgeführt in 1 Minute und 17 Sekunden (mit freundlicher Genehmigung des Hong Kong Sanatoriums & Hospital, Happy Valley, Hong Kong)
det, die den Patienten umschließt. Für den Empfangsfall ist es günstiger, wenn man so dicht wie möglich eine Antenne (Oberflächenspulen) an den Patientenkörper heranbringt. Die Signalstärke ist damit optimiert, und die regionale Begrenzung führt zu einer Reduktion des empfangenen Rauschens. Moderne Systeme verfügen über Oberflächenspulen in Arraytechnik. Dies sind mehrere kleinere, in einer Achse oder einem Feld (Array) angeordnete Spulen, deren Signale jeweils eigenen Empfängern zugeführt werden. Für einige Regionen ist es von Vorteil, Oberflächenspulen nicht nur als Empfangsspulen, sondern auch als Sendespulen zu verwenden. Im Fall einer Knie-Untersuchung lässt sich eine entsprechende Extremitätenspule als Sende-/Empfangsspule verwenden. Dies hat u. a. den weiteren Vorteil, dass das benachbarte Knie nicht angeregt wird und damit potentielle Bildartefakte vermieden werden. Für Wirbelsäulenuntersuchungen haben sich ausgedehnte Spulenfelder als vorteilhaft erwiesen. Der Bedarf einer noch größeren Abdeckung kam mit der Einführung der kontrastmittelgestützten MR-Angiographie [15, 16] (⊡ Abb. 19.4). ⊡ Abb. 19.5 zeigt exemplarisch eine Spulen-
19
344
Kapitel 19 · Magnetresonanztomographie (MRT)
II
⊡ Abb. 19.5. Potentielle Spulenabdeckung für eine MR-Ganzkörper-Angiographie (Kopfspule, Nackenspule, Body-Array und periphere Angiographiespule [Wirbelsäulenspule im Tisch integriert])
anordnung, mit der das gesamte Gefäßsystems von Kopf bis Fuß untersucht werden könnte. Mit der Einführung räumlich verteilter Spulenfelder wurden zunehmend Algorithmen eingeführt, die es erlauben, die damit verbundene Rauminformation zu verwenden und die ansonsten notwendigen Raumkodierungen entsprechend zu reduzieren. Da alle Spulen das Signal »parallel« empfangen, wurde der Ausdruck »parallele Akquisitionstechniken (PAT)« geprägt, mit einem PAT-Faktor als entsprechendem Messzeitreduktionsfaktor. Diese Messzeitreduktion geht zu Lasten einer Unterabtastung des für eine Bildrekonstruktion notwendigen Datensatzes. Dies führt zu einer Mehrdeutigkeit bei der räumlichen Signalzuordnung und damit im rekonstruierten Bild zu Einfaltungsartefakten. Durch einen vom System im Hintergrund durchgeführten Vergleich der Einzelbilder der einzelnen Spulenelemente lassen sich diese Einfaltungsartefakte eliminieren oder zumindest reduzieren. Der entsprechende Algorithmus wurde »sensitivity encoding (SENSE)« genannt [17]. Ein Algorithmus, der mit der gleichen Zielsetzung auf die Signaldaten angewandt wird, trägt die Bezeichnung »Generalized autocalibrating partially parallel acquisitions (GRAPPA)« [18]. Für alle diese »parallele Akquisitionstechniken« gilt, dass bei gleich bleibender räumlicher Auflösung Messzeit eingespart wird und sich damit das SNR entsprechend verschlechtert:
SNR ~
1 PAT
(19.8)
Bei der Verwendung von Systemen mit einer höheren Magnetfeldstärke erhält man ein größeres Signal, welches den Signalverlust bei Verwendung paralleler Akquisitionstechniken entsprechend kompensiert, sodass erst in
dieser Kombination die Vorteile der parallelen Bildgebungstechniken voll zum Tragen kommen. Neben der Verwendung räumlich verteilter Oberflächenspulen zwecks Verbesserung in der Bildqualität und potentiellen Einsparungen an Messzeit hat sich natürlich frühzeitig die Frage gestellt, ob auch im Sendefall Arrays einen Vorteil bringen würden. Eine Anordnung mehrerer Sendespulen heißt analog zu den Empfangsspulen ein Sende-Array. In Anlehnung an die »parallelen Akquisitionstechniken (PAT)« ist auch der Begriff »paralleles Senden (pTX)« eingeführt worden. Es scheint, dass mit zunehmender Bedeutung höherer Magnetfelder für die Bildgebung mit Hilfe der ArrayTechnologie gleich mehrere Herausforderungen potentiell gemeistert werden können. Im Vordergrund steht dabei die Homogenisierung des B1-Feldes. Bei der Verwendung höherer Magnetfeldstärken B0 kommt die Wellenlänge der verwendeten Hochfrequenz in die Größenordnung der Patientenausdehnung, und durch die damit verbundene potentielle Wechselwirkung kommt es zu B1-Inhomogenitäten, die u. a. räumlich unterschiedlichen Anregungswinkeln entsprechen. Dies führt zu einer regional unterschiedlichen künstlichen Signalabschattung oder zu Signalüberhöhungen im Bild. Neben anderen Alternativen kann man durch die Verwendung von räumlich verteilten Sendespulen diese B1-Inhomogenitäten beseitigen. 19.2.4 Steuerungs- und Bildberechnungs-
system Zu Beginn der MRT-Entwicklung liefen die Verwaltung der Patientendaten und die Planung der Messung über eine PDP-11. Alle anderen Messsteuerungs- und Bildbe-
345 19.3 · Grundprinzip und Anwendungsfelder
rechnungskomponenten waren oft herstellereigene Prozessorentwicklungen. Zu Beginn der 1990er war es den meisten MRT-Herstellern klar, dass man sich an den zunehmend dominierenden Markt der »Personal Computer (PC)« ankoppeln sollte. Die Zuordnung der räumlichen Position erfolgt über die Frequenz und die Phasenlage des zusammengesetzten Kernspinsignals. Diese Aufgabe löst eine zweidimensionale (schnelle) Fouriertransformation. Die meisten der heute verwendeten System haben drei Rechnersysteme: ▬ einen »Hostrechner«, der die Patientendaten verwaltet, für die Darstellung der Bilder sorgt und der die Bedienoberfläche für den Benutzer stellt; ▬ einen »Steuerrechner«, der den Gradientenverstärker und Hochfrequenzsender ansteuert und für eine Synchronisation mit dem Bildrechner sorgt; ▬ einen »Bildrechner«, dessen primäre Aufgabe in der Fourier-Transformation liegt und auf dem in-line Postprocessing-Abläufe realisiert werden. Theoretisch ist es auch denkbar, alle diese Aufgaben auf einem Rechner zu vereinigen [19].
19.3
Grundprinzip und Anwendungsfelder
Die MRT ist eine in der klinischen Routine etablierte Modalität. Im Rahmen der Kosteneindämmung im Gesundheitswesen und zur Qualitätssicherung in der medizinischen Diagnostik gibt es Empfehlungen und Veröffentlichungen, wann eine MRT-Untersuchung indiziert ist [20, 21]. Diese Qualitätssicherung wird unterstützt durch entsprechende Vergütungsrichtlinien für Radiologen im einheitlichen Bewertungsmaßstab (EBM) der kassenärztlichen Bundesvereinigung (KBV) [22]. Der EBM wiederum bezieht sich auf die Richtlinien der Bundesärztekammer (BÄK) [23], in der Mindestvoraussetzungen gelistet sind hinsichtlich einer räumlichen Auflösung, der Wichtungen, der Schichtorientierungen und damit indirekt der Anzahl der Aufnahmen. Man spricht von einer Wichtung eines Bildes, wenn der Bildkontrast von einem bestimmten gewebespezifischen Parameter dominiert wird. Die Quelle des Kernspinsignals liegt in den Protonen (primär der Kerne der an freien Wassermolekülen beteiligten Wasserstoffatome). Werden die Messparameter so gewählt, dass die Protonendichte dominierend die Signalamplitude beeinflusst, so spricht man von protonendichte-gewichteter Bildgebung (PDw). Ist der dominierende Faktor die Schnelligkeit, mit der sich die longitudinale Kernmagnetisierung nach einer Anregung im Gewebe wieder aufbaut, so spricht man von einer T1-gewichteten Bildgebung (T1w). Ist der den Bildkontrast dominierende Faktor die Schnelligkeit, mit der das Kernspinsignal verschwindet, so spricht man von
einer T2-gewichteten Bildgebung (T2w). Entsprechend der jahrzehntelangen Erfahrung bieten alle Hersteller für die verschiedenen Regionen (Kopf, Wirbelsäule, Schultergelenk, Kniegelenk etc.) Programme an, in denen eine Messprotokollabfolge für die verschiedenen Wichtungen (PDW, T1W, T2W etc.) und Orientierungen (transversal, koronar, axial, schräg oder doppelt anguliert) aufgelistet ist. Der Betreiber eines MRTs kann dieses Angebot entsprechend seiner Ausbildung, entsprechend aktueller Empfehlungen und Richtlinien modifizieren und – abgespeichert – zum Bestandteil seiner klinischen Routine machen. Ausgangspunkt und Bestandteil eines Messprotokolls ist der prinzipielle sequentielle Ablauf von Anregung und Datenakquisition, auch kurz die »Sequenz« genannt.
19.3.1 Das Lokalisationsverfahren
Der Sequenzzyklus beginnt mit einem Hochfahren des Magnetfeldgradienten in Schichtselektionsrichtung (⊡ Abb. 19.6). Sobald der Magnetfeldgradient etabliert ist, wird ein HF-Anregungspuls eingestrahlt, der genau den Frequenzbereich für den Ort und die Schichtdicke hat, die angeregt werden soll. Das vom Benutzer bestimmte Messfeld und die gewählte Form und Größe der zu berechnenden Bildmatrix definieren die räumliche Auflösung eines Volumenelements, dessen Summensignal einer Bildpunkthelligkeit zugeordnet wird. Für die räumliche Kodierung der Schicht in den zwei verbleibenden Dimensionen wird einzig und allein die Tatsache ausgenutzt, dass die Frequenz des Kernspinsignals, induziert durch die rotierenden transversalen Kernmagnetisierungen, eine Funktion der örtlich vorliegenden Magnetfeldstärke ist. Ein für eine kurze Zeit erzeugter Frequenzunterschied führt zu einer Verschiebung der Phasenlage der transversalen Kernmagnetisierung. Eine solche Phasenkodierung erfolgt in der Regel nach einem Anregungspuls in einer zur Schichtselektion senkrecht stehenden Richtung. Gleichzeitig wird vorbereitend die Dephasierung der später zu folgenden Frequenzkodierung kompensiert. Mit dem Einschalten des Frequenzkodiergradienten während der Datenakquisition beginnt sich ein »Echo« zu formen, welches in Gegenwart des frequenzkodierenden Magnetfeldgradienten ausgelesen wird, wobei die Richtung dieses Frequenzkodiergradienten senkrecht ist zu Schichtselektionsrichtung und zur Phasenkodierrichtung. Das so eingelesene Signal wird entsprechend der gewählten Matrixgröße abgetastet bzw. digitalisiert und in einer Rohdatenmatrix abgelegt. Diese Rohdatenmatrix wird auch k-Raum genannt, weil jeder Datenpunkt einen k-Index trägt. Man benötigt mehrere Wiederholungen mit unterschiedlichen Phasenkodierschritten, um genügend Informationen zu erhalten, um ein Bild zu rekonstruieren.
19
346
Kapitel 19 · Magnetresonanztomographie (MRT)
II
⊡ Abb. 19.6. Sequenzablaufdiagramm: Nach Hochfahren eines Schichtselektionsgradienten (GS) wird ein HF-Anregungspuls gesendet. Im Anschluss wird die während der Anregung dephasierte transversale Kernmagnetisierung wieder rephasiert. Parallel dazu wird die Phasenlage der transversalen Kernmagnetisierungen kodiert (GP), und die Rephasierung für die während der Frequenzkodierung erfolgenden Dephasierung wird vorbereitet (GA). Das Signal wird entsprechend der Phasenkodieramplitude in einer Rohdatenmatrix abgelegt (k-Raum). Über eine schnelle zweidimensional Fouriertransformation (»fast Fourier transformation«, FFT) wird aus den Signaldaten ein Bild rekonstruiert
19.3.2 Die Spin-Echo-Sequenz
Das Spin-Echo ist ein Zufallsfund aus einem Experiment zur Bestimmung von T1-Relaxationszeiten einer Gewebeprobe [24]. Kombiniert mit eine Bildgebungssequenz, entsprechend Spin-Echo-Sequenz genannt, war diese die erste in der Bildgebung angewandte Sequenz und wird unverändert auch heute noch in der T1-gewichteten Bildgebung angewandt. Neben den schon diskutierten gewebespezifischen Parametern PD, T1 und T2 gibt es noch den Parameter der magnetischen Suszeptibilität χ, der angibt, inwiefern das Magnetfeld verstärkt oder abgeschwächt wird. Damit »spüren« die im Patienten vorliegenden Protonen, entsprechend dem Gewebe in dem sie sich befinden, die Magnetfeldstärke B0(eff) = (1 + χ)B0
(19.9)
Damit verbunden ist auch eine Verschiebung der Resonanzfrequenz. Biologisches Gewebe ist generell diamagnetisch, mit Variationen in der Größenordnung 10-6 [25]. Für die Schichtselektion und die räumliche Kodierung ist dieser Einfluss in der Regel vernachlässigbar. Größere Variationen der magnetischen Suszeptibilität innerhalb der Dimensionen der gewählten räumlichen Auflösung haben einen Einfluss auf die Signalamplitude. Eine Summation der dadurch bedingten unterschiedlichen Frequenzen führt zu einem »schnelleren« Verschwinden des Kernspinsignals, in dem Fall charakterisiert durch eine Zeitkonstante, die T2*- Relaxationszeit genannt wird.
1 1 G $B * T2 T2
(19.10)
Dabei bezeichnet γ das gyromagnetische Verhältnis von 2,675⋅108 /Ts für das Proton, und ΔB repräsentiert die durch den Gradienten in der magnetischen Suszeptibilität bedingte Magnetfeldinhomogenität über die halbe räumliche Auflösung. Da der dadurch bedingte Frequenzunterschied als räumlich fixiert und zeitlich konstant angesehen werden kann, lässt sich diese Dephasierung durch einen so genannten HF-Refokussierungspuls wieder rückgängig machen. Eine Spin-Echo-Sequenz verfügt neben einem 90°-HF-Anregungspuls über einen 180°-HFRefokussierungspuls. Mit dem 180°-HF-Impuls wird die frequenzbedingt schnellere transversale Magnetisierung innerhalb eines jeden Raumelements hinter die langsamere Komponente platziert, und durch die Einholung beginnt sich ein Spin-Echo zu formen, welches in Gegenwart eines frequenzkodierenden Magnetfeldgradienten ausgelesen wird. Man benötigt mehrere Repetitionen, um mit unterschiedlichen Phasenkodierschritten genügend Informationen zu erhalten, um ein Bild zu rekonstruieren. Die Zeit zwischen zwei Repetitionen nennt man entsprechend die Repetitionszeit TR. Die Zeit zwischen Anregung und Datenakquisition nennt man die Echozeit TE (⊡ Abb. 19.7). Wählt man eine lange Repetitionszeit, so sieht man keinen Unterschied mehr im Gewebekontrast hinsichtlich einer unterschiedlichen T1-Relaxationszeit. Wählt man parallel dazu auch noch eine kurze Echozeit (≤ 20 ms), so haben auch Unterschiede in der T2-Relaxationszeit im Bildkontrast kaum einen Einfluss. Ein Protokoll mit einer langen Repetitionszeit (3–9 s) wird entsprechend als Protonendichte-gewichtetes Protokoll bezeichnet. Wählt man bei gleicher Repetitionszeit eine lange Echozeit TE (60–120 ms), so bekommt man ein T2-gewichtetes Bild.
19
347 19.3 · Grundprinzip und Anwendungsfelder
⊡ Tab. 19.1. Relaxationszeiten für verschiedene Gewebearten Region
T1-Relaxationszeiten in ms
T2-Relaxationszeiten in ms
1,5 T
1,0 T
0,2 T
Graue Hirnsubstanz
921
813
495
101
Weiße Hirnsubstanz
787
683
390
92
Liquor
3000
2500
1200
1500
Ödem
1090
975
627
113
Meningiom
979
871
549
103
Gliom
957
931
832
111
Astrozytom
1109
1055
864
141
gesundes Gewebe
493
423
229
43
tumoröses Gewebe
905
857
692
84
Milz
gesundes Gewebe
782
683
400
62
Pankreas
gesundes Gewebe
513
455
283
tumoröses Gewebe
1448
1235
658
gesundes Gewebe
652
589
395
58
tumoröses Gewebe
907
864
713
83
gesundes Gewebe
868
732
372
47
tumoröses Gewebe
1083
946
554
87
Gehirn
Leber
Niere
Muskel
⊡ Abb. 19.7. Ablaufdiagramm einer Spin-Echo-Sequenz und Definition von Repetitionszeit TR und Echozeit TE
T1-gewichtete Bilder erhält man entsprechend mit kürzeren Repetitionszeiten TR (300–800 ms). Dieser Parameterbereich ist gewählt unter Berücksichtigung der im biologischen Gewebe vorliegenden Relaxationszeiten (⊡ Tab. 19.1). Im Allgemeinen bestimmt die Matrixgröße in Phasenkodierrichtung die Anzahl der notwendigen Repeti-
tionen und damit die Messzeit. Für eine T1-gewichtete Bildgebung sollten Messzeiten unter fünf Minuten möglich sein. Die T1-Relaxationszeit hängt von der Fähigkeit des Gewebes ab, die zugeführte Energie wieder abzugeben. Wässrige Strukturen, wie die Hirnflüssigkeit, haben eine lange T1-Relaxationszeit und erscheinen dunkel in der T1-gewichteten Bildgebung. Tumorbedingte Raumforderungen zeigen oft nicht nur eine offensichtliche Verschiebung der Anatomie, sondern auch ein dunkleres Erscheinungsbild in der T1-gewichteten Bildgebung als Folge von Wasseransammlungen. Mit wenigen Ausnahmen zeigt Gewebe mit langen T1-Relaxationszeiten auch lange T2-Relaxationszeiten, als Folge der schnell wechselnden intramolekularen Dipol-Dipol-Wechselwirkung innerhalb eines rotierenden Wassermoleküls. In der Regel erscheint pathologisches Gewebe in der T2-gewichteten Bildgebung hell. Die Signalintensität, die später einer Bildpunkthelligkeit zugeordnet wird, ist gegeben durch
S~
dM x, y dt
~ M 0 1 e TR
T1
e
TE T2
(19.11)
M0 ist dabei die maximal in einem Raumelement verfügbare longitudinale Magnetisierung Mz, die durch den 90°-HF-Anregungsimpuls in eine transversale Kernmagnetisierung Mxy umgewandelt wird, die mit der Larmor-
348
II
Kapitel 19 · Magnetresonanztomographie (MRT)
frequenz präzediert und damit ein Signal in eine Spule induziert. Mit der Einführung T1-verkürzender paramagnetischer MR Kontrastmittel [26–28] kommt der T1-gewichteten Bildgebung noch eine besondere Bedeutung zu: Entzündliche Prozesse, die Kontrastmittel aufnehmen, erscheinen in der T1-gewichteten Bildgebung besonders hell.
19.3.3 Die Multi-Echo-Spin-Echo-Sequenz
Zur Bestimmung der mittleren T2-Relaxationszeit in einem Raumelement lassen sich durch Verwendung multipler HF-Refokussierungspulse multiple Spin-Echos erzeugen, die jeweils zu multiplen Bildern mit unterschiedlichen Echozeiten führen. Dabei fällt auf, dass gerade bei den späten Echos der Bildkontrast sich nur noch marginal verändert. Diese Beobachtung führte zu der Idee, nicht zusätzliche separate Bilder zu akquirieren, sondern vielmehr durch zusätzliche Phasenkodierschritte vor der jeweiligen Datenakquisition eine weitere Fourierzeile für ein Bild zu messen (⊡ Abb. 19.8). Einer solchen Sequenz wurde das Akronym RARE (»rapid acquisition with relaxation enhancement«) zugeordnet [29]. Die Technik geriet aufgrund der ursprünglich dürftigen Bildqualität für kurze Zeit in Vergessenheit und wurde erst sieben Jahr später von Melki und Mulkern »wiederentdeckt« [30]. Auf der Suche nach einer schnellen T2-Übersichtsaufnahme hatten diese beiden Wissenschaftler die Methode an ihrem MRT implementiert und festgestellt, dass sich die Bildqualität in beeindruckender Weise, bedingt durch Fortschritte in der technologischen Entwicklung der MRTs, signifikant verbessert hatte. Als Akronym für diese Sequenz wurde das FSE (»fast spin echo«) bzw. das TSE (»turbo spin-echo«) eingeführt. Vorteil der Methode ist die drastische Messzeitverkürzung, die sich proportional mit der Anzahl der verwendeten Echos, der »echo train length
⊡ Abb. 19.8. Ablaufdiagramm einer Multi-Echo-Spin-EchoSequenz (Turbo Spin Echo, TSE; Fast Spin Echo, FSE)
(ETL)«, verändert. Nachteil ist, dass jede Fourierzeile eine andere »Wichtung« hat und damit potentiell die Gefahr gegeben ist, dass damit verbundene Bildartefakte zu Fehlinterpretationen führen könnten [31]. In der Praxis wurde die potentielle Verkürzung der Messzeit ausgenutzt, um längere Repetitionszeiten zu wählen, was zu einer signifikanten Kontrastverbesserung in der PD- und T2-gewichteten Bildgebung geführt hat, und um eine höhere räumliche Auflösung zu messen, was ebenfalls mit einer Verlängerung der Messzeit verbunden ist, die von der Messzeitverkürzung bei Verwendung mehrerer Echos aufgefangen wird. Es hat sich gezeigt, dass diese beiden Maßnahmen ausreichend sind, um die potentiellen Nachteile eines Multi-Echo-Ansatzes mehr als zu kompensieren. In der PD- und T2-gewichteten Bildgebung kommen heute ausschließlich FSE- bzw. TSESequenzen zur Anwendung.
19.3.4 Die Gradienten-Echo-Sequenz
Der Verzicht auf einen 180°-HF-Refokussierungspuls führt zu der Erzeugung eines »Echos« durch die Verwendung eines bipolar geschalteten Frequenzkodiergradienten – aus dieser Tatsache ergibt sich das Akronym GRE (Gradienten-Echo-Sequenz) (⊡ Abb. 19.6). Je nach Hersteller fällt z. B. die »fast low angle shot (FLASH)« [32], das »fast field echo (FFE-T1)« oder die »spoiled gradient recalled acquired steady state (SPGR)« unter das Synonym GRE. Mit dem Verzicht auf den 180°-HF-Refokussierungspuls ist der Signalabfall nicht nur durch die intramolekulare Spin-Spin-Wechselwirkung bestimmt, sondern auch durch Magnetfeld-Inhomogenitäten, zum größten Teil patientenbedingt, als Folge von Unterschieden in der magnetischen Suszeptibilität verschiedener Gewebestrukturen. Bei Gradienten-Echo-Sequenzen ist es üblich, die Signalausbeute dahingehend zu optimieren, dass man für einen Anregungspuls weniger als eine 90°-Anregung ansetzt. Das Signal in Abhängigkeit eines
349 19.3 · Grundprinzip und Anwendungsfelder
Anregungswinkels α für ein bestimmtes Gewebe ist danach S ~ Mx, y M 0
1 e
TR T1
1 cos A e TR
T1
e TE
T2*
sin A
(19.12)
Gradienten-Echo-Sequenzen kommen überall dort zum Einsatz, wo kürzere Repetitionszeiten bzw. schnellere Messungen erforderlich sind und/oder wo man auf eine T2*-Empfindlichkeit besonderen Wert legt. Bei der Darstellung des schlagenden Herzens kommen z. B. Gradienten-Echo-Sequenzen zum Einsatz (⊡ Abb. 19.9). Eine Phasenkodierung ist nicht nur für die räumliche Kodierung in der Schichtebene geeignet, sondern lässt sich auf für die weitere Partitionierung einer Schicht bzw. eines Volumens in Schichtselektionsrichtung anwenden. Der einzige Nachteil: Für jeden Phasenkodierschritt in der »Tiefe« müssen alle Phasenkodierschritte in der Ebene wiederholt werden. Klinisch brauchbare Messzeiten (≤ 12 Minuten) ließen sich lange Zeit nur über die theoretisch kurzen Repetitionszeiten von Gradienten-Echo-Sequenzen erzielen. So bilden Gradienten-Echo-Sequenzen die Grundlage für alle MR-Angiographien (⊡ Abb. 19.10). Die T2*-Empfindlichkeit kommt vor allen Dingen bei der Beurteilung von Blutungen zum Tragen und findet ihren Höhepunkt im »susceptibility weighted imaging (SWI)« [33]. Durch die Änderung der Sauerstoffkonzentration in aktiven Hirnregionen und der damit verbundenen Änderung in der magnetischen Suszeptibilität lässt sich über das »blood oxygenation dependent imaging (BOLD)« eine Änderung der Signalintensität beobachten. Durch Analyse der
entsprechenden Helligkeitsschwankungen der Bildpunkte lässt sich eine Aussage zur Hirnaktivität (»functional MRI [fMRI]« [34, 35]) machen. In Verbindung mit der intravenösen Injektion eines paramagnetischen Kontrastmittels lassen sich mit Hilfe T2*-sensitiver Protokolle Perfusionsdefizite quantifizieren [36, 37]. Eine in der abdominellen Bildgebung für die Differentialdiagnostik wichtige Eigenschaft von GRE-Sequenzen ist noch erwähnenswert. Die Protonen der Wasserstoffatome in Fettmolekülen haben aufgrund der unterschiedlichen elektronischen Umgebung eine um etwa 3,5 ppm niedrigere Resonanzfrequenz im Vergleich zu der Resonanzfrequenz der Protonen der Wasserstoffatome der freien Wassermoleküle. Das führt dazu, dass nach einer Anregung die transversale Kernmagnetisierung der Fettmoleküle etwas langsamer rotiert als die transversale Kernmagnetisierung der Wassermoleküle. In der SE-Bildgebung spielt diese Dephasierung keine Rolle, weil mit dem 180°-HF-Refokussierungspuls die schnellere Komponente hinter die langsamere gelegt wird und im Zentrum der Echoformierung beide transversale Kernmagnetisierungen wieder die gleiche Phasenlage haben. In der Gradienten-Echo-Bildgebung gibt es keinen HFRefokussierungspuls, und damit gibt es für die beiden Komponenten unterschiedliche Phasenlagen ihrer transversalen Kernmagnetisierung. Je nach Echozeit gibt es eine Situation, in der die Phasenlage gleich ist (»in-phase«), und zu einer späteren oder früheren Echozeit die Situation, dass die Phasenlage genau entgegengesetzt ist (»opposedphase«). In letzterer Situation wird es aus einem Raumelement, welches Fett und Wasser in ungefähr gleichen Signalanteilen enthält, zu einer signifikanten Signalreduktion kommen. Dies lässt sich in der abdominellen Differentialdiagnostik dazu verwenden, um fetthaltige, in der Regel gutartige Raumforderungen von bösartigen Metastasen zu unterscheiden [38].
19.3.5 Die Sequenz-Familie
⊡ Abb. 19.9. Momentaufnahme eines schlagenden Herzens. Aufnahmezeit: 9,28 s. Zeitliche Auflösung: 43 ms. (Vierkammerblick; Myokardinfarkt; mit freundlicher Genehmigung des PLA 306 Hospital, Beijing, P.R. China)
Die erwähnten Sequenztypen GRE und SE sowie das Multi-Echo-Konzept mit FSE bzw. TSE stellen nur die subjektiv wichtigsten Typen von Bildgebungssequenzen für die klinische Routinediagnostik dar. Die vorhandenen Bildgebungssequenzen lassen sich prinzipiell in eine Gruppe von Gradienten-Echos und eine Gruppe von Spin-Echos unterteilen [39], mit entsprechenden Vermischungen und Übergängen. Erwähnenswert ist noch die Manipulation der longitudinalen oder auch transversalen Kernmagnetisierung vor oder innerhalb eine Bildgebungssequenz. Ein klassischer Vertreter ist die Inversion der longitudinalen Magnetisierung vor der eigentlichen Bildgebung. Mit einer solchen Inversion lässt sich z. B. gezielt Gewebe mit einer bestimmten T1-Relaxationszeit ausblenden. Ein Gewebe wird nämlich nur dann ein Signal emittieren, wenn zum Zeitpunkt der Anregung auch longitudinale
19
350
II
Kapitel 19 · Magnetresonanztomographie (MRT)
Kernmagnetisierung zur Verfügung stand, welche mit dem HF-Anregungspuls in eine signalinduzierende transversale Kernmagnetisierung umgewandelt wurde. Entsprechend der T1-Relaxationszeit des Gewebes wird die longitudinale Kernmagnetisierung von der antiparallelen Ausrichtung zum Magnetfeld wieder eine parallel Ausrichtung zum Magnetfeld anstreben. Dabei gibt es einen Zeitpunkt, bei dem die longitudinale Kernmagnetisierung Null ist, nämlich gerade am Übergang von der antiparallelen zur parallelen Ausrichtung. Beginnt man mit der Anregung nach einer relativ kurzen Inversionszeit (ca. 150 ms), so lässt sich Gewebe mit sehr kurzer T1-Relaxationszeit unterdrücken. Fett hat z. B. eine sehr kurze T1-Relaxationszeit, und sein Signal wird bei der »short tau inversion recovery (STIR)«-Sequenz entsprechend unterdrückt [40]. Am anderen Ende der Skala befindet sich freie Flüssigkeit mit einer sehr langen T1-Relaxationszeit. Durch die Verwendung einer relativ langen Inversionszeit (ca. 2,5 s) lässt sich mit der »fluid attenuated inversion recovery (FLAIR)« das Signal von Gewebe mit langen T1-Relaxationszeiten unterdrücken [41]. Ein solches Protokoll ist hilfreich bei der Differentialdiagnostik von in der Regel gutartig zystischen Läsionen und bei der Identifikation von periventrikulären Läsionen, die Gefahr laufen, aufgrund des ansonsten sehr hellen Signals der Gehirnflüssigkeit in den Ventrikeln überstrahlt zu werden. Für die Entwicklung der longitudinalen Kernmagnetisierung nach Inversion gilt:
M z M 0 1 2 e TI
T1
2 e TR TE
2 T1
e TR T1
(19.13)
Eine weitere wichtige Anwendung ist die Beeinflussung der transversalen Magnetisierung in der »diffusionsgewichteten Bildgebung (DWI)«. In Gegenwart einer Diffusion führt die Anwendung von bipolar geschalteten großen Magnetfeldgradienten zu einer Dephasierung der transversalen Kernmagnetisierung und damit zu einer Signalminderung [42]. Die Wirkung auf das Kernspinsignal lässt sich in einem so genannten b-Wert zusammenfassen:
D¾ ¾ 2 b G 2 G DW D 2 ¾ $ ¾ 3¾ ¾
scheiden verläuft, führt diese Anwendung zur Möglichkeit der Darstellung des Verlaufs von Nervenfasern.
19.3.6 Die MR-Spektroskopie
In der MR-Spektroskopie wird ausgenutzt, dass sich die Resonanzfrequenzen je nach chemischer Umgebung um wenige Millionstel Anteile (ppm, part per million) verschieben. So ist z. B. die Resonanzfrequenz der in den Neuronen vorkommenden Aminosäure NAA (N-AcetylAspartat) um 2 ppm gegenüber der Resonanzfrequenz von Wasser verschoben. Liest man das MR-Signal aus, ohne dass ein Auslesegradient angelegt ist, und führt eine Fourier-Transfomation des akquirierten Zeitsignals durch, so erhält man ein Linienspektrum, in dem die Höhe der Linien die Konzentrationen der vorliegenden Metaboliten darstellt. Die MR-Spektroskopie erlaubt damit, vereinfacht ausgedrückt, eine chemische Analyse, ohne eine Gewebeprobe zu entnehmen. Die Anzahl der detektierbaren chemischen Substanzen ist jedoch stark eingeschränkt. Um bei der MR-Spektroskopie eine Ortsauflösung zu erreichen, verwendet man z. B. ein Doppelechoverfahren, bei dem ein 90°-Puls und zwei 180°-Pulse verwendet werden. Dabei liegt bei jedem der gleichzeitig angelegte Schichtselektionsgradient in jeweils einer anderen Orientierung, sodass das resultierende Signal aus dem Schnittvolumen der drei Schichten stammt. Die so erzielbaren Ortsauflösungen ergeben Zielvolumina von 2–8 ml in der Protonenspektroskopie (⊡ Abb. 19.10).
(19.14)
Dabei entspricht GDW der Amplitude des diffusionswichtenden Magnetfeldgradienten, δ entspricht der Zeitdauer eines Magnetfeldgradienten und Δ dem Abstand zwischen den Gradientenpaaren. In der klinischen Routine kommt üblicherweise ein b-Wert von 1000 s/mm2 zur Anwendung. Danach ist das Signal
S ~ e bD
(19.15)
mit D als »apparent diffusion coefficient (ADC)«, dem offensichtlichen Diffusionskoeffizienten des Gewebes. Da die Diffusion ein Tensor ist, lassen sich über das »diffusion tensor imaging (DTI)« bevorzugte Diffusionsrichtungen messen [43] und graphisch darstellen [44]. Da die bevorzugte Wasserdiffusionsrichtung parallel zu den Nerven-
⊡ Abb. 19.10. Die transversale Aufnahme der intrakraniellen Gefäßstruktur wurde ohne Verwendung von Kontrastmitteln erstellt. Der Kontrast wird bei dieser Methode allein durch das in das Messvolumen einströmende Blut erzeugt (time of flight MR Angiography – ToFMRA). Aufnahmezeit: 5,5 Minuten
19
351 19.4 · Sicherheitsrelevante Aspekte
Ebenfalls noch angewendet wird die Phosphorspektroskopie, bei der die Resonanzfrequenzen von Phosphor als signalgebendem Kern genutzt wird. Die Protonenspektroskopie nutzt man typischerweise für das Gehirn, die Phosphorspektroskopie für Muskeluntersuchungen, da man bei Letzteren energieliefernde Substanzen detektieren kann. Bei Verdacht auf Prostatakrebs lässt sich, über eine Protonenspektroskopie mit dem Resultat einer Citrat-Erniedrigung und einer Cholin-Erhöhung, die Verdachtsdiagnose verifizieren. Citrat wird von gesundem Prostatagewebe produziert. Prostatakarzinome verbrauchen Citrat, und der intrazelluläre Citratgehalt von Prostatagewebe sinkt. Cholin ist ein Bestandteil der Zellmembran und bei bösartigen Prostataerkrankungen, einhergehend mit Zellvermehrung, erhöht (⊡ Abb. 19.11a,b).
19.4
Sicherheitsrelevante Aspekte
Die amerikanische Gesundheitsbehörde verzeichnet für den Zeitraum 1995–2005 insgesamt 389 Fälle, bei denen Personen im Zusammenhang mit einer MRT-Untersuchung zu Schaden gekommen sind. 10% dieser Fälle waren bedingt durch ferromagnetische Objekte, die von dem starken Magnetfeld angezogen wurden. 70% dieser Fälle betreffen Hochfrequenzverbrennungen. Die wichtigsten Gefahrenpunkte eines MRT lassen sich wie folgt zusammenfassen: ▬ magnetische Anziehungskräfte, ▬ magnetische Torsionskräfte, ▬ HF-Wechselwirkung mit dem Patienten, ▬ HF-Wechselwirkung mit aktiven und passiven Implantaten, ▬ periphere Nervenstimulation durch schnelles Schalten hoher Magnetfeldgradienten, ▬ akustische Wirkung der Kräfte auf die stromdurchflossenen Leiter einer Magnetfeldgradientenspule in Gegenwart eines starken Magnetfeldes, ▬ Gefahr durch kalte Gase im Fall eines Verlustes der Supraleitung, ▬ Gefahr einer nephrogenen systemischen Fibrose bei der Verwendung gadoliniumhaltiger Kontrastmittel.
19.4.1 Magnetische Anziehungs- und
Torsionskräfte Potentielle magnetische Anziehungskräfte auf ferromagnetische Objekte resultieren aus einer räumlichen Energieänderung. a
F = ∇U
(19.16)
Dabei entspricht die potentielle Energie dem Produkt aus magnetischem Moment und der verwendeten magnetischen Feldstärke.
U
C 1 M Bo ; M V Bo M0 2
(19.17)
Das magnetische Moment M eines ferromagnetischen Objektes ist wiederum ein Produkt aus seinem Volumen V, seiner magnetischen Suszeptibilität χ und der aktuell an der derzeitigen Position herrschenden magnetischen Feldstärke B0. Reduziert auf eine Dimension, ist die Kraftwirkung auf ein ferromagnetisches Objekt proportional zu dem aktuell an der Position vorliegenden Feldgradienten und der dort herrschenden Magnetfeldstärke. b ⊡ Abb. 19.11a,b. a Protonenspektroskopie einer »normalen« Prostata. b Protonenspektroskopie eines Prostatakarzinoms. (Mit freundlicher Genehmigung des Universitätsklinikums Mannheim)
Fz
uB C V Bo o Mo uz
(19.18)
Für ein 1,5-T-System entspricht die horizontale Zugkraft am Ort der maximalen Kraftentfaltung etwa dem 20Fachen der Gewichtskraft. Das heißt: Eine 200 g schwere
352
II
Kapitel 19 · Magnetresonanztomographie (MRT)
Haushaltsschere wird mit einer horizontalen Kraft, die etwa einer Gewichtskraft von 4 kg entspricht, in das Zentrum des Magneten gezogen. Kritisch ist dabei die Diskontinuität dieser Kraftwirkung, die örtlich relativ schnell variiert, in der Nähe der Patientenöffnung ihr Maximum hat und im Isozentrum des Magneten gleich Null ist. Ein geometrisch unsymmetrisches Objekt wird sich tendenziell immer so ausrichten, dass die Längsachse parallel zur Magnetfeldrichtung liegt. Eine Schere fliegt demnach immer mit der Spitze voran in Richtung Magnetöffnung. Die Torsionskraft ist dabei proportional zum Quadrat der verwendeten Feldstärke und hat ihr Maximum im Isozentrum des Magneten.
19.4.2 HF-Wechselwirkung mit dem Patienten
Das Energiespektrum der in der MRT verwendeten elektromagnetischen Strahlung reicht nicht aus, um Molekülketten aufzubrechen und Radikale zu bilden, wie das bei Röntgenstrahlung der Fall ist. Die Energie reicht allenfalls aus, um den Patienten zu erwärmen. Die übertragene Energie W ist dabei proportional zum Quadrat der verwendeten Magnetfeldstärke, dem Quadrat der B1Amplitude des verwendeten HF-Pulses und proportional zur fünften Potenz des Patientenumfangs b. Die übertragbare Energie ist dabei umgekehrt proportional zu inneren Leitfähigkeit ρ des Patienten:
Wz
W 20 B12 b 5 R
19.4.3 Wechselwirkung mit aktiven
und passiven Implantaten Im Allgemeinen sind alle aktiven und passiven Implantate bedenklich [45]. Das statische Magnetfeld bedeutet eine Gefahr der Dislokalisation des Implantats, wenn haltende Kräfte von den ferromagnetischen Anziehungsund Torsionskräften überboten werden. Potentiell trifft dies für ältere Herzschrittmacher zu, ältere CochlearImplantate und ältere Aneurysmenclips. Orthopädische Implantate sind in der Regel aus nichtmagnetischem Material und bedeuten keine Kontraindikation in der MRT. Das statische Magnetfeld bedeutet potentiell eine Gefahr für die Funktionsfähigkeit von aktiven Implantaten, dies gilt z. B. für ältere Herzschrittmacher. Die Implantatsindustrie bemüht sich natürlich, wegen der Bedeutung der Magnetresonanztomographie in der radiologischen Diagnostik, zunehmend MR-kompatible Implantate einzuführen. So gibt es schon Arbeiten zu MR-kompatiblen Herzschrittmachern und Neurostimulatoren. Neben dem statischen Magnetfeld ist gerade bei aktiven Implantaten die Einkopplung der verwendeten Hochfrequenzen nicht zu vernachlässigen. So gilt eine potentielle Wechselwirkung der HF mit einer Herzschrittmacherzuleitung immer noch als – wenn auch niedriges – Risiko.
19.4.4 Wechselwirkung durch Änderung
von Magnetfeldgradienten
(19.19)
Die zumutbare Belastung für den Patienten ist in der IEC/ EN 60601-2-33 festgelegt. Die metabolische Grundrate eines durchschnittlich schweren Patienten liegt bei etwa 90 W. Das ist die Energie, die notwendig ist, um die Körpertemperatur konstant zu halten. Die IEC/EN 606012-33 erlaubt eine Ganzkörperbelastung bis zu 2 W/kg. Das entspricht bei einem Körpergewicht von 80 kg 160 W – für die Dauer einer MR-Untersuchung. Unter Beobachtung ist eine Belastung des Patienten von bis zu 4 W/ kg Ganzkörperbelastung zulässig. Das entspricht in etwa dem Energieumsatz eines Marathonläufers. Darüber hinaus ist eine Belastung des Patienten unzulässig, und alle Hersteller müssen entsprechende Verriegelungsmechanismen vorsehen, die eine Messung über diese Belastung hinaus unterbindet. Eine bekannte Komplikation ist die MRT-Untersuchung von Patienten mit Permanent-Make-up und Tätowierungen. Hier kommt es in etwa 1,5% aller Fälle im Laufe einer MRT-Untersuchung zu einer schmerzhaften Hautreizung, die, vom Patienten angezeigt, zum Abbruch der Untersuchung führt. Es sind aber in diesem Zusammenhang keine permanenten Schäden dokumentiert. Die Schwellungen, Rötungen oder Bläschenbildungen haben sich bisher alle von temporärer Natur erwiesen.
Die periphere Nervenstimulation (PNS) Die zeitliche Änderung der magnetischen Feldstärke induziert nach dem Induktionsgesetz eine Spannung in eine Stromschleife. u
° E dl ut °° B dA
uS
(19.20)
S
Der menschliche Körper kann solche – wenn auch schlechte – Stromschleifen darstellen. In Abhängigkeit von der Orientierung des Patientenkörpers, relativ zu den geschalteten Magnetfeldgradienten, sind die technologisch erzeugbaren Schaltzeiten und Magnetfeldgradientenamplituden ausreichend, um die Größenordnung der im menschlichen Körper gebrauchten biochemischen Spannungen zu erreichen, die zur Steuerung von Muskelkontraktionen verwendet werden. Man spricht in diesem Zusammenhang von einer »peripheren Nervenstimulation (PNS)«. Auch hier sind die Hersteller von MRTs rechtlich verpflichtet, entsprechende Verriegelungsmechanismen zu implementieren, die eine schmerzhafte Empfindung des Patienten während einer MRT-Untersuchung vermeiden. Ein solcher Verriegelungsmechanismus wird auch als Stimulationsmonitor bezeichnet.
353 19.5 · Zukunftsperspektiven
Die akustische Belastung bei einer MR-Untersuchung Beim Einschalten eines Stromes durch eine Magnetfeldgradiententwicklung in Höhe von etwa 600 A in Gegenwart eines 1,5-T-Magnetfeldes wirkt eine Kraft auf eine Leiterwicklung, die etwa der Gewichtskraft von 290 kg entspricht. Entsprechend des Entdeckers Hendrik Anton Lorentz nennt man diese Kraft auch die LorentzKraft. Die Kraft wirkt, solange der Strom fließt, und verschwindet, sobald der Strom abgeschaltet wird. Die Zeitdauer für einen Schichtselektionsgradienten liegt in der Größenordnung von 2,5ms. Der Wechsel von Kraftwirkung zu keiner Kraftwirkung liegt damit bei 200 Hz. Das ist ein Ton zwischen einem »A (220 Hz)« und einem »G (196 Hz)«. Bei einer Bandbreite der Frequenzkodierung von 195Hz/Pixel beträgt die Einschaltdauer für den Frequenzkodiergradienten 5,128 ms. Die Frequenz von Belastung zu belastungsfrei liegt damit bei 97,5 Hz, welches dicht an einem »G (98 Hz)« liegt. Unglücklicherweise erfolgt das Schalten der Magnetfeldgradienten in der Regel nicht sinusförmig, und unterschiedliche Aufgaben haben unterschiedliche Frequenzen, sodass die Geräuschentwicklung während einer Untersuchung selten harmonisch erscheint. Gesetzlich vorgeschrieben ist, dass die Geräuschentwicklung am Ohr des Patienten 99 dB (A) nicht überschreiten darf, wobei Kopfhörer und Schalldämpfer als Dämpfungsmaßnahmen erlaubt sind. Vor der Freigabe einer neuen Gerätegeneration stellt der TÜV sicher, dass das Gerät zu keinem Zeitpunkt an irgendeiner Stelle mehr als 140 dB (A) erzeugt. Ist das nicht der Fall, so wird das Gerät für den Markt nicht zugelassen.
19.4.5 Gefahren im Fall des Verlustes
der Supraleitung Das kettenreaktionsartige Zusammenbrechen des gesamten supraleitenden Zustandes eines Magneten bezeichnet man mit »Quench«. Die derzeitig kommerziell verfügbaren und relativ leicht zu verarbeitenden metallischen Supraleiter wie Niob, NiTi oder Nb3Sn liegen in einem etwa 1800 Liter fassenden Heliumbad und haben damit eine Temperatur von –269°C, um ihre supraleitende Fähigkeit zu erreichen und zu erhalten. Bei einem sporadischen oder provozierten Verlust der Supraleitung werden Supraleiter normalleitend, und über die ohmschen Verluste der noch fließenden Ströme wird die im Magnetfeld gespeicherte Energie in das Heliumbad abgegeben. Dadurch wird das Helium in die gasförmige Phase überführt, und etwa fünf Sekunden später wird ein Druck erreicht sein, bei der eine Berstscheibe planmäßig nachgibt. Das gasförmige Helium wird über ein Quenchrohr planmäßig ins Freie abgeblasen. Innerhalb einer Minute ist der Strom abgeklungen und kein Ma-
gnetfeld mehr vorhanden. Nach zwei Minuten ist auch das Heliumabblasen nicht mehr nennenswert. Auch die Temperatur des soeben in die gasförmige Phase übergegangenen Heliums liegt dicht bei –269° und kühlt seine Umgebung massiv ab. Es besteht also die Gefahr von Erfrierungen, wenn man mit Verkleidungsteilen in Kontakt kommt, die von der Abkühlung durch das abdampfende Helium betroffen sind. Sollte aus irgendeinem Grund das Quenchrohr seine Aufgabe nicht erfüllen, so besteht die Gefahr der Sauerstoffverdrängung im Untersuchungsraum. Patient und bergende Personen können in einem solchen Fall zu Heliumatmern werden. Für solche Notfälle sind entsprechende Maßnahmen zu planen und ggf. zu trainieren. Es sind bisher keine Fälle bekannt, bei denen durch einen Quench Personen zu Schaden gekommen sind.
19.4.6 Gadoliniumhaltige Kontrastmittel
und die Gefahr von NSF Gadoliniumhaltige MR-Kontrastmittel galten in der Vergangenheit als nichtnephrotoxisch, im Gegensatz zu den in der konventionellen Angiographie und CT verwendeten, jodhaltigen Kontrastmitteln. Die Begeisterung ging sogar so weit, dass die Verwendung von MR-Kontrastmitteln in der Röntgentechnik vorgeschlagen wurde [46]. Umso schockierender war die Veröffentlichung des AKH Wien im Jahre 2006, die in fünf von neun Patienten mit terminaler Niereninsuffizienz, die regelmäßig mit gadoliniumhaltigen MR-Kontrastmitteln untersucht worden waren, die Entwicklung einer nephrogenen systemischen Fibrose dokumentierte [47]. Die nephrogene systemische Fibrose kann sich durch einen äußeren Hautbefall zeigen, kann aber auch die Fibrosierung innerer Organe bedeuten. Sie wurde 2000 erstmalig publiziert und führt in 5% aller Fälle zum Tode. Seit 2006 steht Gadolinium als zusätzlicher Trigger unter Verdacht. Weltweit gibt es derzeit ca. 500 Verdachtsfälle (Stand 5/2009 Bundesinstitut für Arzneimittel und Medizinprodukte). Unter Berücksichtigung der abgeschätzten jährlichen Rate von MR Kontrastmitteluntersuchungen in Höhe von 21,5 Millionen, scheint diese Zahl gering. Das Risiko der bisher als komplikationslos geltenden gadoliniumhaltigen Kontrastmittel sollte trotzdem zur Kenntnis genommen werden.
19.5
Zukunftsperspektiven
In den vergangenen beiden Jahrzehnten hat es immer wieder Stimmen gegeben, die der MRT eine Entwicklungssättigung vorausgesagt haben, ähnlich der der Computertomographie. Bisher haben sich diese Voraussagen nicht bestätigt.
19
354
II
Kapitel 19 · Magnetresonanztomographie (MRT)
19.5.1 Magnetfeldstärke
19.5.3 Anwendungsentwicklungen
Es ist eindeutig ein Trend zu höheren Magnetfeldstärken zu beobachten. Etwa zwei Drittel des Marktes werden derzeit von 1,5-T-Systemen abgedeckt. Mittlerweile haben 3,0-T-Systeme einen 20%igen Marktanteil. Der Rest des Marktes wird vom Niederfeld (≤ 0,5 T) belegt. Auf noch rein akademischem Niveau bewegen sich die 7-TSysteme, von denen es derzeit 37 Installationen gibt. Erwähnenswert ist sicher die Existenz von mindestens zwei 9,4-T-Systemen und zwei 11,7-T-Systemen, wobei alle hier erwähnten Systeme über Magnetöffnungen verfügen, die für die Untersuchung eines Menschen geeignet sind.
Bei den neuen Anwendungsentwicklungsfelder stehen im Vordergrund: ▬ Bewegungskorrekturen und Registrierungen, ▬ Überlagerung zusätzlicher Informationen (parametrische Bildgebung), ▬ Perfusionsmessung ohne Kontrastmittel (ASL), ▬ MR-Angiographie ohne Kontrastmittel (NATIVE), ▬ zeitlich aufgelöste ceMRA (TWIST & TRICKS), ▬ Messung bei bewegtem Tisch (TimCT [total imaging matrix with continuous table movement] und MDS [Move During Scan]).
19.5.2 HF-Technologie
Der Signalgewinn durch die Verwendung höherer Magnetfeldstärken (⊡ Abb. 19.12) geht einher mit der Messzeitersparnis über Oberflächenspulentechnologien, die über mehrere Kanäle eine räumliche Information liefern können, die man ansonsten durch entsprechende zeitintensivere Phasenkodierschritte messen müsste. Derzeit sind 128 Kanäle in der Empfängerkette eines kommerziell erhältlichen Produktes realisiert, und die ersten Spulen, die diese Ausstattung voll ausnutzen, stehen als Prototypen zur Verfügung. Die Digitalisierung der SendeEmpfangskette wird gerade in kommerziell erhältlichen Produkten umgesetzt und steht jetzt einer entsprechenden Anwendungsentwicklung zur Verfügung.
Desgleichen sind erhebliche Fortschritte in der Arbeitsflussoptimierung gemacht worden, die die Patientenverweildauer im Magneten reduzieren. Bei Kopfaufnahmen z. B. ist die Schichtangulierung und Abdeckung in den Richtlinien der Bundesärztekammer vorgegeben. In modernen Systemen wird die automatisch ablaufende 3D-Übersichtsaufnahme verwendet, um anhand dort erkennbarer anatomischer Strukturen die Folgemessung automatisch zu positionieren. Eine ähnliche, vom System automatisch durchgeführte Positionierung der zu messenden Schichten erfolgt bei Knieaufnahmen. Bei Herzaufnahmen werden anhand der Übersichtsaufnahmen vom System automatisch die Kurzachsenschnitte eingestellt. Bei Wirbelsäulenaufnahmen reicht ein Klick, um das Bandscheibenfach zu identifizieren, welches untersucht werden soll. Die notwendige Schichtangulierung führt das System selbst durch. Die Anzahl der angewählten Spulenelemente der Oberflächenempfangsspulen bestimmt Bildrauschen und Abdeckung. Werden mehr Spulenelemente angewählt als notwendig, erhöht man unnötig das Bildrauschen. Werden zu wenige Spulenelemente angewählt, so kann die für die Diagnostik notwendige Abdeckung unzureichend sein. Auch hier sind bei modernen Systemen automatische Anwahl und Abwahl von Spulenelementen möglich. Generell lässt sich sagen, dass zunehmend mit Hilfe von Standardisierungen und Automatisierungen eine Arbeitsflusserleichterung stattfindet, die eine Zeitersparnis pro Patient darstellt – bei gleichzeitig reproduzierbarer Qualität.
19.5.4 Hybridsysteme
⊡ Abb. 19.12. Transversale T2-gewichtete Gradienten-Echo-Aufnahme eines Patienten mit tuberöser Sklerose, durchgeführt an einem 7-TSystem. (Mit freundlicher Genehmigung des University Hospitals of New York)
Nach dem Erfolg des PET-CT hat die Idee der Hybridtechnologie auch die MRT erreicht. Die Einführung eines MR-PET-Systems in die klinische Routine ist nur noch eine Frage der Zeit. Ein MR-PET-System stellt eine Verknüpfung dar von einer Modalität, welche sich durch überlegenen Weichteilkontrast auszeichnet, und einer Modalität, die als Alleinstellungsmerkmal biochemische funktionelle Information zur Verfügung stellt.
355 Literatur
nuierliche Bildaufnahme, mit Hilfe eines MRT, bei gleichzeitig kontinuierlicher Bestrahlung, den Fokus nachzuführen und so eine effektivere Therapie zu gewährleisten. Wie offensichtlich zu erkennen ist, sind genügend Entwicklungen zu erwarten, die sowohl für Physiker und Ingenieure als auch Ärzte und medizinisch technische Assistentinnen eine interessante Zukunft erwarten lassen.
Literatur
⊡ Abb. 19.13. Prinzipskizze eines voll integrierten MR-PET-Systems
Potentielle wissenschaftliche Anwendungen sind ▬ die simultane Akquisition von fMRI-Daten, ▬ die Kombination von DTI, 3D CSI und PET, ▬ die Verteilung pharmazeutischer Produkte innerhalb anatomischer Strukturen, ▬ Bewertungen auf zellulärer Ebene. Potentielle klinische Anwendungen sind ▬ Differentialdiagnostik zwischen Rezidiven und Nekrosen, ▬ Alzheimer-Früherkennung, ▬ Diagnostik und Erfolgskontrolle in der pädiatrischen Onkologie, ▬ Tumor-Staging und Therapiekontrolle, ▬ Herzinfarktdiagnostik: Hibernating vs. Stunning. Mit der Zielsetzung, ein PET-System in einem MR zu integrieren, sind einige Herausforderungen zu meistern, beginnend bei einem MR-kompatiblem PET-Detektor (⊡ Abb. 19.13). Die Integration profitiert natürlich von der schon frühen Entwicklung von MR-Systemen mit großer Patientenöffnung.
19.5.5 Theranostics – Therapie unter
Bildgebung Eine weitere Möglichkeit für den Ausbau des Anwendungsfeldes eines MR-Tomographen liegt in der Kombination mit einer therapeutischen Modalität, wie z. B. der Strahlentherapie. Für die Strahlentherapie ist seit jeher die Fixierung des Patienten bei der strahlentherapeutischen Behandlung eine Herausforderung. Bei der Bestrahlung von Krebszellen in der Nähe innerer Organe, die sich in erster Linie durch die Atmung ständig verschieben, gibt es derzeit noch keine etablierten Lösungen. Hier ist der in absehbarer Zukunft zu realisierende Ansatz, durch konti-
1. Pauli W (1924) Entdeckung des »Kernspins« zur Erklärung der Hyperfeinstruktur der Atomspektren. Naturwissenschaften, Bd. 12 2. Gerlach W, Stern O (1924) Über die Richtungsquantelung im Magnetfeld. Ann Phys 74: 673–699 (s. auch: dies [1922] Das magnetische Moment des Silberatoms. Z Physik V9, N1, 353–355) 3. Rabi II, Zacharias JR, Millman S, Kusch P (1938) A new method of measuring nuclear magnetic moment. Phys Rev 53: 318 4. Gorter CJ, Broer LJF (1942) Negative result of an attempt to observe nuclear magnetic resonance in solids. Physica (The Hague) 9: 591 5. Bloch F, Hanson WW, Packard M (1946) Nuclear induction. Phys Rev 69: 127 (s. auch: Purcell EM, Torrey HC, Pound RV [1964] Resonance absorption by nuclear magnetic moments in a solid. Phys Rev 69: 37–38) 6. Bloch F (1946) Nuclear Induction. Phys Review 70, 460–473 7. Odeblad E, Bhar BN, Lindström G (1956) Proton magnetic resonance of human red blood cells in heavy water exchange experiments. Arch Biochem Biophys 63: 221–225 8. Damadian RV (1971) Tumor detection by nuclear magnetic resonance. Science 171: 1151–1153 (s. auch: Hollis DP, Economou JS, Parks LC, Eggleston JC, Saryan LA, Czeisler JL [1973] Nuclear magnetic resonance studies of several experimental and human malignant tumors. Cancer Research 33: 2156–2160) 9. Damadian R (1974) United States Patent no. 3789832. Filed 17 March 1972, awarded 5 February 1974. Apparatus and method for detecting cancer in tissue. Inventor: Raymond V. Damadian 10. Lauterbur PC (1973) Image formation by induced local interactions: examples of employing nuclear magnetic resonance. Nature 242: 190–191 11. Kumar A, Welti D, Ernst RR (1975) NMR Fourier zeugmatography. J Magn Res 18: 69–83 12. Edelstein WA, Glover GH, Hardy CJ, Redington RW (1986) The intrinsic signal-to-noise ratio in NMR imaging. Magn Reson Med 3(4): 604–18 13. Kuhl CK, Träber F, Schild HH (2008) Whole-body high-field-strength (3.0-T) MR Imaging in Clinical Practice. Part I. Technical considerations and clinical applications. Radiology 246(3): 675–96 14. Hennig J, Welz AM, Schultz G, Korvink J, Liu Z, Speck O, Zaitsev M (2008) Parallel imaging in non-bijective, curvilinear magnetic field gradients: a concept study. MAGMA 21(1–2): 5–14 15. Prince MR, Yucel EK, Kaufman JA, Harrison DC, Geller SC (1993) Dynamic gadolinium-enhanced three-dimensional abdominal MR arteriography. J Magn Reson Imaging 3(6): 877–81 16. Prince MR, Narasimham DL, Stanley JC, Chenevert TL, Williams DM, Marx MV, Cho KJ (1995) Breath-hold gadolinium-enhanced MR angiography of the abdominal aorta and its major branches. Radiology 197(3): 785–92 17. Pruessmann KP, Weiger M, Scheidegger MB, Boesiger P (1999) SENSE: sensitivity encoding for fast MRI. Magn Reson Med 42(5): 952–62 18. Griswold MA, Jakob PM, Heidemann RM, Nittka M, Jellus V, Wang J, Kiefer B, Haase A (2002) Generalized autocalibrating partially parallel acquisitions (GRAPPA). Magn Reson Med 47(6): 1202–10
19
356
II
Kapitel 19 · Magnetresonanztomographie (MRT)
19. Vassalo G, Boltano M, Linardos J, Damadian J, Cohen JJ, Damadian RV (1996) Control of MRI System, U.S. Patent 6, 157, 194, 2000 20. Empfehlungen der Strahlenschutzkommission (Orientierungshilfe für bildgebende Untersuchungen). BAnz. Nr. 5a vom 12.01.2010 S. 0001 21. Schubert R (Hrsg) (2008) Indikationen zur MRT. Wissenschaftsverlag GmbH, Krefeld 22. Einheitlicher Bewertungsmaßstab (EBM), Arztgruppen-EBM, Radiologe, KBV – Kassenärztliche Bundesvereinigung, Berlin 2010 23. Bundesanzeiger 2001, Nr. 28: S. 2013; Richtlinien des Bundesausschusses der Ärzte und Krankenkassen über Kriterien zur Qualitätsbeurteilung in der Kernspintomographie gemäß § 136 SGB V i.V.m. § 92 Abs. 1 SGB V (Qualitätsbeurteilungs-Richtlinie für die Kernspintomographie) 24. Hahn E (1999) How I stumbled across the Spin Echo. Third Annual Lauterbur Lecture, Proceedings of the International Society of Magnetic Resonance in Medicine. Philadelphia 25. Kuchel PW, Chapman BE, Bubb WA, Hansen PE, Durrant CJ, Hertzberg MP (2003). Magnetic susceptibility: solutions, emulsions, and cells. Concepts Magn Reson A 18: 56–71 26. Runge VM, Clanton JA, Herzer WA, Gibbs SJ, Price AC, Partain CL, James AE Jr. (1984) Intravascular contrast agents suitable for magnetic resonance imaging. Radiology 153(1): 171–6 27. Niendorf HP, Felix R, Laniado M, Schörner W, Claussen C, Weinmann HJ (1985) Gadolinium-DTPA: a new contrast agent for magnetic resonance imaging. Radiat Med 3(1): 7–12 28. Gadian DG, Payne JA, Bryant DJ, Young IR, Carr DH, Bydder GM (1985) Gadolinium-DTPA as a contrast agent in MR imaging – theoretical projections and practical observations. J Comput Assist Tomogr 9(2): 242–51 29. Hennig J, Nauerth A, Friedburg H, Ratzel D (1984) Ein neues Schnellbildverfahren für die Kernspintomographie. Radiologe 24: 579–580 30. Melki PS, Mulkern RV, Panych LP, Jolesz FA (1991) Comparing the FAISE method with conventional dual-echo sequences. J Magn Reson Imaging 1: 319–326 31. Constable RT,Gore JC (1992) The loss of small objects in variable TE imaging: implications for FSE,RARE, and EPI. Magn Reson Med 28: 9–24 32. Haase A, Frahm J, Mathaei D et al. (1986) FLASH imaging. Rapid imaging using low flip-angle pulses. J Magn Reson 67: 256–266 33. Haacke EM, Xu Y, Cheng YC, Reichenbach JR (2004) Susceptibility weighted imaging (SWI). Magn Reson Med 52(3): 612–8 34. Ogawa S, Lee TM, Kay AR, Tank DW (1990) Brain magnetic resonance imaging with contrast dependent on blood oxygenation., Proc Natl Acad Sci USA 87(24): 9868–72 35. Ogawa S, Menon RS, Tank DW, Kim SG, Merkle H, Ellermann JM, Ugurbil K (1993) Functional brain mapping by blood oxygenation level-dependent contrast magnetic resonance imaging. A comparison of signal characteristics with a biophysical model. Biophys J 64(3): 803–12 36. Brasch RC (1983) Work in progress: methods of contrast enhancement for NMR imaging and potential applications. A subject review. Radiology 147(3): 781–8 37. Knutsson L, Ståhlberg F, Wirestam R (2010) Absolute quantification of perfusion using dynamic susceptibility contrast MRI: pitfalls and possibilities. MAGMA 23(1): 1–21 38. Stark DD, Wittenberg J, Middleton MS, Ferrucci JT Jr. (1986) Liver metastases: detection by phase-contrast MR imaging. Radiology 158(2): 327–32 39. Nitz WR (2003) Magnetresonanztomographie – Sequenzakronyme und weitere Kürzel. Radiologe 43: 745–765 40. Bydder GM, Pennock JM, Steiner RE, Khenia S, Payne JA, Young IR (1985) The short TI inversion recovery sequence –an approach to MR imaging of the abdomen. Magn Reson Imaging 3(3): 251–4
41. De Coene B, Hajnal JV, Gatehouse P, Longmore DB, White SJ, Oatridge A et al. (1992) MR of the brain using fluid-attenuated inversion recovery (FLAIR) pulse sequences. AJNR Am J Neuroradiol 13(6): 1555–64 42. Stejskal EO, Tanner JE (1965) Spin Diffusion Measurements: Spin Echoes in the Presence of a Time-Dependent Field Gradient. Journal of Chemical Physics 42, No. 1: 288–292 43. Basser PJ, Mattiello J, LeBihan D (1994) MR diffusion tensor spectroscopy and imaging. Biophys J 66(1): 259–67 44. Mori S, Crain BJ, Chacko VP, van Zijl PC (1999) Three-dimensional tracking of axonal projections in the brain by magnetic resonance imaging. Ann Neurol 45(2): 265–9 45. Shellock FG (2001) Magnetic Resonance Procedures: Health Effects and Safety. CRC Press, Boca Raton 46. Wagner HJ, Kalinowski M, Klose KJ, Alfke H (2001) The use of gadolinium chelates for X-ray digital subtraction angiography. Invest Radiol 36(5): 257–65 (Erratum in: Invest Radiol 36[9]: 553) 47. Grobner T (2006) Gadolinium – a specific trigger for the development of nephrogenic fibrosing dermopathy and nephrogenic systemic fibrosis. Nephrol Dial Transplant 21: 1104–1108
Weiterführende Literatur Reimer P, Parizel PM, Stichnoth F (2010) Clinical MR Imaging: A Practical Approach. Springer, Berlin Heidelberg Reiser MF, Semmler W, Hricak H (2008) Magnetic Resonance Tomography. Springer, Berlin Heidelberg Oppelt A (Hrsg) (2005) Imaging Systems for Medical Diagnostics. Publicis Corporate Publishing, Erlangen Nitz WR, Runge VM, Schmeets SH, Faulkner WH, Desai NK (2005) Praxiskurs MRT. Thieme, Stuttgart Weishaupt D, Köchli C, Marincek B (2003) Wie funktioniert MRI? Springer, Berlin Heidelberg Tokyo
20 Ultraschalldiagnostik R. Götz, F. Schön
20.1
Einleitung
20.2
Physikalische Grundlagen und praktische Auswirkungen – 358
20.2.1 20.2.2 20.2.3 20.2.4 20.2.5 20.2.6 20.2.7 20.2.8 20.2.9
Prinzip – 358 Erzeugung der Schallwellen – 358 Reflexion – 358 Räumliche Zuordnung – Laufzeit – 359 Eindringtiefe, axiale Auflösung und Frequenzbereiche – 360 Einflussfaktoren: Druck und Temperatur – 361 Second Harmonic – 361 Breitband-Harmonic – 362 Blutfluss- und Gefäßdarstellung – 363
20.3
Gerätetechnik
20.3.1
Prinzipieller Aufbau eines Ultraschallgerätes – 364
20.4
Dopplerverfahren
20.4.1 20.4.2 20.4.3 20.4.4
PW-Doppler – 366 High-PRF-Doppler – 367 CW-Doppler – 367 Farbdoppler – 367
20.5
Sondentypen – 368
20.5.1 20.5.2 20.5.3
Mechanische Sonden – 368 Elektronische Sonden – 368 Fokussierung – 370
20.1
– 357
– 364 – 366
Einleitung
Ultraschalldiagnostik ist heute in nahezu allen medizinischen Fachbereichen eine wichtige bildgebende Methode. Im Vordergrund stehen hierbei die schnelle, einfache und insbesondere wirtschaftliche Anwendbarkeit. Weitere Vorteile ergeben sich aus der Mobilität und durch das breite Anwendungsspektrum moderner Ultraschalldiagnostiksysteme. Nicht zuletzt diese Eigenschaften und auch das Fehlen ionisierender Strahlung machen ihren Einsatz heute unverzichtbar. In Deutschland hat der Ultraschallmarkt für Neugeräte nach den Daten des Zentralverbandes der Elektrotechnischen Industrie (ZVEI) ein Umsatzvolumen von ca. 200 Mio. € pro Jahr. Das Volumen verteilt sich auf ca. 50% Anschaffungen in Kliniken und Krankenhäusern und ca. 50% bei niedergelassenen Ärzten. Die Verteilung auf Fach-
20.6
Dreidimensionaler Ultraschall (3D, Realtime 3D) – 371
20.6.1 20.6.2
Akquisitionstechniken – 371 3D-Rekonstruktion – 372
20.7
Neue und ergänzende Technologien – 373
20.7.1 20.7.2 20.7.3 20.7.4 20.7.5
Extended-Field-Of-View – 373 Trapezoid – 374 Steered-Compound-Imaging (SCI) – 374 Speckle Reduction – 374 Gefäßdistensionsanalyse (Echo Tracking, eTracking) – 375
20.8
Betrieb eines Ultraschallgeräts – 375
20.8.1 20.8.2
Dokumentation – 376 Anwendungsspezifische Ergänzungen, Upgrades – 376 Pflege und Wartung, Updates – 376 Hygiene – 376 Sichere Anwendung der Ultraschalldiagnostik – 376
20.8.3 20.8.4 20.8.5
Weiterführende Literatur und WebLinks – 376 Allgemein – 376 Speziell – 376 Internet Links – 377
richtungen ergibt folgendes Bild: ca. 30% Gynäkologie, ca. 30% Innere Medizin und ca. 20% Kardiologie. Eine Vielzahl unterschiedlicher technischer und applikativer Verfahren sowie eine Anzahl verschiedener industrieller Anbieter sind Grundlage für die hohe Dichte der in der täglichen Diagnostik eingesetzten Geräte. Die Ultraschalldiagnostik hat andere Verfahren, wie z. B. die konventionelle Röntgendiagnostik, aber auch CT oder MR zum Teil verdrängt oder ergänzt. Im Gegensatz zu den vorgenannten Verfahren ist Ultraschall eine so genanntes Realtime-Verfahren. Die untersuchten Organe werden in Echtzeit auf einem Bildschirm im Schnittbildverfahren dargestellt. Somit entsprechen sie einem aus dem CT und MR bekannten tomographischen Schnittbild. Damit unterscheidet sich der Ultraschall wesentlich vom Durchsichtsverfahren der konventionellen Röntgenuntersuchung (⊡ Tab. 20.1).
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _20, © Springer-Verlag Berlin Heidelberg 2011
358
Kapitel 20 · Ultraschalldiagnostik
⊡ Tab. 20.1. Übersicht der Vor- und Nachteile bildgebender Verfahren
Ionisierende Strahlung
II
Ultraschall
CT
MR
Röntgen
Angio
Nuklearverfahren
nein
ja
nein
ja
ja
ja
Realtime
ja
nein
nein
nein
ja
(ja)
Bildart
Schnitt
Schnitt
Schnitt
Schicht
Schicht
Schicht
Gesamtkosten
niedrig
sehr hoch
sehr hoch
hoch
hoch
sehr hoch
20.2
Physikalische Grundlagen und praktische Auswirkungen
20.2.1 Prinzip
Die folgenden Erklärungen zur Entstehung von Ultraschallbildern folgen theoretischen Überlegungen und werden idealisiert dargestellt. Ihnen zugrunde liegen physikalische Gesetzmäßigkeiten, die einfach und verständlich dem Leser dargebracht werden sollen. Die tatsächliche Entstehung von Ultraschallbildern ist allerdings deutlich komplexer. Ein wesentlicher Beitrag zur Bildentstehung basiert auf dem Phänomen der Streuung, die das real ablaufende Geschehen deutlich komplizierter gestaltet, worauf hier lediglich hingewiesen sei. Im folgenden Text wird nicht mehr darauf eingegangen. Bei der Ultraschalldiagnostik sind Sender und Empfänger in der Ultraschallsonde zusammengefasst. Die Sonde ist über ein Kabel mit dem Ultraschallgerät verbunden und ermöglicht dadurch eine sehr freie Positionierung des Schallkopfes auf dem Körper und damit auch eine nahezu beliebige Untersuchungsebene und Schnittführung. Im Unterschied zum Röntgenverfahren als Transmissionsverfahren ist Ultraschall ein so genanntes Reflexionsverfahren. Dabei sendet die Schallsonde einen kurzen Schallimpuls aus, der in den Körper eindringt und an Grenzflächen, z. B. zwischen Leber und Niere, teilweise reflektiert wird. Nach Aussenden des Impulses schaltet das Gerät den Schallkopf auf Empfang. Das Verhältnis von Sende- zu Empfangszeit beträgt ungefähr 1 : 1000. Die reflektierten Anteile der gesendeten Schallwelle werden nun vom Schallkopf aufgenommen und zur Weiterverarbeitung an das Gerät geleitet. Mit Ausnahme des Continuous-Wave-Verfahrens ( Abschn. 20.4) arbeiten Ultraschallgeräte deshalb grundsätzlich im so genannten Pulsverfahren. Auch in der Natur ist dieses Prinzip verbreitet und dient z. B. Fledermäusen, Delphinen und anderen Tieren als Orientierungshilfe.
20.2.2 Erzeugung der Schallwellen
Zur Schallwellenerzeugung verwendet man spezielle, geschliffene Piezokristalle. Diese synthetischen Kristalle
⊡ Abb. 20.1. Frequenzbereiche der Schallwellen
werden industriell z. B. aus Anteilen von Bariumtitanat, Bleizirkonat, Lithiumverbindungen oder anderen Keramiken hergestellt. Diese unterliegen dem so genannten Piezoeffekt, der von den Brüdern Jacques und Pierre Curie am Turmalinkristall beschrieben wurde. Sobald eine Spannung an ein solches Kristall angelegt wird, ändert es seine Form bzw. Geometrie. Je nach Polarität der Spannung erfolgt eine Dilatation oder Kontraktion des Piezokristalls. Legt man also eine hochfrequente Wechselspannung an, so schwingt es mit eben dieser Frequenz und erzeugt hochfrequente Schallwellen. Bei entsprechend hoher Frequenz der angelegten Wechselspannung erreicht man die vom Menschen nicht mehr hörbaren Ultraschallwellen (⊡ Abb. 20.1). Im Empfangsmodus hingegen werden Schallwellen, die auf den Kristall treffen, in eine elektrische Wechselspannung umgesetzt, die dann vom Gerät weiterverarbeitet wird ( Abschn. 20.3).
20.2.3 Reflexion
Auf dem Weg durch das Gewebe werden an Grenzflächen zwischen unterschiedlichen Organen und Organabschnitten Anteile der gesendeten Schallwelle reflektiert. Ausschlaggebend für die Energie der jeweils reflektierten Wellen ist der unterschiedliche so genannte Wellenwiderstand (Z) der durchstrahlten einzelnen Organanteile bzw. -abschnitte. An diesen multiplen Grenzflächen findet in Abhängigkeit des Verhältnisses der einzelnen Wellenwiderstände sowie des Auftreffwinkels zur Grenzfläche und der Oberflächenbeschaffenheit (Streuung) eine mehr oder weniger starke Reflexion statt.
359 20.2 · Physikalische Grundlagen und praktische Auswirkungen
Um zur Entstehung eines Bildes beizutragen, benötigt die reflektierte Welle eine ausreichende Energie, da auch auf dem Rückweg zum Kristall Energie verloren geht. Der ideale, reflektierte Anteil liegt bei ca. 1%, was einem Reflexionsfaktor von R = 0,01 entspricht. Höhere Reflexionsfaktoren bewirken insgesamt einen höheren Verlust an Energie der propagierenden Welle und somit eine nichtausreichende Penetration des Schallstrahles in tieferes Gewebe. Der Reflexionsfaktor liegt per Definition zwischen 0 und 1, wobei R = 0 bedeutet, dass keine Reflexion stattfindet und R = 1 der Totalreflexion entspricht. Der Reflektionsfaktor R berechnet sich aus den Wellenwiderständen der beiden Medien, die die Grenzfläche bilden (⊡ Abb. 20.2). Entscheidend ist dabei die Differenz der beiden Wellenwiderstände. Aus ⊡ Abb. 20.3 ersieht man, dass Luft einen Wellenwiderstand hat, der von demjenigen für menschliches Gewebe sehr stark abweicht, sodass hier ein hoher Reflexionsfaktor von nahezu R = 1 entsteht und Totalreflexion eintritt. Eine Grenzfläche mit Luft ist daher für Ultraschall ein nicht zu überwindendes Hindernis. Um einen möglichst verlustfreien Übergang von der Sonde zum Körper zu erreichen, verwendet man als Koppelmedium Ultraschallgel. Das Gel besitzt aufgrund des sehr hohen Wasseranteiles eine gute Schallleitfähigkeit und soll eine luftfreie Ankopplung mit einem Reflexionsfaktor von ungefähr R = 0 gewährleisten. Aber nicht nur Luft, sondern auch Metallteile, Knochen und Kalkpartikel können Probleme bereiten, die einer Totalreflexion nahe kommen. Dies erklärt Schallschatten, z. B. hinter Knochen, Gallensteinen oder Endoprothesen.
⊡ Abb. 20.2. Reflexionsfaktor und Wellenwiderstand
⊡ Abb. 20.3. Verschiedene Reflexionsfaktoren
Muskel
20.2.4 Räumliche Zuordnung
– Laufzeit
Niere Leber Pankreas Hirn Haut Wasser Brust Fett
1300
1400
1500
1600
1530
⊡ Abb. 20.4. Schalllaufgeschwindigkeit im Gewebe
1700 m/sec
Die räumliche Zuordnung der durchstrahlten Gewebe und reflektierenden Grenzflächen erfolgt über Messung der Laufzeit seit Absenden des Impulses bis zum Empfang der jeweiligen reflektierten Anteile. Frühe Echos bedeuten, dass sie von schallkopfnahen Grenzflächen reflektiert wurden. Späte Echos bedeuten, dass sie von schallkopffernen Grenzflächen reflektiert wurden. Diese zeitliche Differenz wird bei der Monitordarstellung durch einen entsprechenden Abstand der Bildpunkte in Schallrichtung repräsentiert. Dies setzt allerdings die Kenntnis der Schallleitungsgeschwindigkeit im Gewebe voraus und wird mit einem gemittelten Wert von 1530 m/s angenommen (⊡ Abb. 20.4). Da unterschiedliche Gewebe auch unterschiedliche Wellenwiderstände haben, ist diese Mittelung zwangsläufig ein allgemein akzeptierter Kompromiss und wird bei handelsüblichen Ultraschallgeräten verwendet.
20
360
Kapitel 20 · Ultraschalldiagnostik
Lediglich sehr moderne Ultraschallgeräte berücksichtigen diese unterschiedlichen Schalllaufgeschwindigkeiten bei der Berechnung der Ultraschallbilder (Speed of Sound) und kompensieren die zeitlichen Unterschiede der Laufzeit entweder manuell durch Benutzereingriff oder auch automatisch.
II 20.2.5 Eindringtiefe, axiale Auflösung
und Frequenzbereiche Nicht nur die Anzahl der reflektierenden Grenzflächen und deren Reflexionsfaktoren nehmen auf das Eindringvermögen der Schallwellen Einfluss, sondern auch die Frequenz der Schallwellen. Höhere Sendefrequenzen haben auf der gleichen Wegstrecke einen höheren Energieverlust als niedrigere Sendefrequenzen und erreichen somit eine geringere Eindringtiefe als niedere Frequenzen. In Bezug auf das axiale Auflösungsvermögen besitzen hohe Frequenzen bedingt durch die kürzere Wellenlänge (λ) hingegen einen Vorteil. Die minimale Wellenlänge zur separaten Abbildung zweier Grenzflächen beträgt im theoretisch besten Falle eine einzelne Wellenlänge. Bei 5 MHz z. B. entspricht eine Wellenlänge 0,3 mm, wohingegen 10 MHz einer Wellenlänge von 0,15 mm entsprechen. Somit können theoretisch mehr einzelne
Grenzflächen bei 10 MHz aufgelöst werden als bei 5 MHz (⊡ Abb. 20.5). Wie in der Abbildung ersichtlich, besteht ein Impulspaket nicht nur aus einer einzigen Welle mit positiver und negativer Amplitude, sondern auch aus Ein- und insbesondere Ausschwingamplituden. Diese verlängern das gesamte Impulspaket um einige Schwingungsvorgänge. Bei aktuellen Premiumgeräten im Markt wird daher ein erheblicher technischer Aufwand betrieben, um den gesamten Einund Ausschwingvorgang der Kristalle zu kontrollieren. Ziel ist dabei, möglichst kurze Impulspakete, idealerweise nur einen einzelnen Sinusimpuls, zu generieren. Dies kann nur durch genaue Kenntnis der jeweiligen Kristallcharakteristik des Schallkopfes und entsprechendes Ansteuern mit angepassten elektrischen Impulslängen und Impulsformen erreicht werden. Durch diese »elektrische Führung« der Kristalle werden Impulspaketlängen von nahezu der Größe einer einzelnen Wellenlänge erreicht. Dadurch kann annähernd die theoretische Auflösung von 0,15 mm bei 10 MHz erreicht werden, wie im Beispiel oben angeführt. Die axiale Auflösung ist also proportional und die Eindringtiefe umgekehrt proportional zur Frequenz. Für die praktische Anwendung des Ultraschalls ergibt sich hier ein notwendiger Kompromiss zwischen dem Wunsch nach hoher axialer Detailauflösung und guter Tiefenpenetration.
⊡ Abb. 20.5. Darstellung zweier Reflektoren bei unterschiedlicher Pulslänge
361 20.2 · Physikalische Grundlagen und praktische Auswirkungen
Einen Überblick über die verwendeten verschiedenen Frequenzen zur Darstellung unterschiedlicher Organe gibt die ⊡ Abb. 20.6.
20.2.6 Einflussfaktoren: Druck und Temperatur
Die Geschwindigkeiten, mit der Schallwellen ein Medium durchdringen, hängen, wie bereits erwähnt, primär von den Materialeigenschaften dieses Mediums ab. Eine Veränderung der Umgebungsbedingungen Wärme und Druck beeinflussen ebenfalls die Ausbreitungsgeschwindigkeit des Schallimpulses. Sowohl eine Temperaturerhöhung als auch ein Druckanstieg gehen mit einer schnelleren Ausbreitung von Schallwellen einher. In diesem Zusammenhang ist es bedeutsam, dass der Schallimpuls selbst im periodischen Wechsel Druck und Unterdruck auf das Übertragungsmedium ausübt. Das heißt, der Schallimpuls selbst beeinflusst mit seinen Druckschwankungen die Schallleiteigenschaften des Mediums. Diese Einwirkungen auf das Medium und die resultierenden Wechselwirkungen verändern kontinuierlich die Eigenschaften des Schallimpulses während der Propagation durch das Gewebe. Diese Veränderung hat Auswirkung auf die Signalqualität und kann technisch nutzbar gemacht werden.
verändernden Schallausbreitungsgeschwindigkeit. Die positive Halbwelle (Druck) bewegt sich mit größerer Geschwindigkeit als die negative, mit der Folge, dass die abfallende Flanke der positiven Schallwelle mit zunehmender Entfernung von der Schallquelle immer steiler wird (⊡ Abb. 20.7). Ein ähnliches Phänomen kann man bei Meereswellen am Strand beobachten. Der untere, dem Meeresboden nahe Teil der Welle bewegt sich langsamer, weil er durch den immer näher kommenden Grund gebremst wird.
20.2.7 Second Harmonic
Die durch den Schallimpuls ausgelöste periodische Druckschwankung führt während des Zeitverlaufes einer sinusförmigen Wellenlänge zu einer sich regelmäßig
⊡ Abb. 20.7. Formveränderung der Schallwelle infolge nichtlinearer Schallgeschwindigkeit
⊡ Abb. 20.6. Frequenzbereiche des diagnostischen Ultraschalls
20
362
Kapitel 20 · Ultraschalldiagnostik
a
II b c
⊡ Abb. 20.8. Transformation einer nichtsinusförmigen Schwingung in verschiedene sinusförmige Einzelfrequenzen
Der obere Teil der Welle ist davon weitgehend unbeeinflusst und bewegt sich somit schneller. Irgendwann ist dieser Effekt so groß, dass der Kamm der Welle quasi nach vorn »umkippt« und die Welle sich bricht. Auch die in den Körper abgestrahlten Impulse eines Ultraschallgerätes erfahren auf ihrem Weg durch das Gewebe diese Verformung. Während die Schallwelle nahe am Kristall noch einen fast sinusförmigen Druckverlauf zeigt, ähnelt die Form der Welle mit zunehmender Distanz mehr und mehr einem Sägezahn. Je höher die abgestrahlte Schallintensität, desto früher und ausgeprägter tritt diese Verformung auf. Mittels einer Analyse nach Fourier11 kann jede nichtsinusförmige Schwingung in multiple sinusförmige Schwingungen unterschiedlicher Frequenzen zerlegt werden (⊡ Abb. 20.8). In der sägezahnähnlichen Form des sich verändernden Impulses stecken nämlich zunächst eine sinusförmige Grundwelle (a), darüber hinaus eine sinusförmige Schwingung geringerer Amplitude und halber Wellenlänge (b) sowie weitere Sinusschwingungen mit stetig geringer werdenden Amplituden, die einem ganzzahligen Quotienten der Grundwellenlänge entsprechen (c). Diese höherfrequenten Anteile werden auch als Harmonische Frequenzen bezeichnet. Diese »Schall-Harmonie« ist uns allen aus der Musik bekannt, da die Klangentstehung in Musikinstrumenten ähnlichen Gesetzmäßigkeiten unterliegt. Die konventionelle Signalverarbeitung unterdrückt die höherfrequenten Signalanteile, sodass primär die dominante Grundwelle jedes reflektierten Signals zur Bildgebung herangezogen wird. Beim »Second Harmonic Imaging« hingegen wird die erste Oberwellenfrequenz (zweite Harmonische) isoliert und zur Bildgewinnung ge11
Jean Baptiste Joseph Fourier (* 21. März 1768 bei Auxerre; † 16. Mai 1830 in Paris)
nutzt. Die Grundwelle (erste Harmonische) wie auch alle anderen Oberwellen werden diskriminiert und finden keine weitere Verwendung. Mehrere Vorteile bringt die Nutzung der zweiten Harmonischen Frequenz. Der Hauptvorteil liegt in der deutlich klareren Differenzierung zwischen flüssigen und soliden Gewebsanteilen. Grundlagen dafür sind die stärkere, sägezahnförmige Signaldeformation an soliden Strukturen (Tissue) und die geringe Deformation in flüssigen Gewebsanteilen, in denen nahezu keine reflektierten Harmonischen Wellen generiert werden. Einige Unternehmen bezeichnen diese Technik daher auch als Tissue Harmonic. Ein weiterer Vorteil der Nutzung Harmonischer Oberwellen liegt in der Tatsache, dass die in der Grundfrequenz automatisch auftretenden, störenden Nebenkeulen (Side-Lobes) in ihrer Amplitude zu gering sind, um Oberwellen zu erzeugen. Tissue Harmonic ist somit eine Technik, die Artefakte im Ultraschallbild reduziert und speziell flüssigkeitsgefüllte Hohlräume, wie z. B. die Amnionhöhle, die Harnblase, die Herzhöhlen oder Zysten sauberer und klarer abgrenzbar macht. Sie wird heutzutage auch in Geräten nahezu aller Preisklassen angewendet.
20.2.8 Breitband-Harmonic
Ein Nachteil der zweiten Harmonischen Oberwelle ist die durch die doppelte Frequenz bedingte geringere Penetrationsfähigkeit der reflektierten zweiten Oberwelle. Da diese Wellen jedoch den Weg zum Schallkopf zurücklegen müssen, kommt es zu einer insgesamt verringerten darstellbaren Abbildungstiefe des Ultraschallbildes. Daher sollte der Einsatz dieser Technik durch Zu- oder Abschalten dem Anwender vorbehalten bleiben, der je nach untersuchtem Organ entscheidet. Einige Geräte der Premiumklasse bieten heutzutage allerdings eine weitere Möglichkeit der Nutzung Harmonischer Signale an. Die Fourier-Analyse zeigt neben den beschriebenen Oberwellen auch so genannte Halbwellen (Sub-Harmonic) mit der halben Grundfrequenz des Sendeimpulses. Die gleichzeitige Verwendung von Halbwelle und zweiter Harmonischer Oberwelle zur Bildberechnung kompensiert durch die geringere Frequenz der Halbwelle und ihre bessere Penetrationsfähigkeit den Nachteil der geringeren Abbildungstiefe. Der Empfang und die Verarbeitung dieser Signale stellen hohe Anforderungen an das effektiv nutzbare Frequenzspektrum des Schallkopfes sowie die Signalverarbeitungselektronik. Generell haben Schallköpfe und die darin verwendeten Piezokristalle material- und bauartbedingt optimierte Frequenzbereiche. Zum gleichzeitigen Empfang von Halb- und Oberwelle ist Breitbandigkeit des Schallkopfes unabdingbar
363 20.2 · Physikalische Grundlagen und praktische Auswirkungen
und qualitätsbestimmend. In Premiumgeräten finden wir diese Technik unter dem Begriff »Breitband-Harmonic«.
20.2.9 Blutfluss- und Gefäßdarstellung
Doppler Das im Ultraschall allgemein verwendete Pulsreflexionsverfahren bietet über die Berechnung der Tiefe einer reflektierten Grenzschicht hinaus auch die Möglichkeit, eine sich bewegende Struktur zu detektieren und deren Geschwindigkeit zu messen. Dies ist durch eine gegenüber der oben beschriebenen Laufzeitbestimmung veränderte technische Verarbeitung der reflektierten Signale möglich, wodurch neben Darstellung der Gewebsmorphologie auch die Funktionsdiagnostik bewegter Gewebestrukturen und Flüssigkeiten (Blut, Muskel, Urin) möglich wird. Dieses Verfahren wird nach dem österreichischen Physiker Christian Doppler12 benannt und basiert auf dem uns aus dem Alltag bekannten Phänomen, dass sich die Schallfrequenz eines sich bewegenden Objektes je nach Geschwindigkeit und Richtung ändert. Jeder kennt das Phänomen des sich verändernden Klanges eines vorüberfahrenden Krankenwagens mit eingeschaltetem Martinshorn. Das Phänomen wird mit dem Begriff »Frequenzverschiebung« bezeichnet. Die messbare Veränderung der Frequenz zwischen dem emittierten und dem reflektierten Signal, die beim Ultraschall Dopplershift oder auch Dopplerfrequenzverschiebung genannt wird (fD), ist proportional der Geschwindigkeit der sich bewegenden Struktur. Zwischen Dopplershift und der Geschwindigkeit des Zielteilchens besteht der in ⊡ Abb. 20.9 dargestellte Zusammenhang. Durch Bestimmung von fD im Ultraschallgerät und unter Zuhilfenahme der bekannten Größen Schallgeschwindigkeit, Sende- und Empfangsfrequenz kann die Geschwindigkeit der Bewegung berechnet werden. Ein grundsätzliches Problem der praktischen Dopplermessung ist deren Winkelabhängigkeit. Wie in ⊡ Abb. 20.9 ersichtlich, besteht ein vom Winkel φ abhängiger Zusammenhang zwischen der bewegten Struktur und der Position des Betrachters. Extremfälle sind zum einen die direkte Messung in oder gegen die Bewegungsrichtung (φ = 0°) und zum anderen eine Messung im rechten Winkel zur Bewegungsrichtung (φ = 90°). Im ersten Fall entspricht fD der realen Geschwindigkeit, während im zweiten Fall das Ergebnis durch den Korrekturfaktor (φ = 90°, daraus folgt cos φ = 0) keine messbare Geschwindigkeit ergibt. Für den praktischen Einsatz gilt, dass beim »Dopplern« ein Winkel zwischen 0° und maximale 60° zur Bewegungsrichtung verwendet werden sollte. 12
Christian Andreas Doppler (* 29. November 1803 in Salzburg; † 17. März 1853 in Venedig)
⊡ Abb. 20.9. Dopplerformel
B-Mode Auch im B-Mode sind Darstellungen des Blutflusses eingeschränkt möglich, da der Reflexionsfaktor des Blutes ca. 1000fach niedriger ist als der von Gewebe. Unter besonderen Voraussetzungen (unmittelbare Proximität zum blutführenden Organ, Slow-Flow-Phänomen, HKT etc.) stellt sich der Blutfluss spontan dar, so genannter Spontanflow oder Spontanecho. Allerdings bietet die moderne Signalverarbeitungstechnik die Möglichkeit, durch Subtraktion zweier konsekutiv aufgenommener Bildlinien und anschließender Überlagerung mit einer der Nativlinien die zwischen den beiden Aufnahmen liegende Bewegung der reflektierenden Strukturen darzustellen. Der Vorteil dieses Verfahrens (B-Flow) ist die Winkelunabhängigkeit. Die räumliche Auflösung der Flussdarstellung ist allerdings von der Auflösung des B-Bildes abhängig, was sich diagnostisch negativ auswirken kann. Daher ist dieses Verfahren gegenüber dem DopplerVerfahren zurzeit deutlich weniger verbreitet.
Ultraschallkontrastmittel In Abhängigkeit von der medizinischen Indikation und um eine präzise Darstellung der Organperfusion und Perfusionsdynamik zu erreichen, werden in zunehmendem Maße Ultraschallkontrastmittel in der Diagnostik eingesetzt. Ultraschallkontrastmittel werden intravenös appliziert, überstehen weitestgehend unbeschadet die Lungenpassage und werden vom linken Herzen in hoher Verdünnung mit dem Blut in die Muskulatur und in die Organe gepumpt. Ultraschallkontrastmittel bestehen aus unzähligen winzigen Gasbläschen (Bubbles) mit einem Durchmesser von 2–4 μ und reflektieren eingestrahlten Ultraschall deutlich stärker als die natürlichen korpuskulären Bestandteile des Blutes. Hinzu kommt ein zweiter
20
364
II
Kapitel 20 · Ultraschalldiagnostik
Effekt, der die Visualisierung der Gasbläschen und damit des Blutes anhebt: Die Gasbläschen sind erheblich kleiner als die räumliche Ausdehnung der Schallwellen. In der Druckwelle eines Schallimpulses umschließen Gebiete erhöhten und erniedrigten Drucks periodisch jedes Bläschen vollständig. Im Gebiet erhöhten Drucks werden Bläschen komprimiert. Umgekehrt dilatieren Bläschen im Unterdruckfeld. Aufgrund dieser rhythmischen Volumenänderungen werden die Bläschen selbst zu Schallquellen: Sie beginnen zu schwingen. Allerdings stehen der Schalldruck des initialen Schallfeldes und die Durchmesserveränderung in keinem linearen Verhältnis zueinander. Wenn sich der Druck z. B. verdoppelt, verkleinern sich die Bubbles nicht in gleichem Maße. Infolge dieser nichtlinearen Schwingung und der etwas unterschiedlichen Größe der einzelnen Bubbles strahlen diese ein breitbandiges Frequenzspektrum zum Schallkopf zurück. Auch dieses breitbandige, nichtsinusförmige Signal lässt sich, analog der sich brechenden Welle am Strand, als Summe mehrerer sinusförmiger Einzelfrequenzen verstehen (⊡ Abb. 20.8). Meist ist dabei die 2. Harmonische besonders deutlich ausgeprägt, sodass sie im Empfangsteil des Ultraschallgerätes selektiert und zur Darstellung genutzt werden kann. Dieses Verfahren wird mit dem Begriff »Contrast-Harmonic« bezeichnet. Als Maß für die mechanischen Einwirkungen der Schallwellen auf Gewebe und Kontrastmittelbläschen dient der so genannte Mechanische Index (Mi):
Mi = p − /
f
(20.1)
Hier bedeuten: ▬ Mi = mechanischer Index (dimensionslos), ▬ p– = negativer Schalldruck (MPa), ▬ f = Sendefrequenz (MHz). Bei niedrigem Mi und somit niedrigem Schalldruck haben Bubbles ein noch lineares Verhalten, bei höherem Schalldruck gehen sie zu nichtlinearem Verhalten über und erzeugen harmonische Oberwellen.
zinprodukt dar. Jede Veränderung dieser Einheiten oder deren Teile (z. B. eine Reparatur mit baulicher Veränderung wie Neubeschichtung eines Schallkopfes) bewirkt automatisch eine Aufhebung der Zulassung.
Schallkopf Für unterschiedliche Anwendungsgebiete sind spezielle Schallkopfbauformen verfügbar. Diese unterscheiden sich im Wesentlichen durch die Bauform des Kristall-Arrays. Die in den folgenden Abschnitten beschriebenen Standardbauformen (⊡ Abb. 20.15, S. 369) sind in unterschiedlichen Größen, Breiten und Krümmungsradien in einer Vielzahl weiterer Schallkopfbauformen zu finden. Dabei unterscheidet sich die Gehäuseform dem Einsatzzweck des jeweiligen »Instruments« entsprechend (⊡ Tab. 20.2).
Basiseinheit mit AD-Wandler Die Basiseinheit eines modernen Ultraschallgerätes besteht im Wesentlichen aus zwei Teilen. Die Schnittstelle zwischen analog arbeitendem Schallkopf und Digitalprozessor liegt im Analog/Digital(A/D)-Wandler. Die Aufgaben des A/D-Wandler liegen zum einen in der Erzeugung aller zur Schallstrahlsteuerung benötigten elektrischen Impulse und Impulsfolgen sowie im Empfang und der Digitalisierung der reflektierten Signale. Somit wird deutlich, dass insbesondere die Bildqualität in starker Abhängigkeit vom Qualitätsniveau des A/D-Wandlers abhängig ist. Zu den Aufgaben der Basiseinheit gehören eine Scankonvertierung (räumliche Zuordnung der aufgezeichneten Scanlinien) und die Weiterverarbeitung der digitalisierten Signale mittels Bildverarbeitung. Weitere Aufgaben sind u. a. Benutzersteuerung, Bereitstellung von Mess- und Kalkulationsprogrammen sowie Archivierungsfunktionen und Generierung von Signalen für Betrachtungseinheiten (Monitor) und Schnittstellen.
Monitor und Schnittstellen 20.3
Gerätetechnik
20.3.1 Prinzipieller Aufbau eines
Ultraschallgerätes Die wesentlichen Bestandteile eines Ultraschallgerätes sind die im folgenden Diagramm abgebildeten Einheiten. Schallkopf
ADWandler
Basiseinheit
Betrachtungseinheit und Schnittstellen
Die Kombination dieser Einheiten stellt ein nach den jeweils gültigen Verordnungen, die EU sowie internationalen Vereinbarungen entsprechen, zugelassenes Medi-
Heutzutage sind überwiegend digitale Flachbildmonitore im Einsatz. Lediglich einige Ultraschallgeräte arbeiten noch mit konventionellen Videosignalen. Auch die heute üblicherweise verwendeten Schnittstellen zur Datenübertragung, Druckeransteuerung und Archivierung sind digital.
A-Mode Historisch betrachtet war das A-Mode-Verfahren (Amplitudenmodus) das erste angewandte Ultraschallverfahren. Es wurde in der Medizin fast ausschließlich durch die im Folgenden beschriebenen Verfahren ersetzt, da die diagnostische Aussagekraft des A-Modes sehr eingeschränkt ist. Es können lediglich Tiefen- und Abstandsmessungen an einem Punkt durchgeführt werden.
365 20.3 · Gerätetechnik
⊡ Tab. 20.2. Anwendungsgebiete verschiedener Sondentypen Organ
Applikation
Sondentyp
Gehirn
Transkraniell
Sektor
Gehirn
Intraoperativ/Bohrloch
Konvex/Sektor
Hypophyse
Transnasal
Linear, flexibel
Schilddrüse, Halsgefäße
Transkutan
Linear
Herz, Aorta
Transthorakal/Transeosophageal
Sektor
Lunge, Medistinum
Endobronchialsonographie (EBUS)
Konvex
Pleura
Trankutan
Konvex, Sektor
Mama
Transkutan
Linear
Wirbelsäule
Intraoperativ
Linear/Konvex
Leber, Galle, Gallenwege, Niere
Transabd./Endosonographisch (EUS)
Konvex
Pankreas, Milz, Magen, Darm
Transabdominal/Endoskopisch
Konvex
Leber, Milz, Pankreas
Laparoskopisch
Linear/Sektor
Große abdominelle Gefäße
Transabdominal
Konvex
Uterus, Ovarien, Gravidität
Transabdominal/Transvaginal
Konvex/RT-3D
Harnblase, Prostata
Transabdominal/Transrektal
Konvex/Linear
Skrotum
Transkutan
Linear
Hüfte
Transkutan
Linear
Periphere Gefäße
Transkutan
Linear
Gelenke, Muskel, Haut
Transkutan
Linear
Entlang der Schallausbreitungslinie werden in Abhängigkeit von der Laufzeit durch Mediengrenzen reflektierte Signale als einzelne Peaks auf der Tiefenskala dargestellt: Pulsreflexionsverfahren (⊡ Abb. 20.10). Die Größe der Amplitude hängt vom Verhältnis der Wellenwiderstände zwischen den Mediengrenzen ab.
B-Mode Beim B-Mode (Brightness-Mode) wird die Darstellung des A-Mode-Signals so modifiziert, dass das reflektierte Signal nicht mehr als Peak dargestellt wird, sondern als einzelner tiefenabhängiger (Laufzeit) Bildpunkt. Die Größe der Amplitude wird durch die Helligkeit dieses Bildpunktes wiedergegeben, sodass eine Zeile unterschiedlich heller Punkte entsteht. Diagnostisch ist das einfache B-ModeVerfahren nicht verwertbar. Allerdings war es Grundlage zur Entwicklung des M-Modes und 2D-B-Mode. ⊡ Abb. 20.10. Schema A-Mode, B-Mode, M-Mode
M-Mode Das M-Mode (Motion-Mode) entsteht durch die horizontale Ablenkung (Zeitachse) einer B-Mode-Linie und Speicherung sowie Darstellung der entstehenden Bilder. Der Einsatzzweck des M-Modes liegt in der Diagnos-
tik sich bewegender Organteile, z. B. Herzklappen oder Herzmuskel. Es zeichnet sich hier insbesondere durch seine hohe zeitliche Auflösung aus, da lediglich eine einzelne Linie immer wieder abgetastet wird.
20
366
Kapitel 20 · Ultraschalldiagnostik
2D-B-Mode
II
Das 2D-B-Mode-Verfahren (Brightness-Mode-Zweidimensional) ist heutzutage das wichtigste Schnittbildverfahren in der Ultraschalldiagnostik und wird allgemein als B-Mode bezeichnet. Das Bild entsteht durch das rasche horizontale Aneinanderreihen vieler einzelner B-ModeLinien (Bildzeilen) zu einem flächigen 2D-Bild. Hier wird die Bildgeometrie durch die jeweilige Anordnung der einzelnen B-Mode-Linien bestimmt. Sie ist dabei auch abhängig von der Bauform des Schallkopfes. Die Helligkeit der einzelnen Bildpunkte wird wie beim klassischen einfachen B-Mode durch die Amplitude der reflektierten Signale determiniert. Heutzutage werden mindestens 256 Graustufen als Standard gefordert.
Digital kodierter Ultraschall Die praktische Anwendung des Ultraschalls erfordert einen notwendigen Kompromiss zwischen dem Wunsch nach hoher axialer Detailauflösung und guter Tiefenpenetration ( Abschn. 20.2.5). Die digitale Kodierung von Ultraschallimpulsen verbessert zugunsten der besseren Penetration diesen Kompromiss deutlich. Beim Senden wird dabei dem Ultraschallimpuls eine typische digitale Kodierung als Erkennungsmuster überlagert. Diese Kodierung ist auch nach der Reflexion an den verschiedenen Grenzschichten im Körper des Patienten im Ultraschallimpuls detektierbar, sodass bei der Verarbeitung der reflektierten Signale im Ultraschallgerät die kodierten Impulse von nichtkodierten, unerwünschten Signalen (z. B. Rauschen, Artefakte) getrennt werden können. Somit werden nur diejenigen Signale weiterverarbeitet, die den betreffenden individuellen Kode in sich tragen. Ein Beispiel aus der Natur zeigt, dass das gleiche Prinzip von Fledermäusen angewandt wird. Die individuelle Kodierung der Sendeimpulse einer Fledermaus lässt diese ihre eigenen Impulse aus einer Vielzahl von Impulsen anderer Fledermäusen erkennen. Somit ist es jeder einzelnen Fledermaus möglich, sich trotz einer großen Anzahl von Fremdimpulsen mit ihren eigenen Signalen sicher im Raum zu bewegen. Außer der Kodierung findet eine Signalkompression statt, die ein kodiertes Sendesignal mit geringerer Energie ermöglicht, das dann später durch die Addition der digitalen Einzelpulse wieder zu einem Signal höherer Energie addiert werden kann. Daraus ergeben sich zwei grundsätzliche Vorteile der digitalen Kodierung: ▬ Unterdrückung unerwünschter Signale, ▬ Verstärkung des Nutzsignals. Unerwünschte Signale wie Rauschen und Artefakte werden unterdrückt, gleichzeitig wird das Nutzsignal verstärkt und über den Rauschpegel angehoben. Bei gleicher
Frequenz und damit auch gleicher Auflösung bewirken die genannten Effekte eine erhöhte Eindringtiefe. Das Problem, eine hohe Auflösung bei gleichzeitig hoher Eindringtiefe zu erzielen, ist somit deutlich kleiner geworden. Dieses Verfahren versetzt uns nicht in die Lage, den Kompromiss zwischen Frequenz (Auflösung) und Eindringtiefe aufzuheben. Eine deutliche Verbesserung dieser Situation ist jedoch damit möglich.
20.4
Dopplerverfahren
Wie im Grundlagenteil dargestellt, wird das Dopplerverfahren zur Detektion von Blutfluss herangezogen. Technisch können unterschiedliche Verfahren angewandt werden: ▬ pw-Doppler, ▬ High-PRF-Doppler, ▬ cw-Doppler, ▬ Farbdoppler. Weiterhin unterscheiden wir bei der Dopplertechnik, ob ein Gerät ausschließlich im Dopplerbetrieb arbeitet oder durch Überlagerung eines B-Modes im so genannten Duplexbetrieb. Im Duplexbetrieb wird der Abtastpunkt (Sample-Volume), an dem die Blutgeschwindigkeit gemessen wird, im B-Mode angezeigt. Die anatomische Zuordnung zum Punkt der Geschwindigkeitsmessung ist somit präzise definiert. Ein Dopplergerät für Duplexbetrieb muss die komplette Technik zur Erzeugung eines B-Modes beinhalten.
20.4.1 PW-Doppler
Der PW-Doppler arbeitet im Pulsreflexionsverfahren wie auch die Abbildungsverfahren A-, M- und B-Mode. Die Verarbeitung der Laufzeitinformation wird hier zur Bestimmung der Sample-Volume-Position verwendet. Reflektierte Signale aus dem Sample-Volume werden nicht zur Darstellung eines Bildes, sondern zur Geschwindigkeitsmessung nach dem Doppler-Prinzip herangezogen. Ähnlich dem M-Mode kann der zeitliche Verlauf der Blutflussgeschwindigkeit auf dem Monitor dargestellt werden. Die Lage des Sample-Volume kann verändert und beim Duplexbetrieb unter Sicht genau positioniert werden (⊡ Abb. 20.11, 4-Farbteil am Buchende). Die mit dem PW maximal messbare Blutflussgeschwindigkeit ist durch die Repetitionsfrequenz der Pulse (PRF) limitiert. Durch eine Verwendung weiterer, zusätzlicher Sample-Volumes kann diese Limitierung des so genannten Aliaseffektes in einen diagnostisch nicht mehr relevanten Geschwindigkeitsbereich verschoben werden.
20
367 20.4 · Dopplerverfahren
20.4.2 High-PRF-Doppler
Der PW-Doppler ist limitiert durch den Aliaseffekt. Dieser bewirkt ab einer bestimmten Frequenz und Blutflussgeschwindigkeit eine Falschdarstellung (Aliasdarstellung) des Dopplersignals, was zu einer Fehlinterpretation der Flussrichtung führen kann. Dieser Effekt ist von der Pulsfrequenz (Abtastfrequenz oder Pulse-Repetition-Frequency = PRF) abhängig, die so hoch wie möglich sein sollte. Einen solchen Artefakt beobachtet man z. B. in Westernfilmen, wenn die Räder der Kutsche sich plötzlich rückwärts zu drehen scheinen, da die Abtastfrequenz (Fernsehbildfrequenz) zu niedrig ist. Der High-PRF-Doppler, den wir heute in allen Duplexsystemen finden sollten, wurde entwickelt, um diesen Aliaseffekt unter Beibehaltung der Tiefenselektivität zu umgehen. Er erlaubt, die Aliasgrenzfrequenz durch die Erhöhung der PRF nach oben zu verschieben. Der Preis dafür sind mehrere Sample-Volumes, die eine leichte Einschränkung der Tiefenselektivität zur Folge haben. Der Einsatz von Duplexsystemen mit automatischer Umschaltung vom PW- zum High-PRF ist eine nützliche Ergänzung zum reinen PW-Betrieb. Heute sollten Duplexgeräte eine Frequenzanalyse enthalten, um pathologische Strömungen an der Charakteristik des dargestellten Dopplerspektrums erkennbar zu machen. Dabei wird das Dopplersignal durch eine Fourier-Transformation oder ähnliche Verfahren in seine einzelnen Frequenzbestandteile zerlegt und dargestellt. Bei Kenntnis des Einfallwinkels sind Frequenzbestandteile gleichzusetzen mit Geschwindigkeitsbestandteilen. Man erhält also weitere Geschwindigkeitsinformationen. Am wichtigsten ist dabei die Information über den Turbulenzgrad, der Aufschluss über eine pathologische Strömung gibt.
20.4.3 CW-Doppler
Der CW-Doppler (Continuous Wave) ist als einziges Ultraschallverfahren kein gepulstes Verfahren. Zwei in einer Sonde untergebrachte physikalisch getrennte Kristalle, ein Sende- und ein Empfangskristall, arbeiten zeitgleich. Während ein Kristall permanent sendet, empfängt der zweite Kristall kontinuierlich die reflektierten Signale. Alternativ ist die Verwendung von Kristallgruppen ebenfalls möglich, z. B. Phased-Array-Schallkopf. Durch den kontinuierlichen Sendebetrieb kann nun allerdings keine Tiefenzuordnung mehr erfolgen, da keine Pulslaufzeiten gemessen werden können. Die gemessenen Geschwindigkeiten verteilen sich vielmehr auf die gesamte Strecke des Messstrahls. Der sich ergebende Vorteil liegt in der einfachen Messbarkeit hoher Blutflussgeschwindigkeiten, wie sie z. B. in hochgradigen Stenosen zu finden sind. Der methodisch bedingte Nach-
teil gegenüber dem PW-Doppler liegt in der fehlenden Tiefenselektivität.
20.4.4 Farbdoppler
Mit der industriellen Entwicklung des ersten Farbdopplers in Japan (ALOKA 1985, SSD-880) machte die Ultraschalldiagnostik einen wichtigen Entwicklungsschritt. Der Farbdoppler ist prinzipiell ein PW-Doppler. Hierbei wird nicht nur ein einziges Sample-Volume benutzt, sondern mehrere Hundert. Diese werden zeilenförmig zusammengesetzt zu einem zweidimensionalen, flächenhaften Dopplerbild. Dem Schwarz-weiß-B-ModeBild wird positionsrichtig das Dopplerbild überlagert. Es kann mit diesem zusammen zeitgetreu, also im RealtimeModus, betrachtet werden. Um die Dopplerinformation von der morphologischen Schwarz-weiß-Information (B-Mode) unterscheiden zu können, wird sie farbkodiert dargestellt (⊡ Abb. 20.12, 4-Farbteil am Buchende). Eine allgemein akzeptierte Darstellung der Strömungsrichtung ist durch die Farben Rot (auf den Schallkopf zu) und Blau (vom Schallkopf weg) gegeben. Zu erwähnen ist allerdings, dass es keine darüber hinausgehende normierte Farbkodierung gibt. Auch in den einzelnen Farbdopplersystemen sind verschiedene Farbkodierungen (Farbtabellen) abrufbar, die mehr oder weniger subjektiven Vorlieben folgen. Auch beim Farbdoppler tritt der bereits erwähnte Aliaseffekt als Artefakt auf. Er bewirkt, dass mitten in einer Strömung, die z. B. blau kodiert ist, ein roter Fleck auftaucht, der komplett von Blau umgeben ist (⊡ Abb. 20.12). Dies ist zu sehen, wenn an eben dieser Stelle die maximal darstellbare Geschwindigkeit überschritten wird. Die Farbe »schlägt« dann in die Gegenfarbe um. Da es offensichtlich unmöglich ist, dass mitten in einer blauen Strömung plötzlich eine »rote Insel der Gegenströmung« auftaucht, kann der Anwender dieses Phänomen als Aliaseffekt leicht erkennen. Die Geschwindigkeit (Grenzfrequenz), ab der der Aliaseffekt auftritt, nennt man Nyquist-Limit: fny = PRF/2.
(20.2)
Dabei kann der Aliaseffekt sogar nützlich sein, indem er uns die Stelle in der Blutströmung mit der höchsten Geschwindigkeit anzeigt. Zur Messung der höchsten Geschwindigkeit positionieren wir das Sample-Volume an diese Aliasposition. Mit dem Farbdoppler ist es nun möglich, im Realtime-Modus die Ausdehnung von pathologischen Strömungen wie Jets zu erkennen und zu lokalisieren sowie kleine Gefäße zu orten. Wird dem Duplexmodus noch der Farbdoppler hinzugefügt, also B-Mode, Farbdoppler und Dopplerspektrum dargestellt, spricht man vom Triplexmodus.
368
Kapitel 20 · Ultraschalldiagnostik
Power-Doppler
II
Unter dem Begriff »Power-Doppler« kennen wir eine weitere Version des Farbdopplers. Er ist u. a. unter folgenden Synonymen bekannt: ▬ Amplitudendoppler, ▬ Color Angio, ▬ Power Color. Auch der Power-Doppler benutzt die Dopplershift zur Darstellung von Blutfluss. Er stellt allerdings nicht die Geschwindigkeit des Flusses farbkodiert dar, sondern lediglich die Amplitude eines durch den vorhandenen Dopplershift detektierten Bewegungspunktes des empfangenen Signals. Die Amplitude repräsentiert die Anzahl der Reflektoren (hauptsächlich Erythrozyten) und ist beim normalen Farbdoppler nicht dargestellt. Der Power-Doppler ist im Allgemeinen sensitiver und kann langsam sich bewegende Blutpartikel leichter erfassen. Somit füllt er das Gefäßlumen besser aus, als es der normale Farbdoppler kann, da diesem geringe Amplituden der vorhandenen Singnalinformationen zu einer weiteren Analyse nicht ausreichen.
Myokardinfarktes oder diastolischer Funktionsstörungen. Zusätzliche Informationen können der weiterführenden Literatur entnommen werden (⊡ Abb. 20.14, 4-Farbteil am Buchende).
20.5
Sondentypen
Die heute verwendeten Sondentypen werden primär in zwei Gruppen unterteilt. Zum Einsatz kommen fast ausschließlich mechanische Sonden und elektronische Sonden oder Kombinationen daraus.
20.5.1 Mechanische Sonden
Sie werden heute noch für spezielle Anwendungen (z. B. Radialtechnik, Hautdiagnostik) verwendet. Hierbei wird die Ablenkung zur Erzeugung eines zweidimensionalen Bildes durch einen kleinen Elektromotor in der Schallsonde durchgeführt.
20.5.2 Elektronische Sonden
Hochauflösende moderne Farbdoppler-Verfahren Erwähnenswert ist an dieser Stelle eine Weiterentwicklung des Power-Doppler-Verfahrens, die unter unterschiedlichen Namen firmiert (eFLOW, Dynamic Flow etc.). In einigen modernen Geräten ist das Verfahren mit deutlich höheren räumlichen Auflösungswerten (< 0,3 mm) zu finden. Es eignet sich extrem gut zur präzisen, flächigen Darstellung der tatsächlich durchflossenen Gefäßlumina. Insbesondere bei langsamen Geschwindigkeiten, kleinen Gefäßen und bei der Darstellung einer komplexen Organvaskularisierung (⊡ Abb. 20.13, 4-Farbteil am Buchende), aber auch bei Stenosen ist dieses Verfahren von Vorteil. Ermöglicht wird es durch moderne Pulsgeneratoren (Beamformer), die Ein- und Ausschwingvorgänge bei Sendeimpulsen verkürzen und optimieren. Dadurch werden extrem kurze Pulse verfügbar, die eine höhere räumliche Auflösung erlauben.
TDI Bei der Darstellung des Herzens hat sich ein spezielles Dopplerverfahren etabliert, das nicht den Blutfluss, sondern das Herzgewebe, also die Herzwand (Myokard) farbig kodiert. Hier spricht man von Gewebedoppler oder Tissue Doppler Imaging (TDI). Da die Bewegung im Myokard wesentlich langsamer als die des Blutes ist, sind hier statt der beim Blutflussdoppler üblichen Hochpassfilter Tiefpassfilter erforderlich. Diese Technologie erlaubt Aussagen über die Geschwindigkeit einzelner Myokardsegmente und somit eine spezifische Diagnostik bei Wandbewegungsstörungen, z. B. aufgrund eines
Weitaus häufiger werden elektronische Sonden verwendet, die wir als Linear-, Convex- und Sektorscanner kennen. Sie unterscheiden sich im Prinzip durch ihre Ablenkgeometrie und ihr Ablenkverfahren (⊡ Abb. 20.15). Die Ablenkung des Schallstrahls wird auf elektronische Weise durch zeitversetztes Ansteuern einer Vielzahl von Kristallen realisiert; es werden keinerlei mechanische Verschleißteile verwendet. Die maximale Sendefrequenz liegt üblicherweise bei ca. 15 MHz.
Linearsonden Die einfachste Form einer elektronischen Sonde ist der Linearscanner. Er besteht aus einer Vielzahl von nebeneinander angeordneten Kristallen, je nach Sondengröße bis zu ca. 400 Stück (⊡ Abb. 20.16). Zum Aufbau einer Bildzeile werden immer mehrere Kristalle benutzt, hier z. B. sechs nebeneinander liegende Kristalle. Diese Gruppe von aktiven Kristallen nennt man auch Array, was zum häufig verwendeten Begriff »Linear-Array« führte. Jedes Kristall wird durch einen elektronischen Impuls aktiviert und sendet eine Schallwelle aus, die sich mit den anderen zu einer Wellenfront vereinigt. Durch verschiedene physikalische Effekte entsteht in der dargestellten typischen Schallfeldgeometrie (durchgezogene Linie) ein Schallfeld mit einer fokalen Einschnürung. Danach werden weitere sechs Kristalle angesteuert, die das nächste (gestrichelte) Schallfeld bilden. Nach dem gleichen Prinzip entsteht wiederum das nächste (gepunktete) Schallfeld und wiederholt sich so
369 20.5 · Sondentypen
⊡ Abb. 20.15. Schallfeldgeometrie verschiedener Sondentypen
a
b
⊡ Abb. 20.16. Linearsonde. a Abtastprinzip; b Linearsonde (7,5 MHz)
lange in Pfeilrichtung, bis damit aus den reflektierten Impulsen ein komplettes Bild aufgebaut werden kann. Um eine Realtime-Darstellung mit 20 Bildern pro Sekunde (20 Hz) zu erzeugen, müssen die gesamten beschriebenen Vorgänge in ca. 1/20 s abgelaufen sein.
Konvexsonden Bei der Konvexsonde, auch Curved-Array genannt, wird das gleiche Verfahren verwendet. Nur sind die Kristalle hier nicht auf einer linearen Ankopplungsfläche, sondern auf einer konvexen Ankopplungsfläche angeordnet. Für verschiedene Einsatzbereiche sind unterschiedliche Krümmungsradien verfügbar (⊡ Abb. 20.15, Mitte).
Sektorsonden Beim elektronischen Sektor, auch Phased-Array genannt, werden deutlich weniger Kristalle benutzt als beim Li-
near- oder Convex-Array. Die elektronische Ansteuerung erfolgt zeitversetzt bzw. phasenversetzt, daher der Begriff »Phased-Array«. Dies geschieht nun allerdings nicht mehr von außen nach innen, sondern kontinuierlich von einer Seite zur anderen, sodass eine schräge Wellenfront entsteht (⊡ Abb. 20.17). Durch entsprechend schnelle Änderung der Ansteuerung erreicht man ein Schwenken des Strahls und erhält wiederum ein zweidimensionales Bild in Form eines Sektors. Der Vorteil von Sektorsonden wird am Beispiel der Vermeidung von Rippenschatten deutlich (⊡ Abb. 20.18), da die geringe Auflagefläche des Sektorschallkopfes eine Untersuchung durch den Rippenzwischenraum ermöglicht. Ein Nachteil des Sektorverfahrens ist in der Divergenz der Schallstrahlen in der Tiefe begründet, was eine in der Tiefe zunehmend schlechter werdende laterale Auflösung bedingt. Technisch werden die entstehenden Lücken durch Interpolationen aufgefüllt.
20
370
Kapitel 20 · Ultraschalldiagnostik
Dynamische Fokussierung
II
⊡ Abb. 20.17. Phased-Array-Prinzip
Bei der dynamischen Fokussierung werden nicht mehr alle Kristalle gleichzeitig, sondern zuerst die äußeren und danach die mittleren angesteuert. Durch die zeitversetzte Ansteuerung zwischen Außen und Innen (Delay-Line) wird die Lage des Fokus bestimmt. Zusätzlich ist es bei elektronischen Sonden möglich, mehrere Fokuszonen simultan einzusetzen, was eine scharfe Abbildung über nahezu den gesamten Tiefenbereich möglich macht, allerdings zu Lasten der Bildfrequenz. Dies nennt man dynamische Fokussierung (⊡ Abb. 20.19). Über Zwischenspeicher werden die Bildbereiche der einzelnen Fokuszonen nacheinander erfasst und schließlich zu einem durchgehend fokussierten Gesamtbild (⊡ Abb. 20.19, rechts) zusammengesetzt. Moderne Geräte haben bis zu zehn Fokuszonen, wobei meistens nur vier gleichzeitig für die dynamische Fokussierung verwendet werden, da die Benutzung der Zwischenspeicher, wie bereits erwähnt, die Bildfrequenz reduziert. Diese Fokussierungstechnik ist bei Einsatz der konventionellen Array-Technik allerdings nur in Schallkopflängsrichtung möglich und wirkt sich lediglich auf die laterale Auflösung aus.
Schichtdickenfokussierung
⊡ Abb. 20.18. Systemvergleich Sektor-/Linearsondentypen
20.5.3 Fokussierung
Wichtig bei allen elektronischen Sonden ist die bereits erwähnte fokale Einschnürung, die als »Fokusbereich« bezeichnet wird. Je schmaler das Schallfeld in diesem Fokusbereich ist, umso besser ist das laterale Auflösungsvermögen des Systems, also das in seitlicher Richtung, senkrecht zur Schallausbreitungsrichtung. Der Durchmesser des Schallstrahls im Fokusbereich hängt von den verschiedenen elektronischen Fokussierungstechniken des Gerätes ab. Von den Herstellern angegebene Auflösungswerte beziehen sich meistens auf diesen Fokusbereich. Entscheidend ist aber auch die Position des Fokus. Idealerweise liegt die Position des Fokus genau dort, wo sich das zu untersuchende Organ befindet. Hier zeigt sich der größte Vorteil elektronischer Sonden im Vergleich zu mechanischen: die Möglichkeit, die Fokusposition elektronisch zu verschieben.
Quer zum Schallkopf und damit auch quer zur Schnittebene sind die Abtastzeilen nur in einer von der Form der Kristalle abhängigen Tiefe fokussiert. Im Nah- und im Fernbereich kann sich der Ultraschall vergleichsweise unkontrolliert ausbreiten. Das eigentlich zweidimensionale Schallfeld hat somit auch eine unerwünschte Ausdehnung rechtwinklig zur Schnittebene. Diese unerwünschte Ausdehnung wird Schichtdicke genannt. Kleinste Gefäße, zystische Hohlkörper oder echoarme Läsionen werden dadurch nicht exakt in ihrer Mitte geschnitten, jeder Abtaststrahl erfasst auch echogene Strukturen, die sich vor oder hinter der kleinen Struktur befinden. Somit treffen am Schallkopf weitere Echosignale aus eben dieser Tiefe ein, die nicht eindeutig der kleinen Struktur zuzuordnen sind (⊡ Abb. 20.20, links). Nur im Fokusbereich ist die Schichtdicke des Schallfeldes von so geringer Ausdehnung, dass keine Gewebeteile außerhalb der kleinen Struktur getroffen werden. Eine neue Schallkopftechnik, die auch quer zur Schnittebene eine elektronische Fokussierung und damit eine reduzierte und gleichförmige Schichtdicke vom Nahbereich bis etwa 25 cm Tiefe bietet, ist die MatrixArray-Technik. Konventionelle Schallköpfe bestehen aus einer einzigen Reihe nebeneinander liegender Piezokristalle und lassen deshalb auch nur in dieser einen, lateralen Ebene eine Fokussierung zu. Der Matrix-Array-Schallkopf weist eine zweidimensionale Anordnung von bis zu ca. 1000 winzigen quadratischen, selektiv ansteuerbaren Kristallen
371 20.6 · Dreidimensionaler Ultraschall (3D, Realtime 3D)
20.6.1 Akquisitionstechniken
⊡ Abb. 20.19. Prinzip der dynamischen Fokussierung
Moderne Ultraschalldiagnostik kann auch räumliche, dreidimensionale Datenblöcke erfassen und darstellen. Hierzu wird den zweidimensionalen (B-Mode) Ultraschallbildern eine dritte Dimension, senkrecht zur 2DEbene, hinzugefügt und als 3D-Datensatz verarbeitet. Im klinischen Alltag konnte sich die 3D-Technik erst mit Entwicklung leistungsfähiger Rechenprozessoren etablieren, die eine echte Realtime-3D-Darstellung ermöglichten. Mit dem Aufkommen der 3D-Technik in den 1980er Jahren lagen die Rechenzeiten noch im Bereich von Stunden. Durch eben diese Realtime-Fähigkeit der Systeme wurde die 3D-Technik jüngst auch unter 4DUltraschall bekannt und vermarktet.
Freihandtechnik ohne Positionssensor
⊡ Abb. 20.20. Konventionelle Technik (links) vs. »active matrix array« (rechts)
auf. Eine beschriebene elektronische Fokussierung durch zeitversetztes Ansteuern der einzelnen Elemente ist somit nicht nur in der lateralen Ebene, sondern auch senkrecht dazu (Elevationsebene) möglich. Mit dieser Technik werden Schichtdickenartefakte weitgehend eliminiert (⊡ Abb. 20.20, rechts) und auch kleinste Strukturen artefaktfrei mit hoher Auflösung visualisiert. Ein weiterer positiver Effekt der Matrix-Array-Technik ist die wesentlich verbesserte Penetrationsfähigkeit aufgrund der Verringerung der Strahldivergenz und damit die gleichzeitig einhergehender Erhöhung der Energiedichte. Sie erlaubt bei gleicher Eindringtiefe den Einsatz höherer Ultraschallfrequenzen und damit eine Verbesserung der frequenzabhängigen axialen Auflösung.
20.6
Dreidimensionaler Ultraschall (3D, Realtime 3D)
Mit der Entwicklung der dreidimensionalen Ultraschalltechnik wurde dem Bedürfnis vieler Anwender nach einer räumlichen Darstellung anatomischer Strukturen Rechnung getragen. Zielsetzug war u. a. die vereinfachte und verbesserte Diagnostik von im 2D-Bild oftmals nur schwer abzuschätzender Strukturen.
Diese einfache Technik verwendet den üblichen 2D-Schallkopf, der vom Untersucher parallel zur 2D-Ebene oder um einen fixen Punkt möglichst gleichförmig bewegt bzw. geschwenkt wird, um eine Bildsequenz aufzuzeichnen. Vor Beginn wird die Anzahl der zu erfassenden Bilder angegeben, die später zur Rekonstruktion des 3D-Datensatzes verwendet werden (⊡ Abb. 20.21). Die Freihandtechnik erlaubt allerdings keine genaue dreidimensionale Zuordnung, da die tatsächlich aufgezeichnete Strecke unbekannt ist und eine exakte gerade Aufzeichnungsbewegung nicht sichergestellt ist. Daher können auch keine Messungen oder Volumenbestimmungen vorgenommen werden.
Freihandtechnik mit Positionssensor Diese Freihandtechnik ist eine Erweiterung der Technik ohne Positionssensor, durch die der Nachteil der undefinierten Aufzeichnung umgangen wird. Durch Anbringen eines Positionssensors auf dem 2D-Schallkopf wird eine ständige Positionsbestimmung des Schallkopfes und somit eine räumliche Zuordnung der einzelnen 2D-Bilder ermöglicht. Derart registrierte Datensätze erlauben Messungen und Volumenbestimmungen. Die Positionserfassung kann mit unterschiedlichen Techniken bzw. Positionssensoren realisiert werden. Zur Anwendung kommen neben Sensoren im elektromagnetischen Feld auch Infrarot-, Ultraschall- sowie Beschleunigungssensoren (Gyro-Sensoren). Alle diese Sensortechniken haben jeweils ihnen eigene methodische Vor- und Nachteile. Die Nachteile wirken sich dabei überwiegend auf die Ortsauflösung störend aus.
Integrierter 3D-Schallkopf mit motorischer Ablenkung Um die bei den Freihandtechniken beschriebenen Störeinflüsse zu beseitigen und eine einfache Handhab-
20
372
Kapitel 20 · Ultraschalldiagnostik
II
⊡ Abb. 20.21. Freihandtechnik zur Gewinnung multipler, paralleler Schnittbilder
barkeit zu gewährleisten, hat man motorisch bewegte 2D-Kristall-Arrays mit mechanischen Weggebern kombiniert, die eine reproduzierbare Aufzeichnung eines 3DDatenblockes ermöglichen. In einem speziellen flüssigkeitsgefüllten Schallkopfgehäuse oszilliert das Array und tastet die anatomischen Strukturen wiederholt so schnell ab, dass eine Realtime-Volumendarstellung berechnet werden kann (⊡ Abb. 20.22). Dieser Schallkopftyp wird derzeit primär in der Gynäkologie zur Darstellung des Föten verwendet, da er mit integrierten Convex-Arrays eine sehr gute Auflösung erzielt.
Integrierte 3D-Schallköpfe mit elektronischer Ablenkung Diese kleinere und leichtere Bauweise kommt ohne mechanisch bewegte Komponenten aus. Das Array der Sonden besteht wie beim Matrix-Array-Schallkopf aus einer zweidimensionalen, meist quadratischen Anordnung winziger, selektiv ansteuerbarer Piezokristalle. Nach dem Prinzip des Sektor-Phased-Array-Verfahrens werden die Kristalle zu unterschiedlichen Zeitpunkten elektrisch angesteuert, sodass der Abtaststrahl einen mehr oder weniger gro-
⊡ Abb. 20.22. Integrierter 3D/4D-Schallkopf mit mechanischer Ablenkung
ßen Winkel zur Array-Oberfläche bildet. Durch zeitlich versetzte Ansteuerung der jeweiligen Kristallreihen und -spalten lässt sich die Abstrahlrichtung im Gegensatz zum herkömmlichen Phased-Array-Schallkopf in beiden horizontalen Raumachsen bestimmen (⊡ Abb. 20.23). Dieser Schallkopftyp findet derzeit primär in der Kardiologie Anwendung, da er aufgrund der kleinen Auflagefläche für den interkostalen Einsatz prädestiniert ist (⊡ Abb. 20.18, S. 370).
20.6.2 3D-Rekonstruktion
Unabhängig vom Abtastverfahren werden bei allen 3DVerfahren noch während des Abtastvorgangs alle akquirierten Schnittbilder orts- und winkelkorrekt aneinandergereiht, sodass ein dreidimensionaler Datenblock zur Verfügung steht.
373 20.7 · Neue und ergänzende Technologien
⊡ Abb. 20.23. 3D-Pyramidenstumpf mit Matrix-Phased-Array, speziell geeignet für die Echokardiographie
⊡ Abb. 20.24. Oberflächen 3D
Dieser räumliche Datenblock stellt die Grundlage für alle weiteren Berechnungen dar. Hierbei kommen unterschiedliche Darstellungsberechnungen zur Anwendung: ▬ Oberflächendarstellung, ▬ multiplanare Darstellung, ▬ Transparenzdarstellung.
Transparenzdarstellung
Oberflächendarstellung
20.7
Die Oberflächendarstellung setzt einen deutlich unterschiedlichen Wellenwiderstand der Gewebsstrukturen (Impedanzsprung) voraus, der in der Regel zwischen flüssigen und soliden Strukturen besteht. Zur Visualisierung der gewünschten Grenzschichten ist eine klare Abgrenzbarkeit des Untersuchungsobjektes von seiner Umgebung Voraussetzung. Im Rahmen der Schwangerschaftsdiagnostik sind diese Bedingungen häufig vorzufinden, da sich die Haut des Fötus vom Fruchtwasser durch einen deutlichen Impedanzsprung abgrenzt. Spezifische Algorithmen zur Darstellung von Oberflächen in 3D-Datensätzen (Rendering) sowie weiterführende Berechnungen aus der graphischen Bildverarbeitung, wie z. B. die Erzeugung von künstlichen Schatten, erlauben eine photorealistisch anmutende Darstellung (⊡ Abb. 20.24).
Multiplanare Darstellung Diese Technik erlaubt dem Untersucher die Darstellung applikativ üblicherweise nicht darstellbarer Schnittebenen. Dabei ist die gleichzeitige Darstellung mehrerer, in beliebigem Winkel zueinander stehender Schnitte durch ein Organ oder Strukturen möglich. Der Untersucher erlangt so die Möglichkeit, anatomische oder pathologische Strukturen räumlich besser zu visualieren, zu vermessen und deren Volumen zu bestimmen.
Durch Filterung werden schwach reflektierende Strukturen zum Vorteil stark reflektierender Strukturen unterdrückt. Das erlaubt die deutliche 3D-Darstellung, z. B. von Knochen, die üblicherweise bei der Suche nach Anomalien des fetalen Skeletts erforderlich ist.
Neue und ergänzende Technologien
In diesem Abschnitt wird ein Überblick über spezielle neue Technologien gegeben, die in den letzten Jahren in der Ultraschalltechnik Anwendung gefunden haben: ▬ Extended-Field-Of-View, ▬ Trapezoidtechnik, ▬ Steered Compound Imaging (Realtime Compound Imaging), ▬ Speckle Reduction, ▬ E-Tracking. 20.7.1 Extended-Field-Of-View
Unter dem Begriff »Extended-Field-Of-View (EFOV)« versteht man die Erweiterung bzw. Verbreiterung der 2DDarstellungsebene. Durch Verschieben des Schallkopfes in seiner Längsachse wird ein erweitertes zweidimensionales Bild erzeugt. Dabei geht es nicht wie beim 3D um eine Informationserweiterung in der dritten Ebene (senkrecht zur 2D-Ebene), sondern um eine Erweiterung der 2D-Ebene selbst. Durch Bildverarbeitungsalgorithmen werden mittels Mustererkennung zusammenpassende Abschnitte der jeweiligen Einzelbilder aneinandergereiht, die somit ein berechnetes, neues und zusammenhängendes Abbild der Organstrukturen ergeben (⊡ Abb. 20.25).
20
374
Kapitel 20 · Ultraschalldiagnostik
II
⊡ Abb. 20.25. Scotum, dargestellt mit Extended Field of View
Diese Technologie ist auch unter anderen Markennamen bekannt: SieScape, Freestyle, LOGIQ View, Panoramic Ultrasound und andere.
⊡ Abb. 20.26. Schallfelderweiterung durch Trapezoidtechnik bei Linearsonden und Phased-Array-Sonden
Bei der Trapezoidtechnik wird die Breite des Schallfeldes einer Linearsonde erweitert. Durch zeitlichen Versatz beim Ansteuern der außen liegenden Kristallgruppen (Phasingoder Steared-Beam-Prinzip) wird ein trapezförmiges Schallfeld aufgebaut (⊡ Abb. 20.26). Diese Technologie ist auch unter anderen Namen bekannt, z. B. Virtual Convex.
reflexionen mittels Bildverarbeitung zu einem zusammengesetzten (Compound) Ultraschallbild überlagert werden. Üblicherweise werden drei konsekutive Bilder generiert, die in einem Bereich zwischen –30°, 0° und +30° aufgenommen wurden (⊡ Abb. 20.27). Moderne Geräte erlauben darüber hinaus auch eine dem Bedarf angepasste Winkelsteuerung in verschiedenen Zwischenstufen, die es ermöglicht, unterschiedliche Abbildungstiefen optimal darzustellen. Damit wird jede reflektierende Grenzfläche aus unterschiedlichen Richtungen optimal angelotet. Diese Technologie ist auch unter anderen Markennamen bekannt, z. B. Realtime-Compound-Imaging, SonoCT und Cross-Beam.
20.7.3 Steered-Compound-Imaging (SCI)
20.7.4 Speckle Reduction
Die konventionelle elektrische Ansteuerung von Linearund Convex-Array-Schallköpfen bewirkt, dass Sendepulse rechtwinklig zur Oberfläche des Schallkopfes abgestrahlt werden. Parallel zum Schallstrahl verlaufende anatomische Strukturen bzw. Grenzflächen werden vom Schallstrahl entweder tangential oder in einem sehr spitzen Winkel getroffen. Unter diesen Umständen sind die reflektierten Anteile des Schallstrahls in Richtung Schallkopf sehr gering. Daher stellen sich diese Strukturen nur schwach oder überhaupt nicht dar. Auch die distal zu diesen Grenzflächen liegenden Strukturen werden kaum noch vom Abtaststrahl erreicht, da der Hauptanteil der Energie des Schallstrahles durch Reflexion abgelenkt wird. Somit stellen sich neben den bekannten lateralen Randschatten (Abtraufphänomen) auch artifizielle Inhomogenitäten der distalen Strukturen und Grenzflächen dar. Die Folgen dieser Phänomene sind reduzierbar, wenn die untersuchten Strukturen nicht nur aus einer Richtung, sondern durch Beam-Steering (Phasing) aus verschiedenen Richtungen angelotet und die resultierenden Schall-
Ultraschallbilder gehen aufgrund ihrer physikalischen Eigenschaften immer mit einem Rauschen einher. Der Signal-Rausch-Abstand liegt im Bereich von ca. 1,9 und kann nur durch eine entsprechende Bildverarbeitung visuell und subjektiv verbessert werden. Durch die stetig steigende Rechenleistung von Computern können der eigentlichen Signaldatengewinnung weitere bildverabeitende Schritte nachgeschaltet werden. Spezielle Algorithmen erlauben es, Bildcharakteristiken hervorzuheben und zu verändern. Dazu zählen eine Bildhomogenisierung und die damit einhergehende subjektive Rauschunterdrückung und beispielsweise auch eine Kantenanhebung aneinander angrenzender Organstrukturen. Diese bildverarbeitenden Maßnahmen können in vielen Fällen die rasche und einfache Diagnostik unterstützen, sind aber nicht immer und ausschließlich von Nutzen, da sowohl falsch positive als auch falsch negative Bildinformationen entstehen können. Daher sollte in jedem Fall der geschulte Anwender über die Nutzung wie auch das Maß der Nutzung frei entscheiden können.
20.7.2 Trapezoid
375 20.8 · Betrieb eines Ultraschallgeräts
⊡ Abb. 20.27. Bildoptimierung durch Steered Compound Imaging
⊡ Abb. 20.28. Gefäßdistensionsanalyse mittels eTracking
20.7.5 Gefäßdistensionsanalyse
(Echo Tracking, eTracking) Die wachsende Kenntnis von Zusammenhängen zwischen kardiovaskulären Erkrankungen und Gefäßfunktion sowie Gefäßmechanik hat dazu geführt, dass mittels einer Reihe unterschiedlicher technischer Methoden (Ultraschall, Tonometrie, Plethymographie usw.) diagnostische Parameter erhoben werden können. Mittels Ultraschall können aus der Gefäßdistension mehrere relevante Parameter berechnet werden, z. B. Pulswellengeschwindigkeit (PWV), Gefäßelastizität (ßIndex), Augmentationsindex (AIx) und arterielle Funktion (FMD). Die Bestimmung der Distension erfolgt dabei in Echtzeit durch Analyse des Rohdatensignals. Mittels einer speziellen Software werden sich bewegende Organstrukturen durch benutzerdefinierte Punkte ent-
lang eines Schallstrahles in ihrer Bewegung verfolgt (Tracking). Dies erfolgt mit hoher zeitlicher (1 KHz) und räumlicher Präzision (1/16 der Wellenlänge λ). Eine Erweiterung dieses Analyseverfahrens basiert auf zeitgleicher und ortsgleicher Erfassung der Blutflussgeschwindigkeit mittels Doppler. Daraus lassen sich weitere Parameter berechen, z. B. Pulswellenausbreitung oder Wave Intensity (dP*dU), die die Kopplung zwischen Herz und nachgeschaltetem Gefäßsystem beschreiben (⊡ Abb. 20.28).
20.8
Betrieb eines Ultraschallgeräts
Der Betrieb eines Ultraschallgeräts ist heutzutage in den meisten medizinischen Fachbereichen zum Standard geworden. Einige wichtige Rahmenbedingungen sollten beachten werden und werden im Folgenden ausgeführt.
20
376
II
Kapitel 20 · Ultraschalldiagnostik
20.8.1 Dokumentation
20.8.4 Hygiene
Der Betreiber eines Ultraschallgeräts unterliegt im Allgemeinen einer Dokumentationspflicht von Untersuchungsbefunden gegenüber den Abrechnungsträgern und gesetzlichen Instanzen. Alle Ultraschallanbieter liefern auf Anfrage entsprechende Beratung und Lösungen zur analogen und digitalen Speicherung von Befunddaten und -bildern. Dazu zählen im einfachsten Falle Thermodrucker oder interne digitale Gerätespeicher mit CD-/DVD-/USB-Speicherung oder Exportschnittstellen wie z. B. der herstellerunabhängiger DICOM-Standard (DICOM = DIgital COmmunication in Medicine) netzwerkbasiertes Archivieren von Standbildern oder Bildsequenzen sowie Messwertdaten. Der DICOM-Standard regelt nicht nur die Archivierung medizinischer Bilddaten auch anderer Modalitäten wie CT und MRT, sondern bietet darüber hinaus weitergehende Work-Flow unterstützende Funktionen und Prozeduren (z. B. Work-List, Print, Structured Report etc.).
Generell sollte sich der Betreiber über mögliche gesetzliche Hygienevorschriften im Zusammenhang mit den geplanten Untersuchungen informieren. Darüber hinaus existieren Empfehlungen zur Hygiene in den Leitlinien der Fachgesellschaften, die ebenfalls zu beachten sind. Für die Reinigung von Geräten sowie die Reinigung, Desinfektion und Sterilisation von Ultraschallsonden und Hilfsmitteln, wie z. B. Punktionsadaptern, machen die Hersteller Angaben über die anzuwendenden Verfahren und zugelassenen Mittel.
20.8.2 Anwendungsspezifische Ergänzungen,
Upgrades Moderne digitale Ultraschallgeräte gestatten die Installation zusätzlicher Hardware oder Software zur Erweiterung des Einsatzgebietes des Geräts. Dazu zählen z. B. Einheiten zur simultanen EKG-Ableitung, Speichererweiterung, spezifische Analyseprogramme (Stress-Echo, Kontrastmittelauswertung, TDI-Auswertung, Analyse der Gefäßdistension und Pulswellengeschwindigkeit etc.). Neben diesen gerätespezifischen Erweiterungen besteht immer auch die Möglichkeit, durch weitere Ultraschallsonden den Einsatzzweck eines Geräts zu ergänzen.
20.8.3 Pflege und Wartung, Updates
Die Ultraschallgerätehersteller geben Empfehlungen zum sicheren Betrieb und Warnungen vor unsachgemäßem Umgang mit Geräten und Sonden ab. Diese sollte der Anwender aus den mit den Geräteunterlagen gelieferten Sicherheitshinweisen entnehmen. Wichtig: Im Rahmen der Medizinische Betreiberverordnung (MedBetreibV) obliegen dem Betreiber eines Ultraschallgeräts gewisse Pflichten zur Gewährleistung der Sicherheit der eingesetzten Systeme. Die Ultraschallgerätehersteller und -vertreiber bieten zur Unterstützung ihrer Kunden hierzu gesetzeskonforme und maßgeschneiderte Wartungs- und Inspektionsvereinbarungen als Dienstleistung an. Vielfach enthalten diese Verträge auch die Möglichkeit, sich gegen Geräte- und Sondenschäden zu versichern. Darüber hinaus gibt es Angebote für regelmäßige Updates der Gerätesoftware.
20.8.5 Sichere Anwendung der
Ultraschalldiagnostik Nach heutigem Stand der Wissenschaft gelten die normengerechten diagnostischen Ultraschallanwendungen als frei von unerwünschten Nebenwirkungen. Empfohlen wird jedoch z. B. eine zurückhaltende Anwendung des Dopplermodus, insbesondere im Rahmen fetaler Untersuchungen. Da beim Übergang von Gewebe in knöcherne Strukturen Ultraschallenergie absorbiert und in Wärme umgesetzt wird, sind zellschädigende Wirkungen nicht mit Sicherheit auszuschließen. Daher sind die Empfehlungen der jeweiligen Fachgesellschaften unbedingt einzuhalten.
Weiterführende Literatur und Web-Links Allgemein Delorme S, Debus J (2004) Sonographie. Thieme, Stuttgart Hofer M (2009) Sono Grundkurs: Ein Arbeitsbuch für den Einstieg. Thieme, Stuttgart Hofer M et al. (2009) FKDS-Trainer: Ein Arbeitsbuch für den Einstieg in die farbkodierte Duplexsonographie und Echokardiographie. Thieme, Stuttgart
Speziell Dietrich CF (2008) Endosonographie: Lehrbuch und Atlas des endoskopischen Ultraschalls. Thieme, Stuttgart Lambertz H, Lethen H (2007) Transösophageale Echokardiographie: Lehratlas zur Untersuchungstechnik und sicheren Befundinterpretation. Thieme, Stuttgart Madjar H (2005) Kursbuch Mammasonographie: Ein Lehrbuch nach den Richtlinien der DEGUM und der KBV. Thieme, Stuttgart Merz E (2002) Sonographische Diagnostik in Gynäkologie und Geburtshilfe (in 2 Bdn.). Lehrbuch und Atlas. Thieme, Stuttgart Resch KDM (2006) Endo-Neuro-Sonography: Transendoscopic Ultrasound for Neurosurgery. Springer, Berlin Heidelberg Wien Tokyo Thelen M, Erbel R et al. (2007) Bildgebende Kardiodiagnostik: Cardiac Imaging mit MRT, CT und anderen Verfahren. Thieme, Stuttgart
377 Weiterführende Literatur und Web-Links
Internet Links Deutsche Gesellschaft für Ultraschall in der Medizin (DEGUM), www. degum.de Österreichische Gesellschaft für Ultraschall in der Medizin (OEGUM), www.oegum.at Schweizerische Gesellschaft für Ultraschall in der Medizin (SGUM), www.sgum.ch European Federation of Societies for Ultrasound in Medicine and Biology (EFSUMB), www.efsumb.org World Federation for Utrasound in Medicine and Biology (WFUMB), www.wfumb.org Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V. (AWMF), www.awmf.org Technologie in Medizin und Gesundheitswesen e.V., www.timug.de
20
21 Endoskopie K. M. Irion, M. Leonhard 21.1
Einleitung – 379
21.1.1 21.1.2
Terminologie – 379 Die Endoskopie und die Stärken der optischen Wahrnehmung – 380 Herausforderungen in der Endoskopie – 381 Historie – 381
21.1.3 21.1.4
21.2
Endoskope und endoskopisches Zubehör – 382
21.2.1 21.2.2
Lichtquellen und Beleuchtung – 382 Bildgebung: Endoskope und Bildsensoren – 383 21.2.3 Videokette – 385 21.2.4 Monitore – 385 21.2.5 Bild- und Videodokumentation – 386 21.2.6 Telemedizin in der Endoskopie – 386 21.2.7 Endoskopische Instrumente – 387 21.2.8 Aufbereitung von Endoskopen und Instrumenten – 388 21.2.9 Peripheriegeräte – 389 21.2.10 Endoskopiearbeitsplätze – 390
21.3
Integrierte Operationsräume – 391
21.4
Medizinische Anwendungsgebiete – 392
21.4.1 21.4.2
Häufigste Verfahren – 392 Spezielle Verfahren – 392
21.5
Gewebedifferenzierung – 394
21.5.1 21.5.2 21.5.3 21.5.4 21.5.5 21.5.6
Molekulare Bildgebung/Fluoreszenzendoskope – 394 Infrarot-Endoskope – 394 Zoomendoskope, Endomikroskope – 395 Ultraschallendoskope – 395 Optische Kohärenztomographie – 395 Virtuelle Chromoendoskopie – 396
21.6
Weitere Zukunftsentwicklungen – 396
21.6.1 21.6.2 21.6.3 21.6.4 21.6.5 21.6.6
NOTES – 396 Single Port – 397 Simulation – 398 Endorobotik – 399 Kapselendoskopie – 399 Endonavigation – 400
Literatur – 400
21.1
Einleitung
Die Endoskopie hat heute einen festen Platz in der medizinischen Diagnose und Therapie. Dabei sind die Vorteile der Endoskopie für alle Beteiligten wichtig und für den heutigen Erfolg maßgeblich: für den Arzt durch eine bessere Diagnose oder Therapie, für den Patienten durch den schonenderen Zugangsweg, eine geringere Belastung, das geringere Infektionsrisiko und die schnellere Wundheilung und oft kürzere Liegezeiten im Krankenhaus und – damit verbunden – für das Krankenhaus und die Gesellschaft mit geringeren Kosten. Diese allgemeine Aussage kann für einzelne Indikationen sehr viel detaillierter betrachtet werden, was nicht Gegenstand dieses Werks ist. Die Zeiten der rein diagnostischen Endoskopie gehören der Vergangenheit an. Die Endoskopie ersetzt in weiten Bereichen offenchirurgische oder auch mikrochirurgische Verfahren oder steht mit ihnen im Wettbewerb. Der medizinische und medizintechnische Fortschritt ist dabei noch stetig im Fluss, ein Ende der Entwicklung ist nicht absehbar. Das Feld wird als hochinnovativ betrachtet, mit ständig neuen Ansätzen, von denen jedoch nur ein Teil wirtschaftlich und auch klinisch erfolgreich sein wird.
Endoskope können entweder über natürliche Körperöffnungen (Mund, Nase, Ohr, Speiseröhre, Luftröhre, Harnröhre, Rektum, Scheide, aber auch der Tränengang am Auge oder die Milchgänge der Brust) eingeführt werden oder über kleine künstliche Einschnitte, etwa, um an die Organe in der Bauchhöhle oder in Gelenkspalte zu gelangen. Erfolgreiche endoskopische Konzepte spiegeln stets das Spannungsfeld zwischen der maximal möglichen Reduzierung des Zugangstraumas wider, etwa durch Reduzierung des Außendurchmessers von Instrumenten auf der einen Seite und andererseits maximale Bildqualität und Manipulations- oder Interventionsmöglichkeit, was große Optiken und große Instrumente oder Arbeitskanäle favorisiert. Die Rahmenbedingungen werden zudem von der menschlichen Anatomie und den technologischen Möglichkeiten gesetzt.
21.1.1 Terminologie
Die Endoskopie beschäftigt sich mit dem Einblick in verborgene Körperhöhlen, was die griechischen Wurzeln des Wortes treffend beschreiben. ενδοσ (endos gr.: innen)
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _21, © Springer-Verlag Berlin Heidelberg 2011
380
II
Kapitel 21 · Endoskopie
und σκοπειν (skopein gr.: schauen). Die Endoskopie ist eine medizinische Technik, kein klinisches Fachgebiet im eigenen Sinn. Sie ist heute in vielen medizinischen Fachgebieten tägliche Routine (z. B. Gastroenterologie, Abdominalchirurgie, Urologie, Gynäkologie, Sportmedizin, HNO, Pneumologie), es gibt nur wenige Fachgebiete, in denen die Endoskopie nicht vertreten ist. Die unterschiedlichen endoskopischen Verfahren werden meist durch das Organ bezeichnet, das Gegenstand der Untersuchung ist, kombiniert mit dem Suffix »-skopie«, also etwa Gastroskopie, Laparoskopie, Cystoskopie, Hysteroskopie, Arthroskopie, Laryngoskopie, Bronchoskopie, um ausgewählte Beispiele aus den o.g. Fachgebieten aufzugreifen. Unter diesem Gesichtspunkt sind Bezeichnungen wie »Resektoskopie« oder »Videoskopie« unpassend, auch wenn sie immer wieder zu finden sind. Die Begriffe werden von Instrumenten oder Endoskoptypen abgeleitet; hier konkret vom Resektoskop, einem Instrument aus der Urologie oder Gynäkologie bzw. einem Videoendoskop, das heute in sehr vielen Anwendungsgebieten zu finden ist und Endoskope beschreibt, die u. a. einen distalen Bildaufnehmer haben. Im deutschen Sprachraum wird die Endoskopie häufig auch noch als »Spiegelung« bezeichnet, obwohl der Begriff heute technisch nicht mehr zutreffend und eher historisch begründet ist. Der Begriff »Schlüssellochchirurgie« wird gern vom Wissenschaftsjournalismus als plakativer Begriff für die Endoskopie benutzt, was die Möglichkeiten der Endoskopie auf das vermeintlich heimliche Betrachten beschränkt. Die Endoskopie ist heute durch die modernen Möglichkeiten der Bildübertragung für die Weiterbildung von Ärzten und die Erklärung dem Patienten gegenüber sehr transparent geworden und ist mit den vielfältigen therapeutischen Möglichkeiten weit über die optische Diagnose hinausgewachsen. Wir betrachten den Begriff »Endoskopie« als etabliert, der chirurgische Teil der Endoskopie wird häufig auch als Minimal Invasive Chirurgie (MIC) bezeichnet. Wir empfehlen daher, durchgehend diese Bezeichnungen zu verwenden.
Retina stattfindet, kann man aus technischer Sicht von einer Art optischem Co-Prozessor sprechen. Die optische Bildentstehung beruht für unsere Betrachtungsweise im Wesentlichen auf drei Komponenten (1): ▬ der Beleuchtung mit sichtbarem Licht; ▬ einem Objekt mit charakteristischen Absorptionsund Remissionseigenschaften, in besonderen Fällen auch Fluoreszenz und anderen Effekten (diese Eigenschaften modulieren das Beleuchtungslicht); ▬ der Beobachtung mit licht- und farbempfindlichen Sensoren, etwa unserem Auge oder einem Halbleitersensor und der Aufbereitung in der Retina und im Gehirn oder technischen Mittel der Bilddarstellung. Die Auflistung identifiziert für uns bereits zwei ganz zentrale Komponenten der Endoskopie: hochwertige Beleuchtung und Bildgebung. Die Details der endoskopischen Bildkette werden im Abschnitt »Videokette« betrachtet ( Abschn. 21.2.3).
Vergrößerung und Auflösung Mit dem bloßen Auge können wir etwa 1/10mm auflösen, mit optischen Hilfsmitteln wie einem Mikroskop sogar Strukturen im Submikrometerbereich. Spezielle endoskopische Verfahren können Strukturen mit wenigen Mikrometern auflösen. Grundsätzlich lässt sich festhalten, dass mit moderner endoskopischer Ausstattung die Detailgenauigkeit und Auflösung des Bildes die Wahrnehmung bei der offenen Chirurgie deutlich übertrifft und so dem Arzt ein genaueres Arbeiten ermöglicht. Dies beruht nicht zuletzt darauf, dass Endoskope bei geringem Objektabstand einen Vergrößerungseffekt erzielen. Außerdem wird dieser Vorteil mit der stetigen Verbesserung der optischen und elektronischen Systeme verstärkt, zuletzt durch die Einführung hochauflösender (high definition, HD) Kamerasysteme. Die Auflösung eines endoskopischen Systems hängt von den optischen Kenngrößen ab. Daher ist eine Bildvergrößerung mit optischem Zoom mit einem Informationsgewinn verbunden, die »digitale« Vergrößerung hingegen nicht.
21.1.2 Die Endoskopie und die Stärken
der optischen Wahrnehmung Farbensehen Wenn wir eine komplexe Situation vor uns haben, möchten wir uns zunächst von dieser Situation »ein Bild machen«. Diese redensartliche Darstellung rückt den optischen Sinn und unser Sehen in den Mittelpunkt unserer Wahrnehmung. Nicht zu Unrecht, da der optische Sinn sicher unser wichtigster ist. Die Retina ist einer der wenigen Orte, an denen Zellkörper von Nervenzellen außerhalb des eigentlichen Zentralnervensystems zu finden sind. Aufgrund der Bildverarbeitung, die bereits in der
Mit unserem Farbensehen gewinnen wir eine zusätzliche Dimension, die andere Bildgebende Verfahren wie Kernspintomographie oder Ultraschall nicht haben. Unter normalen Betrachtungsbedingungen kann das menschliche Auge nicht mehr als 256 Graustufen (8 Bit) unterscheiden (2), das endoskopische Bild liefert 10 Bit auf drei Farbkanälen. Dies ist besonders im Hinblick darauf wichtig, dass der Arzt eine Vielzahl unterschiedlicher Rottöne im Gewebe erkennen muss.
381 21.1 · Einleitung
Bedeutung der Oberflächen Eine offenbare Schwäche von Licht ist es, dass es nicht tief in Gewebe eindringt und nur Oberflächen darstellen kann. Nun bilden unsere inneren Organe aber vielfältige innere Oberflächen, die endoskopisch zugänglich gemacht worden sind. Eine Vielzahl krankhafter Veränderungen findet zudem an Oberflächen statt, sodass die Endoskopie ein sehr wirkungsvolles diagnostisches und therapeutisches Verfahren ist. So ist ein Karzinom, im Volksmund Krebs genannt, ein bösartiger Tumor, der von Epithelgewebe ausgeht, das seinerseits an der (inneren oder äußeren) Oberfläche liegt. Es ist wichtig zu verstehen, dass durch die Farbdarstellung und die sehr gute Ortsauflösung mit optischen Verfahren deutlich besser und genauer Oberflächenstrukturen dargestellt werden können als mit anderen bildgebenden Verfahren. Daher sind mit den derzeitigen technischen Möglichkeiten auch alle Verfahren der Virtuellen Endoskopie mittels Computertomographie (CT) oder Kernspinverfahren mit Hilfe von Interpolationsverfahren nur scheinbar genau, in der Praxis optischen Verfahren aber deutlich unterlegen.
gar nicht »gesehen«, sondern nur gemessen werden kann. Die Endoskopie wird in der üblichen Nomenklatur nicht als bildgebendes Verfahren bezeichnet, was beim heutigen Stand der Endoskopie durchaus diskutiert werden könnte.
21.1.3 Herausforderungen in der
Endoskopie Sehen Die Endoskopie hat dem Arzt den direkten Blick auf das Untersuchungs- oder Operationsgebiet genommen. Die Auflösung hat sich zwischenzeitlich so weit verbessert, dass sie die konventionelle Sicht deutlich übertrifft, das räumliche Sehen ist allerdings eingeschränkt.
Fühlen Das Befühlen und »Begreifen« der Organe, ein weiterer wichtiger Sinn, was offenchirurgisch mit dem Finger digital (digitus lat.: Finger) problemlos möglich war, ist nun durch lange Instrumente übersetzt und kaum noch wahrnehmbar.
Wahrnehmung und Verarbeitung visueller Reize Der biologische Sinn des Sehens mit dem Auge ist es, Objekte, Gefahren und die Umgebung zu erkennen, nicht primär als ein optisches oder spektrales Aufzeichnungsverfahren zu dienen. Wenn es darum geht, zu erkennen, was auf einem Bild zu sehen ist, ist der menschliche Beobachter technischen Verfahren meist überlegen. Schon Goethe hat sich intensiv mit Farben, dem Sehen, der Wahrnehmung und deren komplexen Wechselwirkungen beschäftigt. Seine Kausalkette »Man sieht, was man weiß« hat George Berci in seinem grundlegenden Werk »Endoscopy« 1976 erweitert und gesagt: »What ones sees should become known and documented« (3). Dies ist bis heute ein zentrales Verständnis der Endoskopie. Die Bildverarbeitung und -erkennung ist eine der noch nicht abschließend gelösten Aufgaben. Die aktuelle Forschung beschäftigt sich aber auch mit den Vorteilen optoelektronischer und biophotonischer Verfahren gegenüber der reinen Bildgebung mit weißem Licht, um eine bessere, d. h. objektivierbare Gewebedifferenzierung zu erzielen (4).
Manipulieren Der Aktions- und Manipulationsraum ist durch die Wahl des Zugangs eingeschränkt, entsprechende Planung und Erfahrung sind hier erforderlich, um dies zu kompensieren. Komplexe Verfahren werden z.T. mit aufwändigen Telemanipulationssystemen durchgeführt, was ökonomisch meist nicht zu rechtfertigen ist. Der Wunsch der Miniaturisierung schränkt zudem die Größe von Instrumenten ein (etwa Zangen), was ggf. die Interventionsdauer verlängern kann.
Fazit Die Einschränkung der Sinne Sehen, Fühlen und z.T. auch Riechen sowie die eingeschränkten Manipulationsmöglichkeiten, die der Arzt durch die Endoskopie bereit ist hinzunehmen, müssen auch dem Ingenieur bei der Entwicklung neuer Instrumente und Verfahren klar sein, um diese Defizite nicht noch weiter zu verstärken. Ziel muss es sein, mit der Endoskopie Möglichkeiten zu eröffnen, die zuvor nicht gegeben waren.
Abgrenzung Die Information, die wir nicht sehen können, wie etwa Ultraschall, Magnetfelder oder Röntgenstrahlung, muss zunächst in eine Form gebracht werden, die wir verstehen. Die Darstellung der Wahl ist ein optisches Bild, diese Verfahren werden daher auch als bildgebende Verfahren bezeichnet, wenngleich die ursprüngliche Information
21.1.4 Historie
Der Wunsch, in verborgene Körperhöhlen zu schauen, ist bereits sehr alt. Es ist beschrieben, dass bereits im alten Ägypten Instrumente zur Proktoskopie eingesetzt wurden (5), ebenso sind Spekula aus Pompeji aus dem
21
382
Kapitel 21 · Endoskopie
⊡ Tab. 21.1. Historische Stationen der Endoskopie 1806
Philipp Bozzini baut in Frankfurt erstmals ein Instrument, seinen »Lichtleiter«, um Licht in Körperöffnungen zu bringen (7)
1868
Adolf Kußmaul führt erstmals eine Gastroskopie mit einem offenen Rohr und einer Kerze an einem Schwertschlucker durch
II 1877
Max Nitze benutzt ein optisches Linsensystem und einen glühenden Platindraht zur Beleuchtung
1902
Georg Kelling führt an zwei Patientinnen eine diagnostische Laparoskopie durch
1912
Der Däne Severin Nordentoft hat erstmals von der Arthroskopie des Knies berichtet, Kenji Takagi (Tokyo) arthroskopiert seit 1919 mit einem Cystoskop, Otto Bircher seit 1921 in Aarau
1929
Heinrich-Otto Kalk wird durch seine Arbeiten als eigentlicher Wegbereiter der internistischen Laparoskopie gesehen
1950
Publikationen zur gynäkologischen Laparoskopie verbreiten sich: Raoul Palmer (1950), Hans Frangenheim (1958)
1958
Basil J. Hirschowitz präsentiert ein flexibles Gastroskop noch mit distaler Glühbirne
1959
Harold H. Hopkins’ patentiertes Stablinsensystem verbessert die Bildübertragung in Endoskopen grundlegend, die Erfindung wird 1965 von Karl Storz in starren Endoskopen eingeführt
1963
Karl Storz stellt die Beleuchtung mit Glasfasern im Endoskop als neue Technologie vor (Kaltlicht)
1985
Erich Mühe in Böblingen führt die erste laparoskopische Cholecystektomie (Gallenblasenentfernung) durch
1. Jahrhundert nach Christus bekannt. Technische Möglichkeiten und der Fortschritt in der Medizin haben sich hier gegenseitig bedingt. An dieser Stelle (⊡ Tab. 21.1) sollen exemplarisch ganz wenige Stationen herausgegriffen werden, mehr Details sind etwa Reuters Werk über die Endoskopie zu entnehmen (6).
21.2
Endoskope und endoskopisches Zubehör
Heutige Endoskopiesysteme umfassen zahlreiche Komponenten. Grundsätzlich dienen die Kernkomponenten dazu, Licht zu generieren und das intrakorporale Behandlungsgebiet optimal auszuleuchten sowie Bilder dort zu erfassen, nach außen zu transportieren und in optimaler Weise darzustellen. Neben der rein endoskopischen Visualisierung werden zahlreiche Instrumente und
Geräte benötigt, die eine minimal-invasive Therapie ermöglichen. Grundsätzlich unterscheidet man starre und flexible Endoskope.
21.2.1 Lichtquellen und Beleuchtung
Die Lichtübertragung erfolgt seit den 60er Jahren sowohl bei starren als auch bei flexiblen Endoskopen durch Glasfaserbündel. Physikalisch basiert die Übertragung von Licht über einen Lichtleiter auf dem Prinzip der Totalreflexion zwischen Kern und Mantel der einzelnen Glasfaser. Als extrakorporale Lichtquelle kommen Halogen-, Halid- und auch Xenonlichtquellen zum Einsatz, deren Licht fokussiert über den proximalseitigen Lichtstecker ins Endoskop eingekoppelt wird. Neuerdings stehen für endoskopische Applikationen auch die ersten Leuchtdioden-basierten Lichtquellen zur Verfügung (light emmitting diode, LED). Die Qualität der Beleuchtung muss sich dabei mit dem Sonnenlicht messen lassen. Ein Kriterium ist die Farbtemperatur einer Lichtquelle, die auf quantenmechanischen Überlegungen zur Abstrahlung idealer schwarzer Körper beruht. Die Farbtemperatur der Sonne entspricht ihrer Oberflächentemperatur von etwa 6500 K (Kelvin). Eine weitere Messgröße ist der Farbwiedergabeindex (color rendering index), der ein Maß für die Qualität der Farbwiedergabe ist. Lichtquellen auf der Basis von Xenon-HochdruckKurzbogen-Lampen sind heutzutage die Standardlichtquellen für die Endoskopie, sowohl im Bereich der flexiblen Endoskopie als auch bei der Minimal Invasiven Chirurgie. Diese Systeme zeichnen sich durch ein sehr homogenes Weißlichtspektrum und durch eine hohe Lichtintensität aus. Aufgrund der guten Fokussierbarkeit sind die Xenon-Lichtsysteme gleichermaßen gut für groß- und kleinkalibrige Endoskope einsetzbar. Die Farbtemperatur kommt der von Tageslicht sehr nahe, der Farbwiedergabeindex ist sehr gut. 180-Watt-Systeme sind heutzutage für fast alle endoskopischen Anwendungsbereiche ausreichend. Das Licht wird von der Lichtquelle über ein ungeordnetes Glasfaserbündel (Lichtkabel) mittels Totalreflexion in der Glasfaser zum Endoskop geleitet. Mit dem technischen Fortschritt im Bereich der LEDs stehen bereits superhelle Halbleiterelemente zur Verfügung, die auch zur endoskopischen Beleuchtung eingesetzt werden können. Der Vorteil dieser Technologie besteht in der überaus langen Lebensdauer des Leuchtmittels, dem hohen Wirkungsgrad, d. h., es wird weniger Wärme generiert, und der geringen Baugröße. So sind neben eigenständigen Lichtquellengeräten auch distal- oder proximalseitige Integrationen von LEDs in Endoskope möglich. Nachteilig ist derzeit noch das inhomogene Weißlichtspektrum sowie die schlechte Fokussierbarkeit von LEDs in dünne Glasfaserquerschnitten.
383 21.2 · Endoskope und endoskopisches Zubehör
21.2.2 Bildgebung: Endoskope
und Bildsensoren Endoskopische Bildübertragung erfolgt heutzutage je nach Endoskoptyp optisch, faseroptisch oder optoelektronisch. Allen Endoskoparten gemeinsam ist ein distalseitiges Objektiv, welches die Blickrichtung und das Bildfeld bestimmt. Das Bildfeld eines Endoskops oder die numerische Apertur (NA) des Endoskopobjektivs hängt vom Brechungsindex des Umgebungsmedium ab. Wird eine Untersuchung, wie etwa die Cystoskopie, in einem wässrigen Medium durchgeführt, verkleinert sich das Bildfeld bei sonst gleichen optischen Bedingungen, verglichen zum Einsatz in Luft oder im Gas CO2, wie es bei einer Laparoskopie der Fall ist.
Starre Endoskope Im klassischen starren Endoskop erfolgt die Bildübertragung rein optisch über ein Linsensystem. Hier hat sich das so genannte Stablinsensystem nach Hopkins aufgrund seiner herausragenden Qualität durchgesetzt. Übertragungssysteme auf der Basis von stabförmigen Gradientenlinsen konnten sich nicht etablieren. Neben starren Endoskopen mit fixer Standardblickrichtung von 0°, 12°, 30°, 45°, 70°, 90° und 120° existieren neuerdings starre Endoskope mit variabel einstellbarer Blickrichtung (8). Dies besitzt den Vorteil, dass die Blickrichtung während des Eingriffs veränderbar ist, ohne dass sich die Außenkontur des Endoskops ändert.
Bildübertragung mit Glasfaserbündeln Primär in flexiblen Endoskopen erfolgte die Bildübertragung über geordnete Glasfaserbündel. Heute differenziert man zwischen so genannten vollflexiblen Bildleitern und
semiflexiblen Bildleitern. Während semiflexible Bildleiter aufgrund ihrer dünnkalibrigen Ausführung von ca. 1 mm (35000 Pixel) und darunter vor allem in semiflexiblen Mini- und Mikroendoskopen (⊡ Abb. 21.1) zum Einsatz kommen, werden die klassischen flexiblen Faserendoskope mit flexiblen Bildleitern zunehmend von optoelektronischen Endoskopen substituiert.
Elektronische Bildsensoren Miniatur-CCD-Bildaufnehmer (charge coupled device, CCD) und auch CMOS-Bildaufnehmer (complementary metal oxide semiconductor, CMOS) werden hierzu mit Objektiv und mit Signalaufbereitungselektronik in die Spitze von Endoskopen integriert und liefern elektronische Bilder mit Auflösungen, die ein Mehrfaches über der von Faserendoskopen liegen. In den gastroenterologischen Anwendungen sind nahezu alle klassischen Faserendoskope durch Videoendoskope ersetzt worden (⊡ Abb. 21.13, S. 393).
Videotechnik Bei den ersten flexiblen Videoendoskopen vor über 20 Jahren kamen zunächst Schwarz/Weiß-Bildsensoren zum Einsatz; das Hohlorgan ist über sequentielles Rot-GrünBlau-Licht ausgeleuchtet worden und über die Erfassung der drei Farbauszüge ist mittels Bildwandlung ein endoskopisches Farbbild fortlaufend berechnet und dargestellt worden. Heutige Videoendoskope besitzen farbtüchtige CCD- bzw. CMOS-Bildsensoren mit On-chip-Farbfiltern in RGB-Ausführung oder in dazu komplementären Farben (⊡ Abb. 21.2 und ⊡ Abb. 21.3). Die Videotechnik ist ein elementarer Baustein der Endoskopie. Dies betrifft nicht nur den Bereich der flexiblen Videoendoskope, bei denen miniaturisierte Bildaufnehmer in erster Linie distalseitig eingesetzt werden, sondern
⊡ Abb. 21.1. Miniaturendoskop Sialendoskop nach Marchal. (Quelle: KARL STORZ GmbH & Co. KG)
21
384
Kapitel 21 · Endoskopie
auch die starre Endoskopie und hier insbesondere die Applikationen der Minimal Invasiven Chirurgie. Durch den Einsatz hochwertiger proximalseitiger Kamerasysteme kann die extrem gute Übertragungsqualität der Hopkins-Stablinsen-Systeme nahezu adäquat wiedergegeben werden (⊡ Abb. 21.3).
II
⊡ Abb. 21.2. Schema: distalseitiger Aufbau eines Videoendoskops mit miniaturisiertem elektronischem Bildaufnehmer. 1: CCD-Einheit, 2: Lichtleiter, 3: Arbeitskanal, 4: Kabel, 5: CCD-Sensor, 6: Objektiv. (Quelle: KARL STORZ GmbH & Co. KG)
⊡ Abb. 21.3. Videocystoskop mit distalseitigem elektronischen Bildsensor
1-Chip, 3-Chip Derartige proximalseitige Endokameras besitzen einen oder drei Bildsensoren und weisen meist parfokale Zoomoptiken auf. Die Farbwiedergabe ist bei 3-ChipKameras wesentlich besser als bei 1-Chip-Systemen (⊡ Abb. 21.4). Während 1- oder 3-Chip-Kamerasysteme in Standard PAL- oder NTSC-Norm nicht an die Auflösungsgrenzen der Stablinsen-Optik herankamen, werden diese mit 3-Chip-HD-Endokameras der neusten Generation nahezu erreicht. Neben der HD-Endokamera sind die übrigen Komponenten der Übertragungselemente wie Kontrolleinheit, die Monitore und die digitalen Aufzeichnungsgeräte dem hochauflösenden Standard angepasst. Einer Marktdurchdringung der HD-Kamerasysteme steht somit technologisch nichts im Wege. Die Anforderungen hinsichtlich HD werden durch das Fernsehen vorgegeben. Es existieren zwei Übertragungsstandards mit 1280 x 720 p (progressiv) bzw. 1920 x 1080 i (interlaced). Kamera- bzw. monitorseitig werden nur die so genannten progressiven Standards eingesetzt (1280 x 720 p/1920 x 1080 p). Heutige HD-Bildsensoren in CCD- und CMOSTechnologie erfüllen diese Standards.
Stereoendoskope Obgleich die Bildqualität heutiger endoskopischer Systeme außerordentlich gut ist, vermissen Chirurgen vor allem bei endoskopgestützen MIC-Eingriffen z.T. den
⊡ Abb. 21.4. Hochauflösende 3-Chip-Endokamera Image 1 HD
385 21.2 · Endoskope und endoskopisches Zubehör
Tiefeneindruck, den sie über ihr visuelles System bei offenen Operationen gewohnt sind. Es bestand daher sehr früh der Wunsch – ähnlich wie in der Stereomikroskopie – nach Stereoendoskopen. Stereoendoskope erfassen endoskopische Bildinformationen aus zwei unterschiedlichen Raumrichtungen – ähnlich dem visuellen System des Menschen. Dieses Stereobildpaar wird über spezielle Visualisierungseinheiten getrennt dem Auge des Betrachters zugeführt. Das erste Patent zu einem Stereoendoskop wurde im Jahr 1905 (9) erteilt und in einer Zusammenarbeit des Berliner Urologen S. Jacoby, einem Schüler von Max Nitze, mit der Berliner Firma Louis & Heinrich Loewenstein 1904 gebaut (⊡ Abb. 21.5). Erst Mitte der 90er Jahre brachten verschiedene Hersteller StereovideoendoskopSysteme für die Minimal Invasive Chirurgie auf den Markt. Keines dieser Systeme konnte sich durchsetzen. Studien zeigten, dass ein dreidimensionales Sehen über den Monitor möglich war, dass jedoch die damit vorhandenen Nachteile, wie z. B. schlechtere Auflösung, schlechtere Farbwiedergabe, geringere Bildtransparenz, weniger
Licht, zu keiner effizienteren Durchführung der Operationen führten. Teilweise sind auch reine Autostereoskopie-Systeme angeboten worden, die gar keine reale 3D-Information lieferten. Verbesserungen vor allem bei der Visualisierung der 3D-Information sind notwendig, damit Stereoendoskope Akzeptanz finden können. Ein Ansatz besteht darin, das Bild nicht nur aus zwei Perspektiven betrachtbar zu machen, sondern auch volumetrisch mit unterschiedlichen Fokusebenen darzustellen (10).
21.2.3 Videokette
Nachdem die grundlegenden Komponenten Lichtquelle und Lichtkabel, Endoskop und elektronischer Bildwandler behandelt wurden, wird nun der Begriff der Videokette eingeführt. Wie bei einer Kette kommt es darauf an, dass alle Glieder stark und hochwertig sind und dass das Gesamtergebnis eines guten endoskopischen Bildes durch das schwächste Glied dieser Kette bestimmt wird. Oft sind es die »kleinen« Dinge, die ein hochwertiges System in die Knie zwingen. Daher ist auf alle Kopplungs- und Verbindungsstellen besonders zu achten, etwa, was die Sauberkeit von optischen Oberflächen angeht. Ebenso sind die elektrischen Verbindungen und die Signalkabel sorgfältig zu prüfen, da Knickstellen oder schadhafte Verbindungen das Ergebnis beeinträchtigen. Bei der Wahl der Videosignale ist das qualitativ Hochwertigste zu wählen. In der Videokette folgen nach der endoskopischen Kamera (Bildwandler) der Monitor sowie optional die Bild- und Videodokumentation oder auch die Möglichkeiten der Telemedizin.
21.2.4 Monitore
⊡ Abb. 21.5. Stereokystoskop nach Jacoby (1904). (Quelle: Reuter: Endoscopy)
Heute werden fast ausschließlich TFT-Flachbildschirme (thin film transistor, TFT) zur Darstellung endoskopischer Bilder eingesetzt. Diese haben qualitativ in den letzten Jahren stark aufgeholt. Der Wechsel im Operationssaal, weg vom Röhrenmonitor hin zum Flachbildschirm, der etwa um das Jahr 2005 stattgefunden hat, fand zu einem Zeitpunkt statt, zu dem die Bildwiedergabe des Flachbildschirms noch deutlich hinter den Möglichkeiten des Röhrenmonitors zurücklag. Die Aura des Neuen, die Erwartung, dass dieses Defizit aufgeholt würde, und der Gewichtsvorteil, der diese einfach und flexibel positionieren ließ, ermöglichten hier einen vorzeitigen Technologiewechsel. Wichtige Kriterien zur Auswahl eines guten Monitors sind eine hervorragende Farbwiedergabe, ein möglichst großer Beobachtungswinkel und eine sehr geringe La-
21
386
II
Kapitel 21 · Endoskopie
tenz, also keine Verzögerung zwischen der Aktion des Operateurs und der Darstellung auf dem Monitor. Gerade der letzte Punkt ist ein wichtiger Unterschied zu Monitoren im nichtmedizinischen Bereich. Im Gegensatz zu Monitoren für andere bildgebende Verfahren ist in der Endoskopie eine hervorragende Farbauflösung entscheidend – vor allem hinsichtlich der Farbtöne von menschlichem Gewebe. Technische Spezifikationen sind für einen ersten Vergleich gut, die tatsächliche Leistungsfähigkeit oder Unterschiede zwischen verschiedenen Geräten werden aber erst bei einem direkten Vergleich im Operationssaal sichtbar.
21.2.5 Bild- und Videodokumentation
In den Anfängen der Endoskopie war die Bilddokumentation eine fast geheime Kunst, da es nur dem Untersucher möglich war, das Untersuchungsgebiet zu betrachten. Der Wunsch bestand schon früh, diesen Einblick auch Mituntersuchern zu gewähren. Heute gehört es zur Dokumentationspflicht des Arztes, krankhafte Befunde oder die regelgerecht durchgeführte Operation im Bild bzw. im digitalen Video festzuhalten. Mit den heute gängigen qualitativ hochwertigen elektronischen Bildwandlern ist eine hervorragende Bilddokumentation möglich. Wichtig ist natürlich, dass zum Aufnahmezeitpunkt auch sehr gute Sichtverhältnisse herrschen und der Situs gut gespült ist. Die digitale Speicherung von Standbildern ist heute Standard. Dadurch, dass in der Regel eine leitende Verbindung zwischen dem Aufnahmegerät und dem Bildaufnehmer und damit zumindest mittelbar mit dem Patienten besteht, ist das Bildspeichergerät als Medizinprodukt auszulegen. Reine Konsumergeräte sind nicht zugelassen.
Speziell für die medizinische Anwendung zugeschnittene Systeme erlauben es dem Arzt außerdem, systematisch und abhängig vom durchgeführten Eingriff, Bilder zu erfassen und für entsprechende Operationsberichte aufzubereiten. Die Geräte sollen sich durch einfache Bedienung auszeichnen, insbesondere dadurch, dass sich Bilder einfach auslösen lassen (11). Am Markt befinden sich verschiedene Systeme, die z.T. für ganz spezielle medizinische Anwendungen zugeschnitten sind (⊡ Abb. 21.6). Neben der Erfassung von Standbildern spielt die Dokumentation von Videosequenzen eine zunehmend große Rolle. Mit den gestiegenen Anforderungen an die Auflösung ergeben sich bei Videosequenzen im HD-Format (720 p, 16:9) bei MPEG-2 Datenraten von etwa 12Mbit/s oder ein Speicherbedarf von 90 MByte pro Minute. Für 1080 p werden etwa 20 GB pro Stunde Aufnahmedauer benötigt. Die Vernetzung der patientenbezogenen Bilddaten in bestehende Krankenhausinformationssysteme (KIS) und Bildarchivierungssysteme (picture archiving and communication systems, PACS) spielt eine zunehmend wichtige Rolle und sollte von hochwertigen endoskopischen Bildund Videospeichersystemen geleistet werden.
21.2.6 Telemedizin in der Endoskopie
Breitband-Datenleitungen erlauben es heute, endoskopische Videobilder an beliebige Orte zu übertragen. Dies kann zum Einholen einer zweiten Meinung oder zu Lehrzwecken gewünscht sein, die Übertragung kann innerhalb eines Krankenhauses oder auf einen anderen Kontinent erfolgen. Interaktionsmöglichkeiten des entfernten Empfängers sind dabei wichtig, entweder einfach per Sprache oder auch zusätzlich über grafische Schnittstel-
⊡ Abb. 21.6. Klinisch zugelassenes System zur digitalen Speicherung von Patienten-, Bild- und Videodaten. Diese Variante ist speziell für Abläufe in der Orthopädie zugeschnitten: AIDA compact ortho (links), Dokumentationsmaske für das OP-Protokoll einer partiellen Resektion eines Innenmeniskus (rechts).
387 21.2 · Endoskope und endoskopisches Zubehör
len (Telestration). Für telemedizinische Anwendungen in der Endoskopie ist eine zeitlich synchrone Übertragung wichtig.
ein starres Endoskop eingeführt. Unter Sicht können über weitere Trokare zusätzliche Instrumente in das Operationsgebiet gebracht werden.
21.2.7 Endoskopische Instrumente
Manipulationsinstrumente
Die Endoskopie erfordert neben dem Endoskop, das für die optische Bildgebung sorgt, eine Reihe von weiteren Instrumenten zum Einführen und zum Manipulieren.
Zugangsinstrumente Flexible Endoskope werden in der Regel ohne weitere Einführhilfe verwendet. Gelegentlich wird ein Gleitmittel eingesetzt und/oder ein Lokalanästhetikum. Dies gilt für Gastroskope, Koloskope, Cystoskope, Naso-Pharyngoskope, Bronchoskope etc. Diese flexiblen Endoskope werden unter Sicht eingeführt. Starre Endoskope werden meist über einen Zugangstubus eingeführt, der je nach Anwendung unterschiedlich bezeichnet wird. Starre Endoskope werden meist mit Lokal- oder Vollnarkose eingesetzt. In der Urologie benötigt man für die Untersuchung der Blase einen einfachen Schaft für einen diagnostischen Eingriff und ein Doppelschaftsystem für einen interventionellen Eingriff, bei dem eine kontinuierliche Spülung eine klare Sicht bewirkt und den Abtransport von Resektat oder von durch Einblutungen getrübter Spülflüssigkeit. In der Laparoskopie verschafft man sich mit Hilfe eines Trokars, der etwa mit einem scharfen Trokardorn versehen ist, Zugang in die Bauchhöhle (Peritoneum). Dieser Schritt erfolgt, nachdem das Peritoneum mit Gas (CO2) insuffliert wurde, um einen Arbeitsraum zu schaffen, ohne optische Kontrolle. Über den Trokar wird dann
Je nach Anwendung ermöglicht die Endoskopie den Einsatz einer Vielzahl an Instrumenten, mit denen Gewebe manipuliert werden kann. Taststäbe, Fasszangen, Spreitzer, Retraktoren, Scheren, Haken, Absaug- und Spülkatheter, Resektionsschlingen, Nadelhalter, Klammerapparate und Clipapplikatoren. ⊡ Abb. 21.7 zeigt als Beispiel unterschiedliche Fasszangen und ein komplettes Set für eine laparoskopische partielle Nephrektomie. Die Vielzahl der verschiedenen Instrumente ist enorm, die führenden Hersteller bieten viele Tausend verschiedene Instrumente für unterschiedlichste medizinische Indikationen an.
Dimension minimal invasiver Instrumente Die Dimensionierung der Instrumente hängt wieder von zwei Rahmenbedingungen ab: so minimal-invasiv und so effektiv wie möglich, was das optische Bild und die mechanische Manipulation anbelangt. Daher sind rein diagnostische Instrumente meist schlanker und ohne oder nur mit Lokalanästhesie einzusetzen. Interventionelle, therapeutische Endoskope sind meist größer im Querschnitt und erfordern meist eine Allgemeinnarkose. Typische Durchmesser minimal-invasiver Instrumente reichen von 10 mm über 5 mm, was als Standard in der Laparoskopie betrachtet werden kann, hin zur Minilaparoskopie, die Instrumente von 1,9–3,5 mm verwendet. Die Minilaparoskopie ist eine wiederentdeckte Methode der Internisten zur Leberdiagnose, ein Ansatz, den die Internisten Georg Kelling und Heinrich-Otto Kalk bereits Anfang des 20. Jahrhunderts gewählt haben.
⊡ Abb. 21.7. Laparoskopische Fasszangen, Auswahl verschiedener Maulteile (links), endoskopisches Set für die laparoskopische partielle Nephrektomie (rechts).
21
388
Kapitel 21 · Endoskopie
Instrumente, die in Arbeitskanäle in flexiblen Endoskopen eingeführt werden, haben typischerweise einen Durchmesser von 2,2 mm bis unter 0,5 mm.
21.2.8 Aufbereitung von Endoskopen
II
und Instrumenten Der Stellenwert der Hygiene hat in den vergangenen Jahren zunehmend an Bedeutung gewonnen, insbesondere aufgrund neuer Varianten von Erregern, die durch die traditionellen und häufig manuell durchgeführten Methoden der Instrumentendekontamination nicht ausreichend inaktiviert werden und somit potentiell das Risiko bergen, über chirurgisches Instrumentarium von Mensch zu Mensch übertragen zu werden. Ein weiterer Grund hierfür sind die immer kleiner und komplexer werdenden Instrumente, die dementsprechend höhere Anforderungen an die Wiederherstellung eines hygienisch einwandfreien Zustandes stellen. Grundsätzlich können alle mit Mikroorganismen kontaminierten, insbesondere invasiv und auch minimal-invasiv eingesetzten Instrumente, Infektionen verursachen. Deshalb ist für eine erneute Anwendung eine sichere und validierte Aufbereitung erforderlich (12). Üblicherweise besteht der Wiederaufbereitungsprozess aus folgenden Schritten: ▬ Reinigung, definiert durch eine Keimreduktion um 1–4 Log-Stufen (Keimreduktion auf 10-1 bis 10-4 der Ausgangsverkeimung), ▬ Desinfektion mit einer Keimreduktion auf 10-4 bis 10-5, ▬ Sterilisation mit einer Keimreduktion auf 10-6 (Abtötung von 99,9999% der Keime oder nur einer von 1 Million Keimen überlebt), ▬ Sterilisationsverfahren mit einem doppelten Sicherheitsfaktor (»Overkill-Verfahren« mit einer Keimreduktion auf 10-12).
Hilfe von Wasser bei einer Temperatur von 93°C oder höher, welches die Oberflächen des Instrumentes benetzt. Gängig ist es zwischenzeitlich, diese Prozesse in einem Reinigungs- und Desinfektionsautomaten durchzuführen, wobei die für den Erfolg relevanten Parameter, wie z. B. die Konzentration der Chemie, deren Einwirkzeiten oder die Temperaturen, entsprechend gesteuert und überwacht werden. Individuelle Fehler werden somit nahezu ausgeschlossen. Der durch vollautomatisierte Prozesse reduzierte Umgang mit kontaminiertem Instrumentarium und aggressiven Chemikalien dient auch dem Schutz des Personals.
Sterilisation Im Anschluss an eine sachgemäß durchgeführte Reinigung und Desinfektion erfolgt in Abhängigkeit der jeweiligen Anwendung des Instrumentes eine Sterilisation. Das international hierfür favorisierte Verfahren aufgrund der Sterilisationssicherheit sowie der Wirtschaftlichkeit ist nach wie vor die Dampfsterilisation (Autoklavieren) mit feuchter Hitze (gespanntem Sattdampf) bei einer Temperatur von 134–137°C und einer Einwirkzeit von 3–5 Minuten, was länderspezifisch unterschiedlichen Regelungen unterliegt. Für die aufgrund der eingesetzten Werkstoffe als thermolabil deklarierten Instrumente gibt es eine Vielzahl von alternativen Niedertemperatur-Sterilisationsprozessen, wie beispielsweise die klassischen Gassterilisationsverfahren mit Ethylenoxid- oder Formaldehydgas. Ergänzend stehen auch neuere Prozesse auf Basis von Wasserstoffperoxid (H2O2), Peressigsäure oder Ozon zur Verfügung, welche im Einzelnen bezüglich ihrer Wirksamkeit, Eignung und Materialverträglichkeit für das jeweilige Sterilisiergut bewertet und ausgewählt werden müssen.
Pflege Reinigung Eine Reinigung stellt primär eine mechanische Abreicherung von Verschmutzungen dar, beispielsweise durch Bürsten der Oberflächen, durch eine Spülung bzw. den unterstützenden Einsatz von Ultraschall. Unterstützt werden kann diese Wirkung durch die Verwendung chemischer Hilfsmittel auf Basis von Enzymen, Aldehyden und anderen Wirkstoffen.
Desinfektion Die Desinfektion basiert entweder auf der Verwendung von chemischen Substanzen mit entsprechendem Wirkungsspektrum oder auf dem Wirkungsprinzip der thermischen Denaturierung organischer Bausteine mit
Ein ergänzender wichtiger Aspekt im Rahmen des Wiederaufbereitungsprozesses eines Medizinproduktes ist die Wartung und Pflege, welche üblicherweise nach einer erfolgten Reinigung/Desinfektion, jedoch vor der Sterilisation im Rahmen der Funktionskontrolle durchgeführt wird und speziell bei Instrumenten mit beweglichen Teilen der Sicherstellung der Funktion und dem Werterhalt dient. Hierbei werden die beweglichen Bauteile mit einem biologisch unbedenklichen (biokompatiblen) und den gewählten Sterilisationsprozess nicht behindernden (z. B. Dampfpenetration durch den Pflegemittelfilm an die darunterliegende Oberfläche) silikonfreien Instrumentenöl gezielt geölt. Dabei wird das Instrument mehrfach betätigt, um die Verteilung des Pflegemittels innerhalb der Gelenke sicherzustellen.
389 21.2 · Endoskope und endoskopisches Zubehör
Konstruktive Auslegung Die Wiederaufbereitung von Medizinprodukten ist ein komplexer Prozess, dessen Erfolg von multiplen Einflussfaktoren sowie maßgeblich vom Instrument und dessen konstruktiver Auslegung und der Auswahl der verwendeten Materialien abhängig ist.
Anforderungen und Richtlinien
z. B. von Spülflüssigkeit, kommt es permanent zu Druckund Volumenabfällen, was hohe Anforderungen an heutige Gasinsufflationsgeräte stellt. Die Geräte sollten einen Flow von maximal 30 l/min leisten und dabei einen intraabdominalen Druck von 15 mmHg nicht überschreiten. Um bei längeren Operationszeiten eine Unterkühlung des Patienten durch die Gasinsufflation zu verhindern, ist bei Geräten neuer Generation ein Modul zur Gaserwärmung und/oder -befeuchtung integriert. Neben der Insufflation von Gasen ist es bei MICOperationen sehr häufig notwendig, mit Flüssigkeit den Operationssitus bzw. die Optik freizuspülen oder Blut bzw. Gewebereste abzusaugen. Darüber hinaus kann die effiziente Spülung auch zur Hydrodissektion, d. h. zum Lösen von Verwachsungen, eingesetzt werden. Moderne Spül-Saug-Systeme vereinen beide Anforderungen.
Das Thema Hygiene, die rechtlichen und regulatorischen Rahmenbedingungen erfordern qualifizierte Prozesse und entsprechend ausgebildetes und qualifiziertes Personal. Die Reinigung (13), Desinfektion (14) wie auch die Sterilisation (15, 16) sind einer Vielzahl von fachgebietsspezifischen Empfehlungen (17), internationalen Normen und länderspezifischen Regelungen unterworfen und stellen für Anwender wie für die Hersteller von Medizinprodukten eine kontinuierliche Herausforderung dar.
Energieapplizierende Systeme
21.2.9 Peripheriegeräte
Zum Schneiden, Trennen, Blutstillen, Koagulieren, zur Steinzertrümmerung und anderen Interaktionen wird durch Energieeintrag ein therapeutischer Effekt erzielt.
Neben den Geräten zur videoendoskopischen Bilderfassung und Dokumentation ist eine Reihe von zusätzlichen operationsunterstützenden Einheiten notwendig.
Insufflatoren und Spül-Saug-Systeme Bei allen abdominal durchgeführten MIC-Eingriffen muss ein Pneumoperitoneum angelegt werden, damit sich Organe und Gewebe bei geschlossener Bauchdecke voneinander abheben und instrumentell und visuell zugänglich sind. Gasinsufflatoren dienen der Generierung und der Aufrechterhaltung des Pneumoperitoneums. Aufgrund des häufigen Instrumentenwechsels und des Absaugens,
Hochfrequenz (HF) Zur endoskopischen Erzeugung thermischer Effekte wird u. a. Hochfrequenzstrom eingesetzt ( Kap. 32). Weichgewebe kann dadurch unter endoskopischer Sichtkontrolle geschnitten und entstehende Blutungen koaguliert werden. Man unterscheidet generell zwischen der monopolaren und der bipolaren HF-Elektrochirurgie. Die monopolare Technik wird endoskopisch am häufigsten eingesetzt (⊡ Abb. 21.8).
Laser Der Laser wurde kurz nach seiner ersten technischen Umsetzung zu Beginn der 60er Jahre bereits in der Me-
⊡ Abb. 21.8. Hochfrenzchirurgie-Gerät (mono-/ bipolar) mit endoskopischem Instrumentenset für die transurethrale Resektion (TUR)
21
390
II
Kapitel 21 · Endoskopie
dizin eingesetzt. Unterschiedliche Lasermedien erlauben verschiedene Wellenlängen im sichtbaren, infraroten und ultravioletten Teil des Spektrums. Je nach Wellenlänge, Puls- und Interaktionsdauer kann eine ganz charakteristische Gewebewechselwirkungen erzielt werden (18). Wichtige Interaktionspartner sind dabei Wasser und Hämoglobin, deren Absorptionseigenschaften die Eindringtiefe des Lichts definieren ( Kap. 27). Wesentliche Anwendungen des Lasers finden sich in der HNO (19) und der Urologie (20), dort etwa zur Lithotripsie, zur Tumorkoagulation, zur Auftrennung von Stenosen und zur Prostataenukleation. Laserlicht wird in der Endoskopie über flexible, dünne Glasfasern übertragen, für spezielle Anwendungen im fernen Infrarot auch mit Spiegelsystemen (CO2-Laser). In den letzten Jahren werden die Systeme immer kompakter und mit Diodenlasern auch sehr wartungsfreundlich.
Bandbreite an Therapieoptionen erforderlich, weswegen hier ein modulares Konzept zum Tragen kommt, das genau auf die Bedürfnisse abgestimmt ist. Die Komponenten sind auf einem fahrbaren Gerätewagen installiert und können im OP an den geeigneten Ort geschoben werden. Die Mobilität über größere Distanzen ist eingeschränkt möglich (⊡ Abb. 21.9, unten).
Weitere energieapplizierende Systeme Mit der Photodynamischen Therapie (PDT) ist über die Wechselwirkung von (Laser-)Licht, Sauerstoff und einem photoaktiven Medikament, das sich selektiv in bösartigem Gewebe anreichert, eine endoskopische Tumortherapie möglich (21). Energie kann endoskopisch auch mittels Kryosonden entzogen werden, um Tumorgewebe lokal durch Unterkühlung zu zerstören oder mittels Ultraschall fokussiert zugeführt werden, um Gewebe zu trennen.
Systeme für weitere interventionelle Verfahren Die Endoskopie ist sehr vielseitig, sodass für verschiedenste Anwendungen spezielle interventionelle Systeme eingesetzt werden. Hierzu zählen: ▬ Implantate wie endolumenale Stents oder Occluder, die endoskopisch eingeführt werden können; ▬ motorgetriebene Instrumente, die zum Abtrag von Knochen oder Hartgewebe eingesetzt werden (Shaver, Bohrer) oder zum Schneiden von Weichgewebe (Morcellatoren).
21.2.10 Endoskopiearbeitsplätze
Endoskopiearbeitsplätze sind auf die Bedürfnisse der jeweiligen Anwendung zugeschnitten. Für die klinische Ambulanz, die Notfallmedizin oder auch für den Bereich der endoskopierenden Facharztpraxen ist der Fokus auf einem kompakten System, das sich im Wesentlichen auf die Beleuchtung und Bildgebung konzentriert. Biopsien und kleinere Eingriffe sind möglich. Diese Systeme sind leicht, gut transportierbar und seit geraumer Zeit am Markt verfügbar (⊡ Abb. 21.9, oben). Für Tageskliniken, die Routineoperationen endoskopisch auch mit Vollnarkose durchführen, und den voll ausgestatteten Operationssaal in Kliniken ist eine größere
⊡ Abb. 21.9. Zwei unterschiedliche Endoskopiearbeitsplätze: Kompaktsystem für die Ambulanz mit Kamera-Kontroll-Einheit, Lichtquelle, Monitor, Tastatur, Luft-/Spülpumpe (Gastropack) (oben), Gerätewagen für den Operationssaal zusätzlich mit HF-Chirurgie-System, Insufflator, Bild- und Videoarchivierungssystem, modularer Aufbau (unten)
391 21.3 · Integrierte Operationsräume
Neu konzipierte Operationssäle werden in der Mehrzahl heute mit vollintegrierten Arbeitsplätzen ausgestattet ( Abschn. 21.3).
21.3
Integrierte Operationsräume
Aufgrund der rasanten Entwicklung der Minimal Invasiven Chirurgie steht heute im Gegensatz zu früher eine Vielzahl von Geräten im Operationssaal. Die Bedienung und die Handhabung dieser Gerätesysteme von z.T. unterschiedlichen Herstellern wurde daher immer aufwändiger und komplexer. Darüber hinaus benötigt der Operateur viel Zeit, um alle OP-relevanten Punkte zu dokumentieren und in einem Bericht zusammenzufassen. Hinzu kommt, dass der Chirurg mit ständig komplexer werdenden MIC-Eingriffen konfrontiert wird und die Zeitbudgets kontinuierlich reduziert werden. Diese steigenden Anforderungen können nur durch eine Verbesserung des ergonomischen Handlings von Geräten und Instrumenten sowie einer durchgehenden computergestützten Dokumentation und Datenbereitstellung erreicht werden (22). Die Gestaltung von Systemarbeitsplätzen sowie neuen Konzepten für integrierte Operationssäle setzen Maßstäbe in der logistischen Abstimmung von OP-Tätigkeiten, vermindern die Stressfaktoren für den Operateur und das Assistenzpersonal und verkürzen damit auch die OP-Zeit und die Wechselzeiten. Die Systemintegration ermöglicht u. a. die zentrale Steuerung und Bedienung von Endoskopiegeräten und weiteren integrierbaren Geräte, wie z. B. HF-Geräte, OPTische, OP-Leuchten oder OP-Leuchtenkameras, aber auch des Dokumentationssystems und der Telemedizineinheit über einen zentralen berührungsempfindlichen Monitor (Touchscreen) direkt aus dem Sterilbereich und/oder am Schwesternarbeitsplatz (23). Es besteht die Möglichkeit zur personen- und eingriffsbezogenen Voreinstellung von Startkonfigurationen der Geräteparameter und Telemedizingrundeinstellungen, sodass die Geräte sich durch Aufruf der jeweiligen Konfiguration automatisch einstellen. Dies spart wertvolle Zeit und trägt zur Qualitätssicherung bei. Die Bedienoberflächen der integrierten Geräte sind auf der Benutzeroberfläche des Systems 1:1 dargestellt. Dadurch entfällt ein Umlernen auf ein neues Bedienkonzept. Neben der realistischen Benutzeroberfläche für jedes einzelne Gerät ist auch eine frei definierbare Übersichtsanzeige der wichtigsten Geräteparameter vorhanden. Die einzelnen ausgewählten Geräte sind ebenfalls aus diesem Anzeigemodus heraus steuerbar. Des Weiteren sind die Visualisierung von Geräteparametern sowie Alarmund Statusmeldungen des OP-Systems in einem für den Operateur gut sichtbaren Bereich auf dem Touchscreen realisiert.
Eine weitere Dimension der OP-Integration stellt das Datenmanagement dar, das sich aus der Dokumentationspflicht ergibt. Die Systeme bieten hierzu alle erforderlichen Funktionen für eine ganzheitliche und präzise Dokumentation endoskopischer und offener Eingriffe. Benutzerfreundliche Eingabesysteme erlauben ein einfaches Erfassen von Standbildern, Videosequenzen und gesprochenen Kommentaren von Befunden und operativen Eingriffen direkt aus dem sterilen Bereich per Fingertip auf den Touchscreen, über einen Fußschalter oder über die Kamerakopftasten. Über eine DICOM-Schnittstelle kann das System auf die im Kliniknetzwerk zur Verfügung gestellten DICOMWorklisten zugreifen, wodurch eine schnelle Übernahme von Patientendaten ermöglicht wird. Neben der Systemintegration und dem Datenmanagement gehört auch die Audio- und Videotechnik zur Kommunikation und Datenübertragung zum Gesamtkonzept einer optimalen integrierten OP-Lösung. Die verschiedenen Videosignale der Endoskopie-, Raumkamera sowie des PACS- oder KIS-Systems können prinzipiell beliebig verbunden oder durchgeführt (Routing) und fernübertragen und somit auch außerhalb des OPs dargestellt werden. Die Steuerung der Audio- und Videotechnik erfolgt ebenfalls über den Touchscreen am Schwesternarbeitsplatz. Die Mensch-Maschine-Standard-Schnittstellen werden häufig bereits mit intelligenten Spracheingabesystemen ergänzt. Der verstärkte Einsatz von OP-Integrationssystemen, durch welche die Produktivität und Effizienz in vielen chirurgischen Verfahren erhöht wurde, hat die Krankenhausverwaltungen in die Lage versetzt, den OP als eine wichtige Einnahmequelle anzusehen. Unter dem Aspekt der Profitabilität ist der OP zu einem entscheidenden Faktor für den Erfolg eines Krankenhauses geworden. Ergänzt werden diese Integrationstechnologien neuerdings durch effiziente OP-Management-Systeme. Ein effizientes OP-Management basiert auf der Harmonisierung aller Prozesse und integrierten Komponenten, verbunden mit einer nahtlosen Anschlussmöglichkeit an die Informationssysteme des Krankenhauses. Ein derartiges System (z. B. ORchestrion von KARL STORZ [24]) ermöglicht es, OP-Planung und Zeiteinteilung des Personals zu optimieren, und stellt einen effizienteren Informationsfluss zwischen den Operationssälen und den Informationssystemen des Krankenhauses sicher. Durch Optimierung der Rhythmen der OP-Nutzung erzielt das Krankenhaus einen besseren Ablauf und ist dadurch in der Lage, mehr Patienten eine qualitativ hohe Behandlung anzubieten. Dieses Tool hilft bei der operativen Vorplanung und koordiniert und kontrolliert die Verwendung der vorhandenen OP-Ressourcen. Es bildet somit einen wichtigen Baustein bei der Entwicklung von Strategien für einen optimalen Einsatz der begrenzten Ressourcen. Durch Einsatz von standardisierten Schnittstellen kön-
21
392
Kapitel 21 · Endoskopie
endoskopische Untersuchungen in Deutschland durchgeführt.
21.4.2 Spezielle Verfahren
II
Im Folgenden sollen einige spezielle endoskopische Anwendungen dargestellt werden, um das Potential und besondere Möglichkeiten darzustellen, ohne einen Anspruch auf Vollständigkeit erheben zu wollen.
Miniaturisierung ⊡ Abb. 21.10. Integrierter Operationssaal für die Minimal Invasive Chirurgie mit zentraler Bedienbarkeit aller Gerätefunktionen aus dem Sterilbereich. (Quelle: KARL STORZ GmbH & Co. KG)
nen derartige Werkzeuge einfach in die bestehenden ITStrukturen eines Krankenhauses eingebettet werden. Der modulare Systemaufbau lässt sich an die individuellen Bedürfnisse einer Klinik anpassen und bietet eine dynamische Plattform, um zukünftige Entwicklungen und Verbesserungen integrieren zu können (⊡ Abb. 21.10).
21.4
Medizinische Anwendungsgebiete
Die Endoskopie wird in einer Vielzahl medizinischer und chirurgischer Disziplinen zur Diagnose und Therapie eingesetzt. Zu den Bereichen, in denen die Endoskopie routinemäßig eingesetzt wird, gehören u. a. die verschiedenen Unterdisziplinen der Hals-Nasen-undOhren-Heilkunde, die Pneumologie, Gastroenterologie, Abdominalchirurgie, Urologie, Gynäkologie und etwa die Sportmedizin. Die Anwender sind dabei über alle Ebenen der Gesundheitsversorgung verteilt, von der Facharztpraxis über medizinische Versorgungszentren und Tageskliniken sowie alle Krankenhaustypen von der Grundversorgung bis hin zur Universitätsklinik.
21.4.1 Häufigste Verfahren
Die häufigsten interventionellen endoskopischen Eingriffe sind arthroskopische Eingriffe, endoskopische Operationen an den Gallengängen, die laparoskopische Gallenblasenentfernung, die transurethrale Resektion von Harnblasentumoren und von gutartigem Prostatagewebe (BPH) (25). Der Leistenbruch, die Gebärmutterentfernung und die Entfernung des Wurmfortsatzes gehören mit zu den häufigsten chirurgischen Eingriffen, werden aber nur zu einem Teil endoskopisch durchgeführt. Zusätzlich wurden 2008 etwa 3,3 Millionen diagnostisch
Endoskope können so weit miniaturisiert werden, dass sie für Operationen an Kindern und Neugeborenen geeignet sind. Beispielhaft soll die Schlitzung der verschlossenen Ureterostien bei einer Harnstauungsniere bei Neugeborenen genannt werden, bei der mittels eines kleines Messers, das über ein filigranes pädiatrisches Cystoskop eingeführt wird (⊡ Abb. 21.11), eine anatomische Anomalie beseitigt wird. Heute ist es sogar möglich, das ungeborene Kind im Mutterleib endoskopisch zu operieren. Andere Anwendungen für Miniendoskope sind die Untersuchung des Tränengangs am Auge, der Speichelgänge im Mund, der Milchgänge in der Brust oder der Eileiter. Hier sind feinste flexible Glasfaserendoskope mit Durchmessern von 0,3 bis etwa 1 mm im Einsatz.
Kontrollierter Zugang In einigen medizinischen Anwendungen war es bisher nicht möglich oder üblich, unter optischer Kontrolle zu arbeiten. Unter dem Aspekt des schonenderen und sichereren Zugangs hat die endoskopische Unterstützung in der Anästhesie und Notfallmedizin in den letzten Jahren Einzug gehalten, um bei der schwierigen Intubation auch den richtigen Zugang zu finden. Auch die endoskopische Untersuchung der Gebärmutter (Hysteroskopie) ist unter diesem Gesichtspunkt auf dem Vormarsch, um gezielt Biopsien entnehmen zu können oder Polypen zu entfernen, im Gegensatz zu einer blinden Ausschabung. Trotz der medizintechnischen Möglichkeiten sind filigrane Hysteroskope in Deutschland noch wenig verbreitet, die beim niedergelassenen Facharzt auch schmerzfrei ohne Narkose eingesetzt werden könnten. Dass Italien in dieser Beziehung schon sehr viel weiter ist, zeigt die sehr stark regional geprägte Verbreitung, was z.T. an den unterschiedlichen Erstattungssystemen liegt.
Alternative zu Operationsmikroskopen In den Bereichen, in denen das Operationsmikroskop eingesetzt wird, erarbeiten sich endoskopische Verfahren ihren Platz. In der Larynxchirurgie, der Neurochi-
393 21.4 · Medizinische Anwendungsgebiete
⊡ Abb. 21.11. Miniaturisierung in der Endoskopie am Beispiel der Kinderurologie; oben Resektoskop zur Abtragung von Gewebe mit Hochfrequenzstrom, Schaftdurchmesser 3,7 mm, darunter verschiedene Cystoskopschäfte. (Quelle: KARL STORZ GmbH & Co. KG)
⊡ Abb. 21.12. Wirbelsäulensystem zur Behandlung von Bandscheibenvorfällen und Spinalkanalstenosen. (Quelle: KARL STORZ GmbH & Co. KG)
rurgie oder bei filigranen Operationen an der Wirbelsäule (⊡ Abb. 21.12) gewinnen endoskopische Verfahren an Boden. Die Tiefenschärfe endoskopischer Systeme ist deutlich größer als bei Mikroskopen, außerdem kann das Endoskop um die Ecke schauen, was bei Mikroskopen aufgrund des großen Arbeitsabstands nicht möglich ist.
Gastroenterologische Endoskopie Die Untersuchung des Verdauungstrakts bietet eine Vielzahl hochdifferenzierter Endoskopiesysteme, die mit Ultraschall, Zoom oder Fluoreszenzverfahren gekoppelt wer-
⊡ Abb. 21.13. Flexibles Videokoloskop mit distalseitigem hochauflösendem Festkörperbildsensor
den können. Darüber hinaus wird für die Untersuchung der Gallengänge ein Huckepackverfahren angewendet, in dem ein Kleinkaliberendoskop durch das großkalibrige Duodenoskop eingeführt wird. Die Gastroskopie zählt zu den häufigsten diagnostischen Verfahren. ⊡ Abb. 21.13 zeigt ein flexibles Endoskop aus der Gastroenterologie mit distalem Bildsensor.
21
394
Kapitel 21 · Endoskopie
21.5
II
Gewebedifferenzierung
Wie in Abschn. 21.1.2 dargestellt, wird die Beleuchtung durch das beleuchtete Gewebe moduliert und von einem Bildsensor wahrgenommen. Nun ist es durch unterschiedliche Verfahren möglich, Information über das Gewebe zu erhalten, die über die Information des farbigen Weißlichtbildes deutlich hinausgeht.
Das Verfahren wird heutzutage für zahlreiche andere Organsysteme eingesetzt. Ziel der 2008 gegründeten, vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Innovationsallianz Molekulare Bildgebung (27) ist es, zukünftig neue krankheitsspezifische Markersubstanzen und angepasste Detektionssysteme zur Verfügung zu haben. Dies kann nur in Kooperationsallianzen zwischen Pharmaunternehmen und Geräteherstellern erfolgen.
21.5.1 Molekulare Bildgebung/
21.5.2 Infrarot-Endoskope
Fluoreszenzendoskope Die molekulare Bildgebung zählt zu den großen Hoffnungsträgern im Bereich der Krebsforschung und Früherkennung, da sie krankhafte Veränderungen bereits auf zellulärer Ebene sichtbar macht. Fluoreszenzbasierte Endoskopiesysteme haben als optische Detektionseinheiten einen hohen Stellenwert. Das Verfahren selbst nutzt z. B. den veränderten Stoffwechsel von entarteten Zellen, um über einen molekularen Mechanismus im Tumor angereicherte fluoreszierende Substanzen optisch nachzuweisen. Diese optische Form der molekularen Bildgebung, bei der die verdächtigen Areale im Endoskopbild farbig aufleuchten, kam mit großem Erfolg erstmalig beim Harnblasenkrebs zum Einsatz (26) (⊡ Abb. 21.14). Flächige Tumorvorstadien – so genannte Carcinomata in situ – mit einer Dicke von nur einigen Mikrometern (< 30 μm) können mit dieser Technik frühzeitig visualisiert werden. Hierzu ist kein anderes bildgebendes Verfahren in der Lage.
Die Infrarot(IR)-Endoskopie, d. h. die endoskopische Darstellung von Bildinformationen im Infrarot-Bereich, ist ein langjähriger Wunsch der diagnostischen Medizin, um z. B. Entzündungsprozesse besser zu erkennen. Diesem Ziel sind allerdings technologische Grenzen gesetzt. Die endoskopische Erfassung und Übertragung von Nahinfrarot(NIR)-Strahlung von 650 nm bis ca. 1000 nm bzw. maximal 2000 nm ist mit bestehenden Technologien möglich. Darüber hinaus ist eine Bildübertragung mit optisch transparenten Standardgläsern nicht mehr erzielbar. Aktuelle Forschungs- und Entwicklungsaktivitäten haben sich daher auf den NIR-Bereich konzentriert. So wird versucht, u. a. die Perfusion nach Transplantationen zu bestimmen oder Darmanastomosen-Insuffizienzen in einem Frühstadium zu visualisieren. Zur intraoperativen Prüfung der Anastomosen nach Darmresektionen stehen dem Chirurgen bei offenen Operationen die visuelle und manuelle Kontrolle zur Verfügung, bei laparoskopischen Eingriffen nur die visuelle endoskopgestützte Kontrolle
⊡ Abb. 21.14. Endoskopische PDD-Cytoskopie, kleiner exophytärer Tumor mit kleinen Satellitentumoren, PDD-Modus (links), Weißlicht (rechts). (Quelle: KARL STORZ GmbH & Co. KG)
395 21.5 · Gewebedifferenzierung
unter Weißlicht. Zur besseren Kontrolle der Darmdurchblutung wurde von Carus und Lienhard (28) erstmalig die intraoperative Fluoreszenzdiagnostik bei laparoskopischen, kolorektalen Anastomosen eingesetzt. Basis für diese Applikationen sind NIR-übertragende Endoskope sowie Kameras und optische Kontrastmittel, die über spezielles Anregungslicht zur NIR-Fluoreszenz angeregt werden. Der intravenös verabreichte Farbstoff Indocyaningrün (ICG) wird durch Einwirkung von Rotlicht zur Fluoreszenz im Infrarotbereich bei ca. 830 nm angeregt. Das diagnostische Prinzip ist seit den 60er Jahren zur Untersuchung der Augenrückwand bekannt, daher ist ICG für verschiedenste Applikationen zugelassen. Durch den Einsatz der ICG-Fluoreszenz-Laparoskopie-Technik soll die relativ hohe Rate an Anastomosen-Insuffizienzen beim Kolon und Rektum signifikant reduziert werden. Technisch basiert das ICG-Fluoreszenz-System auf einer endoskopischen 300-Watt-Xenonlichtquelle, in deren Strahlengang wechselweise ein ICG-Anregungsfilter eingeschwenkt werden kann. Als Resultat dieses tiefroten Anregungslichts zeigt sich auch in tiefer liegenden Gewebestrukturen eine NIR-Fluoreszenz beim Vorhandensein von ICG im Blut. Diese Fluoreszenz wird vom Laparoskop bildgebend über ein Beobachtungsfilter erfasst, von störenden Lichtanteilen getrennt und über eine spezielle Kamera, die im NIR-Bereich empfindlich ist, in ein elektronisches Bildsignal gewandelt. Über eine Art Falschfarbkodierung wird die IR-Fluoreszenzinformation in einen sichtbaren Bereich transformiert und auf dem Monitor dargestellt. Wahlweise kann zwischen dem Standard-Weißlicht-Modus und dem IR-Modus umgeschaltet werden.
21.5.3 Zoomendoskope, Endomikroskope
Die feingewebliche, mikroskopische Untersuchung ist heute der Goldstandard, um Gewebe hinsichtlich seiner Beschaffenheit oder Entartung zu bewerten. Der Wunsch besteht schon lange, diese Laboruntersuchung bereits zum Zeitpunkt der Untersuchung in situ durchführen zu können. Bereits 1980 hat Jacques Hamou (29) in Paris ein Verfahren beschrieben, bei dem er das zu untersuchende Gewebe mit Methylenblau einfärbt und anschließend mit einem starren Endoskop beobachtet, das wahlweise ein normales Weitfeldbild oder in Gewebekontakt und durch Veränderung der optischen Fokusebene ein endomikroskopisches Bild mit 150-facher optischer Vergrößerung liefert. Dadurch konnten die Größe der Zellkerne und Anomalien der Zellstruktur erkannt werden. Das Verfahren wurde mit KARL STORZ unter der Bezeichnung Kontaktendoskopie kommerzialisiert und zur Erkennung von Gebärmutterhalsdysplasien und zur Untersuchung des Kehlkopfs eingesetzt. Das Verfahren hat sich nicht weit verbreitet. Heute erlebt die Vergrößerungsendoskopie einen neuen Auftrieb, etwa in der Gastroenterologie.
Die optische Vergrößerung von ausgedehnten Gewebestrukturen überlagert die Information vieler Gewebeschichten übereinander. In den letzten Jahren wurden Verfahren aus der Mikroskopie weiterentwickelt, mit dem konfokalen Prinzip eine definierte Schnittbildebene auch endoskopisch abbilden zu können. Dazu ist entweder ein distaler Mikroscanner oder ein proximaler Scanner erforderlich, was einen beachtlichen technischen Aufwand bedeutet. Alternative Verfahren zeichnen sich am Horizont ab, müssen den klinischen Beweis jedoch noch antreten.
21.5.4 Ultraschallendoskope
Die Endoskopie ist ein konkurrenzloses Verfahren zur Beurteilung von Organoberflächen. Zur Beurteilung tiefer liegender Strukturen und Prozesse wird die Ultraschalltechnik eingesetzt. Endoskopgestützte Ultraschalluntersuchungen ermöglichen Gewebecharakterisierungen und Aussagen über tiefer liegende Schichten, die der rein endoskopischen Betrachtung verborgen bleiben. Piezokeramische Ultraschallelemente werden hierzu entweder als Einzelelemente oder in Form von Array-Anordnungen in die Spitze des Endoskops eingebaut und geben von dort kurze hochfrequente Ultraschallpulse ins Gewebe ab. Diese Schallpulse werden an Gewebegrenzflächen und anderen Gewebeinhomogenitäten unterschiedlicher Eindringtiefe reflektiert, über die gleichen Ultraschallelemente wieder erfasst, in elektrische Signale gewandelt und einer Auswerteeinheit zugeführt. Die Information aus verschiedenen Ultraschallechogrammen wird zu so genannten Ultraschall-B-Bildern (»Brightness«-Bildern) zusammengefügt und dem Arzt für eine weiterführende Auswertung auf dem Monitor visualisiert. Die Frequenzen endosonographischer Systeme liegen derzeit im Bereich von 5 bis 30 MHz. Früher eingesetzte elektromechanische Scannereinheiten sind heute ausschließlich durch elektronisch angesteuerte Array-Transducer (Linear-, Radialscanner) ersetzt worden. Unter endosonographischer Kontrolle können v.a. interventionelle Eingriffe wie z. B. Feinnadelbiopsien durchgeführt werden.
21.5.5 Optische Kohärenztomographie
Als optisches Analogon zur Ultraschallbildgebung kann die Optische Kohärenztomographie (optical coherence tomography, OCT) betrachtet werden. Das Grundprinzip der OCT basiert auf der Weißlicht-Interferometrie. Dabei wird der eine Arm mit bekannter optischer Weglänge als Referenz zum Messarm herangezogen. Die Interferenz der Signale aus beiden Armen ergibt ein Muster, aus dem man die relative optische Weglänge innerhalb eines Tiefenprofils herauslesen kann. In einem eindimensionalen Rasterverfahren wird der Strahl dann transversal in einer
21
396
Kapitel 21 · Endoskopie
Seit wenigen Jahren existieren darüber hinaus spektrale Bildverarbeitungstechnologien, mit denen spezielle Echtzeit-Farbanalysen von videoendoskopischen Bildern möglich sind. Man unterscheidet rein softwarebasierte Systeme (virtuelle Chromoendoskopie) von Systemen, die eine Kombination aus schmalbandiger Beleuchtung mit spezifischer elektronischer Farbzuordnung darstellen (Narrow Band Imaging, NBI). Die Idee hinter den spektralen Verarbeitungstechniken besteht darin, die Erkennbarkeit von speziellen Strukturen zu verbessern, indem man optische Bildinformation auf – im Vergleich zum gesamten sichtbaren Spektralbereich – schmalbandige Bereiche begrenzt und damit weniger relevante spektrale Information unterdrückt. So sind bei endoskopischen Untersuchungen v.a. Wellenlängenbereiche von Interesse, die mit dem Bereich übereinstimmen, in dem der Blutfarbstoff Hämoglobin die höchste Absorption zeigt. Diese liegen im Blauen zwischen ca. 410 und 440 nm und im Grünen zwischen 530 und 580 nm. Die Begrenzung auf diese Spektralbereiche ermöglicht eine Kontrastanhebung zwischen Gewebebereichen mit hoher und geringer Hämoglobin-Konzentration. Somit ist eine bessere Differenzierung von oberflächennahen Gefäßstrukturen möglich. Pathologische Strukturen, z. B. im Bereich des Ösophagus oder des Gaumens, lassen sich so besser erkennen (⊡ Abb. 21.16, 4-Farbteil am Buchende).
II
⊡ Abb. 21.15. Endoskopische OCT-Bilder in Falschfarben-Darstellung. Gesundes Urothel (Urothelium, Lamina propria, Muscularis propria) (oben), oberflächlicher Tumor, die Schichtstruktur ist schwächer ausgeprägt, eine Grenze zur Lamina propria aber noch vorhanden. (Quelle: Klinikum der Ludwig-Maximillians-Universität München)
oder zwei Richtungen geführt, womit sich ein flächiges oder räumliches Tomogramm aufnehmen lässt. OCT wird heute routinemäßig in der Ophthalmologie eingesetzt, in der Endoskopie sind die Einsätze derzeit noch experimentell (⊡ Abb. 21.15), meist im Kehlkopf oder in der Harnblase. Die Eindringtiefe wird hier mit etwa 2 mm angegeben.
21.5.6 Virtuelle Chromoendoskopie
Die Differenzierung zwischen benignen und malignen Strukturen ist ein wichtiger Aspekt der endoskopischen Diagnostik. Zur Verbesserung der Aussage hinsichtlich einer Gewebecharakterisierung bzw. Gewebedifferenzierung werden schon seit längerem Färbemethoden eingesetzt, z. B. Methylenblau, Toluidinblau, Indigokarmin. Ähnliche Kontrastanhebungen ergeben sich unter Verwendung von Essigsäure, z. B. bei der Früherkennung von Karzinomen der Cervix uteri (Gebärmutterhals), im Ösophagus und in der Mundhöhle.
21.6
Weitere Zukunftsentwicklungen
Neben den Verfahren zur Gewebecharakterisierung zeichnen sich weitere innovative Ansätze ab. Der erste klinische Einsatz ist bereits erfolgt, der klinische Durchbruch meist noch nicht genau absehbar.
21.6.1 NOTES
Seit einigen Jahren wird in chirurgischen und gastroenterologischen Kreisen intensiv über eine weitere Reduktion des Zugangstraumas diskutiert. Die Überschreitung der Grenzen zwischen der internistischen Gastroenterologie und der Abdominalchirurgie scheint möglich. Dabei wird in Kauf genommen, dass eine bislang intakte Organstruktur (etwa der Magen oder die Scheide) chirurgisch penetriert werden muss. Im Vergleich zum Zugangstrauma durch die Bauchdecke wird dies aber von den Protagonisten als akzeptabel eingeschätzt. Das Operieren über natürliche Körperöffnungen scheint möglich. NOTES steht für Natural Orifice Translumenal Endoscopic Surgery. Die Zielstellung wurde 2005 in einem White Paper (30) federführend von David Rattner und Anthony Kalloo niedergeschrieben. Bis dato wurden u. a. bereits Gallenblasen und Wurmfortsätze transgastrisch (über den Magen) und transvaginal (31)
397 21.6 · Weitere Zukunftsentwicklungen
⊡ Abb. 21.17. Flexible interventionelle Plattform zur Durchführung transgastrischer Operationen, NOTEScope Anubis. 3 Arbeitskanäle, 2 davon abwinkelbar zur Triangulation von flexiblen Arbeitsinstrumenten. Die beiden Halbschalen sind beweglich, in geschlossenem Zustand dienen sie als atraumatische Einführ- und Dilatationshilfe, im geöffneten Zustand als Retraktor und zur Sicherung des Operationsgebiets gegen den nicht einsehbaren Bereich. Gesamtsystem (links), distales Detail mit Koagulationshaken, Fasszange und Absaugkatheter (rechts). (Quelle: KARL STORZ GmbH & Co. KG)
(über die Scheide) bei Patienten entfernt. Insgesamt ist davon auszugehen, dass weltweit bis Anfang 2010 über 500 Patienten mit NOTES-Verfahren operiert wurden. Ein Großteil davon wurde bei Frauen transvaginal durchgeführt, da hier der Zugang seit langem bekannt und der Zugangsweg offenchirurgisch und unproblematisch verschlossen werden kann. Grundsätzlich wird der transgastrische Zugang favorisiert, jedoch ist der Magenwandverschluss bisher nicht befriedigend gelöst. Ein Teil der Operationen wurde hybrid, mit Hilfe eines laparoskopischen Hilfzugangs, durchgeführt. Die anfangs sehr hohen Erwartungen an Instrumentarium und Operationstechniken sind bisher noch nicht erfüllt worden. Dennoch sind einige technologische Neuerungen erst im Zuge dieser Fragestellung verwirklicht worden. ⊡ Abb. 21.17 zeigt exemplarisch das ANUBIScope von KARL STORZ für den transgastrischen Einsatz mit voller Reflexionsmöglichkeit (210° Abwinklung in vier Richtungen). Dabei handelt es sich um eine Plattform mit einem flexiblen Schaft, die Arbeitskanäle sind groß und für abwinkelbare flexible Instrumente vorgesehen, mit denen Gewebe entsprechend manipuliert werden kann. Eine Triangulation, die in der klassischen internistischen Endoskopie nicht möglich ist, wird hier durch die abwinkelbaren Instrumente ermöglicht. Der spezielle Mechanismus an der Spitze des Endoskops erlaubt ein atraumatisches Einführen, wie mit einem stumpfen Trokar in der Laparoskopie (geschlossener Zustand) und im Operationsgebiet durch die offene Position der Halbschalen, ein geschütztes Operieren und eine Stabilisierung der
Instrumente und deren Triangulation. Über einen dritten Arbeitskanal können weitere Instrumente, etwa ein abwinkelbarer Katheter zum Absaugen oder als Führung für eine Laserfaser, eingebracht werden. Noch ist es zu früh, die Geschichte über NOTES zusammenzufassen, das Kapitel ist noch lange nicht abgeschlossen.
21.6.2 Single Port
Nachdem die große Herausforderung bei NOTES den beteiligten Ärzten und Ingenieuren der in dem Feld aktiven Firmen klar geworden ist, wurde nach alternativen Innovationen gesucht. Die Idee, das Zugangstrauma zu reduzieren und keine Narben zu hinterlassen, wurde dadurch aufgegriffen, dass nur noch über eine laparoskopische Zugangsstelle (single site) oder einen einzelnen Zugangsport (single port) gearbeitet werden soll. Vorzugsweise wurde der Bauchnabel als Zugang vorgeschlagen, weil so zumindest keine neue Narbe entsteht (der Nabel ist gewissermaßen eine natürliche Verwachsungsnarbe). Eine Vielzahl unterschiedlicher Bezeichnungen wurde geboren, die sich im Detail unterscheiden mögen, im Grundsatz aber das gleiche Prinzip verfolgen. Single Port Laparoscopic Surgery bezieht sich auf einen Zugangsport, der mehrere Instrumente beherbergen kann (⊡ Abb. 21.18). Trotz seiner potentiellen Vorteile ist das Verfahren mit großen ergonomischen Beschränkungen und Einschränkungen verbunden, da der Schwierigkeitsgrad bei
21
398
Kapitel 21 · Endoskopie
der Durchführung von laparoskopischen Eingriffen bei diesem Verfahren sehr viel höher ist und vom Operateur außerordentliche Geschicklichkeit und Fachkenntnis gefordert werden. Das Dundee ENDOCONE® System wurde als ganzheitliches Zugangs-Instrumenten-Retrak-
II
tionssystem realisiert, um diese Probleme zu überwinden und die Durchführung von Single-Port-Operationen zu erleichtern. Das System ist mit gebogenen Koaxialinstrumenten versehen, um den Operationsraum zwischen den Händen des Operateurs zu vergrößern.
21.6.3 Simulation
Mit der Etablierung der Minimal Invasiven Chirurgie stieg der Trainingsbedarf der neuen endoskopischen Techniken. Das Hand-Auge-Koordinationstraining mit endoskopischen Instrumenten in Kombination mit einfachen In-vitro-Modellen reicht für eine grundlegende MIC-Ausbildung nicht aus. Intensive Kurse unter Einbeziehung von In-vivo-Großtiermodellen sind bisher notwendig, um angehenden MIC-Chirurgen die notwendigen instrumentellen Interaktionen und Manöver beizubringen. Durch die Verfügbarkeit von Hochleistungs-Computern und Graphikprozessen ist es heutzutage möglich, virtuelle Simulatoren bereitzustellen, die zum einen den Operationssitus relativ originalgetreu präsentieren und zum anderen die Interaktionen der Instrumente mit dem Weichgewebe realitätsnah nachempfinden. Die Anforderungen nach Echtzeit und Bildauflösung werden weitgehend erfüllt. Für die verschiedenen Fachrichtungen existieren unterschiedliche Simulatorausführungen, es existieren Systeme für die Urologie (32), Gynäkologie, Viszeralchirurgie, Koloskopie etc. So besteht das Simulatorsystem für die Abdominalchirurgie aus einem Monitor, einer Steuereinheit, einem Simulations-PC, einem Patienten-Torso mit Trokarmodulen einschließlich taktiler Kraftrückwirkung und endoskopischen Instrumenten (⊡ Abb. 21.19).
⊡ Abb. 21.18. Single Port: Die Zugangssysteme und die Instrumente, insbesondere deren Formen, unterscheiden sich. ENDOCONE® n. CUSCHIERI (oben), X-CONE, bestehend aus zwei Halbschalen, die über eine Dichtung fest miteinander verbunden werden (unten). (Quelle: KARL STORZ GmbH & Co. KG)
⊡ Abb. 21.9. Virtueller MIC-Simulator für laparoskopische Eingriffe. (Quelle: KARL STORZ GmbH & Co. KG)
399 21.6 · Weitere Zukunftsentwicklungen
Die verfügbaren Trainingsszenarien bieten die Möglichkeit, die einzelnen Techniken einzeln zu üben, z. B. den Umgang mit der endoskopischen Kamera, mit endoskopischen Fasszangen und mit einem Saug-/Spül-Handgriff usw. Auch Kombinationen daraus können trainiert werden. Die Variation der einzelnen Szenarien erfolgt zum einen über verschiedene Schwierigkeitsstufen und verschiedenen Blickrichtungen (0°, 30°, 45°), zum anderen kommen verschiedenen laparoskopische Ansichten zum Einsatz, welche innerhalb der Simulation variiert werden, aber auch von der Position der Trokarmodule abhängen, die an fast beliebigen Positionen am Patientenmodell eingerichtet werden können. Die Simulatoren bieten eine einfach zu bedienende Benutzeroberfläche. Alle Aktionsmöglichkeiten sind auf dieser Oberfläche mit Text oder zusätzlich mit Bildern beschrieben, sodass der Benutzer direkt mit dem System starten kann. Der Benutzer kann zwischen verschiedenen Szenarien, Aufgaben und Schwierigkeitsstufen auswählen. Zusätzlich ist meist ein Schüler-Lehrer-System verwirklicht. Dort haben die einzelnen Schüler die Möglichkeit, Benutzerkonten anzulegen, in welchen die Ergebnisse der Trainingsszenarien gespeichert werden. So existiert die Möglichkeit, Trainingsfortschritte zu kontrollieren. Zusätzlich kann der Lehrer über seinen Zugang die Ergebnisse aller Schülerkonten einsehen.
der Firma Computer Motion Inc. markteingeführt (38). Mittels Spracheingabe konnte das Endoskop im Abdomen geführt und positioniert werden. Dieses System ist später vom so genannten Da-Vinci-Telemanipulationssystem der Firma Intuitive Surgical abgelöst worden. Das Da-Vinci-System besteht aus einer Steuerkonsole mit Stereomonitor sowie patientenseitig einem dreiarmigen Instrumentenpositionierungs- und -aktivierungssystem und einem positionierbaren Stereolaparoskop. Beim laparoskopischen Eingriff sitzt der Operateur an der Steuerkonsole und bewegt von dort aus die Instrumente am OP-Tisch. Die softwaregestützte 3D-Visualisierung ermöglicht dem Arzt eine detaillierte dreidimensionale Sicht auf das Operationsfeld und eine gute Tiefenschärfe. An der Steuerkonsole kann der Arzt die Instrumente mit Hilfe von Steuerelementen bewegen. Dabei werden die Bewegungen des Handgelenks, der Hand und der Finger sehr exakt auf die ferngelenkten Instrumente übertragen. Das kameragestützte Laparoskop kann im Körper bewegt und positioniert werden, gleichzeitig kann der Bildausschnitt gezoomt dargestellt werden. Dadurch bekommt der Chirurg eine optimale Sicht auf das Operationsfeld. Das Operieren und speziell die Durchführung kritischer Manöver werden für den Arzt vereinfacht, doch aufgrund der hohen Kosten des Systems und des Vorbereitungsaufwands (prä- und postoperativ) hat sich das System nur bei einer einzigen MIC-Applikation etabliert.
21.6.4 Endorobotik 21.6.5 Kapselendoskopie
Roboter sind stationäre oder mobile Maschinen, die nach einem bestimmten Programm festgelegte Aufgaben autonom erfüllen. Eine dieser möglichen Aufgaben ist die Verwendung im medizinischen Umfeld, in dem Instrumente oder Sichtsysteme bewegt bzw. positioniert werden. Problematisch ist allerdings im medizinischen Umfeld die autonome Bewegung eines solchen Systems. Man spricht daher heute nicht von Robotern, sondern von Handhabungssystemen, die unter direkter interaktiver Kontrolle des Mediziners arbeiten. In der Endoskopie unterscheidet man zurzeit zwei Arten von »Robotersystemen«: Zum einen existieren so genannte Telemanipulationssysteme, mit denen endoskopische Instrumente und Endoskope ferngesteuert positioniert und aktiviert werden können; zum anderen werden auch die drahtlosen Videokapseln z.T. als Endoroboter bezeichnet, da sie autonom als endoskopisches Visualisierungssystem den Gastrointestinaltrakt passieren und dabei entsprechende Bildinformationen erfassen und nach extrakorporal senden ( Abschn. 21.6.5). Im Weiteren werden endoskopische Telemanipulationssysteme (33–36) beschrieben. Erste Arbeiten zu Telemanipulationssystemen wurden von der Arbeitsgruppe um Russel Taylor (37) durchgeführt. Ein Positioniersystem für Laparoskope wurde Mitte der 90er Jahre von
Die Endokapsel beinhaltet einen Bildsensor, eine Beleuchtungseinheit auf der Basis von Mini-LEDs und meist ein Lokalisationselement, mit dem die Position der Kapsel im Gastrointestinaltrakt bestimmt werden kann. Eine externe Kontrolleinheit empfängt die Bildinformationen und speichert diese in Form einer mehrstündigen Bildsequenz ab. Diese Art von drahtloser Endopillen-Diagnostik bietet neben der Visualisierung der Speiseröhre die Inspektion des gesamten Dünndarms in ausreichend guter Bildqualität. Dieses neue Verfahren ist leicht durchführbar, sehr patientenfreundlich und gegenüber herkömmlicher radiologischer Darmkontrastuntersuchungen sehr viel aussagekräftiger. Vor der Kapselendoskopie war keine ausreichende Darstellung des Dünndarms möglich, weder auf endoskopischem noch auf radiologischem Weg. Mehrere Systeme werden derzeit am Markt angeboten. Die Kapselendoskopie stellt derzeit jedoch keine Alternative zur Videogastroskopie und -koloskopie für die Untersuchung des Magens und des Kolons dar. Dies liegt zum einen daran, dass keine kontrollierte, zielgerichtete Bewegung und Ausrichtung der Pille möglich ist. Zum anderen besteht keine direkte therapeutische Interaktionsmöglichkeit bei der Detektion von entsprechenden Befunden.
21
400
Kapitel 21 · Endoskopie
Derzeitige Forschungsaktivitäten konzentrieren sich daher darauf, Endopillen fernsteuerbar auszuführen (39).
21.6.6 Endonavigation
II
Erste Forschungsarbeiten zur Endonavigation wurden Ende der 80er Jahre im Bereich der NasennebenhöhlenChirurgie durchgeführt (40, 41). Die aktuelle Position von endoskopischen Nasennebenhöhlen-Instrumenten wurde dreidimensional erfasst und erstmalig innerhalb eines präoperativ aufgenommenen dreidimensionalen CT-Datensatzes dargestellt. Die Positionsdetektion erfolgt über die Instrumenten-Spitze; das Instrument selbst war in einem Haltearm mit sechs Freiheitsgraden eingespannt; die Lageerkennung erfolgte dabei über Winkelencoder-Systeme (42). Weiterentwicklungen ermöglichten Anfang der 90er Jahre »berührungslose« Navigationssysteme. Kamerasysteme detektieren über instrumentenseitige Reflektoren die Lage der Instrumente (⊡ Abb. 21.20). Derartige Systeme haben sich in der Neurochirurgie, der orthopädischen Chirurgie und der Nasennebenhöhlen-Chirurgie durchgesetzt. Da die optische Lageerkennung der Instrumente über den extrakkorporalen Teil des Instruments erfolgt, ist der Einsatz dieser Navigationssysteme nur in Verbindung mit starren Instrumenten bzw. Endoskopen möglich.
Über neuartige elektromagnetisch basierte Navigationssysteme ist auch eine intrakorporale Positionserkennung von (flexiblen) Instrumenten möglich. Die Integration eines miniaturisierten Spulenelementes im Instrument ist hierzu notwendig. Der Vorteil besteht darin, dass eine intrakorporale Positionsbestimmung, d. h. eine Lokalisation von flexiblen Instrumenten und Endoskopen, möglich ist (43). Ein damit verbundener Nachteil besteht darin, dass ferromagnetische Materialien im Umfeld der Messung zu Messfehlern führen können. Zukünftig werden Navigationstechniken in Verbindung mit anderen Sensortechnologien neue endoskopische Visualisierungsund Dokumentationstechniken ermöglichen (44, 45).13
Literatur 1. Leonhard M, Cappabianca P, de Divitiis E (2003) The Endoscope, Endoscopic Equipment and instrumentation. In: Enrico de Divitiis, Paolo Cappabianca. Endoscopic Endonasal Skull Base Surgery. Springer, Wien New York 2. Oppelt A (2005) Imaging Systems for Medical Diagnostics. Siemens Publics Corporate Publishing, Erlangen, S 258 3. Berci G (1976) Endoscopy. Appleton-Century-Crofts, New York 4. Bundesministerium für Bildung und Forschung. Förderschwerpunkt Biophotonik (www.biophotonik.org) 5. Grund KE, Salm R (2007) Systeme für die Endoskopie. In: Kramme (Hrsg) Medizintechnik, 3. Aufl. Springer, Berlin Heidelberg New York, S 347–366 6. Reuter MA, Reuter HJ, Engel RM (1999) History of Endoscopy. W. Kohlhammer Verlag, Stuttgart 7. Figdor PP (2002) Philipp Bozzini, Endopress 8. Ebner FH et al. (2009) Broadening horizons of neuroendoscopy with a variable-view rigid endoscope: An anatomical study. The Journal of Cancer Surgery 36: 195–200 9. Loewenstein L & H (1905) Kystoskop. Patentschrift Nr. 164966 (Berlin) 10. Schowengerdt BT, Seibel EJ (2006) True 3-D scanned voxel displays using single or multiple light sources, Journal of the Society for Information Display 11. Endress A (2004) Entwicklung eines anwenderorientierten, workflowadaptierten und qualitätssichernden OP-Bilddokumentations- und Auswertungssystems am Beispiel der UniversitätsFrauenklinik Tübingen. Inaugural-Dissertation. 12. Weiss HC (2010) Karl Storz Fachinformation Aufbereitung und Hygiene (in press) 13. DIN EN ISO 15883 Reinigungs-/Desinfektionsgeräte 14. Robert-Koch-Institut (2002) Anforderungen an die Hygiene bei der Aufbereitung flexibler Endoskope und endoskopischen Zusatzinstrumentariums, Bundesgesundheitsbl – Gesundheitsforsch – Gesundheitsschutz 2002, 45: 395–411 15. DIN EN ISO 17664 Sterilisation von Medizinprodukten 16. DIN EN ISO 17665-1 Sterilisation von Produkten für die Gesundheitsfürsorge 17. Arbeitskreis Instrumentenaufbereitung (2009) Instrumentenaufbereitung richtig gemacht (»Rote Broschüre« www.a-k-i.org)
13
⊡ Abb. 21.20. Endo-Navigation-System Surgical Cockpit. (Quelle: KARL STORZ GmbH & Co. KG)
Danksagung: Die Autoren danken Frau Melanie Schwitkowski für die umfangreiche Unterstützung bei der Erstellung des Kapitels und Herrn Horst Christoph Weiss für seinen Beitrag zur Aufbereitung von Endoskopen und Instrumenten.
401 Literatur
18. Berlien H-P, Müller GJ (2000) Angewandte Lasermedizin. Ecomed Verlagsgesellschaft, Landsberg 19. Grevers G et al. (2001) Laser im Kopf-Hals Bereich. Springer, Berlin Heidelberg New York 20. Hofstetter AG (2003) Lasergestützte Operationsverfahren in der Urologie. Thieme, Stuttgart 21. Szeimies R-M et al. (2003) Klinische Fluoreszenzdiagnostik und Photodynamische Therapie. Thieme, Stuttgart 22. Leonhard M (2000) The Karl Storz OR1TM. In: Bruch H-P, Köckerling F, Bouchard R, Schug-Paß C (Eds) New Aspects of High Technology in Medicine. Bologna, Monduzzi Editore 23. Irion K, Novak P (2000) System workplace for endoscopic surgery. Min Invas Ther & Allied Technol: 9(3/4) 193-197 24. KARL STORZ D-Cut Broschüre ORchestrion (2008) Harmonie für Ihren OP 25. Gesundheitsberichterstattung des Bundes (2008) Die 50 häufigsten Operationen der vollstationären Patientinnen und Patienten in Krankenhäusern (www.gbe-bund.de) 26. Kriegmair M et al. (1994) Fluorescence Photodetection of neoplastic urothelial lesions following intravesical instillation of 5-aminolevulinic acid. Urology 44: 836–841 27. Bundesministerium für Bildung und Forschung. Innovationsallianz Molekulare Bildgebung (www.bmbf.de/de/11267.php) 28. Carus T, Lienhard H (2009) Die laparoskopische Fluoreszenzangiographie mit Indocaningrün zur intraoperativen Beurteilung der Perfusion bei kolorektarlen Anastomosen. Meeting Abstracts, 126. Kongress der Deutschen Gesellschaft für Chirurgie, 28.04.– 01.05.2009 (www.egms.de) 29. Hamou (1980) Contact endoscopy and micro endoscopy, US patent US 4,385,810 30. Rattner D, Kalloo A (2006) ASGE/SAGES Working Group on Natural Orifice Translumenal Endoscopic SurgerySurg Endosc 20: 329–333 31. Marescaux J (2007) Surgery without Scars. Arch Surg 142(9): 823–827 32. Noll M (2002) Konzeption und Evaluation eines Endoskopie-Simulators für die Urologie. Dissertation 33. Nang Y (1996) Automated Endoscope System For Optimal Positioning. US 5,515,478 34. Glassmann et al. (1992) Image-Directed Robotic System For Precise Robotic Surgery Including Redundant Consistency Checking. US 5,086,401 35. Funda et al. (1996) Robotic System For Positioning A Surgical Instrument Relative To A Patient’s Body. US 5,571,999 36. Taylor R (1995) System And Method For Augmentation Of Surgery. US 5,402,801 37. Taylor R et al. (1994/1992) Signaling Device And Method For Monitoring Positions In A Surgical Operation. US Patent 5,279,309 38. Wang Y (1996/1994) Automated Endoscope System For Optimal Positioning. US Patent 5, 515, 478 39. EU-Projekt im 6. Rahmenprogramm (2006-2010) Versatile Endoscopic Capsule for gastrointestinal TumOr Recognition and therapy (VECTOR) (www.vector-project.com) 40. Schlöndorff G et al. (1987) CAS-Computer Assisted Surgery. Archives of Oto-Rhino-Laryngology, Suppl 2, 45 41. Mösges R, Schlöndorff G (1988) A new imaging method for intraoperative therapy control in skull base surgery. Neurosurg Rev 11: 245–247 42. KARL STORZ Firmenbroschüre (1992) CAS – Computer Assisted Surgery, 5th ed. 43. Irion KM, Hagelauer U (2009) Medical instrument for the treatment of tissue by means of a high-frequency current and medical system with medical instrument of this type. US 7,588,569 B2 44. Draxinger W et al. (2005) Verfahren und Vorrichtung zum Erstellen zumindest eines Ausschnitts eines virtuellen 3D-Modells eines Körperinnenraums. DE 102004008164 B3
45. Soler L et al. (2009) Virtual Reality and augmented reality applied to endoscopic and NOTES procedure. World Congress on Medical Physics and Biomedical Engineering in Munich (Proceedings)
21
22 Infrarot-Bildgebung T. M. Buzug
22.1
Einleitung
– 403
22.2
Physik der Infrarot-Strahlung – 403
22.3
Instrumentierung – 404
22.3.1 22.3.2
IR-Detektoren – 404 IR-Kamerasysteme – 406
22.4
IR-Bildgebung als medizinische Modalität – 406
22.4.1 22.4.2
Anwendungsbeispiele – 407 Fehlerquellen der medizinischen IR-Bildgebung – 408
22.5
Dank
– 408
Literatur
22.1
Einleitung
Der menschliche Körper produziert im Rahmen seines Stoffwechsels im Körperinneren Wärme. Durch Abgabe der Wärmeenergie über die Haut mittels Verdunstung, Konvektion und Wärmestrahlung wird dabei die Kerntemperatur konstant gehalten. Treten allerdings im Stoffwechsel Probleme auf, so können diese sich durch eine Temperatursignatur auf der Haut verraten. Das Messverfahren der Wahl hierfür ist die Infrarot-Bildgebung (IR-Bildgebung oder Thermographie). Die Faszination dieses Verfahrens geht davon aus, dass es praktisch das einzige bildgebende Verfahren der Medizin ist, das ideal nicht-invasiv und kontaktlos arbeitet. Bei der Infrarot-Bildgebung wird nämlich die Strahlung passiv gemessen, die vom menschlichen Körper ohnehin zur Regelung des Temperaturgleichgewichts über die Haut abgegeben wird, die Wärmestrahlung. Die Infrarot-Bildgebung ist zweifellos eine effektive medizinische Screening-Modalität. Dies hat sich erst kürzlich im Zusammenhang mit SARS gezeigt, als fiebrige Personen innerhalb einer großen Zahl von Fluggästen im Sicherheitsbereich der Flughäfen aufgrund ihres GesichtsTemperaturprofils identifiziert werden konnten. Seit Beginn der technischen Verfügbarkeit von Infrarot-Kameras wurde diese Modalität als funktionelle medizinische Bildgebung (IRFI: Infrared Functional Imaging) gesehen, die z. B. einen pathologisch erhöhten Metabolismus anhand seiner spezifischen Temperatursignatur visualisieren kann. Speziell bei der Diagnose einiger Krebsarten folgt die Tumordetektion dem thermographischen Paradigma, sodass das starke Wachstum maligner Tumore notwendigerweise von einem Anstieg des Stoffwechsels begleitet
– 408
ist, der sich in der Konsequenz als Änderung der Temperatursignatur widerspiegelt. Elektromagnetische Wellen zwischen dem sichtbaren Licht und den Mikrowellen werden als Infrarot-Strahlung bezeichnet. ⊡ Abb. 22.1 ( 4-Farbteil am Buchende) gibt das gesamte Spektrum der elektromagnetischen Wellen zusammen mit den physikalischen bzw. technischen Bezeichnungen der Bänder von den extrem kurzwelligen γ-Strahlen zu den kilometerlangen Radiowellen wieder. Die Infrarot-Bildgebung nutzt das so genannte thermische Infrarot-Spektralband. Grundsätzlich ist man bei der Temperaturmessung über die spektrale Verteilung der Intensitäten elektromagnetischer Strahlung natürlich nicht auf das InfrarotBand beschränkt. Die wenigen physikalischen Formeln, die den Zusammenhang zwischen dem zugrunde liegenden Planck’schen Strahlungsgesetz, dem Wien’schen Verschiebungsgesetz sowie dem Stefan-Boltzmann-Gesetz beschreiben, werden ohne Herleitung im nächsten Abschnitt kurz dargestellt.
22.2
Physik der Infrarot-Strahlung
Mit dem Planck’schen Strahlungsgesetz
ρ (λ , T ) d λ =
2hc 2
1
dλ
(22.1) e −1 ist der Verlauf der spektralen Energiedichte ρ (λ,T) und damit der Zusammenhang zwischen der Temperatur T und der Wellenlänge λ der so genannten Schwarzkörperstrahlung beschrieben (dabei ist h die Planck’sche Wir-
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _22, © Springer-Verlag Berlin Heidelberg 2011
λ5
hc λ kT
404
II
Kapitel 22 · Infrarot-Bildgebung
kungskonstante, k die Boltzmannkonstante und c die Lichtgeschwindigkeit). Ein Schwarzer Körper ist dadurch definiert, dass er alle auf ihn einfallende Strahlungsenergie komplett absorbiert und, als Konsequenz aus dem Kirchhoff ’schen Gesetz, dass er gleichzeitig seine eigene Wärmeenergie ideal abstrahlen kann. Kirchhoffs Gesetz besagt kurz, dass Körper, die Strahlung gut absorbieren, gleichzeitig Strahlung auch gut emittieren (nicht reflektieren) und umgekehrt. Dies wird durch α(T)=ε (T) ausgedrückt, dabei ist α das Absorptionsvermögen und ε das Emissionsvermögen eines beliebigen Materials bei einer Temperatur T. Für einen idealen Schwarzen Körper gilt α(T)=ε (T)=1. Natürlich sind reale Körper eher »graue« Körper mit einem Emissionsvermögen, das kleiner als Eins ist (0<ε (λ,T)<1) und darüber hinaus typischerweise mit der Wellenlänge variiert. In ⊡ Abb. 22.2a,b ist der Verlauf der spektralen Energiedichte ρ (λ,T) für verschiedene Temperaturen wiedergegeben. Daraus lassen sich wichtige Schlüsse ableiten. Bei jeder Temperatur zeigen die Kurven der Energiedichte jeweils ein eindeutiges, ausgeprägtes Maximum bei einer bestimmten Wellenlänge. Je höher die Temperatur ist, desto kürzer ist die Wellenlänge λmax,bei der das entsprechende Maximum zu finden ist. Das erklärt, warum eine glühende Herdplatte ihre Farbe von rot nach gelb wechselt, wenn sie heißer wird. Das dazugehörige Wien’sche Verschiebungsgesetz
berechnen. Die Tatsache, dass die gesamte Strahlungsleistung eine Funktion der Oberflächentemperatur des zu untersuchenden Körpers ist, macht die Ermittlung und Darstellung der räumlichen Temperaturverteilung mit einer Thermokamera überhaupt erst möglich. ∞
³ ε (λ , T ) ρ (λ , T )d λ ∝ T
4
(22.3)
0
Das geschieht praktisch unmittelbar mit dem sehr empfindlichen Stefan-Boltzmann-Gesetz welches im Wesentlichen die Fläche unter der Planck-Kurve darstellt, so wie es in ⊡ Abb. 22.2a für die Temperatur T=310 K exemplarisch illustriert ist. Aufgrund des Kirchhoff ’schen Gesetzes hängt die von einer Thermokamera gemessene Strahlungsleistung nicht allein von der Körpertemperatur ab, sondern sie ist auch eine Funktion des Emissionsvermögens ε (λ,T).
22.3
Instrumentierung
22.3.1 IR-Detektoren
besagt, dass es einen reziprok-proportionalen Zusammenhang zwischen der Wellenlänge der maximalen Emission eines Schwarzen Körpers und seiner Temperatur gibt. ⊡ Abb. 22.2b gibt diese Wellenlängenverschiebung in einer doppel-logarithmischen Graphik von ρ (λ,T) aufgetragen gegen λ. wieder. Mit dem Stefan-Boltzmann-Gesetz, das gelegentlich auch T4 -Gesetz genannt wird, ist man in der Lage, die gesamte Strahlungsleistung des Körpers zu
Das wichtigste Bauteil einer Infrarotkamera ist der Strahlungsempfänger. In ihm wird die einfallende Strahlungsleistung in einen messbaren Strom umgewandelt, der eine Funktion der Temperatur des emittierenden Körpers ist. Zu Beginn der Entwicklung der Temperaturmessung über die Infrarotstrahlung standen nur einzelne Detektorelemente zur Verfügung. Dies waren zumeist thermische Empfänger mit einer relativ konstanten Empfindlichkeit über ein breites Wellenlängenintervall (Schuster u. Kolobrodov 2000). Solche Detektoren setzen die einfallende Strahlung zunächst in Wärme um. Typische Vertreter sind ▬ die Bolometer, die die Temperaturänderung des Detektors in eine Widerstandsänderung eines so genannten Thermistors (aufgebaut aus Mn-, Co-, Ni- und V-Oxidschichten) überführen,
⊡ Abb. 22.2a–c. Plancks Strahlungsgesetz für einen »Schwarzen Körper«. a Die Fläche unter den jeweiligen Kurven gibt die Gesamtstrahlungsleistung wieder, die über das Stefan-Boltzmann-Gesetz berechnet wird. In Grau ist die Gesamtstrahlungsleistung für die ϑ=37 C-Kurve dargestellt. b Die spektrale Energiedichte ρ (λ,T) ist dop-
pellogarithmisch gegen die Wellenlänge aufgetragen. Das Wien’sche Verschiebungsgesetz ergibt sich dabei als Gerade durch die Maxima der Kurvenschar. c Die differentielle spektrale Strahlungsdichte (hier aufgetragen für ϑ=37 C) zeigt, dass speziell der langwellige IR-Bereich für Temperaturmessungen gut geeignet ist
T λmax = 2.898 mm K
(22.2)
22
405 22.3 · Instrumentierung
▬ die Thermosäulen und Thermoelemente, bestehend z. B. aus Sb-Bi-Verbindungen, die die Temperaturänderung aufgrund des Seebeck-Effektes in eine Spannungsänderung wandeln, und ▬ die pyroelektrischen Empfänger, bestehend aus Kristallen (z. B. LiNbO3) mit permanenter elektrischer Polarisation, die die Temperaturänderung in eine Ladungsänderung umsetzen, indem die Strahlung eine Änderung der Polarisation hervorruft (Dereniak und Boreman 1996; Holst 1998). Eine direktere Messung der einfallenden Strahlung erlauben die so genannten Quantenempfänger. IR-Quantenempfänger nutzen den inneren Fotoeffekt. ⊡ Abb. 22.3a stellt schematisch dar, dass bei Absorption von IR-Strahlung aus dem mittleren Wellenlängenbereich Elektronen aus dem Valenzband in das Leitungsband gehoben werden können und so die Leitfähigkeit des Detektors erhöhen. Typische Materialien solcher Empfänger sind PbS, PbSe, InSb oder HgCdTe. Durch eine Veränderung der Energielücke ΔE zwischen Valenz- und Leitungsband, kann die spektrale Empfindlichkeit des Detektors an die Messaufgabe angepasst werden. ⊡ Abb. 22.4a ist bspw. mit einer NEC-IR-Kamera aufgenommen worden, die einen Hg1-xCdxTe-Zeilendetektor besitzt. Die Größe der Bandlücke wird dabei durch die Variable x, also durch das Verhältnis der Materialien Quecksilber und Cadmium zueinander bestimmt. Diese Kamera deckt den Bereich des mittleren IR-Spektrums (MWIR) ab. Wenn man auch im langwelligen, fernen IR-Spektrum (LWIR) eine hohe Detektorempfindlichkeit erhalten möchte, muss die dazugehörige Bandlücke ΔE entsprechend verkleinert werden. Beliebig kleine Bandlücken zu erzeugen, ist technisch jedoch bislang nicht gelungen (Gunapala und Bandara 1999). Beim neuerdings sehr erfolgreich in Infrarotkameras eingesetzten QWIP-Detektor (Quan-
tum-Well Infrared Photodetector) umgeht man das technische Problem durch Anwendung quantenmechanischer Erkenntnisse. Anstatt die Bandlücke direkt zu verkleinern, wird beim QWIP-Detektor innerhalb des Valenzbandes eine Energie-Sub-Band-Struktur erzeugt, die mit dem einfachen Kastenpotential der Quantenmechanik zu verstehen ist. Durch Nanostrukturierung mittels Elektronenstrahlepitaxie werden – innerhalb eines Halbleiters mit großem Bandabstand (Esaki und Sakaki 1977) – Potentialwälle erzeugt, die nun sehr kleine Lücken zwischen erlaubten Energiezuständen aufweisen. ⊡ Abb. 22.3b zeigt das Energieschema des Potentialkastens innerhalb des Halbleiters. Die Grenzwellenlänge des Detektors kann variiert werden, indem die Schichtdicke der einzelnen Lagen sowie die Potentialtiefe verändert wird. Eine Materialkomposition aus GaAs/AlxGa1-xAs erlaubt eine kontinuierliche Einstellung der Detektorbandbreite. ⊡ Abb. 22.3c zeigt das Prinzip eines so genannten bound-to-quasibound QWIPDetektors. Die Tiefe und Breite des Potentialkastens wird so eingestellt, dass das erste angeregte Niveau mit der Kastenöffnung zusammenfällt. Langwellige IR-Strahlung (LWIR) befördert Elektronen aus dem Grundzustand des Kastens in den ersten angeregten Zustand. Eine extern angelegte Spannung kippt das gesamte Energieniveau so, dass die angeregten Elektronen den Potentialberg hinunterlaufen und damit den gewünschten Fotostrom erzeugen (Levine 1993). ⊡ Abb. 22.3d zeigt das Empfindlichkeitsprofil eines typischen QWIP-Detektors. IR-Strahlung wird sehr schmalbandig zwischen λ1=6 μm und λ2=10 μm detektiert. Der Fotostrom ist dabei über das bandbegrenzte Stefan-Boltzmann-Gesetz λ2
I ∝ ³ ε (λ , T ) ρ (λ , T )d λ
(22.4)
λ1
mit der Temperatur gekoppelt. In ⊡ Abb. 22.3e ist zu sehen, dass der Detektor hinter dem Eintrittsfenster aus
⊡ Abb. 22.3a–f. a–c Energieschemata der IR-Halbleiterdetektoren; d Empfindlichkeitsprofil eines QWIP-Detektors; e prinzipieller Aufbau eines QWIP-Detektors und f elektronenmikroskopische Aufnahme eines Teils des Halbleiterdetektors
406
Kapitel 22 · Infrarot-Bildgebung
mehreren QWIP-Lagen aufgebaut ist. Über Indium-Verbindungen (vgl. auch ⊡ Abb. 22.3f ) wird der Fotostrom einem Ausleseschaltkreis zugeführt.
22.3.2 IR-Kamerasysteme
II
⊡ Abb. 22.4 (links) zeigt das Prinzip mit dem – auch mit
nur einem einzelnen Detektorelement – IR-Bilder erzeugt werden können. Dazu ist eine Kipp-Drehspiegel-Kombination erforderlich. Der Kippspiegel tastet den zu untersuchenden Körper vertikal ab und der nachgeschaltete Drehspiegel sorgt für die jeweilige horizontale Abtastung. So entsteht das IR-Bild zeilenweise. Schnell bewegte Gegenstände können mit diesem Prinzip natürlich nicht erfasst werden. Darüber hinaus erfordert die Konstruktion sehr hohe opto-mechanische Präzision und eine sehr kurze Antwortzeit des Detektorelements. Diese physikalischen Detektorprinzipien werden beständig weiterentwickelt, sodass inzwischen auch Detektorarrays zur Verfügung stehen, die eine schnelle IRBildgebung technisch ermöglichen. Bei Zeilenarrays kann bspw. auf den Drehspiegel verzichtet werden. Moderne IR-Kameras besitzen Detektormatrizen, so genannte Focal-Plane Arrays (FPA), wie sie in ⊡ Abb. 22.4 (rechts) skizziert sind. Der Detektor ist ungefähr in der Brennweite der Kameraoptik angebracht. Bei dieser Anordnung sind keine beweglichen Spiegel erforderlich, sodass entweder schnelle Bewegungen erfasst werden können oder bei langsamen Bewegungen länger belichtet werden kann, wo-
⊡ Abb. 22.4. Links: Einzeldetektorsysteme bilden die Bildmatrix mit Hilfe einer KippDrehspiegel-Kombination. Rechts: Bei Systemen mit einem Focal-Plane-Array (FPA) ist der Detektor selbst matrixförmig aufgebaut
mit das Signal-zu-Rausch-Verhältnis steigt. Allerdings ist die Fertigung der Arrays technisch sehr aufwendig, sodass überwiegend kleine Detektormatrizen von 320×240 Pixeln kommerziell erhältlich sind. Einige Modelle besitzen heute FPAs mit bis zu 640×480 Pixeln bei Detektorgrößen von 20–50 μm. Für Anwendungen in der Astronomie werden einzelne HgCdTe-Detektorarrays mit einer Matrixgröße von 2000×2000 Pixeln hergestellt (Hornak 2002). Obwohl es heute Kameras gibt, die mit ungekühlten Detektoren arbeiten, ist klar, dass ein gekühlter IR-Empfänger ein niedrigeres Rauschen aufweist als ein ungekühlter, denn bei Raumtemperatur blendet sich der Detektor selbst. Das ist übrigens auch der Grund warum die Evolution darauf verzichtet hat, dem menschlichen Auge eine Empfindlichkeit für IR-Strahlung zu geben – die Selbstblendung durch die 310-K-Kurve in ⊡ Abb. 22.2 produziert zu viel Rauschen. Bei den ersten Kameras wurden die Detektoren in ein Dewargefäß eingebettet und mit flüssigem Stickstoff gekühlt. In der Mitte der 80er Jahre wurden die Detektoren auf thermoelektrischem Wege, über den so genannten Peltier-Effekt, gekühlt. Moderne Geräte verwenden kleine Stirling-Kältemaschinen, mit denen ebenso effektiv wie mit flüssigem Stickstoff gekühlt werden kann.
22.4
IR-Bildgebung als medizinische Modalität
Sehr häufig wird bei der Anwendung der IR-Bildgebung in der Medizin von der Temperaturverteilung auf der
407 22.4 · IR-Bildgebung als medizinische Modalität
Hautoberfläche auf Prozesse im inneren des Körpers geschlossen. Aufgrund des hohen spezifischen Emissionsvermögens der Haut ε=0.98±0.01 für Wellenlängen λ>2 μm erscheint dieses Vorgehen zunächst viel versprechend. Allerdings ist zu berücksichtigen, dass es physiologische Prozesse gibt, die die Kerntemperatur des Menschen nahezu konstant halten, sodass das thermographische Paradigma praktisch nur für Tiefen unterhalb von 20 mm und somit nur für oberflächennahe Stoffwechselvorgänge gilt. Sinnvolle Ergebnisse sind daher bspw. für die Diagnostik von oberflächennahen entzündlichen Prozessen wie Arthritis und Rheumatismus sowie bei Durchblutungsstörungen zu erwarten. Es ist zu beachten, dass die lokalen Temperaturerhöhungen relativ klein sind (Dössel 2000): Bei Entzündungen (z. B. Rheuma, Arthritis): ΔT =1–2 K, bei Gefäßerkrankungen (z. B. Thrombose): ΔT =1–2 K, bei malignen Melanomen: ΔT =2–4 K, bei Mammakarzinomen: ΔT =1,5–4 K. Einer guten Diagnostik sind darüber hinaus alle Formen der Allergie mit einer Symptomatik auf der Haut aber auch Verbrennungen, Verbrühungen und Erfrierungen zugänglich. Weiterhin ist das Monitoring nach Hauttransplantationen sinnvoll. Zu qualitativen Messungen werden IR-Bilder heute auch in der Schmerzdiagnostik verwendet. Eine Übersicht der Ursachen, die eine Änderung der Hauttemperatur bewirken und durch IR-Bildgebung erfasst werden können, findet man bei Furukawa, 2004. Prinzipiell muss bei der Strahlung, die mit der IR-Kamera gemessen wird, beachtet werden, dass sie nicht nur das Resultat der Temperatur des Patienten sondern auch die Reflektion der Umgebungsstrahlung sein könnte. Aufgrund des hohen Emissionskoeffizienten und der schmalen Integrationsbandbreite des Detektors (⊡ Abb. 22.3d), kann die Störstrahlung, also der Strahlungsanteil, der nicht durch den Stoffwechselprozess selbst erzeugt wird, jedoch vernachlässigt werden.
22.4.1 Anwendungsbeispiele
Als prominentestes Beispiel einer Durchblutungsveränderung zeigt ⊡ Abb. 22.5a (Abb. 22.5 4-Farbteil am Buchende) die effektive Abkühlung einer Hand eines Rauchers, während er eine Zigarette raucht. Dieses qualitative Beispiel demonstriert den Effekt der Gefäßverengung und der nachfolgenden Durchblutungsreduktion, die mit dem Rauchen einhergeht. Für diese Aufnahmesequenz wurde eine (MWIR) Zeilendetektor-Kamera (NEC TH5104 Thermo Tracer) verwendet. Diese Kamera besitzt eine Bildmatrix von 255×223 Pixeln und eine Temperaturauflösung von δT =100 mK. Das zweite Beispiel demonstriert den Einsatz der IR-Bildgebung als funktionelle Modalität (IRFI: Infrared Functional Imaging) sehr deutlich. ⊡ Abb. 22.5b zeigt die Temperaturverteilung der Oberschenkelhaut
bei Belastungsexperimenten, die mit einem Fahrradergometer durchgeführt wurden. Während der langsam ansteigenden Belastung kühlt sich die Haut deutlich ab – während der Erholungsphase erwärmt sich die Hautoberfläche dann wieder. Diese sportmedizinischen Messungen wurden mit der jeweiligen Sauerstoffaufnahme korreliert und haben ergeben, dass der Grad der Hautabkühlung und die Wiedererwärmung von dem individuellen Konditionszustand des Probanden abhängt. Es wird derzeit untersucht, inwieweit die funktionelle IR-Bildgebung in der Lage ist, die Haemodynamik der Oberschenkelmuskulatur abzuschätzen (Merla, Di Donato und Romani 2002). Die Bilder wurden mit der (LWIR) AEG-Kamera AIM 256 PtSi aufgenommen. Die Detektormatrix besteht aus 256×256 Pixeln mit einer Temperaturauflösung von δT =100 mK. Als letztes Beispiel seien die Stoffwechselveränderungen bei bestimmten Krebsarten genannt. Viele Forschungsgruppen haben in der Vergangenheit die malignen Tumore der Mamma in den Vordergrund ihrer Arbeiten gestellt. Dadurch, dass die IR-Bildgebung den Patienten überhaupt nicht belastet, würde sich das Verfahren nämlich als ideale Screening-Modalität eignen. Leider muss man hier aber feststellen, dass eine sichere Früherkennung von Brustkrebs über IR-Bildgebung gescheitert ist. Wenn sich ein Tumor der Brust tatsächlich über eine Veränderung der Temperaturverteilung auf der Hautoberfläche verrät, befindet er sich zumeist in einem zu späten Stadium. Daher sollte die sensible Krebsdiagnostik grundsätzlich nur auf einige Hautkrebsarten beschränkt bleiben. In diesem Bereich werden derzeit Arbeiten durchgeführt, die das Potential der IR-Bildgebung als Screening-Modalität für Hautkrebs untersuchen. ⊡ Abb. 22.5c (1. Bild) zeigt das Photo eines Basalzellenkarzinoms. Zur Charakterisierung der Hautveränderung fand das Verfahren der aktiven IR-Bildgebung Anwendung. Dabei wird das betroffene Hautareal und seine Umgebung zunächst provoziert – z. B. wie in ⊡ Abb. 22.5c (2. Bild) durch gleichmäßige Abkühlung. Charakteristisch für diese Tumorart ist die Temperatursignatur, also die spezifische Sequenz der Thermoregulationsprozesse. Hierbei ist zu erwarten, dass z. B. ein malignes Melanom aufgrund des hohen Metabolismus und eventueller Angiogenese eine schnellere Wiedererwärmung als das gesunde Gewebe zeigt. Beim Beispiel des Basalzellenkarzinoms scheint es umgekehrt zu sein. Aufgrund einer Abkapselung des Tumors vom benachbarten gesunden Gewebe, verläuft die Thermoregulation des Tumors langsamer. In ⊡ Abb. 22.5c (3. und 4. Bild) ist zu erkennen, wie der Tumor sich im Laufe der Regulation als Cold-Spot abbildet. Die Bilder wurden mit dem (LWIR) FLIR-Kamerasystem SC3000 aufgenommen. Die Kamera besitzt einen stirling-gekühlten QWIP-Detektor in FPA-Technologie. Die Detektormatrix besteht aus 320×240 Pixeln mit einer Temperaturauflösung von δT=30 mK.
22
408
Kapitel 22 · Infrarot-Bildgebung
22.4.2 Fehlerquellen der medizinischen
IR-Bildgebung
II
Während man die technologischen Prozesse bei der Herstellung von hochpräzisen IR-Kameras heute sehr gut im Griff hat, sieht man sich bei der medizinischen Anwendung mit einer Reihe von Problemen konfrontiert. Typische Fehlerquellen der diagnostischen Bildgebung sind in der Übersicht zusammengefasst.
Typische Fehlerquellen der medizinischdiagnostischen Bildgebung
▬ Die Komplexität des exakten Modells der
▬ ▬ ▬ ▬
▬
▬ ▬ ▬
Thermoregulation. Selbst die einfache Bio-WärmeGleichung von Pennes (Pennes 1948), die bereits einen Perfusions- und Metabolismusterm besitzt ist, stellt ein schlecht gestelltes mathematisches Problem dar. Die patienten-abhängige Variabilität des Thermoregulationsprozesses (verursacht durch unterschiedliche Bio-Feedback-Zeitkonstanten). Die Genauigkeit der spektralen Spezifikation sowie die Auflösung der IR-Kamera. Die aktive IR-Bildgebung ist in Bezug auf die thermische Provokation nicht standardisiert. Die thermische Signatur bei Hautkrebs besitzt eine Unsicherheit in Bezug auf die potentielle Änderung des Emissionskoeffizienten verdächtiger Hautveränderungen bei Thermoregulation. Der Zusammenhang zwischen den thermoregulativen Zeitkonstanten und der jeweiligen Menge der applizierten Energie bei der aktiven IR-Bildgebung ist bislang unbekannt. Die Inhomogenität und Geschwindigkeitsvariation bei der Energieapplikation bei der aktiven IRBildgebung. Der Einfluss der Rest-Reflexion der Hintergrundstrahlung. Unzureichende Patienten-Akklimatisierung vor der Diagnostik; patienteninduzierte Unsicherheit: Zeitpunkt der letzten Aufnahme einer warmen Mahlzeit; umgebungsinduzierte Unsicherheit: Instabile Thermoregulation des Untersuchungsraums.
Und nicht zuletzt muss man sich immer wieder ins Gedächtnis zurückrufen, dass man nur die Temperaturverteilung auf der Hautoberfläche sieht. Die IR-Bildgebung dringt natürlich nicht in den Körper ein. Eine Diskussion der technischen Schwierigkeiten bei der medizinischen IR-Bildgebung findet man bei Nowakowski (2004). Im Übrigen muss an dieser Stelle darauf hingewiesen werden, dass die Mindestanforderungen für radiometrisch
messende Wärmebildgeräte in Deutschland durch die Physikalisch-Technische Bundesanstalt festgelegt werden (Hutten 1992).
22.5
Dank
Ich danke der FLIR-Systems GmbH, Frankfurt, für die Unterstützung bei den Abbildungen 22.1 und 22.4 sowie der Acero AB, Kista, Schweden, für die Abbildungen 22.3e/f. Weiterhin möchte ich Dr. Arcangelo Merla, Functional Infrared Imaging Lab., University »G. d‘Annunzio«, Italien, für Abbildung 22.5b danken.
Literatur Dereniak EL, Boreman GD (1996) Infrared Detectors and Systems. John Wiley & Sons, New York Dössel O (2000) Bildgebende Verfahren in der Medizin. SpringerVerlag, Berlin Esaki L, Sakaki H (1977) IBM Tech. Disc. Bull. 20: 2456 Furukawa T (2004) Biological Imaging and Sensing. Springer-Verlag, Berlin Gunapala SD, Bandara SV (1999) Quantum Well Infrared Photodetector (QWIP) Focal Plane Array (FPA). Semiconductors and Semimetals 62: 197 Holst GC (1998) Testing and Evaluating of Infrared Imaging Systems. JCD Publishing, Winter Park Hornak JP (2002) Encyclopedia of Imaging Science and Technology. John Wiley & Sons, New York Hutten H (1992) Biomedizinische Technik. Bd. 1. Springer-Verlag, Berlin Levine BF (1993) J. Appl. Phys. 74: R1 Merla A, Di Donato L, Romani GL (2002) Proceedings of the 24th Annual International Conference of the IEEE EMBS (2002), 1142 Nowakowski AZ (2004) Proceedings of the 26th Annual International Conference of the IEEE EMBS (2004), 1179 Pennes HH (1948) Journal of Applied Physiology, vol. 1, no. 2: 93 Schumann S, Pfaffmann L, Marklewitz M, Reinhold U, Ruhlmann J, Buzug TM (2005) Skin-Cancer Detection Using Thermographic Images. Biomedizinische Technik 50, suppl. Vol 1, part 2: 1529 Schuster N, Kolobrodov VG (2000) Infrarotthermographie. Wiley-VCH, Weinheim
23 Dentale digitale Volumentomographie (DVT) und Navigation D. Schulze, G. Hoffmann 23.1
Technischer Hintergrund der dentalen digitalen Volumentomographie – 409
23.2.6 23.2.7
Mund-, Kiefer- und Gesichtschirurgie Kieferorthopädie – 414
23.1.1 23.1.2 23.1.3
Datenakquisition – 410 Datenrekonstruktion – 410 Datenbewertung – 411
23.3
Technische Einschränkungen des Verfahrens – 414
23.2
Anwendungsgebiete der dentalen DVT – 412
23.4
Dosis
23.2.1 23.2.2 23.2.3 23.2.4 23.2.5
Konservierende Zahnheilkunde – 412 Zahnärztliche Prothetik – 412 Funktionsdiagnostik und -therapie – 412 Chirurgische Zahnheilkunde – 413 Implantologie – 413
23.1
Technischer Hintergrund der dentalen digitalen Volumentomographie
Geräte zur dentalen Volumentomographie (DVT) kommen seit dem Ende der 90er Jahre zur Anwendung, die ersten klinischen Prototypen wurden allerdings schon ein Jahrzehnt vorher für angiographische Anwendungen eingesetzt. Adaptationen der verwendeten Detektoren und die zur Verfügung stehende Rechenleistung haben in Kom-
– 413
– 414
23.5
Navigation
23.5.1 23.5.2 23.5.3
Voraussetzungen für navigierte Verfahren Weiterverarbeitung – 415 Registrierung – 415
Literatur
– 414 – 414
– 415
bination mit den in der Zahnheilkunde zum Einsatz gebrachten Röntgenröhren schließlich zu einem praxisfähigen Design von DVT-Systemen geführt. Im Gegensatz zum in der herkömmlichen Computertomographie verwendeten fächerförmigen Strahlenbündel wird bei der DVT ein kegel- oder pyramidenförmiges Strahlenbündel eingesetzt. Die nach der Exposition resultierenden flächenförmigen Absorptionsreliefs werden durch Flächendetektoren akquiriert und durch spezielle 3D-Rekonstruktionsalgorithmen visualisiert (⊡ Abb. 23.1).
⊡ Abb. 23.1. Prinzip der gefilterten Rückprojektion (filtered back projection, FBP)
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _23, © Springer-Verlag Berlin Heidelberg 2011
410
Kapitel 23 · Dentale digitale Volumentomographie (DVT) und Navigation
23.1.1 Datenakquisition
II
Bei DVT-Systemen ist eine konische oder pyramidenförmige Projektionsgeometrie zu beobachten, die Form ist dabei abhängig vom jeweils eingebrachten Blendensystem. Eine Verschiebung dieses Systems in der z-Achse, wie bei der Spiral-CT, findet derzeit keine Anwendung. Daher rotiert das Aufnahmesystem um das Objekt mit einer festen z-Achse. Der Umfang der Rotation wird derzeit von den gängigen Rekonstruktionsalgorithmen bestimmt – in der Regel finden Rotationswinkel von π + ϕ (wobei ϕ für den Konus- bzw. Pyramidenöffnungswinkel steht) bis 2π Anwendung. Die Rotation kann dabei zur Extension des Field of View (FoV) in der Horizontalen auch exzentrisch erfolgen, bei der Mehrzahl der Geräte wird jedoch eine zentrische Revolution durchgeführt. Auf der beschriebenen Umlaufbahn werden innerhalb von 10–20 Sekunden zwischen 200 und 600 Radioskopien (Fluoroskopien) des Objektes akquiriert. Die effektive Belichtungszeit liegt hier je nach Gerät und Aufnahmemodus beispielsweise zwischen 20 oder 50 ms je Projektion. Außerdem werden auch kontinuierliche, ungepulste Expositionen durchgeführt. Die verwendeten Röhrenparameter unterliegen aus gesetzlichen Gründen weltweit erheblichen Schwankungsbreiten, generell sind jedoch Röhrenspannungen zwischen 80 und 120 kV und Röhrenstromstärken zwischen 0,5 und 10 mA im Einsatz (1). Die eigentliche Akquisition des Absorptionsreliefs erfolgt durch Flachdetektoren oder an Bildverstärker gekoppelte Detektoren (z. B. CCD-Sensoren). Dadurch entstehen für jede Position der Umlaufbahn Fluoroskopien des Untersuchungsvolumens. Als Flachdetektoren werden derzeit Arrays aus amorphem Silizium verwendet, die über Glasfaser an einen Szintillator (z. B. CsI, GdO) gekoppelt sind. In der Szintillationsschicht auftreffende Röntgenquanten erzeugen Lichtquanten, die in der Detektorschicht ein proportionales Quantum elektrischer Ladungen erzeugen. Diese werden je nach Detektorkonfiguration zeilenweise gesammelt, analog-digital gewandelt und ortskodiert. Neben dieser indirekten Detektion besteht bei Einsatz von Arrays aus amorphem Selen auch die Möglichkeit der direkten Quantendetektion (2). Bei Bildverstärkersystemen wird der Detektion eine Signalamplifikation vorgeschaltet, die durch eine Verkettung von Sekundärelektronenvervielfachern (SEV) erreicht wird. Dieses seit ca. 60 Jahren bekannte Verfahren führt auch bei kleinen Eingangssignalen zu hohen Ausgangssignalen, die damit verbundene Dosisminderung ist gleichzeitig jedoch auch direkt mit einer Verschlechterung des Signal/Rausch-Verhältnisses gekoppelt (3). Daher finden Bildverstärkersysteme in der dentalen DVT nur noch in geringem Umfang Anwendung. Der akquirierte Ausschnitt (Field of View) des Untersuchungsvolumens kann derzeit in vielen Fällen bereits
⊡ Abb. 23.2. Digitaler Volumentomograph. FoV 5 x 5 bis 24 x 19 stufenlos einstellbar. (Quelle: orangedental GmbH & Co. KG, Biberach, Deutschland)
variiert werden, sodass FOVs zwischen 4 x 4 und 24 x 20 cm verfügbar sind (1). Variable FOVs stellen für den Anwender perspektivisch die zukunftssichersten Systeme dar, da die Akquisition indikationsbedingt gesteuert werden kann und unnötige Strahlenexpositionen durch Ausblendung nicht interessierender Bereiche vermieden werden können (⊡ Abb. 23.2).
23.1.2 Datenrekonstruktion
Die gesammelten Fluoroskopien (Rohdaten) können über verschiedene mathematische Algorithmen zu einem Abbildungsvolumen rekonstruiert werden. Der modifizierte Feldkamp-Algorithmus wird dabei am häufigsten eingesetzt. Dieser stellt eine 3D-Modifikation der von der CT bekannten gefilterten Rückprojektion (filtered back projection, FBP) dar. Dabei wird die aufgezeichnete Information in den Akquisitionsraum zurückprojiziert, mathematisch zurückgefaltet. Die Überlagerung aller Rückprojektionen ergibt dann ein dreidimensionales Abbild der bei der Akquisition aufgetretenen Absorption. Die dabei auftretenden Unschärfen werden durch die Filterungen bereinigt, gleichzeitig kann dadurch der
411 23.1 · Technischer Hintergrund der dentalen digitalen Volumentomographie
23.1.3 Datenbewertung
⊡ Abb. 23.3. Unterschied zwischen isotropen und anisotropen Voxeln
Kontrast verbessert werden. Bei starken Absorptionen, beispielsweise durch metallische Füllungswerkstoffe oder Implantate, entstehen bei diesem Rekonstruktionsalgorithmus typische Artefakte, die sich dann linien- oder flächenförmig durch das gesamte Bild ausbreiten (2). Die Bildqualität kann durch iterative Verfahren verbessert werden. Eine andere, aufwändigere Form der Bildrekonstruktion stellt die algebraische Rekonstruktion (ART) dar. Dabei werden die Absorptionsinformationen in Matrizen zerlegt und durch Gleichungssysteme die ursprünglichen Absorptionswerte wiederhergestellt. Diese Rechenoperationen sind bei exakter Durchführung wesentlich umfangreicher als die der FBP und werden deshalb noch nicht regelhaft eingesetzt. Im Allgemeinen erfolgt die Datenrekonstruktion inzwischen auf spezialisierten Grafikprozessoren (GPU), dies hat zu einer Verkürzung der Rekonstruktionszeiten auf bis zu unter einer Minute geführt. Die Rekonstruktion erfolgt häufig auf isolierten Rekonstruktionsrechnern, die dann das Ergebnis an eine Betrachtungsstation oder einen Server liefern. Das Ergebnis der Rekonstruktion ist in Abhängigkeit von der Detektorform ein sphärisches (runder Detektor) oder zylinderförmiges (rechteckiger Detektor) Volumen. Dieses setzt sich im Gegensatz zur klassischen CT aus isotropen Voxeln zusammen (⊡ Abb. 23.3). Je nach Absorption kann jedem einzelnen Voxel eine Graustufe zugeordnet werden. Die Verteilung der Graustufen auf einem Histogramm folgt dabei der primären Gerätekalibierung. Hierbei finden sich zwischen den DVT-Systemen erhebliche Unterschiede, was bei einer anschließenden Weiterverarbeitung der Daten zu berücksichtigen ist. Da das Ergebnis der Rekonstruktion in der DVT in der Regel einer Volumen-Datei entspricht, ist eine nachfolgende Zerlegung des Datensatzes in einzelne Schichten über die Länge der z-Achse erforderlich.
Die Auswertung der rekonstruierten Daten erfolgt entweder in vom Hersteller bereitgestellten Betrachtungsprogrammen oder in Software-Applikationen von Drittanbietern oder klassischen DICOM-Viewern. Dabei wird in der Regel eine Ansicht aller drei Raumebenen im Sinne von sekundären multiplanaren Rekonstruktionen (MPR) angeboten (⊡ Abb. 23.4, 4-Farbteil am Buchende). Häufig erfolgt gleichzeitig die komplette dreidimensionale Darstellung in einem weiteren Fenster. Die MPR stellen dabei den diagnostisch wesentlichen Informationswert dar, erlauben sie doch eine exakte Inspektion jeder anatomischen Landmarke oder pathologischen Veränderung im akquirierten Volumen. Weiterhin sind spezialisierte MPR in der Zahnheilkunde für die Auswertung dieser Datensätze erforderlich. So werden beispielsweise freie, nicht achsengebundene MPR entlang des Zahnbogens erstellt, um eine Panoramaansicht aller Zähne zu erzeugen. Diese Form der Rekonstruktion ist historisch v.a. dadurch bedingt, dass Zahnärzte zur Beurteilung von Veränderungen der Zähne, des Zahnhalteapparates und des Knochens in der Regel auf Panoramaschichtaufnahmen zurückgreifen. In einem weiteren Schritt können dann rechtwinklig zur Rekonstruktionsachse gelagerte transversale Darstellungen erzeugt werden, die einen Querschnitt durch den jeweiligen Kiefer anzeigen. Die Graustufendarstellung ist entlang eines Histogramms je nach Bittiefe auf mehrere Hundert Graustufen verteilt. Da dies für das menschliche Auge jedoch eine unzureichend hohe Anzahl darstellt, wird durch Verlagerung des Darstellungsschwerpunktes (center) und Begrenzung der Graustufenzahl (windowing) eine adäquate Abbildung erreicht. Dabei ist zu berücksichtigen, dass die DVT aufgrund der eingesetzten Expositionsparameter eine schlechtere Weichteildarstellung als die klassische CT liefert. Eine weitere Aufspreizung der Absorptionswerte von differenten Weichgeweben wie Fett und Muskulatur ist nur durch eine Erhöhung der Dosis erreichbar. Deshalb bleibt die DVT derzeit der Diagnostik von Hochkontraststrukturen vorbehalten. Der entscheidende Vorteil gegenüber der Projektionsradiographie besteht natürlich in der ubiquitär verfügbaren dreidimensionalen Lokalisierung durch die verschiedenen MPR-Ebenen. Pathologische Veränderungen und geometrisch exakte Informationen können nun durch Screenshots oder verschiedene Berichtfunktionen (je nach Software) dokumentiert und transportiert werden. Die dreidimensionalen Rekonstruktionen werden häufig durch Einsatz von Volumen-Rendering (volume rendering technique, VRT) realisiert (⊡ Abb. 23.5, 4-Farbteil am Buchende). Dabei wird der gesamte Datenbestand des Volumens zu einem Objekt rekonstruiert, welches manuell in seiner Lage, aber auch in seiner Transparenz verändert werden kann. Gleichzeitig ist eine Modifikation der
23
412
II
Kapitel 23 · Dentale digitale Volumentomographie (DVT) und Navigation
Graustufenwerte durch Überlagerung von Farbspektren (color lookup table, CLT) möglich. Metrische Auswertungen, wie für die Planung von Implantaten oder auch bei der Vermessung von Raumforderungen, unterliegen bei der dentalen DVT einem inhärenten Messfehler, der jedoch deutlich kleiner als der der klassischen CT ausfällt. Da ein Voxel die kleinste Informationseinheit in einem DVT-Datensatz darstellt, ist eine Messung nur zwischen mindestens zwei Voxeln möglich. Dabei kann eine Messung im Idealfall der Länge einer Voxelkantenlänge entsprechen. Im schlechtesten Fall kann die Messung zwischen den beiden am weitesten voneinander entfernten Eckpunkten erfolgen. Zwischen beiden Messpunkten besteht ein inkrementaler Messfehler, der idealerweise bereits von der Betrachtungssoftware berücksichtigt wird.
23.2
Anwendungsgebiete der dentalen DVT
Der strukturierte Einsatz der DVT erforderte eine wissenschaftlich basierte Analyse der bestehenden Datenlage (1, 4, 5). Daher ist seit 04/2009 eine von der DGZMK autorisierte Leitlinie zur Anwendung der DVT verfügbar. Im Einzelnen lassen sich folgende Indikationsfelder abgrenzen:
23.2.1 Konservierende Zahnheilkunde
Bei ungefüllten Zähnen erreicht eine hochauflösende DVT-Untersuchung die Sensitivität von filmbasierten oder digitalen Intraoralaufnahmen (6, 7). In der Nachbarschaft von Metallrestaurationen treten jedoch Metallartefakte sowie durch die Hartsubstanz der Nachbarzähne bedingte Artefakte auf, welche in der klinischen Anwendung die approximale Kariesdiagnostik unmöglich machen können (8). Daher ist die DVT zur Kariesdiagnostik, insbesondere von approximalen Läsionen, kaum geeignet. Die folgenden Indikationsgebiete innerhalb der einzelnen Fachgebiete werden derzeit diskutiert bzw. sind bereits erkennbar. Eine DVT-Untersuchung kann auf folgenden Gebieten erfolgen: ▬ Endodontie – apikale Veränderungen bei Vorliegen klinischer Auffälligkeiten, wenn diese auf zweidimensionalen Aufnahmen nicht detektierbar bzw. räumlich korrelierbar sind (9, 10) – Wurzelfrakturen, da diese aus rein mathematischen Gründen sicherer identifiziert werden als mit zweidimensionalen Aufnahmen (11) – Wurzelresorptionen, z. B. nach Zahntrauma (12) ▬ Parodontologie – Visualisierung der knöchernen Parodontalsituation, da die dreidimensionale parodontale Morphologie gut abgebildet wird (13–15)
23.2.2 Zahnärztliche Prothetik
In der zahnärztlichen Prothetik bietet die DVT zusätzliche Möglichkeiten in der Diagnostik und in der Therapieplanung. Zukünftig könnten die DVT-Daten in Kombination mit digitalen Daten intraoraler Scanner durch Integration in eine Planungssoftware zusätzliche Möglichkeiten in der Therapieplanung im Sinne eines virtuellen Set-Ups bereitstellen. Evidenzbasierte Daten sind zu dieser Thematik zum Zeitpunkt der Leitlinienerstellung nur unzureichend oder gar nicht verfügbar. Derzeit sind die folgenden Indikationsgebiete für die zahnärztliche Prothetik erkennbar, bei denen eine DVT-Untersuchung erfolgen kann: ▬ zusätzliche Informationen zur Diagnostik der Pfeilerwertigkeit (Wurzeloberfläche, Furkationsbefunde etc.), ▬ Visualisierung des quantitativen und qualitativen Knochenangebotes (implantatgestützter Zahnersatz, herausnehmbare Prothetik), ▬ Darstellung von Nervenaustrittspunkten (implantatgestützter Zahnersatz, herausnehmbare Prothetik), ▬ Diagnostik von knöchernen Erkrankungen des Kiefergelenkes (16–20), ▬ virtuelle Planung von implantatprothetischen Versorgungen (21), ▬ Verknüpfung der 3D-Daten mit der KonstruktionsSoftware von CAD/CAM-Systemen (z. B. für CAD/ CAM-gefertigte Bohrschablonen, Langzeitzeitprovisorien oder definitiven Zahnersatz).
23.2.3 Funktionsdiagnostik und -therapie
In der Diagnostik und Therapie craniomandibulärer Dysfunktionen ergänzen bildgebende Verfahren die klinischen und instrumentellen diagnostischer Verfahren. Tomographische Röntgenverfahren sind dabei grundsätzlich nur zur Darstellung knöcherner Veränderungen in der Kiefergelenkregion zielführend. Mehrere wissenschaftliche Studien zeigen, dass mit der DVT im Minimum gleiche Resultate wie mit klassischen Tomographien oder Computertomographien der Kiefergelenke erzielt werden können (16, 22, 23). Im Hinblick auf quantitative Auswertungen zeigen DVTs sehr gute Übereinstimmungen mit den tatsächlichen Messungen an makroskopischanatomischen Präparaten (24, 25). Für die Darstellung von Knorpelstrukturen bleibt die Magnetresonanztomographie das Verfahren der Wahl, zumal hierin die knöchernen Konturen ebenfalls in dreidimensionalen Schnittbildern zur Darstellung kommen. Derzeit erkennbare Hauptindikationen, für welche eine DVT zur Kiefergelenksdiagnostik herangezogen werden kann, sind: ▬ Ausschluss primärer Kiefergelenkerkrankungen, ▬ Erfassung differential-therapeutisch relevanter Befunde (Ausmaß erosiver Prozesse der Kondylen, Skle-
413 23.2 · Anwendungsgebiete der dentalen DVT
rosierungen, Position der Kondylen, Fehlstellungen des Kondylus in der Fossa mandibularis).
23.2.4 Chirurgische Zahnheilkunde
In der zahnärztlichen Chirurgie dient die DVT überwiegend zur Diagnostik von knöchernen (pathologischen) Befunden bzw. räumlichen Verhältnissen, die teilweise bereits unter den anderen Fachgebieten beschrieben wurden. Es zeichnen sich zusätzlich dazu derzeit die folgenden Einsatzmöglichkeiten innerhalb des Fachgebietes ab, in welchen die DVT zur röntgenologischen Diagnostik Verwendung finden kann: ▬ Wurzelfrakturen (wobei es jedoch Hinweise gibt, dass die Sensitivität für frische Wurzelfrakturen unmittelbar nach dem Trauma reduziert sein kann) (26, 27), ▬ Alveolarfortsatzfrakturen (26), ▬ intraossäre pathologische Veränderungen wie odontogene Tumoren oder größere periapikale knöcherne Läsionen (28), ▬ Lageanomalien von Zähnen, ▬ präoperative Schnittbilddiagnostik bei der geplanten operativen Entfernung von (teil-)retinierten Weisheitszähnen. Hier kann ein Einsatzgebiet für die DVT gegeben sein, wenn auf bereits vorhandenen, konventionellen Röntgenaufnahmen die räumliche Lagebeziehung zwischen Mandibularkanal und dem Weisheitszahn nicht ausreichend sicher interpretiert werden kann oder als kritisch einzuschätzen ist (29, 30). Aufgrund des geringen Effektes, bezogen auf den therapeutischen Nutzen, sollte hingegen auf einen routinemäßigen Einsatz vor Weisheitszahnentfernung verzichtet werden. (31)
23.2.5 Implantologie
In der Implantologie dient die DVT heute schon vorwiegend zur Therapieplanung, typischerweise zur Visualisierung und Vermessung der knöchernen Ausgangssituation sowie zur Visualisierung implantatprothetischer Behandlungsplanungen im dreidimensionalen Patientenkontext (Planungsschablonen). Hierbei sind metrische Messungen notwendig, deren Genauigkeit von der tatsächlich erreichten Ortsauflösung, der Kontrastauflösung und dem Signal/ Rausch-Verhältnis abhängig ist. Auch die Identifikation der Messpunkte hat entscheidenden Einfluss auf die Messgenauigkeit. Die publizierten Daten basieren alle auf In-vitro-Untersuchungen, welche keine Verwacklungsartefakte durch Patientenbewegung aufweisen. Für in der Implantologie typische lineare Messstrecken wurden hierbei maximale relative Fehler zwischen 3% und 8% ermittelt (32, 33). Dies bedeutet bei einer Messtrecke von 10 mm eine mögliche Ungenauigkeit von ungefähr 0,5 mm.
Auf der Basis dieser Aufnahmen können geplante Implantate, Aufbauten, Augmentationen, Schnittführungen, Zahnersatzrestaurationen softwarebasiert simuliert und evaluiert werden. Die dabei ermittelten Werte und Erkenntnisse können dazu verwendet werden, eine möglichst exakte, prothetisch orientierte Positionierung der Implantate unter bestmöglicher Ausnutzung des Knochenangebotes zu planen. Zudem können Defizite im vorhandenen Gewebeangebot detektiert und die Notwendigkeit von Augmentationen, Distraktionen oder implantatbettvorbereitenden Maßnahmen vorausschauend erkannt sowie ggf. entsprechende Maßnahmen geplant werden. Die Übertragung der räumlichen Information aus dem Planungssystem in die OP-Realität kann über computerunterstützt gefertigte Übertragungs- bzw. Bohrschablonen oder mit Hilfe der direkten Instrumentennavigation erfolgen. In vitro werden hierbei eine Achsabweichung von bis zu 4° bzw. lineare Abweichungen von bis zu 2,4 mm angegeben (34). In-vivo-Daten sind hierzu kaum vorhanden. Eine auf einer sehr geringen Fallzahl basierende, somit vorläufige Analyse gibt maximale Abweichungen von 6 mm linear und 11° in Achsrichtung an (35). Valide Daten bezüglich der klinischen Anwendung von DVTgestützter Implantation mittels Bohrschablonen liegen bisher wenige vor. Erste Ergebnisse zeigen jedoch eine gute Übereinstimmung der DVT-Planung mit der klinischen Situation (36). Zukünftig könnte die DVT auch direkt für intraoperative Navigationsverfahren eingesetzt werden (37). Grundsätzlich sind bei diesen Einsätzen die systemimmanenten möglichen Ungenauigkeiten zu beachten und Sicherheitsmargen einzuhalten, um die Verletzung sensibler Nachbarstrukturen zu vermeiden. Da bedingt durch die hohe Absorption eines Titanimplantates im weiteren Strahlengang Aufhärtungsartefakte entstehen, ist die Evaluation der unmittelbar periimplantären Region sowie der Region zwischen Implantaten in Strahlengangsrichtung nur sehr eingeschränkt möglich.
23.2.6 Mund-, Kiefer- und Gesichtschirurgie
Zusätzlich zu den bereits genannten chirurgischen Indikationsgebieten der zahnärztlichen Chirurgie und der Implantologie kann die DVT in der Mund-, Kiefer- und Gesichtschirurgie eingesetzt werden, beispielsweise für die folgenden Indikationen (38): ▬ odontogene Tumoren (39), ▬ Knochenpathologie und -strukturanomalien insbesondere bei Ostitis, Osteomyelitis und Osteoporose, ▬ Kieferhöhlenerkrankungen, ▬ Speichelsteine, ▬ (knöcherne) Kiefergelenkerkrankungen, ▬ Kiefer- und Gesichtstraumatologie, ▬ Darstellung des räumlichen Verlaufes intraossärer Strukturen (knöcherne Nerven-, Gefäßkanäle),
23
414
Kapitel 23 · Dentale digitale Volumentomographie (DVT) und Navigation
▬ Diagnostik und Operationsplanung bei komplexen Fehlbildungen.
23.2.7 Kieferorthopädie
II
Kinder haben ein generell erhöhtes Risiko, in der Folge einer ionisierenden Strahlenexposition einen Schaden zu erleiden. Diese Tatsache ist auch in der Kieferorthopädie grundsätzlich und sicher verstärkt zu berücksichtigen, die Indikationsstellung muss entsprechend angepasst werden (40). Trotz der derzeit auf relativ niedrigem Evidenzniveau basierenden Erkenntnissen zeichnen sich derzeit die folgenden kieferorthopädischen Indikationen ab, bei welchen eine DVT-basierte Diagnostik sinnvoll sein kann: ▬ Diagnostik von Anomalien des Zahnbestandes, ▬ Diagnostik von Anomalien und Dysplasien der Zahnwurzeln, ▬ differentialdiagnostische Bewertung von Zahndurchbruchsstörungen, ▬ Darstellung des peridentalen Knochenangebots zur prognostischen Bewertung geplanter Zahnbewegungen, ▬ Diagnostik craniofazialer Fehlbildungen. Auch wenn sich vorhandene DVT-Datensätze prinzipiell zur Berechnung von 2D-Kephalogrammen eignen, so sind diese aufgrund des unweigerlichen Informationsverlustes lediglich als Ausgangpunkt für eine anzustrebende 3D-Kephalometrie geeignet (13, 41). Grundlegende Arbeiten hierfür bestehen bereits (27, 42, 43). Die Wahl des geeigneten röntgenologischen Untersuchungsverfahrens muss gerade bei der oft jugendlichen Patientenklientel unter besonderer Berücksichtigung des Strahlenschutzes erfolgen. Möglichkeiten zur Dosisreduktion sollen ausgeschöpft werden (z. B. reduzierte optische Auflösung, reduzierte Expositionswinkel, reduzierte Anzahl an Projektionsaufnahmen) werden. Auch sollen gänzlich ohne ionisierende Strahlung arbeitende Untersuchungsverfahren alternativ in Erwägung gezogen werden.
23.3
Technische Einschränkungen des Verfahrens
Die DVT ist im Vergleich zur klassischen CT in ihrer Darstellung deutlich empfindlicher gegenüber Patientenbewegungen. Diese können durch willkürliche Bewegungen, wie z. B. beim Schlucken oder durch einen konstanten Tremor, hervorgerufen werden. Dies kann nachhaltig die Qualität des gesamten Volumendatensatzes beeinflussen, während bei der CT lediglich eine (bei sequenzieller Akquisition) oder wenige axiale Schichten (bei spiralförmiger Akquisition) betroffen sind. Gleichzeitig ist eine differenzierte Weichteildarstellung mit der DVT nicht möglich. Durch metallische oder
sehr dichte Objekte versursachte Artefakte treten je nach DVT-Gerät in ganz unterschiedlicher Ausprägung auf, was auf einen sehr differenten Einsatz von Artefakt-reduzierenden Algorithmen schließen lässt. Weiterhin stellen sich sehr häufig rekonstruktionsbedingte Artefakte dar.
23.4
Dosis
Die Strahlenexposition (effektive Dosis) einer dentalen DVT liegt je nach System und abgebildetem Volumen zwischen 30 und 150 μSv, in einigen Fällen auch darunter. Selbst beim Einsatz von »Low-dose«-Protokollen können herkömmliche CT-Systeme derzeit nicht die Ortsauflösung von DVT-Systemen erreichen.
23.5
Navigation
Die Navigation verbindet die Aufzeichnung von präoperativen Daten eines Patienten mit seiner intraoperativen Position. Dergestalt handelt es sich hier um ein ähnliches Verfahren wie bei der von der globalen Positionierung von Fahrzeugen oder anderen Objekten bekannten Methodik. Im Wesentlichen können eine aktive und eine passive Navigation unterschieden werden. Bei der aktiven Navigation werden Echtzeitdaten zur Unterstützung eines operativen Eingriffs auf einem separaten Monitor angezeigt oder sogar in das OP-Feld eingeblendet (augmented reality) (44). Gleichzeitig können »aktive« Instrumente in das Navigationsfenster eingebracht werden. In einer zusätzlichen Ausbaustufe können situative Veränderungen von Gewebequalitäten über haptische (»forced feedback«) Mechanismen dem Anwender vermittelt werden, um Entscheidungen über das operative Prozedere zu treffen (45). Bei der passiven Navigation werden die präoperativen Daten ausschließlich zur Planung eines therapeutischen Eingriffs herangezogen. Eine computergestützte Planung kann in der Folge beispielsweise in Form einer Schablone oder eines Splints abgespeichert und über CAD/CAMVerfahren ausgegeben werden. Dieses Objekt wird dann während der OP als Positionierungshilfe oder Erfolgskontrolle eingesetzt, eine direkte Rückkopplung wie bei der aktiven Navigation erfolgt nicht.
23.5.1 Voraussetzungen für navigierte
Verfahren Absolut essentiell für das Erfolgen der Navigation ist die Akquisition eines präoperativen bzw. präinterventionellen Datensatzes (46, 47). Die Akquisition erfolgt notwendigerweise mit Schnittbildverfahren wie DVT, CT und/oder MRT, wobei alle Datensätze auch miteinander fusioniert werden
415 Literatur
können. Vor der Datenakquisition ist die spätere Registrierung der Daten in der Navigations- bzw. Planungssoftware zu berücksichtigen, insofern, als dass das Einbringen von Referenzmarkern erforderlich sein kann. Des Weiteren ist es erforderlich, die Qualität der gewonnenen Schnittbilddaten auf die weitere Verwendung abzustimmen (Schichtdicke, Notwendigkeit von Weichgewebsinformation).
23.5.2 Weiterverarbeitung
Die aus den o.g. Modalitäten gewonnenen Schnittbilddaten werden in Planungsoberflächen importiert und zur Bearbeitung umgewandelt. In der Regel werden hierbei die Voxel tetraedisiert oder in ähnlichen Verfahren abstrahiert, im Allgemeinen spricht man von Segmentierung. Dabei werden alle nicht notwendigen Informationen aus dem Datensatz verworfen und nur die interessierenden Datenwerte verarbeitet. Für die Segmentierung bestehen verschiedene Algorithmen, beispielsweise können Daten gemäß ihrer Absorptionswerte gefiltert werden (Threshold-Methode) (48). Neben diesen sind aber auch andere, wesentlich subtilere Methoden verfügbar (watershed algorithm, marching cubes) (49). Letztlich führen alle zu einem anatomischen Modell, welches aus dem Schnittbilddatensatz generiert wird und ein deutlich geringeres Datenvolumen aufweist als der ursprüngliche Datensatz.
23.5.3 Registrierung
Bezüglich der Registrierung unterscheiden sich nun aktive und passive Navigationsverfahren. Bei den passiven Verfahren werden die segmentierten Datensätze in der Regel mit Modellen (Gipsmodelle in speziellen Artikulatoren oder anderen Vorrichtungen) kopositioniert, sodass eine Übertragung von softwaregestützten Implementierungen, wie beispielsweise Bohrungen, auf das Modell oder modellgetragene Schablonen möglich wird. Da hier der Informationstransfer a priori stattfindet, nennt man diesen Vorgang passive Navigation. Die daraus resultierende Information, beispielsweise in Form einer Positionierungs- oder Bohrschablone, wird anschließend in den OP-Situs eingebracht. Bei der aktiven Navigation werden die aufbereiteten Daten quasi live mit der Patientenposition abgeglichen. Für diesen Vorgang kann das Einbringen von Referenzmarkern erforderlich sein, dabei werden diese dann vor Ort von Infrarot-Kameras zur Triangulation aufgezeichnet und zur Kopositionierung des Datensatzes verwendet. Weiterhin existieren Systeme, die vorhandene anatomische Landmarken zum Datenabgleich verwenden (50, 51). Bei beiden Verfahren werden jedoch im Vergleich zur passiven Navigation entsprechende Implementierungen erst intraoperativ vorgenommen und sind damit deutlich kostenintensiver. Allerdings ist dann eine Echtzeitanalyse der
präoperativ gewonnenen Daten möglich und erlaubt somit minimal-invasive Eingriffe bzw. ein besonders schonendes Vorgehen. Weiterhin bietet sich hier die Möglichkeit durch intraoperative 3D-Datenakquisition, wie sie derzeit mit so genannten 3D-C-Bögen zur Verfügung steht, den präoperativen Datensatz durch ein Live-Update zu aktualisieren bzw. die präoperative Planung genau zu überprüfen (52). Navigationsverfahren unterliegen somit einer Reihe von modifzierenden Einflüssen, was aktuell eine Genauigkeit im Submillimeterbereich nahezu unmöglich macht. Des Weiteren sind eine sorgfältige Auswahl des präoperativen Schnittbildverfahrens, eine exakte Planung und Wahl der passenden Referenzobjekte für eine erfolgreiche Navigation unabdingbar.
Literatur 1. Kau CH, Bozic M, English J, Lee R, Bussa H, Ellis RK (2009) Conebeam computed tomography of the maxillofacial region – an update. Int J Med Robot 5(4): 366–380 2. Miracle AC, Mukherji SK (2009) Conebeam CT of the head and neck, part 1: physical principles. AJNR Am J Neuroradiol 30(6): 1088–1095 3. Baba R, Konno Y, Ueda K, Ikeda S (2002) Comparison of flat-panel detector and image-intensifier detector for cone-beam CT. Comput Med Imaging Graph 26(3): 153–158 4. Miracle AC, Mukherji SK (2009) Conebeam CT of the head and neck, part 2: clinical applications. AJNR Am J Neuroradiol 30(7): 1285–1292 5. De Vos W, Casselman J, Swennen GRJ (2009) Cone-beam computerized tomography (CBCT) imaging of the oral and maxillofacial region: a systematic review of the literature. Int J Oral Maxillofac Surg 38(6): 609–625 6. Akdeniz BG, Gröndahl H, Magnusson B (2006) Accuracy of proximal caries depth measurements: comparison between limited cone beam computed tomography, storage phosphor and film radiography. Caries Res 40(3): 202–207 7. Haiter-Neto F, Wenzel A, Gotfredsen E (2008) Diagnostic accuracy of cone beam computed tomography scans compared with intraoral image modalities for detection of caries lesions. Dentomaxillofac Radiol 37(1): 18–22 8. Zhang Y, Zhang L, Zhu XR, Lee AK, Chambers M, Dong L (2007) Reducing metal artifacts in cone-beam CT images by preprocessing projection data. Int J Radiat Oncol Biol Phys 6 7(3): 924–932 9. Lofthag-Hansen S, Huumonen S, Gröndahl K, Gröndahl H (2007) Limited cone-beam CT and intraoral radiography for the diagnosis of periapical pathology. Oral Surg Oral Med Oral Pathol Oral Radiol Endod 103(1): 114–119 10. Stavropoulos A, Wenzel A (2007) Accuracy of cone beam dental CT, intraoral digital and conventional film radiography for the detection of periapical lesions. An ex vivo study in pig jaws. Clin Oral Investig 11(1): 101–106 11. Hannig C, Dullin C, Hülsmann M, Heidrich G (2005) Three-dimensional, non-destructive visualization of vertical root fractures using flat panel volume detector computer tomography: an ex vivo in vitro case report. Int Endod J 38(12): 904–913 12. Cohenca N, Simon JH, Mathur A, Malfaz JM (2007) Clinical indications for digital imaging in dento-alveolar trauma. Part 2: root resorption. Dent Traumatol 23(2): 105–113 13. Farman AG, Scarfe WC (2006) Development of imaging selection criteria and procedures should precede cephalometric assessment with cone-beam computed tomography. Am J Orthod Dentofacial Orthop 130(2): 257–265
23
416
II
Kapitel 23 · Dentale digitale Volumentomographie (DVT) und Navigation
14. Mengel R, Candir M, Shiratori K, Flores-de-Jacoby L (2005) Digital volume tomography in the diagnosis of periodontal defects: an in vitro study on native pig and human mandibles. J Periodontol 76(5): 665–673 15. Vandenberghe B, Jacobs R, Yang J (2007) Diagnostic validity (or acuity) of 2D CCD versus 3D CBCT-images for assessing periodontal breakdown. Oral Surg Oral Med Oral Pathol Oral Radiol Endod 104(3): 395–401 16. Honey OB, Scarfe WC, Hilgers MJ, Klueber K, Silveira AM, Haskell BS et al. (2007) Accuracy of cone-beam computed tomography imaging of the temporomandibular joint: comparisons with panoramic radiology and linear tomography. Am J Orthod Dentofacial Orthop 132(4): 429–438 17. Fu K, Zhang W, Liu D, Chen H, Ma X (2007) Cone beam computed tomography in the diagnosis of temporomandibular joint osteoarthrosis. Zhonghua Kou Qiang Yi Xue Za Zhi 42(7): 417–420 18. Hussain AM, Packota G, Major PW, Flores-Mir C (2008) Role of different imaging modalities in assessment of temporomandibular joint erosions and osteophytes: a systematic review. Dentomaxillofac Radiol 37(2): 63–71 19. Krisjane Z, Urtane I, Krumina G, Bieza A, Zepa K, Rogovska I (2007) Condylar and mandibular morphological criteria in the 2D and 3D MSCT imaging for patients with Class II division 1 subdivision malocclusion. Stomatologija 9(3): 67–71 20. Lewis EL, Dolwick MF, Abramowicz S, Reeder SL (2008) Contemporary imaging of the temporomandibular joint. Dent Clin North Am 52(4): 875–890 21. Ganz SD (2008) Computer-aided design/computer-aided manufacturing applications using CT and cone beam CT scanning technology. Dent Clin North Am 52(4): 777–808 22. Honda K, Larheim TA, Maruhashi K, Matsumoto K, Iwai K (2006) Osseous abnormalities of the mandibular condyle: diagnostic reliability of cone beam computed tomography compared with helical computed tomography based on an autopsy material. Dentomaxillofac Radiol 35(3) 152–157 23. Scarfe WC, Farman AG, Sukovic P (2006) Clinical applications of cone-beam computed tomography in dental practice. J Can Dent Assoc 72(1): 75–80 24. Hilgers ML, Scarfe WC, Scheetz JP, Farman AG (2005) Accuracy of linear temporomandibular joint measurements with cone beam computed tomography and digital cephalometric radiography. Am J Orthod Dentofacial Orthop 128(6): 803–811 25. Honda K, Arai Y, Kashima M, Takano Y, Sawada K, Ejima K et al. (2004) Evaluation of the usefulness of the limited cone-beam CT (3DX) in the assessment of the thickness of the roof of the glenoid fossa of the temporomandibular joint. Dentomaxillofac Radiol 33(6): 391–395 26. Cohenca N, Simon JH, Roges R, Morag Y, Malfaz JM (2007) Clinical indications for digital imaging in dento-alveolar trauma. Part 1: traumatic injuries. Dent Traumatol 23(2): 95–104 27. Swennen GRJ, Schutyser F, Barth E, De Groeve P, De Mey A (2006) A new method of 3-D cephalometry Part I: the anatomic Cartesian 3-D reference system. J Craniofac Surg 17(2): 314–325 28. Simon JHS, Enciso R, Malfaz J, Roges R, Bailey-Perry M, Patel A (2006) Differential diagnosis of large periapical lesions using cone-beam computed tomography measurements and biopsy. J Endod 32(9): 833–837 29. Flygare L, Ohman A (2008) Preoperative imaging procedures for lower wisdom teeth removal. Clin Oral Investig 12(4): 291–302 30. Kunkel M, Wagner W, Becker J, Haessler D, Kreusser B, Reinhart E et al. (2006) Leitlinie: Operative Entfernung von Weisheitszähnen 31. Better H, Abramovitz I, Shlomi B, Kahn A, Levy Y, Shaham A et al. (2004) The presurgical workup before third molar surgery: how much is enough? J. Oral Maxillofac Surg 62(6): 689–692 32. Suomalainen A, Vehmas T, Kortesniemi M, Robinson S, Peltola J (2008) Accuracy of linear measurements using dental cone beam and conventional multislice computed tomography. Dentomaxillofac Radiol 37(1): 10–17
33. Veyre-Goulet S, Fortin T, Thierry A (2008) Accuracy of linear measurement provided by cone beam computed tomography to assess bone quantity in the posterior maxilla: a human cadaver study. Clin Implant Dent Relat Res 10(4): 226–230 34. Van Assche N, van Steenberghe D, Guerrero ME, Hirsch E, Schutyser F, Quirynen M et al. (2007) Accuracy of implant placement based on pre-surgical planning of three-dimensional cone-beam images: a pilot study. J Clin Periodontol 34(9): 816–821 35. Di Giacomo GAP, Cury PR, de Araujo NS, Sendyk WR, Sendyk CL (2005) Clinical application of stereolithographic surgical guides for implant placement: preliminary results. J Periodontol 76(4): 503–507 36. Nickenig H, Eitner S (2007) Reliability of implant placement after virtual planning of implant positions using cone beam CT data and surgical (guide) templates. J Craniomaxillofac Surg 35(4–5): 207–211 37. Heiland M, Pohlenz P, Blessmann M, Werle H, Fraederich M, Schmelzle R et al. (2008) Navigated implantation after microsurgical bone transfer using intraoperatively acquired cone-beam computed tomography data sets. Int J Oral Maxillofac Surg 37(1): 70–75 38. Haßfeld S, Kunkel M, Ulrich H-, Wagner W, Zöller JE (2008) Stellungnahme: Indikationen zur Schnittbilddiagnostik in der Mund-, Kiefer- und Gesichtschirurgie (CT/DVT). Der MKG-Chirurg 1: 148–151 39. Fullmer JM, Scarfe WC, Kushner GM, Alpert B, Farman AG (2007) Cone beam computed tomographic findings in refractory chronic suppurative osteomyelitis of the mandible. Br J Oral Maxillofac Surg 45(5): 364–371 40. Horner K, Rusthon V, Walker A, Tsiklakis K, Hirschmann PN, van der Stelt PF et al. (2004) European guidelines on radiation protection in dental radiology. The safe use of radiographs in dental practice: European Commission 41. Kumar V, Ludlow J, Soares Cevidanes LH, Mol A (2008) In vivo comparison of conventional and cone beam CT synthesized cephalograms. Angle Orthod 78(5): 873–879 42. Grayson B, Cutting C, Bookstein FL, Kim H, McCarthy JG (1988) The three-dimensional cephalogram: theory, technique, and clinical application. Am J Orthod Dentofacial Orthop 94(4): 327–337 43. Swennen GRJ, Schutyser F (2006) Three-dimensional cephalometry: spiral multi-slice vs cone-beam computed tomography. Am J Orthod Dentofacial Orthop 130(3): 410–416 44. Peters TM (2006) Image-guidance for surgical procedures. Phys Med Biol 51(14): R505–540 45. Wurm J, Dannenmann T, Bohr C, Iro H, Bumm K (2005) Increased safety in robotic paranasal sinus and skull base surgery with redundant navigation and automated registration. Int J Med Robot 1(3): 42–48 46. Hassfeld S, Mühling J (2001) Computer assisted oral and maxillofacial surgery – a review and an assessment of technology. Int J Oral Maxillofac Surg 30(1): 2–13 47. Ewers R, Schicho K, Undt G, Wanschitz F, Truppe M, Seemann R et al. (2005) Basic research and 12 years of clinical experience in computer-assisted navigation technology: a review. Int J Oral Maxillofac Surg 34(1): 1–8 48. Rodt T, Bartling SO, Zajaczek JE, Vafa MA, Kapapa T, Majdani O et al. (2006) Evaluation of surface and volume rendering in 3D-CT of facial fractures. Dentomaxillofac Radiol 35(4): 227–231 49. Niu Q, Chi X, Leu MC, Ochoa J (2008) Image processing, geometric modeling and data management for development of a virtual bone surgery system. Comput. Aided Surg 13(1): 30–40 50. Strong EB, Rafii A, Holhweg-Majert B, Fuller SC, Metzger MC (2008) Comparison of 3 optical navigation systems for computeraided maxillofacial surgery. Arch Otolaryngol Head Neck Surg 134(10): 1080–1084 51. Pham AM, Rafii AA, Metzger MC, Jamali A, Strong EB (2007) Computer modeling and intraoperative navigation in maxillofacial surgery. Otolaryngol Head Neck Surg 137(4): 624–631 52. Kahler DM (2004) Image guidance: fluoroscopic navigation. Clin Orthop Relat Res 421: 70–76
24 Angiographie in der interventionellen Radiologie D. Pommi 24.1
Kurze Historie und Unterschied diagnostische/therapeutische Intervention – 417
24.2
Definition DSA – 417
24.3
Modalitäten zur DSA – 417
24.4
Anwendungsbereiche der Angiographie – 418
24.5
Vorteile und Nutzen interventionellradiologischer Verfahren – 418
24.6
Entwicklungstendenzen – 419
24.1
Kurze Historie und Unterschied diagnostische/therapeutische Intervention
Nachdem Radiologen das Gefäßsystem unter Röntgendurchleuchtung und Kontrastmitteleinsatz darzustellen lernten, entstand die Idee, auf gleichem Wege Gefäßerkrankungen mit speziellen Angiographiekathetern zu behandeln. Wurde der Katheter zunächst nur zur Applikation des Kontrastmittels eingesetzt, so diente er jetzt als Werkzeug zum Transport und zur Platzierung verschiedener therapeutischer »Geräte«, Implantate und Chemotherapeutika, z. B. Ballonkatheter, Endoprothesen (Stents) und Chemoembolisate. Eine entscheidende Rolle fiel hierbei der bildgestützten Führung und Überwachung zu. Aus der rein diagnostischen Radiologie entstand so die interventionelle Radiologie. Heute werden in der interventionellen Radiologie unter Bildsteuerung (Röntgen, Ultraschall, CT, MRT) sehr unterschiedliche, oft hochkomplexe therapeutische Eingriffe durchgeführt, u. a. am vaskulären System. Eine wichtige Methode hierzu ist die Digitale Subtraktionsangiographie (DSA).
24.2
Definition DSA
> Definition Die Digitale Subtraktionsangiographie (DSA) ist eine Form der Angiographie und dient der Untersuchung und Darstellung von Blutgefäßen und Blutfluss.
Bei der DSA werden vom zu untersuchenden Körperteil und den darin zu diagnostizierenden Gefäßen zwei zeitlich aufeinander folgende Bilder gemacht, die anschließend digital weiterverarbeitet werden. Dazu wird zuerst ein so genanntes Maskenbild (Leeraufnahme) erstellt. Anschließend wird Kontrastmittel injiziert und das so genannte Füllungsbild aufgenommen. Die Darstellung der Blutgefäße, also ohne das umgebende Gewebe, erhält man durch digitale Subtraktion des Maskenbildes vom Füllungsbild. Übrig bleiben Bildbereiche, die sich in beiden Aufnahmen in ihrer Röntgenabsorption unterscheiden – in diesem Fall die kontrastmittelgefüllten Innenvolumen der Gefäße. Nähere Einzelheiten zur konventionellen DSA und zur digitalen Bildverstärkerradiographie ist in Kapitel 17 (S. 299) nachzulesen.
24.3
Modalitäten zur DSA
Die Einrichtung eines Angiographieraumes zur DSA besteht aus der angiographischen Röntgenanlage, dem Untersuchungstisch mit Bedienelementen, einer Monitorampel zur Bildwiedergabe und verschiedenen Peripheriesystemen. Das Angiographiesystem zur Darstellung der kontrastmittelgefüllten Gefäße besitzt mindestens eine Röntgenröhre und einen Empfänger, die meist an einem gemeinsamen Führungsarm (C-Bogen) installiert sind und so ebenensynchron bewegt werden können. Die früher verwendeten Bildverstärker werden heute häufig durch Flachdetektoren ersetzt.
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _24, © Springer-Verlag Berlin Heidelberg 2011
418
II
Kapitel 24 · Angiographie in der interventionellen Radiologie
Die so genannten biplanen Systeme, also Systeme mit zwei unabhängigen Röhren/Detektor-Einheiten in zwei Durchleuchtungsebenen, finden v.a. in der Neuroradiologie und Kinderkardiologie ihren Einsatz. Sehr wichtig für die optimale und bequeme Lagerung des Patienten sowie für das unbehinderte Arbeiten von Arzt und Personal während der teils sehr zeitintensiven Intervention ist ein röntgentransparenter, neigbarer Tisch. Die Bedienung von Angiographiesystem und Tisch erfolgt direkt im Untersuchungsraum über Bedienpanel und Fußschalter; beide lassen sich, ebenso wie Röhre und Detektor, steril abdecken. Monitore zur Bildbetrachtung (Live-Bild, Referenzbild, 3D-Darstellung u. a.) werden meist in einer gemeinsamen Halterung (Monitorampel) montiert und sind in verschiedenen Ausführungen und unterschiedlicher Anzahl möglich. Für die Gabe des Kontrastmittels wird heute meist ein halb- oder vollautomatischer Injektor verwendet, der mit der Aufnahmeauslösung synchronisiert werden kann. Für die Katheterarbeit werden verschiedene Katheter, Schleusen, Coils, Stents und Ballons zum Einsatz gebracht. Wichtig in der Angiographie ist eine sterile Arbeitsweise. Im Kontrollraum ist für die Nachverarbeitung (z. B. Pixelshift, Versenden ins PACS, 3D-Nachverarbeitung) neben den Steuer- und Bildrechnern ein zusätzlicher Auswertearbeitsplatz notwendig.
24.4
Anwendungsbereiche der Angiographie
Die interventionelle Radiologie kennt verschiedene prozedurale Therapieschwerpunkte bei der Behandlung von Gefäßen. Hauptunterscheidungsmerkmale sind je nach Diagnose und somit: ▬ Therapieanspruch, ▬ Gefäßeröffnung (z. B. Dilatation) oder ▬ Gefäßverschluss (z. B. Embolisation). Die wichtigsten Verfahren sind: ▬ Ballonangioplastie (PTA, Perkutane Transluminale Angioplastie): Katheterverfahren unter Röntgenkontrolle zur Wiederöffnung verengter oder verschlossener Gefäßabschnitte mittels entfaltbaren Ballons. ▬ Stentimplantation (Stentangioplastie): Katheterverfahren zum Einbringen und Entfalten von Metallgitter-Gefäßstützen (Stents) unter Röntgenkontrolle bei rekanalisierten Gefäßverengungen oder -verschlüssen. ▬ Thrombolyse: Röntgenkontrolliertes Katheterverfahren zur Beseitigung von Blutgerinnseln durch lokale Zufuhr thrombolytischer Medikamente. ▬ Chemoembolisation: Röntgenüberwachtes Katheterverfahren zur lokalen Chemotherapie und Verödung tumorersorgender Arterien speziell in der Leber und der Gebärmutter.
▬ Thermoablation: Bildüberwachtes Nadelverfahren zur thermischen Zerstörung von Tumorgewebe mittels Radiofrequenz- oder Laserenergie. Umfassende Beschreibungen der einzelnen Therapieverfahren finden sich in der medizinischen Fachliteratur. In der Angiographie geht die Entwicklung dank modernster Katheter- und Bildgebungstechnologien weg von der rein diagnostischen Gefäßdarstellung in Richtung interventioneller Eingriffe. Ein entscheidender Vorteil ist hierbei der minimal-invasive Charakter dieser Therapien, die somit sehr schonend für den Patienten durchgeführt werden können. Bei den verschiedenen, teils sehr komplexen Untersuchungen ist eine hochauflösende Bildgebung besonders wichtig, um die exakte Navigation und die präzise Platzierung der Materialen in den oft sehr kleinen Gefäßen zu ermöglichen. Neben Erkrankungen im vaskulären und kardialen System können interventionell auch andere Gefäßsysteme, z. B. das biliäre System, therapiert werden. Angiographiesysteme kommen heute vielseitig zum Einsatz. Beispiele sind ▬ Beseitigung von Aneurysmata mittels Stent oder Coils, ▬ Stenosebehandlung (Angioplastie) durch Ballon und/ oder Stents, ▬ Tumorbehandlung durch Embolisation oder Injektion direkt in den Tumorherd, ▬ Dialyseshunts durch Ballondilatation, ▬ kombinierter Einsatz von interventioneller Technik und chirurgischem Eingriff direkt im Operationssaal (Hybrid-OP). Durch die digitale Technik und leistungsfähige Computer ist es heute möglich, komplette 3D-Raumbilder nahezu in Echtzeit zu erstellen. Bilder aus CT (Computertomographie), MRT (Magnetresonanztomographie) oder funktionalen Bilder aus der Nuklearmedizin können direkt mit den Angiographiebildern überlagert werden. Dadurch lässt sich die diagnostische Sicherheit steigern, die Instrumentenführung erleichtern und das Follow-up verbessern.
24.5
Vorteile und Nutzen interventionellradiologischer Verfahren
Durch einen minimal-invasiven Eingriff werden dem Patienten häufig eine offene Operation und die damit verbundene lange Liegezeit erspart. Viele Eingriffe können mittlerweile ambulant durchgeführt werden. Dies ist für den Patienten eine schonende Alternative und spart Zeit und Kosten während des Krankenhausaufenthalts. Durch den Einsatz von Kathetertechniken können Medikamente, Instrumente und Implantate direkt am
419 24.6 · Entwicklungstendenzen
Wirkort platziert werden. Dank moderner Bildgebungstechniken in der prä-, intra- und postoperativen Phase werden Planung, Durchführung und Kontrolle von Interventionen sicherer, schneller und lückenlos dokumentierbar.
24.6
Entwicklungstendenzen
Verstärkte Rechnerleistung. Durch den Einsatz minimal-
invasiver Verfahren ist es zunehmend wichtiger, eine optimale, schnelle und detaillierte Bildgebung zu gewährleisten. Alle diagnostischen Voraufnahmen sollen auch während eines Eingriffes zur Verfügung stehen und müssen bei Bedarf am Bildschirm überlagert werden können, um die maximale Information für den Eingriff zu gewährleisten. Dabei müssen erhebliche Datenmengen bewegt und dargestellt werden, was den Einsatz leistungsstarker Rechnersysteme und Netzwerke erfordert. Spezialdarstellungen. Zur Kontrolle des Therapieerfolgs oder zur raschen Reaktion bei Zwischenfällen müssen spezielle Bilddarstellungen, z. B. 3D-Rekonstruktionen oder Weichteildarstellungen, zur Verfügung stehen. Dies erfordert eine Ausweitung und Spezialisierung des Applikationsspektrums; gleichzeitig erhält der Anwender
⊡ Abb. 24.1. Zweiebenenanlage
dadurch die Möglichkeit, genau die für seine Arbeit notwendigen Funktionen einsetzen zu können. Hybrider Einsatz. In Radiologie und Chirurgie geht die
Entwicklung zu so genannten Hybrid-OPs. Das sind Operationsräume, in denen mehrere bildgebende Modalitäten einzeln oder zugleich zum Einsatz kommen und interventionelle Radiologen mit Chirurgen zusammenarbeiten. Dadurch lassen sich zeitraubende und gefährliche Verlagerungen des Patienten vermeiden; gleichzeitig werden Raum- und Geräteausnutzung optimiert. Beispiel für den hybriden Einsatz ist die Kombination von Herzkatheterlabor mit OP-Saal. Generelle Tendenzen sind: ▬ Vereinfachung der Systembedienung, z. B. durch robotergestützte Systeme und fallspezifische Protokolle; ▬ umfassende, individualisierbare Darstellung aller notwendigen Informationen im Angiographieraum/OP, z. B. durch Großbildschirme; ▬ Verringerung der Strahlendosis bei Röntgenverfahren (z. B. DSA, CT-Angiographie); ▬ verstärkter Einsatz der 3D-Bildgebung mit kürzeren Aufnahme- bzw. Rechenzeiten und höherer Auflösung; ▬ interdisziplinäre Nutzung der bildgebenden Systeme, z. B. in Hybrid-OPs.
24
420
Kapitel 24 · Angiographie in der interventionellen Radiologie
II
⊡ Abb. 24.2. Einebenenanlage mit Robotertechnologie
⊡ Abb. 24.3. Darstellung der Blutgefäße
25 Langzeitbeatmungsgeräte für die Intensivtherapie T. Peyn 25.1
Aufgaben des Beatmungsgerätes und Ziele der Beatmung – 423
25.2
Funktion und Komponenten eines Langzeitbeatmungsgerätes – 424
25.3
Technische Realisierung
25.3.1 25.3.2 25.3.3
Continuous-Flow-Systeme – 427 Demand-Flow-Systeme – 427 Kombinierte Flow-Systeme – 428
Steuerung des Beatmungsgerätes – 429
25.4.1 25.4.2
Inspirationsauslösung – 429 Umschaltverhalten – 429
25.5
Beatmungsverfahren
25.5.1
Kontrollierte Beatmung (vollständige Atemsubstitution) – 429 Druckkontrollierte Beatmung – 431 Unterstützte Spontanatmung – 432 Spontanatmung (keine Atemunterstützung) – 435 Misch-Ventilation (partielle Atemunterstützung in Kombination mit kontrollierten Beatmungsphasen) – 435
25.1
Beatmungszusätze und Sonderfunktionen – 439
25.6.1 25.6.2 25.6.3
IRV – Inverse Ratio Ventilation – 439 Seufzer – 439 AutoFlow – optional verfügbar an DrägerBeatmungsgeräten – 440 ATC – automatische Tubuskompensation, TC – Tubuskompensation – 440 NIV-Maskenbeatmung – Non Invasive Ventilation – 442 Apnoeventilation – 442
– 427
25.4
25.5.2 25.5.3 25.5.4 25.5.5
25.6
25.6.4 25.6.5 25.6.6
25.7
Patientenüberwachung und Alarmgrenzen – 442
25.8
Entwöhnungsstrategie und SmartCare – verfügbar in SPN-CPAP/PS – 443
– 429
Aufgaben des Beatmungsgerätes und Ziele der Beatmung
Die in den Körperzellen kontinuierlich ablaufenden Stoffwechselprozesse erfordern die permanente Versorgung der Zellen mit Sauerstoff und Nährstoffen. Gleichzeitig müssen die Reaktionsprodukte Kohlendioxid und Wasser abtransportiert und ausgeschieden werden. In diesem Zusammenhang übernehmen die Lunge und der Blutkreislauf ganz wesentliche Funktionen, da sie die Zellen mit den entsprechenden Versorgungs- und Entsorgungssystemen verbinden. Um den Körper mit sauerstoffreicher Luft zu versorgen, vergrößert sich das Lungenvolumen bei der Einatmung. Es kommt so während der Inspiration zu einem Druckeinbruch in der Lunge, durch den die atmosphärische Luft in die Lunge hineingesaugt wird. Der umgekehrte Fall tritt in der Ausatemphase, der Exspiration, ein. Thorax und Atemmuskeln kehren in die Ruhelage zurück, das Lungenvolumen nimmt ab. Der resultierende, intrapulmonale Druckanstieg führt dazu, dass das kohlendioxidreiche Ausatemgas abgeatmet wird. Im Ruhezustand wiederholt sich dieser Vorgang beim Erwachsenen ca. 10- bis 20-mal pro Minute. Bei einem Körpergewicht von 75 kg variiert das pro Atemzug bewegte Volumen (Atemzugvolumen, AZV) zwischen ca. 350 und 850 ml.
Weiterführende Literatur
– 444
Berücksichtigt man zusätzliche körperliche Aktivitäten, bei denen die Atmung um ein Vielfaches gesteigert werden kann, ist es durchaus möglich, dass unsere Atemmuskulatur im Laufe eines Tages eine Gesamtluftmenge von 10000 bis 15000 Litern bewegt. Die Zahlen unterstreichen den elementaren Stellenwert unseres Atemapparates für den Gesamtorganismus. Kommt es im Zusammenspiel der an der Atmung beteiligten Organe und Muskeln zu Störungen, können Beatmungsgeräte die zu verrichtende Atemarbeit vollständig oder, sofern der Patient z. B. lediglich zu flach atmet, auch nur anteilig übernehmen. Die zahlreichen Gründe, die den Einsatz eines Beatmungsgerätes erfordern können, lassen sich fünf verschiedenen Problemkreisen zuordnen (⊡ Tab. 25.1). Neben den hier genannten Beispielen kann die Anwendung eines Beatmungsgerätes auch durch die unerwünschte atemdepressive Wirkung starker Schmerzmittel oder durch den Einsatz von Muskelrelaxanzien erforderlich sein. Die angeführten Beispiele verdeutlichen bereits, dass Patienten aus recht unterschiedlichen Gründen darauf angewiesen sein können, dass ihnen Atemgas über spezielle Gasdosiereinrichtungen zugeführt wird. Hierbei ist zu unterscheiden, ob der Patient noch spontan atmet und vielleicht nur auf eine erhöhte Sauerstoffkonzentration aus einem Atemtherapiegerät angewiesen
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _25, © Springer-Verlag Berlin Heidelberg 2011
424
Kapitel 25 · Langzeitbeatmungsgeräte für die Intensivtherapie
⊡ Tab. 25.1. Gründe für den Einsatz von Beatmungsgeräten
III
Grund zur Beatmung
Beispiele für mögliche Ursachen
Funktionelle Einschränkungen der Atemmuskulatur
z. B. aufgrund einer muskulären Verletzung oder Lähmung
Pathophysiologische Veränderungen der Atemwege und/ oder des Lungengewebes
z. B. aufgrund erhöhter Atemwegswiderstände und/oder einer verminderten Lungendehnbarkeit
Störungen der Atemmechanik
z. B. im Falle von Thoraxverletzungen
Gasaustausch-/Diffusionsstörungen
z. B. durch Ansammlung pulmonaler Flüssigkeit oder durch Veränderung der Alveolar-Membran
Störungen der Atemregulation
z. B. aufgrund einer neurologischen Störung, kranialer Erkrankung bzw. Verletzung
ist, oder ob die zu verrichtende Atemarbeit nicht mehr geleistet werden kann und von einem Beatmungsgerät erbracht werden muss. Unabhängig jedoch von der vorliegenden Atemstörung übernimmt ein Langzeitbeatmungsgerät in allen Anwendungsfällen eine lebenserhaltende Funktion. Vor diesem Hintergrund muss das Beatmungsgerät im Wesentlichen drei unterschiedliche Aufgaben erfüllen: 1. Oxygenierung des Patienten Bereitstellung und Versorgung des Patienten mit einem Sauerstoff-Luft-Gemisch 2. Partielle oder totale Übernahme der Atemarbeit Erzeugung und Dosierung definierter Gasflows bzw. Beatmungsdrucke 3. Überwachung des Gerätes und des Patienten Generierung von Alarmen und Visualisierung von Veränderungen Die Beatmungstherapie verfolgt primär das Ziel, die Atemarbeit des Patienten zu unterstützen oder zu ersetzen und so einen effizienten Gasaustausch zu gewährleisten. Der Anwender eines Beatmungsgerätes hat daher Sorge zu tragen, dass die von ihm gewählte Geräteeinstellung den Patienten adäquat mit Sauerstoff versorgt und die Ventilation das im Körper anfallende Kohlendioxid hinlänglich reduziert. Die erforderliche Effizienzkontrolle erfolgt mittels arterieller Blut-Gas-Analyse ( Kap. 41 »Respiratorisches Monitoring und Pulsoxymetrie«). Dem Therapeuten wird mit einem Langzeitbeatmungsgerät (⊡ Abb. 25.1) gleichzeitig ein Arbeitsmittel an die Hand gegeben, mit dessen Hilfe er die Atemmuskulatur des Patienten trainieren und stärken kann, sodass der Patient schrittweise daran gewöhnt wird, die zu leistende Atemarbeit eigenständig zu erbringen. Dieser Entwöhnungsprozess (auch Weaning genannt) kann sich über Stunden, Tage oder auch Wochen hinziehen. Ein Grund für diese Varietät ist in der unterschiedlichen Beatmungsdauer zu sehen, bei der es zu einer Rückbildung (Atrophie) der Atemmuskulatur kommen kann. Ferner wird die Dauer der Entwöhnungsphase durch das Krankheitsbild des Patienten, den
⊡ Abb. 25.1. Intensiv-Beatmungsgerät Evita XL (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
Gesundungsfortschritt sowie die klinische Gesamtsituation beeinflusst.
25.2
Funktion und Komponenten eines Langzeitbeatmungsgerätes
Um eine gestörte Atemfunktion zu unterstützen bzw. zu ersetzen, bedarf es einer von außen auf den Patienten einwirkenden Kraft, durch die das Atemgas in die Lunge befördert wird. Die künstliche Beatmung lässt sich somit durch die Dosierung definierter Gasflows und durch die Erzeugung positiver Drücke realisieren. Verglichen mit der Spontanatmung ergibt sich so ein gravierender Unterschied. Während der intrapulmonale Druck bei der Spontanatmung in etwa um die Nulllinie des atmosphärischen Druckes herum pendelt, wird das Atemgas bei einer künstlichen Beatmung mit einem positiven Druck in die Lunge befördert. Als Verbindung zwischen Beatmungsgerät und Patient dient ein Schlauch- bzw. Atemsystem, dass im Falle klinischer Langzeitbeatmungsgeräte i. d. R. als Zwei-Schlauch-System ausgeführt ist (ein Inspira-
425 25.2 · Funktion und Komponenten eines Langzeitbeatmungsgerätes
⊡ Abb. 25.2. Komponenten eines Langzeitbeatmungsgerätes (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
tions- und ein Exspirationsschlauch). Die Verbindung des Patienten mit dem Beatmungssystem ist prinzipiell sowohl über eine Gesichtsmaske, als auch über einen in die Luftröhre einzuführenden Tubus möglich. Unter Abwägung der näheren Begleitumstände, wie z. B. der voraussichtlichen Beatmungsdauer, wird der Anwender sich für das eine oder andere Verfahren entscheiden und den Patienten medikamentös auf die jeweilige Situation einstellen. Für die technische Realisierung eines Langzeitbeatmungsgerätes bedarf es verschiedener Systemkomponenten, deren Anordnung in ⊡ Abb. 25.2 schematisch dargestellt ist. ▬ Energieversorgung: Um ihre Funktion erfüllen zu können, benötigen Beatmungsgeräte elektrische Energie, Sauerstoff und Druckluft. Die Versorgung der Geräte erfolgt im Regelfall über eine externe Spannungsquelle sowie über die zentrale klinische Gasversorgung (ca. 3–6 bar Versorgungsdruck). In Funktionsbereichen, die über keine zentrale Gasversorgung verfügen, oder auch auf innerklinischen Transporten ist es erforderlich, den Gerätebetrieb
anderweitig zu gewährleisten. Als mögliche Lösungen stehen hierfür separate Druckluftkompressoren, Druckgasflaschenpakete und Akkumulatoren zur Verfügung. Darüber hinaus kommen zunehmend auch druckluftunabhängige Beatmungsgeräte, die die Beatmung durch Filterung und Mitverwendung der Umgebungsluft realisieren, zur Anwendung. Derartige Ventilatoren benötigen zum Betrieb dann lediglich eine Sauerstoffquelle sowie eine Energieversorgung. ▬ Der Gasmischer ermöglicht es dem Anwender, die Sauerstoffkonzentration des Inspirationsgases zwischen 21 und 100 Vol.-% zu variieren. Während Beatmungsgeräte in der Vergangenheit häufig über externe, mechanische Gasmischer versorgt wurden, hat sich im Laufe der technischen Entwicklung der elektronisch geregelte und in das Beatmungsgerät integrierte Gasmischer durchgesetzt. Häufig hat der Gasmischer eine Doppelfunktion und ist auch dafür verantwortlich, dass das zu applizierende Atemgas in der benötigten Menge und mit der erforderlichen Geschwindigkeit erzeugt und geliefert wird. Hierbei sind
25
426
III
Kapitel 25 · Langzeitbeatmungsgeräte für die Intensivtherapie
es gerade die Grenzbereiche, die dieses Dosiersystem vor besondere Herausforderungen stellen. Erfordert die Ventilation bspw. ein Volumen von 20 ml mit einer Sauerstoffkonzentration von 30 Vol.-%, müssen über das Druckluftventil 17,7 ml und über das Sauerstoffventil 2,3 ml Gas dosiert werden. ▬ Der Druck- bzw. Flowgenerator hat die Aufgabe, das vom Gasmischer bereitgestellte Mischgas entsprechend der an der Bedieneinheit eingestellten Beatmungsparameter zu dosieren. Gasflow bzw. Druck können im einfachsten Fall manuell durch einen Handbeatmungsbeutel erzeugt werden. Technisch vergleichbare Verfahren sind in Ventilatoren älterer Bauart und Narkosebeatmungssystemen anzutreffen. In diesen Geräten generieren mechanisch bewegliche Teile, wie z. B. Faltenbälge oder Kolbenpumpen, den inspiratorischen Gasfluss. Neuzeitliche Intensiv-Beatmungsgeräte hingegen verfügen über kombinierte Gasmisch- und Dosiereinrichtungen, die die benötigten Gasmengen unmittelbar aus den Gasversorgungssystemen heraus zur Verfügung stellen. Aus technischer Sicht kann diese Komponente als Flow- oder Druckgenerator ausgestaltet sein. Bei einem Flowgenerator handelt es sich um ein geregeltes Ventil, an dessen Ausgang ein definierter Gasflow zur Verfügung steht, der Ausgangsdruck ist nicht spezifiziert. Ein Druckgenerator hingegen entspricht in seinem Verhalten einem Kompressor, an dessen Ausgang ein definierter Druck mit einem nicht spezifizierten Gasflow zur Verfügung gestellt wird. Druckgeneratoren werden häufig für den Antrieb von druckluftunabhängigen Beatmungsgeräten verwendet und nutzen die angesaugte Umgebungsluft für die Beatmung des Patienten. ▬ Das Atemsystem bildet die Schnittstelle zwischen dem Patienten und dem Beatmungsgerät. Klinische Langzeitbeatmungsgeräte werden üblicherweise über einen Inspirations- und einen Exspirationsschlauch mit dem Patienten verbunden (Zwei-Schlauch-System). Während der Inspirationsphase wird das exspiratorische Ausatemventil verschlossen. Der dann aus der Inspirationstülle abströmende Gasflow wird, bevor er in die Lunge des Patienten gelangt, über einen Atemgasbefeuchter geführt und so klimatisch den Verhältnissen in der Patientenlunge angepasst (Näheres hierzu unter »Atemgasbefeuchter«). Die Ausatmung des Patienten erfolgt nach Abschluss der Inspirationsphase durch Öffnen des exspiratorischen Ausatemventils. Das Exspirationsgas passiert damit noch einmal das Beatmungsgerät, wird jedoch nicht wie bei Narkosebeatmungsgeräten für die nächste Inspiration mitverwendet. Basierend auf diesem Charakteristikum werden die Atemsysteme der Langzeitbeatmungsgeräte auch als »Nicht-Rückatemsysteme« bezeichnet.
Der Vollständigkeit halber sei erwähnt, dass in einzelnen klinischen Funktionsbereichen Beatmungsgeräte mit »Ein-Schlauch-Systemen« anzutreffen sind. Auch bei diesen Systemen handelt es sich um Nicht-Rückatemsysteme, allerdings ist das Ausatemventil in diesem Fall nicht geräteseitig, sondern patientennah positioniert. Einer durch den Einzelschlauch erleichterten Handhabung steht damit ein im Gesichtsfeld des Patienten angeordnetes Ausatemventil entgegen. Entsprechend der individuellen Produktanforderungen haben sich in den Bereichen Notfallmedizin und Intermediate Care Beatmungsgeräte mit Ein-Schlauch-Systemen durchgesetzt. Auf Intensivstationen dagegen überwiegen, auch aufgrund einer hier geforderten exspiratorischen Volumen-Überwachung, Beatmungsgeräte mit ZweiSchlauch-Systemen. ▬ Atemgasanfeuchter dienen der Erwärmung und der Befeuchtung des Inspirationsgases. Da das trockene und relativ kühle Versorgungsgas die Atemwege des Patienten austrocknen und damit das Flimmerepithel irreversibel schädigen würde, ist es zwingend erforderlich, das Beatmungsgas auf dem Weg zum Patienten über ein Klimatisierungssystem zu befeuchten und zu erwärmen. Hierfür stehen aktive oder passive Atemgasanfeuchter zur Verfügung. Aktive Atemgasbefeuchter sind im Inspirationsschenkel angeordnet und erwärmen mittels elektrischer Energie ein Wasserbad, über das das Atemgas hinweggeführt wird. Bei dem Kontakt mit dem Wasserbad nimmt das kalte und trockene Gas Wassermoleküle auf und wird so klimatisiert. Passive Atemgasbefeuchter, sog. HME (»Heat and Moisture Exchanger«), hingegen werden patientennah, also zwischen Tubus und Y-Stück eingesetzt. Es handelt sich hierbei um Produkte, die aufgrund ihrer Beschaffenheit in der Lage sind, die im Ausatemgas enthaltende Wärme und Feuchtigkeit aufzunehmen und zu speichern. Das den passiven Atemgasanfeuchter während der nächsten Einatmung durchströmende Inspirationsgas wird dann mittels der zuvor gespeicherten Feuchte klimatisiert. Die gleichzeitige Verwendung eines HMEs zusammen mit einem aktiven Atemgasanfeuchter in einem Atemsystem ist unzulässig, da sie den Widerstand des HMEs erheblich beeinträchtigen würde. HMEs werden umgangssprachlich fälschlicherweise auch als »Filter« bezeichnet, haben mit diesen jedoch nichts gemeinsam, sofern sie nicht zusätzlich auch eine hygienische Funktion erfüllen (z. B. HMEs mit intergriertem Mikrobenfilter). ▬ Dem Exspirationsventil fallen, außer der bereits beschriebenen Umschaltfunktion, zwei weitere bedeutsame Aufgaben zu. Wird das Ventil während der Exspiration nicht vollständig geöffnet, kommt es in der Lunge zu einem positiven endexspiratorischen Druck
427 25.3 · Technische Realisierung
(Positive End-Expiratory Pressure). Dieser PEEPDruck ist von therapeutischer Bedeutung, da er die Gasaustauschfläche der Lunge vergrößert. Darüber hinaus kann durch einen adäquaten PEEP das Kollabieren einzelner Alveolarbezirke vermieden werden. Eine weitere Funktion kann das Exspirationsventil erfüllen, sofern das Beatmungsgerät den Ventilsteuerdruck auch während der Inspirationsphase regelt. In diesem Fall können ungewollte Druckanstiege im Atemsystem, z. B. durch einen Hustenstoß des Patienten, durch das Ausatemventil ausgeglichen werden. ▬ Die Bedien- und Anzeigeeinheit bildet die Schnittstelle zwischen dem Beatmungsgerät und dem Anwender. Oftmals handelt es sich um TouchscreenBildschirme, auf denen sich Druck- und Flowkurven sowie unterschiedliche Menüs, z. B. für die Einstellung der verschiedenen Beatmungsmodi, die Anpassung der Alarmgrenzen oder auch Messwertübersichten, darstellen lassen. Die an der Bedieneinheit vorgenommenen Parametereinstellungen dienen den übrigen Gerätekomponenten als Ansteuersignale und prägen so entscheidend das auf den Patienten einwirkende Beatmungsmuster. ▬ Die Überwachungs- und Alarmeinrichtung wacht darüber, dass die an der Bedien- und Anzeigeeinheit eingestellten Beatmungsparameter tatsächlich zur Anwendung gelangen. Gleichzeitig macht sie den Anwender durch akustische und optische Alarmierung auf kritische patientenseitige Veränderungen oder technische Betriebsstörungen aufmerksam. Gemessen werden die inspiratorische Sauerstoffkonzentration (Funktionskontrolle des Gasmischers) sowie der Beatmungsdruck und das Beatmungsvolumen (Überwachung des Druck-/Flowgenerators). Zusätzlich ist bei der Verwendung eines aktiven Atemgasanfeuchters eine inspiratorische Atemgastemperaturmessung mit Alarmierungseinrichtung obligatorisch (Kontrolle der Atemgastemperatur). Auf die Erläuterung der Sensorik sowie der verschiedenen Messprinzipien wird an dieser Stelle bewusst verzichtet, da diese Thematik in Kap. 28 (»Anästhesiegeräte«) ausführlich behandelt wird. ▬ Das Patientenmonitoring überwacht die Vitalfunktionen des Patienten. Hierzu zählen z. B. das EKG, der Blutdruck (nichtinvasiv und/oder invasiv), die Sauerstoffsättigung und vielfach auch die Messung der Kohlendioxidkonzentration im Atemgas. Obgleich auf Patientenmonitoren vereinzelt auch Beatmungsdaten dargestellt werden, sind diese Geräte als eigenständige Anzeigeeinheit mit Alarmeinrichtung anzusehen. Das Patientenmonitoring ist damit eine wesentliche Ausstattungskomponente des intensivmedizinischen Arbeitsplatzes, jedoch nicht Bestandteil des Beatmungsgerätes. Weitere Informationen hierzu sind Kap. 39 (»Patientenüberwachungssysteme«) zu entnehmen.
25.3
Technische Realisierung
Beatmungsgeräte lassen sich aufgrund ihres Gasflowverhaltens unterscheiden. Neben Geräten, die die Ventilation durch einen kontinuierlichen Gasflow (Continuous-FlowSysteme) realisieren, kommen sog. Demand-Flow-Geräte zur Anwendung, die lediglich während der Inspirationsphase einen Gasflow liefern.
25.3.1 Continuous-Flow-Systeme
Über Dosierventile wird den Druckgasquellen ein kontinuierlicher Sauerstoff- und Druckluftflow entnommen. Dieser Gasflow wird über einen Inspirationsschlauch zum Patienten und von dort über einen Exspirationsschlauch zu einem Exspirationsventil geleitet. Ein spontan atmender Patient hat somit stets die Möglichkeit, seinen Luftbedarf aus dem Gasflow zu decken. Muss der Patient beatmet werden, wird das Exspirationsventil für eine definierte Zeit verschlossen. Es kommt so zu einem Druckanstieg im Atemsystem und der Gasflow gelangt in die Lunge des Patienten. Der inspiratorische Beatmungsdruck wird durch ein einstellbares Druckbegrenzungsventil limitiert. Mit Umschaltung auf Exspiration öffnet das Exspirationsventil und der Druck im Atemsystem fällt auf den Umgebungs- bzw. den PEEP-Druck zurück. Das Atemgas verlässt die Lunge durch das bestehende Druckgefälle, mischt sich mit dem Konstantflow und strömt am Exspirationsventil ab. In der Praxis haben sich Continuous-FlowSysteme vorzugsweise in der Neonatal-Beatmung und in der Atemtherapie durchgesetzt. Atemtherapie- oder auch SPN-CPAP-Geräte (Continuous Positive Airway Pressure) unterscheiden sich von den Beatmungsgeräten dadurch, dass ihr Ausatemventil lediglich einen konstanten, positiven Druck erzeugen kann. Die Anwendung eines Atemtherapiegerätes ist damit spontan atmenden Patienten, die z. B. auf eine erhöhte Sauerstoffkonzentration angewiesen sind, vorbehalten (⊡ Abb. 25.3).
25.3.2 Demand-Flow-Systeme
Im Gegensatz zu den eingangs beschriebenen Continuous-Flow-Systemen liefern Demand-Flow-Systeme ausschließlich während der Inspirationsphase einen Gasflow. Im Falle einer kontrollierten Beatmung erfolgt die Taktung des Gasflows i. d. R. nach dem vom Anwender vorgegebenen Zeitmuster (zeitgesteuerte Beatmung). Dieses kann, je nach Bedienphilosophie des Gerätes, durch Regler z. B. für die In- und Exspirationszeit, festgelegt werden. Die Beantwortung spontaner Atemaktivitäten wird bei Demand-Flow-Systemen
25
428
Kapitel 25 · Langzeitbeatmungsgeräte für die Intensivtherapie
III
⊡ Abb. 25.3. Continuous-Flow-System (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
⊡ Abb. 25.4. Demand-Flow-System (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
durch die Implementierung eines Auslöse- bzw. TriggerKriteriums realisiert ( Abschn. 25.4 »Steuerung des Beatmungsgerätes« und Abschn. 25.5 »Beatmungsverfahren«). Demand-Flow-Systeme reduzieren den Gasverbrauch erheblich und sind daher auch in Inhalationsapparaten, die die Einatemtiefe des Patienten fördern und/oder inspirationssynchron Aerosole applizieren, anzutreffen (⊡ Abb. 25.4).
25.3.3 Kombinierte Flow-Systeme
Aus technischen Gründen oder auch aufgrund besonderer Betriebsanforderungen werden in einzelnen Beatmungsgeräten kombinierte Flow-Systeme verwendet. Diese liefern, verglichen mit dem Gasbedarf des Patienten, einen geringen Konstant- oder auch Basisflow von einigen Litern pro Minute. Mit Auslösung der Inspiration erhö-
429 25.5 · Beatmungsverfahren
hen diese Systeme dann den Gasflow entsprechend dem jeweiligen Bedarf. Kombinierte Flow-Systeme sind z. B. in Beatmungsgeräten anzutreffen, die das gesamte Patientenspektrum vom Frühgeborenen bis zum Erwachsenen abdecken müssen.
25.4
Steuerung des Beatmungsgerätes
25.4.1 Inspirationsauslösung
Die Auslösung einer Inspirationsphase erfolgt in kontrollierten Beatmungsmodi, wie bereits dargestellt, mandatorisch nach Ablauf der Exspirationszeit. In Beatmungsmodi hingegen, in denen das Beatmungsgerät die Atembemühungen des Patienten lediglich unterstützt, muss das Beatmungsgerät die Atemaktivitäten des Patienten erkennen und einen adäquaten Gasflow bereitstellen. Als Detektor für die Spontanatembemühungen fungiert der Trigger des Beatmungsgerätes. Es handelt sich hierbei um eine Gerätefunktion mit einem vom Anwender einstellbaren Schwellwert (die sog. Triggerschwelle). Obgleich die Spontanatemaktivität des Patienten sich in Druck- und Flowveränderungen im Atemsystem widerspiegelt und prinzipiell beide Signale als Triggerkriterium verwendet werden könnten, kommen in heutigen Ventilatoren aufgrund ihrer geringeren Artefaktneigung überwiegend Flowtriggersysteme zur Anwendung. In diesem Fall reagiert der Ventilator auf das vom Patienten erzeugte Flowsignal, und die Triggerschwelle ist in l/min einstellbar.
25.4.2 Umschaltverhalten
Das Umschaltverhalten des Beatmungsgerätes von In- auf Exspiration bzw. umgekehrt wird entscheidend durch die Steuerung des Langzeitbeatmungsgerätes geprägt. Es sind diesbezüglich vier verschiedene Steuerungsarten zu unterscheiden: ▬ Zeitsteuerung (vereinzelt auch als Zeit-Zeit-Steuerung bezeichnet): Die Dauer der In- und Exspirationsphase und damit auch der Zeitpunkt des Umschaltens wird durch vom Anwender einstellbare Zeitparameter bestimmt. Kontrollierte Beatmungsverfahren werden häufig durch diesen Steuerungstyp verwirklicht, da es so möglich ist, den Patienten mit einem definierten Atemzeitverhältnis (Inspirations- zu Exspirationszeit) zu beatmen. ▬ Drucksteuerung: Bei der Drucksteuerung erfolgt die Umschaltung von In- auf Exspiration bei Erreichen eines bestimmten Beatmungsdruckes. Die Inspiration kann nach Ablauf einer Zeitphase (Druck-Zeit-Steuerung) oder aber durch eine Patientenaktivität und Erreichen des Triggerkriteriums ausgelöst werden. Die Drucksteuerung wird heute lediglich bei unzuläs-
sig hohen Druckanstiegen in Verbindung mit einem akustischen Alarm als Sicherheitselement verwendet. ▬ Volumensteuerung: Die Umschaltung von In- auf Exspiration erfolgt hier nach Ablieferung eines vom Anwender zu definierenden Beatmungsvolumens (Atemzugvolumen, Tidalvolumen). Wie bei der Drucksteuerung kann die nächste Inspiration nach Ablauf einer Zeitphase (Volumen-Zeit-Steuerung) oder aber durch eine Patientenaktivität ausgelöst werden. Die Volumensteuerung ist vereinzelt in unterstützenden, in amerikanisch geprägten Märkten jedoch auch in kontrollierten Beatmungsmodi, anzutreffen. ▬ Flowsteuerung: Diese Steuerung wird primär für unterstützende Beatmungsverfahren eingesetzt und leitet bei Unterschreiten eines definierten Flowwertes (z. B. 25% des inspiratorischen Spitzenflows) die Exspirationsphase ein. Der Inspirationsbeginn wird im Falle der Flowsteuerung meist durch die Spontanatmung des Patienten und Auslösung des Triggers bestimmt.
25.5
Beatmungsverfahren
Prinzipiell gilt, dass Beatmungsgeräte trotz einer nahezu unüberschaubaren Anzahl von Beatmungsmodi lediglich zwei verschiedenen Verhaltensmustern folgen können. Hierbei handelt es sich einerseits um kontrollierte, andererseits um unterstützende Beatmungsverfahren. Der wesentliche Unterschied zwischen diesen Verfahren ist, dass das Verhalten des Beatmungsgerätes in der kontrollierten (mandatorischen) Beatmung durch die vom Anwender eingestellten Beatmungsparameter definiert wird. Hingegen folgt das Beatmungsgerät bei der unterstützten Beatmung den Atemaktvitäten des Patienten und unterstützt diese lediglich durch Anhebung des Drucks im Atemsystem. Abwandlungen dieser zwei Beatmungsverfahren sind die reine Spontanatmung, bei der kein Unterstützungsdruck angewandt wird und die so genannte MischVentilation, bei der mandatorische und unterstützende Abschnitte alternieren. ⊡ Abb. 25.5 gibt einen Überblick über die verschiedenen Formen der Atmung/Beatmung und verdeutlicht die medizinische Notwendigkeit einer individuellen Beatmungstherapie.
25.5.1 Kontrollierte Beatmung
(vollständige Atemsubstitution) Die dieser Kategorie zugehörigen Beatmungsmodi werden dadurch charakterisiert, dass die Patienten nicht spontan atmen und das Beatmungsgerät die gesamte Atemarbeit übernimmt. Die verschiedenen Modi lassen sich in volumenkontrollierte Modi und druckkontrollierte Modi unterteilen. Volumenkontrollierte Modi sind dadurch gekennzeichnet, dass der Patient durch ein vom
25
430
Kapitel 25 · Langzeitbeatmungsgeräte für die Intensivtherapie
III
⊡ Abb. 25.5. Formen der Atmung/Beatmung (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
Anwender definiertes Atemvolumen beatmet wird. Es resultiert bei der volumenkontrollierten Beatmung ein Beatmungsdruck, der Rückschlüsse auf die Lungendehnbarkeit (Compliance) und Atemwegswiderstände (Resistance) zulässt. Im Gegensatz hierzu gibt der Anwender bei den druckkontrollierten Modi einen inspiratorischen Beatmungsdruck vor. Im Umkehrschluss ermöglicht bei diesen Modi nicht der Beatmungsdruck, sondern das Atemvolumen Erkenntnisse bezüglich des Zustandes der Patientenlunge. Die Benennung der Beatmungsmodi ist teilweise herstellerspezifisch und variiert im internationalen Sprachgebrauch. Zur Vermeidung von Verwechselungen haben Hersteller spezielle Bedienphilosophien eingeführt oder die Modebezeichnung mit einem eindeutigen Präfix ergänzt: ▬ VC = volumenkontrollierte Beatmung ▬ PC = druckkontrollierte Beatmung ▬ SPN = Spontanatmung
Volumenkontrollierte Beatmungsmodi VC-CMV = Volume Control-Continuous Mandatory Ventilation IPPV = Intermittent Positive Pressure Ventilation
Dieser Modus ist z. B. für lungengesunde Patienten ohne Spontanatmung geeignet. Achtung: In diesem Modus
reagiert das Gerät nicht auf evtl. Spontanatemaktivitäten des Patienten. Zeitlicher Verlauf von In- und Exspiration: Mit Beginn der Inspiration schließt der Ventilator das Exspirationsventil und liefert den am »Flow«-Einsteller gewählten (konstanten) Inspirationsflow. Es kommt somit im Atemsystem und in der Lunge zum Druckanstieg. Wird der Inspirationsflow so groß gewählt, dass das eingestellte Atemvolumen »VT« vor Ablauf der Inspirationszeit »Tinsp« erreicht wird, schließt das Inspirationsventil und die Atemgaslieferung stoppt. Aufgrund eines Druckausgleichs zwischen dem Atemsystem und der Patientenlunge sinkt der Beatmungsdruck vom Spitzendruck PPeak auf den Plateaudruckwert PPlat ab. Das Exspirationsventil bleibt geschlossen bis die Inspirationszeit »Tinsp« abgelaufen ist. Diese inspiratorische Pause (Insp. Pause) ist in der Druckkurve als Plateaudruckphase PPlat zu erkennen. Mit Ablauf der Inspirationszeit »Tinsp« öffnet das Exspirationsventil. Der Druck im Atemsystem fällt damit auf das vom Exspirationsventil erzeugte PEEP-Druckniveau ab. Das Ausatemgas verlässt die Lunge und wird über den Exspirationszweig des Beatmungsgerätes der Atmosphäre zugeführt. Nach Ablauf der Exspirationsphase, deren Länge durch die Einstellung des Frequenzreglers »f« bestimmt wird, folgt die nächste Inspiration. Zur Vermeidung von Druckspitzen kann der inspiratorische Arbeitsdruck des Be-
431 25.5 · Beatmungsverfahren
⊡ Abb. 25.6. VC-CMV = Volume ControlContinuous Mandatory Ventilation (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
atmungsgerätes über den Regler »Pmax« ggf. begrenzt werden. Die Druckbegrenzung steht, sofern am Gerät vorhanden, in allen volumenkontrollierten Beatmungsmodi zur Verfügung. Der in diesem Zusammenhang verwendete Begriff »PLV« (Pressure Limited Ventilation) sagt damit nichts über den aktuell wirksamen Beatmungsmodus aus. Die in der Grafik verwendete Abkürzung PAW steht für den englischen Begriff »Airway Pressure« (⊡ Abb. 25.6). Der Anwender sollte sich vergegenwärtigen, dass es in diesem Beatmungsmodus beim plötzlichen Einsetzen der Spontanatmung zu schweren Dissynchronien zwischen Patient und Beatmungsgerät kommen kann. Der Patient kämpft in so einem Fall mit seiner Spontanatmung regelrecht gegen das mandatorische Beatmungsmuster an. Die Aktivierung der Triggerfunktion (VC-AC = Volume Control-Assist Control bzw. IPPVAssist) kann dieses Defizit zwar bedingt ausgleichen, jedoch wird das Gerät in dieser Betriebsart jede Einatemanstrengung des Patienten durch Abgabe des eingestellten Beatmungshubes beantworten. Das Ansteigen der Atemfrequenz und des Atemminutenvolumens führen dann zwangsläufig zum Absinken der arteriellen Kohlendioxidkonzentration. Der Atemantrieb wird so gemindert und führt ggf. zum Atemstillstand (Apnoe). Die volumenkontrollierte VC-CMV bzw. IPPV-Beatmung verliert zunehmend an Bedeutung, da der Beatmungsmodus VC-SIMV (MischVentilation) eine identische Beatmung ermöglicht, darüber hinaus jedoch zusätzlich über die Merkmale eines Entwöhnungsmodes verfügt ( Abschn. 25.5.5 »MischVentilation«).
ILV – Independent Lung Ventilation Bei der ILV-Beatmung handelt es sich um die seitengetrennte Beatmung der Lunge über einen speziellen Doppellumentubus, dessen Anschlüsse jeweils mit einem eigenständigen Beatmungsgerät verbunden werden. Um die Aktionen beider Geräte zeitlich zu synchronisieren, können z. B. die Beatmungsgeräte vom Typ »Evita« über ein spezielles Verbindungskabel elektrisch miteinander gekoppelt werden. Ein Beatmungsgerät übernimmt dann die Funktion des »Masters«, der den Beatmungsrhythmus bestimmt. Entsprechend der gewählten Voreinstellung erfolgt die Beatmung durch das zweite, auch als »Slave« bezeichnete, Beatmungsgerät parallel, zeitlich versetzt oder invers zu den Aktionen des Masters. ILV steht nur als volumenkontrollierte Beatmung zur Verfügung.
25.5.2 Druckkontrollierte Beatmung PC-CMV = Pressure Control-Continuous Mandatory Ventilation PC-BIPAP14 = Pressure Control-Biphasic Positive Airway Pressure
In der klassischen druckkontrollierten Beatmung erfolgt die Ventilation des Patienten durch die vom Anwender gewählten Druckwechselintervalle. Die druckkontrollierte Beatmung dominiert die neonatologische Intensivstation und nimmt bei der Behandlung von Erwachsenen mit Lungenschädigungen einen wichtigen Stellenwert ein, ist 14
Lizensierte Marke
25
432
Kapitel 25 · Langzeitbeatmungsgeräte für die Intensivtherapie
III ⊡ Abb. 25.7. PC-BIPAP = Pressure ControlBiphasic Positive Airway Pressure (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
diesen jedoch nicht ausschließlich vorbehalten. Bezüglich der Spontanatemeigenschaften bestehen zwischen der klassischen druckkontrollierten Beatmung (PCV - Pressure Controlled Ventilation) und PC-BIPAP / PC-CMV gravierende Unterschiede. Während Patientenaktivitäten in PCV ungewollte Druckanstiege erzeugen können und zu entsprechenden Alarmen führen, hat der Patient in den Beatmungsmodi PC-BIPAP und PC-CMV die Freiheit, jederzeit nach Belieben ein- oder auszuatmen (Einzelheiten hierzu Abschn. »Druckkontrollierte MischVentilation«) (⊡ Abb. 25.7). Zeitlicher Verlauf von In- und Exspiration: Mit Beginn der Inspiration schließt der Ventilator das Exspirationsventil und liefert einen Initialflow, durch den es im Atemsystem zum Druckanstieg kommt. Obgleich der vom Anwender vorgegebene Inspirationsdruck »Pinsp« im Atemsystem sehr schnell aufgebaut wird, bedarf es, bedingt durch den Tubuswiderstand und die Ausdehnung der Lunge, einer deutlich längeren Zeit, bis der im Atemsystem herrschende Druck in der Lunge aufgebaut werden kann. Die sich in dieser Phase kontinuierlich verringernde Druckdifferenz zwischen dem Druck im Atemsystem und dem Druck in der Lunge spiegelt sich in einer dezelerierenden Gasflowlieferung wider. Sobald es zum vollständigen Druckausgleich gekommen ist, wird das Beatmungsgerät die Gasflowlieferung einstellen. Mit Ablauf der Inspirationszeit »Tinsp« öffnet das Exspirationsventil. Der Druck im Atemsystem fällt damit auf das vom Exspirationsventil erzeugte PEEP-Druckniveau ab. Das Ausatemgas verlässt die Lunge und wird über den Exspirationszweig des Beatmungsgerätes der Atmosphäre zugeführt. Nach Ablauf der Exspirationsphase, deren Länge durch die Einstellung des Frequenzreglers »f« bestimmt wird, folgt die nächste Inspiration. Die Zeit, in der das Beatmungsgerät den Druckwechsel vom PEEPDruck auf das Inspirationsdruckniveau vollzieht, kann durch den Regler »Rampe« (Anstiegsgeschwindigkeit) angepasst werden.
Auch in der druckkontrollierten Beatmung besteht die Möglichkeit, den Druckwechsel durch den Patienten triggern zu lassen. Der Mode PC-CMV wird so zu PC-AC (Pressure Control-Assist Control). Im Ergebnis führt dieses dazu, dass das Beatmungsgerät auf jede Einatembemühung des Patienten mit einer mandatorischen Inspirationsphase reagiert. Der Mode PC-AC wird an manchen Geräten BIPAPAssist genannt, verhält sich jedoch wie zuvor beschrieben.
25.5.3 Unterstützte Spontanatmung
Prinzipiell haben die dieser Gruppe angehörenden Modi verschiedene Gemeinsamkeiten. Hierzu zählt z. B., dass in der unterstützten Spontanatmung allein der Patient über den Inspirationsbeginn und die Inspirationsdauer entscheidet. Darüber hinaus beantwortet das Beatmungsgerät in allen an dieser Stelle beschriebenen Modi eine spontane Atemanstrengung des Patienten durch die Erzeugung eines positiven Druckes im Atemsystem. Die unterstützte Spontanatmung wird aus diesem Grund oft auch »druckunterstützte Spontanatmung« genannt. Im internationalen Sprachgebrauch haben sich die Abkürzungen ASB (Assisted Spontaneous Breathing) und PS (Pressure Support) zwar unterschiedlich durchgesetzt, i. d. R. sind den Anwendern jedoch beide Bezeichnungen geläufig. Die unterstützte Spontanatmung ist für Patienten mit geschwächter Atemmuskulatur und intakter Atemsteuerung geeignet.
Konventionelle Druckunterstützung PS bzw. Psupp = Pressure Support ASB = Assisted Spontaneous Breathing
Zeitlicher Verlauf von Inspiration und Exspiration: Sobald durch eine Einatemanstrengung der Trigger des Beatmungsgerätes ausgelöst wird, liefert das Beatmungsge-
433 25.5 · Beatmungsverfahren
⊡ Abb. 25.8. PS = Pressure Support (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
rät einen Gasflow und erzeugt den am Einsteller »Psupp« (PS) definierten Inspirationsdruck. Die Geschwindigkeit, mit der das Beatmungsgerät den inspiratorischen Zieldruck aufbaut, kann durch den Regler »Rampe« beeinflusst werden. Eine schnelle Anstiegszeit führt zu einem hohen Initialflow und reduziert die Atemarbeit des Patienten. Mit Erreichen des Unterstürzungsdruckes und nach Rückgang des inspiratorischen Gasflows auf einen definierten Wert (bei Beatmungsgeräten vom Typ »Evita« z. B. 25% des maximalen Inspirationsflows) erfolgt die Umschaltung auf Exspiration. Obgleich der Patient bei diesem Verfahren unabhängig von der Intensität seiner Atemanstrengung stets die gleiche Druckunterstützung erhält, können die spontan geatmeten Volumina entsprechend der Aktivität des Patienten variieren (⊡ Abb. 25.8).
Proportionale Druckunterstützung PPS = Proportional Pressure Support PAV = Proportional Assist Ventilation
Bei den Beatmungsmodi PPS und PAV handelt es sich um eine Weiterentwicklung der zuvor im Abschn. »Konventionelle Druckunterstützung« beschriebenen Druckunterstützung. Während das Beatmungsgerät in der konventionellen Druckunterstützung nach Auslösung des Triggers den Unterstützungsdruck selbst dann bereitstellt, wenn der Patient nicht mehr aktiv mitatmet,
unterstützt das Beatmungsgerät in PPS (PAV) den Patienten proportional zu der von ihm geleisteten Atemarbeit. Hieraus resultiert auch die dem natürlichen Verlauf der Spontanatmung folgende auffällige Variabilität der Atemzugvolumina. Grundidee und Ziel der proportionalen Druckunterstützung ist es, dem Patienten exakt den Teil der Atemarbeit abzunehmen, den er selbst nicht zu leisten im Stande ist. Da die zu erbringende Atemarbeit durch die Atemwegswiderstände und die elastischen Rückstellkräfte der Lunge bestimmt wird, kann PPS durch zwei verschiedene Einstellparameter (»Vol. Assist« und »FlowAssist«) individuell an das jeweilige Krankheitsbild des Patienten angepasst werden. Die Differenzierung ist erforderlich, da ein Patient mit erhöhten Atemwegswiderständen mit einer grundsätzlich anderen Problematik als ein Patient mit einer pathologisch veränderten Elastizität zu kämpfen hat. Während es im ersten Fall zu einer Behinderung des Gasflows kommt, wird die Spontanatmung im zweiten Fall nur unzulängliche Volumina bewegen. Den Reglern ist daher ein unterschiedliches Druckverlaufsprofil zugeordnet. Die Unterstützung erfolgt bei erhöhter resistiver Atemarbeit mittels einer flowproportionalen Druckcharakteristik (»FlowAssist«). Wird das Krankheitsbild dagegen durch eine ausgeprägte elastische Atemarbeit geprägt, folgt der Druckverlauf proportional dem Atemvolumen (»Vol. Assist«). Zum besseren Verständnis wurden die unterschiedlichen Druckverlaufsprofile in der unteren Hälfte der ⊡ Abb. 25.9 separat dargestellt. Die für den Patienten tatsächlich wirksame Druckunterstützung resultiert aus der Überlagerung beider Kurvenfunktionen. Eine zu großzügig bemessene Unterstützung kann aufgrund der verstärkenden Eigenschaften des Systems dazu führen, dass der Patient mehr Volumen als beabsichtigt erhält (sog. »Runaway«). Der Druck- und Tidalvolumenalarmgrenze kommen aus diesem Grund hier besondere Bedeutung zu.
Weitere unterstützende Verfahren Variable PS = Variable Druckunterstützung
Beobachtet man die eigene Spontanatmung wird man feststellen, dass die Atemvolumina innerhalb einer gewissen Bandbreite variieren. Die variable Druckunterstützung steht im Beatmungsmode SPN-CPAP zur Verfügung und verfolgt das Ziel, diesen physiologischen Verlauf der Atmung nachzubilden. Hierzu verändert die variable Druckunterstützung von Atemzug zu Atemzug das Niveau des Unterstützungsdruckes. Die angestrebten Druckschwankungen werden durch die Einstellung der Druckunterstützung sowie des Reglers »Druckvarianz« (von 0 bis 100%) bestimmt (⊡ Abb. 25.10). Erste klinische Erkenntnisse deuten darauf hin, dass dieses Verfahren sich vorteilhaft auf die Oxygenierung auswirken kann.
25
434
Kapitel 25 · Langzeitbeatmungsgeräte für die Intensivtherapie
III
⊡ Abb. 25.9. SPN-PPS = Spontaneous-Proportional Pressure Support (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
⊡ Abb. 25.10. Variable Pressure Support (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
435 25.5 · Beatmungsverfahren
VS = Volume Support
Auch die Funktion »Volumenunterstützung« variiert die Höhe der Druckunterstützung, hier allerdings mit einer anderen Zielsetzung und unter anderen Rahmenbedingungen. Die Aktivierung der Volumenunterstützung gewährleistet, dass der Patient in jedem Fall das vom Anwender gewählte Tidalvolumen erhält. Dieses Volumen wird selbst dann appliziert, wenn die Compliance des Patienten sich verändert hat oder der Patient nur noch geringfügige Einatemanstrengungen unternimmt.
25.5.4 Spontanatmung
(keine Atemunterstützung) SPN-CPAP = Spontaneous-Continuous Positive Airway Pressure SB = Spontaneous Breathing
In dieser Rubrik erhält der Patient weder eine Druckunterstützung, noch mandatorische Beatmungshübe. Genau genommen handelt es sich somit bei den dieser Gruppe zugeordneten Modi nicht um Beatmungs-, sondern um Spontanatemmodi. Der Anwender kann im Mode SPNCPAP über den »PEEP«-Regler ein kontinuierliches positives Druckniveau erzeugen, auf dem der Patient spontan atmet. Fällt der Druck im Atemsystem durch eine Einatmung etwas ab, wird sofort Gas nachgeliefert, um jederzeit ein konstantes Druckniveau aufrecht zu erhalten. Das Verfahren setzt voraus, dass Spontanatmung und Atemantrieb des Patienten hinreichend stabil sind und der Patient selbst die Verantwortung für die
Atemfrequenz und das Atemvolumen tragen kann. Die Aufgabe des Beatmungsgerätes beschränkt sich auf die Bereitstellung des benötigten Atemgases, die Erzeugung des PEEP-Druckes und die Überwachung der Spontanatemaktivitäten des Patienten. Die Spontanatmung an einem Beatmungsgerät ist immer dann sinnvoll, wenn der Gesundheitszustand des Patienten die engmaschige Überwachung der Atemaktivitäten erfordert. Gleichzeitig besteht so die Möglichkeit, ▬ dem Kollabieren einzelner Alveolarbezirke entgegenzuwirken, ▬ die Gasaustauschfläche der Lunge durch einen positiven Atemwegsdruck zu vergrößern und ▬ den Patienten mit einer erhöhten Sauerstoffkonzentration zu versorgen. Um dem Patienten die Atmung zu erleichtern, kann der SPN-CPAP-Mode mit einer Druckunterstützung kombiniert werden. Aus dem reinen Spontanatemmode wird so eine unterstützende Spontanatmung. ⊡ Abb. 25.11 zeigt die Spontanatmung in Kombination mit einer Druckunterstützung.
25.5.5 Misch-Ventilation (partielle Atem-
unterstützung in Kombination mit kontrollierten Beatmungsphasen) Beatmungsgeräte sind, wie bereits dargestellt, durch verschiedene Beatmungsmodi individuell an die jeweilige Situation des Patienten adaptierbar. Bildlich gesprochen bilden die verschiedenen Beatmungsmodi jedoch auch
⊡ Abb. 25.11. SPN-CPAP/PS = Spontaneous-Continuous Positive Airway Pressure/Pressure Support (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
25
436
III
Kapitel 25 · Langzeitbeatmungsgeräte für die Intensivtherapie
den Weg, über den der Patient von der kontrollierten Beatmung an die Spontanatmung herangeführt wird. Im Interesse des Patienten und unter Berücksichtigung wirtschaftlicher Gesichtspunkte ist dieser Entwöhnungsprozess (auch »Weaning« genannt) frühest möglich einzuleiten und, dem Leistungsvermögen des Patienten entsprechend, zügig zu durchschreiten. Die der MischVentilation angehörenden Beatmungsmodi (z. B. VCSIMV, PC-BIPAP etc.) setzen sich aus den Elementen der kontrollierten Beatmung und der unterstützenden Spontanatmung zusammen. Die mandatorischen Abschnitte erfolgen, wie bereits aus der kontrollierten Ventilation bekannt, druck- oder volumenkontrolliert und gewährleisten eine gewisse Mindestventilation. Ausgehend von der Art der kontrollierten Beatmung (volumen- oder druckkontrolliert) wird der Anwender seine Entwöhnungsstrategie analog gestalten und den vom Beatmungsgerät geleisteten Anteil der Atemarbeit schrittweise reduzieren. In der Praxis erfolgt diese Reduktion durch die Verringerung der mandatorischen Frequenz, oder alternativ durch Absenkung des Inspirationsdruckes. Die Beatmungsmodi dieser Kategorie sind besonders für Patienten geeignet, die über keinen stabilen Atemantrieb und eine geschwächte Atemmuskulatur verfügen. Auch bei diesen Modi hat der Anwender ein besonderes Augenmerk darauf zu legen, dass die Einstellung des Ventilators der Leistungsfähigkeit des Patienten entspricht.
Volumenkontrollierte Misch-Ventilation (mit bzw. ohne Druckunterstützung) VC-SIMV = Volume Control-Synchronized Intermittent Mandatory Ventilation
Unabhängig von eventuellen Spontanatemaktivitäten des Patienten gewährleistet der Modus VC-SIMV eine definierte, konstante, mandatorische, volumenkontrollierte Ventilation. VC-SIMV kann somit den Modus VC-CMV ersetzen und bereits in der Phase der kontrollierten Ventilation angewendet werden. Darüber hinaus hat das Beatmungsgerät in VC-SIMV den Auftrag, die mandatorische
⊡ Abb. 25.12. VC-SIMV = Volume ControlSynchronized Intermittent Mandatory Ventilation (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
Beatmung für den Patienten so angenehm wie möglich zu gestalten. Unter Einhaltung der Anzahl der Beatmungshübe pro Minute hat das Beatmungsgerät aus diesem Grund in VC-SIMV die Freiheit, den Abstand zwischen den mandatorischen Beatmungshüben zu variieren. Das mandatorische Minutenvolumen MV ergibt sich, wie in VC-CMV, aus dem Produkt der Frequenz f und dem eingestellten Tidalvolumen VT. Mit Einsetzen der Spontanatmung erhält der Patient zusätzliches Atemgas, sodass sich das Gesamtminutenvolumen dann aus mandatorischem und spontanem Minutenvolumen zusammensetzt. Zeitlicher Verlauf mandatorischer und unterstützter Phasen (⊡ Abb. 25.12): In VC-SIMV ist dem mandatorischen Beatmungshub ein so genanntes Triggerfenster vorgeschaltet. Atmet der Patient in dieser Phase ein, wird das Beatmungsgerät den wenig später ohnehin fälligen Beatmungshub bereits zu diesem Zeitpunkt abgeben. Die Zeitdifferenz zwischen der regulär vorgegebenen Zykluszeit (IMV-Zeit) und dem tatsächlichen Auslösezeitpunkt wird der nächsten Spontanatemphase hinzugerechnet, um die vom Anwender festgelegte Anzahl der Beatmungshübe pro Minute nicht ansteigen zu lassen. Zwischen dem Ende einer mandatorischen Phase und der erneuten Aktivierung des Triggerfensters unterstützt die Druckunterstützung des Beatmungsgeräte die Spontanatmung. Es erfolgt somit ein serieller Wechsel zwischen mandatorischen Abschnitten, in denen das Beatmungsgerät über das Beatmungsmuster entscheidet, und unterstützenden Phasen, in denen der Patient maximale Freiheit genießt. Obgleich dieses Verhalten prinzipiell nicht zu beanstanden ist, kommt es in der klinischen Praxis leider immer wieder zu Überlagerungen mandatorischer und spontaner Aktivitäten. Diese verursachen dann, da das Beatmungsgerät in der mandatorischen Phase nicht auf die Wünsche des Patienten reagiert, einerseits unangenehme Dissynchronien und bescheren dem Personal meist zusätzliche Alarme. Eine derartige Situation ist daher sowohl für den Patienten als auch für das Personal gleichermaßen belastend und sollte, auch im Hinblick auf die Entwöhnungsdauer, unter allen Umständen vermie-
437 25.5 · Beatmungsverfahren
den werden. Abhilfe schaffen in diesem Zusammenhang Beatmungsmodi (z. B. PC-BIPAP) oder zusätzliche Funktionen (z. B. AutoFlow), die die Spontanatmung auch während der mandatorischen Phase tolerieren. VC-MMV = Volume Control-Mandatory Minute Volume
Der Beatmungsmode VC-MMV (⊡ Abb. 25.13) verhält sich, sofern der Patient nicht spontan atmet, wie ein volumenkontrollierter Beatmungsmode und ist unter diesen Bedingungen augenscheinlich nicht von dem zuvor beschriebenen VC-SIMV-Mode zu unterscheiden. Einziger und entscheidender Unterschied zwischen den beiden Modi ist, dass der mandatorische Anteil der Ventilation in VC-MMV in Abhängigkeit der Spontanatemaktivitäten variieren kann. Atmet der Patient selbstständig ein ausreichend großes Volumen, wird der kontrollierte Beatmungshub nicht abgegeben. Auf diese Weise bietet VC-MMV dem Patienten die »grenzenlose« Freiheit von der reinen kontrollierten Beatmung bis zur totalen Spontanatmung. Der Modus hat sich z. B. im Rahmen der postoperativen Beatmung bewährt, ersetzt jedoch nicht das gezielte Atemtraining des Patienten. Wie in anderen volumenkontrollierten Beatmungsmodi, kann es auch in VC-MMV zu unangenehmen Überlagerungen von spontanen und mandatorischen Phasen kommen. Eine bessere Akzeptanz dieser Interferenzen lässt sich, sofern vorhanden, wie in VC-SIMV durch Zuschaltung einer erweiterten Funktionalität (z. B. AutoFlow) erreichen. Zeitlicher Ablauf mandatorischer und unterstützter Phasen: Das mandatorische Minutenvolumen wird durch die Einstellung der Frequenz f und dem Tidalvolumenregler VT bestimmt. Die kontrollierte Beatmung erfolgt nach dem bereits bekannten Muster. Mit Einsetzen der Spontanatmung berechnet und prognostiziert das Beatmungsgerät kontinuierlich, welches Spontanatemvolumen der Patient in einer Minute erreichen wird. Ergibt die Kalkulation ein positives Saldo (der Patient atmet spontan mehr, als das Gerät mandatorisch liefern würde) wird das Beatmungsgerät die mandatorische Beatmung automatisch einstellen. Resultiert ein negatives Ergebnis, liefert das Beatmungsgerät eine entsprechende Anzahl synchronisierter mandatorischer Atemhübe, um das vom Anwender vorgegebene Minutenvolumen zu erreichen. Im Falle einer Apnoe erfolgt die Beatmung entsprechend
der vorgegebenen Einstellparameter. Die Spontanatmung selbst kann durch Anwendung einer Druckunterstützung gefördert werden. Darüber hinaus ist zur Erkennung einer beschleunigten Atmung (Tachypnoe) die adäquate Anpassung der Spontanatemfrequenz-Alarmgrenze fspn in VC-MMV von besonderer Bedeutung.
Druckkontrollierte Misch-Ventilation (mit bzw. ohne Druckunterstützung) PC-BIPAP = Pressure Control-Biphasic Positive Airway Pressure
PC-BIPAP ist für Patienten mit Lungenfunktionsstörungen genauso wie für lungengesunde Patienten anwendbar. Der PC-BIPAP-Beatmungsmodus lässt sich als zeitgesteuerte und druckkontrollierte Beatmung beschreiben, bei der der Patient zu jeder beliebigen Zeit ein- oder ausatmen kann. PC-BIPAP wird daher auch oft mit dem zeitgesteuerten Wechsel zwischen zwei verschiedenen SPN-CPAP-Niveaus verglichen. Die Mischung mandatorischer und spontaner Aktivitäten erfolgt somit nicht im zeitlichen Wechsel wie in VC-SIMV, sondern simultan. Dieses auch als »freie Durchatembarkeit« bezeichnete Geräteverhalten steigert den Patientenkomfort erheblich und gestattet den fließenden Übergang von kontrollierter Beatmung bis hin zur vollständigen Spontanatmung. Technische Grundlage des Modes ist das dynamische Zusammenspiel der inspiratorischen Gasdosiereinrichtung und einem geregelten Exspirationsventil. Hierbei übernimmt die Gasdosierung im Falle eines Druckeinbruchs die Lieferung des zusätzlich benötigten Gasflows. Ein plötzlicher Druckanstieg hingegen (z. B. durch einen Hustenstoß des Patienten) wird durch ein kontrolliert-begrenztes Öffnen des Exspirationsventils ausgeglichen. Für Patient und Anwender hat diese spezielle Form der druckkontrollierten Beatmung verschiedene Vorteile: ▬ das Beatmungsgerät reagiert jederzeit auf die Wünsche des Patienten; er muss also nicht gegen geschlossene Ventile ankämpfen; die Beatmung ist damit stressfreier für den Patienten ▬ die harmonisierte Interaktion zwischen Gerät und Patient ermöglicht eine flachere Sedierung des Patienten; die Reduktion der Medikation führt zu Kos-
⊡ Abb. 25.13. VC-MMV = Volume ControlMandatory Minute Volume (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
25
438
Kapitel 25 · Langzeitbeatmungsgeräte für die Intensivtherapie
teneinsparungen und steigert den Atemantrieb des Patienten ein ansprechbarer Patient kann aktiviert und motiviert werden; beides kann den Gesundungsprozess positiv beeinflussen durch Kommunikation mit dem Patienten kann die Schmerzmedikation oder auch die Einstellung des Beatmungsgerätes optimiert werden die Spontanatmung des Patienten ermöglicht die Reduktion der mandatorischen Ventilation und verbessert die pulmonale Gasdistribution und den Gasaustausch die durch die Spontanatmung bedingte Verringerung der im Thorax (intrathorakal) herrschenden Druckkräfte führt zu einer kardialen Entlastung und wirkt sich positiv auf den venösen Rückfluss zum Herzen aus die frühzeitige Beteiligung des Patienten an der Atemarbeit kann die Beatmungsdauer verkürzen und verringert damit das Infektionsrisiko die »freie Durchatembarkeit« reduziert die Anzahl dissynchronisationsbedingter Alarme, die Beatmung ist damit nicht nur für den Patienten, sondern auch für das Personal stressfreier
und dem tatsächlichen Auslösezeitpunkt wird der nächsten Spontanatemphase hinzugerechnet. Die Verrechnung gewährleistet, dass die vom Anwender festgelegte Beatmungsfrequenz konstant bleibt. Zwischen dem Ende einer mandatorischen Phase und der erneuten Aktivierung des Triggerfensters unterstützt das Beatmungsgerät die Spontanatmung mittels der Druckunterstützung. Die vom Anwender mit dem Einsteller »Rampe« festgelegte Druckanstiegsgeschwindigkeit prägt sowohl den unterstützenden als auch den mandatorischen Druckanstieg. Der Patient erhält das Atemgas damit stets mit einer einheitlichen Flowcharakteristik, deren dezelerierenden Verlauf i. d. R. deutlich angenehmer als ein Konstantflow empfunden wird. PC-BIPAP verfügt als weitere Besonderheit über ein zusätzliches Triggerfenster, durch das der Druckwechsel vom Inspirationsdruck auf das PEEP-Niveau mit der Spontanatmung synchronisiert wird. Hierdurch ist es möglich, dass auch die Länge der Inspirationsdauer in gewissem Maße variieren kann. Wie für die Beatmungsfrequenz erfolgt auch in diesem Fall eine rechnerische Korrektur und ein entsprechender Ausgleich über die Anpassung der Inspirationsdauer in der nächsten mandatorischen Beatmungsphase (⊡ Abb. 25.14).
Diese Vorzüge stehen dem Anwender bei Verwendung der Funktion »AutoFlow« auch in der volumenkontrollierten Beatmung zur Verfügung (Näheres hierzu in Abschn. 25.6 »Beatmungszusätze und Sonderfunktionen«). Zeitlicher Verlauf mandatorischer und unterstützter Phasen in PC-BIPAP: Wie in VC-SIMV ist dem mandatorischen Beatmungshub ein Triggerfenster vorgeschaltet. Atmet der Patient in dieser Phase ein, wird das Beatmungsgerät den wenig später ohnehin fälligen Druckwechsel bereits zu diesem Zeitpunkt vollziehen. Die Zeitdifferenz zwischen der eingestellten Zykluszeit
PC-SIMV = Pressure Control-Synchronized Intermittent Mandatory Ventilation
▬ ▬
III
▬
▬
▬ ▬
⊡ Abb. 25.14. PC-BIPAP = Pressure Control-Biphasic Positive Airway Pressure mit Spontanatmung (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
Dieser Beatmungsmode verhält sich hinsichtlich des zeitlichen Wechsels mandatorischer und spontaner Ventilationsphasen wie die volumenkontrollierte VC-SIMV-Variante. Einziger Unterschied zum volumenkontrollierten VC-SIMV ist, dass die mandatorischen Beatmungshübe in diesem Fall druckkontrolliert erfolgen. Die unter PCBIPAP beschriebene »freie Durchatembarkeit« ist hier nicht obligatorisch oder steht herstellerbedingt nur eingeschränkt zur Verfügung.
439 25.6 · Beatmungszusätze und Sonderfunktionen
PC-APRV = Pressure Control-Airway Pressure Release Ventilation
Obgleich PC-APRV (⊡ Abb. 25.15) in seinen wesentlichen Charaktereigenschaften dem Beatmungsmode PC-BIPAP sehr ähnlich ist, handelt es sich um einen Mode, der auf einer gänzlich anderen Beatmungsphilosophie beruht. Im interessanten Kontrast zu allen übrigen Modi, in der die mandatorische Inspiration einen pulmonalen Druckanstieg erzeugt, erfolgt die Volumenverschiebung in PCAPRV durch eine kurze Druckentlastung. Diese so genannte »Release-Phase« ermöglicht eine extrem kurze und unvollständige Exspiration. Zum besseren Verständnis des Sachverhalts mag es hilfreich sein, sich einen Patienten vorzustellen, der auf einem erhöhten Druckniveau spontan atmet (SPN-CPAP). Kommt es im weiteren Verlauf zu einer Verschlechterung der Spontanatmung und damit verbunden zu einem arteriellen Kohlendioxidanstieg, ist es erforderlich, die Ventilation zu steigern. Bislang wurde hierzu der Druck im Atemsystem erhöht und damit Volumen in die Lunge befördert. PC-APRV hingegen nutzt den Umstand aus, dass die Patientenlunge durch den positiven Druck bereits gefüllt ist und erzwingt eine kurze Exspiration durch Reduktion des Drucks im Atemsystem. Die Druckentlastungsphase ist in PC-APRV sehr kurz, typisch sind z. B. 0,5 s. Da diese Zeit in der Erwachsenenbeatmung keine vollständige Exspiration ermöglicht, werden sich in der Release-Phase nur die schnell ent- und belüftbaren Compartments der Lunge entleeren. Bereiche, in die das Gas aufgrund erhöhter Atemwegswiderstände nur sehr langsam gelangt, werden von dem kurzen Druckwechsel kaum beeinflusst. Oftmals handelt es sich jedoch gerade bei diesen Lungenbezirken um Bereiche, die sich mittels der konventionellen Beatmung nur unzulänglich belüften lassen und/oder zum Kollabieren neigen. Durch die stabileren Druckverhältnisse in diesen kritischen Lungenabschnitten kann durch PC-APRV meist eine schonendere Ventilation und ein verbesserter Gasaustausch erreicht werden. Die PC-APRV-Einstellparameter weichen aufgrund der spezifischen Besonderheiten des Beatmungsmodes geringfügig von den sonst üblichen Bezeichnungen und Parametern ab. Um dem Anwender z. B. die Einstellung der kurzen Releasephasen zu erleichtern,
kann in PC-APRV an Stelle der Atemfrequenz die Exspirationszeit Ttief eingestellt werden. Entsprechend wird die Inspirationszeit als Thoch und der Inspirationsdruck als Phoch bezeichnet. Auch der Begriff »PEEP« würde hier ad absurdum geführt werden und wird daher durch die Bezeichnung Ptief ersetzt. Eine Druckunterstützung steht in PC-APRV nicht zur Verfügung, da sie im Widerspruch zu der eigentlichen Philosophie des Beatmungsmodus stehen würde. PC-APRV hat ansonsten die gleichen Spontanatemeigenschaften wie PC-BIPAP, d. h., der Patient kann zu jedem beliebigen Zeitpunkt ein- oder ausatmen. PC-APRV wurde in der Vergangenheit sehr erfolgreich bei Patienten mit schweren Gasaustauschstörungen eingesetzt und gewinnt, zumindest in diesem Anwendungsfall, an Bedeutung. Der Einsatz von PC-APRV bei lungengesunden Patienten ist grundsätzlich möglich, aufgrund der beschriebenen Abweichungen zu den physiologischen Atemgewohnheiten allerdings nur selten zu beobachten.
25.6
Beatmungszusätze und Sonderfunktionen
25.6.1 IRV – Inverse Ratio Ventilation
Im Normalfall ist die Inspirationsdauer kürzer als die Exspirationsphase. Bei Krankheitsbildern mit schweren Oxigenierungsstörungen ist es jedoch erforderlich, die Inspirationszeit zu Lasten der Exspirationszeit zu verlängern. Der Begriff »IRV« sagt lediglich aus, dass die Beatmung mit einem umgekehrten Atemzeitverhältnis erfolgt, die Inspirationszeit also länger als die Exspirationszeit ist. Die allein stehende Bezeichnung »IRV« lässt keine Rückschlüsse zu, ob die Beatmung volumen- oder druckkontrolliert erfolgt.
25.6.2 Seufzer
Die Beobachtung der eigenen Spontanatmung zeigt, dass die Atmung nicht ganz gleichmäßig erfolgt. Von Zeit zu Zeit erfolgt eine vertiefte Inspiration, wir seufzen. Die Seufzer-Funktion wurde in der Beatmung ursprünglich
⊡ Abb. 25.15. PC-APRV = Pressure Control-Airway Pressure Release Ventilation (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
25
440
III
Kapitel 25 · Langzeitbeatmungsgeräte für die Intensivtherapie
mit dem Ziel eingeführt, die für die Spontanatmung typischen Volumenschwankungen zu kopieren und so das monotone und unphysiologische Beatmungsmuster der kontrollierten Beatmung zu durchbrechen. Die Seufzerfunktion wird auch als intermittierender PEEP bezeichnet und durch eine temporäre Anhebung des PEEP-Drucks auf einen höheren Wert realisiert. Bei »Evita« erfolgt die Erhöhung des PEEP-Drucks z. B. alle drei Minuten für zwei Atemzyklen. Der Begriff »Seufzer« resultiert aus der vertieften Inspiration, deren Entladung ein auffälliges Strömungsgeräusch, ähnlich dem eines spontanen Seufzers, erzeugt. Hinsichtlich der ursprünglichen Idee konnte sich die Anwendung eines Seufzers nicht etablieren. Allerdings erlangt die Seufzer-Funktion als therapeutisches Mittel zur Wiedereröffnung kollabierter Lungenareale (Recruitment) aktuell einen neuen Stellenwert.
25.6.3 AutoFlow – optional verfügbar
an Dräger-Beatmungsgeräten Bei der Funktion AutoFlow handelt es sich um einen optionalen Zusatz, der in allen volumenkontrollierten Beatmungsmodi zur Verfügung steht (Ausnahme: ILV). Die Einstellung des Beatmungsmodus erfolgt mittels der für den jeweiligen Mode wirksamen Beatmungsparameter. Mit Aktivierung der AutoFlow-Funktion ersetzt das Beatmungsgerät den für die volumenkontrollierte Beatmung typischen Konstantflow durch den aus der druckkontrollierten Beatmung bekannten dezelerierenden Flowverlauf. Im Ergebnis werden so die Vorzüge der druckkontrollierten Beatmung mit den Stärken der volumenkontrollierten Ventilation kombiniert. Die modifizierte volumenkontrollierte Beatmung lässt sich damit wie folgt charakterisieren: ▬ AutoFlow gewährleistet, dass das vom Anwender eingestellte Tidalvolumen mit dem geringstmöglichen Beatmungsdruck appliziert wird. ▬ AutoFlow passt den Beatmungsdruck automatisch an Complianceveränderungen der Lunge an, damit entfällt die in der druckkontrollierten Beatmung erforderliche manuelle Korrektur des Inspirationsdruckes. ▬ AutoFlow toleriert zu jedem beliebigen Zeitpunkt Spontanatemaktivitäten des Patienten und bereichert die volumenkontrollierte Beatmung so um die unter PC-BIPAP aufgelisteten Vorzüge der »freien Durchatembarkeit«. ▬ AutoFlow eliminiert den für die volumenkontrollierte Beatmung typischen Spitzendruck, durch den es zur partiellen Überdehnung einzelner Lungenbezirke kommen kann. ▬ AutoFlow übernimmt die Einstellung der Regler »Flow« und »Pmax«. Die Reduktion der Parameter vereinfacht die Einstellung der volumenkontrollierten Beatmung.
Ablauf von In- und Exspiration und Regelverhalten: Der zeitliche Verlauf von In- und Exspiration bleibt durch die AutoFlow-Funktion unberührt und entspricht dem Verhalten des jeweiligen Beatmungsmodus. Nach Aktivierung von AutoFlow appliziert das Beatmungsgerät den nächsten mandatorischen Beatmungshub mit minimalem Konstantflow. Der am Ende dieser Inspiration gemessene Beatmungsdruck wird in der folgenden Inspirationsphase als Inspirationsdruck verwendet. Die Flowlieferung erfolgt dann mit dezelerierendem Flowprofil. Nach Umschaltung auf Exspiration vergleicht das Beatmungsgerät das applizierte Tidalvolumen mit der vom Anwender vorgegebenen Sollgröße. Differenzen werden durch geringfügige Anhebung oder Absenkung des Inspirationsdruckes der folgenden mandatorischen Phase ausgeglichen. Der Anpassungsmechanismus ist von Atemzug zu Atemzug auf eine Schwankungsbreite von ±3 mbar begrenzt. Die Erhöhung des Drucks wird eingestellt, sobald sich der Inspirationsdruck der oberen Atemwegsdruck-Alarmgrenze bis auf 5 mbar angenähert hat. Kann das eingestellte Tidalvolumen mit diesem Druck nicht mehr vollständig abgegeben werden, generiert das Gerät den Alarm »Volumen inkonstant«. Obwohl es durch Spontanatemaktivitäten zu Schwankungen des exspiratorischen Volumens kommen kann, wird im zeitlichen Mittel durch AutoFlow ein konstantes Atemzugvolumen appliziert. Die Anwendung von AutoFlow ist immer dann möglich und sinnvoll, sofern keine besonderen pulmonalen Restriktionen vorliegen und der Patient ohnehin volumenkontrolliert beatmet wird. Unabhängig von der aktuellen Beatmungssituation kommt der oberen Atemwegsdruck-Alarmgrenze aufgrund der zuvor beschriebenen Doppelfunktion besondere Bedeutung zu. Einen Screenshot der EvitaXL zeigt ⊡ Abb. 25.16. Von links nach rechts ist ein konventioneller, volumenkontrollierter Beatmungshub, der nach Aktivierung von AutoFlow applizierte Hub mit minimalem Konstantflow sowie der erste der dann folgenden AutoFlow Beatmungshübe zu erkennen. VG (Volume Guarantee) ist ein Beatmungszusatz in der druckkontrollierten Beatmung und mit der zuvor beschriebenen AutoFlow-Funktion vergleichbar. Herstellerbedingt stehen derartige Regelalgorithmen teilweise nur als separater Beatmungsmode zur Verfügung (z. B. PRVC = Pressure Regulated Volume Controlled).
25.6.4 ATC – automatische Tubuskompensation,
TC – Tubuskompensation Intubierten Patienten wird, bedingt durch die künstliche Einengung ihrer Atemwege, ein erhebliches Maß an Mehrarbeit zur Verrichtung ihrer Atemtätigkeit abverlangt. Die zusätzliche Atemarbeit (WOB: Work of Breathing) resultiert aus der über dem Tubus anfallen-
441 25.6 · Beatmungszusätze und Sonderfunktionen
⊡ Abb. 25.16. AutoFlow (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
den Druckdifferenz, die zusätzlich vom Atemmuskel aufgebracht werden muss. Wesentliche Einflussfaktoren sind hierbei der Tubustyp (Endotrachealtubus oder Trachealkanüle), der Tubusdurchmesser und der aktuell durch den Tubus strömende Gasflow. Die Bedeutung und den Einfluss des Gasflows kann man sich leicht vergegenwärtigen, indem man einfach einmal versucht, mit verschlossener Nase für mehrere Minuten durch einen etwas dickeren Strohhalm zu atmen. Man wird hierbei bemerken, dass die Erzeugung größerer Gasflows mit einer deutlich erhöhten Atemanstrengung verbunden ist. In der Konsequenz ist es naheliegend, dass die Unterstützung des Patienten in Relation zum Flow erfolgen sollte. Basierend auf dieser Idee steigert ATC den Druck im Atemsystem während der Inspiration um den zwischen Tubuskonnektor und Tubusspitze flowinduzierten Druckabfall. In der Exspiration erfolgt die Kompensation durch Absenkung des PEEP-Niveaus. Für den Patienten entsteht so der Eindruck, als sei er gar nicht intubiert. Allerdings kommt es aufgrund der dynamischen Druckanpassungen im Atemsystem zu deutlichen
Veränderungen in der Druck-Zeit-Kurve. Diese für den Anwender anfänglich gewöhnungsbedürftigen Kurvenverläufe spiegeln jedoch lediglich die Druckschwankungen vor dem Tubus wider und entsprechen somit nicht dem pulmonalen Druckverlauf. Genauere Informationen hinsichtlich des Drucks an der Tubusspitze liefern Geräte, die diesen Druck rechnerisch ermitteln und als separte Drucklinie darstellen. Die Tubuskompensation steht in allen Beatmungsmodi zur Verfügung und wird durch Eingabe der Tubusart, des Tubusdurchmessers und der gewünschten prozentualen Kompensation an die aktuelle Beatmungssituation angepasst. Da ATC dem Patienten die Atemarbeit erheblich erleichtert, sollte der Anwender vor Aktivierung der ATCFunktion die Druckunterstützung deutlich reduzieren oder ggf. vorübergehend abschalten. Die Tubuskompensation ist prinzipiell für alle intubierten Patienten geeignet, kann jedoch z. B. für Patienten mit obstruktiven Atemwegserkrankungen durch eine Konfigurationsänderung auf die Inspirationsphase beschränkt werden (⊡ Abb. 25.17).
25
442
Kapitel 25 · Langzeitbeatmungsgeräte für die Intensivtherapie
III ⊡ Abb. 25.17. ATC = Automatische Tubuskompensation (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
25.6.5 NIV-Maskenbeatmung – Non Invasive
Ventilation Zur Vermeidung einer Intubation oder auch als unterstützende Atemtherapie nach einer Extubation gewinnt die nicht-invasive Beatmungstherapie nicht zuletzt auch aufgrund des enormen Kostendrucks im Gesundheitswesen weiter an Bedeutung. Allerdings stellt die Maskenbeatmung Anwender, Patient und Beatmungsgerät gleichermaßen vor besondere Herausforderungen. Hierzu zählen z. B. die Verfügbarkeit und Akzeptanz geeigneter Gesichtsmasken, die Kommunikation und Kooperation zwischen dem Anwender und dem Patienten und nicht zuletzt auch spezielle technische Anforderungen an das Verhalten des Beatmungsgerätes, da es bei der Maskenbeatmung immer wieder zu Leckagen und Diskonnektionen kommt. Bedingt durch zahlreiche herstellerspezifische Besonderheiten sollen an dieser Stelle lediglich einige grundsätzliche Aspekte der Maskenbeatmung betrachtet werden. Allem voran ist es für die Qualität der Maskenbeatmung von entscheidender Bedeutung, inwieweit das Beatmungsgerät aufgrund von Leckagen an der Beatmungsmaske zum Selbsttriggern neigt. Die erforderliche Anpassung der Triggerempfindlichkeit erfolgt, je nach Beatmungsgerät, entweder automatisch oder muss manuell vom Anwender nachgeführt werden. Auch hinsichtlich des applizierten Volumens kann es bei der volumenkontrollierten Beatmung von Fall zu Fall zu gravierenden Unterschieden kommen. In diesem Zusammenhang ist auch darauf hinzuweisen, dass nicht alle Beatmungsgeräte die volumenkontrollierte Anwendung von NIV ermöglichen. Generell kommt bei einer derartigen Applikation einer leistungsstarken Leckagekompensation besondere Bedeutung zu. Die Leckagekompensation vergleicht kontinuierlich das eingestellte Tidalvolumen mit dem exspiratorisch gemessenen Volumen und erhöht, im Falle von Undichtigkeiten, die inspiratorische Gaslieferung. Last but not least bedarf es im Rahmen der nicht-invasiven Beatmung besonderer Anforderungen an das Monitoring und die Alarmgrenzen. Muss z. B. der Sitz der Maske korri-
giert werden, die Maske wird also kurzzeitig abgenommen und neu angesetzt, würde dies unter normalen Umständen sehr schnell zu einem Diskonnektalarm führen. Verhindern lässt sich ein derartiger Alarm durch eine einstellbare Alarm-Verzögerungszeit TDiskonnekt, die jedoch nur in der Betriebsart NIV zur Verfügung steht.
25.6.6 Apnoeventilation
Im Rahmen der Entwöhnung teilen sich Ventilator und Patient die Verantwortung für das totale Atemminutenvolumen. Kommt es in dieser Phase, z. B. durch Überforderung des Patienten, zu einer Apnoe, kann das verbleibende mandatorisch applizierte Volumen unter Umständen keine ausreichende Ventilation mehr gewährleisten. Zur Vermeidung einer Hypoventilation lässt sich aus diesem Grund der Apnoealarm in den Beatmungsmodi mit Spontanatembeteiligung mit einer so genannten Apnoeventilation kombinieren. In diesem Fall wird das Beatmungsgerät die definierte kontrollierte Beatmung des Patienten sicherstellen, bis der Anwender sich der aktuellen Patientensituation widmen kann. In der Erwachsenenbeatmung ist die Apnoeventilation i. d. R. als volumenkontrollierte Beatmung, in der Neonatologie hingegen als druckkontrollierte Beatmung realisiert.
25.7
Patientenüberwachung und Alarmgrenzen
Während zahlreiche Gerätefunktionen durch das Beatmungsgerät automatisch überwacht werden, müssen vom Anwender für verschiedene andere Messwerte manuell Alarmgrenzen eingestellt werden. Der Stellenwert der Patientenüberwachung wurde bereits am Beispiel der Apnoeventilation verdeutlicht. Dennoch werden Alarme seitens zahlreicher Anwender häufig als unangenehme Begleiterscheinung der Beatmung eingestuft. Ein positi-
443 25.8 · Entwöhnungsstrategie und SmartCare – verfügbar in SPN-CPAP/PS
veres Bild ergibt sich, wenn man die adäquate Einstellung der Alarmgrenzen mit einem um den Patienten herum aufgestellten »Schutzzaun« vergleicht. Solange der Patient seine Aktivitäten innerhalb der »umzäunten« Fläche ausübt, besteht weder Anlass zur Sorge noch Grund für einen Alarm. Sobald der Patient jedoch versucht, die für ihn geschaffene »Schutzzone« zu verlassen, meldet das Gerät diesen »Fluchtversuch« durch Generierung eines entsprechenden Alarms. Zwangsläufig drängt sich damit die Frage auf, welche Bedeutung der verschiedenen Alarmgrenzen beizumessen ist und wie diese eingestellt werden sollten. Grundsätzlich kann hierzu Folgendes gesagt werden: ▬ Es gibt keine unwichtigen Alarmgrenzen. Es gilt zu bedenken, dass die Situation des Patienten sich jederzeit ändern kann. Daher sollten auch Alarmgrenzen die aktuell nicht relevant erscheinen patientengerecht eingestellt werden. ▬ Die Alarmgrenzeneinstellung sollte sich stets an den jeweils aktuellen Messwerten und an dem Grundsatz »prinzipiell so weit wie möglich, aber immer so eng wie nötig« orientieren. - Nach Einstellung oder Veränderung eines Beatmungsmodus sind grundsätzlich im nächsten Schritt alle Alarmgrenzen zu prüfen und ggf. bedarfsgerecht anzupassen. Durch diese Vorgehensweise lassen sich vorhersehbare Alarme und unnötiger Stress vermeiden. ▬ Es gibt keine sinnlosen Alarme. Jedem Alarm liegt eine patientenseitige Veränderung, eine anwenderseitige Fehleinschätzung oder aber eine technische Störung zugrunde, mit der der Anwender sich umgehend auseinanderzusetzen hat. Mit der im Weaning praktizierten Rückverlagerung der Atemarbeit auf den Patienten verschiebt sich auch die Aufgabe der Überwachungs- und Alarmeinrichtung. Wurde während der kontrollierten Beatmung primär die Aktivität des Gerätes sowie dessen Wirkung auf den Patienten überwacht, übernimmt die Überwachungs- und Alarmeinrichtung in der Entwöhnungsphase zusätzlich die Aufgabe der Patientenüberwachung. Aufgrund physiologischer Schwankungen der Atemfrequenz und des Atemzugvolumens liegt es in der Natur der Sache, dass die Alarmgrenzen, bezogen auf den aktuellen Messwert, in der kontrollierten Beatmung deutlich enger als in der Misch-Ventilation oder der (unterstützenden) Spontanatmung gesetzt werden können.
25.8
Entwöhnungsstrategie und SmartCare – verfügbar in SPN-CPAP/PS
Die Beatmung und Entwöhnung eines Patienten kann hinsichtlich ihrer Gesamtdauer sehr stark variieren. Während ein postoperativer Patient vielleicht nur wenige Stunden nachbeatmet werden muss und im »Handum-
drehen« entwöhnt werden kann, kann sich dieser Prozess in anderen Fällen als extrem problematisch und langwierig erweisen. Gerade im zweiten Fall wird der Anwender sich intensiv mit der Situation und Leistungsfähigkeit des Patienten auseinandersetzen müssen, um den Patienten einerseits nicht zu überfordern, andererseits jedoch die Entwöhnungsphase nicht unnötig auszudehnen. Die Beurteilung des Patienten sowie die hieraus abgeleitete Anpassung der Beatmungsparameter hat aus diesem Grund hohe Priorität und sollte möglichst engmaschig erfolgen. In der klinischen Praxis ist diese Forderung nicht immer oder nur bedingt durch das ärztliche Personal zu realisieren. Des Weiteren basierte die Beurteilung des Patienten und die Anpassung des Beatmungsgerätes in der Vergangenheit allein aufgrund individueller Erfahrungswerte des verantwortlichen Arztes. Es war somit auch aufgrund der Vielzahl der zur Verfügung stehenden Beatmungsmodi nicht unbedingt in allen Fällen eine durchgängige Entwöhnungsstrategie erkennbar. Dennoch weisen verschiedene Indizien darauf hin, dass derartige Optimierungspotentiale vielfach bereits identifiziert wurden und eine positive Entwicklung der Situation zu erwarten ist. So stehen dem Anwender heute z. B. Beatmungsmodi zur Verfügung, die vom Beatmungsbeginn an die Spontanatmung zulassen. Da auch die Entwöhnung des Patienten im gleichen Beatmungsmodus möglich ist, entfällt damit der in der Vergangenheit erforderliche Wechsel des Beatmungsmodus. Ferner wurden im Rahmen von Qualitätssicherungsverfahren bspw. so genannte »Protokolle« oder auch »Guidelines« entwickelt, durch die die Entwöhnung schrittweise beschrieben und vorgegeben wird. Zahlreiche Anwender sind damit gehalten, die Entwöhnung über einen vorgegebenen Weg zu realisieren. Erforderliche Abweichungen werden dokumentiert und fließen im Rahmen eines kontinuierlichen Verbesserungsprozesses in die Weiterentwicklung dieser Protokolle mit ein. Dessen ungeachtet ist eine Entlastung des klinischen Personals allerdings kaum erkennbar, sodass die Zeitabstände zwischen den einzelnen Entwöhnungsschritten nach wie vor oftmals länger sind als es eigentlich erforderlich wäre. Ein sehr erfolgversprechender Ansatz in der Entwöhnungstherapie wird durch die optionale Funktion SmartCare verwirklicht. SmartCare dient der Entwöhnung intubierter oder tracheotomierter Patienten und steht dem Anwender ausschließlich in dem Beatmungsmodus SPN-CPAP/PS zur Verfügung. Bei diesem Verfahren handelt es sich um ein wissensbasiertes System, das den Entwöhnungsprozess auf Grundlage einer implementierten therapeutischen Strategie automatisiert. Anhand von verschiedenen im Entwöhnungsprotokoll festgelegten Grenzwerten, denen die aktuell gemessenen Werte der Atemfrequenz, des Tidalvolumens und der exspiratorischen Kohlendioxidkonzentration gegenüberstehen, kann SmartCare die Ventilationssituation selbstständig beurteilen und u. a. auch eine »normale« Ventila-
25
444
III
Kapitel 25 · Langzeitbeatmungsgeräte für die Intensivtherapie
tion (Normoventilation) erkennen. Die Interpretation der Messwerte erfolgt alle 2 bzw. 5 min und führt im Ergebnis zu einer Anhebung oder Absenkung der Druckunterstützung. Erreicht der Unterstützungsdruck ein vom Aufbau des Atemsystems abhängiges minimales Druckniveau, führt das System mit dem Patienten einen Spontanatemversuch durch. In dieser Phase beobachtet und bewertet das System die Aktivitäten und eventuelle Instabilitäten des Patienten. Eine Instabilität liegt vor, wenn der Patient nicht mehr normoventiliert wird und SmartCare aus diesem Grund eine Anhebung der Druckunterstützung vornimmt. Wird die Beobachtungsphase erfolgreich abgeschlossen, unterbreitet SmartCare den Vorschlag, den Patienten vom Beatmungsgerät zu trennen. Kann oder soll die Extubation erst zu einem späteren Zeitpunkt erfolgen, wird SmartCare weiterhin auf Veränderungen der 3 Eingangsgrößen reagieren und die Druckunterstützung ggf. erneut anpassen. In diesem Zusammenhang ist es möglich, dass SmartCare die Empfehlung, den Patienten vom Beatmungsgerät zu trennen, revidiert oder aber aufrecht erhält. Basis für diese Entscheidung sind die Anzahl sowie die relative Dauer der vom Gerät registrierten Instabilitäten. Bezugsgröße für die zeitliche Bewertung einer Instabilität ist hierbei die Zeitdauer der vorangegangenen stabilen Normoventilation. Die kurze Darstellung des komplexen Systems zeigt deutlich, dass SmartCare auf medizinischem Wissen und nicht auf mathematischen Algorithmen beruht. Die in mehrminütigen Abständen vorgenommenen Klassifikationen und automatischen Veränderungen des Unterstützungsdruckes entlasten den Intensivmediziner von Routineaufgaben und ermöglichen die Verkürzung der Entwöhnungsphase. Neben diesen Gründen sprechen weitere Anzeichen, wie z. B. der zunehmende Kostendruck, zahlreiche Standardisierungsbemühungen sowie die Anstrengungen zur qualitativen Verbesserung der Patientenversorgung dafür, dass die Symbiose aus klinischem Wissen und innovativer Technik schon bald auch in anderen Bereichen den Klinikalltag erobern dürfte.
Weiterführende Literatur Dojat M, Brochard L (2001) Knowledge-Based Systems for Automatic Ventilatory Management Respiratory Care Clinics of North America, vol. 7, no 3. W.B. Saunders Company Keifert H (2007) Das Beatmungsbuch. WK-Fachbücher & Fortbildungen, Elchingen Larsen R, Ziegenfuß T (2009) Beatmung: Grundlagen und Praxis. Springer, Berlin Heidelberg New York Lobning M, Hambücker J (2002) Beatmung. Verlag Hans Huber, Göttingen Oczenski W, Andel H, Werba A (Hrsg) (2007) Atmen – Atemhilfen. Thieme, Stuttgart www.draeger.com
26 Defibrillatoren/ICD-Systeme R. Kramme
26.1
Defibrillation
– 445
26.2
Technik
26.2.1 26.2.2
Physikalische und technische Grundlagen – 446 Systemeigenschaften – 447
26.3
Therapeutische Intervention – 448
26.3.1
Defibrillation/Kardioversion (synonym Elektroreduktion, Elektrokonversion) – 448 Externe und interne Defibrillation – 449
26.3.2
– 446
26.4
Methodische Hinweise
26.4.1
Elektroden und Kontaktmittel
26.5
Komplikationen
– 450 – 450
Sicherheitstechnische Aspekte – 450
26.7
Implantierbare Kardioverter/ Defibrillatoren (ICD) – 451
26.7.1 26.7.2 26.7.3 26.7.4 26.7.5 26.7.6
ICD-Entwicklung – 451 Systemtechnik – 452 Algorithmen – 453 Elektroden – 454 Komplikationen – 454 Funktionskontrolle – 455
Weiterführende Literatur
– 455
– 450
Die Ursache eines plötzlichen Herzkammerflimmerns ist überwiegend auf kardiale Kreislaufstillstände (sog. plötzlicher Herztod) zurückzuführen. Neben der externen Thoraxkompression (Herzdruckmassage) ist die Defibrillation mittels Defibrillator die wirksamste Intervention der Reanimation (Herz-Lungen-Wiederbelebung). Nach den Internationalen Leitlinien zur Reanimation ist das strategische Ziel aller Wiederbelebungsmaßnahmen, an dem sich die einzelnen Schritte der Rettungsmaßnahmen orientieren und bewerten, eine frühestmögliche Defibrillation.
26.1
26.6
Defibrillation
Eine veränderliche Erregungsbildung oder Erregungsleitung kann Arrhythmien verursachen mit der Folge, dass die Koordination der Herzmuskelfasern beeinträchtigt, aufgehoben oder gar ins Chaos (Fibrillation) geführt wird. Das Kammerflimmern ist eine unkoordinierte myokardi-
ale Fibrillation ohne Auswurfleistung der Kammern, das im EKG durch unregelmäßige und ungeordnete Depolarisationen hoher Frequenzen charakterisiert ist. Die pulslose ventrikuläre Tachykardie ist durch eine regelmäßige schnelle Abfolge breiter Kammerkomplexe gekennzeichnet, die wie das Kammerflimmern keine Auswurfleistung aufweist. Beide Rhythmustypen sind lebensbedrohliche Zustände des Herz-Kreislauf-Systems und somit Indikationen zur Defibrillation. Unter Defibrillation wird ein kurzzeitig zugeführter, phasischer Energieimpuls verstanden, der eine gleichzeitige Depolarisation aller Herzmuskelfasern bewirken soll, d.h., dass nach etwa fünf Sekunden der elektrischen Impulsabgabe kein Kammerflimmern oder keine -tachykardie mehr im EKG nachweisbar ist. Ziel dieser Maßnahme ist die Terminierung von tachykarden supra- und ventrikulären Arrhythmien, sodass nach einer Refraktärperiode (in dieser Phase ist keine Erregung möglich), die i. d. R. zwischen 200 und 500 ms beträgt, der Sinusknoten als primäres Erregungszentrum die Schrittmacherfunktion wieder übernimmt (⊡ Abb. 26.1).
⊡ Abb. 26.1. EKG-Dokumentation einer Defibrillation
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _26, © Springer-Verlag Berlin Heidelberg 2011
446
Kapitel 26 · Defibrillatoren/ICD-Systeme
26.2
Technik
26.2.1 Physikalische und technische Grundlagen
III
Defibrillatoren sind elektrotherapeutische Hochspannungsgeräte, die im Rahmen der Reanimation und zur Terminierung von tachykarden supra- und ventrikularen Arrhythmien eingesetzt werden. Der tragbare Defibrillator ist ein meist netzunabhängiges Gleichstromsystem (⊡ Abb. 26.2), das sich im Wesentlichen aus folgenden Systemkomponenten zusammensetzt: ▬ der Energieversorgung über Netzanschluss oder aufladbare Batterien, ▬ einem Kondensator als Energiespeicher (Kapazität = n-Impulse bei 360 J), ▬ einem Ladestromkreis zum Kondensator (Dauer der Aufladung, d. h. Erreichen der maximalen Energie, beträgt im Schnitt 10–8 s [liegt bei einigen Fabrikaten auch deutlich darunter]) und einem Entladestromkreis, der den Stromimpuls mit unterschiedlichen, vorwählbaren Energiestufen (z. B. 2....360 J) abgibt. Die Gleichstromimpulsreizung bewegt sich zwischen 3–8 ms bei einem Strom von 10–27 A (intern) sowie 22–60 A (extern).
Eine automatische Sicherheitsentladung sollte erfolgen bei Nichtauslösung (nach ca. 10 s), Auslösung des Defibrillierschocks und bei erneuter Energievorwahl sowie bei technischen Störungen. Die Energie (E), die in dem Kondensator gespeichert werden kann, lässt sich aus der Kapazität (C) und der verfügbaren Spannung (U) ermitteln:
1 C U 2 2
E
>VA
W @.
(26.1)
Kurvenform des Energieschocks Unter dem Begriff Wellenform oder Kurventechnik wird die zeitlich geregelte Abfolge der Energieabgabe verstanden. Von der Form der Welle hängt zum einen ab, wie viel Energie dem Patienten zugeführt wird und zum anderen, über welchen Zeitraum diese Energie abgegeben wird. Dabei ist die optimale Energiemenge für den Defibrillatorimpuls jene Energie, welche die geringste Myokardschädigung nach sich zieht. Unterschieden wird in mono-, bi- und triphasische Defibrillationsschockkonfigurationen (⊡ Abb. 26.3). Während bei der monophasischen Wellenform der Strom nur in eine Richtung fließt und
⊡ Abb. 26.2. Blockschema eines halbautomatischen Gleichstromdefibrillators (Bolz A, Urbaszek W, 2000)
2. Biphasische Exponentialkurve (150 J, 50)
1. Monophasische gedämpfte Sinuskurve (200 J, 50)
3. Biphasischer Rechteckimpuls (120 J, 50)
I (A) 50 40 30 20 10 0 -10 -20 ⊡ Abb. 26.3. Monophasische und biphasische Impulsformen
0
4
8
12
0
4
8
12
0
4
8
12
t (ms)
447 26.2 · Technik
die Polarität sich nicht ändert, wird bei der biphasischen Wellenform der Strom in eine Richtung abgegeben, unterbrochen und in entgegengesetzter Richtung fortgesetzt. Hier ändert sich die Polarität mit jeder Phase. Die Hauptformen der biphasischen Entladungscharakteristik sind die abgeschnittene Exponentialkurve und der Rechteckimpuls. Heute werden – insbesondere bei implantierbaren und automatischen externen Defibrillatoren – bevorzugt biphasische Schockformen eingesetzt, die sich durch verschiedenartige Anpassung an die Thoraximpedanz des Patienten (z. B. unterschiedliche Impulsabgabe, Spitzenspannung und Impulsdauer) unterscheiden und wirksamer bei der ersten Schockabgabe sind als monophasische Schocks. Biphasische Defibrillationen sind i. d. R. wirksamer und schonender als monophasische und haben den Vorteil, dass die schockinduzierte Dysfunktion der Herzmuskelzellen geringer ausfällt und der Defibrillationserfolg mit geringerer Energie und Spannung erzielbar ist. Die geräteabhängige Energiemenge beträgt für die erste Defibrillation 150–200 J, für alle weiteren 200–360 J, während sie bei der ersten monophasischen Defibrillation stets 360 J beträgt. Darüber hinaus ermöglichen biphasische Impulsformen die weitere Miniaturisierung der Geräte. Während der optimale Energiefluss bei der monophasischen Defibrillation sich im Bereich von 30–40 As bewegt, wird er beim biphasischen Schock im Bereich von 15–20 As vermutet. Wünschenswert wären Defibrillatoren, deren Schockabgaben dem realen transthorakalen Stromfluss entsprächen. Die auf dem Markt erhältlichen biphasischen Defibrillatoren verwenden teilweise sehr unterschiedliche »herstellerspezifische« Pulsformen. Über die Effektivität sowie über mögliche negative Auswirkungen der diversen angebotenen Pulsformen besteht zurzeit noch keine allgemeine Übereinstimmung. Bei der Betriebsart wird unterschieden in asynchronen und synchronen Betrieb: Während eigene Impulse des Herzens bei der synchronen Betriebsart berücksichtigt werden (sog. Synchronimpuls bzw. QRS-Triggerung),
entfällt dies bei der asynchronen Betriebsart. Letztere Betriebsart sollte »reinen Notfalldefibrillationen« vorbehalten bleiben. Für die Kardioversion kommt nur die synchronisierte Betriebsart in Betracht.
Thorakale Impedanz Die thorakale Impedanz ist der Körperwiderstand, der sich dem Energieimpuls bzw. Stromfluss des Defibrillators entgegenstellt. Sie schwankt zwischen 15 und 150 Ω; meist liegt sie bei 70–80 Ω. Die Impedanz sollte deshalb bei der notwendigen Energieabgabe berücksichtigt werden, da für die benötigte Energiemenge die Brustimpedanz des Patienten mit ausschlaggebend ist. Weil die Impedanz beim Menschen stark variiert, ist die dynamische Anpassung der Kurvenform des Energieimpulses ein wichtiges Merkmal. Bei fortschrittlichen Geräten wird die Brustimpedanz vor der Defibrillation automatisch gemessen und berücksichtigt, sodass eine genauere Energieabgabe möglich ist. Im Übrigen reduzieren größere Elektroden die Impedanz. Defibrillatoren können unterschieden werden in manuelle Defibrillatoren, Halbautomaten und automatische externe Defibrillatoren (AED), Vollautomaten sowie Defibrillatorimplantate (⊡ Abb. 26.4). Das Unterscheidungskriterium zwischen Halb- und Vollautomaten ist, dass beim Halbautomaten dem Anwender eine Defibrillationsempfehlung angezeigt wird und die Impulsabgabe durch den Anwender ausgelöst wird, während sie beim Vollautomaten automatisch erfolgt. Als Elektroden werden sog. Paddles, Klebeelektroden oder Löffelelektroden eingesetzt.
26.2.2 Systemeigenschaften
Neben den herkömmlichen manuellen Defibrillatoren gibt es halbautomatische und automatische Systeme
manueller Defibrillator transthorakale Anwendung
Halbautomat automatisch externer Defibrillator (AED) Vollautomat
Defibrillatoren Einkammersystem intrakorporale Anwendung
ICD-Implantate
Zweikammersystem Dreikammersystem – CRT-ICD
⊡ Abb. 26.4. Übersicht der Gerätearten
Atrialer Defibrillator/Atrioverter
26
448
Kapitel 26 · Defibrillatoren/ICD-Systeme
rithmen ausgewertet. Dieser Algorithmus basiert auf linearen (z. B. Fourieranalyse, Wavelettheorie) und nichtlinearen Methoden (wie N[alpha]-Histogramm, mit dem der Grad an Zufälligkeit eines Signals untersucht werden kann). Weitere Vorteile dieser Technik könnten sein, dass unwirksame Energieimpulse vermieden und dadurch Myokardschäden eingeschränkt werden sowie Informationen über die Qualität der durchgeführten Reanimation gegeben werden.
III
AED (Automatic External Defibrillator)
⊡ Abb. 26.5. Halbautomatischer Defibrillator mit Paddles (Quelle: Schiller)
(AED), die über aufgeklebte Elektroden eine automatische EKG-Analyse durchführen und über ein integriertes Display verfügen. Eine Defibrillation ohne Monitor bzw. Display und Rhythmusanalyse wird als »blinde Defibrillation« bezeichnet. Fortschrittliche Defibrillatoren verfügen über die Monitoringeinrichtung eines »quick look« in den Paddles. Bei Erkennen von Kammerflimmern wird beim halbautomatischen Gerät (⊡ Abb. 26.5) eine Empfehlung zur Defibrillation an den Bediener gegeben. Die erweiterbare Funktionalität, die meist durch steckbare Module erzielt wird, ermöglicht die echten Systemeigenschaften bei halbautomatischen Defibrillatoren. Module: integrierter externer Pacer (transthorakaler Herzschrittmacher), nichtinvasiver Blutdruck, SpO2, Kapnographie, Arrhythmieerkennung und Registrierteil zur Dokumentation. Im Rahmen der Qualitätssicherung einer durchgeführten Defibrillation ist die vollständige geräteseitige Speicherung einschließlich EKG und 12-Kanal EKG-Reports sowie aller übrigen relevanten Daten für eine spätere Auswertung und Dokumentation von besonderem Interesse. Ebenso wird die Fernübertragungsmöglichkeit von Daten, beispielsweise vom Rettungsfahrzeug zur Notfallaufnahme im Krankenhaus, zukünftig eine größere Rolle spielen.
Formanalyse des Kammerflimmerns Um den optimalen Zeitpunkt der Abgabe des Defibrillationsimpulses bei sicher vorliegender Flimmercharakteristik zu bestimmen, ist eine rechnergestützte Formanalyse von EKG-Signalen eine vielversprechende innovative Neuentwicklung, die derzeit noch erforscht wird. Dabei werden die Frequenz- und Amplitudeneigenschaften des Oberflächen-EKGs durch sog. Flimmer-Scoring-Algo-
AED-Systeme – vorwiegend mit Zweiphasenkurventechnik – geben nur dann einen Defibrillationsimpuls ab, wenn eine lebensbedrohliche Herzrhythmusstörung vorliegt und geräteseitig auch als solche erkannt wird. Zusätzlich wird der Anwender (kann auch durch angelernte Laienhelfer im Sinne einer »Public Access Defibrillation« durchgeführt werden) über ein Bedienmenü geführt. Fortschrittliche Systeme bieten darüber hinaus eine sprachunterstützte Bedienerführung. Die AHA (American Heart Association) vertritt die Auffassung, dass sich durch einen verbreiteten AED-Einsatz bis zu einem Drittel aller Todesfälle aufgrund des plötzlichen Herztods verhindern ließen. Die Anwendung von AED-Systemen wird als integraler Bestandteil der Basisreanimationsmaßnahmen eingestuft.
26.3
Therapeutische Intervention
26.3.1 Defibrillation/Kardioversion
(synonym Elektroreduktion, Elektrokonversion) Als elektrische Kardioversion wird eine synchronisierte Defibrillation (⊡ Abb. 26.6) bezeichnet, d. h. der Energieimpuls wird von der R-Zacke im EKG getriggert. Die Synchronisation wird durchgeführt, um zu verhindern, dass der Impuls in die vulnerable Phase (T-Welle) abgegeben wird und die Gefahr besteht, dass ein Kammerflimmern ausgelöst wird. Im Gegensatz dazu ist die asynchrone Kardioversion, die unabhängig von der R-Zacke erfolgt, die sog. Defibrillation (⊡ Abb. 26.7). Aus hämodynamischer Sicht wird während des Kammerflatterns und -flimmerns kaum bzw. kein Blut mehr in den Kreislauf gepumpt, da die einzelnen Muskelfasern nicht koordiniert kontrahieren. Bei Vorhofflattern und -flimmern wird ca. 20–30% weniger Blut ausgeworfen, da die Füllmenge der Ventrikel durch Ausbleiben der Vorhofkontraktion nicht optimiert wird. Die Indikation für eine elektrische Kardioversion sind: ▬ atriales Flattern und Flimmern, ▬ AV-junktionale Reentrytachykardie, ▬ WPW- und ventrikuläre Tachykardie.
449 26.3 · Therapeutische Intervention
Bei ventrikulärem Flimmern ist die Defibrillation die einzige einzusetzende Therapie, die Aussicht auf Erfolg hat. Die elektrische Kardioversion ist kontraindiziert bei Digitalisüberdosierung, Hypokaliämie und Vorhofflimmern (wenn fehlende Antikoagulation von mindestens 2–3 Wochen und Rhythmusstörungen länger als 48 h bestehen).
26.3.2 Externe und interne Defibrillation
Die externe, transthorakale Defibrillation wird mittels Elektroden (sog. Paddles) und Energieimpulsen von ca. 2 J bis zu 360 J durchgeführt. Als Richtwert für die Impulsstärke, der sich auf das Körpergewicht bezieht, wird für Erwachsene 3 J/kg und bei Kindern 2 J/kg empfohlen. Seitens der Elektrodenapplikation wird zwischen Anterior-anterior- und Anterior-posterior-Methode unterschieden: Während bei der Anterior-anterior-Methode, die hauptsächlich im Notfall angewendet wird, beide Elektroden auf den Thorax aufgesetzt werden (Herzbasis und Herzspitze), wird bei der Anterior-posterior-Methode eine großflächige Elektrode unter dem Rücken plat-
ziert. Zur Elektrotherapie bei Rhythmusstörungen wird die Anterior-posterior-Methode bevorzugt, da der größte Anteil des abgegebenen Energieimpulses direkt durch das Myokard fließt. Eine Besonderheit ist die Defibrillatorweste (wearable cardioverter defibrillator, WCD®), die aus einem Elektrodengürtel mit vier EKG- und drei Therapieelektroden – der direkt auf der Oberkörperhaut appliziert wird - und dem Defibrillator besteht. Bei detektierten schwerwiegenden Rhythmusstörungen, die über die EKG-Ableitungen erfasst werden, erfolgt eine optische und/oder akustische Alarmierung. Erfolgt keine Unterdrückung der Impulsabgabe durch den Patienten, löst das Gerät die Impulse selbsttätig aus. Zur internen, d. h. intrakorporalen Defibrillation werden sterile Löffelelektroden verwendet, mit denen bei geöffnetem Thorax das freiliegende Herz (hier Perikard) umfasst wird, d. h. die Elektrodenoberflächen müssen ganzflächig am Herzmuskel anliegen. Der Energieimpuls beträgt bei der internen Defibrillation maximal 50 J.
Spezielle Applikationen Ösophageale Applikation Eine Ösophagusimpulselektrode (zylindrische Elektrode am Ende eines Katheters) wird in Höhe des linken Vorhofs plaziert. Die Gegenelektrode wird auf dem Thorax angebracht. Eine zusätzliche Elektrode zur Zylinderelektrode ermöglicht eine bipolare Stimulation sowie die Ableitung eines ösophagealen EKG-Signals, welches der Synchronisation des Energieimpulses dient.
⊡ Abb. 26.6. Synchronisierte Defibrillation zum Zeitpunkt R+x
Intrakardiale Applikation Diese Applikation erfolgt ebenfalls über einen Katheter. Eine Elektrode liegt im Apex der rechten Herzkammer, während die zweite Elektrode in der oberen Hohlvene platziert wird.
⊡ Abb. 26.7. Methodenübersicht Defibrillation/Kardioversion
26
450
Kapitel 26 · Defibrillatoren/ICD-Systeme
26.4
III
Methodische Hinweise
Prinzipiell sind alle handelsüblichen Defibrillatoren in der Bedienung gleich und sowohl für die externe als auch interne Defibrillation geeignet. Ein optisches und/oder akustisches Signal erfolgt i. d. R., wenn der Defibrillator betriebsbereit, d. h. der Kondensator aufgeladen ist. Die mit Gel versehenen Elektroden werden fest auf den Thorax gesetzt und angepresst sowie die vorgewählte Energiedosis ausgelöst. Meist erfolgt dies direkt über einen Auslöser an den Haltegriffen. Aufgrund der ERC-Leitlinien von 2005 ist eine dreimalige Defibrillation innerhalb einer Minute mit monound biphasischen Defibrillatoren obsolet. Ersetzt wurde dieses Anwendungsmuster durch eine einmalige Schockabgabe mit voller Energie (sog. 1-Schock-Strategie), d. h., bei monophasischem Schock werden 360 J für die Schockabgabe empfohlen. Für den ersten biphasischen Schock werden mindestens 150–200 J für alle Entladungscharakteristika genannt. Nach jeder Schockabgabe soll eine zweiminütige Herz-Lungen-Wiederbelebung ausgeführt werden, bevor die nächste Schockabgabe erfolgt. Sind weitere Schockabgaben notwendig, wird bei monophasischen Defibrillatoren die Energiestufe mit 360 J beibehalten, bei biphasischen Defibrillatoren dagegen die Energiestufe sukzessive erhöht. Nach jeder Applikation ist der Puls und das EKG zu überprüfen. Entscheidend für eine effiziente Defibrillation oder Kardioversion ist der abgegebene Energieimpuls und seine Amplitude, Schockform und Schockpolarität, Elektrodengröße und Elektrodenposition sowie die Homogenität der Stromdichte im Herzmuskel (Myokard).
vorteilhaft, da sie die Gefahr von Funkenschlag und Kurzschluss vermeiden und damit einer unwirksamen Defibrillation vorbeugen. Die AAMI (Association for the Advancement of Medical Instrumentation) empfiehlt eine Mindestgröße der Elektrodenfläche von 150 cm2, da größere Elektroden eine geringere Impedanz haben oder gar zur Abnahme des transmyokardialen Energieflusses führen. Der Durchmesser handelsüblicher Elektroden liegt im Bereich von 8–12 cm für Erwachsene und Kinder > 10 kg Körpergewicht sowie 4,5 cm für Kinder mit einem Körpergewicht < 10 kg.
26.5
Durch die Kardioversion und Defibrillation kann es zu folgenden schwerwiegenden und leichten Komplikationen kommen: ▬ Ausgelöstes Kammerflimmern, z. B. durch falsche Triggerung, was letztlich in eine Asystolie (Herzstillstand) münden kann (Ströme von >10 mA, die durch das Herz fließen, können Flimmern in den Ventrikeln verursachen). ▬ Postdefibrillatorisch bedingte Rhythmusstörungen sind supra- und ventrikuläre Extrasystolen, ventrikuläres Flattern. ▬ Arterielle Embolien. ▬ Verbrennungen und Reizungen der Haut, bspw. durch eine unzureichende Menge an Elektrodenkontaktpaste auf der Elektrodenoberfläche.
26.6 26.4.1 Elektroden und Kontaktmittel
Eine richtige Applikation der Klebeelektroden Elektroden ist Voraussetzung für eine einwandfreie EKG-Registrierung und letztlich Vorbeugung von gerätebedingten Fehlinterpretationen. Etwas teurer, aber sicher und effektiv sind selbstklebende Defibrillationselektroden (sog. Pads), die deshalb normalen Plattenelektroden (sog. Paddles) vorzuziehen sind. Ein weiterer Vorteil der Klebeelektroden ist aus Sicht des Anwenders, dass aus »sicherer Entfernung« defibrilliert werden kann, ohne sich über den Patienten lehnen zu müssen. Auch die Abgabe des ersten Energieimpulses ist über selbstklebende Elektroden schneller als über die Paddles. Während bei den Paddles zwischen Hautoberfläche und Metallplatte ein Kontaktgel zur Reduktion der Hautimpedanz – und damit Verbesserung des elektrischen Kontakts – sowie zur Vermeidung von Verbrennungen erforderlich ist, entfällt dies bei den Klebeelektroden. Gel-Pads sind im Vergleich zu Elektrodenpaste und Gels in der sicheren Anwendung
Komplikationen
Sicherheitstechnische Aspekte
Anwendung: ▬ Direktes Berühren der Elektroden (lebensgefährlich!), leitfähiges Berühren der Patienten oder anderer Personen vermeiden (Sicherheitsabstand!). ▬ Patientenhaut sollte keine Feuchtigkeit aufweisen (elektrische Brücke!), des Weiteren sollte der Patient elektrisch isoliert gelagert werden. ▬ Kardioversion nur bei artefaktfreiem EKG durchführen, und wenn sichere EKG-Kontrolle möglich ist. ▬ Bei zu viel Elektrodenkontaktpaste auf den Paddles besteht die Möglichkeit einer elektrischen Brücke (Kurzschlussgefahr). ▬ Alle zusätzlichen Geräte, die mit dem Patienten verbunden sind, müssen defibrillationsfest sein; andernfalls müssen diese während der Kardioversion/Defibrillation vom Patienten getrennt werden. ▬ Vorsicht bei Patienten mit energetischen Implantaten: Die Funktion der Implantate kann eingeschränkt oder aufgehoben, das Implantat selbst beschädigt oder gar unbrauchbar werden.
451 26.7 · Implantierbare Kardioverter/Defibrillatoren (ICD)
Gerät: ▬ Defibrillatoren gehören zur Klasse IIb MPG. ▬ Defibrillatoren dürfen nur in explosionsgeschützter Atmosphäre verwendet werden. ▬ Geräte, die nicht defibrillatorgeschützt sind, sind vom Patienten zu trennen, ansonsten ▬ Gerätekennzeichnung nach DIN-IEC 601 mit Defibrillationsschutz. ▬ Maximale Energie 360 J. ▬ Auslösetasten nur an beiden Paddles (in Reihe geschaltet). ▬ Schutzschaltungen, die bei Ausschalten des Defibrillators reduzierte Energieeinstellung und spätestens 1 min nach Defibrillatoraufladung eine Energierücknahme gewährleisten. ▬ Defibrillatoren sollten aufgrund des unvorhersehbaren und häufig wechselnden Einsatzes auf ihrem Gerätestandort immer am Netz angeschlossen sein, um ad hoc funktionstüchtig und einsatzbereit zu sein.
26.7
Implantierbare Kardioverter/ Defibrillatoren (ICD)
Die sichere Erkennung und Behandlung von lebensbedrohlichen Herzrhythmusstörungen (Kammertachykardien und -flimmern), die von den Herzkammern ausgehen und die sich nicht medikamentös therapieren lassen, sind primäres Einsatzgebiet implantierbarer Kardioverterdefibrillatoren (ICD-Systeme; ⊡ Abb. 26.8). Darüber hinaus empfehlen die amerikanische und die europäische kardiologische Gesellschaft (ACC/AHA und ESC) die ICD-Implantation nach einem überlebten plötzlichen
⊡ Abb. 26.8. Thoraxaufnahme mit implantiertem ICD-System (Quelle: Medtronic)
Herztod, der nicht aufgrund eines Herzinfarktes aufgetreten ist als auch zur Primärprophylaxe bei Patienten mit eingeschränkter Herzpumpfunktion (EF < 30%). ICDSysteme können bei Bedarf auch in bradykarden Phasen Schrittmacherimpulse abgeben. Weiterhin können ICDSysteme antitachykard stimulieren, kardiovertieren und defibrillieren. ICD-Implantationen haben zahlenmäßig deutlich zugenommen. Folgende Gründe sind für diese Entwicklung ausschlaggebend: ▬ Eine vereinfachte Implantationstechnik reduziert die operationsbedingte Mortalität. ▬ Sehr geringe Morbidität. ▬ Hohe Patientenakzeptanz. ▬ Die ICD-Therapie ist der medikamentösen Therapie zur Verhinderung des plötzlichen Herztodes – im Rahmen der Sekundärprophylaxe bspw. nach hämodynamisch wirksamer Kammertachykardie – deutlich überlegen. ▬ Bei idiopathischem Kammerflimmern gibt es zurzeit keine Alternative zur ICD-Therapie. ▬ Eine weitere Indikation ist die Primärprophylaxe bei symptomfreien Hochrisikopatienten. ▬ Durch sinkende Produktpreise bei steigender Produktlebensdauer sind die ICD-Therapiekosten erheblich gesunken.
26.7.1 ICD-Entwicklung
In der ICD-Entwicklung sind insbesondere folgende zeitliche Ereignisse von Bedeutung: Die erste transthorakale Defibrillation mit Gleichstrom wurde 1962 von Lown durchgeführt. Bereits 1969 wurde von Mirowski das erste Modell eines implantierbaren automatischen Defibrillators (»automatical implantable cardioverter/defibrillator«, AICD) vorgestellt und 1980 erstmalig einem Menschen implantiert. Von diesem System wurde Kammerflattern und -flimmern durch die Kriterien Herzfrequenz und/oder Fehlen isoelektrischer EKG-Anteile erkannt. Die Arrhythmiedetektion erfolgte über myokardiale Schraubelektroden. 1988 wurde ein programmierbares und bereits 1989 ein multiprogrammierbares ICD-System in der Klinik eingesetzt. Der erste Zweikammer-ICD kam 1997 auf den Markt, während 1996 schon ein atrialer Defibrillator implantiert wurde. ICD-Elektroden, die intraatrial platziert werden, sind ein sicheres und effektives Verfahren zur Terminierung von Vorhofflimmern. Dabei ist zum einen die niedrige Energieabgabe von Vorteil und zum anderen, dass der Patient keine Kurznarkose benötigt. 1997 erfolgte erstmals die Implantation eines kombinierten atrialen ventrikulären Defibrillators. Weiterentwickelte atrioventrikuläre Defibrillatoren haben den Vorteil dass sie neben der vollautomatischen Detektion von Vor-
26
452
Kapitel 26 · Defibrillatoren/ICD-Systeme
III
a
b ⊡ Abb. 26.9a,b. Implantierbares Biventrikuläres- oder CRT-ICD-System. a Lagekontrolle im Röntgenbild. b Elektrodenpositionierung schematisch (Quellen: Biotronik)
hof- und Kammersignalen auch elektrische Impulse in beiden Herzkammern abgeben, um auftretende Arrhythmien zu terminieren. Seit 2001 stehen sog. implantierbare CRT-Defibrillatoren (kurz: CRT-ICD) für die kardiale Resynchronisationstherapie (CRT) zur Verfügung. Diese geben einerseits einen Schock ab, um Tachykardien zu unterbrechen und somit aufzuheben. Andererseits werden die rechte und die linke Herzkammer gleichzeitig stimuliert, sodass die Herzaktionen koordiniert (i.e.S. resynchronisiert) erfolgen (⊡ Abb. 26.9a,b).
26.7.2 Systemtechnik
Miniaturisierte Bauweise, effektivere Defibrillationen durch energieärmere Impulse sowie verbesserte und erweiterte Software machen es möglich, dass heute eine subpektorale Implantation bei transvenöser Elektrodeninsertion in Lokalanästhesie Standard ist (⊡ Abb. 26.10). Gängige Produkte haben ein Volumen <40 cm3 und ein Gewicht <80 g bei einer durchschnittlichen Gerätelebensdauer von 4–6 Jahren. Die ICD-Technik bietet heute abgestimmte integrierte Systeme:
⊡ Abb. 26.10. Implantiertes ICD-System (schematisch) (Quelle: Medtronic)
▬ Einkammer-ICD (VR-System) mit der therapeutischen Möglichkeit der antitachykarden Stimulation, Kardioversion und Defibrillation. Die Defibrillatorelektrode wird im rechten Ventrikel platziert. ▬ Zweikammer-ICD (DR-System) mit zusätzlicher atrialer Elektrode oder »Single Lead-VDD-ICD« ( Abschnitt 26.7.4 »Elektroden«). ▬ Dreikammer-ICD (Biventrikuläres Defibrillatorsystem, CRT-ICD) mit der zusätzlichen Möglichkeit einer kardialen Resynchronisationstherapie (CRT). Die im rechten Ventrikel fixierte Elektrode wird ergänzt durch eine weitere Elektrode (sog. Koronarsinuselektrode), die selektiv den linken Ventrikel stimuliert (⊡ Abb. 26.9a,b). Analog zum Internationalen (NBG-)Schrittmachercode ( Kap. 35, S. 637) existiert auch ein Code für ICD (⊡ Tab. 26.1). Ein ICD-System besteht aus den Komponenten Aggregat (syn. Impulsgenerator) und Elektrode. Zum Aggregat gehören das Gehäuse, die Batterie (Lithiumjodid), Kondensatoren, Mikroprozessor, Verstärker, Magnetschalter, Audiotransducer für Signale, Antenne für Telemetrie und ein Anschlusskopf für Elektroden. Die Elektrode (syn. Sonde) besteht aus einem isolierten Elektrodenkörper mit mehrlumigem Aufbau. Hierin sind isoliert voneinander die Leiter für Detektion, Stimulation und Defibrillation angeordnet. In Abhängigkeit vom ICD-Modell sind die Therapiemöglichkeiten a. Pacing (Schrittmacherfunktion bei bradykarden Herzrhythmusstörungen), b. antitachykardes Pacing ATP (ventrikuläre Tachykardien sollen mit einer Überstimulierung – sog. burst mit n-te Stimuli – beendet werden), c. Kardioversion (bei ergebnisloser ATP wird ein Energieschock von 15 bis 20 J und bis zu 35 J bei weiteren Schocks automatisch abgegeben) und
453 26.7 · Implantierbare Kardioverter/Defibrillatoren (ICD)
⊡ Tab. 26.1. The NASPE/BPEG Defibrillator(NBD)-Code (mod. nach Bernstein 1993) I Schockkammer
II Kammer der antitachykarden Stimulation
III Tachykardie Wahrnehmung
IV Kammer der antibradykarden Stimulation
0 = keine
0 = keine
E = intrakardiales EG
0 = keine
A = Atrium
A = Atrium
H = Hämodynamik (H schließt E ein)
A = Atrium
V = Ventrikel
V = Ventrikel
V = Ventrikel
D = Dual (A + V)
D = Dual (A + V)
D = Dual (A + V)
Kurzform Code ICD-S
ICD nur mit Schockkapazität
ICD-B
ICD mit Bradykardie-Schrittmacher sowie Schock
ICD-T
ICD mit Tachykardie- und Bradykardie-Schrittmacher sowie Schock
Zusätzliche Erläuterung: Ort der Wahrnehmung und der Stimulation: Einkammersystem = Atrium oder Ventrikel, Zweikammersystem = Atrium und Ventrikel. Reaktion auf Wahrnehmung: 1. Getriggert: Zeitsynchrone Stimulation bei vorhandener und fest eingestellter Frequenz bei fehlender Herztätigkeit. 2. Inhibiert: Bei herzeigener Aktivität wird die Abgabe eines Impulses unterdrückt. 3. Frequenzadaption: Stimulationsfrequenz wird der jeweiligen körperlichen Belastung angepasst. Die Codierung ist auf dem ICD-Gehäuse und im ICD-Pass aufgeführt.
d. Defibrillation (bei Kammerflimmern wird sofort eine Schockenergie mit einer geräteabhängigen Obergrenze zwischen 35 und 40 J initiiert). Integrierte VVIR- oder DDDR-Herzschrittmacher-Schaltkreise sind Standard in der ICD-Technik. Die Gerätelebensdauer von Zweikammersystemen ist etwas kürzer als die von Einkammersystemen. Schockformen und optimierte Schockabgaben sowie verbesserte Elektrodensysteme bewirken eine deutliche Absenkung der Defibrillationsschwelle (DFT), die heute i. d. R. unter 15 J liegt. Hinzu kommt, dass kurze und konstante Ladezeiten einen Anstieg der DFT verhindern. Derzeit werden vorzugsweise biphasische oder sequentielle Defibrillatorimpulse klinisch eingesetzt. Untersuchungen haben bestätigt, dass die notwendige Impulsenergie mit der Zeitdauer des Kammerflimmerns und der Zunahme an Erregungsfronten zunimmt und notwendige Impulsenergie geringer ist, je eher das Kammerflimmern nach dessen Entstehung terminiert wird. Umfangreiche diagnostische Programmspeicher, die im Zusammenhang mit der Patientennachbetreuung eine Validierung der therapeutischen Intervention ermöglichen, gehören heute ebenfalls zur Standardausstattung. Einige ICD-Geräte bieten die Möglichkeit, aufgenommene intrakardiale Elektrogramme über eine Antenne im Head des ICD-Implantats telemetrisch zu versenden. Dabei werden die periodischen oder ereignisgetriggerten
Reports über eine mobile Patienteneinheit via Mobilfunk zur internetgestützten Datenbank übertragen. Auf die überlieferten Daten kann der behandelnde Arzt via Internet zugreifen.
26.7.3 Algorithmen
Interne EG-Signalerkennungsalgorithmen analysieren die Amplitude, Frequenz und Flankensteilheit des EGs. Durch Fehlinterpretation tachykarder Rhythmusstörungen kann es sowohl zu falschen ICD-Entladungen (sog. inadäquate Schocks) als auch zum fehlerhaften Nichterkennen ventrikulärer Rhythmusstörungen kommen (sog. Undersensing). Die Erkennung ventrikulärer Arrhythmien und Unterscheidung von supraventrikulären Arrhythmien beruht auf unterschiedlichen Algorithmen der Detektion und Differenzierung. In bis zu sechs Erkennungszonen werden die auftretenden kardialen Rhythmusfrequenzen klassifiziert und zugeordnet: Bradykardie-, Sinusrhythmus-, Fibrillationszone und 1–3 Tachykardiezonen. Die Erkennung ventrikulärer Tachykardien beruht auf unterschiedlichen Algorithmen. ICD-Algorithmen unterscheiden supraventrikuläre und ventrikuläre Tachykardien nach Kriterien wie Frequenzstabilität, QRS-Breitenkriterium (wenn bspw. 6 von 8 QRS-Komplexen breiter sind als im Sinusrhythmus), plötzlich eintretender schneller Herzschlag (»sudden-
26
454
III
Kapitel 26 · Defibrillatoren/ICD-Systeme
onset«), das Verhältnis atrialer und ventrikulärer Signale, Ort der Akzeleration, AV-Assoziation oder über eine Mustererkennung – über ein Zeitfenster zwischen zwei RR-Intervallen – verschiedene Varianten der AV-Beziehungen. Beim Sensing-System, das für die Detektion und Redetektion verantwortlich ist, können Detektionskriterien programmiert werden. Ferner ist es möglich, Vorhofereignisse in die Detektionsalgorithmen miteinzubeziehen. Der Mode-Switch-Algorithmus veranlasst einen automatischen Betriebsartwechsel vom DDDR- in den DDIRBetriebsmodus, um sicherzustellen, dass nach Erkennen hoher atrialer Frequenzen der getriggerte Modus für die Ventrikelstimulation zugunsten einer inhibierten Funktionsweise verlassen wird. Um die Sensitivität und Spezifität der Detektion ventrikulärer Tachykardien in der ICD-Therapie zu erhöhen, ist es sinnvoll, neben den elektrischen Kriterien auch Informationen über die hämodynamische Situation wie Kontraktilität des linken Ventrikels zu berücksichtigen.
26.7.4 Elektroden
War Anfang der 1990er Jahre die ICD-Implantation noch ein aufwändiger Eingriff, so folgte mit der Entwicklung einer transvenösen Elektrode eine erhebliche Vereinfachung. Die Kombination transvenöser Elektroden mit subkutanen Defibrillationselektroden ist ein wesentlicher Fortschritt. Als Anode wird das elektrisch aktive Aggregatgehäuse (»active-can«, »hot can«) oder/und der proximale Anteil der Defibrillationssonde genutzt, während der Elektrodenanteil in der rechten Herzkammer als Kathode fungiert. Dabei werden zwei Konfigurationen unterschieden: Die Ein-Spulen-Sonde von rechtsventrikulär zum ICD-Gehäuse und die Zwei-Spulen-Sonde mit Defibrillationsfläche zwischen rechter Herzkammer, oberer Hohlvene und ICD-Gehäuse (Triad-Konfiguration), die die energetisch günstigste darstellt. Fungiert der Elektrodenanteil in der rechten Herzkammer durch Programmierung als Anode, bewirkt diese Polaritätsumkehr ebenfalls einen reduzierten Energiebedarf während des Defibrillierens. Diese Maßnahme eignet sich insbesondere für Patienten mit einer sehr hohen Defibrillationsschwelle. Über die Sondenspitze, die echt bipolar (zwischen Elektrodenspitze [Tip] und einem proximal gelegenen Ring) oder integriert bipolar (zwischen Elektrodenspitze und distaler Schockspule) ausgelegt ist, erfolgt die Signalwahrnehmungsfunktion und die antibradykarde Stimulation. Der Aufbau aktueller ICD-Elektrodenkörper ist meist mehrlumig, wenige sind koaxial. Als Isolation der Au-
ßenschicht der Sonde wird überwiegend Silikon (seltener Polyurethan) verwendet, das eine hohe Biokompatibilität und Flexibilität bietet, aber sehr empfindlich gegen mechanische Beanspruchung ist. Weitere Unterscheidungsmerkmale von transvenösen Sonden ist die Anzahl der Defibrillationssonden (eine oder zwei) sowie der Spulen syn. Schockwendel (Single-coil oder Dual-coil). Die aktive oder passive Fixierung von ICD-Elektroden kann mit fester oder verlängerbarer Schraube und mit Ankern erfolgen. Als zusätzliche Pace/Sense-Elektroden kommen atriale und epimyokardiale Elektroden sowie Coronarsinuselektroden (CS bzw. SVC-Elektroden) zum Einsatz. Die CS-Elektrode besitzt am distalen Ende einen Beschleunigungssensor, der zur Aufnahme und Differenzierung von Beschleunigungswerten in mindesten zwei unterschiedlichen Richtungen eingesetzt wird. Eine spezielle Schocksonde ist die Array-Elektrode (syn. Fingerelektrode, Array-Fingerelektrode, SQ-Array), die subkutan implantiert wird. Diese Elektrode verfügt über bis zu drei Schockspulen und wird bei nicht ausreichender Defibrillationsschwelle zusätzlich eingesetzt. Die einzelnen Spulen der Fingerelektrode werden über einen Y-Konnektor mit der rechtsventrikulären Schockspule parallel geschaltet. Single Lead-VDD-ICD ist ein Elektrodensystem für ein Zweikammer-ICD. Bei dieser Elektrode, die in der Herzspitze (Apex) der rechten Herzkammer fixiert wird, erfolgt die Aufnahme der Vorhofsignale über zwei Elektrodenringe. Damit ersetzt sie die sonst zusätzliche atriale Elektrode. Bi- und tripolare EKG-Ableitungen in ICD-Systemen ermöglichen eine zuverlässige Ischämieerfassung, die dem konventionellen Oberflächen-EKG durch die frühzeitige Erkennung von Ischämien sowie deren Schwere und Dauer deutlich überlegen ist.
26.7.5 Komplikationen
Das Spektrum der ICD-Komplikationen reicht von harmlosen Komplikationen wie Hautreizungen, leichten Verbrennungen an der Elektrodenauflagefläche bis hin zu schweren Komplikationen wie dem Auftreten von Extrasystolen nach Defibrillation, Kammertachykardien, -flimmern (bei falscher Triggerung) oder dem Auftreten einer Asystolie nach Elektrokonversion beim Sinusknotensyndrom. ICD-spezifische Komplikationen können einerseits durch das Aggregat hervorgerufen werden: ▬ druckbedingte Nekrosen; ▬ Gefahr einer Infektion; ▬ technische Fehler und Funktionsstörungen, z.B. durch starke externe Magnetfelder oder Batterieerschöpfung; ▬ Aggregatperforation.
455 Weiterführende Literatur
⊡ Tab. 26.2. Grenzwerte für die intraoperativen Messungen bei Implantationen von Schrittmachern und ICD-Systemen (mod. nach Roskamm et al., 2004) Ventrikel
Atrium
Signalamplitude
>5 mV, optimal >8 mV
>2 mV, optimal >3 mV
Reizstromschwelle (bei 0,5 ms)
<1 V, optimal <0,5 V
<1 V, optimal <0,5 V
Impedanz (elektrodenabhängig)
300 bis 1200 Ω
300 bis 1200 Ω
slew rate
>0,5 V/s
>0,3 V/s
Andererseits durch die Elektroden: ▬ bei Elektrodendislokalisation: mögliche Stimulierung von Muskeln; ▬ inadäquate Schockabgaben durch Wahrnehmung von Muskelpotentialen oder externen Störquellen; ▬ Elektrodenbrüche, Isolationsdefekte oder ein Anstieg der Reizschwelle (möliche Ursache für eine Elektrodenfehlfunktion). Fehlfunktionen der Wahrnehmungsfunktion (Sensing) sind das Undersensing und Oversensing. Beim Undersensing werden lebensbedrohliche Arrhythmien nicht oder zu spät erkannt, während beim Oversensing inadäquate Schockabgaben erfolgen.
26.7.6 Funktionskontrolle
Während es in den Anfängen der ICD-Gerätetechnik aus technischen Gründen noch notwendig war, die Funktionsfähigkeit des Implantats von ICD-Patienten alle 2 Monate zu überprüfen, wird dieser Check inzwischen von den Geräten selbstständig ausgeführt. Eine 3- bis 6-monatige Funktionskontrolle des Systems (ICD-Abfrage, Analyse von gespeicherten EKGs, Batteriestatus, Wahrnehmungstest u. a.) ist ausreichend. Bei Hinweis auf fehlerhafte Wahrnehmung (sog. Over- oder Undersensing) wird i. d. R. der Thorax geröntgt, um Isolationsdefekte der Sonde zu erkennen. Aufgrund der verbesserten Batterietechnik soll die Haltbarkeit von 1-Kammersystemen bei ca. neun Jahren, 2-Kammersystemen bei ca. sieben Jahren und 3-Kammersystemen bei ca. fünf Jahren liegen. Damit wird sich die Gerätelaufzeit deutlich gegenüber vorherigen ICD-Systemen verlängern. Auch ein notwendiger Aggregatwechsel ist erst zu einem späteren Zeitpunkt erforderlich. Telemetrisch können abgespeicherte Daten wie Therapieepisoden, Elektrogramme, Batteriezustand oder Elektrodenwiderstand abgefragt werden. Bei Schrittmacher- und ICD- Implantationen werden zur Funktionskontrolle unterschiedliche Geräteparameter intraoperativ gemessen und ggf. justiert (⊡ Tab. 26.2).
Weiterführende Literatur Adams HA et al. (1999) Kardiopulmonale Reanimation. In: Adams HA, Sefrin P, Hempelmann G (Hrsg) Notfallmedizin, Bd 3. Stuttgart AHA (2005) American Heart Association Guidelines for Cardiopulmonary Resuscitation and Emergency Cardiovascular Care. Circulation 2005;112 (Suppl I) Ahnefeld FW et al. (1991) Richtlinien für die Wiederbelebung und Notfallversorgung. Deutscher Ärzteverlag, Köln ANSI/AAMI (1981) American National Standard for Cardiac Defibrillation Device. DF 2 Bernstein AD (1993) Pacemaker, Defibrillator and Lead Codes. Heart Rhythm Society Bolz A, Urbaszek W (2002) Technik in der Kardiologie. Springer, Berlin Heidelberg New York Tokio CoSTR (2005) International Consensus on Cardiopulmonary Resuscitation (CPR) and Emergency Cardiovascular Care (ECC) Science with Treatment Recommendations. Circulation 2005;112 (Suppl). DIN-VDE 0750, Teil 201 (1985) Medizinische Geräte. Besondere Festlegung für die Sicherheit von Defibrillatoren mit und ohne Monitor DIN-VDE 0753, Teil 3 (1983) Anwendungsregeln für Defibrillatoren ERC (2005) European Resuscitation Council Guidelines for Resuscitation. Resuscitation 2005; 67 (Suppl 1), S1-S190 Erdmann E (2006) Klinische Kardiologie. Springer, Berlin Heidelberg New York Tokio Götz E, Zander J (1994) Wiederbelebung. In: Lawin P (Hrsg) Praxis der Intensivbehandlung, 6. Aufl. Thieme, Stuttgart, S 309–310 Haverkamp W et al. (2003) Moderne Herzrhythmustherapie. Thieme, Stuttgart ILCOR (2005) The International Liaison Committee on Resuscitation (ILCOR) Guidelines for Resuscitation. Resuscitation 2005; 67(2–3), 157–342 Lutamsky B, Flake F (1997) Leitfaden Rettungsdienst. Fischer, Stuttgart Lüderitz B (2010) Herzrhythmusstörungen. Diagnostik und Therapie, 6. Aufl. Springer, Berlin Heidelberg New York Tokio Fiedermetz M (1999) Frühdefibrillation. In: Madler C, Jauch KW, Wodan K (Hrsg) Das NAW-Buch. Praktische Notfallmedizin, 2. Aufl. Urban & Schwarzenberg, München Wien, S 341–348 Fröhlig G et al. (2006) Herzschrittmacher und Defibrillator-Therapie, Thieme, Stuttgart Pop T (1998) Notfallmedizin. Repetitorium: Kardiovaskuläre Notfälle. Demeter, Stuttgart Planta M von (1999) Herz-Kreislaufstillstand/Cardiopulmonale Reanimation (CPR). In: Gyr E, Schoenenberger RA, Haefeli WE (Hrsg) Internistische Notfälle, 6. Aufl. Thieme, Stuttgart, S 8–13 Presseinformation (12/2000) Albert-Ludwigs-Universität Freiburg Sefrin P (1999) Notfalltherapie, 6. Aufl. Urban & Schwarzenberg, München Wien Roskamm H et al. (2004) Herzkrankheiten, 5. Aufl. Springer, Berlin Heidelberg New York Tokio Wietholt D et al. (1997) Implantierbare Kardioverter-Defibrillatoren. Thieme, Stuttgart Ziegenfuß T (1997) Rettungsmedizin. Thieme, Stuttgart
26
27 Lasersysteme E. Krasicka-Rohde, F. Zgoda 27.1
Geschichte – 457
27.2
Physik und Technik
27.2.1 27.2.2 27.2.3 27.2.4
Lasermedium – 458 Laserstrahl – 460 Lasergerät – 461 Strahlführungssysteme – 462
27.3
Anwendungsmethoden – 462
27.3.1 27.3.2 27.3.3
Berührungsloser Einsatz – 462 Kontaktmethode – 462 Gas- oder Flüssigkeitsspülung beim Laserschneiden – 463 Spezielle Applikatoren – 463
27.3.4
– 458
27.4
Biophysikalische Wirkungen auf Gewebe – 463
27.4.1 27.4.2 27.4.3 27.4.4
Absorption und Eindringtiefe – 463 Photochemische Effekte – 464 Photothermische Effekte – 464 Photodekompositionseffekte – 465
27.5
Lasertypen in der Medizin – 465
27.5.1 27.5.2 27.5.3
Rubinlaser – 466 Neodym:YAG-Laser – 466 Frequenzverdoppelter Nd:YAG-Laser (sog. KTP-Laser) – 466 Erbium:YAG-Laser – 466 Holmium:YAG-Laser – 466 Alexandritlaser – 467
27.5.4 27.5.5 27.5.6
27.1
Geschichte
Die Geschichte des Lasers ist von Anfang an eng mit medizinischen Anwendungen verknüpft. Heilen mit Licht war schon zuvor Bestandteil der Medizin. Die Wirkung einer Lichttherapie zur Behandlung von Hautkrankheiten, die Unterstützung der Vitamin-D-Produktion durch UV-Licht und die Nutzung der Sonnenstrahlung zur Behandlung von Augenerkrankungen (Meyer-Schwickerath 1948) sind lange bekannt. Die Besonderheit der Laserstrahlung liegt darin, dass es sich um eine gut steuerbare Energiequelle handelt, die wahlweise zur gezielten Erhitzung von Gewebe, zur Zerstörung von körpereigenen Steinen oder zur selektiven Anregung photochemischer Prozesse eingesetzt werden kann [6]. Das Wort LASER ist ein Akronym aus Light Amplification by Stimulated Emission of Radiation, auf deutsch »Lichtverstärkung durch induzierte Emission von Strahlung«. Dieser Prozess, bereits 1917 von Einstein postuliert [9],
27.5.7 27.5.8 27.5.9 27.5.10 27.5.11 27.5.12 27.5.13
Diodenlaser – 467 CO2-Laser – 467 Argon- und Kryptonionenlaser – 467 Excimer-Laser – 468 HeNe-Laser – 468 Farbstofflaser – 468 Freie-Elektronen-Laser – 468
27.6
Anwendungsfelder – 468
27.6.1 27.6.2 27.6.3 27.6.4 27.6.5 27.6.6 27.6.7 27.6.8
Auge – 468 Körperoberfläche – 468 Gefäßsystem – 470 Offene Chirurgie – 470 Endoskopie – 471 Photodynamische Therapie – 471 Lithotripsie – 471 Laserinduzierte Thermotherapie – 471
27.7
Sicherheitsaspekte
27.7.1
Zulässige Bestrahlung und Laserklassifizierung – 472 Sicherheitstechnische Anforderungen an Lasergeräte – 473 Organisatorische Schutzmaßnahmen und Anwendungssicherheit – 474
27.7.2 27.7.3
27.8
– 472
Zukunftsperspektiven
– 475
Weiterführende Literatur
– 475
ist die Grundlage für die Erzeugung monochromatischen, kohärenten und kollimierten Lichts, womit höhere Leistungsdichten und größere spektrale Reinheit erreichbar sind als mit jeder anderen Lichtquelle. Townes realisierte 1954 nach diesem Prinzip den ersten MASER, einen Verstärker für Mikrowellen. 1958 wurde das Prinzip des Lasers für optische Strahlung erstmals durch Schawlow und Townes (USA) sowie durch Basov und Prokhorov (UdSSR) veröffentlicht. Maiman realisierte 1961 den ersten Laser mit sichtbarem Licht (Rubinlaser), noch im gleichen Jahr folgte Javan mit dem ersten infraroten Gaslaser (HeNe). In der Medizin wurde der Rubinlaser 1961 von Campbell in der Augenheilkunde und 1963 von Goldman in der Dermatologie eingesetzt. Während sich der Laser in der Ophthalmologie (zunächst vor allem der Argonionenlaser, L’Esperance 1968) von da an einen festen, allgemein anerkannten Platz erobern konnte, hielt er in andere Bereiche der Medizin erst nach und nach Einzug. Mester, ein
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _27, © Springer-Verlag Berlin Heidelberg 2011
458
III
Kapitel 27 · Lasersysteme
Arzt aus Budapest, hat zuerst 1964 mit einem Rubinlaser, dann 1974 mit einem schwachen Helium-Neon-Laser die Biostimulation versucht. Ein weiterer Laser, der als »Lichtskalpell« in alle chirurgischen Disziplinen Eingang gefunden hat, ist der Kohlendioxidlaser (CO2-Laser). Seine ersten Anwendungen fanden 1965 durch Polanyi und 1967 durch Kaplan statt. Der Argonionen- und vor allem der Nd:YAG-Laser wurden für die breitere medizinische Applikation erst interessant, als es gelang, sie in Glasfasern einzukoppeln. 1971 entwickelte Naht eine Faser, die er zusammen mit Kiefhaber 1973 erstmals im Tierversuch über Endoskope im Magen-Darm-Trakt anwandte. Die weitere Entwicklung schritt dann sehr schnell voran. 1975 haben Dwyer in den USA und Frühmorgen in Erlangen einen Argonionenlaser zur Stillung von Magenblutungen an Patienten benutzt. Ende 1975 hat Kiefhaber hierfür einen Nd:YAG-Laser eingesetzt. 1976 erfolgte durch Hofstetter der Lasereinsatz in der Urologie, und 1979 meldete Choy ein Patent zur Eröffnung verkalkter Arterien mit dem Argonionenlaser an. Nachdem 1960 die Hämatoporphyrinderivate (HpD) entdeckt worden waren, fand diese Substanzklasse 1972 erstmals durch Diamond Anwendung in der photodynamischen Therapie, die dann 1975 von Dougherty weitgehend standardisiert werden konnte. Bei den gepulsten Systemen wurden 1977 erstmals Güteschaltung (Q-switching) und Phasenkopplung (modelocking) von Fankhauser und Aron-Rosa in der Ophthalmologie eingesetzt. 1983 fand in diesem Fachgebiet auch der erste Einsatz des Excimer-Lasers durch Trokel statt. Heute steht dem Arzt eine Vielzahl von Lasern für die verschiedensten Indikationen zur Verfügung. In zahlreichen medizinischen Bereichen hat sich der Laser dank seiner Vorteile als Standardverfahren etabliert, während zugleich ständig neue Anwendungsfelder erschlossen werden [14].
27.2
Physik und Technik
Ein Laser ist ein Gerät zur Umwandlung elektrischer Energie in »geordnete« Lichtenergie. Konventionelle Lichtquellen, wie Glühlampen oder Leuchstoffröhren, verhalten sich zu Lasern wie eine Funkenstrecke zu einem Rundfunksender. Als ideale Lichtsender sind Laser das direkte Analogon im Terahertzbereich zum Radiosender im Megahertzbereich. Die von Einstein postulierte induzierte Emission ist zwar als Effekt in jeder Leuchterscheinung von Materie rudimentär vorhanden, kann aber nur in ausgewählten Materialien wirklich zur Dominanz gebracht werden. So wie in der Medizin bei verschiedenen Operationen spezielle Instrumente verwendet werden, gibt es auch zur Anpassung an das zu behandelnde Gewebe und spezielle Therapien unterschiedliche medizinische Lasergeräte (⊡ Abb. 27.1, 4-Farbteil am Buchende). Diese unterschei-
⊡ Abb. 27.2. Komponenten eines medizinischen Lasersystems
den sich vor allem in ihrer Emissionswellenlänge, die im Bereich des Ultraviolett (UV) mit einer Wellenlänge von etwa 0,2 μm beginnt und bis ins Infrarote bis etwa 10 μm Wellenlänge reicht. Da die meisten Laser auf einem schmalen spektralen Übergang von Elektronen beruhen, kann man sie nicht einfach wie einen Radiosender durchstimmen; eine Ausnahme bilden Farbstofflaser, vibronische Festkörperlaser und der Freie-Elektronen-Laser. Einige Gaslaser bieten zwar je nach Art des gewählten Mediums mehrere Wellenlängen, aber auch diese sind nicht veränderbar. Ferner unterscheiden sich Lasersysteme in ihrer technisch-physikalischen Ausgestaltung, was die konstruktive Anordnung und das Zeitverhalten des Laserstrahls betrifft. Der Laser allein stellt nur eine Lichtquelle dar, benötigt wird jedoch ein komplettes System, das mit einem Übertragungssystem und einem Endgerät die Strahlung dirigierbar an das zu therapierende Gewebe bringt, und ein Verfahren zur Kontrolle der Wirkung. Je nach Wellenlänge wird zur Übertragung eine Glas- oder Quarzfaser, ein Faserbündel, ein Hohlleiter oder ein Spiegelgelenkarm verwendet. Endgeräte können z. B. ein Operationsmikroskop mit Mikromanipulator, ein Endoskop oder eine Spaltlampe sein (⊡ Abb. 27.2). Die Kontrolle der Wirkung hängt vom laserinduzierten Prozess ab und beruht in vielen Fällen auf der visuellen Beurteilung durch den erfahrenen Therapeuten. Bei sehr differenzierten Vorgehensweisen mit einer präzisen Dosissteuerung, wie der interstitiellen Thermotherapie von Tumoren oder Metastasen, können auch bildgebende Systeme wie Ultraschall oder Magnetresonanztomographie zum Einsatz kommen.
27.2.1 Lasermedium
Um die Notwendigkeit der Gerätevielfalt zu verstehen, seien einige physikalische Grundlagen erläutert, auf denen die verschiedenen »Lichtverstärker durch induzierte Emission« beruhen. Spontane Emission von Licht erfolgt, wenn einem Körper (Gas, Flüssigkeit oder Festkörper) Energie zugeführt wurde, sodass »Leuchtelektronen« aus dem Grund-
459 27.2 · Physik und Technik
⊡ Abb. 27.3. Niveauschema für »Leuchtelektronen« und Besetzungszahlen für verschiedene Temperaturen
zustand n1 in einen angeregten Zustand (Niveau) n2 gebracht wurden, das Elektron nach einer charakteristischen mittleren Zeit wieder spontan in den Grundzustand übergeht und dabei ein Photon emittiert wird. Die Verteilung der Elektronen auf den Grundzustand und die angeregten Zustände (Besetzungszahl) hängt von der Temperatur ab (⊡ Abb. 27.3): Je höher die Temperatur ist, desto mehr Elektronen befinden sich im Mittel in angeregten Zuständen. Bei einer thermischen Lichtquelle (Glühlampe) wird ständig Energie durch Erwärmen zugeführt, um Elektronen wieder in höhere Niveaus zu »pumpen«. Die Verweildauer in den angeregten Niveaus ist kurz; damit das Elektron wieder in den Grundzustand übergehen kann, darf dieser nicht komplett gefüllt sein. Die Anregung eines Elektrons kann auch durch Einstrahlen von Licht erfolgen. In diesem Fall wird durch Absorption der entsprechenden Energiedifferenz ΔE das höhere Niveau besiedelt. Neben dem unmittelbaren Übergang von einem höheren Niveau direkt zum Grundniveau kann die Rückkehr in den Grundzustand auch in Stufen über mehrere Zwischenniveaus erfolgen. Da die Lebensdauer der Niveaus unterschiedlich ist, d. h. die Niveaus unterschiedlich schnell entleert werden, können sich Elektronen in höheren Niveaus »ansammeln«. Die induzierte Emission ist ein Prozess, bei dem durch Einstrahlung eines Photons passender Energie der vorzeitige Übergang eines Elektrons aus einem besetzten höheren Niveau in das teilweise entleerte Grundniveau ausgelöst wird. Die Besonderheit ist, dass das emittierte Photon die gleiche Wellenlänge, Richtung und Phase wie das einfallende Photon besitzt, das bei diesem Vorgang nicht absorbiert wird. Das eingestrahlte Photon wurde also dupliziert, d. h. »verstärkt«. Die meisten Laser nutzen
⊡ Abb. 27.4. Niveauschemata
mehrere Niveaus, die sich in der Lebensdauer und der Besetzungszahl unterscheiden. Die ⊡ Abb. 24.4 zeigt die Schemata für einen 3- bzw. 4-Niveau-Laser. Für den Laserprozess muss die Zahl der Atome, bei denen das höhere, obere Laserniveau besetzt ist, immer größer gehalten werden als die Besetzungszahl des niedrigen, unteren Laserniveaus. Als Lasermedium können alle Stoffe verwendet werden, bei denen diese sog. »Besetzungsinversion« erzeugt werden kann, z. B. freie Atome, Moleküle und Ionen in Gasen oder Dämpfen, in Flüssigkeiten gelöste Farbstoffmoleküle, in Festkörpern (Kristallen und Gläsern) eingebaute Atome und Ionen, dotierte Halbleiter und freie Elektronen in äußeren Feldern. Der jeweilige Anregungsmechanismus für die Erzeugung einer Besetzungsinversion ist spezifisch für den jeweiligen Lasertyp. Die wichtigsten Verfahren sind das optische Pumpen und die elektrische Gasentladung. Bei den Halbleiterlasern erfolgt die Anregung direkt durch elektrischen Strom (Ladungsinjektion). Auch chemische Reaktionen können zum Anregen genutzt werden. Bei
27
460
III
Kapitel 27 · Lasersysteme
kontinuierlich strahlenden Lasern muss die Besetzungsinversion ständig aufrechterhalten werden, d. h., es muss kontinuierlich »Pumpenergie« zugeführt werden. Im Lasermedium emittieren angeregte Atome bereits spontan Photonen in alle Richtungen. Diese können nun im Lasermedium durch induzierte Emission weitere Photonen erzeugen, die dann ihrerseits wiederum induzierte Photonen freisetzen usw. Dieser Vorgang setzt sich lawinenartig fort, bis die Photonen das Lasermedium verlassen. Gibt man dem Lasermedium in einer Richtung eine größere Ausdehnung, so werden Photonenlawinen, die zufällig in dieser Längsrichtung entstehen, bedeutend höher verstärkt als in jeder anderen Richtung, weil sie länger durch das Lasermedium laufen. Durch zwei Spiegel an den beiden Enden kann man die Photonenlawine wieder in das Lasermedium reflektieren und so eine weitere Verstärkung erreichen. Bei optimaler Justierung der Spiegel läuft die Photonenlawine bis zu einigen hundert Malen in der »Resonator« genannten Spiegelanordnung im Lasermedium hin und her. Damit ein Teil der Photonen den Resonator als nutzbarer Laserstrahl verlassen kann, wird einer der Resonatorspiegel teildurchlässig ausgeführt. ⊡ Abb. 27.5 zeigt einen Vergleich zwischen einem Hochfrequenzsender mit den Komponenten Verstärker und Rückkopplung und einem Laser, bei dem Lasermedium und Resonator die entsprechenden Funktionen besitzen.
▬ Monochromasie:
Ein schmales (»einfarbiges«) Spektralband hoher Intensität wird emittiert. Diese drei Eigenschaften bedingen die gute Fokussierbarkeit zur Erreichung hoher Energiedichten und machen damit auch ein exaktes Arbeiten mit einem Strahl kleinster Querschnittsfläche möglich.
27.2.2 Laserstrahl
Im Unterschied zur Strahlung einer thermischen Lichtquelle sind für Laserlicht insbesondere drei Eigenschaften charakteristisch (⊡ Abb. 27.6): ▬ Kohärenz: Laserstrahlung hat eine bestimmte räumliche und zeitliche Ordnung (feste Phasenbeziehungen). ▬ Kollimation: Die Strahlung des Lasers ist sehr gut gebündelt (geringe Divergenz).
⊡ Abb. 27.5. Vergleich des Funktionsprinzips eines Hochfrequenzsenders und eines Lasers mit dem Lasermedium als Verstärker
⊡ Abb. 27.6a–c. Eigenschaften von Laserlicht. a Kohärenz, b Kollimation, c Monochromasie
461 27.2 · Physik und Technik
Neben den physikalischen Grundeigenschaften Monochromasie, Kohärenz und Kollimation des Laserlichts sind für die medizinische Anwendung die optischen Eigenschaften der biologischen Gewebe von ausschlaggebender Bedeutung. Wichtig für die Diagnostik mit Laserlicht sind das Absorptionsverhalten, die Fluoreszenz und das Streuverhalten. Diese Eigenschaften werden photometrisch und spektroskopisch ausgewertet. In der Therapie werden überwiegend die Kollimation der Strahlung und die Absorptionseigenschaften des bestrahlten Gewebes genutzt. Die Wechselwirkung der Strahlung mit den verschiedenen Gewebearten wird im Wesentlichen durch zwei Parameter bestimmt: die Einwirkzeit der Strahlen auf das Gewebe und die effektiv zur Wirkung gelangende Leistungsdichte (⊡ Abb. 27.7). Durch entsprechende Wahl der Fokusgröße kann die Leistungsdichte in einem weiten Bereich variiert werden. Mit kurzen Brennweiten wird ein kleinerer Fokus erreicht als mit längeren, allerdings verändert sich auch die Einstrahlfläche bei kleinen Abweichungen vom optimalen Abstand für kurze Brennweiten wesentlich stärker. Die Einwirkzeit kann gesteuert werden, indem die Strahlung kontinuierlich (cw = continuous wave) oder getaktet (mit einstellbarem Puls-Pause-Verhältnis) oder kurz gepulst angewendet wird. Damit lässt sich für die verschiedenen Gewebewirkungen das Verhältnis von therapeutischem Effekt zu Nebenwirkungen kontrollieren.
für gebräuchliche Lasertypen. Der Wirkungsgrad eines Argonionenlasers beträgt unter 0,1%, der eines Nd:YAG-Lasers ca. 1–3% und der eines CO2-Lasers 5–20%. Den höchsten Wirkungsgrad weisen mit 3040% Diodenlaser auf, ähnlich wie gewöhnliche LED. Die Lichtausbeute einer Halogenglühlampe beträgt zum Vergleich ca. 3%. Die wesentlichen Komponenten medizinischer Lasersysteme zeigt ⊡ Abb. 27.9. Schematisch dargestellt sind der Laserresonator mit Pumpquelle, die Stromversorgung und Kühlung sowie der Detektor für die Leistungsmessung, der Sicherheits-Shutter zur Freigabe der Laserstrahlung und die Einkopplung eines Pilot- oder Zielstrahls bei Laserwellenlängen im unsichtbaren UV- oder IR-Bereich.
27.2.3 Lasergerät
Lasergeräte bestehen nicht nur aus dem Lasermedium, dem Resonator und der Pumpquelle. Da nur ein kleiner Teil der aufgewendeten Energie in Laserlicht umgewandelt wird, muss ein erheblicher Teil als Wärme abgeführt werden. ⊡ Abb. 27.8 gibt einen Überblick über das Verhältnis von Pumpenergie zu Laserenergie
⊡ Abb. 27.8. Laserenergie in Relation zur Pumpenergie; die Verluste müssen durch Kühlung abtransportiert werden
⊡ Abb. 27.7. Verhältnis von Fokusgröße und Leistungsdichte für verschiedene Brennweiten und Arbeitsabstände, Variation der Leistungsdichte und Fleckgröße beim Koagulieren und Schneiden
⊡ Abb. 27.9. Technische Komponenten eines Lasergerätes: Der Laserstrahl wird bei Wellenlängen außerhalb des sichtbaren Bereichs mit einem sichtbaren Zielstrahl markiert, der Detektor misst die Intensität oder Energie am Laserkopf. Nicht dargestellt ist der Fußschalter zur Freigabe der Strahlung
27
462
III
Kapitel 27 · Lasersysteme
27.2.4 Strahlführungssysteme
27.3
Für die Applikation der Laserstrahlung auf das zu behandelnde Gewebe muss die Entfernung zwischen Lasergeräteausgang und Patient überbrückt werden (vgl. ⊡ Abb. 27.2). Für die Übertragung von sichtbarem Laserlicht und den angrenzenden Spektralbereichen von ca. 0,3–2 μm lassen sich flexible Quarzglasfasern, ggf. mit spezieller Dotierung, verwenden. Außerhalb dieses Bereichs werden Spiegelgelenkarme verwendet, um die Bereiche 0,19–0,3 μm (Excimer-Laser) und 3–10 μm (Erbium- und CO2-Laser) abzudecken (⊡ Abb. 27.10). CO2Laserstrahlung wird teilweise auch mit Hohlleitern über kurze Entfernungen übertragen, allerdings erreicht die Strahlqualität dabei nicht die mit einem Spiegelgelenkarm mögliche. Besondere Anforderungen werden bei der Übertragung kurzgepulster, energiereicher Laserstrahlung z. B. zur Laserlithotripsie und Laserangioplastie an die Lichtleitfasern gestellt. Für alle Wellenlängen und Leistungsdichten, die mit herkömmlichen Lichtleitfasern nicht oder nur schlecht übertragen werden können, sind die derzeit entwickelten photonischen Fasern (photonic bandgap fibers) von großem Interesse. Diese speziellen Fasern weisen einen hohlen Kern auf, der von einem periodisch mikrostrukturierten Mantel umgeben ist. Die zweidimensionale periodische Struktur stellt eine »photonische Bandlücke« im Fasermaterial dar, in der sich Strahlung einer bestimmten Wellenlänge nicht ausbreiten kann. Sie wird daher mit sehr geringer Dämpfung und praktisch dispersionsfrei im hohlen Kern geführt.
27.3.1 Berührungsloser Einsatz
⊡ Abb. 27.10. Laserwellenlängen und Verfügbarkeit von Lichtwellenleitern für verschiedene Lasersysteme
Anwendungsmethoden
Beim berührungslosen Einsatz wird die Laserstrahlung über Strahlführungssysteme an das Gewebe gebracht, ohne dass das Gewebe berührt wird. Hierfür kommen Spiegelgelenkarme und Quarzglasfasern in Frage. Gegenüber Spiegelgelenkarmen erlauben Lichtleitfasern eine flexiblere Anwendung. Mit der Ausnahme so genannter bare fibers (Lichtleitfasern mit sauber gebrochener oder polierter Endfläche), die die Laserstrahlung divergent abstrahlen, werden am Ende der Strahlführungssysteme optische Endgeräte wie Fokussierhandstücke, Mikromanipulatoren (bei Verwendung von Operationsmikroskopen oder ophthalmologischen Spaltlampen) oder Endoskopkoppler (für starre Endoskope) angeschlossen.
27.3.2 Kontaktmethode
Das zu schneidende Gewebe wird in direkten Kontakt mit dem Faserende gebracht. Durch die heiße Faserspitze vaporisiert das Gewebe, und eine homogene Karbonisationszone bleibt als scharf begrenzte Schnittkante zurück. Für ein effektives Schneiden ist hierbei eine Schwärzung des Faserendes durch anhaftende Karbonisate wesentlich. Durch ein »Freibrennen« der Spitze ist ein Wechsel zum berührungslosen Einsatz, z. B. zur Koagulation, leicht möglich. Der Durchmesser handelsüblicher Lichtleiter erlaubt die endoskopische Anwendung der Kontaktmethode.
463 27.4 · Biophysikalische Wirkungen auf Gewebe
27.3.3 Gas- oder Flüssigkeitsspülung
beim Laserschneiden Zum Schutz der patientenseitigen Optiken der Endgeräte, der Stirnfläche des Applikators oder der Faserspitze können die Endflächen mit Schutzgas gespült werden. Mit Nd:YAG- und Diodenlasern kann auch unter Flüssigkeitsspülung gearbeitet werden. Hierbei wird der Laserstrahl durch Totalreflexion im Wasserstrahl fortgeleitet, sodass auch eine Koagulation von Gewebeoberflächen »um die Ecke« möglich ist. Die Spülung vergrößert auch die Schnitttiefe in Weichgewebe, indem die entstehenden Verdampfungs- oder Ablationsprodukte aus dem Schnittkanal gespült werden und die Laserstrahlung ungehindert eindringen kann. Bei der Photoablation im Kontakt kann der photohydraulische Effekt die Wirkung weiter verstärken, sodass Ablationskanäle entstehen, die die Faser ungehindert passieren lassen.
27.3.4 Spezielle Applikatoren
Neben den bereits erwähnten Standardapplikatoren wurden für bestimmte Anwendungen spezielle Ausführungen entwickelt. Für die interstitielle Koagulation von Tumoren und Metastasen finden Streuapplikatoren Verwendung, die eine homogene und isotrope Abstrahlung ermöglichen. Zur intrakardialen und urologischen Koagulation und Ablation von Gewebe existieren verschiedene Formen von Kathetern, die Laserlicht seitlich abstrahlen. Die Laserangioplastie nutzt für die Übertragung der Strahlung des Excimer-Lasers (308 nm) Multifaserkatheter mit vielen dünnen Quarzfasern, um gleichzeitig einen großen Querschnitt für die Übertragung der Laserstrahlung, einen Spülkanal und eine hohe Flexibilität des gesamten Katheters zu erhalten. Für die photodynamische Therapie existieren Lichtleitfasern mit Mikrooptiken am distalen Ende, die die homogene Ausleuchtung eines scharf begrenzten Areals erlauben.
27.4
Eindringtiefe in das Gewebe begrenzen. Im nahen Infrarot verteilt sich die Strahlung dagegen recht homogen im Körpergewebe, deshalb kann die Eindringtiefe wellenlängenabhängig mehr als 5 mm betragen. Im mittleren und ferneren Infrarot (3,0–10,6 μm) wird die Lichtenergie im Wesentlichen vom Wasser absorbiert. Verglichen mit der Absorption der Laser im sichtbaren Bereich hat man es mit einer 10–100-fach effektiveren Ankopplung zu tun, sodass die Eindringtiefe und das Verteilungsvolumen sehr gering sind. Dadurch kommt es bereits bei geringeren Leistungsdichten zu einer Verdampfung des biologischen Materials. So lässt sich Gewebe abtragen und schneiden, ohne dass eine wesentliche thermische Schädigung der Umgebung auftritt. ⊡ Abb. 27.11 gibt den spektralen Verlauf des Absorptionskoeffizienten für Wasser und typische Weichgewebe wieder. Im sichtbaren Bereich weist Weichgewebe durch körpereigene Chromophore wie Hämoglobin, Melanin, Koenzyme u.a. eine deutlich höhere Absorption auf, während im IR-Bereich der Verlauf für Wasser eine gute Näherung darstellt. Bei der Bestrahlung von Körpergewebe ist zu beachten, dass sich bereits im Bereich photothermaler Effekte die optischen Eigenschaften, wie Absorption und Streuung, mit fortschreitender Expositionsdauer erheblich verändern [16]. Für medizinische Behandlungen können in Abhängigkeit von Einwirkdauer und Leistungsdichte drei Hauptklassen von Wirkprinzipien unterschieden werden (⊡ Tab. 27.1, ⊡ Abb. 27.12) [1, 2, 10]: ▬ photochemische Effekte (10–1000 s; 10-3–1 W/cm2), ▬ photothermische Effekte (1 ms–100 s; 1–106 W/cm2) und ▬ Photodekompositionseffekte (10 ps–100 ns; 108–1012 W/cm2).
Biophysikalische Wirkungen auf Gewebe
In der Therapie wird die Wirkung der Strahlung auf die verschiedenen Gewebearten im Wesentlichen durch zwei Parameter bestimmt: die Einwirkdauer der Strahlung auf das Gewebe und die effektiv zur Wirkung gelangende Leistungsdichte, bei der die gewebespezifische Absorption und Streuung berücksichtigt ist [1, 2, 16].
27.4.1 Absorption und Eindringtiefe
Im sichtbaren Spektrum existieren z. T. spezifische Absorptionen, z. B. von Hämoglobin und Melanin, die die
⊡ Abb. 27.11. Absorptionskoeffizient als Funktion der Wellenlänge für Wasser und Gewebe
27
464
Kapitel 27 · Lasersysteme
⊡ Tab. 27.1. Laser-Gewebe-Effekte Photochemische Effekte
III
Photoinduktion
Biostimulation
Photoaktivierung von Drogen
POD
Photochemotherapie
Photodynamische Therapie (PDT) »Black Light Therapy« (PUVA)
Photothermische Effekte Photohyperthermie
37–43°C: reversible Schädigung von normalem Gewebe 43–65°C: Ödemisierung der Zellen, Gewebeschweißen, Eiweißfällung
Photothermolyse
Thermisch-dynamische Effekte Mikroskopisch geringe Überhitzung
Photokoagulation
65–100°C: Koagulation, Nekrose
Photokarbonisation
100–300°C: Austrocknen, Verdampfen von Wasser, Karbonisation
Photovaporisation
>300°C: Pyrolyse, Vaporisation von Gewebe
Photodekompositionseffekte Photoablation
Schnelle thermische Explosion
Photodisruption
Optischer Durchbruch, mechanische Stoßwelle
Photofragmentation
Lithotripsie
entweder körpereigenen oder körperfremden Farbstoffen oder chromophoren Gruppen an Biomolekülen photochemische Reaktionen auszulösen. Vier grundsätzliche Arten photochemischer Reaktionsmechanismen können unterschieden werden: ▬ die photoinduzierte Isomerisation z. B. beim Bilirubinabbau, ▬ die photoinduzierte Ladungserzeugung z. B. im visuellen Prozess, ▬ die photoinduzierte Synthese z. B. bei der Photosynthese in Pflanzen, ▬ die photoinduzierte Dissoziation z. B. in der photodynamischen Therapie (PDT).
27.4.3 Photothermische Effekte ⊡ Abb. 27.12. Energiedichtebereiche für die verschiedenen Gewebewirkungen von Laserstrahlung als Funktion der Einwirkdauer
27.4.2 Photochemische Effekte
Hierzu gehören die Photoinduktion oder Photoaktivierung, gewöhnlich Biostimulation genannt, und die photodynamische Therapie (PDT) oder Photosensitivierung. Die Laserenergie wird dazu benutzt, durch Absorption in
Hier wird die auftreffende optische Strahlung in Wärme umgewandelt und verursacht abhängig von der erreichten Temperatur die Koagulation, Vaporisation oder Karbonisation des Gewebes. Bei Temperaturen von 43–65°C kommt es zu einer Störung der Membranfunktionen, zu enzymatischen Veränderungen und nachfolgend zur Ödembildung. Die thermisch-dynamische Entzündungsreaktion gehört in diesen Übergangsbereich. Die nachfolgende Organisation des bestrahlten Gewebes führt nach einigen Wochen zum
465 27.5 · Lasertypen in der Medizin
Verschluss kleinster Gefäße. Dieses Wirkprinzip wird bei der Behandlung von Naevi flammei angewandt. Auch das Gewebeschweißen ist in diesem Temperaturbereich angesiedelt, basiert jedoch auf einer anderen, bisher nur vage definierten Gewebereaktion. Koagulation des Gewebes (Eiweißfällung) wird bei einer Temperatur von 65–100°C erreicht. Zur Blutstillung und Tumordenaturierung wird in diesem Temperaturbereich gearbeitet. In diesem Fall wird das Gewebe zwar abgetötet, aber als Gewebeverband erhalten, der dann später vom Körper abgebaut und durch einsprossendes neues Gewebe ersetzt wird. Bei der Karbonisation im Temperaturbereich von 100–300°C erfolgt die Verdampfung von Wasser und eine Austrocknung des Gewebes. Die Vaporisation, das Verdampfen von Gewebe, wird bei Temperaturen weit oberhalb von 300°C erreicht (⊡ Tab. 27.1). Bei Temperaturen über 700°C schmilzt Knochenmaterial.
27.4.4 Photodekompositionseffekte
Nichtthermische Wirkungen wie Photoablation und Photodisruption können als Photodekomposition (Photospaltung) von Material zusammengefasst werden. Diese dritte Klasse von Wirkungen beruht auf nichtlinearen optischen Effekten, da bei den hohen Intensitäten energiereicher Laserpulse auch die nichtlinearen Anteile des Absorptionskoeffizienten wirksam werden. Mit gepulsten Lasern können Lichtintensitäten im Bereich von Megawatt bis Terawatt (106–1012 W) im Nano- bis Femtosekundenbereich erzeugt werden [4, 8]. Dieses Prinzip wird heute in der Augenheilkunde bei der Zerstörung der Nachstarmembran benutzt und liegt der Steinzertrümmerung mit Laserlithotriptern zugrunde. Bestrahlt man Gewebe mit gepulster UV-Laserstrahlung, so wird diese in einer sehr dünnen Oberflächen-
schicht absorbiert. Diese Gewebeschicht nimmt dabei so viel Energie auf, dass sie sich explosionsartig vom Untergrund löst. Man nennt diese Wirkung Photoablation, da es hier möglich ist, Materialfragmente rein lichtinduziert von der Oberfläche abzulösen, ohne dass es sekundär zu einer Erwärmung des umliegenden Gewebes kommt. Allerdings darf hierbei eine bestimmte Wiederholrate der Laserpulse nicht überschritten werden, um eine thermische Aufheizung angrenzender Gewebeschichten zu vermeiden. Auf diesem Prinzip basiert die Laserrekanalisation arteriosklerotischer Gefäße und die Anwendung der Photoablation für die refraktive Korneachirurgie. Je nach optischer Eindringtiefe der Strahlung muss die Energie pro Laserpuls unterschiedlich hoch sein, um die Schwelle für die Photoablation zu überschreiten und Gewebe abzutragen. Da i. d. R. die Zerstörschwelle des Übertragungssystems die übertragbare Energiedichte begrenzt, kann durch eine Vergrößerung der Pulslänge die Energie pro Puls entsprechend erhöht werden. Eine größere Pulslänge bedeutet eine längere Einwirkdauer der Strahlung, in der eine Wärmeleitung aus dem erhitzten Volumen in das benachbarte Gewebe stattfindet, die erst mit dem explosionsartigen Herausschleudern der Gewebereste beendet wird. Aus dem Diagramm in ⊡ Abb. 27.13 lässt sich ermitteln, bei welcher Wellenlänge und welcher Laserpulsdauer die Schädigungszone Δd überwiegend durch die optische Eindringtiefe oder überwiegend durch die Wärmeleitung bestimmt wird [1, 2]. Damit können die Parameter eines Photoablationslasers in Hinblick auf geringe thermische Schädigungen optimiert werden.
27.5
Lasertypen in der Medizin
Entsprechend der jeweils gewünschten Gewebewirkung müssen die spezifischen Eigenschaften unterschiedlicher
⊡ Abb. 27.13. Diagramm für die Schädigungszone Δd in Abhängigkeit der Laserpulsdauer und der Wellenlänge für die Photoablation mit Darstellung der Bereiche für die primär thermisch bzw. optisch beeinflusste Zone (α: Absorptionskoeffizient in cm-1; κ: Temperaturleitfähigkeit 1,2·10-7 m2/s)
27
466
Kapitel 27 · Lasersysteme
Lasersysteme herangezogen werden (vgl. ⊡ Abb. 27.1). Eine gängige Einteilung der Lasertypen erfolgt im Wesentlichen nach dem Aggregatzustand des Lasermediums in Festkörperlaser (z. B. Rubin-, Nd:YAG-, Er:YAG-, Ho:YAG-, Alexandritlaser), Diodenlaser, Gaslaser (z. B. CO2-, Argon- und Krypton-Ionen-, Excimer-, HeNeLaser) und Flüssigkeitslaser (Farbstofflaser). Ein Exot in dieser Hinsicht ist der Freie-Elektronen-Laser (FEL).
III 27.5.1 Rubinlaser
Der Rubinlaser ist der erste jemals realisierte Laser. Seine Wellenlänge beträgt 694 nm. Frühere Rubinlaser wiesen eine Reihe technischer Schwächen auf, wie einen geringen Wirkungsgrad oder lokale Intensitätsüberhöhungen, die zu einer Zerstörung von Übertragungsfasern führten. Moderne medizinische Rubinlaser sind jedoch kompakte und zuverlässige Systeme. In der Auslegung als gütegeschaltete Lasergeräte (Q-switch-Rubinlaser, QSRL) liefern diese Laser hochenergetisches Licht mit einer Pulslänge von 20–40 ns. Der QSRL wird derzeit für die Behandlung von oberflächlichen pigmentierten Hautveränderungen sowie zur Entfernung von Tätowierungen angewendet. Neuerdings stehen Rubinlasergeräte zur Verfügung, die längere Pulsdauern (0,3–5 ms) ermöglichen. Diese Geräte werden in erster Linie zur Epilation (Haarentfernung) eingesetzt.
nen, aber auch für die periphere Iridotomie zur Therapie des akuten Glaukomanfalls etablieren können. Sie werden auch zur Lithotripsie eingesetzt.
27.5.3 Frequenzverdoppelter Nd:YAG-Laser
(sog. KTP-Laser) Durch die Positionierung bestimmter Kristalle im Strahlengang eines Lasers können durch nichtlineare optische Effekte Oberwellen der eingestrahlten Grundwellenlänge generiert werden. Die Frequenzverdoppelung der Nd:YAG-Laserstrahlung erfolgt meist mit Hilfe eines Kaliumtitanylphosphatkristalls (KTP, KTiOPO4). Die entstehende Wellenlänge 532 nm wird von Hämoglobin gut absorbiert. Die klinische Anwendung entspricht weitgehend dem Argonionenlaser. Geräte mit hohen Ausgangsleistungen (bis 15 W) ermöglichen allerdings die Anwendung kurzer Impulszeiten, sodass die Schmerzhaftigkeit der Behandlung reduziert wird. Eine teilweise Frequenzverdopplung kurzgepulster Nd:YAG-Laserstrahlung wird in einigen Systemen für die Lithotripsie verwendet. Die höhere Absorption der kürzeren Wellenlänge erleichtert in diesem Fall die Zündung des für die Stoßwellenerzeugung nötigen Plasmas (freddy®-Prinzip).
27.5.4 Erbium:YAG-Laser 27.5.2 Neodym:YAG-Laser
Der Dauerstrich-Nd:YAG-Laser ist zurzeit der wichtigste medizinische Festkörperlaser. Mit seiner Wellenlänge von 1064 nm (seltener 1320 nm) ist er ein typischer Volumenkoagulator. Je nach verwendeter Leistungsdichte ist mit diesem Gerät eine tiefe, unspezifische Koagulation, eine Vaporisation bzw. das Schneiden von Gewebe möglich. Seine Übertragbarkeit durch Glasfasern gestattet eine universelle Anwendung. Über flexible oder starre Endoskope kann er zur Koagulation von Blutungen, Fehlbildungen oder Tumoren benutzt werden, bei höherer Leistung auch zur Rekanalisation von Tumorstenosen. Mit einem Fokussierhandstück und entsprechend hoher Leistungsdichte sind Resektionen an parenchymatösen Organen, wie Leber, Milz, Pankreas und Niere, bei gleichzeitig guter Hämostase möglich. Die Wellenlänge 1320 nm wird hier insbesondere zur Tumorresektion in Lungenparenchym benutzt. Sehr häufig wird der Nd:YAG-Laser auch im Kontaktverfahren benutzt ( Abschn. 27.3.2 »Kontaktmethode«). Im Nano- und Picosekundenbereich gepulste Nd:YAGLasersysteme (»Q-switch Nd:YAG«), mit denen eine Photodisruption erreicht werden kann, haben sich in der Ophthalmologie zur Behandlung von Nachstarmembra-
Bei Er:YAG-Lasern handelt es sich um blitzlampengepumpte Festkörperlaser, die Infrarotlicht der Wellenlänge 2940 nm emittieren. Dies entspricht einem lokalen Absorptionsmaximum von Wasser. Als Strahlführungssysteme finden i. d. R. Spiegelgelenkarme, seltener Zirkoniumfluorid- oder Saphirfasern Verwendung. Bei der Anwendung kurzer Pulslängen (ca. 1 ms) ist ein nahezu athermisches Abtragen extrem feiner Hautschichten (je nach verwendeter Energiedichte bis zu 10 μm Schichtdicke) möglich. Dies prädestiniert den Er:YAG-Laser für Anwendungen im Bereich der Dermatologie und plastischen Chirurgie. Daneben wird er als Dentalbohrer in der Zahnmedizin eingesetzt, meist in Verbindung mit einer Wasserspraykühlung des Zahnschmelzes.
27.5.5 Holmium:YAG-Laser
Der Ho:YAG-Laser emittiert Infrarotlicht mit einer Wellenlänge von 2100 nm. Meist handelt es sich um blitzlampengepumpte gepulste Systeme, in letzter Zeit werden jedoch auch diodengepumpte Dauerstrichlaser geringer Leistung entwickelt. Anwendung findet der Ho:YAG-Laser zur Bearbeitung von Hartsubstanzen wie Knorpel und Knochen. Dank der Möglichkeit der Faserübertragung
467 27.5 · Lasertypen in der Medizin
seiner Strahlung kann der Laser endoskopisch eingesetzt werden (Arthroskopie, Lithotripsie).
27.5.6 Alexandritlaser
Der Alexandritlaser emittiert Licht der Wellenlänge 755 nm. Als Q-switch-Laser verfügt dieses Gerät über Pulslängen im Nanosekundenbereich. Die klinischen Anwendungsfelder und die Applikationstechniken entsprechen weitgehend dem Q-switch-Rubinlaser. LangpulsAlexandritlaser mit Pulslängen im Millisekundenbereich wurden für die Laserepilation entwickelt.
27.5.7 Diodenlaser
Diodenlaser im nahen Infrarotbereich werden seit Ende der 1980er Jahre in der Ophthalmologie eingesetzt. Aufgrund der Weiterentwicklung sowohl des spektralen Emissionsbereichs (630–980 nm) als auch der Ausgangsleistung (in der Medizin bis zu 100 W) erobert sich der Diodenlaser ein immer weiteres Anwendungsfeld in der Medizin. Die Vorteile gegenüber den anderen Lasersystemen sind seine kompakte Bauweise, Tragbarkeit, wasserfreie Kühlung, leichte Installation und sein geringer Wartungsaufwand. Diodenlaser mit Leistungen bis zu etwa 1 W werden vielfach diagnostisch eingesetzt, z. B. zur optischen Bildgebung, in Laser-Doppler-Sensoren zur Bestimmung von Blutflüssen oder in der Fluoreszenzdiagnostik. Die Anwendungen, die mit dem Nd:YAG-Laser im Bereich der laserinduzierten Koagulation erfolgen, können auf einen Diodenlaser mit einer Emissionswellenlänge von 980 nm übertragen werden. Die minimal geringere Eindringtiefe bei 980 nm kann bei den meisten Geweben durch entsprechende Veränderungen der Applikationsparameter, wie z. B. höhere Leistung und längere Bestrahlungszeit, ausgeglichen werden. Die Tiefenwirkung der Koagulation ist für 1064 nm und 980 nm identisch, weil die Bereiche jenseits der optischen Eindringtiefe ausschließlich durch wellenlängenunabhängige Wärmeleitung beeinflusst werden. Das Hauptindikationsfeld der neuen Hochleistungsdiodenlaser ist zurzeit die Urologie [7], sie halten aber auch Einzug in andere Disziplinen, z. B. den HNO-Bereich [1]. Diodenlaser mit der Wellenlänge 630 nm werden als Lichtquelle für die photodynamische Therapie eingesetzt.
27.5.8 CO2-Laser
Der Dauerstrich-CO2-Laser (10.600 nm) ist wegen seiner hohen Wasserabsorption und damit geringen Eindringtiefe ein sehr exaktes Schneidinstrument. Er findet überall
dort Verwendung, wo mikrochirurgisches Arbeiten oder flächenhaftes Abtragen gefordert ist, da sich mit ihm Gewebe abtragen oder schneiden lässt, ohne dass es zu einer wesentlichen thermischen Schädigung der Umgebung kommt. Seine blutstillende Wirkung ist allerdings gering, sodass sich lediglich kapilläre Blutungen verhindern lassen. Sein größter Nachteil ist die z. Zt. fehlende Transmission der Strahlung über Fasern und der dadurch notwendige Spiegelgelenkarm. Vereinzelt werden deshalb Hohlleiter eingesetzt, die zwar eine flexible Strahlführung ermöglichen, aber nur eine relativ schlechte Strahlqualität und Fokussierbarkeit bieten. Fortschritte werden hier von photonischen Fasern erwartet, haben aber noch keinen Niederschlag in Produkten gefunden ( Abschn. 27.2.4). Gepulste CO2-Laser emittieren anstatt eines kontinuierlichen Strahls eine sehr schnelle Folge kurzer Impulse mit hoher Energiedichte, was aufgrund der reduzierten Wärmeabgabe an das umliegende Gewebe einen Schneide- bzw. Vaporisationseffekt mit noch geringerer thermischer Beeinflussung der Umgebung ermöglicht (»Superpulsmode«). Gepulste bzw. Dauerstrich-CO2-Laser mit speziellen Scannersystemen, die das oberflächliche Abtragen von dünnen Hautschichten ermöglichen, werden vor allem im Bereich der Dermatologie und plastischen Chirurgie verwendet [5, 11, 14].
27.5.9 Argon- und Kryptonionenlaser
Argonionenlaser sind Dauerstrichlaser, die prinzipiell mehrere Wellenlängen im Bereich 250–530 nm emittieren können. In der Medizin sind Systeme üblich, die blaugrünes Mischlicht (488 und 514 nm) oder grünes Licht (nur 514 nm) emittieren. Der Argonionenlaser wird wegen seiner hohen Selektivität für körpereigene Chromophore (Hämoglobin, Melanin) hauptsächlich in der Ophthalmologie und Dermatologie benutzt. Das Licht wird über einen Lichtleiter geführt, an dessen Ende sich ein Fokussierhandstück oder eine Spaltlampe befindet. Es stehen auch spezielle Scanner zur Verfügung, die eine automatisierte und gleichmäßige Behandlung von größeren Arealen ermöglichen. Der Kryptonionenlaser kann ebenfalls mehrere Wellenlängen emittieren, wobei der Bereich in diesem Fall 350–800 nm beträgt. Die intensivsten Emissionslinien sind 531, 568 und 676 nm. Hauptanwendungsbereiche sind die Dermatologie und die photodynamische Therapie. Gasionenlaser sind erschütterungsempfindlich, voluminös und relativ teuer im Unterhalt. Die Laserröhren haben eine vergleichsweise kurze Lebensdauer von etwa 1000–10 000 Betriebsstunden. In vielen Anwendungen werden sie deshalb heute durch frequenzvervielfachte Festkörperlaser oder Diodenlaser ersetzt. Nur wo ihre exzellente Strahlqualität benötigt wird, bleiben sie unverzichtbar.
27
468
Kapitel 27 · Lasersysteme
27.5.10 Excimer-Laser
III
Excimer-Laser sind Gaslaser, deren Lasermedium ein Gemisch ist aus einem Edelgas (Argon, Krypton oder Xenon), einem Halogen (Chlor oder Fluor) und einem Puffergas (Helium oder Neon). Je nach Gasgemisch liegt die Wellenlänge der ausschließlich gepulsten Lichtstrahlung im ultravioletten Bereich von 157–351 nm. Übliche Geräte arbeiten mit ArF (193 nm), KrF (249 nm) oder XeCl (308 nm). Bei diesen Wellenlängen wird mit kurzen Pulsdauern (10 ns) und sehr hohen Spitzenleistungsdichten (108 W/cm2) die Schwelle für den Prozess der Photoablation erreicht. Neben der Hornhautchirurgie zur operativen Korrektur von Fehlsichtigkeit werden diese Laser auch in der Laserangioplastie verwendet.
27.5.11 HeNe-Laser
Rote Helium-Neon-Laser (632 nm), die auch im Bereich der Low-Level-Lasertherapie (LLLT, Softlaser, Biostimulation) Verwendung finden, dienen häufig als Pilotlaser für die unsichtbare Strahlung chirurgischer Lasergeräte wie CO2- und Nd:YAG-Laser beim berührungslosen Einsatz. Seit einiger Zeit werden sie in dieser Funktion von kleineren und preiswerteren Diodenlasern verdrängt.
27.5.12 Farbstofflaser
Das Funktionsprinzip des Farbstofflasers (dye laser) basiert auf der Anregung einer organischen Farbstofflösung zur Fluoreszenz durch energiereiche Lichtblitze einer Blitzlampe (bei gepulsten Systemen; FDL, flashlamp pumped dye laser) oder einen Pumplaser (bei Dauerstrichsystemen). Im Unterschied zu anderen Lasern wird dabei ein relativ breites Lichtspektrum emittiert. Mittels wellenlängenselektiver Filter wird allerdings nur eine bestimmte – je nach Lasergerät festgelegte oder wählbare – Wellenlänge verstärkt und über ein Fasersystem ausgesendet. Zu den typischen verwendeten Farbstoffen zählt Rhodamin 6G, das durch entsprechende Abstimmung Wellenlängen im Bereich des sichtbaren Lichts von etwa 570–630 nm zu erzeugen vermag. Klinische Anwendung finden diese spezialisierten Laser in der Dermatologie [5, 11] und zur Lithotripsie [7].
27.5.13 Freie-Elektronen-Laser
Das Lasermedium des Freie-Elektronen-Lasers (FEL) ist ein hochenergetischer Elektronenstrahl, der relativistische Geschwindigkeiten (d. h. nahe der Lichtgeschwindigkeit) erreicht. Im Unterschied zu den Elektronen, die in den materiellen Lasermedien herkömmlicher Laser an Atome
oder Moleküle gebunden sind, oszillieren diese freien Elektronen in einem räumlich periodischen Magnetfeld [4]. Diese sehr aufwändige Technik erlaubt prinzipiell die durchstimmbare Erzeugung von Strahlung im Mikrowellenbereich über den sichtbaren und ultravioletten Spektralbereich bis in den Bereich der Röntgenstrahlung, wobei die Emissionsdauern von Quasidauerstrich bis zu Femtosekunden reichen können. Mit den bislang technisch realisierten Systemen lässt sich allerdings nur ein jeweils eingeschränkter Bereich dieses Parameterfelds tatsächlich nutzen. Ein medizinisches FEL-System im mittleren Infrarotbereich wurde bereits als chirurgisches Werkzeug in der Ophthalmologie, Otorhinolaryngologie und Neurochirurgie erprobt. Andere Forschungen beschäftigen sich mit Anwendungen des FEL in der Spektroskopie biologischer Moleküle, zur Abtötung pathogener Mikroorganismen und als Strahlungsquelle für die optische Kohärenztomographie (OCT) [3].
27.6
Anwendungsfelder
27.6.1
Auge
Aufgrund der optischen Transparenz von Cornea, Linse und Glaskörper des Auges ist der Laser für Anwendungen in der Ophthalmologie prädestiniert. In einem weiten Wellenlängenbereich kann durch diese transparenten Medien hindurch direkt auf den Augenhintergrund gestrahlt werden. Die erste Applikation war hier das Anschweißen von Netzhautablösungen, bis heute die weitestverbreitete ophthalmologische Laseranwendung. In der Behandlung des Glaukoms (grüner Star) kann mit der Laser-Trabekuloplastik (LTP) und der Laser-Iridotomie eine Senkung des erhöhten Augeninnendrucks erreicht werden. Die Photoablation mit kurz gepulsten Excimer-Lasern wird in großem Umfang zur refraktiven Hornhautchirurgie eingesetzt. Ein Beispiel für die Anwendung der Photodisruption ist die Eröffnung von Nachstarmembranen mit gütegeschalteten Nd:YAG-Lasern (Laserkapsulotomie), die den Effekt des optischen Durchbruchs nutzt.
27.6.2 Körperoberfläche
Eines der ersten Gebiete der medizinischen Laseranwendungen war die Körperoberfläche. Die Indikationen können in zwei Hauptaufgaben unterteilt werden: ▬ das Abtragen oder Koagulieren von Haut- und Hautanhangsgebilden, ▬ die Therapie von intrakutanen Gefäßveränderungen und Missbildungen. Hauttumoren, wie Basaliome, Spinaliome und Metastasen maligner Melanome, werden heute vorzugsweise mit dem
469 27.6 · Anwendungsfelder
⊡ Tab. 27.2. Medizinische Anwendungsfelder der Lasertypen Laser
Modus
Medizinisches Anwendungsfeld
Ar+, (Kr+)
cw
Dermatologie, Ophthalmologie, HNO
KTP
gepulst
Plastische Chirurgie, Dermatologie
FDL
gepulst
Dermatologie (585 nm), Urologie (504 nm)
Nd:YAG
cw
Chirurgie, Urologie, Gynäkologie, Neurochirurgie, Gastroenterologie, Pulmologie
Nd:YAG
gepulst
Ophthalmologie, Lithotripsie
CO2
cw
Chirurgie, Dermatologie, HNO, Gynäkologie, Neurochirurgie, plastische Chirurgie
Er:YAG
gepulst
Dermatologie, plastische Chirurgie, Zahnmedizin
Diode
cw
Chirurgie, Dermatologie (810, 940, 980 nm); PDT (630 nm); Dermatologie (800 nm)
Excimer
gepulst
Angiologie, Ophthalmologie
Rubin
gepulst
Dermatologie
Alexandrit
gepulst
Dermatologie
⊡ Abb. 27.14. Medizinische Anwendungsfelder des Laser
27
470
III
Kapitel 27 · Lasersysteme
Nd:YAG-Laser koaguliert oder alternativ mit dem CO2Laser abgetragen. Mit dem Rubin- oder Alexandritlaser werden gutartige Pigmentanomalien behandelt, hier kann auch der Argonlaser zum Einsatz kommen. Zum Entfernen von viral induzierten Tumoren (Kondylome, Mollusken, Verrucae) werden der Argon-, Nd:YAG- und CO2-Laser eingesetzt. Der CO2-Laser führt wegen seiner geringen Eindringtiefe zu einer Vaporisation der Strukturen, während Argon- und Nd:YAG-Laser mit ihren größeren Eindringtiefen das Gewebe koagulieren, das später abgestoßen wird. Bei der Behandlung von Epitheldysplasien (Leukoplakien, M. Bowen) wird hauptsächlich der CO2-Laser eingesetzt, der zu einer sofortigen Vaporisation der Haut führt. Er wird ebenfalls zur Therapie chronischer Ulzera und zur Reinigung am Wundgrund eingesetzt. Zum Entfernen von Tätowierungen werden Rubin-, Alexandrit-, gepulste Nd:YAG- und CO2-Laser angewendet. 27.6.3 Gefäßsystem
In der Therapie oberflächlicher Gefäßveränderungen – Spidernävi, Naevi flammei und kutane planotuberöse Hämangiome – haben sich Argonionen-, Farbstoff- und Nd:YAGLaser bewährt. Besonders der Argonionenlaser mit seiner geringen Eindringtiefe und der hohen Absorption seiner Strahlung durch Hämoglobin kommt hier in Betracht. In den so behandelten Gefäßen wird eine thermisch-dynamische Reaktion in Form einer Angiitis induziert, die zu einer Okklusion der Teleangiektasien führt. Die okkludierten Gefäße werden der natürlichen Resorption überlassen. Der Farbstofflaser wird zur Behandlung von Feuermalen eingesetzt. Insbesondere die homogenen Feuermale des Kindesalters sprechen gut auf die FDL-Therapie an. Hämangiome sind die häufigsten Gefäßtumoren im Kindesalter. Ein Großteil der Hämangiome heilt bis zum 8. Lebensjahr spontan ab, weshalb ein Abwarten meist gerechtfertigt ist. Führt eine ungünstige Lokalisation zu erheblichen funktionellen Störungen bzw. Entstellungen, ergibt sich jedoch eine Therapieindikation schon im Säuglings- oder frühen Kindesalter. Wegen seiner großen Penetrationstiefe kommt hierbei der Nd:YAG-Laser zum Einsatz. Um oberflächliche Verbrennungen zu vermeiden, kann die Haut während der Laserbestrahlung mittels spezieller Eiswürfel gekühlt werden [1, 2]. Eine weitere Applikation ist die perkutane interstitielle Bestrahlung voluminöser Kavernome mit der bare fiber. Nach einer Punktion der zu behandelnden Läsion wird die Faser im Gewebe platziert. Bei einer Laserleistung von 4–5 W und einer Expositionszeit von 1–5 s kommt es intraluminal zu einer Thrombosierung des Bluts und einer Schädigung der Gefäßwand mit nachfolgender Obliteration [12]. Bei der Verwendung höherer Leistungen (8–10 W) muss während der Laserbestrah-
lung das Faserende freigespült werden, da die Faser sonst zerstört wird. Auch hier kommt der Nd:YAG-Laser zum Einsatz [14].
27.6.4 Offene Chirurgie
Chirurgische Eingriffe sind auch bei exakter präoperativer Planung nicht frei von intra- oder postoperativen Komplikationen. Sorgen bereiten Blutungen während oder nach einem Eingriff, Gallenlecks bzw. -fisteln nach Leberresektion, Komplikationen nach Operationen am Pankreas, der Milz, Niere, Mamma und insbesondere im Gehirn. In der Kinderchirurgie kann ein Blutverlust von 100 ml bereits zu einem lebensbedrohlichen Zustand führen, der zur Transfusion zwingt. Unter diesen Umständen lassen sich die Vorteile des Lasers in den chirurgischen Disziplinen unter fünf Gesichtspunkten zusammenfassen: ▬ inhärente Blutstillung, ▬ präzises Arbeiten, ▬ Verringerung der Instrumentenzahl im Operationsfeld, ▬ berührungsfreie Gewebeabtragung (Asepsis), ▬ minimale Traumatisierung des umliegenden Gewebes durch Kräftefreiheit. In der Schädelhöhle setzen Neurochirurgen Nd:YAGund CO2-Laser zur Tumorresektion, Angiomverödung, bei stereotaktischen Operationen sowie zur Plexuskoagulation ein. In der offenen Thoraxchirurgie wird der Laser zur Lungenparenchymresektion eingesetzt, zur Behandlung von Fisteln und bei Dekortikationen. Für offene Operationen in der Bauchhöhle hat sich der Nd:YAG-Laser zur Resektion parenchymatöser Organe etabliert. Venen mit einem Durchmesser von 3–5 mm und Arterien bis zu 1,5 mm werden primär bei der Durchtrennung verschlossen, größere Gefäße müssen vorher ligiert werden [14]. In der gynäkologischen offenen Abdominalchirurgie etablieren sich die Laser ebenfalls. Bei einigen operativen Refertilisierungsverfahren, so der intrapelvinen Adhäsiolyse bzw. der Tubenimplantation, sowie bei Myomexstirpationen kommt der CO2-Laser zur Anwendung. Bei Mammaamputationen und subkutanen Mastektomien werden CO2- und Nd:YAG-Laser eingesetzt. Eine weitere Indikation ist bei mechanisch irritierenden Fehl- oder Neubildungen gegeben, z. B. Interdigitalneurom, Ganglionzysten, Hackenneurom, dem knöchernen Hackensporn, Knochen- und Hüftgelenksoperationen bei Hämophiliekranken und beim Tarsaltunnelsyndrom. Durch Einsatz des CO2-Lasers werden die mechanisch irritierenden Strukturen vollständig vaporisiert und deren Neubildung verhindert.
471 27.6 · Anwendungsfelder
27.6.5 Endoskopie
Mit der Einführung der Endoskopie vollzog sich ein grundlegender Wandel in der operativen Medizin. Durch Vermeidung der Eröffnung einer Körperhöhle sinkt das Infektionsrisiko, die Gefahr von postoperativen Verwachsungen wird deutlich geringer und die Operationsbelastung des Patienten ist generell erheblich reduziert. Laserlicht, das über Lichtwellenleiter durch den Arbeitskanal des Endoskops unter Sicht an den gewünschten Applikationsort geleitet wird, kann hier zu einer weiteren Miniaturisierung und damit Flexibilisierung des minimalinvasiven Operierens führen. Mit Hilfe dieser Technik können z. B. maligne Stenosen der Speiseröhre und des Magen-Darm-Trakts eröffnet werden. Bei der Behandlung angeborener narbiger, nicht bösartiger Veränderungen wird mit dem Nd:YAG-Laser in der Kontaktmethode mit einer bare fiber gearbeitet. CO2Laserstrahlung kann z. Zt. nur über einen Spiegelgelenkarm zur Behandlungsstelle geführt werden, sodass der Einsatz nur mit starren Endoskopen in Verbindung mit Endoskopkopplern möglich ist.
27.6.6 Photodynamische Therapie
Ein zunehmend wichtiger Behandlungsansatz ist die photodynamische Therapie (PDT). Nach intratumoraler Anreicherung eines Photosensibilisators (z. B. Hämatoporphyrinderivate, HpD) im Lauf von 24–48 h nach intravenöser Injektion werden die Tumoren mit einem Farbstoff- oder Diodenlaser (630 nm) oberflächlich oder interstitiell bestrahlt. Der Photosensibilisator absorbiert die Strahlung, zerfällt und setzt Sauerstoffradikale frei, die den Tumor lokal zerstören. Die photodynamische Therapie wird gegenwärtig für die Behandlung von oberflächlichen Läsionen wie Dysplasien und Frühstadien der Karzinome in der Dermatologie, Gastroenterologie, Urologie, Gynäkologie und Neurochirurgie angewendet. In der Ophthalmologie wird die PDT neuerdings zur Behandlung von Neovaskularisationsprozessen eingesetzt. Die Entwicklung neuer Farbstoffe, die eine bessere Selektivität für Tumorgewebe haben und eine stärkere Absorption der tief in das Gewebe eindringenden roten und infraroten Strahlung aufweisen, ist derzeit Gegenstand intensiver Forschung.
27.6.7 Lithotripsie
Seit Entwicklung der extrakorporalen Stoßwellenlithotripsie (ESWL) hat die schon vorher mit mechanischen Techniken durchgeführte Zertrümmerung von Konkrementen einen starken Aufschwung genommen. Im Gegensatz zur ersten Generation der ESWL-Geräte
können die Stoßwellen heute wesentlich besser fokussiert werden. Trotzdem lässt sich die ESWL nicht an allen Steinlokalisationen durchführen. Genannt seien hier insbesondere die intra- und extrahepatischen Gallengänge, der Ductus pancreaticus sowie die Uretheren im Bereich des Knochenschattens. Hier findet sich ein sinnvolles Anwendungsgebiet für die Laserlithotripsie (LLT). Anders als bei der ESWL wird die Stoßwelle nicht außerhalb des Körpers generiert und auf das Konkrement fokussiert – muss also nicht alle umgebenden Strukturen durchlaufen –, sondern direkt vor oder im Konkrement selbst erzeugt. Die Lichtenergie wird erst vor Ort in mechanische Energie umgesetzt. Möglich wurde dies durch die Entwicklung von Qswitch-Nd:YAG-, blitzlampengepumpten Farbstoff- und Alexandritlasern, deren sehr starke Laserimpulse den Bereich der nichtlinearen Wechselwirkungen Photodisruption und Ablation für die Medizin erschlossen. Über Wellenlänge, Impuls- und Intervalldauer und Pulsenergie lässt sich die Größe der Konkrementtrümmer varieren. Noch ist die LLT nicht zu den Routineverfahren zu rechnen, aber die Entwicklung verläuft sehr dynamisch. Als Hauptindikationen werden heute Gallengangskonkremente (in Kombination mit Lyse oder Extraktion) sowie Konkremente der Mund- und Bauchspeicheldrüse diskutiert.
27.6.8 Laserinduzierte Thermotherapie
Die laserinduzierte interstitielle Thermotherapie (LITT) wird seit längerer Zeit genutzt, um im Kontaktverfahren pathologische Gewebeveränderungen in verschiedenen Körperregionen zu therapieren. Dazu gehören die intraluminale Koagulation von Gefäßveränderungen sowie die seit einigen Jahren an Bedeutung zunehmende palliative Koagulation und Hyperthermie von Metastasen in Leber, Lunge und Gehirn. Zur subkutanen LITT kleinerer kongenitaler Malformationen (congenital vascular disorders, CVD) erfolgt eine Punktion mit einer bare fiber. Um größere Koagulationsvolumina bis zu 3 cm Durchmesser zu erreichen, wurden spezielle Streuapplikatoren entwickelt, mit denen über relativ lange Expositionsdauern von bis zu 20 min Nd:YAG- oder Diodenlaserstrahlung appliziert wird. Wassergekühlte Hüllkatheter erlauben dabei Laserleistungen bis zu 30 W, ohne dass es an der Grenzfläche zwischen Applikator und Gewebe zu einer Karbonisation kommt. Minimal-invasive Prozeduren wie die LITT isolierter Lebermetastasen, spezieller Gehirntumoren oder bei der benignen Prostatahyperplasie, erforden ein Echtzeitmonitoring zur präzisen Therapiesteuerung. Hierfür werden u. a. bildgebende Verfahren wie Ultraschall oder Magnetresonanztomographie (⊡ Abb. 27.15) eingesetzt [12, 16].
27
472
Kapitel 27 · Lasersysteme
III
⊡ Abb. 27.15. Schematische Zusammenstellung der Geräte für die MRT-kontrollierte laserinduzierte Thermotherapie (LITT)
27.7
Sicherheitsaspekte
Als Quelle einer Strahlungsenergie, die in der Lage ist, abtragende Wirkungen auf biologisches Gewebe auszuüben, stellt ein Lasersystem natürlich auch eine potentielle Gefahrenquelle für Patient und Anwender dar, nicht anders als ein scharfes Skalpell oder ein HF-Chirurgiegerät. Allerdings kommt beim Laser noch der Aspekt der Fernwirkung der Strahlung auf das Auge hinzu, wobei die Schutzwirkung des bloßen Abstandhaltens von divergenten Strahlaustritten (Faserenden, Fokussierungsoptiken) meist überschätzt wird. Durch einfache Schutzmaßnahmen wird jedoch beim Lasereinsatz eine höhere Sicherheit erzielt als bei manch anderen Geräten. Voraussetzung hierfür sind allerdings die Kenntnis einiger grundlegender physikalischer Zusammenhänge und die Einhaltung der einschlägigen Vorschriften [13, 17, 18]. Aktuelle Beiträge zu verschiedenen Sicherheitsaspekten der medizinischen Laseranwendung, auch für ultrakurze Laserpulse, enthält [19].
27.7.1 Zulässige Bestrahlung
und Laserklassifizierung ⊡ Abb. 27.16. Gefährdung des Auges durch verschiedene Lasertypen
Die Gefährdung des Auges (⊡ Abb. 27.16) und der Haut (⊡ Abb. 27.17, 4-Farbteil am Buchende) haben zur Festlegung von maximal zulässigen Bestrahlungen (MZB) geführt. Einige Beispiele für übliche medizinische Laser zeigt ⊡ Tab. 27.3. Alle Schutzmaßnahmen sind generell so auszulegen, dass eine unbeabsichtigte Bestrahlung die MZB-Werte nicht übersteigen kann. Da mögliche Schädigungen durch Laserstrahlung leistungs-, zeit- und wellenlängenabhängig sind, werden Lasersysteme nach diesen Parametern in Klassen eingeteilt, die das Gefährdungspotential des jeweiligen Geräts be-
zeichnen. Eine vereinfachte Darstellung der Laserklassen nach DIN EN 60825-1 zeigt ⊡ Abb. 27.18 ( 4-Farbteil am Buchende). Die Einteilung ist so gewählt, dass es sich bei der Klasse 1 um sog. eigensichere Systeme handelt, d. h. ein Blick in den direkten Laserstrahl ist für das Auge entweder nicht gefährlich oder konstruktiv ausgeschlossen. Bei der Klasse 2 handelt es sich um Laser im sichtbaren Spektralbereich (400–700 nm). Bei dieser Klasse wird angenommen, dass eine reflektorische Abwendungsreaktion
473 27.7 · Sicherheitsaspekte
⊡ Tab. 27.3. Maximal zulässige Bestrahlung (MZB) am Beispiel häufig eingesetzter Laser Lasertyp
Wellenlänge [nm]
Maximal zulässige Bestrahlung des Auges (MZB) nach DIN EN 60825-1:2008-05
Maximal zulässige Bestrahlung der Haut (MZB) nach DIN EN 60825-1:2008-05
Leistungsdichte [W/cm2]
Zeit [s]
Leistungsdichte [W/cm2]
Zeit [s]
Argon
488, 514
0,0018
1
1,1
1
Helium-Neon
633
0,0018
1
1,1
1
Diode (GaAs) Nd:YAG CO2
970
0,0062
1
3,8
1
1064
0,0090
1
5,5
1
0,56
1
0,56
1
10600
(einschließlich des Lidschlussreflexes) die Bestrahlungsdauer auf ungefährliche 0,25 s beschränkt. Neuere Untersuchungen zeigen jedoch, dass hierauf kein Verlass ist [15]. Bei Lasern der Klassen 1M und 2M kann der Blick in den Strahl mit optischen Hilfsmitteln (Fernrohr, Lupe, Operationsmikroskop etc.) gefährlich sein, während für das unbewaffnete Auge unter vernünftigerweise vorhersehbaren Bedingungen noch keine Gefahr besteht. Die Strahlung von Lasern der Klasse 3R kann für das Auge gefährlich sein, jedoch ist das Risiko geringer als bei der folgenden Klasse 3B. Bei Lasern der Klasse 3B ist das Betrachten einer diffusen Reflexion (Haut) statthaft, der Blick in den direkten Strahl oder einen spiegelnden Reflex jedoch gefährlich. Bei Lasern der Klasse 4 sind auch diffuse Reflexionen für das Auge gefährlich, während der direkte Strahl zu Hautverbrennungen führen kann. Die in der Chirurgie und Ophthalmologie eingesetzten Lasersysteme sind alle der Klasse 4 zuzuordnen. Die Klasse eines Lasergeräts entscheidet über die nach der Unfallverhütungsvorschrift BGV B2 zu ergreifenden Schutzmaßnahmen.
27.7.2 Sicherheitstechnische Anforderungen
an Lasergeräte Sicherheitstechnische Anforderungen an medizinische Lasersysteme der Klassen 3B und 4 sind in der harmonisierten Norm DIN EN 60601-2-22 »Medizinische elektrische Geräte – Teil 2-22: Besondere Festlegungen für die Sicherheit von diagnostischen und therapeutischen Lasergeräten« festgelegt, die über undatierte Verweisungen auch die DIN EN 60825-1 »Sicherheit von Lasereinrichtungen – Teil 1: Klassifizierung von Anlagen, Anforderungen und Benutzer-Richtlinien« mit einbezieht. Die grundlegende Anforderung »Schutz vor Strahlungen« der EG-Medizinprodukterichtlinie 93/42/ EWG ( Kap. 4) wird von diesen Normen in eine Reihe von konstruktiven Anforderungen umgesetzt. Danach muss jedes medizinische Lasersystem über die folgenden Einrichtungen verfügen:
▬ Schlüsselschalter (oder ähnliche Einrichtung) zum
Schutz vor unbefugter Benutzung, ▬ Not-Aus-Schalter zur sofortigen Unterbrechung der
Emission, ▬ Stand-by-/Bereit-Schaltung zum Schutz vor verse-
hentlicher Auslösung, ▬ Interlock-Anschluss für fernbetätigte Verriegelung, ▬ optische und/oder akustische Laser-bereit- und Emis-
sions-Anzeigen, ▬ Zieleinrichtung zur Anzeige des Wirkorts der Strah-
lung vor Auslösung. Ferner darf die tatsächlich abgegebene Leistung bzw. Pulsenergie nur innerhalb bestimmter Grenzen vom voreingestellten Wert abweichen, der in SI-Einheiten (W, J) angezeigt werden muss. Der Ausfall einer explizit aufgelisteten Reihe von Baugruppen (z. B. Shutter, Auslöseschalter, Dämpfungsglieder, Zeitgeber, Überwachungskreise) darf keine Gefährdung hervorrufen. Alle Schutzmaßnahmen der mittelbaren Sicherheitstechnik müssen dabei innerhalb einer Fehlertoleranzzeit von ca. 130 ms wirsam werden, wenn Gewebeschädigungen durch überhöhte Laserleistungen sicher vermieden werden sollen. Sofern nicht eine bare fiber angewandt wird, kann das optische Endgerät am Ende des Strahlführungssystems seinerseits zur Gefahrenquelle werden. Ein schlecht konstruiertes Fokussierhandstück kann sich auf Temperaturen aufheizen, die zu Verbrennungen an der Hand des Operateurs führen, oder ein Mikromanipulator mit defektem oder falschem Arztschutzfilter reflektiert gefährliche Strahlungsdichten in das Auge des Anwenders. Deshalb muss jedes Zubehör zu einem medizinischen Lasergerät einem eigenen EG-Konformitätsbewertungsverfahren als Medizinprodukt unterzogen werden. Für den Hersteller von medizinischen Lasergeräten ist es wichtig zu wissen, dass diese Geräte i. d. R. gemäß den Klassifizierungskriterien in Anhang IX der EG-Richtlinie als Medizinprodukte der Klasse IIb zu betrachten sind. Nur Geräte mit einem erfolgreich abgeschlossenen Kon-
27
474
Kapitel 27 · Lasersysteme
formitätsbewertungsverfahren dürfen CE-gekennzeichnet und mit einer rechtsverbindlichen EG-Konformitätserklärung innerhalb der Europäischen Union in Verkehr gebracht werden ( Kap. 4).
▬ Der Betreiber hat schriftlich einen Laserschutzbeauf-
▬
27.7.3 Organisatorische Schutzmaßnahmen
und Anwendungssicherheit
III
Rechtliche Grundlage für die medizinische Anwendung von Lasern sind die Medizinprodukte-Betreiberverordnung (MPBetreibV) und das Gesetz zum Schutz vor nichtionisierender Strahlung bei der Anwendung am Menschen (NiSG). Für den Betrieb medizinischer Lasersysteme ergeben sich aus der MPBetreibV als wesentliche Pflichten: ▬ Nur besonders ausgebildetes und eingewiesenes Personal darf Laser an Patienten anwenden. ▬ Vor dem Einsatz ist die Funktionssicherheit des Lasers zu prüfen. ▬ Es muss ein Medizinproduktebuch geführt werden. ▬ Die Gerätepflege hat nach der Gebrauchsanweisung zu erfolgen. ▬ Sicherheitstechnische Kontrollen sind regelmäßig durchzuführen. Nach dem NiSG dürfen künftig die in einer zu erlassenden Verordnung für bestimmte Anwendungen am Menschen festgelegten Strahlungsgrenzwerte nur noch überschritten werden, wenn ein über die erforderliche Fachkunde verfügender Arzt eine rechtfertigende Indikation gestellt hat. Die für den Schutz des Personals wesentliche Vorschrift ist die berufsgenossenschaftliche Unfallverhütungsvorschrift »Laserstrahlung« (BGV B2). Sie schreibt insbesondere vor: ▬ Die Inbetriebnahme eines Lasers der Klassen 3R, 3B und 4 muss der zuständigen Aufsichtsbehörde und Berufsgenossenschaft angezeigt werden.
⊡ Abb. 27.19. Kennzeichnung von Laserschutzbrillen nach DIN EN 207
▬
▬ ▬
▬ ▬ ▬ ▬
tragten zu bestellen, wenn ein Laser dieser Klassen eingesetzt wird. Der Laserbereich ist abzugrenzen und mit Warnschildern zu kennzeichnen, der Betrieb eines Lasers der Klasse 4 darüber hinaus durch Warnlampen anzuzeigen. Schutzmaßnahmen müssen getroffen werden, wenn die Bestrahlungsstärken oberhalb der maximal zulässigen Bestrahlungsstärken liegen. Es sind Schutzbrillen zu tragen. Die im Laserbereich Beschäftigten sind regelmäßig (mindestens jährlich) zu unterweisen, wenn Laser der Klassen 2 bis 4 eingesetzt werden. Gefährliche Reflexionen an medizinischen Instrumenten sind durch geeignete Oberflächen zu vermeiden. Schutzmaßnahmen gegen Brand und Explosion sind zu ergreifen. Beim Einsatz optischer Beobachtungsinstrumente sind Schutzfilter zu verwenden. Einmalartikel und Abdeckmaterialien sollen schwer entflammbar sein.
Die Anforderungen an Laserschutzfilter und Laserschutzbrillen sind in der Norm DIN EN 207 »Persönlicher Augenschutz – Filter und Augenschutzgeräte gegen Laserstrahlung (Laserschutzbrillen)« festgelegt. Nur Schutzbrillen, die dieser Norm entsprechen, werden von den Berufsgenossenschaften als Laserschutzbrille anerkannt. Die Kennzeichnung einer normgerechten Laserschutzbrille nach DIN EN 207 zeigt ⊡ Abb. 27.19. Es ist zu beachten, dass es keine Schutzbrille gibt, die für alle Wellenlängen Schutz bietet. Jede Schutzbrille schützt jeweils nur gegen die auf ihr angegebene Wellenlänge und bei der genannten Betriebsart. Durch die Pyrolyse von Geweben bei thermischen Laseranwendungen können Patienten und Anwender mit Stoffen in Berührung kommen, die ein gewisses toxisches und infektiöses Potential besitzen [1]. Nach dem Stand
475 Weiterführende Literatur
der Technik ist die einzig zuverlässige Schutzmaßnahme die Verwendung eines speziellen Rauchabsauggerätes, mit dessen Handstück die Abbrandprodukte so dicht wie möglich am Ort ihrer Entstehung erfasst werden sollten. Diese Geräte sind mit einem zweistufigen Filtersystem ausgestattet: Ein Membranfilter fängt Partikel und Tröpfchen auf, während ein nachgeschaltetes Aktivkohlefilter zu einer deutlichen Reduktion der Geruchsbelästigung führt.
27.8
Zukunftsperspektiven
Vor dem Hintergrund der angesprochenen Laseranwendungen in der Medizin zeichnen sich deutliche Perspektiven für die künftige Entwicklung ab. In technischer Hinsicht geht der Trend in immer stärkerem Maß zur Nutzung von Halbleiterlasern (Diodenlasern), die die Realisierung kleinerer und einfacherer Systeme erlauben. Dies wird mit einer Kostensenkung einhergehen, die zu einer noch breiteren Akzeptanz des Lasers in der Medizin führen wird. Die Entwicklung entsprechenden Zubehörs wird im Bereich der endoskopischen Laserchirurgie immer neue und erweiterte Anwendungen ermöglichen. In diesem Zusammenhang ist die Verfügbarkeit flexibler optischer Transmissionssysteme für alle Spektralbereiche ein zentrales Entwicklungsziel. Eine weitere Ergänzung verspricht die In-vivo- bzw. Insitu-Diagnostik der erzielten Veränderung über dasselbe Applikatorsystem. Diese Kombination von Diagnose und Therapie zur Lokalisation des zu therapierenden Gewebes bzw. zur Therapiekontrolle selbst wird die nächste Generation von medizinischen Lasersystemen für die »minimalinvasive Medizin« kennzeichnen. Diese Entwicklung zu smart systems wird schrittweise erfolgen, wozu die Entwicklung neuer endoskopischer Verfahren wesentlich beiträgt. Neben den therapeutischen existiert eine große Zahl diagnostischer Anwendungen, auf die hier nicht eingegangen wurde. Sie werden ebenso wie die Laserchirurgie auf zellulärer Ebene an Bedeutung gewinnen. Betrachtet man die Entwicklung der Indikationsbreite und der Verbreitung von medizinischen Lasersystemen, lässt sich in den letzten Jahren eine starke Beschleunigung feststellen. Dabei steht der Laser nicht länger in Konkurrenz zum Skalpell, denn wenn ein Laser nur dasselbe leistet wie ein Skalpell, sollte man zum Skalpell greifen – es ist um Größenordnungen billiger!
Weiterführende Literatur 1. Berlien H-P, Müller G (2000) Angewandte Lasermedizin: Lehr- und Handbuch für Praxis und Klinik. 3. Aufl. Ecomed, Landsberg München Zürich (20. Ergänzungslieferung 2006) 2. Berlien H-P, Müller G (2003) Applied laser medicine. Springer, Berlin Heidelberg New York
3. Edwards GS, Austin RH, Carroll FE et al. (2003) Free-electronlaser-based biophysical and biomedical instrumentation. Rev Sci Instrum 74: 3207–3245 4. Eichler J, Eichler H-J (2010) Laser: Bauformen, Strahlführung, Anwendungen, 7. Aufl. Springer, Berlin Heidelberg New York 5. Goldman MP, Fitzpatrick RE (1999) Cutaneous laser surgery. The art and science of selective photothermolysis. Mosby, St. Louis 6. Graudenz K, Raulin C (2003) Von Einsteins Quantentheorie zur modernen Lasertherapie. Hautarzt 54: 575–582 7. Hofstetter AG (2003) Lasergestützte Operationsverfahren in der Urologie. Thieme, Stuttgart New York 8. Jesse K (2005) Femtosekundenlaser. Springer, Berlin Heidelberg New York 9. Kleppner D (2005) Rereading Einstein on radiation. Phys Today 58: 30-33 10. Knappe V, Frank F, Rohde E (2004) Principles of lasers and biophotonic effects. Photomed Laser Surg 22: 411-417 11. Landthaler M, Hohenleutner U (1999) Lasertherapie in der Dermatologie. Springer, Berlin Heidelberg New York Tokio 12. Müller G, Roggan A (1995) Laser-induced interstitial thermotherapy. SPIE Press, Bellingham WA 13. Müller G (2001) Sicherheitsanforderungen an die Lasertechnik. In: World Congress Safety of Modern Technical Systems. TÜV-Verlag, Köln, pp 631–640 14. Reidenbach (1996) Lasertechnologien und Lasermedizin. Ecomed, Landsberg München Zürich 15. Reidenbach H-D, Dollinger K, Hofmann J (2003) Überprüfung der Laserklassifizierung unter Berücksichtigung des Lidschlussreflexes. Bundesanstalt für Arbeitsschutz und Arbeitsmedizin, Dortmund Berlin Dresden 16. Roggan A (1997) Dosimetrie thermischer Laseranwendungen in der Medizin. Ecomed, Landsberg München Zürich 17. Sliney D, Wolbarsht M (1980) Safety with lasers and other optical sources. Plenum, New York 18. Sutter E (2008) Schutz vor optischer Strahlung: Laserstrahlung, inkohärente Strahlung, Sonnenstrahlung. 3. Aufl. VDE-Verlag, Berlin Offenbach 19. Wöllmer W, Zgoda F (Hrsg) (2010) Themenheft Laser Safety, Med Laser Appl 25(2)
27
28 Anästhesiegeräte E. Siegel
28.1
Einsatzzweck der Anästhesiegeräte für die Allgemeinanästhesie – 477
28.2
Funktionsweise – Medizinischer Aspekt – 478
28.3
Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring – 479
28.3.1 28.3.2 28.3.3
28.1
Medikamentendosierung – 479 Beatmungsgerät inclusive Atemsystem Monitoring – 489
28.4
Voraussetzung für den sicheren Betrieb – 492
28.4.1 28.4.2 28.4.3 28.4.4
Anschlussvoraussetzungen – 492 Einweisung und Weiterbildung – 492 Hygiene – 493 Instandhaltung und Prüfungen – 493
Weiterführende Literatur
– 493
– 482
Einsatzzweck der Anästhesiegeräte für die Allgemeinanästhesie
Anästhesiegeräte werden in Operationsräumen im nichtsterilen Bereich eingesetzt. Sie helfen dem qualifizierten und am Gerät ausgebildeten medizinischen Personal, damit operative und diagnostische Eingriffe schmerzfrei durchgeführt werden können, das Bewusstsein des Patienten ausgeschaltet und seine Sauerstoffversorgung sichergestellt werden kann. Um diese Aufgabe zu erfüllen, dosiert das Gerät die Medikamente ▬ Sauerstoff (ca. 30 Vol.-%), um die Oxigenierung des Patienten während der Operation ausreichend zu gewährleisten, ▬ Lachgas (ca. 70 Vol.-%) oder intravenös ein Opioid, z. B. Remifentanil, um die Schmerzlosigkeit des Patienten zu erreichen, ▬ Narkosemittel Isoflurane oder Sevoflurane oder Desflurane, die über die Lunge aufgenommen werden, oder Propofol, das intravenös verabreicht wird, um das Bewusstsein auszuschalten. Die Anästhesie wird Inhalationsanästhesie genannt, wenn das Schmerzmittel (Lachgas) und das Mittel zur Erzeugung der Bewusstlosigkeit (z. B. Isoflurane) über die Lunge vom Körper aufgenommen werden. Die Anästhesie wird Total Intravenöse Anästhesie (TIVA) genannt, wenn das Schmerzmittel (z. B. Remifentanil) als auch das Medikament für die Bewusstlosigkeit (Propofol) intravenös verabreicht werden. Die Anästhesie wird balancierte Anästhesie genannt, wenn je ein Medikament intravenös (z. B. Remifentanil),
das andere über die Lunge aufgenommen wird (z. B. Isoflurane). Da der Patient während der Operation normalerweise relaxiert wird, ist die Atemmuskulatur gelähmt, sodass zu jedem Anästhesiegerät eine Vorrichtung zur automatischen, kontrollierten Beatmung gehört. Ebenso ist es notwendig, eine manuelle Beatmung zu ermöglichen, damit der Arzt in die Anästhesieeinleitung und -ausleitung und auch bei Bedarf eingreifen und während dieser Phasen assistiert beatmen kann. Um die Anästhesie sicher und transparent zu machen, wird sowohl das Gerät als auch der Patient überwacht. Dazu werden die Parameter des zugeführten Narkosegases, d. h. die inspiratorische Sauerstoffkonzentration, die Lachgas- und die Narkosemittelkonzentration gemessen, ebenso wird das abgeatmete CO2 und das abgeatmete Volumen bestimmt und der Druck im System kontrolliert. Dies sind die nach den heutigen Normen zu messenden Gerätemonitoringparameter. Um die Herzkreislauffunktion überprüfen zu können, wird das EKG und der nichtinvasive Blutdruck bzw. der invasive Blutdruck gemessen. Die Oxygenierung des Blutes wird mit der Sauerstoffsättigung beobachtet. Zusätzlich muss der Effekt der Anästhesie beobachtet werden, d. h. wie tief der Patient in Bewusstlosigkeit ist, wie schmerzfrei und wie tief relaxiert er ist. Ein Anästhesiegerät (⊡ Abb. 28.1) besteht also seiner medizinischen Zweckbestimmung nach aus ▬ der Dosierung der Medikamente, ▬ dem Beatmungsgerät inklusive Atemsystem, ▬ einer Überwachungseinheit, auch Monitoring genannt, – die die Medikamentendosierung und das Beatmungsgerät überwacht (Gerätemonitoring),
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _28, © Springer-Verlag Berlin Heidelberg 2011
478
Kapitel 28 · Anästhesiegeräte
– die den Patienten überwacht (Patientenmonitoring), – die die »Anästhesietiefe« überwacht (Anästhesieeffektmonitoring). Neben diesen Kernkomponenten wird ▬ für die Entsorgung der gasförmigen Medikamente ein
Anästhesiegasfortleitungssystem benötigt,
III
▬ für das Absaugen von Sekret eine Bronchusabsaugung, ▬ für die Beatmung während der Einleitung, den Trans-
port und bei Notfällen ein Nothandbeatmungsbeutel. Die Komponenten eines heutigen Anästhesiearbeitsplatzes sind so ausgelegt, dass unter vernünftigerweise zu erwartenden Umständen ein erster Fehlerfall während einer Anästhesie den Patienten und den Anwender keiner zusätzlichen Gefahr aussetzt.
28.2
Funktionsweise – Medizinischer Aspekt
In ⊡ Abb. 28.2 sind die drei Hauptkomponenten (Medikamentendosiereinheit, Beatmungseinheit, Gerätemonitoring) eines Inhalationsanästhesiegerätes dargestellt. Bei der Inspiration wird das PEEP/Pmax-Ventil geschlossen, und das Beatmungsgerät drückt das in einer Kolben-Zylindereinheit vorhandene Gas über das Inspirationsventil in die Lungen des Patienten. Die Medikamente Sauerstoff, Lachgas in einer Konzentration von ca. 30 Vol.-% O2 und 70 Vol.-% N2O sowie z. B. 2 Vol.-% Isoflurane
strömen währenddessen kontinuierlich von der Medikamentendosierung in den Reservoirbeutel, der gleichzeitig auch Handbeatmungsbeutel ist. Bei der Exspiration wird der Weg zur Medikamentendosierung durch das Frischgasentkopplungsventil geöffnet. Das Gas aus dem Reservoirbeutel strömt zusammen mit dem ausgeatmeten Gas des Patienten in die Kolben-Zylindereinheit des Beamtungsgerätes. Bei der Inspiration wird der Weg zum Reservoirbeutel durch das Frischgasentkopplungsventil wieder verschlossen, und das Beatmungsgerät drückt das Gas wiederum zum Patienten. Die Größe des Frischgas-Flows richtet sich nach folgenden Überlegungen: ▬ Wie viel nimmt der Patient an Sauerstoff und Lachgas auf? ▬ Wie groß ist die Leckage des Gerätes? ▬ Welcher Rückatmungsgrad soll benutzt werden? In ⊡ Tab. 28.1 sind an einem Beispiel für einen 70 kg-Patienten die entsprechenden Werte zusammengestellt. Dabei ergibt sich, dass in der Einleitungsphase ein Mindestflow von 1300 ml/min benötigt wird, während man im Gleichgewicht 400 ml/min benötigt. Neben der Mindestmenge an Frischgas ist der gewünschte Gasrückatmungsgrad vom Arzt einzustellen. Der Patient benötigt bei der Beatmung und auch bei der Spontanatmung ein ausreichendes Atemminutenvolumen; bei einem Patienten von 70 kg ca. 6 l/min. Notwendig ist also, dass der Patient pro Minute diese Menge an Gas enthält. Das bedeutet aber nicht, dass das Frischgas, das von der Medikamentendosierung herrührt, immer diese Menge an Frischgas ins System bringen muss. Wird, wie in ⊡ Abb. 28.2 dargestellt, ein Teil des ausgeatmeten Gases wieder für die Inspiration benutzt, so genügt auch ein Bruchteil des Atemminutenvolumens als Frischgas-Flow. Ein solches Atemsystem, das einen Teil des exspiratorischen Gases benutzt, wird Rückatemsystem genannt. Häufig arbeitet man bei einem Frischgas-Flow von 3 l/ min mit ca. 1 l Sauerstoff und 2 l Lachgas. Je nach Dichtigkeit des Systems und bei entsprechendem Monitoring kann der Frischgas-Flow weiter reduziert werden. Reduziert man den Frischgas-Flow auf ca. 1 l/min, so spricht man von einem Low-Flow-System. Wird ein Frischgas-
⊡ Tab. 28.1. Mindestgröße des Frischgas-Flowes Beispiel für einen Patienten mit 70 kg Körpergewicht
⊡ Abb. 28.1. Anästhesiegerät (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
Aufsättigung
Gleichgewicht
O2-Aufnahme
240 ml/min
240 ml/min
N2O-Aufnahme
1000 ml/min
100 ml/min
Geräteleckage
50 ml/min
50 ml/min
Mindestfrischgas-Flow
1290 ml/min
390 ml/min
479 28.3 · Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
Flow von ca. 0,5 l benutzt, spricht man von einem Minimal-Flow-System. Welcher Frischgas-Flow eingesetzt wird, hat auf die Güte der Anästhesie keinen Einfluss. Entscheidend für die Größe des Frischgas-Flows ist die Erfahrung des Anästhesisten, die Dichtigkeit des Gerätes und das vorhandene Geräte-Monitoring. Arbeitet man mit einem geringen Frischgas-Flow, so sind Änderungen, die durch die Medikamentendosierung hervorgerufen werden, langsam in der Zeit, d. h., es dauert lange, bis diese Änderungen beim Patienten ankommen. Verwendet man hingegen einen großen Flow, so wird das System schnell gespült, und Änderungen in den Konzentrationen der Dosierungen gelangen auch schnell zum Patienten. Ein Hauptziel der Anästhesie ist es, die Sauerstoff(O2-)Versorgung des Patienten sicherzustellen. Diese wird zum einen durch die inspiratorische O2-Konzentration und den durch die Beatmung hervorgerufenen Mitteldruck bestimmt. Die O2-Versorgung muss dabei so eingestellt werden, dass der – durch die Blutgasanalyse gemessene – O2-Partialdruck ca. 100 mmHg bei Patienten bis 60 Jahren mit normalem Hämoglobingehalt erreicht. Das entspricht bei Erwachsenen einer Sauerstoffsättigung des arteriellen Blutes von mehr als 95%. Die Narkosemittelkonzentration bestimmt die Narkosetiefe (Hypnosetiefe). Je niedriger die endexspiratorische Konzentration ist, desto flacher ist die Narkose. Je höher der Wert, desto tiefer ist die Narkose. Die Narkosetiefe selbst ist schwer zu bestimmen und bedarf des erfahrenen Arztes, der anhand der klinischen Zeichen, wie z. B. Hautfarbe, Herzfrequenz und Blutdruck die Narkosetiefe bestimmt. Eine kontinuierliche Überwachung von Parametern, die aus dem EEG abgeleitet werden wie z. B. der BIS Index (Bi Spektral Index), ermöglicht eine objektive Bestimmung der Hypnosetiefe.
Die am Beatmungsgerät eingestellten Parameter werden zum einen vom Sauerstoffbedarf des Patienten, zum anderen von der Tatsache, dass das CO2 abtransportiert werden muss, bestimmt. Dies wird dadurch erreicht, dass in einem ersten Schritt entsprechend dem Gewicht des Patienten ca. 6–10 ml/kg Körpergewicht als Atemzug bzw. Tidalvolumen bei einer Frequenz von etwa 12/ min eingestellt wird. Ein 70 kg-Patient erhält also bei einem Tidalvolumen von ca. 500 ml und einer Frequenz von 12 Atemzügen ca. 6 l in einer Minute als Atemminutenvolumen. Im zweiten Schritt wird der aktuelle endtidale CO2 Wert beobachtet und mit dem Zielwert verglichen. Angestrebt wird ein CO2-Partialdruck von ca. 35 mmHg. Mit Hilfe des gemessenen endexspiratorischen CO2-Wertes wird im dritten Schritt das Tidalvolumen den aktuellen Bedürfnissen des Patienten entsprechend angepasst.
28.3
Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
28.3.1 Medikamentendosierung
Dosierung von O2, N2O Für die Dosierung der Gase O2, Air, N2O werden heute zwei Prinzipien eingesetzt, die Dosierung über mechanische Dosierventile und mittels elektronischer Mischer. Beim Dosierprinzip mittels Dosierventile wird der jeweilige Einzelflow in l/min (z. B. 1 l/min O2, 2 l/min N2O) eingestellt beim Mischer jedoch die Gasauswahl O2/N2O oder O2/Air, die O2 Konzentration in % und der Gesamtflow in l/min (z. B. 33% O2 und 3 l/min Gesamtflow für O2/N2O, um dieselben 1 l/min O2 und 2 l/min N2O zu erhalten).
⊡ Abb. 28.2. Schematischer Aufbau eines Anästhesiegerätes (Beispiel Primus) (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
28
480
III
Kapitel 28 · Anästhesiegeräte
Funktionsprinzip mechanische Dosierung Bei diesem Prinzip (⊡ Abb. 28.3) erfolgt die Dosierung durch mechanische Feindosierventile. Der Druck in der Gasversorgung beträgt ca. 5 bar (Überdruck) und wird durch Druckminderer, die in Gasflussrichtung vor den Feindosierventilen angeordnet sind, auf ca. 3 bar reduziert. Dadurch wird vermieden, dass sich Druckschwankungen in der Gasversorgung auf den eingestellten Flow störend auswirken. Durch Drehen am Feindosierventil wird die Fläche eines ringförmigen Spaltes verändert, wodurch der Gasfluss eingestellt wird. Die Messung des Flows erfolgt bei einem Teil der Geräte mit einer Messröhre (konisches Glasrohr), in der sich ein speziell geformter Schwimmer je nach Stärke des Flows in entsprechender Höhe einstellt. Um genau messen zu können, muss die Messröhre vertikal stehen. Nur so kann sich der Schwimmer frei bewegen. Ebenso kann die Messung des Flows elektronisch erfolgen, sodass der am Feindosierventil eingestellte Flow digital angezeigt und auch als Bargraph auf dem Bildschirm dargestellt werden kann. Die Knöpfe der Dosierventile sind mit unterschiedlichen Profilen ausgestattet, sodass sich das Sauerstoffventil auch »blind« von den anderen Dosierventilen haptisch unterscheiden lässt. Sie sind ebenfalls gegen unbeabsichtigtes Verstellen geschützt. Funktionsprinzip elektronische Dosierung Bei der elektronischen Gasdosierung (⊡ Abb. 28.4) wird ein umschaltbarer Zweigasmischer eingesetzt, der je nach
Bedienerwahl O2 und N2O (Auswahl N2O) beziehungsweise O2 und Air (Auswahl Air) nach vorgegebener O2Konzentration und vorgegebenem Gesamtfrischgasflow bereitstellt. Die gewünschte O2 Konzentration und die Größe des Gesamtfrischgasflows werden also direkt eingestellt und müssen nicht wie in mechanischen Mischern aus den Einzelflows berechnet werden. Bei der elektronischen Dosierung werden die Gase zeitlich nacheinander jedes für sich allein dosiert und danach in einem Speicherbehälter gemischt. Ist durch die Entnahme von Gas der Mischgastank zum Teil entleert läuft folgender Prozess ab. Soll z. B. 33% O2 dosiert werden und fehlt im Mischgastank noch 300 ml, so wird von der Steuereinheit im ersten Schritt das O2 Gaseinlassventil geöffnet und über eine Flowdosierung mittels Flow und Zeitmessung 100 ml O2 in den Mischgastank gegeben. Sobald 100 ml abgegeben sind, schließt das O2 Ventil. Kurzzeitig sind alle Gaseinlassventile verschlossen. Danach wird als dritter Schritt das N2O Einlassventil geöffnet und über die Flow- und Zeitmessung 200 ml N2O in den Tank dosiert. Auf diese Weise entsteht im Tank ein 33% O2 Gemisch. Das N2O Ventil wird wieder geschlossen. Ein solcher Füllzyklus dauert ca. 1 s. Wird Gas entnommen, fällt der Druck im Gastank und der Prozess beginnt von vorne. Überwachungselemente der O2-, N2O-Dosierung Sauerstoffmangelsignal. Im Falle eines Ausfalls der Sauerstoffversorgung, sei es z. B. durch eine leere Sauerstoffflasche am Gerät, eine Unterbrechung der zentralen Gasversorgung oder durch versehentliches Herausnehmen der Sauerstoffkupplung, sorgt das Sauerstoffmangelsignal für einen Alarm (⊡ Abb. 28.3). Dieser Alarm setzt ein, wenn der Mindestversorgungsdruck in der 5 bar-Sauerstoffversorgungsleitung des Gerätes ca. 2 bar unterschreitet. Er dauert mindestens 7 s und ist nicht abschaltbar. Lachgassperre. Ein Ausfall der Sauerstoffversorgung birgt die Gefahr, dass plötzlich reines Lachgas ins Atemsystem gelangen würde. Um dies zu verhindern, wird bei einem Druckausfall in der Sauerstoffversorgungsleitung (5 bar) das Lachgas in der Lachgasversorgungsleitung durch die Lachgassperre abgesperrt (⊡ Abb. 28.3). Die Lachgasversorgung des Gerätes wird erst dann wieder aktiviert, wenn die Sauerstoffversorgung wiederhergestellt ist. Proportionalventil ORC (Oxygen-Ratio-Controller). Eine
⊡ Abb. 28.3. Prinzip mechanische Gasdosierung (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
Lachgasreduzierung im Niederdruckbereich, welche die zum Patienten fließenden Sauerstoff- und Lachgas-Flows überwacht und dafür sorgt, dass mindestens ca. 2025 Vol.-% O2 in der Frischgasleitung ist, nennt man ORC. Das Funktionsprinzip besteht darin, den N2O-Flow mit dem O2-Flow zu vergleichen und nur so viel Lachgas zuzulassen, dass das Verhältnis der Flows Lachgas zu Sauerstoff nicht größer als ca. 3:1 ist. Da in diesem Sicherungs-
481 28.3 · Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
⊡ Abb. 28.4. Prinzip elektronische Gasdosierung (Realisierung Anästhesiegerät Primus) (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
element das Verhältnis von O2 zu N2O überwacht wird, heißt dieses Element »Proportionalventil«, ORC (»oxygen ratio controller«, Sauerstoffverhältnisüberwacher). In der mechanischen Gasdosierung ist das ORC pneumatisch realisiert in den elektronischen Mischern als Regelsoftware. Das ORC sorgt nur dafür, dass im Frischgas kein hypoxisches Gemisch vorhanden ist. Durch die Rückatmung im Kreissystem kann dies jedoch durch eine zu gering eingestellte Frischgaskonzentration entstehen. Erkannt wird dieser Zustand durch die notwendige Sauerstoffmessung und Alarmierung. Erst durch einen Sauerstoffregelkreis (realisiert z. B. im Anästhesiearbeitsplatz ZEUS), bei dem die inspiratorische O2-Konzentration als Target vorgegeben wird und die Sauerstoffzudosierung automatisch erfolgt, kann dieser Problemfall behoben werden. Inspiratorische O2-Messung. Mit den Elementen Sauerstoffmangelsignal, Lachgassperre und Oxygen-RatioController (ORC) können nur die Fehlerfälle vermieden werden, bei denen das richtige Gas durch die dafür vorgesehene Leitung fließt. Wurde versehentlich O2 mit N2O in der Zuleitung vertauscht, so nützen diese Elemente nichts. Dieser Fehlerfall kann nur durch die direkte Gasartmessung erkannt werden. Daher ist auch in den Normen für Anästhesiegeräte die inspiratorische Sauerstoffmessung Pflicht, weil sie Fehler melden kann, die mit einer Minderdosierung oder Falschdosierung von O2 einhergehen.
Dosierung der Narkosemittel Isoflurane, Sevoflurane und Desflurane Funktionsprinzip Isoflurane, Sevoflurane und Desflurane werden heute für die Inhalations- und balancierte Anästhesie als Anästhetika zur Erzeugung der Bewusstlosigkeit eingesetzt. Sie werden auch volatile Anästhetika genannt, weil sie flüchtig und schnell verdunstend sind.
Ein Narkosemittelverdunster transformiert die Narkosemittel Isoflurane oder Sevoflurane vom flüssigen in den dampfförmigen Zustand und mischt sie dem Frischgas in einer eingestellten Konzentration zu. Charakteristisch für die Narkosemittel Isoflurane und Sevoflurane ist, dass sie bei Zimmertemperatur einen relativ hohen Dampfdruck besitzen. So hat Isoflurane bei 20°C einen Dampfdruck von ca. 300 mbar. Die Sättigungskonzentration (Dampfdruck/Luftdruck) beträgt bei 20°C für Isoflurane 30 Vol.-%. Da der Dampfdruck von der Temperatur abhängt, ergibt sich bei höheren Temperaturen eine höhere Sättigungskonzentration. Für Isoflurane z. B. erhöht sich die Konzentration des gesättigten Dampfes von 30 Vol.-% bei 20°C auf ca. 60 Vol.-% bei 35°C. Die Konzentration des gesättigten Dampfes ist bei 20°C sehr viel höher (20fach) als therapeutisch benötigt. Es wird eine Narkosemittelkonzentration für Isoflurane und Sevoflurane im Bereich von 1–3 Vol.-% eingesetzt. Daraus folgt, dass die Narkosemittel nicht direkt eingeatmet werden können und entsprechend verdünnt zur Anwendung kommen müssen. Die wesentliche Aufgabe des Verdunsters besteht darin, die hohe Sättigungskonzentration von z. B. 30 Vol.-% auf die in der Narkose benötigte Konzentration von z. B. 2 Vol.-% zu reduzieren. Hierzu wird der Frischgas-Flow in zwei Teilströme aufgetrennt (⊡ Abb. 28.5). Ein Verdunsterstrom, in dem das Gas mit dem Narkosemittel angereichert ist, und ein Strom, der ohne Narkosemittel den die Verdunsterkammer umgeht. Anschließend werden beide Ströme wieder zusammengeführt. Der Dampfdruck des Narkosemittels ändert sich mit der Temperatur. Das hätte zur Folge, dass sich bei einer Temperaturänderung auch die abgegebene Narkosemittelkonzentration ändert, wäre der Narkosemittelverdunster nur nach dem beschriebenen Prinzip aufgebaut. Würde man bei einem solchen Verdunster z. B. 3 Vol.-%
28
482
Kapitel 28 · Anästhesiegeräte
Sicherungselemente Kodierte Füllvorrichtung. Ein Verwechseln des Narkosemittels hat je nach Narkosemittel und Verdunster eine Über- bzw. Unterdosierung zur Folge. Um dies zu vermeiden, besitzt ein Verdunster eine kodierte Einfüllvorrichtung. Diese stellt sicher, dass das Narkosemittel nur in den dafür vorgesehenen Narkosemittelverdunster gelangt. Dies wird durch eine geometrische Kodierung von Narkosemittelflasche, Füllschlauch und Vaporeinfüllöffnung erreicht.
III
⊡ Abb. 28.5. Prinzip des Narkosemittelverdunsters (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
bei 20°C einstellen und die Temperatur dann auf 35°C unter Gleichgewichtsbedingungen anheben, so würde sich die abgegebene Konzentration für Isoflurane auf 6 Vol.-% erhöhen. Von einem Narkosemittelverdunster ist aber eine Temperaturunabhängigkeit der abgegebenen Narkosemittelkonzentration im relevanten Temperaturbereich zu fordern. Daher ist eine Kompensation des physikalischen Effektes der Temperaturabhängigkeit des Dampfdruckes bzw. der Sättigungskonzentration notwendig. Das Prinzip der Temperaturkompensation beruht darauf, den Verdunster-Flow mit zunehmender Temperatur zu reduzieren, um das Ansteigen der Sättigungskonzentration zu kompensieren. Je höher die Temperatur, desto weniger Gas wird durch die Verdunsterkammer geleitet. Die technische Lösung nutzt die thermische Ausdehnung zweier verschiedener Metalle aus, die den Bypassspalt bei ansteigender Temperatur vergrößern. Wegen der unterschiedlichen Sättigungskonzentration und der unterschiedlichen Wirkung ist für jedes Narkosemittel ein eigener Verdunster erforderlich. Die Narkosemittelverdunster dürfen nur in der Frischgasleitung eingesetzt werden, da im Kreissystem durch mehrfaches Passieren des Gases durch den Verdunster unkontrollierbar hohe Konzentrationen entstünden. Auf diese Weise ist die am Patienten herrschende Konzentration nicht höher als die am Verdunster eingestellte Konzentration. Ebenso ist der Verdunster stets unterhalb der Siedetemperatur (Isoflurane 48°C) zu betreiben. Oberhalb der Siedetemperatur ergeben sich unkontrollierte Konzentrationsabgaben. Da für Desflurane die Siedetemperatur bei 22°C liegt, muss für dieses Narkosemittel ein anderes als das oben beschriebene Bypassprinzip benutzt werden. Man heizt Desflurane in einer Heizkammer auf 40°C auf und dosiert dem Frischgas das dampfförmige Desflurane dazu. Für die zudosierende Menge ist die Kenntnis des Frischgasflows notwendig. Dieser wird über einen Regelkreis erhalten.
Messung der Narkosemittelkonzentration. Um eine Fehlfunktion des Verdunsters und damit eine Über- oder Unterdosierung zu erkennen, wird die Messung der Narkosemittelkonzentration inspiratorisch eingesetzt. Dabei ist zu beachten, dass der Monitor stets auf das verwendete Mittel eingestellt ist oder eine automatische Narkosemittelerkennung besitzt.
Dosierung der intravenösen Narkosemittel Da das intravenöse Hypnosemittel Propofol und das intravenöse Schmerzmittel Remifentanil im Körper innerhalb von wenigen Minuten abgebaut werden, ist eine kontinuierliche Zuführung dieser Medikamente erforderlich. Deshalb werden für diese Medikamente Spritzenpumpen in der Anästhesie benötigt, die am Anästhesiegerät geeignet angebracht werden müssen. Durch die Dosierung eines Bolus (eine bestimmte Medikamentenmenge in einer gewissen Zeit) wird das Medikament im Blut auf eine gewisse Konzentration gebracht. Die durch den Abbau des Medikaments verloren gehende Wirkung wird durch eine konstante Infusionsrate ausgeglichen. Die Blutkonzentration kann nicht direkt am Patienten gemessen werden. Daher ist der Arzt auf die Beobachtung der Wirkung angewiesen.
28.3.2 Beatmungsgerät inclusive Atemsystem
Die zweite Komponente eines Anästhesiegerätes ist das Beatmungsgerät, auch Ventilator genannt. Es stellt eine lebenserhaltende Komponente dar, da bei Einsatz von Muskelrelaxantien der Patient nicht mehr selbst atmen kann und ganz vom Gerät abhängt. Ein Ausfall hätte dramatische Folgen. Daher integriert man in ein solches System eine manuelle Beatmungsmöglichkeit, damit das Fachpersonal jederzeit die Beatmung von Hand über das Gerät übernehmen kann. Zusätzlich hält man einen manuellen Nothandbeatmungsbeutel (auch Ambubeutel genannt) am Gerät als weitere Möglichkeit in Bereitschaft. Den Aufgaben des Beatmungsgerätes entsprechend sind zu unterscheiden: die Eingabeeinheit, die Steuereinheit, das Atemsystem, die Beatmungeinheit mit Antrieb, die Frischgaseinspeisung und die Überwachung des Beatmungssystems (⊡ Abb. 28.6). Diese Komponenten ermöglichen die Beatmung des Patienten, wobei in der Anästhe-
483 28.3 · Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
sie die Kontrollierte Beatmung die am häufigsten benutzte Beatmungsform darstellt.
Teilkomponenten des Beatmungsgerätes Eingabeeinheit Die Eingabeeinheit des Ventilators, auch human interface genannt, ist die Verbindungsstelle zwischen Anwender und Gerät. Mit ihr kann das medizinische Personal der Steuereinheit entsprechend der Bedienphilosophie des Gerätes die Werte vorgeben, die dem jeweiligen Patienten adäquat sind. So kann z. B. für die kontrollierte Beatmung die Inspirations- und Exspirationszeit, wie in der Anästhesie weit verbreitet, durch Frequenz und Inspirations-/Exspirationsverhältnis vorgegeben werden. Die Gestaltung des kontrollierten Beatmungshubes wird in Volumenkontrollierter Beatmung durch die Vorgabe des zu verabreichenden Volumens und die inspiratorische Pausenzeit bestimmt oder aber durch das Volumen und den inspiratorischen Flow in druckkontrollierter Beatmung durch Vorgabe des inspiratorischen Druckes. Die Eingabe der Parameter geschieht heute meist indirekt, d. h., jede Änderung wird von der Steuereinheit erst dann durchgeführt und an den Patienten weitergegeben, wenn sie vom Anwender nochmals bestätigt wurde. Fehleinstellungen können so vor der Anwendung korrigiert werden. Steuereinheit Die Steuereinheit setzt die von der Eingabeeinheit vorgegebenen Einstellwerte in Maschinendaten um. Sie befehligt die Ventile und legt fest, zu welchen Zeitpunkten das Inspirationsventil, das Exspirationsventil, das Frischgasentkopplungsventil, das Überschussgasventil geöffnet oder geschlossen werden. Sie veranlasst ebenso die Antriebseinheit, das Tidalvolumen in der Inspiration dem Patienten zu verabreichen. Diese Aktivitäten hängen von dem jeweiligen Betriebsmodus ab. Die Anästhesieventilatoren werden heutzutage bei den kontrollierten Beatmungsmodi als Zeit-Zeit-gesteuerte Geräte betrieben. Bei diesen Zeit-Zeit-gesteuerten Geräten wird sowohl die Umschaltung von der Inspiration zur Exspiration als auch die Umschaltung von Exspiration zur Inspiration durch je eine definierte Zeitvorgabe vorgenommen. Diese Umschaltung geschieht unabhängig von der Beschaffenheit der Lunge des Patienten. Atemsystem In der klinischen Praxis gibt es zwei verschiedene Typen von Atemsystemen. Das Rückatemsystem und das Nichtrückatemsystem. Nichtrückatemsysteme werden in der Langzeitbeatmung eingesetzt. Das Frischgas wird dabei direkt in die Lunge des Patienten geleitet. Das ausgeatmete Gas gelangt ohne Umwege in die Umgebungsluft.
⊡ Abb. 28.6. Komponenten eines Ventilators (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
⊡ Abb. 28.7. Prinzip des Rückatemsystems (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
Rückatemsysteme setzt man wegen der Kosten der Gase in Anästhesiegeräten ein (⊡ Abb. 28.7). Durch Rückführung des exspiratorischen Atemgases in den Gasfluss der Inspiration können die darin enthaltenen Narkosemittel optimal genutzt werden und eine geringere Zudosierung von Inhalationsnarkotika erreicht werden. Auf diese Weise kann das Frischgasvolumen weit unter das Atemminutenvolumen reduziert werden.
28
484
III
Kapitel 28 · Anästhesiegeräte
Da die Ausatemluft CO2 enthält, ist es notwendig, einen CO2-Absorber in dieses System zu integrieren, damit der Patient CO2-freies Gas zum Einatmen erhält. Der Absorber ist das charakteristische Erkennungsmerkmal für Rückatemsysteme. Der darin enthaltene Atemkalk (hauptsächlich Ca(OH)2) bindet das CO2 der Ausatemluft. Gleichzeitig wird durch den chemischen Prozess Wärme und Feuchtigkeit produziert, was zur Anwärmung und Anfeuchtung des Gases beiträgt. Zwei Quellen von Wasser gibt es daher in einem Rückatemsystem. Zum einen atmet der Patient 100% feuchtes Gas von 37°C in das Atemsystem zurück, zum anderen produziert der CO2-Absorber Wärme und Feuchtigkeit. Daher benötigt man in der Anästhesie keine extra Anfeuchtung des Gases, im Unterschied zu den Intensivbeatmungsgeräten. Die zum Patienten gelangende inspiratorische Konzentration der Atemgase hängt entscheidend von der Höhe des eingestellten Frischgasflows der eingestellten Frischgaskonzentration und der Konzentration des exspiratorischen Gases ab. Diese Rückatemsysteme haben sich heute in der Anästhesie durchgesetzt, weil sie weniger Gas und volatile Anästhetika verbrauchen, damit geringere Folgekosten bereiten, die Umwelt weniger belasten, eine verbesserte Anfeuchtung und Temperierung der Gase für den Patienten bieten. Je nach Größe des Frischgas-Flows nennt man die Systeme ▬ High-Flow, ca. 3–6 l/min, ▬ Low-Flow, ca. 1 l/min, ▬ Minimal-Flow, ca. 0,5 l/min. Zu beachten ist jedoch, dass im Rückatemsystem die am Patienten ankommende Konzentrationen der Gase stark von den eingestellten Konzentrationen abweichen. Je geringer der Frischgas-Flow eingestellt wird, desto stärker weicht die inspiratorische Konzentration von der eingestellten Frischgaskonzentration ab, desto höher sind jedoch die Dichtigkeitsanforderungen und die Anforderungen an das Gerätemonitoring. Beatmungseinheit Die Beatmungseinheit ist der zentrale Teil eines Ventilators. Mit seiner Hilfe wird dem Patienten das notwendige Atemvolumen verabreicht. Zum einen muss das Gasvolumen in einem Behältnis zur Verfügung stehen, z. B. in einem Balg oder einem Zylinder, zum anderen muss das Gas im Behältnis mit Hilfe eines Antriebes komprimiert und dem Patienten in die Lunge transportiert werden. Das Behältnis kann pneumatisch mittels Druckluft ausgedrückt werden, wie z. B. beim Ventilog, AV1, Julian oder auch elektronisch mittels eines Kolbens, der von einem Motor angetrieben wird, wie z. B. bei Cicero, Fabius oder Primus. Beim pneumatischen Ausdrücken (auch »Bellows-inbottle-Prinzip« genannt) ist der Balg in einer druckdichten Kammer befestigt. Durch Einströmen von Druckluft
wird in der Inspirationsphase der Balg ausgedrückt und das im Balg enthaltene Gas zum Patienten befördert. In der Exspirationsphase wird die Kammer entlastet, sodass der Druck wieder auf Null fällt und der Balg in die Ausgangsposition zurückkehrt. Beim elektrischen Antrieb wird ein Kolben mit Hilfe eines Elektromotors mit angeschlossenem Getriebe in einem Zylinder hin- und her bewegt und so das enthaltene Gas ausgedrückt, vergleichbar mit einer großen Spritze. Der Kolben wird über eine Spindel von einem Schrittmotor hin und her bewegt. Da der Zylinder eine definierte Querschnittsfläche hat und der Antrieb über die Spindel sehr präzise erfolgt, kennt man sehr genau das aktuell gelieferte Volumen bei der Dosierung. Da beim elektrischen Antrieb kein Antriebsgas benötigt wird, entfallen die entsprechenden Kosten. Frischgaseinspeisung Wie in ⊡ Abb. 28.2 gezeigt, wird das O2-, N2O-Gemisch des Messröhrenblockes bzw. Mischers dem Narkosemittelverdunster zugeführt. Nach Passage des Verdunsters wird das Gasgemisch, bestehend aus O2, N2O und Narkosemittel, auch Frischgas genannt. Dieses Gasgemisch wird der Inspirationsseite des Atemsystems zugeleitet. Die Frischgaseinspeisung kann auf zwei verschiedene Arten geschehen: ▬ kontinuierlich (konventionelles System), ▬ diskontinuierlich (frischgasentkoppeltes System). Durch diese unterschiedliche Behandlung des Frischgases haben die Atemsysteme unterschiedliche Charakteristika. Kontinuierliche Frischgaseinspeisung in den Inspirationszweig. Dieses konventionelle System (⊡ Abb. 28.8; realisiert z. B. im Sulla 808 mit Ventilog 2) ist dadurch charakterisiert, dass bei kontrollierter Beatmung der Handbeatmungsbeutel nicht im Gaslauf enthalten ist und dass unabhängig von Inspiration und Exspiration kontinuierlich Gas ins Atemsystem strömt. Während der Inspiration strömt zusätzlich zum Volumen aus dem Balg das Frischgas zum Patienten. Das zum Patienten gelangende Volumen ist daher Balgvolumen plus Frischgasvolumen. Das System hat daher folgende Charakteristika: ▬ Das Atemminutenvolumen ist Frischgas-Flow-abhängig. Das bedeutet: Reduziert man den Frischgas-Flow von z. B. 5 l/min auf 2 l/min, ohne die Beatmung zu verändern, so reduziert sich das Atemminutenvolumen (AMV) um 1,5 l bei einem I:E von 1:1. Änderung AMV = [1/2(5 l/min-2 l/min) = 1,5 l/min]. ▬ Bei einem großen Frischgas-Flow zeigt die Druckkurve in der Plateauphase einen kontinuierlichen Druckanstieg. Die Druckkurve erhält dadurch einen zweiten Druckpeak. ▬ Bei einem sehr kleinen Frischgas-Flow und fallendem Balg ergibt sich zu Beginn der Exspiration eine negative Druckphase, da das konventionelle System kein
485 28.3 · Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
Gasreservoir besitzt. Daher ist auf einen genügend großen Frischgas-Flow zu achten, um diesen Effekt zu vermeiden.
einem Regelalgorithmus der Anteil aus der Balgeinheit so reduziert werden, dass die Summe aus Frischgas und Balganteil dem eingestellten Volumen entspricht.
Diese Frischgasflowabhängigkeit wird heute in einigen Geräten auf dem Weltmarkt im steady state durch die so genannte Frischgaskompensation beseitigt. Durch Messung des Volumens z. B. in der Inspiration, das aus einem Frischgas und einem Ventilatoranteil besteht, kann mit
Diskontinuierliche Frischgaseinspeisung in den Inspirationsgaszweig. Dieses System (⊡ Abb. 28.9) wird auch frischgasentkoppeltes System genannt und ist z. B. im Cicero, Fabius, Primus realisiert. Es ist dadurch charakterisiert, dass der Frischgas-Flow nur in der Exspira-
⊡ Abb. 28.8. Konventionelles Kreissystem mit kontinuierlicher Frischgaseinspeisung (Prinzip realisiert z. B im Sulla 808V) (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
⊡ Abb. 28.9. Frischgasentkoppeltes System durch diskontinuierliche Frischgaseinspeisung (Prinzip z. B. Cato, Cicero EM) (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
28
486
III
Kapitel 28 · Anästhesiegeräte
tionsphase des Patienten in die Inspirationsleitung des Atemsystems einströmen kann. In der Inspirationsphase strömt das Gas in einen Reservoirbeutel (Handbeatmungsbeutel) und ermöglicht so in der Exspirationsphase, den Balg zu füllen. Aufgrund dieser diskontinuierlichen Frischgaseinspeisung hat das System folgende Eigenschaften: ▬ Das Atemminutenvolumen ist unabhängig vom Frischgas-Flow, d. h., ändert man den Frischgas-Flow von z. B. 5 l/min auf 2 l/min, so ändert sich das Atemminutenvolumen nicht. Wegen dieser Eigenschaft ist die Frischgasentkopplung für die Anwendung der LowFlow-Narkose wesentlich. ▬ Durch die Entkopplung von Medikamentendosierung und Patienten gibt es keine Beeinflussung der Druckkurve vom Frischgas-Flow, insbesondere keine negative Phase bei kleinem Flow. ▬ Der Reservoirbeutel ist bei kontrollierter Beatmung im System integriert und füllt und entleert sich im Rhythmus der Beatmung. Daran ist auch die Frischgasentkopplung in Volumenkontrollierter Beatmung zu erkennen. Überwachung des Beatmungssystems Um Fehlfunktionen der einzelnen Komponenten, wie hier des Ventilators inklusive Atemsystem, erkennbar und transparent zu machen und dem Anwender die Möglichkeit zum Eingreifen zu geben, sind Gerätemonitoring-Parameter unerlässlich. Drei Sensoren – Druck, Volumen und CO2 – sorgen dafür, den Ventilator und das Atemsystem in seiner Funktion zu überwachen. Meist sind diese Sensoren in das übrige Gerätemonitoring integriert und erfüllen dabei zusätzliche Patientenüberwachungsaufgaben. Die Volumenmessung ermöglicht die Kontrolle des eingestellten Tidalvolumens. Die korrekte Beatmungsfrequenz lässt sich aus der Volumen-, Druck- oder CO2Messung ableiten. Die Druckmessung gibt eine Warnung vor einem zu großen Druck im Atemsystem (Stenose) und soll vor der Gefahr eines Barotraumas schützen. Die inspiratorische CO2-Messung erkennt einen nicht mehr funktionsfähigen Atemkalkabsorber. Eine Warnung vor einer Diskonnektion ermöglicht die exspiratorische CO2Messung und die Druckmessung (die eingestellte untere Druckgrenze wird bei Diskonnektion nicht mehr periodisch in beiden Richtungen durchlaufen).
Beatmungsmodi in der Anästhesie aus medizinischer Sicht In der Anästhesie spielen heute drei Beatmungsformen eine Rolle. ▬ Die Handbeatmung. Die Handbeatmung ermöglicht es dem Anästhesisten, die Anästhesie einzuleiten, den Patienten zu beatmen und wieder aus der Anästhesie
zur Spontanatmung zurück zu bringen. Ebenso hilft sie in allen Notsituationen. ▬ Die kontrollierte Beatmung. Sie spielt in der Anästhesie die dominierende Rolle, da bei der Narkose häufig ein Muskelrelaxans benutzt wird, welches als Nebenwirkung die Atemmuskulatur lähmt, oder Opioide als Schmerzmittel in entsprechend hoher Dosis, die den Atemantrieb reduzieren. Bei dieser Beatmungsform ist der Patient passiv. Der Arzt bestimmt, wie oft und mit wie viel Volumen beatmet wird. Das Gerät übernimmt die gesamte Atemarbeit. Zwei Modi, die volumenkontrollierte und die druckkontrollierte Beatmung werden dabei unterschieden, die beide in der Anwendung verschiedene Schwerpunkte haben. Die Hauptindikation für volumenkontrollierte Beatmung sind die lungengesunden Patienten für druckkontrollierte Beatmung die Patienten mit pulmonalen Problemen, Neonaten und Patienten der Pädiatrie. ▬ Die Unterstützung der Spontanatmung. Bei einer Reihe von Operationen ist die Anwendung von Muskelrelaxantien nicht notwendig, und anstelle eines Tubus zur Sicherung der Atemwege wird eine Larynxmaske benutzt. Bei der reinen Spontanatmung bestimmt der Patient, wann er, wie oft er und wie tief er atmen möchte. Zwei Fälle sind nun zu unterscheiden bei der Spontanatmung am Gerät: a Pressure Support, b Mischventilation. Der Patient kann spontan atmen mit stabiler Spontanatemfrequenz, jedoch ist je nach Dosierung der Medikamente die Muskulatur geschwächt. Pressure Support hilft die durch die Medikamente geschwächten Atemmuskeln zu unterstützen und die Atmung zu vertiefen. ▬ b. Mischventilation. Wird eine Operation ohne Muskelrelaxantien durchgeführt, die Hypnose- und Schmerzmedikamente aber so hoch dosiert, dass die Spontanatemfrequenz instabil ist, kann es vorkommen, dass Phasen ohne Spontanatmung auftreten. Hier ist zuerst eine Mindestventilation sicherzustellen, damit der Patient seinen Sauerstoffbedarf decken kann auch wenn er nicht selbst atmet. Der Ventilator gibt mit einer eingestellten niedrigen Sicherheitsfrequenz synchron mit der Einatmungsbemühung des Patienten kontrollierte Beatmungshübe ab. Damit der Patient die Widerstände von Tubus und Nebenwirkung der Medikamente leichter überwinden kann, unterstützt man die Spontanatmung, wenn sie vorhanden ist, mit Pressure Support. In der Ausleitungsphase einer Anästhesie mit Muskelrelaxantien, wo die Konzentration der Medikamente sich allmählich verringert und die Spontanatmung wiederkommt, hilft die Mischventilation, die
487 28.3 · Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
aufkommende Spontanatmung zu unterstützen und eine Mindestventilation sicherzustellen. Der Anästhesist hat dabei die Hände für andere Aufgaben frei. Ansonsten ist eine Hand mit assistierender Handbeatmung belegt.
Beatmungsmodi in der Anästhesie aus technischer Sicht Volumenkontrollierte Beatmung Volumenkontrollierte Beatmung, auch IPPV (»intermittent positive pressure ventilation«) genannt, ist ein zeitgesteuerter, volumenkontrollierter Beatmungsmodus. Bei dieser kontrollierten Beatmung verabreicht der Ventilator das voreingestellte Tidalvolumen (z. B. 6–8 ml/kg Körpergewicht) mit einem fest vorgegebenen konstanten Inspirations-Flow mit der vorgegebenen Frequenz (z. B. für Erwachsene 12 1/min). Der Druckverlauf im Atemsystem und in der Lunge ergibt sich aus den eingestellten Parametern und der Resistance und Compliance der Lunge des Patienten (⊡ Abb. 28.10). Je nach Einstellung können hohe Druckspitzen auftreten. Daher ist eine maximale Druckgrenze Pmax einzustellen, die bewirkt, dass bei Erreichen der Druckgrenze der Flow automatisch reduziert wird. Daneben ist das Druckmonitoring wesentlich. Von Vorteil ist im IPPV Modus, dass stets ein definiertes Atemminutenvolumen zum Patienten gelangt, wenn sich auch die Lungeneigenschaften ändern. Dieser Modus wird vor allem bei lungengesunden Patienten angewandt und ist in der Anästhesie sehr populär. Ebenso wird er benutzt, wenn die Volumenkonstanz und damit die Einhaltung des arteriellen CO2-Partialdrucks innerhalb enger Grenzen ein primäres Ziel der Beatmung ist. Ein Beispiel hierfür ist das Schädel-Hirn-Trauma. Da die Hirndurchblutung CO2 abhängig ist, ist zur optimalen Einstellung des intrazerebralen Druckes das Volumen konstant zu halten. Druckkontrollierte Beatmung Druckkontrollierte Beatmung auch PCV (»pressure controlled ventilation«) genannt, ist ein zeitgesteuerter, druckkontrollierter Beatmungsmodus. Bei dieser kontrollierten Beatmung gibt der Ventilator einen Beatmungshub bei einem konstanten vorgegebenen Druckniveau z. B 15 mbar mit einem dezellerierenden inspiratorischen Flow-Muster während der gesamten Inspirationszeit mit der vorgegebenen Häufigkeit (Frequenz) ab (⊡ Abb. 28.11). Das verabreichte Volumen kann nicht vorgegeben werden und ergibt sich aus dem angewandten Druck und der Compliance der Lunge. Je nach Druckeinstellung kann das abgegebene Volumen zu groß oder zu klein sein. Daher ist das exspiratorische Volumenmonitoring wesentlich. Vorteilhaft an diesem Mode ist vor allem, dass keine höheren als die eingestellten Druckwerte am Patienten auftreten. Dieser Modus wird
⊡ Abb. 28.10. Druck- und Flow-Kurve bei volumenkontrollierter Beatmung (mit konstantem Inspirationsflow) (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
⊡ Abb. 28.11. Druck- und Flow-Kurve bei druckkontrollierter Beatmung (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
28
488
III
Kapitel 28 · Anästhesiegeräte
vor allem bei Neonaten, Säuglingen und Kindern angewandt, wo der Thorax noch nicht so stabil ist und auch der Tubus nicht geblockt ist und daher Leckagen vorhanden sind. Ebenso ist er hilfreich bei Patienten mit inhomogenen Lungen, wo ein Überdehnen der normalen Bereiche vermieden werden soll. Auch ist dieser Modus geeignet, Patienten mit bronchuspleuralen Fisteln zu beatmen. Bei Beatmung mit Larynxmasken wird die druckkontrollierte Beatmung auch zunehmend eingesetzt. Unterstützung der Spontanatmung (Pressure Support) Pressure support ist ein druckunterstützter Beatmungsmodus, der bei erhaltener, aber nicht ausreichend tiefer Spontanatmung eingesetzt werden kann (⊡ Abb. 28.12). Er unterstützt jeden einzelnen Atemzug des Patienten. Dieser Modus wird auch ASB (»Assisted Spontaneous Breathing«) oder IHS (»Inspiratory Help System«) ge-
⊡ Abb. 28.12. Druckkurve bei unterstützter Spontanatmung (Pressure Support) (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
⊡ Abb. 28.13. Druckkurve bei Mischventilation SIMV(VC) + PS (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
nannt. Ähnlich wie der Anästhesist die wiedereinsetzende Spontanatmung des Patienten am Beatmungsbeutel fühlt und manuell unterstützt, kann das Gerät eine insuffiziente Spontanatmung unterstützen. Das Gerät übernimmt einen Teil der Atemarbeit, der Patient jedoch kontrolliert den Inspirationsanfang und das Inspirationsende. Der Inspirationsanfang wird mit Hilfe eines Triggersystems erkannt. Das Gerät stellt danach einen hohen Flow zur Verfügung, dessen Anstieg vorgewählt werden kann, und erzeugt dadurch einen Druckanstieg, der bis zum vorgewählten Unterstützungs-Druck steigt und auch konstant bleibt. Die Ausatmung beginnt, sobald der Inspirationsflow unter einen bestimmten Wert (z. B. 25% des Maximalflows) fällt. Durch Reduzierung des Unterstützungsdruckes wird die Unterstützung des Gerätes reduziert und der Patient zur Übernahme von mehr Atemarbeit veranlasst. Die Mischventilation SIMV/ PS Die Grundidee des SIMV (Synchronized Intermittent Mandatory Ventilation) (⊡ Abb. 28.13) besteht darin, dass der Patient im Wesentlichen spontan atmet und der Ventilator zwischendurch synchron mit der Einatmungsbemühung des Patienten kontrollierte Beatmungshübe (volumenkontrolliert oder druckkontrolliert) mit einer sehr niedrigen Sicherheitsfrequenz abgibt. Es wird verhindert, dass ein maschineller Atemhub während der spontanen Exspiration erfolgt. Während des kontrollierten Hubes ist keine Spontanatmung möglich. SIMV ist eine Mischform zwischen reiner Spontanatmung und kontrollierter Beatmung. Die Atemhübe des Gerätes werden mit dem Atemzug des Patienten synchronisiert, wozu die Triggerfunktion des Gerätes benutzt wird. Der Atemhub wird dann ausgelöst, wenn der Patient am Ende der Spontanatemphase eine neuerliche Einatemanstrengung unternimmt und dadurch den Triggerpuls auslöst. Sie ergeben eine Mindestventilation, die sich aus dem Produkt von Atemvolumen (VT) und der Frequenz ergibt. Zwischen diesen kontrollierten Hüben kann der Patient frei, spontan atmen. In diesen Spontanatemphasen kann der Patient zusätzlich mit Pressure Support durch eine geeignete Druckeinstellung unterstützt und ihm ein Teil seiner Atemarbeit abgenommen werden.
489 28.3 · Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
28.3.3 Monitoring
Die dritte wesentliche Komponente eines Anästhesiegerätes ist das Monitoring. Es hat zum Ziel, einerseits die korrekte Funktion der Medikamentendosierung und des Beatmungsgerätes, andererseits die Auswirkungen der Anästhesie auf die physiologischen Funktionen des Patienten ständig zu überwachen. Anhand entsprechender Überwachungsgrößen wird festgestellt, ob das Gerät ordnungsgemäß arbeitet und der Patient in der gewünschten Weise anästhesiert und beatmet wird. Bei Überschreiten der Grenzen eines vorher festgelegten Bereiches wird der entsprechende akustische und optische Alarm des überwachten Parameters ausgelöst. Um die beiden wichtigsten Aufgaben, nämlich die Messung und Überwachung eines bestimmten Parameters zu erfüllen, sind verschiedene Systemkomponenten im Monitor notwendig: ▬ Die Messeinheit. Sie wandelt mit Hilfe eines Sensors die physikalischen Größen, wie z. B. Druck, Flow, Sauerstoffkonzentration, Temperatur, Absorption, in ein auswertbares elektrisches Signal um. So wird z. B. aus dem Atemgasstrom mittels eines Sensors ein elektrischer Strom erzeugt. ▬ Die Anzeigeeinheit. Sie zeigt das gemessene Ergebnis nach Umwandlung in die entsprechenden Einheiten an, wie z. B. Volumen in ml. Die Anzeige kann dabei als digitale Ziffernfolge oder als analoger Zeigerausschlag oder aber auch als Kurve ausgegeben werden. ▬ Die Überwachungseinheit. Sie hat die Aufgabe zu überprüfen, ob die Ist-Werte im Soll-Bereich liegen. Um dies zu erfüllen, werden der Überwachungseinheit vom Anwender untere und obere Grenzwerte eingegeben. Die Überwachungseinheit vergleicht den aktuellen Messwert mit dem unteren und oberen Grenzwert. Werden Grenzwerte überschritten, wird ein Alarm abgegeben, damit der Anwender eingreifen kann. Durch geeignetes Zusammenstellen der Ausgabenwerte der verschiedenen Sensoren kann der Bildschirm mit Kurven, Daten und Alarmdisplays unterschiedlich gestaltet werden.
Aufgaben der verschiedenen Sensoren An Anästhesiegeräten werden gewöhnlich 9 Sensoren eingesetzt. ▬ 5 Gerätemonitoringsensoren, um die Medikamentendosierung und den Ventilator zu überwachen: – Sauerstoff, – Druck, – Volumen, – Kohlendioxid (CO2), – Anästhesiemittel;
▬ 4 Patientenmonitoring-Sensoren, um einen gesunden
Patienten bei unkomplizierten Operationen zu überwachen: – das Elektrokardiogramm (EKG), – den nichtinvasiven Blutdruck (NIBP), – die Sauerstoffsättigung (SpO2). – die Körpertemperatur. Anzeige der dosierten Gase Die Gasdosiereinheit und der Narkosemittelverdunster geben die Medikamente in den Frischgasstrom des Atemsystems. Aufgrund des Rückatemsystems weichen die inspiratorischen Konzentrationen von Sauerstoff, Lachgas und Narkosemittel von den an den Dosiereinrichtungen eingestellten Konzentrationen ab. Dieser Unterschied ist umso größer, je kleiner der Frischgas-Flow ist. Um zu wissen, welche Konzentrationen zum Patienten gelangen, ist die Messung und Anzeige der inspiratorischen Konzentration von Sauerstoff, Lachgas und Narkosemittel (Isoflurane, Sevoflurane, Desflurane) notwendig. Überwachung der Gerätekomponenten Mit oberen und unteren Alarmgrenzen sorgen fünf verschiedene Sensoren dafür, dass die Gerätekomponenten ständig überwacht werden. Der Sinn einer solchen Überwachung ist es, dass im Falle einer Fehlfunktion des Gerätes das qualifizierte und eingewiesene medizinische Personal umgehend Abhilfe schaffen kann. Die Sauerstoffmessung überwacht die Gasdosierung, um z. B. ein Vertauschen der O2- und N2O-Leitungen erkennbar zu machen. Dies kann zusätzlich durch die Messung der Lachgaskonzentration abgesichert werden. Daneben erkennt die Sauerstoffmessung eine Hypoxie, wenn z. B. eine zu niedrige O2-Konzentration eingestellt wurde. Die Narkosemittelmessung hat die Aufgabe, den Narkosemittelverdunster auf korrekte Funktion zu überwachen. Die CO2-Messung ermöglicht die Erkennung von Rückatmung, wenn z. B. ein Inspirations- oder Exspirationsventil defekt ist. Die inspiratorische CO2-Messung überwacht die CO2-Absorption des Atemkalkes und zeigt an, wann spätestens der Atemkalk ausgewechselt werden muss. Die exspiratorische CO2-Messung überwacht die adäquate Ventilation und so auch die Integrität des Atemsystems auf Diskonnektion zwischen Gerät und Patient. Druck- und Volumenmessung dienen dazu, den Ventilator in seiner Funktion zu überwachen. Die Volumenmessung zeigt das korrekte Arbeiten des Ventilators an, insbesondere, ob das eingestellte Volumen auch abgegeben wurde. Die Druckmessung sorgt dafür, dass eine Diskonnektion erkannt wird und andererseits der Arzt vor einem zu hohen Druck gewarnt wird, um ein Barotrauma zu verhindern. Überwachung des Patienten Durch die verschiedenen Sensoren, die für das Gerätemonitoring und das Patientenmonitoring vorhanden sind, erhält der Arzt die Möglichkeit, den Zustand des
28
490
III
Kapitel 28 · Anästhesiegeräte
Patienten zu beurteilen. So bestimmen die inspiratorische Sauerstoffkonzentration und der bei der Beatmung entstehende Mitteldruck die Oxigenierung des Patienten. Der Unterschied von exspiratorischer und inspiratorischer O2-Konzentration gibt ein Maß für den O2-Verbrauch des Patienten. Die Volumenmessung zusammen mit der exspiratorischen CO2-Messung ermöglicht, die Ventilation des Patienten richtig einzustellen. Die exspiratorische Narkosemittelkonzentration liefert einen Anhaltspunkt für die Narkosetiefe. Die Differenz des inspiratorischen und exspiratorischen Narkosemittelkonzentrationswertes ist ein Maß für die Narkosemittelaufnahme des Patienten. Die Differenz zwischen Spitzendruck und Plateaudruck in volumenkontrollierter Beatmung weist auf die Atemwegswiderstände hin. Patienten- und Geräte-Compliance hingegen spiegeln sich im Plateaudruck in volumenkontrollierter Beatmung wider. Der Sauerstoffsättigungssensor zeigt die Oxigenierung im Blut an und macht zusätzlich eine Aussage über die Pumpfunktion des Herzens. Für die Überwachung des Patienten ist ebenso eine Überwachung des Blutkreislaufs notwendig. Die Pumpfunktion des Herzens kann an der Messung der Herzfrequenz über die Sauerstoffsättigung sowie durch Messung des nichtinvasiven Blutdruckes beobachtet werden. Das EKG zeigt an, ob und wie das Herz elektrisch aktiviert wird. Fieber oder Hypothermie können mit der Messung der Körpertemperatur erkannt werden. Für Operationen am Herzen, z. B. in der Neurochirurgie, ist neben diesem hier dargestellten Monitoring ein erweitertes Monitoring mit invasiver Blutdruckmessung notwendig ( Kap. 40).
Sensorprinzipien für das Gerätemonitoring Brennstoffzelle zur Sauerstoffkonzentrationsmessung
Die inspiratorische Sauerstoffkonzentrationsmessung überwacht die Sauerstoffdosierung. Ein oft angewandtes Verfahren für die O2-Messung ist die Brennstoffzelle (⊡ Abb. 28.14).
⊡ Abb. 28.14. Prinzip der Brennstoffzelle zur Sauerstoffkonzentrationsmessung (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
Das elektrochemische Reaktionssystem der Brennstoffzelle befindet sich in einem Gehäuse, das durch eine sehr dünne Membran abgeschlossen ist. Diese Membran hat die Aufgabe, den Austritt des alkalischen Elektrolyten aus dem Gehäuse zu verhindern und Sauerstoffmoleküle hindurchdiffundieren zu lassen. Entsprechend der O2Konzentration im Gas stellt sich die O2-Konzentration im Elektrolyten der Brennstoffzelle ein. In der alkalischen Elektrolytlösung befinden sich eine Bleianode und eine Goldkathode. Nachdem die Sauerstoffmoleküle des zu messenden Gases die Membran durchquert haben, laufen vereinfacht folgende Elektrodenreaktionen ab: An der Goldkathode entzieht der Sauerstoff Elektronen aus dem Kathodenmaterial, und es bilden sich OH-Ionen. Die Kathode lädt sich positiv auf. An der Anode reagiert Blei mit den OH-Ionen zu Bleioxid und Wasser. Dabei lädt sich die Anode negativ auf. Werden Kathode und Anode miteinander verbunden, so fließt ein Elektronenstrom, welcher der Sauerstoffkonzentration proportional ist. Die Lebensdauer dieses Systems ist begrenzt, weil Blei in Bleioxid umgewandelt wird und dann kein Blei für die Reaktion mehr zur Verfügung steht. Ebenso wird Wasser als Katalysator in der Zelle benötigt. Diffundiert das Wasser aus der Zelle, kann ebenfalls die Reaktion nicht mehr ablaufen. Paramagnetischer Sensor für die Sauerstoffkonzentrationsmessung
Das Gasgemisch in der Anästhesie besteht aus Sauerstoff, Stickstoff, N2O, CO2 und volatilen Anästhetika. Nur das O2-Molekül hat ein paramagnetisches Moment, das durch ein Magnetfeld beeinflusst werden kann. Daher kann Sauerstoff selektiv im Gasgemisch gemessen werden. Das Messprinzip (⊡ Abb. 28.15) basiert auf der Wärmeleitfähigkeit von Sauerstoff. Die thermische Leitfähigkeit eines Gases hängt von seinen Freiheitsgraden ab. Mehr Freiheitsgrade tragen stärker zur thermischen Leitfähigkeit bei als weniger. Das Magnetfeld wird nun dazu eingesetzt, den Freiheitsgrad der Sauerstoffmoleküle zu reduzieren. Die O2-Moleküle werden quasi magnetisch ausgerichtet
491 28.3 · Funktionsweise der drei Komponenten Medikamentendosierung, Beatmungseinheit und Monitoring
wie kleine Stabmagnete. Daher hängt die thermische Leitfähigkeit vom äußeren Magnetfeld ab und hat einen kleinen, aber messbaren Einfluss auf die Gesamtwärmeleitfähigkeit des Gasgemisches. Ein Heizelement wird auf eine konstante Temperatur im Magnetfeld gebracht und leitet Wärme zum Gas in der Küvette. Der Temperatursensor nahe am Heizdraht misst die Temperatur, die von der Wärmeleitfähigkeit des Gases abhängt. Das Magnetfeld wird nun periodisch mit einer spezifischen Frequenz an- und ausgeschaltet, und daher misst der Temperatursensor kleine Temperaturfluktuationen. Die Amplitude dieser Fluktuationen ist direkt proportional zur Sauerstoffkonzentration. Diese paramagnetische Wärmeleitungsmethode hat eine kurze Zeitkonstante, keine bewegten Teile sowie eine lange Haltbarkeit und kann die inspiratorische und exspiratorische Sauerstoffkonzentration messen. Piezoresistiver Wandler zur Druckmessung Die in- und exspiratorische Druckmessung ermöglicht es, Druckzeitdiagramme darzustellen und so die Beatmung transparenter zu machen. Sie sorgt dafür, Diskonnektionen und Apnoephasen zu erkennen und ebenfalls vor zu hohem Druck zu warnen.
Ein elektrisches Drucksignal kann aus einem mechanisch-elektrischen (piezoresistiven) Wandler gewonnen werden (⊡ Abb. 28.16). Hierzu wird ein Druckbehälter mit einer beweglichen Membran abgeschlossen. Auf der Membran ist ein Festkörper befestigt, dessen elektrischer Widerstand von der Dehnung der Membran abhängt. Die elektronische Druckmessung beruht nun darauf, dass der momentan herrschende Druck die Membran ausdehnt. Durch die Ausdehnung der Membran wird der Festkörperstreifen verbogen, wodurch eine Widerstandsänderung auftritt. Auf diese Weise ist der momentan herrschende Druck mit dem gemessenen Widerstand eindeutig korreliert. Hitzdrahtprinzip zur Volumenmessung Die exspiratorische Volumenmessung erfasst die das System verlassende Gesamtgasmenge. Besonders bei druckkontrollierten Verfahren ist die Volumenmessung die einzige Möglichkeit, eine Information über das zum Patienten gegebene Volumen zu erhalten. Eine zusätzliche inspiratorische Messung erlaubt die Darstellung der inspiratorischen und exspiratorischen Flowkurve. Ein rein elektrisches Verfahren zur Volumenmessung ist das Hitzdrahtanemometerverfahren (⊡ Abb. 28.17). Ein sehr dünner Platindraht wird dabei mit Hilfe des
⊡ Abb. 28.15. Prinzip des paramagnetischen Sensors für die Sauerstoffkonzentrationsmessung (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
⊡ Abb. 28.16. Prinzip des piezoresistiven Wandlers zur Druckmessung im Atemsystem (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
⊡ Abb. 28.17. Prinzip des Hitzdrahtanemometers zur Volumenmessung (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
28
492
III
Kapitel 28 · Anästhesiegeräte
⊡ Abb. 28.18. Infrarotabsorption zur Messung der CO2-, N2O- und Narkosemittelkonzentration (© Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten)
elektrischen Stromes auf eine Temperatur von etwa 180°C erhitzt. Strömt Gas an diesem Draht vorbei, so wird er gekühlt. Je größer das vorbeifließende Volumen pro Zeit ist, umso mehr kühlt sich der Draht ab. Wird die Temperatur des Platindrahtes durch einen Regelkreis konstant gehalten, kann der erforderliche Heizstrom als Maß für den Gasflow benutzt werden. Eine hohe Strömungsgeschwindigkeit erfordert einen hohen elektrischen Strom, um die Temperatur des Heizdrahtes konstant zu halten, eine kleinere Strömungsgeschwindigkeit erfordert einen kleinen elektrischen Strom, um die gleiche Temperatur zu erreichen. Durch elektronische Integration der Stromstärke über der Zeit erhält man das Volumen. Infrarotabsorptionsmessung zur CO2-, N2O-Narkosemittelkonzentrationsmessung Die Infrarotabsorptionsspektroskopie (⊡ Abb. 28.18) basiert auf dem physikalischen Prinzip, dass mehratomige Moleküle Infrarotstrahlung bei charakteristischen Frequenzen absorbieren. Die Stärke der Absorption hängt dabei von der Anzahl der Moleküle ab. Zur Messung werden die Moleküle in eine Küvette mit definierter Länge geleitet und mit einer Infrarotlichtquelle durchstrahlt. Das Nachweiselement (der Detektor) weist die nach der Absorption verbleibende Reststrahlung nach. Strahlt die Lichtquelle mit der Intensität I0 und wird der Strahl durch die Moleküle auf die Intensität I abgeschwächt, so kann die Konzentration nach dem LambertBeer-Gesetz berechnet werden zu: Konzentration = Absorptionskonstante *ln (I0/I). Mit je einer, aber für jedes Gas unterschiedlichen charakteristischen Lichtfrequenz werden im 4 μm-Bereich CO2, und N2O bestimmt. Die Narkosemittel Halothane, Enflurane, Isoflurane, Sevoflurane, Desflurane werden heutzutage durch Messung der Absorption auf 3 Wellenlängen im Bereich 8–9 μm identifiziert und die entsprechende Konzentration bestimmt. Sensorprinzipien für das Patientenmonitoring Die Prinzipien des EKG, der Sauerstoffsättigungsmessung und des Blutdruckes sind in Kap. 40 beschrieben.
28.4
Voraussetzung für den sicheren Betrieb
28.4.1 Anschlussvoraussetzungen
Die ordnungsgemäße Funktion des Gerätes ist nur in Räumen mit entsprechenden Versorgungsanschlüssen gewährleistet. So ist darauf zu achten, dass das Anästhesiegerät als lebenserhaltendes System am krankenhausinternen Notstromnetz angeschlossen wird. Gleich wichtig ist, dass immer Sauerstoff, Druckluft und, wo eingesetzt, Lachgas aus der zentralen Versorgung mit geeignetem Druck (z. B. 5 bar) vorhanden sind. Ist eine Redundanz nicht gegeben, so ist Sorge dafür zu tragen, dass Reserveflaschen in der Nähe sind, um im Fall einer Störung der zentralen Versorgungsanlage den Narkosebetrieb aufrechterhalten zu können. Bei kardiologischen Eingriffen ist außerdem daran zu denken, dass das Gerät an die zentrale Erde im OP angeschlossen wird. Ebenso ist zu beachten, dass Mobilfunktelefone die Funktionsweise eines Gerätes stören können. Da im Gerät Lachgas und Narkosemittel (Isoflurane, Sevoflurane, Desflurane) benutzt werden, die nur der Patient einatmen sollte, nicht jedoch das OP-Personal, ist es notwendig, dass eine Anästhesiegasfortleitung vorhanden ist, um das Gas zu entsorgen. Da jedes Gerät eine gewisse Undichtigkeit besitzt und z. B. bei Maskennarkosen auch Narkosegase in das Umfeld gelangen, ist eine geeignete Luftwechselrate der Umluftanlage notwendig, damit die Belastung am Arbeitsplatz gering ist.
28.4.2 Einweisung und Weiterbildung
Voraussetzung für den Einsatz eines Anästhesiegerätes ist die Vertrautheit mit dem Gerät. Daher ist eine Einweisung am Gerät notwendig. Sie beabsichtigt, dem Anwender die Kenntnisse und Handlungsabläufe zu vermitteln, die eine sachgerechte Anwendung des Gerätes ermöglichen. Bei der Einweisung spielt die Gebrauchsanweisung die zentrale Rolle, denn sie ist der entscheidende Informationsträger für den Anwender. Um die Anwendungssicherheit
493 Weiterführende Literatur
zu gewährleisten, ist daher neben der Ersteinweisung und dem Studium der Gebrauchsanweisung eine regelmäßig wiederkehrende Unterweisung und Weiterbildung notwendig. Ziel dieser Aus- und Weiterbildung muss es sein, die Funktionen des Anästhesiearbeitsplatzes beherrschen zu lernen, seine Möglichkeiten ausschöpfen zu können und durch die erworbenen Kenntnisse und Fertigkeiten die Gewähr für eine sichere Handhabung in Routine- und Notfallsituationen zu bieten.
28.4.3 Hygiene
Anästhesiegeräte können mit Krankheitserregern kontaminiert sein und so die Quelle von Infektionen darstellen. Die Anwendung solcher Geräte setzt daher eine vorherige Aufbereitung voraus, an die definierte Anforderungen zu stellen sind. Wichtige Punkte sind dabei: ▬ Alle atemgasführenden Teile müssen für jeden Patienten im Normalfall desinfiziert sein. Dies kann z. B. dadurch erreicht werden, dass für jeden Patienten die entsprechenden Teile des Atemsystems und Ventilators getauscht werden. Häufig werden heute Filter am Y-Stück eingesetzt, um diese Anforderung zu erfüllen. Technisch bedeutet dies, dass die mit Atemgas in Berührung kommenden Teile zerlegt werden können und eine Temperatur von 134°C aushalten müssen, um sie zu sterilisieren. ▬ Invasiv eingesetzte Teile wie z. B. invasive Druckmessleitungen oder auch Beatmungstuben müssen sterilisiert sein. ▬ Mindestens täglich ist eine Geräteoberflächendesinfektion notwendig, um durch eine Keimreduktion eine Übertragung der Keime vom Gerät über die Hände auf den Patienten zu vermeiden. Für den hygienischen Zustand der Geräte ist entscheidend, dass ein festes Wechselregime benutzt wird und diese Routine durch hygienische Tests vor Ort abgesichert wird. Ist das Testergebnis nicht befriedigend, muss das Regime definiert verändert werden.
28.4.4 Instandhaltung und Prüfungen
Vom Hersteller wurden in der Konzept-, Entwicklungsund Fertigungsphase eines Gerätes sicherheitstechnische Maßnahmen in das Produkt integriert. Mit dem CE-Zeichen wird sichtbar gemacht, dass alle zutreffenden Schutzziele aller für das Medizinprodukt zu berücksichtigenden EG-Richtlinien erfüllt werden. Damit ist aber keinesfalls die gewünschte Sicherheit im klinischen Einsatz über Jahre gewährleistet, auch wenn die Geräte entsprechend der Gebrauchsanweisung bestimmungsgemäß eingesetzt und ordnungsgemäß bedient werden. Während seines Betrie-
bes unterliegt ein solches Gerät bestimmten Verschleißerscheinungen, wobei sich der aktuelle Zustand (IstZustand) von dem gewünschten Zustand (Soll-Zustand) entfernt. Anwender und Betreiber müssen daher eine laufende Überprüfung und Kontrolle im Routinebereich organisieren und durchführen, damit die Sicherheit eines Gerätes auch zwischen zwei für Anästhesiegeräte üblichen wiederkehrenden sicherheitstechnischen Kontrollen bzw. Inspektionen gewährleistet bleibt. Zwischen diesen Intervallen hat der Anwender sich vor der Anwendung eines Medizinproduktes von der Funktionalität und dem ordnungsgemäßen Zustand des Medizinproduktes zu überzeugen. Ziel dieser Prüfung ist das Erkennen von Fehlern, die durch das Auseinandernehmen, Reinigen, Desinfizieren, Sterilisieren, Transportieren und Zusammenbauen entstanden sein können. Normalerweise werden die Geräte am Morgen vor der ersten OP getestet, und ihr ordnungsgemäßer Zustand wird hergestellt.
Weiterführende Literatur Baum JA (2000) Low Flow Anaesthesia: The Theory and Practice of Low Flow, Minimal Flow and Closed System Anesthesia, 4th ed. Butterworth- Heinemann, Oxford Baum JA (2005) New and alternative delivery concepts and techniques. Best Pract Res Clin Anaesthesial 3: 415-28 Gärtner A (1992) Sicherheit im Alltag der Medizintechnik. Patientensicherheit, Anwendersicherheit. TÜV Rheinland, Köln Gärtner A (1993) Beatmungs- und Narkosetechniken. TÜV Rheinland, Köln Höhnel J (1991) Medizinische Gerätekunde für klinische Anwender. Enke, Stuttgart IEC 60601-2-13 (2003) International Standard: Particular requirements for safe and essential performance of anaesthetic systems Larsen R (2006) Anästhesie, 8. Aufl. Elsevier, Urban & Fischer, München Meyer JU et al. (2008) Advanced Technologies and Devices for Inhalational Drug Dosing. In: Schüttler J, Schwilden H (Eds) Handbook of Experimental Pharmacology. Springer, Heidelberg Berlin New York, p 451 Rathgeber J (1990) Praxis der maschinellen Beatmung. In: Züchner K (Hrsg) Praktische Gerätetechnik. Medizinische Congress Organisation, Nürnberg
28
29 Extrakorporale Blutreinigungssysteme J. Vienken
29.1
Einleitung
29.2
Wie alles begann: Ein kurzer historischer Rückblick – 495
29.2.2
Blutreinigung – die Suche nach den Grundlagen – 496 Membranen, Transportprozesse und Dialysatoren – 496 Vorarbeiten zum extrakorporalen Blutkreislauf für die Blutreinigung – 497 Entfernung von nierentoxischen Substanzen durch die Dialyse als experimentelle Therapie – 497
29.2.3 29.2.4 29.2.5
– 495
29.3
Blutreinigung bei Nierenversagen – 498
29.3.2 29.3.3 29.3.4 29.3.5 29.3.6 29.3.7 29.3.8 29.3.9
Dialysemembranen – 499 Dialysatorkonstruktionen – 500 Gehäusematerial – 500 Faserbündel – 501 Vergussmasse – 501 Leistungsparameter – 501 UF-Coeffizient – 502 Standardwerte – 502
29.1
Einleitung
Die Pioniere auf dem Gebiet der Blutreinigungssysteme hätten es sich sicher nicht träumen lassen, dass im Jahr 2010 weltweit etwa 1,8 Millionen nierenkranke Patienten einer standardisierten Blutwäsche mit dialytischen Verfahren ihr Leben verdanken. Dies ist besonders dann zu bedenken, wenn man die in den Anfängen der Forschung über extrakorporale Blutkreisläufe als unüberwindlich scheinenden technischen Schwierigkeiten zugrunde legt. Eine Routinebehandlung mit der künstlichen Niere war nicht vorstellbar, der berühmte Mediziner Franz Volhard hatte diese gar in den 1920er Jahren als nutzlos und gefährlich bezeichnet. Das Verständnis um die physiologischen Prozesse im Körper sowie der hohe Stand der Technik bei den extrakorporalen Blutreinigungsverfahren haben dazu geführt, dass die Patientenzahlen in der Dialyse zur Zeit mit jährlich 7–8% weltweit schneller wachsen als die Weltbevölkerung (Steigerungsrate 1,2%/Jahr). Verbunden damit sind steigende Überlebensraten bei Dialysepatienten besonders seit dem Beginn des neuen Milleniums, die mit technischen Verbesserungen in der Behandlung, aber
29.3.10 Low-flux-, High-flux- und High-performanceDialysatoren – 504 29.3.11 Ultrafiltrationskoeffizient und Rückfiltration – 504 29.3.12 Clearance, Dialysance und KoA – 505 29.3.13 Relevanz diffusiver Clearance-Werte – 505 29.3.14 Auswirkungen von Flussraten auf die Clearance eines Dialysators – das KOA-Konzept – 506 29.3.15 Dialysemaschinen und Zusatzeinrichtungen: Einsatz und Randbedingungen – 507 29.3.16 Bestimmung des Flüssigkeitsstatus mit »GanzkörperBioimpedanz-Spektroskopie« – 509
29.4
Blutreinigungsverfahren in der Leberersatztherapie – 510
29.4.1 29.4.2 29.4.3
Entgiftung – 510 Synthetische Leberfunktion – 512 Fazit zur Leberersatztherapie – 512
29.5
Zusammenfassung und Fazit – 513 Literatur
– 513
auch mit einer besseren Prävention der Nierenerkrankungen begründet werden [1]. Verfahren zur Blutreinigung können daher als die erfolgreichsten Therapieverfahren auf dem Gebiet des Organersatzes angesehen werden. In Zukunft ist davon auszugehen, dass sich in den westlichen Industrienationen im Mittel etwa 1000 nierenkranke Patienten pro Million Einwohner dieser Therapie stellen müssen. Das stellt hohe Anforderungen an die entsprechende künftige Medizintechnik, aber auch an die Kostenträger, die gewährleisten müssen, dass alle Patienten die lebensnotwendigen Behandlungen erhalten können.
29.2
Wie alles begann: Ein kurzer historischer Rückblick
29.2.1 Prolog
William Harvey (1578–1657) präsentierte im Jahr 1628 zum ersten Mal einem skeptischen Publikum in London seine Vorstellung des Blutkreislaufs. Seine Ideen waren so ungewöhnlich und im Kontrast zur herrschenden Lehr-
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _29, © Springer-Verlag Berlin Heidelberg 2011
496
III
Kapitel 29 · Extrakorporale Blutreinigungssysteme
meinung, dass seine Anhänger kurz darauf von den wissenschaftlichen Zeitgenossen mit dem Spitznamen »Circulatores« verspottet wurden. Circulatores waren Hausierer, Streuner und Landstreicher und damit der Inbegriff von Spekulation und Mangel an Seriosität. Man konnte damals einfach nicht glauben, was Harvey und vor ihm bereits Giordano Bruno behaupteten, dass nämlich das Blut den Organismus in einem Kreislauf durchströmt. Dass das Herz das Blut bei hohem Druck auswirft, hatte schon Leonardo da Vinci berichtet, allerdings ohne auf die Idee zu kommen, dass die Konsequenz dieser Beobachtung ein Blutkreislauf sein müsse. Dies war William Harvey vorbehalten. Objektive Gelehrte der Zeit schreckten vor den unübersehbaren Konsequenzen der Blutzirkulationstheorie für die gesamte Physiologie und Pathologie zurück. Man konterte die Thesen Harveys mit dem Hinweis, dass »bei dem von Harvey behaupteten Tempo des Blutkreislaufs assimilierbare und schädliche Materie chaotisch durcheinander gebracht würden!«, und gesteht in einem letzten Versuch zur Rettung der respektierten Lehre von Galenus einem Blutumlauf die Zeit von 12 bis 15 Stunden zu [2].
29.2.2 Blutreinigung – die Suche nach den
Grundlagen Wie können Körpergifte aus dem Blut entfernt werden? Bei einem Kreislauf des Bluts, wie ihn William Harvey gefordert hatte, sollte das einfacher möglich sein. Denn dann ist der Zugriff auf das Blut zur Entgiftung unabhängig vom Ort. Allerdings war in den Anfängen das heute so bekannte physikalische Grundprinzip der Diffusion nicht bekannt. Bereits zu Beginn des 18. Jahrhunderts hatte René Dutrochet (1776–1847), unabhängig von den früheren Beobachtungen von Jean Antoine Nollet (1700– 1770) und George Frédérique Parrot (1767–1852), erste Grundlagenuntersuchungen zum Transport von Wasser durch »biologische Scheidewände« unternommen. Den eigentlichen Fortschritt brachten aber die Arbeiten von Thomas Graham (1805–1869) in Glasgow über die »osmotische Kraft« – er prägte erstmals die Begriffe »Dialyse« und »Dialysator« [3]. Grahams Experimente gelangen 1854 mit Hilfe von Membranen aus Ochsenblasen, die er später durch Membranen aus Pergamentpapier ersetzte. Solche Membranen waren jedoch vielfach brüchig und ungleichmäßig, was Dicke und Größe angeht. Sie waren oft bakteriell kontaminiert und damit für präzise wissenschaftliche Untersuchungen ungeeignet. In Zürich und parallel zu Graham arbeitete Adolph Fick aus dem hessischen Kassel an der mathematischen Beschreibung der Transportprozesse durch Membranen. Diese Untersuchungen führten zu den heute berühmten »Fick’schen Gesetzen«. Sie wurden 1855 publiziert und beschreiben den selektiven Stofftransport durch eine semipermeable Membran als Folge eines Konzentrati-
onsgradienten [4]. Ficks Gesetze sind auch heute noch die Grundlage für die Beschreibung der Bewegung von Molekülen durch Membranen und damit die Basis für die Clearance-Eigenschaften von Dialysemembranen in der Blutreinigung.
29.2.3 Membranen, Transportprozesse und
Dialysatoren Die Frage nach dem optimalen Membranmaterial für Transportuntersuchungen tauchte schon sehr früh auf. Die Lösung ersann der Agrarchemiker Wilhelm Schumacher aus Bonn. Er führte mit Collodium ein neuartiges Membranmaterial ein. Collodium ist eine sirupöse Flüssigkeit, die nach dem Verdampfen des Lösungsmittels – Aceton, Äther oder Alkohol – und einem darauf folgenden Trocknen einen Membranfilm ausbildet [5]. Chemisch gesehen ist Collodium ein Cellulosenitrat und damit ein Ester der Salpetersäure. Wegen seiner chemischen Konfiguration und dem Gehalt an Nitratgruppen explodiert es bereits bei einer Temperatur von 186°C und wird daher auch als Schießbaumwolle bezeichnet. Wilhelm Schumacher war ein guter Chemiker. Ihm gelang das Gießen von extrem dünnen Membranhäutchen aus Collodium, mit denen er die Prozesse studieren konnte, die für den Transport von Molekülen durch Membranen wesentlich sind. Seine Arbeit von 1860 trug den Titel »Über Membrandiffusion« [5]. Es war das erste Mal, dass dieser Begriff in der wissenschaftlichen Literatur erschien und er sollte sich danach als Motor für viele Entwicklungen in Biochemie und Medizin bis hin zur Umkehrosmose durchsetzen. Später im Jahr 1921 gelang es dann Arnold Eggerth von den Hoagland Laboratories in New York durch Verwendung verschiedener Konzentrationen des Lösungsmittels Alkohol Membranen aus Collodium mit unterschiedlichen Permeabilitäten herzustellen [6]. Viele der von Schumacher und Eggerth angegebenen Details für Membranen, mit denen Stoffe getrennt werden können, bestimmen auch heute noch die Technik der modernen Membranproduktion, sowohl für die Herstellung von in der Dialyse gebräuchlichen Low-flux- als auch der High-flux-Membranen. Cellulosenitrat in der Form von Collodium und nach 1945 die reine, aus Baumwolle regenerierte Cellulose sind danach bis zum Ende des 20. Jahrhunderts zu den dominierenden Membranmaterialien für die Hämodialyse zu zählen. Die Herstellung der berühmten und über fast 50 Jahre lang den Markt der Dialysemembranen bestimmenden Cuprophan-Membran wurde allerdings im Jahre 2006 aufgegeben. Der Schweizer Emil Abderhalden (1877–1950) hatte Ende des 19. Jahrhunderts versucht, Substanzen aus dem Blut von Schwangeren durch Dialyse abzutrennen. Offenbar hatte der Amerikaner mit deutschen Vorfahren John Jacob Abel (1857–1938) in Baltimore Kenntnis von
497 29.2 · Wie alles begann: Ein kurzer historischer Rückblick
diesen Versuchen und begann mit der Entwicklung eines Dialysierapparats, den er später – laut einem Bericht vom Montag, dem 11. August 1913 in der Londoner Times – als Erster als »künstliche Niere« bezeichnete. Abel wird wegen der von ihm eingeführten Bezeichnung »artificial kidney« gemeinhin als der Erfinder der Dialyse mit einer künstlichen Niere bezeichnet, obwohl er nachweislich die Therapie von Nierenkranken oder des Nierenversagens nicht beabsichtigt hatte. Vielmehr wollte er damals nur im Tierversuch am Hund einen »künstlichen Urin« produzieren, um daraus Substanzen wie Salizilate, Phenolsulphthalein oder aromatische Aminosäuren per Dialyse zu entfernen und um diese dann aufreinigen zu können [7]. In jedem Fall gebührt John Jacob Abel aber der Respekt für die technische Entwicklung eines ersten reproduzierbaren Dialysierapparats, eines Vividiffusionsapparates [7]. Dieser hatte bereits 1913 viel Ähnlichkeit mit den heute üblichen Kapillardialysatoren. Abels »künstliche Niere« bestand aus einem Hohlzylinder, in dem das einströmende Blut über einen Kopf mit 8 bzw. 32 gläsernen Verteilungsröhrchen durch etwa 20 cm lange Membranschläuche aus Collodium strömte, die einen Querschnitt von etwa 2 cm hatten. Das Ende des Dialysators bestand aus einem zweiten wie beim Bluteingang geformten gläsernen Verteilungskopf, mit dem das Blut aus den Collodiumröhrchen wieder zusammengeführt wurde. Die perfekte Gestaltung der gläsernen Verteilungsköpfe ist dem Biochemiker Benjamin Bernard Turner (1871–1945) zuzuschreiben, der auch einer der drei Koautoren der Arbeiten von Abel war. Abel ist anzurechnen, dass er schon damals Untersuchungen über möglicherweise extrahierbare Substanzen aus den von ihm hergestellten Membranen aus Celloidin (Collodium) durchführte. Er wollte beweisen, dass unter Umständen Extrakte aus Celloidin den Blutdruck beeinflussen und damit das Experiment erschweren könnten. Keines dieser Experimente zeigte allerdings Unterschiede im Vergleich zu Kontrollversuchen mit Kochsalzlösung [7]. Untersuchungen zu extrahierbaren Substanzen aus Polymeren für die Medizintechnik werden heute routinemäßig durchgeführt und sind sogar Gegenstand von ISO-Normen [8].
29.2.4 Vorarbeiten zum extrakorporalen
Blutkreislauf für die Blutreinigung Zum Ende des 19. Jahrhunderts begann man mit ersten Untersuchungen zur Organperfusion, um am isolierten Organ Organfunktionen in vitro zu bestimmen. Führend auf diesem Gebiet war das Laboratorium von Franz Hofmeister am Physiologischen Institut der Universität Straßburg. Straßburg war auch eine Station in der wissenschaftlichen Karriere von zwei Wissenschaftlern, die später für die Entwicklung des extrakorporalen Blutkreislaufs eine große Rolle spielen sollten. John Jacob Abel
erhielt seinen Doktorhut in Straßburg bereits im Jahr 1888. Der zweite, Georg Haas (1886–1971), der später in Gießen arbeiteten sollte, war ein enger Mitarbeiter von Hofmeister. Man kann mit Fug und Recht behaupten, dass im Laboratorium in Straßburg die Grundlagen für Theorie und Praxis des extrakorporalen Blutkreislaufs gelegt wurden, von denen später auch Georg Haas in Gießen profitieren sollte, der in den 1920er Jahren die weltweit erste extrakorporale Blutreinigung bei einem nierenkranken Menschen durchführte.
29.2.5 Entfernung von nierentoxischen
Substanzen durch die Dialyse als experimentelle Therapie Anders als Abel, der die Dialyse anfangs ausschließlich am Hund erforschte, setzte Haas seine Erfahrungen aus Tierversuchen für die klinische Diagnose am Menschen ein [9]. Der Mediziner Georg Haas hatte bei Franz Hofmeister in Straßburg studiert und dort zu Beginn des Ersten Weltkriegs 1914 mit seinen Untersuchungen zur Dialyse begonnen. Zweifellos wurde in Hofmeisters Institut die Leitidee zur Hämodialyse, zur selektiven Diffusion kristalliner Blutinhaltsstoffe durch künstliche Austauschflächen, bei Georg Haas geboren [9]. Im Gegensatz zu J. J. Abel hatte Georg Haas von Anfang an das Ziel, mit der Dialyse urämische Toxine zur Behandlung des Nierenversagens zu entfernen. Er beschreibt seine ersten klinischen Beobachtungen wie folgt: Was nun den therapeutischen Erfolg dieses Falles anlangt, so hatte man deutlich den Eindruck eines Entgiftungsvorgangs. Schon unmittelbar im Anschluss an die Blutwaschung war die Stimmung des Patienten sichtlich besser, ja, ich möchte sagen, gehoben. Er führte im Krankensaal das große Wort, die Nacht nach der Waschung und ebenso die folgenden Nächte verliefen sehr gut, ohne Schlafmittel. Übelkeit und Kopfschmerzen, die in den Tagen vor der Blutdialyse sehr hartnäckig waren, und die unmittelbare Indikation zum Eingriff gaben, waren vollkommen verschwunden, und vor allem machte sich der Appetit, der vorher nahezu fehlte, wieder auffallend geltend. Diese Besserung des Zustands hielt etwa 6 Tage an, bis allmählich wieder Kopfschmerzen, Schlaflosigkeit und Erbrechen in Erscheinung traten. [10] Georg Haas hatte aus vielerlei Gründen die Untersuchungen zum Einsatz seines Dialysierapparats vor dem Zweiten Weltkrieg aufgegeben. Gründe dafür sind in in seiner großen Inanspruchnahme als Leiter der Universitätsklinik und der Krankenpflegeschule des St. Josefs Krankenhauses in Gießen zu sehen, aber auch in der mangelnden Anerkennung und Akzeptanz durch seine Fachkollegen, besonders seitens Franz Volhard, des wohl berühmtesten Klinikers dieser Zeit.
29
498
III
Kapitel 29 · Extrakorporale Blutreinigungssysteme
Erst Willem Kolff in Kampen (Niederlande) und später in den USA gelang es in den 1940er Jahren, mit seiner Trommelniere den Anschluss an die Arbeiten von Georg Haas herzustellen, mit der die Nierenersatztherapie von der experimentellen zur Standardtherapie von heute weiterentwickelt werden konnte [11]. Technische Weiterentwicklungen auf dem Gebiet der Membrantechnologie, z. B. durch den Einsatz von Kapillarmembranen statt Flach- oder Schlauchmembranen, aber auch auf dem Gebiet der Dialysemaschinen, z. B. durch volumenkontrollierende Dialysemaschinen, die über Feedbacksysteme analysieren und steuern, haben ausserdem zum Erfolg der extrakorporalen Therapiesysteme beigetragen.
29.3
Blutreinigung bei Nierenversagen
29.3.1 Grundlagen, Stellgrößen und
Randbedingungen für die Hämodialyse Wenn die Niere ihren Dienst versagt, kann der Körper über einen extrakorporalen Blutkreislauf, der Blutpumpen und Filter enthält, entgiftet werden. Der nierenkranke Patient muss sich dazu im Normalfall dreimal in
der Woche einer vierstündigen Blutreinigung unterziehen. Dazu wird Blut über einen Shunt zwischen Vene und Arterie am Vorderarm des Patienten entnommen. Das Blut gelangt dann über Blutschläuche in den Dialysator (künstliche Niere). Die Kontrolle des Blutflusses, dessen Temperatur sowie Blutdruck, Blutvolumen etc. werden während des Therapieverfahrens von einem Monitor, der Dialysemaschine, übernommen (⊡ Abb. 29.1). Die eigentliche Blutreinigung oder Blutwäsche findet dann im Dialysator statt. Dieser ist der Filtereinheit der Niere, dem Glomerulus, nachempfunden. Ein typischer Dialysator enthält ca 10000 zu einem Bündel zusammengefasste Kapillaren, deren Innendurchmesser 200 μm beträgt. Die Wand der Kapillare besteht aus einer Membran, über die der Stoffaustausch stattfindet (⊡ Abb. 29.2, 4-Farbteil am Buchende). Der Zwischenraum zwischen den Kapillarmembranen wird mit einer isotonen Spüllösung (Dialysierflüssigkeit) im Gegenstrom zum Blutstrom perfundiert. Dadurch entsteht über der Membran ein Konzentrationsgradient für Stoffe aus dem Blut, da die Dialysierflüssigkeit nur einige Elektrolyte zur Aufrechterhaltung der Tonizität enthält. Mit Hilfe dieses Konzentrationsgradienten gelangen diffusive Blutgifte (urämische Toxine) aus dem Blut in
⊡ Abb. 29.1. Die Blutwäsche gelingt bei nierenkranken Patienten, indem das Blut extrakorporal durch einen Dialysator geleitet und dort gefiltert wird. Eine Dialysemaschine kontrolliert die entsprechenden Parameter, wie Blutfluss, Dialysatfluss, Blutdruck, Blutvolumen, pH, und die Leistungsparameter des Dialysators. Patienten (A) unterziehen sich diesem Verfahren üblicherweise 3x/Woche für vier und mehr Stunden. Dialysatoren (B) sind die zentralen Funktionsträger des Blutreinigungssystems. Dialysemaschinen (C, Maschine 5008 von Fresenius Medical Care) sind in der Lage, eine Therapie patientenspezifisch mit Hilfe von Rückkopplungssystemen (Feedbacksystemen) zu steuern. Auch hocheffiziente Blutreinigungsverfahren wie Hämodiafiltration sind kostengünstig durchzuführen, da über die Maschine eine Online-Bereitstellung der notwendigen Substitutionslösung direkt aus der Dialysierflüssigkeit standardmäßig möglich ist
499 29.3 · Blutreinigung bei Nierenversagen
den Dialysatkreislauf. Sie können so entfernt und später verworfen werden. Dieses Blutreinigungsverfahren wird als Hämodialyse bezeichnet (⊡ Abb. 29.3a, 4-Farbteil am Buchende). Das zunehmend in der Blutreinigung eingesetzte Verfahren der Hämodiafiltration nutzt zusätzlich zum diffusiv kontrollierten Transport von urämischen Toxinen einen konvektiv kontrollierten Prozess, indem über die Dialysemembran größere Volumina Ultrafiltrat aus dem Blut abgepresst werden. Diese Flüssigkeitsmenge transportiert im Sinne eines »solvent drag« auch urämische Toxine mit höheren Molekulargewichten in den Sekundärkreislauf (⊡ Abb. 29.3b, 4-Farbteil am Buchende), wie dies aus der Hämofiltration bekannt ist. Natürlich gilt es, hohe Ultrafiltrationsvolumina dem Patienten durch eine Infusion vor oder nach dem Dialysator (Prä- oder Post-Dilution) wieder zu substituieren. In der Vergangenheit war eine solche Substitutionslösung wegen der Anforderungen an mikrobiologische und chemische Reinheit sehr kostspielig. Moderne Dialysemaschinen ermöglichen über zusätzlich in den Kreislauf eingeführte Filter die Bereitstellung von hochreiner Substitionslösung – online, direkt aus dem Kreislauf der Dialysierflüssigkeit (⊡ Abb. 29.3c, 4-Farbteil am Buchende). Dadurch ist die »OnLine Hämodiafiltration (OnLine HDF)« zu einem akzeptierten und erschwinglichen Blutreinigungsverfahren geworden. Die Therapie des Nierenversagens ist als Systemtherapie zu verstehen, bei dem Dialysemaschine, Schlauchsystem, Dialysator und Wasserkreislauf zusammen den extrakorporalen Kreislauf bilden und so eine Blutreinigung ermöglichen.
29.3.2 Dialysemembranen
Wasser wird in der Nephrologie als Toxin angesehen und muss durch die Dialyse entfernt werden, da ein nierenkranker Patient nur bedingt Wasser lassen kann, Dieser als Ultrafiltration bezeichnete Vorgang bestimmt die chemische Zusammensetzung der Dialysemembran, denn diese muss für die Wasserpermeation zumindest teilweise hydrophil sein. Dadurch scheiden eine Reihe von Polymeren, z. B. Polypropylen, Polyethylen etc., als Membranmaterialien aus. In vielen Fällen hilft man sich damit, dass hydrophoben Polymeren hydrophile Polymere beigemischt werden. Beispiele dafür sind Polysulfon und Polyamid (Zusatz von Polyvinylpyrrolidon [PVP] oder Polyethylenglokol [PEG]) sowie Polyacrylnitril (Zusatz von Meth-allylsulfonat). Das Grundpolymer und die Zusätze einer Dialysemembran bestimmen deren chemisches und physikalisches Verhalten. Dazu gehören die Resistenz und Stabilität gegenüber chemischen Sterilisationsmitteln, die adsorptiven Eigenschaften für bakterielle Kontaminanten, urämischen Toxinen und Mediatoren. Auch die Biokompati-
bilität einer Membran in Bezug auf Gerinnungsneigung, die Aktivierung von Blutzellen sowie die Generation von vasoaktiven Mediatoren kann auf die chemische Zusammensetzung einer Membran zurückgeführt werden. Ein ideales Membranpolymer für die Dialyse sollte demnach physikalische Stabilität aufweisen sowie exzellente diffusive und, wenn nötig, hohe Ultrafiltrationsraten zulassen. Sie sollte über Leistungs- und Biokompatibilitäts-Eigenschaften verfügen, die eine nebenwirkungsfreie, aber effiziente Behandlung zulassen. So kann neueren Erkenntnissen zufolge eine ultrareine Dialysierflüssigkeit, die frei von mikrobiellen Verunreinigungen ist, nicht nur akute Entzündungsreaktionen vermeiden helfen, sondern auch Langzeitkomplikationen der Dialyse abmildern oder hinauszögern [12]. Daher ist bei Kontamination der Dialysierflüssigkeit mit bakteriellen Endotoxinen oder Exotoxinen die Adsorptionsfähigkeit der Dialysemembran für mikrobielle Produkte besonders wichtig. Membranen aus Polysulfon zeigen eine effiziente Adsorptionsfähigkeit für Endotoxine, sie bieten daher zusätzlichen Schutz für den Patienten und haben sich auch bei der Filtration von Dialysierflüssigkeit für die OnLine Hämodiafiltration bewährt [13]. Synthetische Hohlfasermembranen besitzen bei einem Innendurchmesser zwischen 185 μm und 230 μm eine Wandstärke zwischen 20 und 40 μm (⊡ Abb. 29.2, 4-Farbteil am Buchende). Typische Polymere für Dialysemembranen sind ▬ Polysulfon (PSu, Fresenius Medical Care und andere Hersteller), ▬ Polyacrylnitril (PAN, AN69®, AN69ST, Hospal), ▬ Polymethylmethacrylat (PMMA, Toray), ▬ Polyamid (PA, Gambro). Membranen für Dialysatoren werden heute durchgängig als Hohlfasermembranen aus synthetischen Polymeren angeboten. Flach- und Schlauchmembranen haben zwar in den Anfangszeiten der Dialyse eine Rolle gespielt, die Therapie großer Patientenzahlen wäre aber mit den dazu notwendigen voluminösen Dialysatoren ineffizient, unpraktikabel und kostspielig. Die in den vergangenen 50 Jahren marktbeherrschenden hydrophilen Cellulosemembranen sind wegen der ihnen unterstellten mangelnden Blutverträglichkeit (fehlende Biokompatibilität) aus dem Markt fast verschwunden. Die Produktion der berühmten Cuprophan®Membran wurde im Jahr 2006 durch den Hersteller Membrana in Wuppertal aufgegeben. Das Angebot an Dialysatoren und Filtern mit Kapillarmembranen ist breit gefächert und kaum zu überblicken. 650 verschiedene Dialysatortypen sind im Jahr 2010 auf dem Markt zu finden, die mit Membranen aus mindestens zehn unterschiedlichen Polymeren bestückt sind. ⊡ Tab. 29.1 gibt eine Übersicht von einigen der gängigsten Filter.
29
500
Kapitel 29 · Extrakorporale Blutreinigungssysteme
⊡ Tab. 29.1. Dateien ausgewählter Dialysatoren (Hersteller in alphabetischer Reihenfolge) Leistungsdaten
III
Technische Daten
Dialysator Hersteller
KUF ml/mmHg
Harnstml/min
Krea ml/min
Phos ml/min
VitB12 ml/min
Sterilisation
Membranmaterial
Wandstärke μm
Lumen μm
Anwendung
ASAHI PAN 650 SF
30
194
189
174
146
ETO
Polyacryl nitril
35
250
HD/ HDF/HF
BBraun Diacap HI PS15
50
190
178
176
127
γ-Strahlen
PolysulfonPVP-Blend
40
200
HD/HDF
Fresenius Medical Care F8 HPS
18
252
224
193
118
inline Dampf
Polysulfon low flux
40
200
HD
Fresenius Medical Care FX60
46
193
182
177
135
inline Dampf
Polysulfon Helixone
35
185
HD/ HDF/HF
Gambro Polyflux- 17S
71
191
179
176
136
Dampf
Polyamid/ PES/PVP
50
215
HD/HDF
Hospal Nephral- ST 400
50
189
176
156
111
γ-nass
PAN/AN69 ST
42
210
HD/ HDF/HF
Nikkiso FLX-15GW
50
190
179
175
143
γ-nass
Polyether sulfone
30
210
HD/HDF
Nipro 150FH
67
198
194
193
155
γ-nass
Cell.-triAcetat
15
185
HD/HDF
Toray BK-1.6U
31
187
169
153
108
γ-nass
PMMA
30
200
HD/HDF
* Information aus Datenblättern der Hersteller HD – Hämodialyse; HDF – Hämodiafiltration; HF – Hämofiltration PES – Polyethersulfon; PAN – Polyacrylnitril; PVP – Polyvinylpyrrolidon; PMMA – Polymethlymethacrylat
29.3.3 Dialysatorkonstruktionen
Der ideale Dialysator sollte hocheffektiv lösliche Stoffe aus dem Blut entfernen können, über die gesamte Behandlungszeit eine gleichmäßige Leistung erbringen, ein geringes Füllvolumen für Blut aufweisen sowie eine biokompatible Membran enthalten [14]. Darüber hinaus muss er bei der Verwendung absolute Sicherheit bieten und im Idealfall dampfsterilisiert sein, um Probleme durch mögliche Sterilisationsprodukte zu umgehen (z. B. Extrakte nach γ-Bestrahlung, Rückstände von Ethylendioxid [ETO] nach derartiger Gassterilisation). Auch sollte er aus einem Material bestehen, das umweltfreundlich entsorgt werden kann. Kapillardialysatoren bestehen aus einem Gehäuse aus Polycarbonat oder Polypropylen (z. B. FX-Class von Fresenius Medical Care) mit einem darin befindlichen Hohlfaserbündel (⊡ Abb. 29.2, 4-Farbteil am Buchende). Das Faserbündel ist an beiden Enden in Polyurethan (PUR) eingebettet und so im Gehäuse fixiert, dass zwei von einander getrennte Kompartimente bestehen, die Blutseite
und die zwischen dem Kapillarbündel befindliche Dialysatseite. Ein Stoffaustausch zwischen den Kompartimenten ist damit nur über die Membran möglich. Durch eine technisch ausgefeilte Schnitttechnik mittels Mikrotom erhält man extrem glatte Oberflächen an den Enden des Bündels. Die Aktivierung des Gerinnungssystems und die der Blutzellen kann damit weitgehend reduziert werden. Der Ein- und Auslauf für die Dialysierflüssigkeit befindet sich bei den meisten Dialysatoren an den jeweiligen Enden des Gehäuses mit ausschließlichem Zu- und Abgang im Dialysekompartiment.
29.3.4 Gehäusematerial
Das Gehäusematerial besteht aus Polymeren wie Polycarbonat, in neueren Dialysatoren (FX-Class von Fresenius Medical Care, Bad Homburg, und elisio-Dialysatoren von Nipro Europe, Zaventem/B) auch aus Polypropylen. Diese Polymere sind umweltfreundlich zu entsorgen. Das Gehäuse und das Faserbündel sollten so gestaltet sein,
501 29.3 · Blutreinigung bei Nierenversagen
dass das Volumen des Blutkompartiments so gering wie möglich ist, um den Dialysepatienten zu schonen, dessen Blut extrakorporal geführt werden muss. Dialysatoren gelten als Einmalartikel, die in Europa und den USA in den meisten Fällen nicht wiederverwendet werden.
29.3.5 Faserbündel
Die Leistungseigenschaften eines Dialysators beruhen vorrangig auf Größe und Art des darin befindlichen Faserbündels. Das Faserbündel muss so gestaltet sein, dass eine vollständige Umströmung jeder einzelnen Faser mit Dialysierflüssigkeit stattfinden kann. Letzteres gelingt bei einigen neueren Gehäusevarianten durch eine spezielle Bauweise der Verschlusskappen-Region mit einer Zinnenstruktur (FX-Class, Fresenius Medical Care). Die Auflockerung des Membranbündels gelingt auch durch eine Ondulation der Kapillarmembranen im Sinne einer Moiré-Struktur oder durch das unregelmäßige Einlegen von Textilfäden in das Bündel (spacer yarns) [17].
29.3.6 Vergussmasse
Die Vergussmasse, mit der das Kapillarbündel fixiert wird und durch die eine Trennung von Blut- und Dialysatkompartiment möglich wird, besteht in den meisten Fällen aus Polyurethan. Aber auch Epoxidharze werden dazu eingesetzt. Die Menge der notwendigen Vergussmasse wurde im Laufe der Jahre kontinuierlich verringert. Grund für diese Anstrengungen war die Beobachtung, dass Polyurethan (PUR) eine hohe Bindungskapazität und eine langsame Entgasungskinetik für das Sterilisationsgas Ethlylenoxid (ETO) hat. Im Fall des Kontakts der Vergussmasse mit Blut, wie in der Hämodialyse, kann ETO durch Humanblut extrahiert und dann im Blutkreislauf freigesetzt werden. Blutproteine haben eine hohe Bindungsaffinität zu ETO. Albumin etwa bindet das Gas, und der so gebildete Albumin-ETO-Komplex provoziert die Bildung von IgE-Antikörpern gegen Albumin-ETO. Schwere allergische Reaktionen bei hypersensitiven Patienten können die Folge sein [15, 16]. Aus diesem Grund haben eine Reihe von Dialysatorherstellern die Sterilisation ihrer Filter mit ETO aus Sicherheitsgründen aufgegeben.
29.3.7 Leistungsparameter
Im klinischen Alltag beurteilt der behandelnde Arzt die Effizienz der Dialysebehandlung anhand der Entfernung von Wasser, Harnstoff, Creatinin und Phosphat. Als Indikator für eine adäquate Dialyse hat sich in vielen Ländern der Welt der Quotient Kt/V durchgesetzt. Aber auch Harnstoff-Reduktionsraten (engl. Urea Reduction Rate
[URR]) werden in einigen Kliniken als Parameter herangezogen. Die Abkürzung Kt/V beschreibt die klinisch erzielte Dialysedosis. »K« steht dabei für die Harnstoff-Clearance, »t« für die effektive Dialysezeit und »V« für das Harnstoffverteilungsvolumen des Körpers. Letzteres entspricht in erster Näherung dem Wasseranteil des Körpers und beträgt ca. 60% des Körpergewichts. Kt/V sollte in regelmäßigen Abständen bestimmt werden, empfohlen ist mindestens einmal monatlich. In Deutschland und in den USA ist er die Basis für die Abrechnung der Dialysekosten durch die Krankenkassen. Je nach Dialyseeinheit und Patientenstamm werden die Messungen auch häufiger (einmal wöchentlich) oder seltener (alle sechs Wochen bis alle drei Monate) durchgeführt [18, 19]. Darüber hinaus hat die Entwicklung technisch ausgefeilter Systeme zur Online-Bestimmung der Harnstoff-Clearance dazu geführt, dass diese Messung automatisch während der Dialysebehandlung durchgeführt (z. B. OnLine-Clearance Monitor, Fresenius Medical Care) und damit die Dialysedosis »Kt/V« kontinuierliche überwacht werden kann [20]. Im krassen Gegensatz dazu sind die Messungen der prädialytischen Harnstoffspiegel zur Abschätzung der Dialyseeffizienz anstelle von Kt/V oder URR anzusehen, die wenig präzise und langfristig nicht effizient sind [21]. Bei einer geplanten Steigerung der Dialyseeffizienz sollte zunächst der Zustand des Gefäßzuganges überprüft werden, um diesen ggf. zu optimieren. Im nächsten Schritt sollte man – falls organisatorisch möglich – Verlängerungen der Dialysezeit und/oder Steigerungen des Blutflusses in Betracht ziehen. Sind diese Möglichkeiten zur Verbesserung der Harnstoff-Clearance (K) ausgereizt, so empfiehlt sich in der Regel die Verwendung eines Dialysators mit einer gesteigerten Leistung (z. B. durch eine größere Oberfläche). Die Beurteilung der Dialysatorleistung erfolgt immer noch anhand der Harnstoff-Clearance, wobei Harnstoff als normales niedermolekulares Molekül zur Quantifizierung der Dialysedosis dient, jedoch nicht als urämisches Toxin zu werten ist. Toxine mit einem Molekulargewicht von 300–500 werden als niedermolekular bezeichnet. Seit einigen Jahren sind aber die so genannten Mittelmoleküle wieder ins Zentrum des Interesses von Nephrologen gerückt. Mittelmoleküle waren früher urämische Toxine mit einem Molgewicht bis zu 5000. Heute zählt man zu dieser Molekülklasse in der Nephrologie Moleküle bis zu einem Molgewicht von 20000. Als Repräsentant und Modell für diese Klasse gilt das kleine Protein ß-2Mikroglobulin. Es hat ein Molegewicht von 11818 und ist wegen seiner Größe im Rahmen einer Dialysetherapie nicht mehr diffusiv aus dem Patientenblut zu entfernen. Nur mit Hilfe einer hohen Ultrafiltration auf der Basis eines konvektiven Transports mit High-flux-Membranen ist eine effiziente Entfernung möglich. Konsequent war es
29
502
III
Kapitel 29 · Extrakorporale Blutreinigungssysteme
daher, nach Wegen zur Entfernung dieser Mittelmoleküle zu suchen, die durch High-flux-Dialyse und Hämodiafiltration möglich wurde (HDF, ⊡ Abb. 29.3b, 4-Farbteil am Buchende). Die Arbeitsgruppe »European Uremic Toxin Work Group (EUTox)« mit seinem Leiter Dr. Raymond Vanholder aus Gent/Belgien hat kürzlich eine Liste aller als urämische Toxine einzuschätzenden Moleküle veröffentlicht [22]. Von den insgesamt 92identifizierten Molekülen und Verbindungen gehören 68 der Klasse der niedermolekularen Substanzen an, wovon wiederum 24 proteingebunden sind. ZwölfToxine weisen ein mittleres Molekulargewicht auf, und die restlichen zwölf Stoffe besitzen Molekulargewichte über 15000. Toxische Moleküle mit einem Molekulargewicht oberhalb von Albumin (MW = 66000) sollten nach der heutigen nephrologischen Lehrmeinung im Rahmen einer Hämodialyse nur bedingt filtriert werden können.
29.3.8 UF-Coeffizient
Der Ultrafiltrationskoeffizient (UFkoeff ) von Dialysatoren – oft auch als »Fluss« bezeichnet – bestimmt die Durchlässigkeit einer Membran für Wasser. Er wird nicht nur als Maß für die hydraulische Permeabilität verwendet, sondern dient auch als Indikator für die Fähigkeit eines Dialysators, mittel- oder höhermolekulare Substanzen zu entfernen. Der Ultrafiltrationskoeffizient einer Membran (UFkoeff ) ist definiert als das Produkt aus der hydraulischen Permeabilität (LP) und der Oberfläche (A) der im Dialysator befindlichen Membran: UFkoeff = Lp × A
(29.1)
Das heißt: Der Ultrafiltrationskoeffizient ergibt sich aus dem Produkt von hydraulischer Permeabilität und der Oberflächengröße. Multipliziert man den Ultrafiltrationskoeffizienten mit dem Transmembrandruck (engl. »Transmembrane Pressure« [TMP]), so erhält man die daraus resultierende Ultrafiltrationsrate (QF) (auch Filtratfluss) während der Dialyse: QF = UFkoeff × TMP
(29.2)
Das heißt wiederum: Die Ultrafiltrationsrate ergibt sich aus dem Produkt des Ultrafiltrationskoeffizienten und des Transmembrandrucks. Die Ultrafiltrationsrate pro Flächeneinheit der Membran ist in etwa proportional zur vierten Potenz des mittleren Porenradius [23]. Kleine Änderungen der Porengröße von Dialysemembranen, die üblicherweise im Bereich von 1,5 nm (Low-flux-Membranen) und 3 nm (High-flux-Membranen) liegen, haben damit ausgeprägte Auswirkungen auf den Ultrafiltrationskoeffizienten der Membran.
Aus Gleichung 29.1 folgt, dass der Ultrafiltrationskoeffizient eine direkte Funktion der Größe der Membranoberfläche ist. Daher kann man die Ultrafiltrationskoeffizienten von Membranen mit unterschiedlich großen Oberflächen einfach vergleichen, indem man die entsprechenden Werte durch die Größe der jeweiligen »effektiven Membranoberflächen« dividiert. Darunter versteht man die Oberfläche der Membran ohne den Flächenanteil, der innerhalb der Vergussmasse liegt. Da die Größe der Oberfläche bereits ein integraler Bestandteil der Definition des Ultrafiltrationskoeffizienten einer Membran ist, benötigt der behandelnde Arzt – bei Kenntnis des Ultrafiltrationskoeffizienten – keine zusätzlichen Angaben über die Oberflächengröße der Membran, wenn er deren Eigenschaften zur Entfernung von Flüssigkeit beurteilen möchte. Dies gilt jedoch nicht für die Fähigkeit der Membran, gelöste Substanzen zu entfernen. ⊡ Abb. 29.4 beschreibt die Abhängigkeit der Ultrafiltrationsrate vom eingesetzten Transmembran-Druck für Low-flux- (A) und High-flux-Membranen (B). Es ist leicht zu erkennen, dass der für eine bestimmte Ultrafiltrationsleistung (z. B. für 3l/h) notwendige Transmembran-Druck bei Lowflux-Membranen wesentlich höher ist als bei High-fluxMembranen. Niedrigere Transmembran-Drücke haben den weiteren Vorteil, dass sie die festen Bestandteile des Bluts, Erythrozyten, Leukozyten und Blutplättchen schonen. Konvektive Therapien zur Entfernung von Mittelmolekülen sind daher nur mit High-flux-Membranen unter für das Patientenblut günstigen Bedingungen durchzuführen.
29.3.9 Standardwerte ⊡ Tab. 29.2 fasst die Bedingungen zusammen, unter denen Hersteller von Dialysemembranen die entsprechenden Ultrafiltrationskoeffizienten messen. Das Verhältnis zwischen TMP und Ultrafiltrationsrate ist für relativ niedrige TMP-Werte für alle Membranen linear, aber die Verschlechterung der Membranfunktion während der klinischen Anwendung durch Bildung einer Sekundärmembran aus Blutproteinen und Zellen limitiert den erreichbaren Filtratfluss. Normalerweise misst man die Ultrafiltrationsrate (QF) bei mehreren verschiedenen TMPWerten. Dann ist der Ultrafiltrationskoeffizient (UFkoeff ) definiert als Steigung des linearen Anteils der aus QF zu TMP resultierenden Kurve. Alternativ berechnen einige Hersteller den Ultrafiltrationskoeffizienten gemäß Gleichung 29.2 aus der Ultrafiltrationsrate, die bei einem festgelegten TMP-Wert gemessen wurde. Die Werte für den Ultrafiltrationskoeffizienten können um bis zu ±20% von den Angaben der Hersteller abweichen. Will man den so unter Standardbedingungen erhaltenen Ultrafiltrationskoeffizienten allerdings zum Vergleich verschiedener Dialysatoren heranziehen, müssen die verwendeten Blut-
503 29.3 · Blutreinigung bei Nierenversagen
⊡ Abb. 29.4. Ultrafiltrationsprofile von Low-flux- und High-flux-Dialysemembranen. Die Ultrafiltration ist eine Funktion des Transmembrandrucks, TMP, wobei die Abhängikeiten bei Low-flux-Membranen linear, bei High-flux-Membranen exponentiell sind. TMPs sind zur Erzielung einer UF-Rate von 3l/h wesentlich geringer, wenn High-flux-Membranen eingesetzt werden
⊡ Tab. 29.2. Bedingungen für die Testung von Dialysatoren Clearance-Testparameter
Standard
Testtyp
in vitro
Testmedium
Dialysierflüssigkeit, angereichert mit Harnstoff, Creatinin, Phosphat und Vitamin B12
Konzentration der Testsubstanzen
Harnstoff: 100 mg/dl Creatinin: 10 mg/dl Phosphat: 5 mg/dl Vitamin B12: 5 mg/dl
Temperatur des Testmediums
37 ± 1,5° C (USA) 37 ± 1,0° C (Europa)
pH des Testmediums (wichtig für die Bestimmung von Phosphat)
7,4 ± 0,1 *AAMI Standard, Vol 3, Dialysis RD16, 1996
Blutfluss (QB)
200 ± 4 ml/min
Fluss Dialysierflüssigkeit (QD)
500±10 ml/min
Filtratfluss (QF)
0 ml/min (*EN 1283)
*AAMI: Association for the Advancement of Medical Instrumentation, USA
Unterschiede bei manchen Herstellern
300 ml/min
7, 10 und 60 ml/min
29
504
III
Kapitel 29 · Extrakorporale Blutreinigungssysteme
flussraten (QB) bei allen vergleichenden Messungen identisch sein. Angaben hierzu fehlen aber oft. Die meisten Hersteller geben den Ultrafiltrationskoeffizienten an, der bei einem QB von 200 ml/min gemessen wurde, in Analogie zu den entsprechenden Vorschriften für die Messungen der Clearance. In letzter Zeit werden zunehmend UF-Koeffizienten bei Blutflussraten von 300ml/min bestimmt und in den Produktbeschreibungen angegeben, da Nephrologen höhere Blutflüsse wegen der dabei zu erzielenden höheren Leistung bevorzugen.
29.3.10
Low-flux-, High-flux- und Highperformance-Dialysatoren
Die Klassifizierung von Low-flux-, High-flux- und Highperformance-Dialysatoren anhand ihrer Ultrafiltrationskoeffizienten ist von Land zu Land unterschiedlich. Unter Low-flux-Dialysatoren versteht man in Europa solche, deren Ultrafiltrationskoeffizient unter 10ml/h/mmHg liegt [24]. In den USA haben Low-flux-Dialysatoren per Definition einen Ultrafiltrationskoeffizienten unter 8ml/h/ mmHg. Für High-flux-Dialysatoren variieren die entsprechenden Werte in einem größeren Bereich – beginnend von minimal 8–10 bis hin zu >50ml/h/mmHg. Einige Organisationen und Länder setzten jedoch höhere Untergrenzen als Minimum fest: so beispielsweise die amerikanische Studiengruppe der HEMO-Studie (American National Institute of Health, Hemodialysis [HEMO] Study Group) mit >14ml/h/mmHg, die seit dem Jahr 2000 in Deutschland geltenden Vorschriften mit >20ml/h/mmHg [25] und einige andere Autoren mit >40ml/h/mmHg. Häufig gibt es für High-flux-Dialysatoren auch Auflagen bezüglich der Entfernung von ß2-Mikroglobulin, bei denen der Siebkoeffizient für diese Molekül über 0,6 liegen soll. Die Klassifizierung im allgemeinen geschieht jedoch auf der Basis des Ultrafiltrationskoeffizienten. Die Ultrafiltrationskoeffizienten von High-flux-Dialysatoren können auch 50ml/min/mmHg überschreiten, wie z. B. bei den HF-, HDF- und einigen FX-Dialysatoren von Fresenius Medical Care oder den APS-, SYNTRA™- bzw. Polyflux-Serien der Firmen Asahi, Baxter bzw. Gambro. Diese Dialysatoren sind besonders für konvektive Verfahren zur Blutreinigung geeignet. Heute bezeichnet man daher High-flux-Dialysatoren mit sehr hohen Ultrafiltrationskoeffizienten in der Regel als »Hämofilter« oder »Hämodiafilter«, sobald sie bei konvektiven Therapien unter Einsatz einer Substitutionsflüssigkeit verwendet werden. Da dem Blut während der Passage durch den Dialysator kontinuierlich Wasser durch Filtration entzogen wird, kommt es sowohl auf dieser Strecke im Dialysator selbst als auch im Verlauf der gesamten Dialyse zu einer kontinuierlichen Hämokonzentration. Als Folge steigt der onkotische Druck im Plasma, sodass eine Reduktion des
Ultrafiltrationskoeffizienten der Membran in vivo erfolgt. Darüber hinaus resultiert die hydraulische Permeabilität einer Membran (ρ) aus der Anzahl und vor allem auch der Größe der Poren, denn es gilt [26]: ρ = N × π × rp2
(29.3)
Hierbei stehen ρ für die Membranporosität, N für die Anzahl der Poren und rp für den Porenradius. Alle Parameter der Behandlung, die eine Blockierung der Poren fördern oder hemmen, wirken sich daher auf den In-vivo-Ultrafiltrationskoeffizienten des Dialysators aus. Dazu gehören der aktuelle Filtratfluss und der Blutfluss. Während der Dialyse lagern sich zelluläre Bestandteile und Proteine aus dem Blut des Patienten an die Dialysemembran an und bilden die so genannte Sekundärmembran. Dieses Phänomen bezeichnet man wie in der Biotechnologie als »Filter Fouling«. Bei hohem Filtratfluss, wie z. B. im Rahmen von Hämofiltration und Hämodiafiltration, kann die Hämokonzentration und damit auch die Porenblockade signifikant ansteigen. Die daraus resultierende Steigerung des onkotischen Druckes des Plasmas wirkt dann der – allerdings viel größeren – maschinell erzeugten Kraft zur Entfernung von Flüssigkeit während der Behandlung entgegen. Diesem Phänomen kann man durch Erhöhung der Blutflussgeschwindigkeit entgegenwirken. Dadurch steigen die Scherkräfte an der Membran an, und Proteinablagerungen werden vermindert.
29.3.11
Ultrafiltrationskoeffizient und Rückfiltration
Das Phänomen der Rückfiltration tauchte mit dem Aufkommen von High-flux-Dialysatoren auf. Beim klinischen Einsatz dieser Filter können potentielle Verunreinigungen aus dem Dialysat, meist Zellwandbestandteile von Bakterien, und Endotoxine in das Blut des Patienten gelangen. Seither waren ein »hoher UF-Koeffizient« und »Rückfiltration« unzertrennliche Begriffe. Der Begriff »Rückfiltration« beschreibt den Übertritt von Flüssigkeit von der Dialysat- auf die Blutseite an der Blutauslass-Seite des Dialysators. Am Bluteinlauf des Dialysators übersteigt der Transmembran-Druck im Blutkompartiment immer den Druck im Dialysatkompartiment, sodass eine Filtration von Flüssigkeit aus dem Blut ins Dialysat erfolgt. Mit zunehmender Entfernung vom Bluteinlauf sinkt jedoch entlang der Längsachse des Dialysators der Druck im Blutkompartiment kontinuierlich ab, bis ein Punkt erreicht wird, an dem der Druck im Dialysatkompartiment den im Blutkompartiment übersteigt [27] und somit eine Rückfiltration von Flüssigkeit in das Blut des Patienten erfolgen kann (⊡ Abb. 29.5). Man berechnete die Menge an rückfiltrierter Flüssigkeit ursprünglich anhand der Druckverhältnisse von Blut und Dialysat an den jeweiligen Ein- und Auslaufstellen.
29
505 29.3 · Blutreinigung bei Nierenversagen
In Worten: Clearance = diffusiver Anteil + konvektiver Anteil. Ist die Adsorption von Blutkomponenten an die Membran gleich null, so gilt für die Ultrafiltrationsrate (QF) aus Gleichung 29.4: QF = QBi – QBo
⊡ Abb. 29.5. Druckprofile für Blut und Dialysierflüssigkeit als Funktion der Länge eines Dialysators. Überschreitet der Druck der Dialysierflüssigkeit den des Bluts, kommt es zur Rückfiltration. Eine Rückdiffusion aufgrund von vorhandenen Konzentrationsgradienten zwischen Dialysat und Blut wird auch entgegen einem Ultrafiltrationsstrom über die ganze Länge des Dialysators beobachtet
Heute weiß man, dass diese Berechnungen das Volumen der Rückfiltration oft überschätzten, da die entlang der Längsachse des Dialysators entgegengesetzt verlaufenden Druckprofile von Blut und Dialysat nicht, wie früher angenommen, linear fallen. Diese nichtlineare Form der Profilverläufe ist bei High-flux-Membranen besonders ausgeprägt [28]. Sie resultiert aus Veränderungen der Blutviskosität, aus kleinen Variationen der Faserdurchmesser entlang der Längsachse des Dialysators und ist auch Folge des durch Ultrafiltration von Wasser kontinuierlich ansteigenden onkotischen Drucks. Der Gefahr einer Kontamination des Bluts nach Rückfiltration bei High-flux-Membranen wird durch eine hohe Adsorptionsfähigkeit von Polymeren mit aromatischem Grundgerüst, wie Polysulfon und Polyamid, entgegengewirkt (⊡ Abb. 29.6, 4-Farbteil am Buchende; [13]).
29.3.12
Clearance, Dialysance und KoA
Die Clearance eines Dialysators ist definiert als dessen volumetrische Entfernungsrate für eine speziell im Blut gelöste Substanz. Sie entspricht der Menge dieser Substanz, die der Dialysator aus dem Blut pro Zeiteinheit entfernt, geteilt durch die entsprechende Konzentration im einströmenden Blut. Die Clearance berechnet sich folgendermaßen: K = QBi((CBi-CBo)/CBi) + QF(CBo/CBi) ml/min
(29.4)
oder K = QDFi((CDFi-CDFo)/CBi) + QF(CDFo/CBi) ml/min (29.5)
(29.6)
In Worten: Ultrafiltrationsrate = Blutfluss am Bluteingang – Blutfluss am Blutausgang. Dabei bedeuten: K: Harnstoff-Clearance, Q: Fluss, C: jeweilige Konzentration. Die tief gestellten Indices B, DF bzw. F stehen für Blut, Dialysierflüssigkeit bzw. Filtrat; Flüssigkeiten, die in den Dialysator einströmen, erhalten den zusätzlichen Index i, solche, die ausströmen den Index o. Die ersten beiden Teile der Gleichungen repräsentieren den durch Diffusion bedingten Anteil der Clearance einer Substanz, wohingegen die letzten Teile für die konvektiven Komponenten des Stoffaustausches stehen. Findet keine Ultrafiltration statt, so erfolgt die Streichung der letzten Faktoren. Bei Dialysatoren werden meistens die diffusiven Clearance-Werte angegeben, d. h., die entsprechenden Messungen sind ohne zusätzliche Filtration durchgeführt worden.
29.3.13
Relevanz diffusiver Clearance-Werte
Für Low-flux-Dialysatoren stellen diffusive ClearanceWerte ein zuverlässiges Maß der Clearance von Stoffen durch Diffusion dar. Dies gilt jedoch nicht für High-fluxDialysatoren, denn bei diesem Dialysatortyp kreuzen sich die Druckprofile von Blut und Dialysat im Dialysator. Selbst bei einem eingestellten QF=0ml/min erfolgen daher immer eine Filtration von Flüssigkeit aus dem Blut in das Dialysat (»interne Filtration«) sowie eine Rückfiltration von Flüssigkeit aus dem Dialysat- in das Blutkompartiment (»interne Rückfiltration«). Messungen zur Bestimmung der diffusiven Clearance (d. h. Clearance-Bestimmungen bei QF=0ml/min) unterliegen daher immer dem Einfluss einer internen Filtration bzw. Rückfiltration. Letztere wirkt sich wiederum auf die Konzentrationsprofile von löslichen Substanzen in der Membran selbst sowie auch längs der Membran aus. Da die Diffusionsrate von Stoffen nach Einstein umgekehrt proportional zur Quadratwurzel des Molekulargewichts ist, erscheinen alleinige Messungen der diffusiven Clearance für Stoffe der Größenordnung von Vitamin B12 (Mol. Gew. 1355) und Inulin (Mol. Gew. 5200) nur von begrenztem praktischem Wert. Aus verschiedenen Untersuchungen geht aber hervor, dass auch unter den heutigen Dialysebedingungen mit hohen Flussraten und dünneren Membranen diese Stoffe immer noch hauptsächlich durch Diffusion entfernt werden. Dies gilt auch für Medikamente wie Vancomycin, das in vielen Invitro-Experimenten an Stelle von Vitamin B12 verwendet
506
Kapitel 29 · Extrakorporale Blutreinigungssysteme
wird. Dennoch spielt mit steigender Molekülgröße der Anteil der Konvektion bei der Entfernung einer Substanz eine zunehmende wichtige Rolle.
29.3.14
III
Auswirkungen von Flussraten auf die Clearance eines Dialysators – das KOA-Konzept
Die Clearance löslicher Stoffe ist eine direkte Funktion des Blut-, Dialysat- und auch des Filtratflusses. Die Höhe dieser Flüsse ist bei In-vitro-Messungen zur Bestimmung der Leistungsdaten eines Dialysators durch die Normationsbehörden fest vorgegeben, sie hängt in der klinischen Realität jedoch stark von der aktuellen Zusammensetzung des Patientenbluts ab. Wie die verschiedenen Flussbedingungen die Clearance eines Dialysators beeinflussen wird üblicherweise durch den Faktor KoA beschrieben. KoA steht für »Mass Transfer Area Coefficient« eines Dialysators und dient dazu, die Clearance Eigenschaften eines Dialysators unter verschiedenen Blut- und Dialysatflüssen zu beschreiben. Als Standardformel gilt unter den Bedingungen von QF=0ml [29]: KOA = [QB/(1–QB/QD)] × ln [(1–K/QD)/(1–K/QB)] (29.7) KOA steht für »Mass Transfer-Area Coefficient, der erste Faktor berücksichtigt den Blut- und Dialysefluss, der zweite die flussadaptierte In-vitro-Harnstoff-Clearance. Alternativ kann man den KOA-Wert auch aus einem Nomogramm (Clearance vs. KOA) ablesen, das nach Invitro-Clearance-Werten erstellt ist, die von Herstellern von Dialysatoren veröffentlicht sind. Die Bestimmung des KOA-Wertes berücksichtigt also nicht nur Blut- und Dialysatflüsse, sondern bietet auch noch weitere Vorteile gegenüber Clearance-Messungen, denn mit Hilfe des KOA gelingt auch ein Vergleich von Dialysatoren
⊡ Abb. 29.7. Siebkoeffizientenkurven für Low-flux- und High-flux-Membranen aus Polysulfon sowie für Membranen für die Leberersatztherapie. Moleküle, deren Molekulargewicht sich links von der Kurve befinden, können die Membran passieren, für Moleküle mit Molgewichten rechts der Membran ist diese undurchlässig
mit verschiedenen Membranflächen: Man dividiert dazu die KOA-Werte durch die individuellen Oberflächenmaße (A) der Dialysatoren.
Siebkoeffizienten von Membranen Der Siebkoeffizient (SC) einer Membran leitet sich aus dem Anteil der Clearance-Formel ab, der den konvektiven Anteil repräsentiert ( Gleichung 29.4). Da die Entfernung von Mittelmolekülen hauptsächlich im Rahmen der konvektiven Ultrafiltration stattfindet (Solvent drag), definiert man den Siebkoeffizienten als das Verhältnis aus der Konzentration eines Stoffes im Ultrafiltrat (CF) zum Mittelwert aus der Summe von Konzentration im Bluteinlauf (CBi) und Blutauslauf (CBo) in den Dialysator: SC = 2CF/CBi + CBo
(29.8)
Beträgt der Siebkoeffizient (SC) einer Substanz»eins«, so bedeutete dies, dass die Substanz ungehindert die Membran passieren kann (2CF/CBi + CBo = Konzentrationsverhältnis im Feed zum Filtrat). Bei einem Wert»null« ist die Membran dagegen für diese Substanz nicht permeabel. Der Bereich links von der Siebkoeffizientenkurve repräsentiert dabei den Bereich, der für Moleküle des so definierten Molgewichtsbereichs durchlässig ist. Rechts von der Siebkoeffizientenkurve stehen Moleküle mit einem Molgewichtsbereich, für die der Filter undurchlässig ist (⊡ Abb. 29.7). Der Siebkoeffizient ist dimensionslos und wird meist nur dann angegeben, wenn es um die Entfernung von Mittelmolekülen geht oder wenn solche High-flux-Membranen beschrieben werden, die bei konvektiven Therapieverfahren zum Einsatz kommen, z. B. bei Hämofiltration oder Hämodiafiltration. Leider haben Messungen des Siebkoeffizienten den Nachteil, dass mit ihrer Hilfe die Elimination gelöster
507 29.3 · Blutreinigung bei Nierenversagen
Stoffe über eine Membranadsorption nur schwer zu erkennen ist. Der SC beschreibt nur den Anteil der adsorbierten Menge, der im Verlauf der Therapie auch ins Filtrat gelangt.
29.3.15
Dialysemaschinen und Zusatzeinrichtungen: Einsatz und Randbedingungen
Die extrakorporale Nierenersatztherapie (Hämodialyse [HD], Hämofiltration [HF] und Hämodiafiltration [HDF]) beschränkt sich im Gegensatz zu der komplexen physiologisch-regulatorischen Aufgabe der natürlichen Niere auch heute nur noch auf die Korrektur von urämisch bedingten Entgleisungen diverser Stoffkonzentrationen im Blut des Patienten (im Wesentlichen von Metaboliten, Elektrolyten und Puffern) und der Entfernung überschüssigen Körperwassers. Trotz des Umstandes, dass sich das Wissen über urämische Retentionssubstanzen in den letzten Jahren vervielfacht hat [30], stellt der Ansatz der unterhalb einer gewissen Ausschlussgrenze (Cut-off-Punkt der Membran) unselektiv arbeitenden Dialysator- oder Filtermembran immer noch den Stand der Technik dar. Hinsichtlich der an der Membran ablaufenden Transportphänomene stützt sich die Nierenersatztherapie auch heute noch fast ausschließlich auf den diffusiven und konvektiven Stofftransfer, der sich dann auch im Design von Dialysemaschinen bzw. deren therapeutische Führung niederschlagen muss. Eine um 1980 häufig prognostizierte Hinwendung zum Einsatz von Adsorbentien für die direkte Reinigung von Vollblut ist trotz verschiedener und über die Jahre wiederholter Ansätze zumindest im Rahmen der chronischen Nierenersatztherapie bisher nicht eingetreten. Die Hemoperfusion als entsprechendes adsorbierendes Therapieverfahren hat sich nur bei schweren Vergiftungen bewährt. Die technischen Möglichkeiten der chronischen Hämodialyse haben sich seit ihrem Beginn als Routinetherapie in den 1960er Jahren in erheblichem Umfang erweitert, wobei sich nicht alle seit diesem Zeitpunkt verfolgten Ansätze letztlich als erfolgreich herausgestellt haben. Aus derzeitiger Sicht waren und sind alle Trends in diesem Bereich von Bedeutung, die neben einer maximalen Entfernung urämischer Retentionssubstanzen das Ziel einer verringerten Exposition des Patienten gegenüber inflammatorisch wirksamen Stimuli verfolgen. Zum Schutz des Patienten vor dem Einfluss inflammatorischer Stimuli gehören insbesondere ▬ hämo- bzw. biokompatible Einmalartikel (Dialysatoren, Blutschläuche) und Prozeduren (z. B. Produktions- und Sterilisationsverfahren) sowie ▬ der Einsatz von chemisch und mikrobiologisch hochreiner Dialysierflüssigkeit (Dialysat).
Die medizintechnische Industrie hat auf diesem Bereich seit etwa 15 Jahren erhebliche Fortschritte sowohl in der Sache als auch hinsichtlich der Kostenstruktur dieser Produkte gemacht und dadurch den Einsatz dieser Verfahrensbestandteile auf breiter Basis ermöglicht. Moderne Dialysegeräte, die für die Therapieform der »Online-Hämodiafiltration« (OL-HDF) geeignet sind, verbinden beispielhaft alle oben genannten Eigenschaften hinsichtlich Behandlungseffektivität, Biokompatibilität, Patientensicherheit und Kosteneffizienz. Der Begriff der Hämodiafiltration (zusammengesetzt aus den Begriffen »Hämodialyse« und »Hämofiltration«) beschreibt dabei eine Therapieform, bei der urämische Retentionssubstanzen sowohl diffusiv (Dialyse) wie auch in hohem Maße konvektiv (Filtration) aus dem Blut des Patienten entfernt werden. Der parallele Einsatz dieser beiden Stofftransportmechanismen ermöglicht neben hohen Effektivitäten im Bereich kleiner Molekulargewichte auch die maximierte Entfernung höhermolekularer Substanzen. Diese nach heutigen Maßstäben effektivste Form der Behandlung des Nierenversagens wurde erstmalig durch Leber et al. in Gießen praktiziert und in der Literatur beschrieben [31]. Der Einsatz der Hämofiltration als therapeutisches Nierenersatzverfahren erfordert auf der Patientenseite die Substitution großer Filtratvolumina (15–40l, in speziellen Fällen sogar mehr) in Form steriler Infusionslösungen. Die dadurch entstehenden Behandlungskosten haben in den Jahren zwischen etwa 1980 und 2000 eine deutliche Verbreitung dieses Verfahrens weltweit verhindert. Einen Ausweg bietet, wie oben bereits beschrieben, die »Online«-Herstellung der benötigten Substitutionslösung mittels kalter Filtration aus dem Dialysat durch das Dialysegerät selbst. Sie wurde erstmalig 1978 von Henderson et al. [32] in der Literatur beschrieben. Zulassungsrechtliche Unklarheiten und Hürden führten allerdings zu einem sehr zögerlichen und limitierten Einsatz dieser an sich vielversprechenden Technik. Kommerzielle Hersteller boten Geräte für dieses Verfahren seit etwa 1984 an, konnten aber bis Ende der 90er Jahre keine bedeutende Gerätebasis bei den Anwendern etablieren. Zumindest in Europa führten jedoch zulassungsrechtliche Neuregelungen ab diesem Zeitpunkt zu einem stetig ansteigenden Bestand an derartigen Geräten. Seit 2005 befindet sich mit der Fresenius 5008 ein Dialysegerät im Markt (⊡ Abb. 29.1), bei dem die OL-HDF erstmalig nicht mehr als Option angeboten wird, sondern zur Grundausstattung eines jeden Gerätes gehört. Die Entscheidung dafür, die OL-HDF zu einem modernen Standardverfahren zu machen, basiert auf den überaus positiven Erfahrungen der Vergangenheit mit dieser Klasse von Geräten und den Ergebnissen der dazugehörigen sicherheitstechnischen Analysen [33, 34]. Im Gegensatz zu der sonst in der Dialysetechnik bevorzugten sicherheitstechnischen Lösung in Form diversitärer Systeme (Kombination aus Betriebssystem und
29
508
III
Kapitel 29 · Extrakorporale Blutreinigungssysteme
Schutzsystem) wird im Fall der OL-HDF auf die Redundanz von geeigneten Filtern mit den entsprechenden Rückhalteraten für Viren, Bakterien, Endo- und Exotoxine zurückgegriffen. Derartige Membranfilter (z. B. Diasafe®, Fresenius Medical Care) mit effektiven Oberflächen (> 2m2) erlauben unter den Bedingungen des klinischen Betriebes Standzeiten von bis zu drei Monaten. Je nach technischer Ausführung des einzelnen Gerätetyps kommen dabei zwei oder drei Filter, die wechselseitig betrieben werden können, mit unterschiedlichen Nutzungsdauern (sowohl in der Mehrfachnutzung als auch als Einmalartikel) zum Einsatz. Sind in der kostengünstigen Variante ausschließlich mehrfach genutzte Filter im Einsatz, so muss ihre Integrität durch einen vor Beginn der Behandlung zwingend vorgeschriebenen Test geprüft werden. Moderne Geräte führen derartige Tests im Rahmen einer automatischen Prozedur aus. Die mittlerweile breite Verfügbarkeit solcher Systeme für die OL-HDF haben zu steigender Marktpräsenz und damit zu steigenden Behandlungszahlen geführt, auf deren Grundlage sich vorsichtige Schlüsse auf die klinische Bedeutung dieser Technik ableiten lassen [35]. Diese meist retrospektiv gesammelten klinischen Daten deuten selbst bei zurückhaltender Interpretation darauf hin, dass der Einsatz effektiver HDF-Behandlungen über längere Zeit den so behandelten Patienten Mortalitätsvorteile in der Größenordnung von bis zu 30% verschafft [35]. Vorbehaltlich einer methodisch umfassenden Untersuchung dieser Verhältnisse sind die vorliegenden Daten jedoch Grund genug, die Hämodiafiltration als Methode der Wahl für die extrakorporale Behandlung des chronischen Nierenversagens anzusehen und klinisch einzusetzen. Dies gilt besonders deshalb, weil die technischen Entwicklungen der letzten Jahre dazu geführt haben, dass eine den Qualitätsstandards entsprechende Substitutionslösung direkt aus der Dialysierflüssigkeit bereitgestellt werden kann (OL-HDF). Damit können die traditionell bei diesem Verfahren bestehenden Kostenhemmnisse erfolgreich ausgeräumt werden. Eine zentrale Frage bei der extrakorporalen Dialysebehandlung betrifft die notwendige Dialysedosis für den einzelnen Patienten, die im Zuge der Therapieplanung in Einzelverfahren erfolgreich umgesetzt werden muss. Hierbei wird überwiegend auf der Grundlage der Harnstoffgeneration im behandlungsfreien Intervall und der anschließenden Harnstoffentfernung während der Behandlung über die Adäquatheit der Therapie geurteilt. Die Möglichkeiten und Grenzen dieses als Harnstoffmodellierung bezeichneten Ansatzes sind vielschichtig und würden mit ihrer Darstellung den Rahmen dieser Betrachtung sprengen. Während die Therapieplanung traditionell für den einzelnen Patienten erfolgte, konnte die Überwachung der in der einzelnen Behandlung tatsächlich verabreichten Dialysedosis nur sporadisch erfolgen, da sie mit erheblichen Arbeits- und Laboraufwand verbunden war.
Umfangreiche Analysen des Datenbestandes nationaler und internationaler Datenbanken (z. B. USRDS, EDTA/ERA) belegen sowohl den Zusammenhang zwischen Dialysedosis und Mortalität als auch den Umstand, dass in einer erheblichen Anzahl von Einzelbehandlungen die geplante Dialysedosis aus einer Vielzahl von Gründen nicht erreicht wurde. Die mittlerweile weit verbreitete Einführung von technischen Systemen zur Messung der Dialysedosis in Realzeit durch das Dialysegerät selbst ermöglicht zumindest in dieser Hinsicht eine fast lückenlose Überprüfung des Behandlungserfolges. Das für diesen Zweck überwiegend eingesetzte Verfahren ist die Messung der Leitfähigkeitsdifferenzen im Dialysat vor und nach dem Dialysator [33]. Damit kann effektiv in vivo die Harnstoff-Clearance des Dialysators bestimmt werden und anschließend die Berechnung des maßgeblichen Dosisparameters Kt/V erfolgen. Das Verfahren ist extrem kostengünstig und kann vom Gerät automatisiert vorgenommen werden. Die mittlerweile umfangreiche Verbreitung dieser Technik in den Geräten zahlreicher Hersteller kann als einer der wesentlichen Beiträge zur Qualität der Dialysebehandlung der letzten Jahre angesehen werden. Dialysepatienten leiden bei etwa 20–30% der Behandlungen unter Komplikationen wie Kopfschmerzen, Übelkeit, Erbrechen und Blutdruckabfällen bis hin zur Bewusstlosigkeit. Die Ursachen für dieses Geschehen sind sicher multifaktoriell und können von Patient zu Patient unterschiedlich sein. Allerdings spielt der Vorgang der Hämodialyse selbst, der einen massiven Eingriff in die diversen Homöostasen des Organismus darstellt, eine zentrale Rolle im Zusammenhang mit der genannten Symptomatik. Seit Mitte der 80er Jahre sind medizinische Forschung und Industrie bestrebt, durch intelligente Regelsysteme die Dialysebehandlung den individuellen physiologischen Reaktionen des Patienten so anzupassen, dass die Inzidenz dieser Komplikationen auf ein Minimum reduziert wird. Im Zusammenhang mit der Hämodialyse selbst konzentrieren sich diese Ansätze auf Einflüsse, welche die intradialytische kardiovaskuläre Stabilität des Patienten betreffen [36]. Klinisch akzeptiert sind heute die über die relative Änderung des Blutvolumens geregelte Ultrafiltration und die intradialytische Regelung der thermischen Energiebilanz des Körpers. Der Einsatz dieser Techniken ist in der Lage, die Inzidenz von dialyseinduzierten Blutdruckabfällen in dafür prädisponierten Patientenpopulationen um etwa 30–50% zu senken [37, 38]. Derzeit wird in weiterführenden Arbeiten versucht, einfach zu messende (aber komplex zu interpretierende) Leitfähigkeitsdifferenzen (Prä-/Post-Dialysator) zur Ermittlung und anschließend zur Regelung der Elektrolytbilanz des Patienten unter der Dialyse zu verwenden. Im Gegensatz zu den etablierten Verfahren der automatischen UF-Regelung und der Regelung der thermischen Energiebilanz stehen hier aber
509 29.3 · Blutreinigung bei Nierenversagen
noch keine belastbaren klinischen Daten zur Verfügung. Ohne Zweifel wird aber eine dahingehende Beurteilung in naher Zukunft möglich werden, sodass dem Kliniker künftig mit diesen drei Werkzeugen effektive Möglichkeiten an die Hand gegeben sind, um Dialysebehandlung weitgehend komplikationsfrei zu gestalten.
29.3.16
Bestimmung des Flüssigkeitsstatus mit »Ganzkörper-BioimpedanzSpektroskopie«
Die eingeschränkte Nierenfunktion beeinflusst den Wasserhaushalt von Patienten mit Nierenversagen stark. Im Rahmen der Hämodialysebehandlungen wird dem Patienten durch Ultrafiltration Flüssigkeit entzogen, um damit den Hydratationsstatus zu normalisieren. Viele Patienten leiden jedoch an einer chronischen Überwässerung, da die bisherigen klinischen Methoden zur objektiven Bestimmung des Hydratationsstatus sehr insensitiv sind [39]. Krankhafte Veränderungen des Herzens (linksventrikuläre Hypertrophie) werden durch diese Überwässerung ausgelöst und erhöhen die Sterblichkeit der betroffenen Patienten. Es ist möglich, diese gefährlichen Veränderungen des Herzens durch ein verbessertes Hydratationsmanagement zu vermeiden oder gar zurückzuführen [40]. Eine klinisch einsetzbare Diagnosemethode zur Bestimmung des Hydratationsstatus ist allerdings dafür eine Grundvoraussetzung. Umfangreiche Analysen verschiedener Meßmethoden haben ergeben, dass vor allem die »Ganzkörper-Bioimpedanz-Spektroskopie« hierfür eine geeignete Methode darstellt [39, 41]. Die Ergebnisse dieser Studien waren der Ausgangspunkt für die Entwicklung des Body Composition Monitors (BCM) zur objektiven Bestimmung des Hydratationsstatus.
Beschreibung der Technik und Methodik Mittels der »Ganzkörper-Bioimpedanz-Spektroskopie« wird die Impedanzantwort des Patienten über einen Frequenzbereich von wenigen Kilohertz- bis in den Megahertz-Bereich bestimmt (⊡ Abb. 29.8). Der Frequenzbereich der Beta-Dispersion wird hierbei durch einen Frequenz-sweep mit 50 Frequenzen abgetastet. Im niedrigen Kilohertz-Bereich fließt der Messstrom ausschließlich durch den Extrazellulärraum, bei hohen Frequenzen hingegen sowohl durch den Extra- als auch den Intrazellulärraum. Durch eine Modellierung nach Cole [42] werden der Widerstand des Extrazelluläraums (RECW) und der Widerstand der Gesamtkörperwassers (R TBW) berechnet. Um eine klinische einsetzbare Methode bereitstellen zu können, müssen diese Widerstände allerdings in einfach zu interpretierende und klinisch relevante Größen umgewandelt werden. Dies wird in zwei Schritten durch die Kombination eines Flüssigkeitsmodells [43] mit einem Body-Composition-Modell [44] erreicht und ermöglicht eine Trennung der Überwässerung von der Muskelmasse. Die klinisch verwendbaren Ausgabegrößen sind die Überwässerung, die »Lean Tissue Mass« sowie die adipöse Gewebemasse. Mittels des BCM wird die Normohydrierung eines/r Patienten/in als Hydratations-Zielwert aufgezeigt. Dieser vergleicht den Hydratationsstatus des/der Patienten/in mit dem eines Nierengesunden gleicher Körperzusammensetzung. Der behandelnde Arzt entscheidet, ob er den Patienten zu diesem Zielwert, mit einem positiven oder negativen Offset, zur Normohydrierung führen will. Möglicherweise kann der angestrebte Zielwert erst nach Wochen oder Monaten erreicht werden, da oft nur ein sehr vorsichtiger Flüssigkeitsentzug vom Körper des Patienten toleriert wird. Es ist aber entscheidend, dass dieses langfristige Ziel auch bei einer sich ändernden Körper-
⊡ Abb. 29.8. Berechnungsschritte von den gemessenen Resistanzen und Reaktanzen über die Flüssigkeitsvolumina zur Körperzusammensetzung. Auf Basis der gemessenen 50 Resistanzen und Reaktanzen (bei 50 Frequenzen) werden über eine Cole-Cole-Modellierung der extrazelluläre Widerstand »RECW« und der Gesamtwiderstand »RTBW« bestimmt. Dies ist möglich, da bei niedrigen Frequenzen (z. B. 5 kHz) der Strom ausschließlich um die Zellen herum fließt, bei sehr hohen Frequenzen (ca. 1000 kHz) die Zellmembran jedoch passieren kann. Die beiden so bestimmten Widerstände (RECW, RTBW ) werden im Fluid-Modell in das extrazelluläre Wasser (ECW) und das intrazelluläre Wasser (ICW) umgerechnet. Im nächsten Schritt erfolgt die Bestimmung der Körperzusammensetzung (Überwässerung, Lean Tissue-Masse, Fett-Masse) durch das Body Composition Modell)
29
510
Kapitel 29 · Extrakorporale Blutreinigungssysteme
zusammensetzung des Patienten (z. B. zunehmende Fettmasse) nicht aus den Augen verloren wird.
Validierung klinischer Daten
III
Der Validierung der gemessenen/berechneten Größen kommt eine besondere Bedeutung zu, da mittels des BCM zum ersten Mal eine quantitative Berechnung des Hydratationsstatus zur Verfügung steht. Die Validierung erfolgte in mehreren Schritten gegen die jeweils zur Verfügung stehenden Gold-Standard-Referenzmethoden. Hierbei handelt es sich beispielsweise um ▬ Indikatordilutionsmethoden, ▬ Ganz-Körper-Kalium-Messungen oder ▬ Dual-X-Ray-Absorptiometrie. Eine komplette Übersicht über alle durchgeführten Validierungsstudien findet sich in [44]. Eine Analyse von 500 europäischen Hämodialysepatienten zeigte, dass mindestens 25% dieser Patienten deutlich überwässert sind [45]. Bereits eine Überwässerung von 2,5 l ist mit einer signifikant erhöhten Mortalität verbunden [46]. Durch ein langfristig ausgelegtes Hydratatationsmanagement ist es möglich, diese Überwässerung zu reduzieren. ⊡ Abb. 29.9 zeigt den Hydratationsverlauf eines Hämodialysepatienten, der innerhalb eines Jahres von 7 l Überwässerung auf ca. 1,5 l reduziert wurde.
29.4
Blutreinigungsverfahren in der Leberersatztherapie
In einer Ausgabe des amerikanischen Magazins »Newsweeks« wurde das Hepatitis-C-Virus (HCV) als ein »insidious killer virus« bezeichnet, der einige hundert Millionen Menschen weltweit bereits infiziert hat [47]. HCV ist für 20% der akuten und 70% der chronisch verlaufenden
⊡ Abb. 29.9. Langsame Reduzierung des Flüssigkeitsstatus in einem 73 Jahre alten, stark überwässerten Patienten über einen Zeitraum von zwölf Monaten
Leberentzündungen verantwortlich. Die damit verbundenen Krankenhauskosten sind immens. Sie belaufen sich allein in den USA auf jährlich mehr als 5,5 Mrd US-$ [48]. Die Lebertransplantation, als für viele Patienten einzige mögliche Therapie, ist jedoch wegen der nicht ausreichend verfügbaren Spenderorgane kurzfristig keine Alternative. Die Warteliste für die Lebertransplantation wird daher immer länger. Entgiftungsverfahren auf der Basis von extrakorporalen Blutkreisläufen sind aus diesem Grund zur Grundlage für Leberunterstützungssysteme geworden. Erste Arbeiten über den Einsatz von Membranverfahren gehen auf das Jahr 1992 zurück [49]. Basis für neuere Entwicklungsarbeiten ist die doppelte Funktion der Leber, die sowohl als ein entgiftendes als auch ein synthetisierendes Organ für Gerinnungsfaktoren, Proteine und Hormone angesehen werden muss. Ein extrakorporaler Blutkreislauf für die Leberersatztherapie sollte daher im optimalen Fall beide Funktionen unterstützen oder ersetzen können.
29.4.1 Entgiftung
Im Gegensatz zu den urämischen Toxinen, die man durch Dialyse entfernt, sind Lebertoxine meist protein(albumin)gebunden und haben entsprechend hydrophobe (lipophile) Eigenschaften. Wegen der relativ niedrigen Ausschlussgrenzen der typischen hydrophilen Dialysemembranen (Membran Cut-off unterhalb des Molgewichts von Albumin) können die modernen Dialysemembranen nicht in der entgiftenden Leberersatztherapie eingesetzt werden. Neue therapeutische Verfahren, z. B. MARS® (⊡ Abb. 29.10) und Prometheus® (⊡ Abb. 29.11), nutzen daher Membranen, mit denen die an Albumin gebundenen Lebertoxine aus dem Blutkreislauf entfernt und in einem Sekundärkreislauf über Adsorbersäulen abgereichert werden [50, 51]. Aufgrund der von den jeweiligen Erfin-
511 29.4 · Blutreinigungsverfahren in der Leberersatztherapie
dern postulierten Mechanismen (s. unten) verwendet das MARS-System albuminundurchlässige Highflux-Membranen [50, 52], wohingegen im Prometheus-System proteinpermeable Membranen zum Einsatz kommen [51, 53]. Klinische Untersuchungen haben die Wirksamkeit dieser Verfahren bereits zeigen können [50–55]. Das MARS®-System (Molecular Adsorbent Recirculating System (⊡ Abb. 29.10) ist bereits seit den 90er Jahren verfügbar [50, 52, 54, 55]. Mit dem MARS®-System sind bis heute bereits mehr als 10000 leberkranke Patienten behandelt worden, womit hier die größte Datenbasis im Bereich der Leberersatztherapie zur Verfügung steht. Das MARS-System (heute von Gambo Rostock Gmbh, Rostock, bereitgestellt) ist ein extrakorporales Blutreinigungssystem mit einem sekundären und einem tertiären Kreislauf. Wie in der Hämodialyse wird das Blut des Patienten hier etwa 4–6 Stunden lang über einen Highflux-Filter (MARS-flux-Filter) geleitet. Im geschlossenen Sekundärkreislauf zirkuliert eine gepufferte 5–10%ige kommerzielle Albuminlösung (150 ml/min), die online über zwei Adsorbersäulen aus Aktivkohle bzw. Anionenaustauscher aufgereinigt wird. Im Sekundärkreislauf befindet sich zudem ein Lowflux-Dialysefilter, der die diffusive Entfernung kleinmolekularer Toxine zulässt. Mit Hilfe des MARS-Systems ist es möglich [50, 54, 56], albumin-gebundene Toxine des Bluts von Albumin zu lösen, über einen noch nicht vollständig geklärten Mechanismus in den Sekundärkreislauf zu transportieren, wo es von dem dort zirkulierenden freien Albumin aufgenommen und über die Adsorbersäulen entfernt wird. Somit steht dem Sekundärkreislauf immer wieder freies Albumin zur Aufnahme von Toxinen zur Verfügung. Das Prometheus-System [51, 53, 54] für die extrakorporale Leberersatztherapie (Fresenius Medical Care, Bad Homburg; ⊡ Abb. 29.11) besteht aus einem primären Blutkreislauf und einem sekundären Filtratkreislauf. Es enthält im Gegensatz zum MARS-System einen albu-
mindurchlässigen Filter, dessen Siebkoeffizientenkurve in ⊡ Abb. 29.7 im Vergleich zur Dialyse nach höheren Molekulargewichten hin verschoben wurde. Durch Verschiebung der Siebkoeffizientenkurve hin zu höheren Molgewichten erhält man Membranen mit einem Cut-off von > 200000. Mit deren Hilfe können das patienteneigene Plasma und toxinbeladenes Albumin abfiltriert werden. Blutzellen und große Proteine, z. B. IgM, werden zurückgehalten, denn deren Siebkoeffizient ist »0«. Mit Hilfe der Adsorber »prometh 01 und 02«, die sich im Sekundärkreislauf in Serie befinden, ist es möglich, patienteneigenes und toxinbeladenes Albumin aufzureinigen. Es kann danach wieder in den Blutkreislauf des Patienten zurückgeführt werden. Die eingesetzten Adsorberpartikel bestehen aus Neutralharzen bzw. sind Anionenaustauscher mit einer großen inneren Oberfläche (ca 120000 m2 pro Kartouche bei einem Partikeldurchmesser von etwa 400 μm). So können sowohl lipophile als auch elektrisch geladene Toxine, wie z. B. Bilirubin, entfernt werden. Die Antikoagulation gelingt in der Leberersatztherapie wie in der Dialyse durch die Gabe von Heparin. Neuere Untersuchungen, auch hier aus dem Bereich der Hämodialyse, haben jedoch gezeigt, dass die Antikoagulation mit Natriumzitrat den spezifischen pathologischen Bedingungen eines Leberpatienten besser gerecht werden kann [57–59]. Für die regionale Antikoagulation, die ausschließlich den extrakorporalen Blutkreislauf betrifft, wird hier die Heparinpumpe durch einen Modul mit zwei Pumpen ersetzt. Die erste Pumpe fördert eine Zitratlösung (Tri-Natriumzitrat, 4%) vor dem Albuminfilter in den Kreislauf. Zitrat bildet mit ionisiertem Calcium und Magnesium einen Chelatkomplex. Damit kann die zur Blutgerinnung erforderliche Ca2+/Mg2+-Menge reduziert werden, am besten auf eine Konzentration unter 0,2 mmol/l. Im Gegensatz zu Arbeiten in der älteren Litera-
⊡ Abb. 29.10. Schematisches Prinzip des MARS-Systems (MARS = Molecular Adsorbent Recirculation System; Gambro Rostock GmbH). Das Blut des leberkranken Patienten wird über den MARS-Flux-Filter geleitet, wobei nach Interpretation der Erfinder ursprünglich an albumingebundene Toxine über die Membran in den Sekundärkreislauf diffundieren. Dort werden sie von »freien« Albuminmolekülen aufgenommen. Über zwei im Sekundärkreislauf befindliche Adsorber (Aktivkohle und Anionenaustauscher) wird diese Albuminlösung online aufgereinigt, sodass immer wieder freie Albuminmoleküle für die weitere Aufnahme von Toxinen bereitstehen
29
512
III
Kapitel 29 · Extrakorporale Blutreinigungssysteme
⊡ Abb. 29.11. Im extrakorporalen Blutkreislauf des Prometheus-Systems (in der Literatur auch bekannt unter der Abkürzung »FPSA« [fractionated plasmaseparation and adsorption]; Fresenius Medical Care, Bad Homburg) werden albumingebundene Lebertoxine über einen hochpermeablen Plasmafilter (Albuflow) im Primärkreislauf abgereichert. In den beiden Adsorbersäulen des Sekundärkreislaufs (prometh 01 und 02) wird das Albumin aufgereinigt. Es kann dann so wieder in den Blutkreislauf des Patienten zurückgegeben werden. Eine nachfolgende seriell geschaltete Dialyse sorgt weiterhin für die Entfernung kleinmolekularer Lebertoxine, wie z. B. von Ammoniak (NH3)
tur, die keine Abhängigkeit der »Activated clotting time« (ACT) vom Ca2+-Spiegel im Blut belegen konnten [60], haben Beobachtungen von Dieter Falkenhagen von der Donau-Universität in Krems, Österreich, belegt, dass eine Verlängerung der Gerinnungszeit dann zu beobachten ist, wenn es gelingt, den Ca2+-Spiegel unter 0,2 mmol/l zu senken (pers. Mitteilung). Den initialen Gerinnungsstatus nach dem extrakorporalen Kreislauf erreicht man dann wieder, indem dem Patienten über die zweite Pumpe eine verdünnte Calciumlösung infundiert wird. Wichtig zu wissen ist, dass die zur Reduktion des Calciums notwendige Natriumzitratkonzentration vom Hämatokrit des behandelten Patienten abhängt [56]. Ein wesentlicher und positiver Nebeneffekt der Antikoagulation mit Natriumzitratlösungen und der damit verbundenen Verminderung der Calcium- und Magnesiumkonzentration liegt außerdem in einer niedrigeren Komplementaktivierung [56]. Um sowohl eine Hypercalcaemie als auch eine Hypocalcaemie zu verhindern, ist es notwendig, die Calciumkonzentration in definierten Intervallen zu messen und zu steuern. Im CiCa-Gerät des Prometheus-Systems wird über Algorithmen die notwendige physiologische Konzentration der Calciumlösung kontinuierlich angepasst.
sungsansatz zu sehen. Leberzellen können sensitiv und kontinuierlich synthetisch aktiv sein, wenn die Randbedingungen der Zellkultur im Bioreaktor optimal sind. In der Vergangenheit war dies nicht möglich, da die Überlebenszeiten der isolierten Hepatozyten in vitro nur kurz waren (weniger als eine Woche). Die Entwicklung von 3-D-Bioreaktoren, in denen Leberzellen in ihrer Gesamtheit, d. h. alle in der Leber vorkommenden Zellen, und nicht nur ausschließlich Hepatozyten, kultiviert werden, lässt dagegen Anwendungszeiten von 1–2 Monaten zu. Damit wird ein Bioreaktor zur extrakorporalen Behandlung von leberkranken Patienten auch als therapeutisches Medium realistisch. Klinische Anwendungen von Bioreaktoren mit Leberzellen sind bisher zwar noch nicht zufrieden stellend verlaufen [61], bieten aber vielversprechende Perspektiven. Einem breit angelegten Einsatz solcher Bioreaktoren stehen zur Zeit jedoch die dazu notwendigen europäischen Zulassungskriterien entgegen, denn ein Bioreaktor in der Humantherapie wird nach den Verlautbarungen der Europäischen Kommission wegen seines »principal mode of action« unter Advanced Therapy Medicinal Products (ATMP) in der Rubrik »Pharmakon« geführt – nicht als »Medical Device« [62]. Als Konsequenz dieser Regelung sind für eine Zulassung entsprechend aufwändige klinische Studien mit großen Patientenzahlen bis hin zur Phase 3 erforderlich.
29.4.2 Synthetische Leberfunktion
Biologische Zellen haben Eigenschaften, die kein Ingenieur in ihrer Komplexität kopieren kann. Man kann zwar Proteine, Hormone und Gerinnungsfaktoren dosiert zuführen, die Kosten dafür – auch wegen der damit verbundenen Reinheitsanforderungen – sind jedoch immens. Der Einsatz von Leberzellen in Bioreaktoren in einem extrakorporalen Blutkreislauf ist daher als möglicher Lö-
29.4.3 Fazit zur Leberersatztherapie
Es ist möglich, die beiden wichtigen Leberfunktionen, Detoxifizierung und Synthese, im Rahmen eines extrakorporalen Blutkreislaufs zumindest partiell so zu ersetzen, dass therapeutische Erfolge möglich sind. Klinische Studien mit Adsorbersystemen zeigen vielversprechende
513 Literatur
Ergebnisse, die dazu geführt haben, dass Entgiftungssysteme für die Leberersatztherapie bereits zugelassen sind.
29.5
Zusammenfassung und Fazit
Der Anstieg der Zahl von chronisch nierenkranken Patienten hat die Entwicklung der Hämodialyse als extrakorporales Blutreinigungssystem zu einer Routinetherapie gefördert. Grundlegende Verbesserungen des Dialysesystems, von der Membran über das Schlauchsystem bis hin zum Dialysemonitor haben die Grundlage dazu gelegt. Das Verständnis der zugrunde liegenden Stellgrößen und deren Variation im Sinne einer optimalen Therapie haben auch dazu geführt, dass die früher als normal geltenden Nebenwirkungen des Dialyseverfahrens reduziert und damit die Lebensqualität verbessert und die Mortalität verringert werden konnten [63]. Dazu gehören innovative Verfahren, die einzelne physiologische Parameter mit Hilfe von Feedbacksystemen analysieren und über die Dialysemaschine steuern. Diese sind heute Stand der Technik. Mit Hilfe von Bioimpedanz-Verfahren ist z. B. die präzise Kontrolle der Wasserbilanz des Patienten möglich. Auch für Kranke mit Leberversagen werden heute extrakorporale Blutreinigungsverfahren eingesetzt. Im Gegensatz zur Hämodialyse verwendet man hier proteinpermeable Membranen mit denen albumin-gebundene Toxine filtriert werden, deren Aufreinigung im Filtratkreislauf durch Adsorberkolonnen gelingt. Klinische Untersuchungen haben die Wirksamkeit dieses Verfahren bestätigt. Extrakorporale Blutreinigungsverfahren werden auch in Zukunft eine zentrale Bedeutung bei Nieren- und Leberorganversagen haben.
Literatur 1. Kramer A, Stel V, Zoccali C, Heaf J, Ansell D, Grönhagen-Riska C, Leivestad T, Simpson K, Palsson D, Postorino M, Jager K (2009) An update on renal replacement therapy in Europe: ERA-EDTA REgistry data from 1997–2006. Nephrol Dial Transplant 24: 3557–3566 2. Goddemeier C (2007). Die Entdeckung des Blutkreislaufs. Deutsches Ärztebl 104: 1168–1170 3. Graham T (1854) The Bakerian lecture: on osmotic forces. Phil Trans Royal Soc, London 144: 177–228 4. Fick A (1855) Über Diffusion. Ann Phys Chem 94: 59–86 5. Schumacher W (1860) Über Membrandiffusion. Ann Phys Chem 110: 337–370 6. Eggerth A (1921) The preparation and standardisation of collodion membranes. J Biol Chem 18: 203–221 7. Abel J, Rowntree L, Turner B (1913) On the removal of diffusible substances from the circulating blood of living animals by means of dialysis. J Pharmacol Exp Ther 5: 275–283 8. International Standard Organisation, ISO 10993-16 (1997). Biological evaluation of medical devices, Part 16.Toxicokinetic study design for degradation products and leachables. 9. Haas G (1923) Dialysieren des strömenden Bluts am Lebenden. Klin Wochenschr 2: 1888
10. Haas G (1928) Über Blutwaschung. Klin Wochenschr 7: 1356– 1362 11. Kolff W, Berk H, Ter Welle M, van der Leij J, van Dijk E, van Nordwijk J (1944) The artificial kidney: a dialyser with a great area. Acta Med Scand 117: 121–134 12. Lonnemann G (2000). The quality of dialysate: an integrated approach. Kidney Int S 112–119. 13. Henrie M, Ford C, Andersen M, Stroup e, Diaz-Buxo J, Madsen B, Britt D, Chih-Hu H (2008). In vitro assessment of dialysis membrane as an endotoxin transfer barrier: geometry, morphology, permeability. Artif Organs 32: 701–710. 14. Kessler M, Canaud B, Pedrini L, Tattersall J, ter Wee P, Vanholder R, Wanner C (2002) European best practice guidelines for haemodialysis (Part 1). Biocompatibility. Nephrol Dial Transplant 17 (Suppl 7): 32–44 15. Ansorge W, Pelger M, Dietrich W, Baurmeister U (1987). Ethylene oxide in dialyser rinsing fluid: effect of rinsing technique, dialyser storage time and potting compound. Artif Organs 11: 188–122 16. Lemke H (1987). Mediation of hypersensitivity reactions during hemodialysis by IgE-antibodies against ethylene oxide. Artif Organs 11: 104–110 17. Vienken J, Ronco C (2001). New developments in hemodialysers. Contr Nephrol 133: 105–118 18. Gotch F, Peter H, Panilio F, Folden T, Keen M (1995). Online measurement of delivered kt/V during dialysis. J Am Soc Nephrol 6: 600 19. National Kidney Dialysis Outcome Quality Initiatve (DOQI) (1997). Clinical Practice guidelines: hemodialysis adequacy and peritoneal dialysis adequacy. Am J Kidney Dis 30 (Suppl 2): S1–64 20. Kuhlmann U, Goldau R, Samadi N, Graf T, Gross M, Orlandini G, Lange H (2001). Accuracy and safety of online clearance monitoring based on conductivity variation. Nephrol Dial Transplant 16: 1053–1058 21. Gotch F. Sargent J, Keen M (2000). Whither goest Kt/V?. Kidney Int 58 (Suppl 76): S3–18. 22. Vanholder R und die Eutox Gruppe (2003). Review on uremic toxins: classification, concentration and interindividual variability. Kidney Int 63: 1934–1943 23. Lysaght M (1988). Hemodialysis membranes in transition. Contrib Nephrol 61: 1–17 24. Ronco C, Ghezzi P, Hoenich N, Delfino P (2001). Computerized selection of membranes and hemodialysers. Contrib Nephrol 133: 119–130 25. Dialysestandard der Arbeitsgemeinschaft klinische Nephrologie e.V. und der Dialysegesellschaft niedergelassener Ärzte e.V. (2000) 26. Clark W, Hamburger R, Lysaght M (1999). Effect of membrane composition and structure on solute removal and biocompatibility. Kidney Int 56: 2005–2015 27. Leypoldt J, Schmidt B, Gurland HJ (1991). Measurement of backfiltration rates during hemodialysis with highly permeable membranes. Blood Purif 9: 74–84 28. Leypoldt J, Schmidt B, Gurland HJ (1991). Net ultrafiltration may not eliminate backfiltration during hemodialysis with highly permeable membranes. Artif Organs 15: 164–170 29. Sargent J, Gotch F (1996). Principles and biophysics of dialysis. In: Jacobs C, Kjellstrand C, Koch K, Winchester J (eds) Replacement of renal function by dialysis, 4th ed. Dordrecht, Kluwer Academic Publishers: pp 188–230 30. Vanholder R, Meert N, Schepers E, Glorieux G.(2008).Uremic toxins: do we know enough to explain uremia? Blood Purif 26: 77–81 31. Leber HW, Wizemann V, Goubeaud G, Rawer P, Schütterle G. (1978). Simultaneous hemofiltration/hemodialysis: an effective alternative to hemofiltration and conventional hemodialysis in the treatment of uremic patients. Clin Nephrol 9: 115–121
29
514
III
Kapitel 29 · Extrakorporale Blutreinigungssysteme
32. Henderson LW, Sanfelippo ML, Beans E (1978). »On line« preparation of sterile pyrogenfree electrolyte solution. Trans Am Soc Artif Intern Organs 24: 465–7 33. Polaschegg H (1993) Automatic, noninvasive intradialytic clearance measurement. Int J Artif Organs 16: 185–191 34. Polaschegg HD, Roy T (2007) Technical aspects of online hemodiafiltration. Contrib Nephrol 158: 68–79 35. Canaud B, Bragg-Gresham J, Marshall M, Desmeules S, Gillespie B, Depner T, Klassen P, Port F (2006). Mortality risk for patients receiving hemodiafiltration versus hemodialysis: European results from the DOPPS. Kidney Int 69: 2087–93 36. Krämer M. (2006). Physiological monitoring and control in hemodialysis: state of the art and outlook. Expert Rev Med Devices 3: 617–34 37. Maggiore Q, Pizzarelli F, Santoro A, Panzetta G, Bonforte G, Hannedouche T, Alvarez de Lara MA, Tsouras I, Loureiro A, Ponce P, Sulkovà S, Van Roost G, Brink H, Kwan JT (2002) Study group of thermal balance and vascular stability. The effects of control of thermal balance on vascular stability in hemodialysis patients: results of the European randomized clinical trial. Am J Kidney Dis 40: 280–90 38. Santoro A, Mancini E, Basile C, Amoroso L, DiGiulio S, Usberti M, Colasanti G, Verzetti G, Rocco A, Imbasciati E, Panzetta G, Bolzani R, Grandi F, Polacchini M (2002) Blood volume controlled hemodialysis in hypotension-prone patients: a randomized, multicenter controlled trial. Kidney Int 62: 1034–45 39. Kraemer M, Rode C, Wizemann V (2006) Detection limit of methods to assess fluid status changes in dialysis patients. Kidney Int 69: 1609–1620 40. Fagugli RM, Pasini P, Pasticci F, Ciao G, Cicconi B, Buonchristiani U (2006). Effects of short daily hemodialysis and extended standard hemodialysis on blood pressure and cardiac hypertrophy: a comparative study. J Nephrol 19: 77–83 41. Chamney P, Wabel P, Moissl U, Müller M, Bosy-Westphal A, Korth O, Fuller N (2007). A whole-body model to distinguish excess fluid from the hydration of major body tissues. Am J Clin Nutr 85: 80–89 42. Cole KS, Cole RH (1941) Dispersion and adsorption in dielectrics. J Chem Phys 9: 341–351 43. Moissl UM, Wabel P, Chamney P, Bosaeues I, Levin N, Bosy-Westphal A et al. (2006) Body fluid volume determination via body composition spectroscopy in health and disease. Physiol Meas 27: 921–933 44. Wabel P, Chamney P, Moissl U, Jirka T (2009). Importance of whole-body bioimpedance spectroscopy for the management of fluid balance. Blood Purif 27: 75–80 45. Wabel P, Moissl U, Chamney P, Jirka T, Machek P, Ponce P et al. (2008) Towards improved cardio-vascular management: the necessity of combining blood pressure and fluid overload. Nephrol Dial Transplant 23: 2965–2971 46. Wizemann V, Wabel P, Chamney P, Zaluska W, Moissl U, Rode C et al. (2009) The mortality risk of overhydration in haemodialysis patients. Nephrol Dial Transplant 24: 1574–1579 47. Newsweek Magazine (2002) Hepatitis C. The insidious spread of a killer virus. Ausgabe vom 20. Mai, pp 75–79 48. Leigh JP, Bowlus CL, Leistikow BN, Schenker M (2001) Cost of hepatitis C. Arch Intern Med 161: 2231–3 49. Konstantin P, Chang J, Otto V, Brunner G (1992). Artificial Liver. Artif Organs 16: 235–242 50. Mitzner S, Stange J, Klammt S, Peszynski P, Schmidt R NöldeSchomburg G (2001) Extracorporeal detoxification using the molecular adsorbent recirculating system for critically ill patients with liver failure. J Am Soc Nephrol 12 (Suppl 1): S75–S82 51. Vienken J, Christmann H (2006) How can liver toxins be removed? Filtration and adsorption with the Prometheus System. Ther Aph Dial 10: 125–131
52. Stange J, Mitzner S (1996). A carrier-mediated transport of toxins in a hybrid membrane: safety barrier between a patient’s blood and a bioartificial liver. Int J Artif Organs 19: 677–691 53. Rifai K, Ernst T, Kretschmer U, Hafer C, Haller H, Manns MP, Fliser D (2005) The Prometheus device for extracorporeal support of combined liver and renal failure. Blood Purif 23: 298–302 54. Rifai K, Hafer C, Rosenau J, Athmann C, Haller H, Manns MP, Fliser D (2006) Treatment of severe refractory pruritus with fractionated plasma separation and adsorption (Prometheus). Scand J Gastroenterol 41: 1212–1217 55. Stange J, Mitzner S, Risler T, Erley C, Lauchart W, Goehl H, Klammt S, Peszynski P, Freytag J, Hickstein H, Löhr M, Liebe S, Scharek W, Hopt U, Schmidt R (1999) Molecular adsorbent recycling system (MARS): clinical results of a new membrane-based blood purification system for bioartificial liver support. Artif Organs 23: 319–330 56. Heemann U, Treichel U, Loock J, Philipp T, Gerken G, Malago M, Klammt S, Loehr M, Liebe S, Mitzner S, Schmidt R, Stange J (2002) Albumin dialysis in cirrhosis with superimposed acute liver injury: a prospective controlled study. Hepatology 36: 949–958 57. Hartmann J, Strobl K, Falkenhagen D (2008) Anticoagulation in combined membrane/adsorption systems. Contributions, Sec Biol Med Sci, MASA 2: 39–49 58. Herget-Rosenthal S, Treichel U, Saner F (2003) Citrate anticoagulated modified fractionated plasma separation and adsorption: first clinical efficacy and safety data in liver failure. J Am Soc Nephrol 14: 729A 59. Kozik-Jaromin J, Nier V, Heemann U. Kreymann B, Boehler J (2009) Citrate pharmacokinetics and calcium levels during highflux dialysis with regional citrate anti-coagulation. Nephrol Dial Transplant 24: 2244–2251 60. Janssen M, Deegens J, Kapinga T, Beukhof J, Huijgens P, van Loenen A, van der Meulen J (1996) Citrate compared to low molecular weight heparin anticoagulation in chronic hemodialysis patients. Kidney Int 49: 806–813 61. Kjaergard L, Liu J, Als-Nielsen B, Gluud C (2003) Artificial and bioartificial support systems for acute and acute-on-chronic liver failure. JAMA 289: 217–222 62. European Commission (2007) Regulation (EU) No 1394/2007 of the European Parliament and of the Council of November 13, 2007 on Advanced Therapy Medicinal Products. Official J European Union, L324/121 vom 10.12.2007 63. Kramer A, Stel V, Zoccali C, Heaf J, Ansell D, Grönhagen-Riska C et al. (2009) An update on renal replacement therapy in Europe: ERA-EDTA registry data 1997–2006. Nephrol Dial Transplant 24: 3557–3566
515 xxxx · xxxx
Herz-Lungen-Maschinen (HLM) U. Böckler, A. Hahn 30.1
Historische Entwicklung der extrakorporalen Zirkulation – 515
30.2
Einführung in die extrakorporale Zirkulation (EKZ) – 517
30.3
Aufbau und Funktion der Herz-LungenMaschine – 517
30.3.1 30.3.2 30.3.3 30.3.4 30.3.5 30.3.6
Blutpumpen und ihre Funktion – 518 Oxygenator und Gasaustauschfunktion – 518 Schlauchsysteme für die EKZ – 518 Blutfilter – 519 Kardiotomiereservoir – 519 Kanülen – 520
30.4
Komponenten einer HLM – 521
30.4.2
Zusätzliche Komponenten einer HLM
– 523
30.5
Die extrakorporale Zirkulation – 523
30.5.1 30.5.2 30.5.3 30.5.4
Vorbereitung der EKZ – 523 Durchführung der Perfusion – 524 Patientenüberwachung und Therapie an der EKZ – 525 Komplikationen an der EKZ – 527
30.6
Differenzierung von HLM-Geräten – 529
30.6.1 30.6.2
Modulare Systeme – 529 Nichtmodulare Systeme – 530
30.7
Sicherheitstechnische Aspekte – 530
30.8
Ausblick auf weitere Entwicklungen – 531 Literatur
– 532
Weiterführende Literatur
Bei zahlreichen Operationen am Herzen und Eingriffen an den großen Gefäßen ist es notwendig, Herz und Lunge vom natürlichen Kreislauf abzukoppeln und zeitweise stillzulegen. In der Regel wird bei offenen und koronarchirurgischen Eingriffen die Herz- und Lungenfunktion von einer externen Herz-Lungen-Maschine (HLM) übernommen. Dieser Vorgang wird auch als extrakorporale Zirkulation (EKZ) oder kardiopulmonaler Bypass bezeichnet.
30.1
Historische Entwicklung der extrakorporalen Zirkulation
Schon zu Beginn des 19. Jahrhunderts hatte der französische Physiologe Julien Jean César Le Gallois in seiner Monographie [1] die ersten realistischen Grundlagen der extrakorporalen Zirkulation niedergeschrieben. Er schlug vor, die Funktion des Herzens mittels einer kontinuierlichen Injektion von natürlichem, oder wenn realisierbar, künstlich hergestelltem Blut zu ersetzen. Die Umsetzung dieses Vorhabens erfolgte aber erst 1828 durch James Phillips Kay [9] und Jahre später auch von Eduard Brown-Séquard [4]. Der Deutsche Karl Eduard Loebell [13] befasste sich 1849 ebenfalls mit der isolierten Organperfusion. Er untersuchte explantierte Nieren, die künstlich perfundiert wurden, auf ihre Sekretproduktion. Ernst Bidder wiederholte diese Experimente, jedoch benutzte er zur künstlichen Perfusion einen unter Druck stehenden Behälter, der als Volumenreservoir diente.
– 532
1867 verfeinerte A. Schmidt [14] vom physiologischen Institut zu Leipzig diese Perfusionstechnik. Seine künstliche Perfusion konnte bezüglich Perfusionsfluss und -druck durch einen in der Höhe verstellbaren Behälter beeinflusst werden, jedoch konnte bis zu diesem Tage das Blut nicht mit Sauerstoff angereichert werden. Erst durch die Erfindung einer Apparatur durch Waldemar von Schröder [17] im Jahr 1882 konnte Blut während der Organperfusion künstlich oxygeniert werden, indem Luft direkt in das Blut geleitet wurde, um es mit Sauerstoff anzureichern. Die Grundvoraussetzung zur künstlichen O2-Anreicherung war damit aber nur teilweise erreicht, denn durch die extreme Schaumbildung fand diese Methode bis zu jenem Zeitpunkt keine sichere Anwendung. 1885 entwickelten Max von Frey und Max Gruber [16] am Institut zu Leipzig den ersten Vorreiter der heutigen HLM. Er beinhaltete einen Filmoxygenator, bestehend aus einem rotierenden Glaszylinder, der die künstliche Anreicherung des Blutes mit Sauerstoff gewährleistete. Anders als zuvor verwendeten von Frey und Gruber erstmals eine Spritzenpumpe mit entsprechender Ventilsteuerung zur Perfusion in einem geschlossenen System. 1890 stellte Carl Jacobj [8] aus dem Institut zu Straßburg seine Entwicklung, den Hämatisator, vor. Hierbei handelte es sich um eine Blutpumpe, die in der Lage war, einen pulsatilen Fluss zu erzeugen. Gesteuert von 2 Ventilen wurde ein Gummiballon rhythmisch durch eine federnde Wippe komprimiert, angetrieben von einem Wassermotor. Jacobj erkannte die Problematik der bis dahin verwendeten Oxygenierungsverfahren und wandte
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _30, © Springer-Verlag Berlin Heidelberg 2011
30X
516
III
Kapitel 30 · Herz-Lungen-Maschinen (HLM)
sich einer neuen Technik zu. Er benutzte explantierte isolierte Lungen und verwies auf die deutlich einfachere Handhabung. Zur Umsetzung musste er 2 Organe perfundieren, weshalb er seine Apparatur später doppelten Hämatisator nannte. Erst ein halbes Jahrhundert später gelang John H. Gibbon [7] der revolutionäre Durchbruch. Dem Chirurgen am Jefferson Medical College in Philadelphia gelang es, in 20-jähriger Entwicklungsarbeit eine HLM herzustellen. 1934 hatte er einen Pumpoxygenator konstruiert, mit dem er bei Katzen, denen die Lungenschlagader abgeklemmt wurde, die Funktion von Herz und Lunge für 25 min ersetzte. In den USA folgten in den 1950er Jahren Versuche mit Kaninchen- und Affenlungen, die wenig erfolgreich verliefen. Gibbon erhielt 1950 finanzielle und technische Hilfe durch die Computerfirma IBM. Durch die raschen technischen Fortschritte und neuen Erkenntnisse auf dem Gebiet der Physiologie wurde es überhaupt erst möglich, einen Einsatz am Menschen zu realisieren. Seine Maschine basierte auf einer Rollerpumpe und seinem Gitteroxygenator, die 1952 erstmals eingesetzt wurden. Sein erster Patient starb jedoch aufgrund einer Fehldiagnose. Am 6. Mai 1953 setzte Gibbon seine HLM das erste Mal erfolgreich am Menschen ein. Es handelte sich hierbei um eine 18-jährige Patientin, die an einem angeborenen Vorhofseptumdefekt litt. Die Maschine arbeitete 45 min im partiellen, davon 26 min im totalen Bypass und übernahm damit vollständig die Funktion von Herz und Lunge. Noch im selbem Jahr führte Gibbon 4 weitere Operationen durch, jedoch erfolglos. Gibbon hatte zwar einen bedeutenden Erfolg in der Geschichte der Herzchirurgie erzielt; die Wissenschaft konzentrierte sich jedoch auf die 1949 publizierten Ergebnisse von William G. Bigelow [3], welche die Senkung der Körperkerntemperatur als Basis zu korrektiven operativen Eingriffen im Kreislaufstillstand vorsah. Durch Hypothermie erreichte man eine Absenkung des Stoffwechsels, was ein Abklemmen der Hohlvenen für kurze Zeit möglich machte, ohne die empfindlichen Organe durch O2-Entzug zu schädigen. F.J. Lewis [11] aus Minneapolis gelang es 1953 mittels Oberflächenhypothermie, einen Vorhofseptumdefekt erfolgreich zu verschließen. Jahre später kombinierte W.C. Sealy [15] die tiefe Oberflächenhypothermie mit dem partiellen kardiopulmonalen Bypass zur chirurgischen Korrektur. Anfang 1954 machte Walton C. Lillehei [12] mit seiner Idee der »cross circulation« (⊡ Abb. 30.1) auf sich aufmerksam. Hierbei handelte es sich um ein Verfahren, bei dem auf eine künstliche Blutoxygenierung und den Einsatz einer HLM verzichtet werden konnte. Im »gekreuzten Kreislauf« fand kontinuierlich ein Blutaustausch zweier Individuen statt. Der blutgruppengleiche Spender übernahm dabei die Oxygenierung des Patientenblu-
⊡ Abb. 30.1. Prinzip der »cross circulation« nach Lillehei mit Verwendung eines Spenders zur Oxygenierung des Patientenblutes. (Aus: Galetti u. Brecher [6])
tes. Mittels einer Sigmarotorpumpe wurde das arterielle Spenderblut in den Empfängerkreislauf gepumpt. Am 26. März 1954 führte Walton C. Lillehei die erste Operation mittels »cross circulation« durch. In Folge konnten erstmals kompliziertere kongenitale Herzfehler, wie z. B. Ventrikelseptumdefekt und Fallot-Tetralogie mit Erfolg operiert werden. Da jedoch die Nachteile, wie beispielsweise reduziertes Pumpvolumen, im Vergleich zur HLM deutlich überwogen, fand die »cross circulation« wenig Anklang. Außerdem stellte sie nicht nur für den Patienten, sondern auch für den Spender eine große Gefahr mit hoher Letalitätsrate dar. 1955 wurde an der Mayo Clinic in Rochester, Minnesota, eine weitere Reihe von Operationen kongenitaler Vitien durch John W. Kirklin [10] mit der inzwischen weiterentwickelten Mayo-Gibbon-HLM durchgeführt. Die größten Probleme waren der Bedarf an Frischblutkonserven (5–11 Einheiten) zum Befüllen der HLM und die Risiken von letalen Embolien, verursacht durch schäumendes Blut, welches einen kontrollierten niedrigen Blutfluss durch den Oxygenator erforderlich machte. Als Blutpumpen standen zunächst Sigmarotorpumpen zur Verfügung, später die erstmals von Beck 1924 [2] beschriebenen Rollerpumpen, die zu Transfusionszwecken genutzt wurden und die Gibbon letztlich übernahm. Diese Rollerpumpen wurden später nach ihrem Fürsprecher De Bakey [5] benannt. Erst durch die Entwicklung von diversen Oxygenatoren wie Bubble-, Film-, Scheiben-, Spiral- und Membranoxygenatoren Mitte der 1950er Jahre konnten weitere Fortschritte in der Herzchirurgie erzielt werden. Der erste kommerziell gefertigte Membranoxygenator kam 1967 in den Handel. Neben der Erkenntnis von Zuhdi [19] im Jahr 1961, dass die HLM auch ohne Blut gefüllt werden kann, wurde die Hypothermie durch direktes Kühlen des Blutes durch einen integrierten Wärmetauscher zu einer wichtigen Entwicklung. R. Zenker [18] führte die erste offene Herzoperation in Deutschland durch, 1958 in Marburg.
517 30.3 · Aufbau und Funktion der Herz-Lungen-Maschine
1962 beschrieben die Autoren Galetti und Brecher [6] die »ideale Perfusion« als einen Eingriff, bei dem die Funktion des Herzens und der Lunge von einer Maschine vollständig übernommen wird, möglichst ohne schädigenden Einfluss auf den Körper. Diese Vorstellung konnte zwar durch Weiterentwicklung auf dem Gebiet der Gerätetechnologie und Materialkunde, durch neue chirurgische Techniken und verbesserte Perfusionstechniken durchaus vorangebracht, aber bis zum heutigen Tage nicht optimiert werden.
Grundsätzlich kann die HLM nicht isoliert betrachtet werden. Zusätzliche Komponenten, hauptsächlich in Form von sterilen Einmalprodukten wie Oxygenator, Wärmetauscher oder Reservoir, übernehmen weitere grundlegende Funktionen während der extrakorporalen Zirkulation und werden nachfolgend ebenfalls erklärt. Dies ist wesentlich, um das äußerst komplexe Gesamtsystem Herz-LungenMaschine und dessen Funktion zu verstehen.
30.3 30.2
Einführung in die extrakorporale Zirkulation (EKZ)
Unter extrakorporaler Zirkulation (EKZ) oder auch Perfusion versteht man grundsätzlich die Anwendung, welche mit Hilfe der Herz-Lungen-Maschine durchgeführt wird. Im Gegensatz zu den Anfängen der Herzchirurgie, als überwiegend Korrekturen von kongenitalen Vitien durchgeführt wurden, stehen heutzutage die erworbenen Herzfehler deutlich im Vordergrund. Können Herzerkrankungen nicht durch medikamentöse Therapie oder kardiologische Intervention behoben werden, ist die Herzchirurgie gefordert. In den 80 Herzzentren in Deutschland (Quelle: Herzbericht 2008 E. Bruckenberger) wurden 2008 insgesamt 89 773 Herzoperationen mit HLM und weitere 69 432 Fälle ohne HLM durchgeführt. Von der Gesamtzahl der knapp 90 000 Herzoperationen entfielen gut 60% auf die Koronarchirurgie, 23% auf die Klappenchirurgie, 6% auf die Aortenchirurgie und knapp 5% auf die Korrektur angeborener Herzfehler, wobei ca. 1 900 Eingriffe an Säuglingen unter einem Jahr durchgeführt wurden. Der Rest entfiel auf sonstige herz- und gefäßchirurgischen Eingriffe, wie z. B. Transplantationen oder die Ex- bzw. Implantation von Herzunterstützungssystemen. Der Begriff »minimalinvasive Herzchirurgie« bezieht sich auf einen alternativen, möglichst kleineren Zugangsweg zum Operationsgebiet, was einem reduzierten Operationstrauma für den Patienten gleichkommt. Diese primär chirurgische Technik hat in der Regel ganz direkten Einfluss auf die Konfiguration der HLM und die Durchführung der Perfusion. Daneben haben sich Begriffe wie »OPCAB« oder »Off-Pump« etabliert, welche ein Verfahren bezeichnen, bei welchen der herzchirurgische Eingriff gänzlich ohne die Hilfe einer HLM durchgeführt wird. Die extrakorporale Zirkulation hat sich von den ersten Anfängen im Bereich der experimentellen Organperfusion zu einem Routineverfahren der offenen Herzchirurgie entwickelt. Sie wird immer dann nötig sein, wenn der operative Eingriff am stillgelegten Herzen durchgeführt oder eine assistierte Perfusion, zur Kreislaufunterstützung am schlagenden Herzen, notwendig wird.
Aufbau und Funktion der HerzLungen-Maschine
Die HLM als Basis der extrakorporalen Zirkulation übernimmt nach Einleitung des kardiopulmonalen Bypasses mit zwei wichtige Organfunktionen: ▬ Pumpfunktion des Herzens, ▬ Gasaustauschfunktion der Lunge. Von besonderer Bedeutung während jeder EKZ ist ein ausreichendes Perfusionsvolumen, welches dem normalen Herzzeitvolumen des jeweiligen sich in Narkose befindenden Patienten entsprechen muss, sowie ein adäquater Perfusionsdruck (50–90 mmHg). Des Weiteren muss durch die HLM eine ausreichende Oxygenierung, CO2-Eliminierung und Temperierung des Blutes gewährleistet sein. Zur Grundausstattung eines extrakorporalen Kreislaufs, wie er heute in der Herzchirurgie Verwendung findet, gehören folgende Komponenten: ▬ Blutpumpen, ▬ Oxygenator, ▬ Schlauchsystem mit unterschiedlichen Schlauchdiametern, ▬ Blutfilter mit unterschiedlichen Funktionen, ▬ Kardiotomiereservoir, ▬ Kanülen und Intrakardialsauger. Da die HLM und die verwendeten Einwegmaterialien als eine geschlossene und funktionelle Einheit zu sehen sind, müssen diese einen bestimmten Aufbau aufweisen. Der extrakorporale Kreislauf basiert dabei immer auf der gleichen Grundlage. Das venöse Blut wird über Kanülen aus dem venösen Gefäßsystem, meist beide Venae cavae oder rechter Vorhof, in das Kardiotomiereservoir geleitet. Von hier aus wird das Blut durch die sog. arterielle Blutpumpe (Rollerpumpe oder Zentrifugalpumpe) aktiv durch den sog. Oxygenator und über eine weitere Kanüle in das arterielle Gefäßsystem (meist Aorta ascendens) zurückgepumpt. Zwischen dem Oxygenator und der zum Patienten zurückführenden arteriellen Linie ist zusätzlich ein arterieller Filter eingebaut, der Leukozyten- und Plättchenaggregate, Zell- und Gewebetrümmer, denaturiertes Eiweiß, Luft und Partikelabrieb aus dem Schlauchsystem abfangen soll. Zusätzliche Pumpen werden benötigt, um
30
518
III
Kapitel 30 · Herz-Lungen-Maschinen (HLM)
als sog. Kardiotomie- und Ventsauger oder als Kardioplegiepumpen zu fungieren. Während des Eingriffes kann mittels der Kardiotomiesauger Blut aus dem Operationsgebiet abgesaugt werden, um das Operationsgebiet blutfrei zu halten. Ventsauger saugen direkt aus den verschiedenen Herzkammern, um das stehende Herz nicht durch überschüssiges Blutvolumen zu überdehnen und damit massiv zu schädigen. Das abgesaugte Blut wird im Kardiotomiereservoir gesammelt, gefiltert und entschäumt und dem extrakorporalen System in der Regel wieder unmittelbar zugeführt. Die Kardioplegiepumpen dienen dazu, die kardioplegisch wirksamen Lösungen volumen-, zeit- und druckgesteuert in die Aortenwurzel oder selektiv in die beiden Koronarostien zu verabreichen.
30.3.1 Blutpumpen und ihre Funktion
Blutpumpen können grundsätzlich nach ihrer Funktionsweise in zwei Gruppen unterteilt werden: ▬ Rollerpumpen nach De Bakey, ▬ Zentrifugalpumpen. Im Wesentlichen sollten beide Pumpentypen an der HLM folgende Kriterien erfüllen: ▬ Flüssigkeiten dosiert fördern und die aktuelle Flussrate exakt anzeigen, ▬ ein ideales Verhältnis der Größe zum geförderten Volumen sicherstellen, ▬ externe Regelung ermöglichen (z. B. für Überwachungsfunktionen), ▬ einen ausreichenden Druck bzw. Unterdruck erzeugen, ▬ Blutschädigung minimieren, ▬ eine Okklusionseinstellung ermöglichen (nur bei Rollerpumpen), ▬ pulsatilen Flow erzeugen, ▬ einen hohen Wirkungsgrad erreichen, ▬ hohe Zuverlässigkeit und Sicherheit gewährleisten, ▬ einen Notbetrieb ermöglichen (z. B. Handbetrieb).
tene Flüssigkeit in Abhängigkeit von der Umdrehungszahl und Drehrichtung gefördert. Entscheidend für die Förderung ist die exakte Einstellung (Okklusion) der beiden Roller. Durch Drehen eines zentralen Rändelrades bewegen sich die Okklusionsrollen symmetrisch nach außen und okkludieren gleichmäßig den eingelegten Schlauch. Dadurch wird bei Schädigung der Erythrozyten durch Scherkräfte oder durch direktes Quetschen reduziert.
Zentrifugalpumpen Sie arbeiten ohne direkten Verdränger und sind damit nichtokklusive Pumpen. Das Blut wird nicht durch Auspressen der Schläuche, sondern durch Zentrifugalkräfte bewegt. Aufgrund des technischen Funktionsprinzips ist die Zentrifugalpumpe nur begrenzt einsetzbar. Zwar kann sie durchaus als arterielle Pumpe eingesetzt werden, jedoch nicht als Saugerpumpe. Die Vorteile der Zentrifugalpumpen liegen darin, dass sie nur begrenzt Luft fördern können und in der Langzeitanwendung blutschonender arbeiten. Als Nachteil ist anzumerken, dass die Förderleistung ausschließlich über ein zusätzliches Flowmeter bestimmt werden kann.
30.3.2 Oxygenator und Gasaustauschfunktion
Die künstliche Lunge, auch als Oxygenator bezeichnet, übernimmt im Rahmen der extrakorporalen Zirkulation die Funktion der Lunge und damit den Austausch von lebensnotwendigen Gasen. Heute werden standardmäßig sog. Membranoxygenatoren eingesetzt, welche über eine semipermeable Membran in Form einer mikroporösen Hohlfaser verfügen. Diese flüssigkeitsdichte Membran trennt die Gasseite vom Blutstrom ab. Aufgrund der Partialdruckgradienten diffundieren O2 und CO2 durch die mikroporöse Membran. Durch ein entsprechend angepasstes Angebot von Sauerstoff und Luft auf der Gasseite lässt sich der paO2 und paCO2 auf der Blutseite selektiv und exakt steuern. Membranen werden heute größtenteils aus Polypropylen oder Polyethylen gefertigt und erlauben Einsatzzeiten von 6 bis 8 Stunden.
Rollerpumpen Blutpumpen nach De Bakey arbeiten nach dem Verdrängungsprinzip, indem durch die Rotation von Rollen entlang eines Schlauchsegments das Blut aus dem Pumpengehäuse gefördert wird. Die Rollerpumpe besteht aus einem rotierenden Pumpenarm, an dem zwei zylindrische Rollen angebracht sind, und einem Pumpengehäuse, in dem üblicherweise ein halbkreisförmiges Schlauchsegment aus Silikon eingelegt und mit speziellen Schlauchinserts festgehalten wird. Durch die Rotation der beiden Roller wird das Schlauchsegment alternierend zusammengedrückt und die enthal-
30.3.3 Schlauchsysteme für die EKZ
Das Schlauchsystem hat die Aufgabe, die einzelnen Komponenten des extrakorporalen Systems zu verbinden und mit dem Gefäßsystem des Patienten einen geschlossenen Kreislauf zu bilden. Je nach Position werden PVC- oder Silikonschläuche verwendet, welche in unterschiedlichen Durchmessern und Wandstärken zur Verfügung stehen. Angefangen von 1/8« Durchmessern mit einer Wandstärke von 1/16« über 3/16« und 1/4« bei Kindern und
519 30.3 · Aufbau und Funktion der Herz-Lungen-Maschine
⊡ Abb. 30.2. Komplett vorkonnektiertes Schlauchsystem mit Säuglingsoxygenator (Fa. Sorin Group S. p. A.)
entsprechend kleinen Flussraten kommen bei Erwachsenen größtenteils 3/8« und 1/2« Schläuche mit einer Wandstärke von 3/32« zum Einsatz, welche Flussraten von mehr als 10 l/min ermöglichen. Um den gewünschte Fluss auch bei kleinen Schlauchdurchmessern zu erreichen, wird in bestimmten Grenzen aktiv Druck oder Sog in der entsprechenden Linie eingesetzt. Um das Füllvolumen und die Fremdoberfläche des Systems möglichst gering zu halten, werden Schläuche mit möglichst kleinem Lumen verwendet und gleichzeitig die Längen möglichst kurz gehalten. Im Gegensatz zu den Anfängen der EKZ werden heutzutage ausschließlich unter Reinraumbedingungen produzierte, komplett vorkonnektierte Einmal-Systeme verwendet (⊡ Abb. 30.2). Obwohl die Zahl der HLM, Komponenten und Anwendungen überschaubar ist, gibt es praktisch keinerlei Standardisierung, sondern eine Vielzahl kundenspezifisch konfektionierter Schlauchsysteme.
30.3.4 Blutfilter
Blutfilter werden in das EKZ-System integriert, um vorwiegend Mikroembolien durch autologe Einflüsse, Fremdmaterialien und Mikroluftblasen zu vermeiden.
Tiefenfilter Tiefenfilter, die aus Dacronwolle oder Polyurethan-Schaumstoff bestehen, werden in Kardiotomiereservoire eingesetzt und dienen hauptsächlich der Partikelfiltration. Die Porengröße variiert bei der Grobabscheidung von Partikeln von 80–100 μm bis in den Mikroporenbereich von 20–40 μm.
Netzfilter Netzfilter werden als arterielle Blutfilter genutzt und haben das Funktionsprinzip eines Siebs. Die Porengröße
des Netzfilters liegt zwischen 20 und 40 μm. Das Material besteht aus einem Netz gewebter Polyesterfäden. Anders als Tiefenfilter besitzen die Netzfilter nur geringe Adhäsionskräfte. Luftblasen werden erst bei einer bestimmten Druckdifferenz durch das Filtermedium gelassen (»bubble-point-pressure«), sodass sie über sehr gute Luftrückhalteeigenschaften verfügen.
30.3.5 Kardiotomiereservoir
Das Kardiotomiereservoir dient dazu, das aus dem Operationsfeld abgesaugte Blut zu sammeln, zu filtrieren und bei Bedarf in den extrakorporalen Kreislauf zurückzuführen. Gleichzeitig wird es als Volumendepot genutzt. Das durchsichtige Gehäuse ermöglicht die permanente Kontrolle des Füllstandes. Eine detaillierte Skala erleichtert, diesen zu quantifizieren und entsprechende Volumenänderungen zu erkennen. Grundsätzlich befindet sich während der gesamten EKZ stets ein minimales Restvolumen im Reservoir, um die Förderung von Luft in das extrakorporale System zu vermeiden. Der Blutstrom bzw. das Blut-Luft-Gemisch durchläuft im Reservoir ein integriertes Entschäumermodul und eine Kombination aus Tiefen- und Netzfilter, welche eine optimale Filtration gewährleistet. Zum Anschließen der zu- und abführenden Schläuche verfügt das Kardiotomiereservoir über mehrere Steck- und Schraubanschlüsse, welche in unterschiedlichen Größen und Formen ausgeführt und angeordnet sind. Neben den zur Umgebung hin offenen HartschalenReservoiren werden auch rein venöse Reservoire, in Form eines kollabierbaren Beutels, eingesetzt. Diese bieten den Vorteil, dass das Blutvolumen nicht direkt mit Luft in Kontakt steht. Die Sauger sind in diesem Fall an ein separates Reservoir angeschlossen. Man bezeichnet diese Systeme als »geschlossen« oder »halb-offen«.
30
520
Kapitel 30 · Herz-Lungen-Maschinen (HLM)
30.3.6 Kanülen
Die Schnittstelle zwischen dem EKZ-System und dem Gefäßsystem des Patienten bilden die Kanülen. Diese werden vom Chirurgen in die entsprechenden Gefäße eingebracht, fixiert, entlüftet und dann steril an das Schlauchsystem der HLM angeschlossen.
III
Arterielle Kanülierung Die arterielle Kanüle dient dazu, das oxygenierte Blut in den Körperkreislauf des Patienten zurückzuführen. Häufigste Position ist dabei die Aorta ascendens. Je nach Eingriff und chirurgischem Zugangsweg wird eine alternative Position, wie A. femoralis oder A. iliaca, bevorzugt oder notwendig. Die Art und Größe der gewählten Kanüle richtet sich nach dem erforderlichen Blutfluss auf der einen, und den anatomischen Verhältnissen auf der anderen Seite. Arterielle Kanülen werden in verschiedenen Größen, mit gerader oder gebogener Spitze, mit Näh- oder Wulstkragen sowie wahlweise mit Drahtverstärkung oder Längen-Markierung angeboten.
Venöse Kanülierung Die venöse Kanüle dient dazu, das Blut des Patienten aus dem venösen Gefäßsystem in das extrakorporale System zu drainieren. Am häufigsten kommt eine sog. Zweistufenkanüle zum Einsatz, deren Kanülenspitze mit ihren seitlichen Öffnungen in die untere Hohlvene platziert wird und deren in der zweiten Stufe befindlichen, seitlichen Öffnungen das Blut der oberen Hohlvene und des rechten Vorhofs drainieren. Hinsichtlich Art und Größe der gewählten Kanüle gelten hier ähnliche Bedinungen wie auf der arteriellen Seite. Im Verhältnis sind die verwendeten venöse Kanülen trotzdem größer, da in der Regel lediglich der hydrostatische Sog den Blutfluss im venösen Schenkel bedingt. Wieder bedingt durch den chirurgischen Zugang oder auch die Tatsache, dass der rechte Vorhof des Herzens blutleer sein muss, kommen auf der venösen Seite ggf. zwei Kanülen zum Einsatz. Diese drainieren das Blut separat aus den beiden großen Hohlvenen, oder aus der V. femoralis und V. jugularis.
Ventkatheter Um das temporär stillstehende Herz und speziell den linken Ventrikel vor einer Überdehnung durch zurückströmendes Blut aus den Thebesius-Venen und der Bronchialzirkulation zu schützen, wird zusätzlich ein sog. Ventsauger eingelegt. Über diesen Ventsauger drainiert man überschüssiges Blut üblicherweise über das linke Herzohr oder einen
Seitenport der Kardioplegiekanüle in das Kardiotomiereservoir der HLM.
Kardioplegiekanülierung, Myokardprotektion Unter dem Begriff »Kardioplegie« versteht man den künstlich herbeigeführten, reversiblen Herzstillstand. Dieser ist bei den meisten Eingriffen am Herzen notwendig, um entweder dem Chirurgen ein bewegungsfreies Operationsgebiet zu schaffen oder, da der Herzmuskel oder herznahe Gefäße eröffnet werden müssen, um an die Klappen oder an der innenliegende Strukturen zu kommen. Das Herbeiführen eines kardioplegischen Herzstillstandes geht in der Regel mit der sog. Myokardprotektion einher. Wie der Name bereits sagt, handelt es sich um den Schutz des stillgelegten Herzmuskels. Die häufigste Methode der Plegie und Myokardprotektion besteht in der Verabreichung von kardioplegisch wirksamen Lösungen. Die Verabreichung solcher hyperkaliämischer Lösungen hat eine Unterbrechung der elektrischen Reizleitung und damit der mechanischen Aktivität des Herzens zur Folge. Als Basislösungen stehen Blut, Elektrolytlösungen, Kolloide und Kristalloide zur Verfügung. Der Stillstand des Myokards, die Verabreichung kalter kardioplegischer Lösung und zum Teil zusätzliche, externe Kühlung bedeuten einen drastisch reduzierten Sauerstoffverbrauch und stellen damit die wesentlichen Mechanismen zum Schutz der Herzmuskelzellen dar. Unmittelbar vor dem Herbeiführen des Herzstillstandes wird die Aorta ascendens zwischen Aortenklappe und Aortenkanüle abgeklemmt. Danach wird die kardioplegische Lösung direkt oder indirekt in die Koronarien verabreicht. Abhängig von der geplanten Operation und anderen Faktoren gibt es zwei Arten. Die antegrade Gabe nimmt den Weg über die Aortenwurzel oder direkt in die Koronarostien auf der arteriellen Seite. Die retrograde Gabe nimmt den Weg über den Koronarsinus auf der venösen Seite. Für beide Modi stehen Kanülen in verschiedenen Ausführungen zur Verfügung: Bei suffizienter Aortenklappe kann die Kardioplegielösung mittels einer AorticRoot-Kanüle über die Aortenwurzel verabreicht werden. Nach Verabreichung der kardioplegischen Lösung dient die Kanüle als Aorticroot-Vent zur Entlastung und Entlüftung des linken Ventrikels. Weist die Aortenklappe eine Insuffizienz auf, ist die Infusion der kardioplegischen Lösung über die Aortenwurzel nicht möglich. Bei geklemmter Aorta würde die Lösung, bedingt durch die unvollständig geschlossene Aortenklappe, retrograd in den linken Ventrikel fließen. Hier muss die Myokardprotektion mittels direkter selektiver Kanülierung der Koronarostien mit Koronarperfusionskanülen erfolgen. Bei retrograder Gabe erfolgt die Einführung der Kanüle über den rechten Vorhof. Anschließend wird die kardioplegische Lösung über den Koronarsinus verabreicht. Dies stellt eine effektive Möglichkeit dar, beson-
521 30.4 · Komponenten einer HLM
Die wichtigsten Grundkomponenten einer modernen HLM sind nachfolgend aufgelistet und kurz beschrieben: ▬ Online-Gas- und Blutgasanalyse, in Form von Messgeräten zur Erfassung und Anzeige der Gasflüsse, der Gaskonzentrationen im Gasstrom und der Sättigungen bzw. Partialdrücke direkt im Blutstrom;
▬ Fahrbare Konsole: zur Aufnahme mehrerer Pumpen, mit Stromversorgung, Notstromversorgung und Elektronik; ▬ Verstellbares Mastsystem: zum Anbringen von Halterungen für Oxygenator, Filter, Kardiotomiereservoire, ausgelagerten Pumpen und Zusatzgeräten; ▬ Blutpumpen: a) Große Rollerpumpe: Pumpe mit längerem Schlauchweg im Pumpengehäuse und damit für größere Flussraten, wie für den arteriellen Blutfluss, Sauger oder Vent (⊡ Abb. 30.3); b) Kleine Rollerpumpe: Pumpe mit kürzerem Schlauchweg im Pumpengehäuse für niedrige Flussraten, z. B. für die Säuglings- und Kinderperfusion oder zur Applizierung von kardioplegischer Lösung dien; meist als Doppelpumpe ausgeführt (⊡ Abb. 30.4, ⊡ Tab. 30.1). c) Zentrifugalpumpen: Pumpen für arteriellen Blutfluss. ▬ Steuer- und Überwachungsgeräte: a) Drucküberwachung inklusive der Sensoren, zur Erfassung verschiedener Drücke im extrakorporalen System und entsprechenden Regeln von Flussraten; b) Temperaturüberwachung inklusive der Sensoren zur Erfassung und Anzeige verschiedener Temperaturen im System und ggf. Patienten; c) Niveauüberwachung inklusive Sensoren zur Erfassung bzw. Überwachung des Volumenspiegels im Kardiotomiereservoir und entsprechender Regelung des arteriellen Pumpenflusses; d) Luftblasenüberwachung in Form von Ultraschallsensoren, welche beim Erkennen von Luft im System entsprechend auf die Flussraten der betroffenen Pumpe eingreifen;
⊡ Abb. 30.3. Rollerpumpe der 5. Generation (Fa. Sorin Group Deutschland GmbH)
⊡ Abb. 30.4. Doppelpumpe der 5. Generation (Fa. Sorin Group Deutschland GmbH)
ders die poststenotischen Bereiche des Herzmuskels zu erreichen, da im venösen Koronarsystem keine Stenosen vorherrschen. Somit wird eine optimale Verteilung der Kardioplegielösung erreicht und die Myokardprotektion wesentlich verbessert. Die Infusion kardioplegischer Lösungen entgegen dem normalen koronarvaskulären Blutstrom hat sich besonders während koronarer Re-Operationen bei gleichzeitig vorhandenem inadäquaten nativen Koronarfluss, schlechter koronarer Kollateralisierung sowie bei Patienten, bei denen die Gefahr einer Embolisierung von arteriosklerotischem Material besteht, bewährt.
Intrakardialsauger Intrakardialsauger dienen dazu, das Operationsfeld blutfrei zu halten, indem man das dort befindliche Blut in das Kardiotomiereservoir zurückzuführt. Der Kardiotomiesaugung kommt eine beachtliche Rolle zu, da sie einen großen Anteil zur Blutschädigung beiträgt. Grund dafür sind nicht nur Scherkräfte an den Saugerspitzen, sondern vor allem eine permanente Luftbeimischung, welche eine massive Blutschädigung durch Hämolyse verursacht.
30.4
Komponenten einer HLM
30.4.1 Grundkomponenten
30
522
Kapitel 30 · Herz-Lungen-Maschinen (HLM)
e) pulsatile Steuerung zur Erzeugung und Steuerung eines pulsatilen Flussprofiles; f) Kardioplegiesteuerung inklusive Druck- und Luftblasensensor, zur Steuerung der Kardioplegiegaben; g) Timer zur Erfassung wichtiger Zeiten und Intervalle während der Perfusion, wie Gesamtperfusionszeit, Aortenklemmzeit und Reperfusionszeit.
III
▬ Anzeige- und Bedienpanel, welches Zugang zu sämtlichen oben beschriebenen Anzeige- und Bedienelementen sowie zusätzlichen Systeminformationen und dem Alarmmanagement ermöglicht; ▬ Elektronischer oder mechanischer Gasblender, zur Steuerung und Anzeige der Beatmungsgase (Luft, O2 und Co2), welche an die Gasseite des Oxygenators
⊡ Tab. 30.1. Technische Daten von Rollerpumpen (Quelle: S5 Stöckert) Anzeige
S5-Rollerpumpe
S5-Doppelpumpe
RPM-Anzeigebereich
0–250 RPM
0–250 RPM
RPM-Kontrollbereich
3–250 RPM
3–250 RPM
RPM-Anzeigegenauigkeit
±0,5% bezogen auf Skalenendwert 250 RPM
±0,5% bezogen auf Skalenendwert 250 RPM
LPM-Anzeigebereich
0–3,29 LPM für 1/4‘‘-Schläuche
0–1,6 LPM für 1/4‘‘-Schläuche
0–6,98 LPM für 3/8‘‘-Schläuche
0–2,28 LPM für 5/16‘‘-Schläuche
0–11,3 LPM für 1/2‘‘-Schläuche
0–16,2 LPM für 5/8‘‘-Schläuche
⊡ Abb. 30.5. Auszug eines Perfusions-Protokolls mit Graphik und verschiedenen Patienten- und intraoperativen Daten
523 30.5 · Die extrakorporale Zirkulation
abgegeben werden. Vacuumcontroler, welcher die präzise Steuerung und Anzeige eines permanenten Unterdruckes auf dem venösen Reservoir ermöglicht; ▬ Narkosegasverdampfer, welcher die Abgabe einer exakt dosierten Menge von Narkosegas an den Oxygenator ermöglicht und anzeigt; ▬ Elektronisches Dokumentationssystem, welches alle relevanten Daten während der Perfusion erfasst, anzeigt und speichert. Sämtliche Daten werden zentral gespeichert, unmittelbar als Perfusionsreport (⊡ Abb. 30.5) ausgegeben und ermöglichen spätere Auswertungen für statistische und wissenschaftliche Zwecke. ⊡ Abb. 30.6 zeigt eine HLM auf heutigem Standard.
30.4.2
Zusätzliche Komponenten einer HLM
Normo- oder Hypothermiegerät Die Temperaturregulierung des Patienten erfolgt wärend der EKZ indirekt über das Kühlen bzw. Wärmen des Blutstromes im Wärmetauscher des Oxygenators. Optional wird der Patient auf einer Wassermatte gelagert, welche Wärme oder Kälte zuführt.
Das Normo- oder Hypothermiegerät stellt dafür Wasser im Temperaturbereich von ca. 2 bis 42°C zur Verfügung. Zweikammerpumpen sorgen dafür, dass sich in den Kreisläufen kein Überdruck durch das geförderte Wasser aufbauen kann. Moderne Normo- oder Hypothermiegeräte verfügen über mehrere Kreisläufe mit jeweils unterschiedlichen Temperaturen. Neben den Kreisläufen zum Oxygenator und der Kühl-/Wärmematte speist ein dritter Kreislauf den Wärmetauscher im Kardioplegiesystem. Dieser wird wahlweise aus zwei Tanks mit unabhängigen Temperaturen gespeist, was eine unmittelbare Umstellung von kalt auf warm und umgekehrt ermöglicht. Idealerweise ist eine Fernbedienung in das Bedienpanel der HLM integriert, welche die Bedienung erleichtert und die Positionierung des Gerätes auch außerhalb des OPs zulässt, was den Geräuschpegel im OP spürbar senkt. Aus hygienischer Sicht stellen Hypothermiegeräte seit jeher eine Herausforderung dar, da die wasserführenden Bereiche des Systems unweigerlich verkeimen. Der regelmäßige Wasserwechsel sowie der Einsatz entsprechender chemischer Reinigungsmittel stellen die beiden Hauptstrategien bei der Reinigung und Pflege dar.
30.5
Die extrakorporale Zirkulation
Die Perfusion mittels der extrakorporalen Zirkulation ist ein äußerst komplexes Geschehen, welches eine zentrale Rolle während der herzchirurgischen Operation spielt. Die Bedienung und Überwachung der HLM obliegt ausschließlich dem Kardiotechniker, wobei dieser bei allen Aktionen und Entscheidungen in ständigem Kontakt zum Operateur und Anästhesisten steht. Vor allem zu Beginn und am Ende der EKZ sowie bei allen Unregelmäßigkeiten und Aktionen, die ein abgestimmtes Handeln erfordern, ist eine klare Kommunikation zwischen diesen drei Parteien unerlässlich. Im Folgenden wird der Ablauf einer Standard-Perfusion dargestellt, ohne weiter auf die Vielzahl der modifizierten Verfahren einzugehen.
30.5.1 Vorbereitung der EKZ
⊡ Abb. 30.6. Abbildung einer industriell angebotenen Herz-LungenMaschine mit Panel-PC und Datenmanagementsystem (Fa. Sorin Group Deuschland GmbH).
Die EKZ beginnt im eigentlichen Sinne schon mit der Auswahl des benötigten Materials, dem Aufbau, dem Füllen (Priming) und der technischen Funktionsüberprüfung der HLM. Der Kardiotechniker verbaut sämtliche Komponenten des sterilen Einmalsets in die entsprechenden Halterungen, legt die Schläuche in die Pumpenköpfe ein und platziert Temperatursonden, Bubble-, Fluss- und Drucksensoren in den entsprechenden Positionen. Alle
30
524
III
Kapitel 30 · Herz-Lungen-Maschinen (HLM)
Verbindungen werden auf sicheren Sitz kontrolliert und ggf. gesichert. Das trockene, sterile System wird anschließend mit einer Mischung aus verschiedenen Lösungen und Medikamenten gefüllt, komplett entlüftet und auf Dichtigkeit geprüft. Anhand einer Checkliste werden alle relevanten Einstellungen, Anschlüsse, Funktionen und Alarme kontrolliert und dokumentiert. Nun werden die arterielle und venöse Linien mit den entsprechenden Kanülen, welche bereits vom Chirurgen in die großen Gefäße des Patienten eingebracht wurden, angeschlossen und damit die Verbindung zwischen dem Blutkreislauf des Patienten und dem extrakorporalen System hergestellt. Vor dem Einbringen der Kanülen und Beginn der Perfusion wird das Gerinnungssystem durch die systemische Verabreichung von ca. 300 bis 350 IE/kg Heparin inaktiviert.
▬
▬
30.5.2 Durchführung der Perfusion
Die Initialisierung der extrakorporalen Zirkulation stellt einen gravierenden Eingriff in den Gesamtorganismus und alle Vitalfunktionen des Patienten dar. Zu Beginn der Perfusion laufen folgende Aktionen praktisch gleichzeitig ab: ▬ In Absprache mit dem Chirurgen und Anästhesisten gibt der Kardiotechniker den Fluss in der venösen Linie frei und drainiert, aufgrund des hydrostatischen Gefälles, Blut aus dem venösen Gefäßsystem des Patienten in das venöse Reservoir der HLM. ▬ Er startet die arterielle Pumpe und damit den Blutfluss aus der Maschine in das arterielle Gefäßsystem des Patienten. Dieser Fluss wird so weit gesteigert, bis sich Zu- und Abfluss im Gleichgewicht befinden. Der im Vorfeld berechnete Perfusionsfluss stellt einen theoretischen Anhaltspunkt dar und entspricht einem künstlichen Herzzeitvolumen. ▬ Entsprechend dem Blutfluss wird der Oxygenator mit einem Gemisch aus Luft, Sauerstoff sowie evtl. Narkosegas und/oder CO2 versorgt, welches über mechanische oder elektronische Gasblender eingestellt und gesteuert wird. ▬ Der im Oxygenator integrierte Wärmetauscher wird vom Normo-/Hypothermiegerät mit Warm- oder kaltem Wasser versorgt und garantiert die Temperaturregulierung. Während der Perfusion werden folgende Parameter ständig kontrolliert und durch Regeleingriffe vom Kardiotechniker im gewünschten Bereich gehalten: ▬ Perfusionsfluss – Der für eine ausreichende Organperfusion und Mikrozirkulation benötigte Blutfluss wird von der HLM erzeugt. Primär wird dieser, analog zum na-
▬
▬
▬
▬
türlichen Herzindex, anhand der Körperoberfläche, multipliziert mit einem sog. Flussindex, errechnet. Dieser theoretische Index liegt zwischen ca. 2,4 und 3,0 l/m2KOF/min und ist abhängig von mehreren Faktoren, etwa der Temperatur, dem Hämatokritwert, dem Körperfettanteil und der Narkosetiefe. Letztlich muss der Perfusionsfluss anhand von Parametern wie Sauerstoffsättigung, O2-Partialdruck und anderen Faktoren der jeweiligen Situation angeglichen werden. Temperaturen a) Bluttemperaturen in der arteriellen und venösen Linie des extrakorporalen Schlauchsystems; b) Soll- und Ist-Temperaturen des Hypo-/Normothermiegeräts; c) Temperatur der kardioplegischen Lösung. Drücke im extrakorporalen Schlauchsystem – Während der Perfusion werden üblicherweise die Drücke vor und nach dem Oxygenator sowie ggf. vor der arteriellen Kanüle in der Kardioplegielinie oder vor dem Hämofilter gemessen und der Fluss der zugeordneten, arteriellen Pumpe automatisch reguliert (akustischer und optischer Alarm). Drucküberwachungen verfügen über zwei Betriebsarten: a) Start-Stopp-Betrieb, d. h., beim Erreichen des eingestellten Druckwertes für den Pumpenstopp wird die zugeordnete Pumpe gestoppt und erst nach einem Abfall des Druckes wieder automatisch gestartet; b) Regelbetrieb, d. h., beim Erreichen des eingestellten Druckwertes für die Pumpenregelung wird die Drehzahl der Pumpe vorerst verringert und erst bei Erreichen des Stoppdrucks gestoppt. Perfusionszeiten: a) Gesamtperfusionszeit; b) Aortenklemmzeit; c) Reperfusionszeit; d) ggf. Zeiten für Kreislaufstillstand, Kopfperfusion oder Hämofiltration. Niveauüberwachung im Kardiotomiereservoir – Die Niveauüberwachung dient als Schutz gegen die komplette Entleerung des Reservoirs. Diese hätte die Förderung von Luft in den arteriellen Schenkel des extrakorporalen Systems und letztlich eine massive Luftembolie in die Aorta des Patienten zur Folge. Der Niveausensor wird auf Höhe des gewünschten Minimumniveaus am KardiotomieReservoir angebracht. Erreicht der Flüssigkeitsspiegel im Reservoir den Niveausensor, regelt die Niveauüberwachung den Fluss der zugeordneten arteriellen Pumpe automatisch nach unten und gibt einen akustischen und optischen Alarm. Niveauüberwachungen verfügen über zwei Betriebsarten:
30
525 30.5 · Die extrakorporale Zirkulation
a) Start-Stopp-Betrieb, d. h., beim Erreichen des Stoppniveaus wird die Pumpe gestoppt, und erst bei einem Freigabeniveau wieder automatisch gestartet; b) Regelbetrieb, d. h., beim Erreichen des Regelniveaus wird die Drehzahl der Pumpe vorerst verringert und erst bei Erreichen des Stoppniveaus gestoppt. ▬ Luftblasendetektor: – Die Luftblasenüberwachung stellt eine weitere Schutzeinrichtung gegen Luftförderung dar. Der Ultraschallsensor erkennt Luftblasen, die eine bestimmte Größe überschreiten, und stoppt die zugeordnete Pumpe automatisch. Gleichzeitig wird ein akustischer und optischer Alarm ausgelöst. Optional erfolgt eine akustische und optische Warnung bei der Erkennung von Mikroluftblasen, welche eine bestimmte Größe unterschreiten. Wie die Niveauüberwachung schützt die Luftblasenüberwachung den Patienten vor einer massiven Luftembolie im arteriellen Gefäßsystem. ▬ Saugstärke der Kardiotomiesauger: – Während eines herzchirurgischen Eingriffs sind optimale Sichtverhältnisse im Operationsfeld unbedingt notwendig. Mittels eines oder mehrerer Kardiotomiesauger schafft der Chirurg bzw. Assistent ein nahezu blutfreies Operationsfeld. In ständiger Kommunikation mit dem Kardiotechniker passt dieser die Intensität der Sauger den Anforderungen des Chirurgen an.
30.5.3 Patientenüberwachung und Therapie
an der EKZ Da während der Perfusion das Herz-Kreislauf-System des Patienten eine Einheit mit dem EKZ-System bildet, liegt der Großteil der Aufmerksamkeit des Kardiotechnikers beim Patienten. Dies bedeutet: Er kontrolliert und steuert permanent den Gasaustausch und die resultierenden Partialdrucke von O2 und CO2, den Säure-Basen-Haushalt, die Nierenfunktion, die Gerinnung, die Perfusionsdrücke (MAD, ZVD), die Temperatur und eine Reihe von weiteren Blutgaswerten und Elektrolyten. Der Kardiotechniker muss all diese Parameter in einem Gesamtbild erfassen, im entsprechenden Zusammenhang interpretieren und angemessen darauf reagieren. Einige wesentliche Aspekte, welche in dem komplexen Perfusionsgeschehen eine wesentliche Rolle spielen, sollen im Folgenden gesondert erläutert werden.
Hämodynamik Im Vordergrund der hämodynamischen Überwachung steht der arterielle Blutdruck. Der arterielle Blutdruck kann
bei einer nichtpulsatilen Perfusion nur als mittlerer arterieller Druck (MAD) registriert werden, bei einer pulsatilen Perfusionstechnik können zusätzlich systolische und diastolische Drücke verzeichnet werden. Die Meinungen über einen idealen Perfusionsdruck sind von Klinik zu Klinik unterschiedlich. In der Regel werden bei Erwachsenen durchschnittliche Perfusionsdrücke von 60–90 mmHg und bei Kindern und Säuglingen von 30–50 mmHg angestrebt. Im Gegensatz zum Perfusionsfluss, der für eine ausreichende Organperfusion und Mikrozirkulation absolut notwendig ist, spielt der Perfusionsdruck eine eher untergeordnete Rolle. Der MAD kann durch die beiden Größen Pumpenminutenvolumen (PMV) und totaler peripherer Gefäßwiderstand (SVR) gesteuert werden. Eine Reduzierung des PMV hat auch unweigerlich einen Abfall des MAD zur Folge, eine Erhöhung des PMV einen Anstieg des MAD, in Abhängigkeit des SVR. Zusätzlich kann der SVR durch die Gabe von gefäßerweiternden (Vasodilatatoren), gefäßverengenden Arzneistoffen (Vasopressoren) und durch Narkosemittel beeinflusst werden.
O2-Angebot Wie beim physiologischen Atemgasaustausch durch die Lunge muss der O2-Bedarf der einzelnen Organe auch während der EKZ zur Verfügung gestellt werden. Das O2Angebot an den Organismus ist abhängig vom arteriellen O2-Gehalt (aO2) und dem Fluss (Q): O2-Angebot = Q × aO2
(30.1)
Der O2-Verbrauch errechnet sich aus dem Produkt von Fluss (Q) und der arteriovenösen O2-Konzentrationsdifferenz (avDO2): O2-Angebot = Q × avDO2
(30.2)
Die Versorgung der Organe mit Sauerstoff hängt von der Position der O2-Bindungskurve, die sigmoid verläuft, bzw. vom P50 ab. Der P50 ist der sog. O2-Halbsättigungsdruck, bei welchem das Hämoglobin (Hb) zu 50% mit O2 gesättigt ist. Die Bedeutung des P50 für die O2-Versorgung der Organe und Gewebe ist um so größer, je stärker die O2Transportkapazität während der EKZ eingeschränkt ist. Kommt es zu einer Linksverschiebung der O2-Bindungskurve z. B. durch Hypothermie, nimmt der P50 aufgrund einer höheren O2-Affinität des Hb ab. Die O2-Abgabe in den Organen und Geweben verschlechtert sich. Eine Rechtsverschiebung der O2-Bindungskurve z. B. durch Temperatursteigerung oder Azidose führt hingegen dazu, dass die O2-Affinität des Hb abnimmt und der P50 ansteigt, was die O2-Abgabe an das Gewebe begünstigt. Eine einfache und sichere Methode zur Überwachung eines adäquaten O2-Angebots während der EKZ ist ein kontinuierliches Monitoring der arteriellen (saO2) und
526
Kapitel 30 · Herz-Lungen-Maschinen (HLM)
der gemischtvenösen O2-Sättigung (svO2) an der HLM. Die arterielle O2-Sättigung ist dabei ein aussagekräftiger Parameter, um die Oxygenierungsleistung zu beurteilen, die gemischtvenöse O2-Sättigung zeigt ein eventuelles Missverhältnis von O2-Angebot und O2-Bedarf an.
III
Blutgasanalyse und Management des SäureBasen-Status Während der hypothermen EKZ können zwei verschiedene Methoden angewendet werden, um den Säure-Basen-Status zu steuern. Es gibt dabei unterschiedliche Meinungen, welches der beiden Regime die physiologischere Variante zur Steuerung des Säure-Basen-Haushalts darstellt. Die pH-stat-Messmethode beruht auf der Tatsache, dass ein pCO2 von 40 mmHg und ein pH-Wert von 7,40 als die Normalwerte anzusehen sind, ohne dabei die aktuelle Temperatur zu berücksichtigen. Die bei 37°C gemessene Blutgasanalyse wird der aktuellen Bluttemperatur angeglichen. Unter dem Verfahren der pH-stat-Methode muss der Partialdruck des CO2 durch Zuführung von CO2 in den Oxygenator konstant gehalten werden, um die Menge des zusätzlich im Blut gelösten Kohlendioxids zu ersetzen. Dies entspricht einem Zustand von respiratorischer Azidose und Hyperkapnie. Die α-stat-Messmethode basiert hingegen auf der Grundlage, dass der pH-Wert, der bei 37°C gemessen wird, nicht auf die aktuelle Bluttemperatur des Patienten korrigiert wird. Unter hypothermen Bedingungen würde dies bedeuten, dass der pCO2 erniedrigt und der pHWert erhöht sein müsste und demzufolge eine Hypokapnie bzw. respiratorische Alkalose vorliegt. Welche der beiden Methoden zur Regulation des Säure-Basen-Status während eines hypothermen Kreislaufs die bessere ist, konnte bislang noch nicht geklärt werden. Die α-stat-Methode bringt gegenüber der pHstat-Methode jedoch eine Reihe von Vorteilen mit sich: ▬ Unter dem α-stat-Regime korreliert der zerebrale Blutfluss mit dem zerebralen O2-Verbrauch während Hypothermie. Die zerebrale Autoregulation bleibt intakt. ▬ Aufrechterhaltung eines physiologischen pH-Werts im Intrazellulärraum. Da jedoch auch Vorteile auf Seiten des pH-stat-Regimes bei tiefer Hypothermie aufgrund einer verbesserten zerebralen Durchblutung und Kühlung besteht, könnten beide Regime (pH-stat während der hypothermen Phase und α-stat während der Aufwärmphase) zur Anwendung kommen.
Blutgerinnung Voraussetzung für die Aufnahme der EKZ ist die systemische Heparinisierung des Patienten. Die zu verabreichende initiale Dosis von Heparin zur Antikoagulation reicht von
200–400 IE/kg KG. Die Wirksamkeit der Antikoagulation im kardiopulmonalen Bypass wird überwiegend anhand der »activated clotting time« (ACT) bestimmt. Um Gerinnungskomplikationen während der Aufnahme der EKZ zu vermeiden, wird dem Priming der HLM bereits ein Teil der Heparindosis – je nach Klinik und Gerinnungsmanagement variiert diese bei Erwachsenen zwischen 2500 IE und 10000 IE – zugesetzt. Die Verabreichung der Initialdosis erfolgt über einen zentralvenösen Zugang oder mittels Injektion in den rechten Vorhof oder die Aortenwurzel. Bevor die EKZ aufgenommen werden kann, wird wenige Minuten nach Verabreichung der Heparindosis eine ACT-Kontrolle durchgeführt. Grundsätzlich ist anzumerken, dass bei einer ACT von < 400 s die EKZ nicht begonnen werden sollte. In diesem Fall muss eine weitere Kontroll-ACT erfolgen und ggf. Heparin nachdosiert werden. Bei zu niedrigen ATIII-Werten wird dieses substituiert, um die Wirkung des Heparins zu gewährleisten. Während des kardiopulmonalen Bypasses werden ACT-Werte von > 400 s angestrebt bei Absinken des Wertes auf < 400 s Heparin substituiert. Nach Beendigung der EKZ erfolgt die Antagonisierung des Heparins mit Protamin. Demnach wird mit der Antagonisierung ein Normalwert der ACT bzw. ein ACT-Wert < 130 s angestrebt. Die Protamingabe erfolgt im Gegensatz zur Heparingabe nicht im Bolus, sondern als Kurzinfusion über ca. 5–10 min, da nicht selten bei einer zu schnellen Verabreichung eine periphere Gefäßerweiterung in Verbindung mit einem Blutdruckabfall und einer Kardiodepression beobachtet wurde. Nach dem Start der Protamingabe wird die Kardiotomiesaugung eingestellt, um thrombembolische Komplikationen zu vermeiden. Generell ist zu sagen, dass das hier rudimentär beschriebene Regime primär für unbeschichtete EKZ-Systeme gilt und dem überaus komplexen Thema »Gerinnung« in diesem Rahmen nicht gerecht werden kann.
Hypothermie Die künstliche Herabsetzung der Körpertemperatur (induzierte Hypothermie) während der EKZ reduziert den Stoffwechsel des Organismus und ermöglicht es somit, den O2-Bedarf der Gewebe für den Zeitraum der Hypothermie zu verringern. Die eigentliche Umsetzung der Hypothermie erfolgt durch Blutstromkühlung mittels eines im Oxygenator integrierten Wärmetauschers. Schon bei einer Senkung der Körperkerntemperatur z. B. auf 30°C erfolgt eine Abnahme des O2-Verbrauchs um ca. 50%, da die Hypothermie protektiv auf die Organe wirkt und zu einer Verbesserung der Ischämietoleranz der einzelnen Gewebe führt. Heutzutage werden die allermeisten Operationen in normothermer oder leichter Hypothermie durchgeführt. Lediglich bei Eingriffen am Aortenbogen oder wenigen
527 30.5 · Die extrakorporale Zirkulation
⊡ Tab. 30.2. Hypothermiestufe in Abhängigkeit von der Körperkern- bzw. Rektaltemperatur Hypothermiestufe
Temperatur [°C]
Leichte Hypothermie
37–32°
Moderate Hypothermie
32–28°
Tiefe Hypothermie
28–18°
Profunde Hypothermie
18–4°
komplexen Eingriffen bei Säuglingen, beides ggf. kombiniert mit einem zeitweiligen Kreislaufstillstand oder Low-Flow-Perfusion, wird die tiefe systemische Kühlung des Patienten erforderlich. Die Hypothermie wird klinisch in Abhängigkeit der angestrebten Temperatur in verschiedene Stufen eingeteilt, wobei von der Körperkern- bzw. Rektaltemperatur ausgegangen wird (⊡ Tab. 30.2).
Urinproduktion Während der extrakorporalen Zirkulation ist die Nierenfunktion anhand der Urinproduktion kontinuierlich zu überprüfen. Eine Urinproduktion von 0,5–1,0 ml/kg KG/h wird während des Zeitraums an der EKZ als angemessen angesehen. Um eine ausreichende Diurese zu gewährleisten, sind adäquate Perfusionsflüsse und -drücke notwendig. Wird während der EKZ ein Rückgang der Urinausscheidung verzeichnet, sollte der Perfusionsdruck primär durch Steigerung des Perfusionsvolumens oder durch medikamentöse Therapie angehoben werden. Sollte dies nicht zu einer Verbesserung der Nierenfunktion führen, kann die Diurese ggf. medikamentös durch Schleifendiuretika therapiert oder über den Einsatz eines Hämofilters temporär ersetzt werden.
30.5.4 Komplikationen an der EKZ
Eine permanente Weiterentwicklung auf dem Gebiet der Gerätetechnologie, die Einführung von Qualitätssicherungsmaßnahmen, die Verbesserung und Erweiterung von Überwachungsfunktionen sowie nicht zuletzt die Standardisierung der Ausbildungen garantiert zwar eine minimale Zahl an Perfusionszwischenfällen, kann diese letztlich nicht komplett ausschließen. Sämtliche Zwischenfälle kann man aufgrund der Ursache in technisch bedingte oder anwenderbedingte Zwischenfälle unterteilen. Bei technisch bedingten Zwischenfällen handelt es sich meist um Geräte- oder Komponentendefekte, Materialermüdung oder qualitativ minderwertig gefertigte Produkte.
Auf Anwenderseite liegen die Ursachen fast immer in der Fehlinterpretation von Situationen oder Werten oder aber in entsprechenden Fehlreaktionen. Entscheidend ist, unter allen Umständen und mit allen verfügbaren Mitteln das Leben und die Unversehrtheit des Patienten zu schützen und zu erhalten. Präventive Maßnahmen zum frühzeitigen Erkennen solcher Zwischenfälle, entsprechendes Training von Gegenmaßnahmen und klare Kommunikation zwischen allen Beteiligten können helfen, dass selbst massive Zwischenfälle, wie z. B. ein Totalausfall der arteriellen Blutpumpe, die Ruptur von Schläuchen oder der Ausfall der Strom- oder Gasversorgung, zu keinen irreversiblen Schäden am Patienten führen.
Fehllage der arteriellen Kanüle Die korrekte arterielle Kanülierung des betreffenden Gefäßes (Aorta ascendens, A. femoralis etc.) und die richtige Wahl der verwendeten Kanüle (Dimension, Ausführung) ist maßgeblich für eine adäquate Körperperfusion. Häufigste Ursachen von kanülenbedingten Komplikationen sind zu klein dimensionierte arterielle Perfusionskanülen oder auch materialbedingte Fehler. Des Weiteren können aber auch beim Kanülierungsvorgang und im intraoperativen Verlauf Komplikationen auftreten, die für den Patienten im Nachhinein folgenschwere Auswirkungen mit sich bringen können. Dazu zählen: ▬ Aortendissektion, ▬ Displatzierung der arteriellen Kanüle, ▬ Dislokation der arteriellen Kanüle.
Fehllage der venösen Kanüle(n) Da die Drainage des venösen Blutes aus dem Patienten in die HLM i. d. R. unter Ausnutzung des hydrostatischen Gefälles geschieht, ist der Rückfluss des Blutes zum einen abhängig vom zentralen venösen Druck, dem Widerstand der venösen Kanüle(n) und zum anderen von der Schlauchdimension der venösen Linie. Die richtige Auswahl der Kanülengröße kann mittels von den Herstellern erstellten sog. Flow-Charts, die das Durchflussvermögen der Kanüle beschreiben, relativ leicht für die entsprechenden Erfordernisse ermittelt werden. Eine zu klein dimensionierte Kanüle kann während des totalen kardiopulmonalen Bypasses erheblich zur Limitierung des venösen Rückflusses beitragen und u. U. zu Stauungsproblemen mit Rechtsherzdilatation führen. Dies würde den Kardiotechniker dazu zwingen, bedingt durch das Absinken des Blutniveaus im Oxygenator oder Reservoir, das Pumpenminutenvolumen entsprechend den Gegebenheiten zu reduzieren bzw. anzupassen. In jedem Fall sollte bei diesem Ereignis eine Fehlerbehebung z. B. durch Umkanülierung oder zusätzliche Kanülierung stattfinden, um eine angemessene Perfusion fortführen zu können.
30
528
III
Kapitel 30 · Herz-Lungen-Maschinen (HLM)
Es können aber auch andere Faktoren eine Behinderung der venösen Drainage auslösen: ▬ Dislokation der venösen Kanüle(n), ▬ Displatzierung der venösen Kanüle(n), ▬ massive Luft in der venösen Linie (»airblock«), ▬ Verlegung der venösen Linie, ▬ Luxation des Herzens, ▬ Hypovolämie, ▬ unzureichendes hydrostatisches Gefälle.
Arterielle Luftembolien Die systemische arterielle Luftembolie gehört wohl zu den schwerwiegendsten Komplikationen im kardiopulmonalen Bypass und kann auf die verschiedenste Weise ausgelöst werden. Zu den häufigsten Ursachen der arteriellen Luftembolie gehören das Arbeiten mit zu niedrigen Reservoirlevels, Luftembolisierung über Kardioplegiekanülen, Luftapplikation durch den in die falsche Richtung laufenden Ventsauger, Oxygenatordefekte, Diskonnektion des Schlauchsystems, Materialermüdung mit Ruptur des arteriellen Pumpensegments und aggressives Aufwärmen des Patienten. Die Liste der Komplikationen könnte aufgrund der in der Literatur beschriebenen Vielfältigkeit der Ereignisse noch um Etliches weitergeführt werden. Für den Patienten kann die arterielle Luftembolie je nach Menge und Intensität der Luftzuführung katastrophale Folgen mit irreversiblen Organschäden zur Folge haben. Aufgrund der zu befürchtenden hypoxischen Hirnschäden müssen bei Erkennung einer arteriellen Luftembolie sofortige Maßnahmen zur Reduzierung der Folgeschäden eingeleitet werden. Sollte es trotz aller Präventivmaßnahmen (Niveausensor, Luftblasensensor, arterieller Filter) zu einer Luftembolie kommen, sind umgehend Maßnahmen zu treffen, die sich nicht nur auf die Entfernung der Luft aus dem systemischen Kreislauf beschränken: ▬ sofortige Unterbrechung des kardiopulmonalen Bypasses und maximale Trendelenburg-Lagerung (Kopftief-Position) des Patienten; ▬ Dekanülierung der Aortenkanüle und Entlüftungsmanöver über die Inzisionstelle unter Zuhilfenahme eines Saugers; ▬ Entlüftung der arteriellen Linie und Aortenkanüle; ▬ hypotherme, retrograde Perfusion über die obere Hohlvene, bis keine Luft mehr über der Aortenwurzel zu verzeichnen ist; ▬ intermittierende Komprimierung der beiden Karotiden; ▬ Hypertension mittels Vasokonstriktoren, ▬ medikamentöse Therapie mit Steroiden und Barbituraten; ▬ antegrade, hypotherme Perfusion (bei ca. 20°C); ▬ hyperbare Sauerstofftherapie als Ultima-ratio-Maßnahme.
Oxygenatorversagen Eine unzureichende Oxygenatorleistung kann u.U. während des kardiopulmonalen Bypasses zu schwerwiegenden Folgen mit hypoxischen Organschäden führen. Diverse Überwachungsmöglichkeiten (arterielle O2-Sättigung, arterielle Blutgase und visuelle Beurteilung) tragen dazu bei, die Gasaustauschleistung des Oxygenators relativ schnell zu interpretieren und bei Komplikationen Sofortmaßnahmen einleiten zu können. Schon beim Start der extrakorporalen Perfusion kann durch den Kardiotechniker rein visuell eine Beurteilung des zurückgeführten arteriellen Blutes erfolgen. Werden zu Beginn der Perfusion eine deutlich reduzierte arterielle O2-Sättigung und inakzeptable arterielle pO2-Werte bei ausreichender Ventilation der zugeführten Gase registriert, muss davon ausgegangen werden, dass ein Oxygenatorversagen durch einen Materialfehler des Oxygenatormoduls oder aber die Reduzierung der für den Gasaustausch notwendigen Oberfläche durch Ablagerung von Eiweiße oder Tromben vorliegt. Abhängig von der verbleibenden Oxygenierungskapazität und dem Zeitpunkt im OP-Ablauf kann ein Austausch des Oxygenators notwendig werden, was eine temporäre Unterbrechung der Perfusion (mit entsprechender Gefährdung des Patienten) mit sich bringt.
Technisch bedingte Zwischenfälle Die Unterbrechung der Stromversorgung im OP während der EKZ stellte in der Vergangenheit eine schwerwiegende Problematik dar, da nicht nur die arterielle Pumpe, sondern das Gesamtsystem vom Ausfall betroffen war. Mittlerweile verfügen Herz-Lungen-Maschinen über eine netzunabhängige interne Notstromversorgung. Der Batteriebetrieb mit der Notstromversorgung (ununterbrochene Stromversorgung, USV) erlaubt es, das gesamte System über einen Zeitraum von ca. 20–130 min (abhängig von der Anzahl der Verbraucher) zu betreiben. Die USV schaltet bei Ausfall der Stromversorgung oder des Netzteils über einen internen elektrischen Schalter automatisch auf die Versorgung über die Akkumulatoren um und bei Verfügbarkeit der Stromversorgung automatisch wieder zurück. Ein zusätzliches USV-Steuermodul ermöglicht es, bei Netzausfall den Ladezustand der Batterien zu überwachen und die Restlaufzeit in Abhängigkeit der Last anzuzeigen. Bei einem Totalausfall der Rollerpumpen kann die Rotation und damit der benötige Fluss durch den Einsatz einer Handkurbel aufrechterhalten werden. In modularen Systemen kann die defekte Pumpe ggf. gegen eine funktionierende Pumpe ersetzt werden. Bei Zentrifugalpumpen kann der Pumpenkopf in einen mechanischen Antrieb umgesteckt werden, der ebenfalls über eine Handkurbel angetrieben wird.
529 30.6 · Differenzierung von HLM-Geräten
Beim Ausfall der zentralen Gasversorgung wird der Oxygenator mit den benötigten Gasen aus transportablen Gasflaschen versorgt.
30.6
Differenzierung von HLM-Geräten
HLM-Geräte werden unter Berücksichtigung der Funktionalität, maximaler Zuverlässigkeit, sicherheitstechnischer und ergonomischen Aspekten, der Prämisse einer optimalen Benutzerführung und einer intuitiv begreifbaren Bedienung konstruiert und entwickelt. Das wesentliche konstruktive Unterscheidungsmerkmal von Herz-Lungen-Maschinen ist primär die modulare oder semimodulare Bauweise. Daneben rückt die Integration von Blutgasanalysegeräten, Flusssensoren, elektronisch gesteuerten Schlauchklemmen und anderer Systeme immer mehr in den Mittelpunkt.
30.6.1 Modulare Systeme
konfigurierbar und erlaubt dem Anwender, eine HLM nach seinen klinischen Anforderungen zu konfigurieren. Den Anwendungsbedürfnissen entsprechend können einzelne Komponenten, Module und Zubehörteile nachträglich ergänzt oder bei einem Defekt ausgetauscht werden. Der Umbau bzw. die Systemerweiterung mit zusätzlichen Überwachungs-, Steuer- und Messgeräten ermöglicht es, die HLM für unterschiedliche Perfusionsaufgaben zu nutzen. Modulare Systeme bestehen aus einer fahrbaren Grundkonsole, die je nach Konfiguration die Aufnahme von 3–6 Rollerpumpen ermöglicht. Die modularen Rollerpumpen sind die Grundbausteine des Perfusionssystems. Sie werden auf dem Pumpentisch der Konsole platziert und über eine Steckverbindung an die Spannungsversorgung und Steuerelektronik angeschlossen. Das Bedienpult (⊡ Abb. 30.8) dient zur Aufnahme sämtlicher modularer Überwachungs-, Steuer- und Messgeräte. Da unterschiedliche Operationen auch unterschiedlichen Überwachungsaufwand erfordern, stehen dem Anwender Bedienpulte zur Verfügung, die die Aufnahme einer verschiedenen Anzahl von Bedienmodulen ermöglichen.
Das modulare Konzept von HLM-Systemen (⊡ Abb. 30.7) hat den Vorteil, dass es dem Anwender ein Höchstmaß an Flexibilität bietet. Das Gesamtsystem ist individuell
⊡ Abb. 30.7. Modulare HLM
⊡ Abb. 30.8. Bedienpult zur Aufnahme der Überwachungs-, Steuerund Messgeräte und dem zentralen Anzeige- und Bedienmodul (ZAB). Die Bedienmodule der Überwachungs-, Steuer- und Messgeräte können auf dem Bedienpult untereinander beliebig gesteckt werden
30
530
III
Kapitel 30 · Herz-Lungen-Maschinen (HLM)
Teil der modularen Bauweise sind auch frei positionierbare Pumpen, welche bestenfalls getrennt vom Bedienmodul an einer beliebigen Position am Mastsystem angebracht werden können. Diese sind ebenfalls für die im Folgenden beschriebenen, semimodularen Systeme verfügbar. Wesentlicher Vorteil der frei positionierbaren Pumpen ist die Verkürzung von Schlauchwegen und damit eine Reduzierung der Fremdoberfläche und des Füllvolumens des EKZ-Systems.
30.6.2 Nichtmodulare Systeme
Entgegen der modularen Bauweise handelt es sich hierbei um eine Systemkonfiguration, bei der die Anzahl, die Ausführung und Anordnung der Rollerpumpen sowie der Umfang des Monitorings mit seinen Überwachungsund Steuerfunktionen bereits durch das Konzept und die Konstruktion bestimmt wird (⊡ Abb. 30.9). Das System verfügt über alle entscheidenden Überwachungs- und Steuerfunktionen wie z. B. Luftblasenüberwachung, Niveauüberwachung, Drucküberwachung, Kardioplegiesteuerung, Temperaturüberwachung und Zeitnehmer. Die Rollerpumpen sind bei diesem System in das Gehäuse, die Standardüberwachungsfunktionen in einem Bedienpult der HLM fest integriert und können untereinander nicht getauscht werden. Eine System-
⊡ Abb. 30.9. Kompakte HLM in semi-modularer Bauweise
erweiterung mit weiteren Rollerpumpen, Überwachungs-, Steuer- und Messgeräten ist im Vergleich zur modularen Bauweise nur eingeschränkt möglich. Anders als bei modularen Systemen können die Grundbausteine der HLM bei technischem Defekt ausschließlich durch autorisiertes Servicepersonal ausgetauscht werden.
30.7
Sicherheitstechnische Aspekte
HLM-Geräte müssen unter dem Gesichtspunkt der Sicherheitsoptimierung entworfen, konstruiert und gefertigt werden. Die Technik der Systeme muss für den Anwender beherrschbar sein, insbesondere bei auftretenden unerwünschten Ereignissen. Das Erkennen von Gefahren, die zwangsläufig beim Einsatz von technischen Geräten und bei der Interaktion von Mensch und Maschine entstehen, muss deshalb im Mittelpunkt jeder Sicherheitsbetrachtung stehen. Die höchste Sicherheitsanforderung für die Anwendung der HLM ist die Aufrechterhaltung des Blutkreislaufs des Patienten. Der Kardiotechniker trägt wesentlich zur Sicherheit des Verfahrens bei. Ziel ist es, präventive Lösungen zu finden, die das Eintreten eines oder mehrerer unerwünschter Ereignisse verhindern. Als Sicherheitsminimalanforderung ist die Erfüllung der gesetzlichen Bestimmungen (grundlegende Anforderungen) und der einschlägigen Normen anzusehen. Eine wichtige Präventivmaßnahme ist die Risikoanalyse, die in Anlehnung an die EN ISO 14971 zum Risikomanagement erweitert wurde. Das Risikomanagement verlangt über die reine Risikoanalyse hinaus eine Entscheidung über die Akzeptierbarkeit von Risiken, Maßnahmen zu deren Reduzierung sowie die Überprüfung der getroffenen Maßnahmen. Sollte es trotz der ergriffenen Maßnahmen zu einem unerwünschten Ereignis kommen, muss eine zielgerichtete Reaktion erfolgen, d. h. ein sicherer Zustand festgelegt werden, der so definiert ist, dass die Gesundheit und Sicherheit der Patienten und Anwender möglichst wenig beeinträchtigt werden. Da die Wahrscheinlichkeitseinschätzung von einer genauen Zuordnung der Gefährdungen abhängt, müssen diese folgendermaßen klassifiziert werden: ▬ nicht beabsichtigtes unerwünschtes Ereignis, wie z. B. Pumpe stoppt – bedingt durch einen technischen Defekt; ▬ beabsichtigtes unerwünschtes Ereignis, wie z. B. Pumpe stoppt – ausgelöst durch das Erkennen einer Luftblase im Schlauchsystem. Eine Unterbrechung der Funktion mit Alarmgabe ist bei lebenserhaltenden Systemen kein sicherer Zustand. Ein kurzzeitiger Pumpenstopp kann jedoch unter bestimm-
531 30.8 · Ausblick auf weitere Entwicklungen
ten Bedingungen in Kauf genommen werden, um eine Gefährdung durch ein unerwünschtes Ereignis, wie z. B. Lufteintritt in das Schlauchsystem, abzuwenden. Nachfolgende Normen sind für die Auslegung von HLM-Geräten verbindlich einzuhalten: ▬ Richtlinie 93/42 EWG bzw. MPG, ▬ EN 601-1, ▬ EN 601-1-1, ▬ EN 601-1-2, ▬ EN 601-1-4, ▬ EN 601-1-6, ▬ EN 62304.
mit nicht getesteten oder nicht zugelassenen weiteren Geräten enthalten. Herz-Lungen-Maschinen sind Geräte der Klasse IIb MPG und müssen sicherheitstechnischen Kontrolle unterzogen werden. Die Übergabe an den Betreiber schließt ebenfalls eine Überprüfung ein, die zusätzlich zu dokumentieren ist. Des Weiteren muss der Betreiber bei der Übergabe formal in die Gerätefunktion eingewiesen werden.
Alle Anforderungen sind zu Beginn der Entwicklung festzulegen und in System-, Geräte- und Komponentenspezifikationen umzusetzen. Eine Risikoanalyse zu jeder Funktion und zum Gesamtsystem ist zu erstellen. Es sind Maßnahmen zur Fehlerbeherrschung aufzuzeigen und durch Rechnung und Versuche zu belegen. Alle Entwicklungsversuche sowie die gesamte Dokumentation ist in einem sog. Master-File festzuhalten. HLM-Geräte müssen in jedem Fall erstfehlersicher konstruiert sein, d. h., ein beliebiger Fehler, wie z. B. Bauteileversagen durch Kurzschluss oder Unterbrechung, darf das Gerät nicht in einen unkontrollierbaren Betriebszustand bringen. In jedem Fall muss der Fehler erkannt und mit Alarmgabe angezeigt sowie die Funktion in einen Stoppzustand versetzt werden. Der Kardiotechniker entscheidet dann, mit welcher Maßnahme weitergearbeitet werden kann. Fällt z. B. eine Pumpe durch Motorversagen aus, kann das entsprechende Schlauchsegment in eine Reservepumpe eingelegt oder notfalls die Pumpe mit einer Handkurbel bedient werden. Fällt z. B. der Niveausensor am Kardiotomiereservoir oder am Oxygenator aus, kann unter manueller Überwachung des Niveaus durch den Kardiotechniker die entsprechend zugeordnete Pumpe bezüglich Förderleistung gestoppt oder verlangsamt werden. Selbstverständlich müssen auch die Erfordernisse der elektrischen Sicherheit, der elektromagnetischen Verträglichkeit, der Explosionssicherheit und des Brandschutzes sowie der Umwelterfordernisse im OP (z. B. Temperaturbereich) eingehalten werden. Dazu kommen Prüfungen über Transport- und Lagerungsbelastungen. Für den Anwender sind weiterhin Nachweise der adäquaten Ergonomie, der Reinigungsmöglichkeit und Desinfizierbarkeit von Interesse. Es sei darauf hingewiesen, dass die Gebrauchsanweisung Bestandteil des Gerätes ist und ebenfalls im Zuge des Zulassungsverfahrens überprüft wird. Die Gebrauchsanweisung trägt als beschreibende Sicherheit wesentlich zum sicheren Betrieb des Gerätes bei. Neben der reinen Beschreibung der Bedienung des Gerätes sind deshalb auch Hinweise zur Fehlerprävention sowie Warnhinweise vor unerlaubten Betriebszuständen oder Kombinationen
Die Herzchirurgie hat sich in den letzten Jahren durch die zunehmende Anwendung minimalinvasiver und videoassistierter endoskopischer und roboterassistierter Techniken weiterentwickelt. Die Entwicklung neuer, weniger invasiver Operationstechniken hat das Ziel, einerseits das chirurgische Trauma durch Verkleinerung des operativen Zugangs zu reduzieren und andererseits auf den Einsatz einer HLM zu verzichten. Im Bereich der Aortenchirurgie hat sich die Implantation von Gefäßprothesen ohne Einsatz der HLM bereits als Standardverfahren etabliert. Dagegen steht ein Trend zur Implantation von Herzklappen ohne EKZ eher am Anfang. Entgegen anfänglicher Erwartungen haben sich herzchirurgische Eingriffe am schlagenden Herzen, primär im Bereich der Bypasschirurgie, aufgrund der komplexen und aufwändigen Handhabung lediglich an einzelnen Zentren durchgesetzt. Dagegen nimmt die Ausweitung der Einsatzgebiete von extrakorporalen Systemen außerhalb der Herzchirurgischen Zentren eine rasante Entwicklung. Hinter Begriffen wie ECMO oder ECLS stehen auf ein Minimum von Pumpe und Oxygenator reduzierte Systeme, welche die wesentlichen Funktionen der HLM, nämlich die Pumpfunktion des Herzens und der Gasaustausch der Lunge, gewährleisten. Unter anderem durch die minimale Anzahl an Komponenten und damit der minimalen Fremdoberfläche erlauben diese Systeme einen Einsatz über mehrere Tage bis zu wenigen Wochen. Neben der längeren Einsatzdauer steht vor allem die kompakte Bauweise im Vordergrund, welche das System praktisch autonom und damit unabhängig von der Infrastruktur eines Operationssaales macht. Folglich finden sich solche Systeme zunehmend in anderen Disziplinen, wie z. B. in kardiologische Einrichtungen. Eines der Haupteinsatzgebiete dieser mobilen Mini-EKZ-Systeme wird aber wohl der Transport von Patienten unter teilweiser oder kompletter kardiopulmonaler Unterstützung zwischen verschiedenen Kliniken sein, was auf dem Landoder Luftweg erfolgen kann und völlig neue Möglichkeiten wie auch Herausforderungen mit sich bringt. Parallel zur Gerätetechnik gehen die Entwicklungen auf dem Gebiet der verwendeten Einmalartikel wie
30.8
Ausblick auf weitere Entwicklungen
30
532
III
Kapitel 30 · Herz-Lungen-Maschinen (HLM)
Schläuche, Oxygenatoren, Filter, Reservoire und Kanülen weiter. Hier liegt das Hauptaugenmerk neben einer Steigerung der Effizienz vor allem auf den Materialien, die in direktem Kontakt zum Blut stehen und für entsprechende Schädigungen verantwortlich sind. Ziel ist dabei, die Oberflächen der einzelnen Komponenten oder kompletter Schlauchsets mit Hilfe verschiedener Beschichtungen annähernd biokompatibel zu gestalten. Hier werden von den verschiedenen Firmen unterschiedliche Produkte angeboten, die teilweise zwar eine wesentliche Verbesserung, aber bislang keine für das Blut vollständig biokompatible Oberfläche schaffen können.
15. Sealy WC, Brown IW, Young WG (1958) A report on the use of both extracorporal circulation and hypothermia for open heart surgery. Ann Thorac Surg 147: 603 16. Frey M von, Gruber M (1885) Untersuchung über den Stoffwechsel isolierter Organe. 1. Ein Respirationsapparat für isolierte Organe. Archiv für Physiologie. Physiologische Abteilung des Archives für Anatomie und Physiologie 6: 519–532 17. Schröder W von (1882) Über die Bildungsstätte des Harnstoffs. Archiv für Experimentelle Pathologie und Pharmakologie 15: 364–402 18. Zenker R (1961) Herzoperationen mit Hilfe der Herz-LungenMaschine. Zentralbl Chir 86: 193–199
Weiterführende Literatur Literatur 1. Le Gallois JJC (1812) Expériences sur le principe de la vie, notamment sur celui des mouvemens du coeur, et sur le siège de ce principe; suivies du rapport fait à la première classe de l’Institut sur celles relatives aux mouvemens du coeur. D’Hautel, Paris 2. Beck A (1925) Über Bluttransfusion. München Med Wochenschau 72: 1232 3. Bigelow WG, Lindsay WK, Greenwood WF (1950) Hypothermia – its possible role in cardiac surgery: an investigation of factors governing survival in dogs at low body temperatures. Ann Thorac Surg 132: 849 4. Brown-Séquard E (1858) Recherches expérimentales sur les propriétés physiologiques et les usages du sang rouge et du sang noir et leurs principaux éléments gazeux, l’oxygène et l’acide carbonique. Journal de la Physiologie de l’Homme et des Animaux 1: 95–122, 353–367, 729–735 (D’Hautel, Paris) 5. De Bakey ME (1934) Simple continuous-flow blood transfusion instrument. New Orleans Med S J 87: 386–389 6. Galetti PM, Brecher GA (1962) Heart-lung bypass: principles and techniques of extracorporeal circulation. Grune & Stratton, New York London 7. Gibbon JH Jr (1954) Application of a mechanical heart and lung apparatus to cardiac surgery. Minnesota Med 36:171–180 8. Jacobj C (1890) Apparat zur Durchblutung isolierter überlebender Organe. Archiv für Experimentelle Pathologie und Pharmakologie 26:388–391 9. Kay JP (1828) Physiological experiments and observations on the cessation of the contractility of the heart and muscles in the asphyxia of warm-blooded animals. The Edinburgh Medical and Surgical Journal 29: 37–66 10. Kirklin JW, Du Shane JW, Patrick RT (1955) Intracardiac surgery with the aid of a mechanical pump oxygenator system (Gibbon type): report of eight cases. Proceedings of Staff Meetings of Mayo Clinic 30: 201–207 11. Lewis FJ (1953) Closure of atrial septal defects with the aid of hypothermia. Experimental accomplishments and the report of one successful case. Surgery 33: 52 12. Lillehei WC (1955) Controlled Cross Circulation for direct Vision intracardiac surgery correction of ventricular septal defects, atrioventricularis communis, and tetralogy of Fallot. Postgrad Med 17: 388–396 13. Loebell CE (1849) De conditionibus quibus secretiones in glandulis perficiuntur. Dissertatio Inauguralis Marburgenis 14. Schmidt A (1867) Die Atmung innerhalb des Blutes. Zweite Abhandlung. Berichte über die Verhandlungen der königlichen sächsischen Gesellschaft der Wissenschaften zu Leipzig. Mathematisch-physische Classe 19: 99–130
Baraka HS, Baroody MA, Haroun ST (1992) Effect of α-stat vs. pH-stat strategy on oxyhemoglobin dissociation and whole-body consumption during hypothermic cardiopulmonary bypass. Anaest Analg 74: 32 Buckberg GD (1989) Antegrade/retrograde blood cardioplegia to ensure cardioplegic distribution: operative techniques and objectives. J Card Surg 4:216 Davidson KG (1986) Cannulation for cardiopulmonary bypass. Cardiopulm Bypass 5: 115–169 Döring V, Dose H, Pokar H (1991) Kardioplegie und Myokardprotektion. In: Plechinger H (Hrsg) Handbuch der Kardiotechnik, 2. Aufl. Fischer, Stuttgart New York, S 233 Hattersley TG (1966) Activated coagulation time of whole blood. JAMA 196: 436 Klövekorn WP, Meisner H, Sebening F (1991) Technische Voraussetzung der Herzchirurgie. Kirschnersche allgemeine und spezielle Operationslehre, Bd VI. Teil 2, 2. Aufl. Springer, Berlin, S 14–43 Kurusz M, Conti VR, Arens JF, Brown B, Faulkner SC, Manning JV (1986) Perfusion accident survey. Proc Am Acad Cardiovasc Perfusion 7: 57–65 Lauterbach G (1991) Oxygenatoren. In: Plechinger H (Hrsg) Handbuch der Kardiotechnik, 2. Aufl. Fischer, Stuttgart New York, S 233 Lauterbach G (Hrsg) (2002) Handbuch der Kardiotechnik, 3. Aufl. Urban & Fischer, München Jena Lo HB, Hildinger KH (1991) Schlauchsystem und Kanülen. In: Plechinger H (Hrsg) Handbuch der Kardiotechnik, 2. Aufl. Fischer, Stuttgart New York, S 233 Magner JB (1971) Complications of aortic cannulation for open heart surgery. Thorax 26: 172–273 McAlpine WA, Selman MW, Kawakami T (1967) Routine use of aortic cannulation in open heart operations. Am J Surg 114: 831–834 Mills NL, Ochsner JL (1980) Massive air embolism during cardiopulmonary bypass. J Thorac Cardiovasc Surg 80: 798–817 Mora CT (1995) Cardiopulmonary bypass. Principles and techniques of extracorporeal circulation. Springer, Berlin Heidelberg New York Tokyo Plechinger H (Hrsg) (1991) Handbuch der Kardiotechnik, 2. Aufl. Fischer, Stuttgart New York Taylor KM (1988) Cardiopulmonary bypass. Chapman & Hall, London Tschaut RJ (Hrsg) (1999) Extrakorporale Zirkulation in Theorie und Praxis. Pabst Science, Berlin Düsseldorf Leipzig
31 Einsatz von Stoßwellen in der Medizin F. Ueberle 31.1
Einleitung – die historische Entwicklung – 533
31.2
Physikalische Begriffserklärung: Akustik – Schallwellen – Druckpulse – Stoßwellen – 534
31.2.1 31.2.2
Wellenformen in der Schalltherapie – 534 Schallwellen: mechanische Wellen in Medien – 535 Definition von Stoßwelle und Druckpuls – 535 Mechanische Effekte von Schallwellen an Grenzflächen – 537 Mechanische Effekte von Schallwellen, die durch nichtlineare Erscheinungen in Medien verursacht sind – 539 Thermische Effekte durch die Schallwellen – 540
31.2.3 31.2.4 31.2.5
31.2.6
31.3
Das Schallfeld eines Lithotripters – Messtechnische Grundlagen – 541
31.3.1 31.3.2 31.3.3 31.3.4
Sensoren und Messtechnik – 542 Messparameter für Lithotripterschallfelder – 543 Energiegrößen im Schallfeld – 544 Was bedeuten die Druckpulsparameter für die Wirksamkeit der Lithotripsie? – 545 Welche physikalischen Effekte spielen bei der Steinzertrümmerung eine Rolle? – 547 Wirkungen der Druckpulse auf Gewebe – 548
31.3.5 31.3.6
31.1
Einleitung – die historische Entwicklung
Am 26.2.1980 wurde der erste Nierensteinpatient mit einer »extrakorporalen Stoßwellenlithotripsie (ESWL)« minimal invasiv von seinem Steinleiden befreit. Seit der Idee zu dieser revolutionären Behandlungsmethode waren ca. 10 Jahre Forschung und Entwicklung notwendig gewesen (Wess 2009). Die ersten Vorschläge zur Steinbehandlung mit Schall reichen bis in die 40er Jahre des 20. Jahrhunderts zurück, als eine englische Arbeitsgruppe sich in vitro bemühte, Gallensteine mit sinusförmigem Dauerschall (CW) bei 400 kHz mit 5–60 s Dauer zu zerkrümeln, sie hatten dabei in vitro in ca. 80% Erfolg (Lamport 1950). Diese und weitere Versuche führten jedoch bei in vivoVersuchen zu starken, für die Versuchstiere letalen Gewebsschädigungen, sodass sie 1956 endgültig aufgegeben wurden (Berlinicke 1951; Mulvaney 1953; Coats 1956). Die Entdeckung, dass Stoßwellen ohne direkte Schäden durch Weichteilgewebe weitergeleitet werden konnten, war einem Zufall zu verdanken, als 1966 ein Dornier-Techniker bei Arbeiten mit Hochgeschwindigkeitsgeschossen das Tar-
31.4
Erzeugung von Druckpulsen zur extrakorporalen Steintherapie (ESWL) und Schmerztherapie (ESWT) – 550
31.4.1 31.4.2 31.4.3
Punktförmige und flächige Schallquellen – 550 Erzeugung sphärischer Schallwellen – 550 Erzeugung ebener Schallwellen – 552
31.5
Praxis der Extrakorporalen Lithotripsie (ESWL) und der Extrakorporalen Stoßwellentherapie (ESWT) – 554
31.5.1 31.5.2
Systemkomponenten eines Lithotripters – 554 Ansätze zur Online-Zertrümmerungskontrolle während der Behandlung – 556
31.6
Der Patient – 557
31.6.1 31.6.2
Patientenlagerung bei der ESWL und ESWT – 557 Stein- und patientenabhängige Einflüsse – 557
31.7
Bewertung der klinischen Effizienz von Lithotriptoren – 558
31.7.1 31.7.2
Einfluss der Fokusgröße – 558 Nebenwirkungen und Sicherheit – 559
31.8
Fachgesellschaften für Lithotripsie und Schmerztherapie – 560
31.9
Zum Abschluss – 560 Literatur – 560
get berührte, als es gerade beschossen wurde (Hepp 1984). Er verspürte eine Art »elektrischen« Schlag, ohne dass es zu weiteren sichtbaren Schäden kam. Das Phänomen der Weiterleitung von Stoßwellen in Gewebe wurde bis 1971 von Dr. Hoff bei Dornier System in Friedrichshafen untersucht. Im Rahmen einer Zusammenarbeit wurde von Prof. Häusler (Saarbrücken) die Idee aufgebracht, mit Schallpulsen, die von verteilten Schallquellen durch das Körpergewebe übertragen werden, Steine zu zertrümmern. Die folgenden Forschungsarbeiten führten schnell weg von den ursprünglich unfokussierten, von Hochgeschwindigkeitsgeschoss-Einschlägen erzeugten Stößen zu fokussierten Stoßwellen, die durch eine Funkenstrecke erzeugt wurden (Rieber 1951). Nachdem 1972 die Unterstützung von Prof. Schmiedt am Klinikum Grosshadern der Universität München, mit seinen Mitarbeitern Prof. Chaussy (München) und Prof. Eisenberger (Stuttgart) gewonnen wurde, konnten Fördermittel des Bundes eingeworben werden, um die nachfolgenden Tierexperimente sowie später die Entwicklung einer leistungsfähigen Ortung zu ermöglichen. Nach den ersten Behandlungen von ca. 200 Patienten konnte 1983 das erste Seriengerät in Stuttgart der Öffent-
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _31, © Springer-Verlag Berlin Heidelberg 2011
534
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
⊡ Tab. 31.1. Übersicht über etablierte und in Erprobung befindliche Anwendungen von Druckpulsen und Stoßwellen Anwendung
Klinische Untersuchungen seit
Literatur
Lithotripsie der Harnwege (Niere, Ureter)
1980/ 1983
(Chaussy 1980)
Gallenlithotripsie
1985
(Sauerbruch 1986)
Gallengang-Lithotripsie
1985
(Sauerbruch 1989) (Delhaye 1992)
Pankreasgang-Lithotripsie
III
(Sauerbruch 1987)
Speicheldrüsen-Lithotripsie
1989
(Iro 1989)
Behandlung von verzögerter Knochenbruchheilung (Pseudarthrose)
1989
(Valchanou 1991)
Stoßwellen -Wirkung auf Tumore (mit und ohne zusätzliche Zellgifte)
1989
(Delius 1999)
Behandlung von Verkalkungen im Sehnenansatzbereich der Schulter (Tendinosis calcarea)
1993
(Loew 1993)
Schmerzbehandlung im Sehnenansatzbereich (Tennisellenbogen, Fersenspornschmerzen, Schulterschmerzen)
1992
(Dahmen 1992) (Rompe 1996)
Therapie von spastischen Bewegungseinschränkungen
1994
(Lohse-Busch 1997)
Stoßwellen -induzierte Transfektion von Zellen
1995
(Delius 1995) (Tschoep 2001)
Induratio Penis Plastica (Peyronie’s Disease)
1997
(Michel 2003)
Behandlung von Durchblutungsstörungen der Herzkranzgefäße
2002
(Nishida 2004)
⊡ Abb. 31.1. Das erste Seriengerät Dornier HM3 zur extrakorporalen Lithotripsie wurde 1983 eingeführt. Der Patient wurde zur Behandlung in eine wassergefüllte Wanne gebracht . Die Behandlung erfolgte anfangs unter Anästhesie.
lichkeit übergeben werden. Von der ursprünglich auf Nierensteine beschränkten Anwendung wurde das Verfahren zügig auf Steine im gesamten Harntrakt erweitert. 1985 begannen Versuche zur Gallenlithotripsie, die heute in bestimmten Fällen1 ebenfalls als minimal invasive extrakorporale Methode eingesetzt wird, obwohl sie durch Einführung der minimal invasiven Cholezystektomie stark an Bedeutung verloren hat.
Seither wird der medizinische Anwendungsbereich dieser Energieform kontinuierlich erweitert (⊡ Tab. 31.1). Die »Extrakorporale Stoßwellentherapie (ESWT)« zur Behandlung von Weichteilschmerzen ist nach einer weltweiten klinischen Evaluierung für Anwendungen bei Plantarfasziitis (Ogden 2001; FDA 2002-1) und Epicondilytis humeri radialis (Pettrone 2002; FDA 2002-2) in den USA und anderen Ländern zugelassen. Die verwendeten Schallquellen und Systeme bei ESWL und ESWT sind eng verwandt – kein Wunder, da die ersten Versuche zur ESWT auf konventionellen Nieren- bzw. Gallen-Lithotriptern stattfanden. In neuerer Zeit wird der Einsatz von Stoßwellen zur Anwendung Biotechnischer Heilmittel mit aussichtsreichen Vorergebnissen erprobt, da man herausgefunden hat, dass es unter dem Einfluss von Stoßwellen-induzierter Kavitation zu einer kurzzeitigen Öffnung von Zellmembranen kommen kann. Während der Öffnungszeit können dann Moleküle in die Zellen eindringen (Delius 1995; Tschoep 2001; Ueberle 2000; Michel 2002; Coussios 2008). Aufgrund der engen Verwandtschaft der »ESW«-Disziplinen kann in der folgenden technischen Beschreibung weitgehend auf das Vokabular und die Erkenntnisse der ESWL zurückgegriffen werden.
31.2
Physikalische Begriffserklärung: Akustik – Schallwellen – Druckpulse – Stoßwellen
31.2.1 Wellenformen in der Schalltherapie 1
Beschränkungen sind: Ein bis maximal drei Steine, Steinmasse entsprechend max. 3 cm³, Motilität der Gallenblase gesichert. Weitere Indikationen sind Gallengangsteine sowie Pankreas-Steine, insbesondere bei multimorbiden Risiko-Patienten. Üblich ist eine begleitende Behandlung mit Litholyse-Medikamenten.
Die einfachste Schallwellenform ist eine sinusförmige Abfolge von Überdruck- und Unterdruckphasen. Man kann ihr – im Gegensatz zur Stoßwelle – eine eindeutige
535 31.2 · Physikalische Begriffserklärung: Akustik – Schallwellen – Druckpulse – Stoßwellen
⊡ Abb. 31.2. Eine typische Stoßwelle ist gekennzeichnet durch einen Druckstoß mit extrem kurzer Anstiegszeit tr, auf den ein exponentieller Abfall folgt. Danach folgt eine Unterdruckphase von wenigen Mikrosekunden Dauer
⊡ Abb. 31.3. Schallwellen breiten sich in flüssigen und gasförmigen Medien als Dichtewellen (Longitudinalwellen) aus
Schallfrequenz zuordnen. Ist diese Frequenz höher als ca. 16.000 Schwingungen pro Sekunde, so spricht man von Ultraschall. Verwendet man – wie z. B. bei diagnostischen Ultraschallgeräten – nur einen kurzen Zeitausschnitt von einer oder wenigen Signalperioden Länge, so kann man dies als Schallpuls bezeichnen. Ein Druckpuls besteht typisch aus einem einzigen Überdruckstoß, dem nach einem exponentiellen Abfall auf Umgebungsdruck innerhalb 1 bis 5 μs eine Unterdruckphase von einigen Mikrosekunden Dauer folgt (⊡ Abb. 31.2). Ist die Anstiegszeit des Druckpulses ausreichend kurz (wenige Nanosekunden), so spricht man von einer Stoßwelle. Danach herrscht – bis zur nächsten Welle nach etwa einer Sekunde – wieder Umgebungsdruck.
porale Stoßwellentherapie eine untergeordnete Rolle und sollen hier nicht weiter diskutiert werden.
Akustische Eigenschaften von Medien Medien unterscheiden sich durch ihre mechanischen Eigenschaften wie Elastizität und Kompressibilität. Sie bestimmen die Ausbreitungsgeschwindigkeit des Schalls c sowie den Wellenwiderstand, genannt akustische Impedanz Z=ρ×c, das Produkt aus Dichte ρ und Schallgeschwindigkeit c. ⊡ Tab. 31.2 enthält einige Werte biologischer Materialien, ⊡ Tab. 31.3 fasst bekannte Daten verschiedener Steine zusammen.
31.2.3 Definition von Stoßwelle 31.2.2 Schallwellen: mechanische Wellen
und Druckpuls
in Medien Eine Schallwelle ist eine mechanische Welle, die sich in einem Medium, z. B. Gas, Flüssigkeit oder Festkörper ausbreiten kann. Im Medium ändern sich bei der Wellenausbreitung lokal in geringem Maß die Abstände von Molekülen. Speziell in Flüssigkeiten und Gasen breiten sich Wellen als Dichtewellen aus (⊡ Abb. 31.3). In festen Medien sind auch andere Wellenformen wie Transversalwellen, Dehnwellen, Oberflächenwellen etc. ausbreitungsfähig. Diese Formen spielen für die extrakor-
Wissenschaftlich definiert ist eine Stoßwelle also eine mechanische Welle in einem Fluid (Flüssigkeit oder Gas), an deren Wellenfront der positive (Über)druck innerhalb weniger Nanosekunden (10-9 s) vom Umgebungsdruck auf den Maximaldruck (Amplitude) ansteigt. Ursache dafür sind die nichtlinearen Eigenschaften von Fluiden, die unter Überdruckbeaufschlagung zu einer lokalen Erhöhung der Schallgeschwindigkeit führen. Dadurch holen zeitlich spätere Überdruckanteile zunehmend zur Front auf. Der Effekt erreicht seine Sättigung, wenn sich Auf-
31
536
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
⊡ Tab. 31.2. Akustische Eigenschaften einiger wichtiger Medien (Kuttruff 1988; Stranne 1990)
III
Material
Dichte kg/m³
Schallgeschwindigkeit m/s
Impedanz Ns/m³
Luft
1,293
331
429
Wasser
998
1483
1,48×106
Fettgewebe
920
1410–1479
1,33×106
Muskelgewebe
1060
1540–1603
1,67×106
Knochen
1380–1810
2700–4100
4,3–6,6×106
Niere
1038
1560
1,62×106
Blut
1025
1570
1,61×106
⊡ Tab. 31.3. Mechanische und akustische Parameter einiger Steinmaterialien (Ausführliche Daten besonders für Nierensteine sind in Heimbach 2000 veröffentlicht) Material
Druckstärke/ MPa
Zugstärke/ MPa
Vikers Härte/ kg mm-²
Schallgeschwindigkeit/ m s-1
Dichte/ g cm-³
Impedanz/ 106 Rayl
Energie zur Zertrümmerung mJ/ cm³
Literatur
11
1,4
18,8
2096–3195
1,1
2,4–3,7
1599–1764
(Granz 1992) (Heimbach 2000) (Koch 1989)
5800
(Hepp 1989)
22.500
(Hepp 1989)
67.000
(Hepp 1989)
Modellsteine Gipssteine mit 10% Microsphere Beimischung Calcitsteine Graphit
2400
1,8
4,1
Glimmer Glas
4500–5900
2,2
10–16
1500
(Hepp 1989)
Glasmurmeln
5100
2,24
11,4
3669
(Delius 1994)
Tonsteine
4300
1,7
7,4
620–670
(Delius 1994)
1700–2100
1,1–1,5
1,9–3,1
8050 (4336– 17.850)
(Koch 1989) (Delius 1994)
2600–3800
1,8–3,0
4,8–7,8
Gallensteine
2,2–3,2
0,4–1,0
Nierensteine: MagnesiumAmmoniumphosphat
8
0,6
Tricalciumphosphat
4,8
0,6
22–40
2050
(Delius 1994)
(Chaussy 1980) (Singh 1990)
(Chaussy 1980)
Harnsäure
1,8
31,2–41,6
3318–3471
Calciumoxalat
1,1
98–125
3000
(Chaussy 1980) (Singh 1990)
1875–3390
(Chuong 1992)
Vermischte Daten von CaOx, Ca Apatit, Mg Amn Phos
2,0–17,6
0,1–3,4
1,48–1,54
5,4–6,2
(Chaussy 1980) (Heimbach 2000)
537 31.2 · Physikalische Begriffserklärung: Akustik – Schallwellen – Druckpulse – Stoßwellen
steilung und Dissipation die Waage halten. Nur dann ist es physikalisch korrekt, von einer Stoßwelle zu sprechen. Neben der direkten Erzeugung einer Stoßwelle durch eine Schallquelle, die sich im Fluid mit Überschallgeschwindigkeit bewegt, wird eine Stoßwelle auch durch Aufsteilung einer ausreichend starken Überdruckwelle erzeugt. Dies kann z. B. im konvergierenden Schallfeld eines Lithotripters geschehen. Heute therapeutisch übliche Druckamplituden betragen zwischen 10 MPa und mehr als 100 MPa (Mega-Pascal, 1 MPa=10 Bar, also etwa der 10-fache Atmosphärendruck). Da sich diese Stoßwelle – wie alle Schallwellen – mit einer vom Ausbreitungsmedium und der Intensität der Stoßwelle bestimmten Geschwindigkeit ausbreitet, kann man eine »Stoßfrontdicke« berechnen. Dies ist die räumliche Ausdehnung zwischen dem Ort, an dem (noch) Umgebungsdruck herrscht, und dem Ort, an dem die Druckamplitude erreicht ist. In Gewebe beträgt diese Stoßfrontdicke z. B. 1,5 bis 6 μm (Mikrometer, 10-6 m). Beim Durchgang der Welle z. B. durch eine Zellwand, die wenige Moleküllagen dick ist, können deshalb bereits merkliche Kräfte auf die Wand ausgeübt werden, da vor und hinter der Wand augenblicklich Druckunterschiede herrschen. Der Druckgradient, d. h. die Änderung des Drucks zwischen zwei Orten, ist bei einer gegebenen Wellenamplitude in der Stoßfront im Vergleich zu anderen Schallsignalformen, z. B. sinusförmigem Leistungsultraschall, besonders groß. An dieser Stelle soll noch auf eine verbreitete Ungenauigkeit bei der Begriffsverwendung hingewiesen werden: Nicht alle »Stoßwellen« im umgangssprachlichen Sinn sind nämlich im oben beschriebenen physikalischen Sinn Stoßwellen, da ihre Anstiegszeit oft auch größer als wenige Nanosekunden ist. Man verwendet dafür korrekterweise den Begriff »Druckpulse« gemäß IEC 61846 (IEC 1998). Auf die Probleme, solch schnelle Druckanstiege überhaupt zu messen, wird weiter unten eingegangen.
31.2.4 Mechanische Effekte von Schallwellen
an Grenzflächen Beim Durchgang von Schallwellen durch eine Grenzfläche zwischen zwei Medien kann bei unterschiedlicher Impedanz (Schallwiderstand der Medien) die Schallfortpflanzung erheblich verändert werden. Meist genügt zur Charakterisierung der Medieneigenschaften die Angabe des Betrags der Schallimpedanz, der sich als Produkt aus Mediendichte und Schallgeschwindigkeit berechnet.
Transmission und Reflexion von Schallwellen Sind die Impedanzen der Medien unterschiedlich, z. B. beim Übergang von Fett- in Muskelgewebe, so wird ein Teil der Schallenergie in das Einfallsmedium 1 reflektiert. Der Rest der Schallenergie wird in das Medium 2 weitergeleitet. Dass der transmittierte Schallanteil je nach Medium wie z. B. Knochen schon deutlich geschwächt sein kann, zeigen die Beispiele in ⊡ Tab. 31.4. Eine weitere, sehr wichtige Eigenschaft der reflektierten Schallwelle kann man aus der Reflexionsformel ebenfalls entnehmen: Ist die Impedanz des 2. Mediums geringer als die des ersten, so erhält der reflektierte Druck ein negatives Vorzeichen. Das bedeutet, dass ein Überdruckstoß nach Reflexion als Unterdruckstoß in Medium 1 geleitet wird. Bei ebenen Grenzflächen und vollständiger Reflexion kann die reflektierte Amplitude die gleiche, aber negative Höhe des ursprünglichen Schalldrucks erreichen. Der Druckgradient an der Grenzfläche nimmt in diesem Fall die doppelte Höhe der im homogenen Medium laufenden Welle an. Es gelangt keine Energie in das Medium 2. Dies geschieht besonders an allen Grenzflächen zwischen Gewebe und Luft, also z. B. am Übergang zu Lungengewebe. Da an
⊡ Tab. 31.4. Rechenbeispiele für reflektierte und transmittierte Schallenergie an Mediengrenzflächen gemäß der Reflexionsformel für den Druck r = (Z2-Z1)/(Z2+Z1) mit den Impedanzbeträgen der beiden Medien Z1 und Z2 Grenzfläche
Reflektierter Druck
Reflektierte Schallenergie
Transmittierte Schallenergie
Wasser – Fettgewebe
–5%
0,3%
99,7%
Fettgewebe – Muskelgewebe
11%
1,3%
98,7%
Muskelgewebe – Fettgewebe
–11%
1,3%
98,7%
Muskelgewebe – Knochen
44–60%
19–36%
81–64%
Muskelgewebe – Modellstein
18–38%
3–14%
97–86%
Modellstein – Muskelgewebe
–18– –38%
3–14%
97–86%
Muskelgewebe – Luft
–99,95%
99,9%
0,1%
31
538
III
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
dieser Grenzfläche fast die gesamte Energie reflektiert wird, ist das Gewebe ab einer gewissen Wellenamplitude nicht mehr in der Lage, den Kräften standzuhalten und zerreißt. Wird der Fokus eines Druckpuls-Geräts also auf Lungengewebe gerichtet, so sind starke Schäden zu erwarten. Ähnliches gilt für die Oberfläche anderer gasgefüllte Körperhohlräume wie z. B. Gasblasen, die an die Darmwand angrenzen sowie mitunter die Haut/ Luftgrenze auf der dem Schalleintritt gegenüberliegenden Körperseite. Befinden sich Luftbläschen an der Einkoppelstelle der Schallwelle in den Körper, so kommt es auch dort oft zu Petechien (kleinen Einblutungen). Mediziner betonen daher die besondere Bedeutung einer guten Ankopplung der Stoßquelle an den Körper (Lingeman 2009). Der Effekt der Druckumkehr findet übrigens noch an einer weiteren in der Lithotripsie wichtigen Grenzfläche statt: Wenn nämlich die in ein Konkrement transmittierte Schallwelle das Material auf der Rückseite verlässt. Auch hier wird wiederum ein Teil in das Konkrement reflektiert – diesmal mit negativem Vorzeichen, da das Gewebe hinter der Konkrementrückseite eine geringere Impedanz als das Steinmaterial hat. Diese reflektierte Welle überlagert sich mit »späteren« Unterdruckanteilen der einfallenden Welle, sodass auf die Rückseite des Konkrements besonders starke Zugkräfte wirken. Dieser nach Hopkins benannte Abplatzeffekt (engl.: spallation) konnte z. B. bei In-vitro-Experimenten mit Modellsteinen in einer Lammschulter beobachtet werden (⊡ Abb. 31.4, Loew 1994; Zhong 1994; Rassweiler 2010).
Am Strahlerrand aller Schallsender sowie an Störkonturen wie Inline-Scannern (s. unten) etc. entsteht die so genannte Randbeugungswelle. Dieser bei endlich ausgedehnten Strahlern unvermeidliche Wellenanteil äußert sich v. a. auf der Strahlerachse und in der Fokusregion als Unterdruck, der dem primär abgestrahlten Überdruckstoß folgt, auch wenn vom Strahler zunächst nur eine Überdruckwelle abgestrahlt wird.
Brechung von Schallwellen an Grenzflächen
Absorption und Dämpfung
Eine Welle, die schräg unter einem bestimmten Winkel aus einem Medium in ein anderes einfällt, läuft je nach den verschiedenen Ausbreitungsgeschwindigkeiten in einem anderen Winkel in dem zweiten Medium weiter. Man nutzt diesen Brechungseffekt – analog zur Optik – zum Aufbau akustischer Linsen zur Fokussierung von Schall. Der Brechungseffekt kann auch an Gewebegrenzflächen sowie beim Übergang von der Koppelflüssigkeit der Schallquelle in den Patienten auftreten. Er wird als Hauptgrund für eine »Verschmierung« des Fokus im Patienten sowie für mögliche Missweisung zwischen Ortung und Druckpulsquelle angesehen (Ueberle 1988; Folberth 1990; Vergunst 1989, 1990).
Absorption und Dämpfung von Schallwellen führen in jedem Gewebe zu einem Energieverlust des Signals. Da die Dämpfung frequenzabhängig ist (i. d. R. 0,5– 0,7 dB cm-1 MHz-1, was einer Abschwächung des Drucks einer 1 MHz – Welle auf die Hälfte innerhalb von 12 cm entspricht), äußert sie sich nicht nur in der Abnahme der Schallamplitude, sondern auch durch Signalveränderungen (Vergunst 1989). Positive Druckpulsanteile werden bei (Nierensteintypischen) Eindringtiefen von 100 bis 120 mm um 15–30% verringert (Cleveland 1998). Dagegen wird bei den Unterdruckamplituden P- lediglich eine Abnahme um 6% beobachtet (Coleman 1995). Dies ist zu erklären aus dem Frequenzgehalt des Unterdruckanteils (z. B. 5–8 μs Dauer, vgl. ⊡ Abb. 31.9), der eher sinusförmig verläuft, nicht aufsteilt und im Wesentlichen Frequenzen zwischen 120 und 200 kHz enthält. Im Gegensatz dazu haben die Überdruckanteile durch die nichtlineare Aufsteilung ein sägezahnförmiges Aussehen und enthalten Frequenzanteile bis in den hohen Megahertz-Bereich, welche besonders stark durch die frequenzabhängige Dämpfung abgeschwächt werden.
Beugung von Schallwellen An einer Kante wird – ebenfalls wie in der Optik – Schall gebeugt. Ein gewisser Anteil des Schalls breitet sich also nicht geradlinig aus, sondern wird um die Kante herum gelenkt.
⊡ Abb. 31.4. Trifft eine Schallwelle auf eine Grenzfläche zwischen zwei Medien, so wird ein Teil der Schallenergie reflektiert. Ist die Impedanz des zweiten Mediums geringer als die des ersten, so ändert sich die Polarität der reflektierten Welle: aus Überdruck wird Unterdruck und umgekehrt.
539 31.2 · Physikalische Begriffserklärung: Akustik – Schallwellen – Druckpulse – Stoßwellen
31.2.5 Mechanische Effekte von Schallwellen,
die durch nichtlineare Erscheinungen in Medien verursacht sind Bisher gingen wir bei der Erläuterung der Schallwellenfortpflanzung von Medien aus, deren Eigenschaften sich auch bei hohen Schallamplituden nicht verändern, die also linear sind. In der Natur verhalten sich jedoch alle Medien nicht linear, daher sollen im Folgenden nichtlineare Effekte besprochen werden.
Aufsteilung der Überdruckanteile von Schallwellen Hohe lokale Überdrucke erzeugen in den Medien eine starke lokale Kompression und somit eine lokale Dichteerhöhung. Gleichzeitig wird aufgrund der elastischen Medieneigenschaften auch die Schallgeschwindigkeit lokal erhöht. Dadurch schließen zeitlich später folgende Schallanteile während der Laufzeit zu der Front auf, sodass sich schließlich eine ideal steile Stoßfront ausbildet. Dies geschieht bei ausreichend hohen Überdruckamplituden auch bei einer Welle, die zunächst einen nur allmählichen Anstieg hat. Die Zeitdauer bis zur vollständigen Aufsteilung hängt ab vom Druck der Schallwelle, der Fokussierung, und den Medieneigenschaften, insbesondere dem Nichtlinearitätskoeffizienten. Bei Medien mit geringer Dämpfung wie z. B. in Wasser wird die Aufsteilung schon bei recht geringen Energieeinstellungen der ESW-Geräte auf dem Weg zum Fokus erreicht. Im Gewebe werden jedoch gerade die schnellen Druckänderungen, die sich als hohe Frequenzen im Schallsignal beschreiben lassen, stark gedämpft. Daher ist anzunehmen, dass zur Aufsteilung bis zum Fokus in Gewebe ein längerer Laufweg bzw. höhere Drucke notwendig sind.
Erzeugung und Anregung von Kavitation Unter Kavitation versteht man das Auftreten von gasgefüllten Hohlräumen in einem flüssigen Medium. Stabile Kavitationsblasen befinden sich im Gleichgewicht, wenn der Dampfdruck im Inneren der Blase und der äußere Druck der Flüssigkeit gleich groß sind. Überschreitet der Unterdruck einer Schallwelle den Schwellwert, der sowohl frequenzabhängig (Kuttruff 1988) wie medienabhängig ist, so können auch in homogenen Medien chemische Bindungskräfte überschritten werden, und es bilden sich Kavitationsblasen. Für Gewebe wird als Zerreißschwelle anhand theoretischer Überlegungen –16 MPa angegeben (Herbertz 1996; Church 1999), bei Lithotripsien werden aber bereits bei geringeren Unterdrücken Kavitationserscheinungen beobachtet, hauptsächlich in Steinnähe sowie in Gefäßen (Fedele 2004). Durch den Unterdruckanteil der Schallwelle entsteht ein weiterer Kavitationseffekt: Mikroblasen wie z. B. die Reste
der kollabierten Blase vergrößern sich während des Unterdrucks. Sie erreichen dabei u. U. eine stabile Größe, die bis zu 3 Größenordnungen über der Keimgröße sein kann und die sich über mehrere hundert Mikrosekunden hält. Bei solchen stabilen Blasen folgt eine Oszillationsphase bis zur endgültigen Größenreduktion. Jeweils zu den Zeitpunkten, zu denen die Blasen dabei ihre minimale Größe erreichen, strahlen sie Schallwellen in die Umgebung ab, die so genannten Kollapswellen. Danach vergrößern sie sich wiederum. Die maximale Blasengröße wie auch Anzahl der Oszillationen hängt stark von dem umgebenden Medium ab. Die Blasen sind bisweilen nach über einer Sekunde noch nachweisbar (Ueberle 1988). In großen Blutgefäßen konnten Blasenwolken mit bildgebendem Ultraschall beobachtet werden (Delius 1992). Durch einen extrakorporal angebrachten Sensor werden auch während einer Lithotripsie bereits Blasenkollapswellen gemessen (Coleman 1996; Fedele 2004). Trifft eine Stoßwelle auf eine Kavitationsblase, so bewirkt der erhöhte Außendruck ein Schrumpfen der Blase, wobei sie einen Teil der Schallenergie aufnimmt (Iloreta 2007). Waren die anregenden Kräfte und Energien groß genug, so führt dies zum erzwungenen Blasenkollaps. Dabei wird ein Teil der in der Blase gespeicherten Energie als neue akustische Welle an das Medium abgegeben. Sind die Blasenradien ca. 500 μm, so wird beim erzwungenen Kollaps die meiste Energie freigesetzt. Dies gilt in Wasser und bei typischen in der Lithotripsie eingesetzten Stoßwellen. Die Blasen zerfallen etwa 2–3 μs nach Durchgang der Stoßwelle. Der entstehende Kollapsdruck ist ca. 1/10 des Stoßwellendrucks, seine Zeitdauer beträgt typisch 30 ns. Somit ist also die Schallenergie der kollabierenden Blase um den Faktor 1000 geringer als die der anregenden Stoßwelle. Größere Blasen zerfallen nicht so »hart«, weil sie durch die Unterdruckphase der Stoßwelle abgebremst werden. Durch das einseitige Auftreffen der Stoßwelle sowie insbesondere in der Nähe von Grenzflächen zerfällt die Blase asymmetrisch und schickt dabei einen Wasserjet in Richtung der Oberfläche (⊡ Abb. 31.5). Der Wasserjet kann in Wasser Geschwindigkeiten von 400 bis über 800 m/s erreichen, die zur Perforation von Aluminiummembranen und Kunststoffen ausreichen. Durch die lokalen Effekte beim Blasenkollaps können Effekte in Gewebe wie nadelförmige Blutungen (Petechien) hervorgerufen werden. Auf Zellebene wurde die Erhöhung der Permeabilität von Zellwänden auf Kavitation zurückgeführt (Schelling 1994; Ueberle 2000; Wolfrum 2004). Anfang der 90er Jahre wurde die Frage untersucht, ob durch den Blasenzerfall freie Radikale erzeugt werden. Diese konnten bisher in vitro nur im Extrazellularraum nachgewiesen werden. Über eine Induktion von freien Radikalen in der Zelle in vivo wurde kontrovers diskutiert (Suhr 1991; Gambihler 1992). Heute ist die Expertenmeinung, dass keine freie Radikale direkt in Zellen auftreten. Die Wahrscheinlichkeit, dass sie durch Öffnungen in Zel-
31
540
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
len hineingelangen, wird als äußerst gering eingeschätzt (HPA 2010). Jede Druckpulsquelle erzeugt neben den gewünschten Überdruckstößen auch einen gewissen Unterdruckanteil, wie später noch erläutert wird. Durch das Unterdrucksignal der Schallquellen werden Blasenkeime von einigen Mikrometern zu Blasen mit mehreren hundert Mikrometern Radius vergrößert, es werden durch Aufreißen der Flüssigkeit an diesen Keimen also wirksame neue Kavitationsblasen generiert. Die genauen Grenzwerte dafür sind allerdings nicht definiert. Für Wasser findet man je nach Reinheitsgrad und Gasgehalt zwischen –0,5 und –20 MPa. Für Gewebe wurde theoretisch eine Schwelle von –12 bis –16 MPa abgeschätzt (Herbertz 1993). Die Pulsdauer des Unterdrucksignals spielt ebenfalls eine wichtige Rolle, je kürzer sie ist, desto höhere Zugamplituden hält das Gewebe aus. Im Tierversuch wurden bereits bei ca. –1,5 MPa Schäden am Gedärm von Mäusen beobachtet (Miller 1994). Besonders Lungengewebe ist sehr leicht verletzbar (Delius 1987). Von High-Speed-Photos ist bekannt, dass in Wasser auf der Schallachse bereits weit vor dem Fokus Kavitationsblasen beobachtet werden können (Keller 1990). Es gibt auch neuere Messungen während Steinbehandlungen, die das Vorhandensein von Kavitation in der Steinumgebung zeigen (Jordan 1998; Fedele 2004). In welcher Stärke Kavitation auch in anderem Gewebe auftritt, ist weiterhin Gegenstand der Forschung. Im Gewebe verhalten sich Kavitationsblasen deutlich anders als im freien Wasser, wo sie mehrere Millimeter Durchmesser erreichen. Kavitation im Gewebe tritt am wahrscheinlichsten in Gefäßen und Kapillaren auf, deren Durchmesser bei 100 μm liegt. Bereits nach der ersten Stoßwelle ziehen sich diese Gefäße weiter zusammen (Delius 1990). Es ist zu erwarten, dass die Blasengröße im Gewebe durch die Wände der Gefäße beschränkt wird (Delius 1987, 1990; Zhong 2001). Der Kollaps solcher kleineren Blasen erfolgt entsprechend weniger gewaltvoll. Delius (Delius 1997) fand heraus, dass bereits ein geringer statischer Überdruck von 0,1 MPa Kavitation erfolgreich unterdrücken kann. Zur Vermeidung unerwünschter Nebenwirkungen, die sich durch Kavitationsbildung und deren Interaktion mit nachfolgenden Stoßwellen ergeben, muss die maximale Pulsfolgefrequenz der Stoßwellen beschränkt werden (Wiksell 1995). Neben verringerten Schäden ist auch die Anzahl der Stöße zur Zertrümmerung deutlich geringer, wenn man die Pulsfolgefrequenz zu 60/min oder evtl. sogar darunter wählt (Pace 2005; Lingeman 2009).
III
31.2.6 Thermische Effekte durch die
Schallwellen ⊡ Abb. 31.5. Wird eine Kavitationsblase von einer Stoßwelle getroffen, so kollabiert sie mit einem Wasserjet in Richtung der Schallausbreitung (nach Philipp 1993)
Die Pulsdauer einer klinischen Stoßwelle ist sehr kurz, i. d. R. dauert sie 3 bis 5 Mikrosekunden. Dabei wird eine Schallspitzenleistung von über einem Megawatt erreicht.
541 31.3 · Das Schallfeld eines Lithotripters – Messtechnische Grundlagen
Die durchschnittliche Schallenergie pro Puls ist in der gesamten Fokusregion zwischen 10 und 150 mJ. Abhängig von Pulsintensität, Energieeinstellung des Geräts, Wiederholrate, Steinmaterial und Wärmeabfuhr durch das umgebende Medium kann während einer Behandlung eine Erwärmung des Steins erfolgen. In vitro wurden maximal 1,5°C gemessen (Lovasz 1999).
31.3
Das Schallfeld eines Lithotripters – Messtechnische Grundlagen
Bei der Beschreibung des Schallfelds werden vornehmlich die Parameter diskutiert, mit denen man in der Praxis häufig konfrontiert wird. Die Korrelation dieser durch
die internationale Messtechnik-Norm IEC 61846 dokumentierten Parameter zur Steinzertrümmerung wird in ⊡ Tab. 31.6 zusammengetragen. Die für die Steinzertrümmerung wichtigste Messgröße ist die akustische Energie, die auf das Konkrement wirkt (Lobentanzer 1991; Forssmann 2002; Lingeman 2009; Rassweiler 2005). Die biologische Bedeutung dieser Parameter ist weniger gut bekannt, Ansätze werden in einem späteren Kapitel diskutiert. Die erforderlichen Schallmessungen werden normgemäß – und mangels geeigneten Gewebephantoms – in entgastem Wasser durchgeführt. Da Wasser gegenüber Gewebe geringere Dämpfung und andere Nichtlinearitätsparameter aufweist, sind die Messwerte auf den individuellen Patienten nur bedingt übertragbar. Bei größeren
⊡ Tab. 31.5. Hydrophone für Lithotriptermessungen Sensor Typ
Vor-/Nachteile
Verwendet seit
Literatur
Piezokeramischer Sensor
+ Einfache Benutzung + Lange Standzeit – Wenig naturgetreue Signalwiedergabe
1970
Hydrophone zur Qualitätskontrolle (z. B. Langzeitstabilität von Lithotriptern)
PVDF Membransensor
+ Gute Signalwiedergabe – Kurze Standzeit – Teuer
ca. 1982
(Coleman 1990) (Schafer 1993) »Focus hydrophone« gemäß IEC 61846; »Reference hydrophone« gemäß FDA (FDA 1991)
Kontaktloser PVDF Membransensor
+ Lange Standzeit – Vergleichsweise große effektive empfindliche Zone
1992
(Schätzle 1992)
PVDF needle (IMOTEC)
O Brauchbare Signalwiedergabe + Lange Standzeit + Relativ günstiger Preis – P- Wiedergabe unpräzise
1987
(Müller 1985 und 1990) Meistbenutzter Hydrophontyp in den letzten 15 Jahren; »Field hydrophone« gemäß IEC 61846
Faseroptisches Hydrophon auf Basis der Messung von Dichteunterschieden des Mediums
+ Gute Signalwiedergabe + Extrem langlebig, Faser kann einfach präpariert werden + Preis pro Messung günstig + Gute Wiedergabe des Unterdrucks – Handhabung erfordert Erfahrung
1988
(Staudenraus 1993) »Focus Hydrophone« und »Field hydrophone« gemäss IEC 61846
Faseroptisches Hydrophon nach dem InterferometerPrinzip
+ Gute Signalwiedergabe + Gute Wiedergabe des Unterdrucks + Kann in vivo verwendet werden – Handhabung erfordert Erfahrung ? Kurze Standzeit der Faserbeschichtung
1998
(Koch 1997, Coleman 1998)
Lichtpunkt-Hydrophon (LSHD)
+ Gute Signalwiedergabe + Gute Wiedergabe des Unterdrucks + Robust und dauerhaft, Glasblock leicht auszuwechseln, bei Schaden reicht oft ein Nachjustieren, ohne den Messort verlassen zu müssen + Kalibrierung jederzeit überprüfbar – relativ großer Messkopf
2004
(Granz 2004; Ueberle 2006; Smith 2010)
Stahlkugel-Sensor
– Signalwiedergabe nicht naturgetreu + Sehr langlebig + Preis pro Messung günstig
1991
(Pye 1991) Für Qualitätskontrolle sowie zum Messen von Kavitations-Signalen
Kapazitiver StahlflächenSensor
– Signalwiedergabe nicht naturgetreu + Sehr langlebig + Preis pro Messung günstig
1990
(Filipiczinsky 1990) Für Qualitätskontrolle
31
542
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
Strecken im Gewebe können die Schallsignale von der Gewebeschichtung, der Dämpfung und der Nichtlinearität beeinflusst werden. Man kann i. d. R. von einer deutlichen Dämpfung der Amplituden sowie von einer Verringerung hochfrequenter Schallanteile ausgehen, was längere Anstiegszeiten der Wellen sowie eine für jeden Fall individuelle Veränderung der Fokusgeometrie zur Folge haben kann (Vergunst 1989, 1990; Steiger 1998).
III 31.3.1 Sensoren und Messtechnik
Auch heute noch werden Sensoren für die Lithotripsie entwickelt. Die wichtigsten Anforderungen an Sensoren für Druckpulswellen sind: ▬ Kleiner effektiver Durchmesser, um auch stark fokussierte Schallfelder vermessen zu können, bei denen die Schalldruckamplitude um mehr als 50% innerhalb von 2–5 mm variiert. ▬ Breitbandig von kleiner als 100 kHz bis weit über 10 MHz bei geringer Variation der Empfindlichkeit (Lewin 1991; Harris 1989). ▬ Widerstandsfähig für zumindest einige tausend Schallpulse. ▬ Gute nachgewiesene Linearität über einen großen Schalldruckbereich (kleiner als –10 MPa bis mehr als 50 MPa). ▬ Konstanz der Kalibrierung sowie leichte Kalibrierbarkeit im Betrieb. ▬ Günstiger Verbrauchsmaterialpreis pro Messung. ▬ Hydrophone müssen je nach Einsatzbereich den Anforderungen eines »Focus hydrophone« oder zumindest eines »Field hydrophone« entsprechend IEC 61846 genügen (vgl. ⊡ Tab. 31.5). ▬ Hohe Adhäsion von Wasser zu dem Oberflächenmaterial, um Kavitation am Hydrophon zu vermeiden.
⊡ Abb. 31.6. Vergleich der Fokuswellenformen einer Schallquelle bei unterschiedlichen Energieeinstellungen, gemessen mit drei unterschiedlichen Hydrophontypen. Die Amplituden wurden auf P+ kalibriert. Während die Parameter Anstiegszeit und Unterdruck mit
Insbesondere dieser letzte Punkt ist bei einem aus Kunststoff gefertigten Hydrophon kaum zu erfüllen, mit solchen Messgeräten können Unterdruckanteile kleiner als –5 MPa oft nicht mehr zuverlässig bestimmt werden. In dieser Hinsicht sind die faseroptischen Hydrophone besonders vorteilhaft (Staudenraus 1993), weil wegen der guten Kohäsion von Wasser Unterdruckanteile besonders verlässlich gemessen werden können2. Tritt dennoch Kavitation auf, so wird dies sofort durch einen Sprung im Ausgangssignal sichtbar, weil sich die Lichtreflexion am Faserende in einer Gasblase sprunghaft gegenüber Wasser ändert. Das neue »Light Spot Hydrophone« LSHD benutzt einen dicken Glasblock und kann ebenfalls sehr hohe Unterdruckamplituden ohne Kavitationsabriss darstellen (Granz 2004; Ueberle 2006; Smith 2010). PVDF Membran Hydrophone können darüber hinaus leicht durch »Durchlöchern« der Elektroden durch Kavitationswirkung zerstört werden. PVDF Nadelhydrophone (Müller 1985) sind dagegen zwar weniger empfindlich, was sie aufgrund ihrer recht hohen Lebensdauer zum Messstandard vergangener Jahre prädestinierte (Delius 1994; Müller 1990; Granz 1992). Da die vom PVDFKunststoff umhüllte Metallnadel jedoch von dem Schallpuls zu Eigenschwingungen angeregt wird und zusätzlich eine starke Beugungswelle erzeugt, ist die Messung des Druck-Zeitsignals und damit besonders der Energieparameter wenig zuverlässig (⊡ Abb. 31.6). Aus den genannten Gründen sowie wegen des unvertretbar hohen Preises von geeigneten PVDF Membranhydrophonen ist heute die Verwendung eines optischen Hydrophons Standard.
2
Mit speziellen Unterdruck-Reflektoren wurden schon -50 MPa gemessen.
allen drei Hydrophonen korrekt wiedergegeben werden, ist das DruckZeitsignal und damit der Intensitätswert bei der PVDF-Nadelsonde deutlich unterschiedlich, während PVDF-Membran und Faseroptische Sonde fast gleiche Signalwerte anzeigen
543 31.3 · Das Schallfeld eines Lithotripters – Messtechnische Grundlagen
31.3.2 Messparameter für
Lithotripterschallfelder IEC 61846 beschreibt die Messparameter im Detail. Weitere Anforderungen, insbesondere für ESWT-Geräte sind in einer Konsensusvereinbarung der Technischen Arbeitsgruppe der Deutschen Gesellschaft für Stoßwellenlithotripsie (DGSL) spezifiziert (Wess 1997). Sie werden auch von der Deutschen und Internationalen Gesellschaft für Stoßwellentherapie zur Bewertung von ESWT-Geräten zur orthopädischen Therapie und Schmerztherapie herangezogen. Ihre Korrelation mit der Steinzertrümmerung sowie mit biologischen Wechselwirkungen wird im Folgenden diskutiert.
Die Druck-Zeit- Parameter: Schalldruck, Intensität, Energieflussdichte, Pulsdauer, Anstiegszeit Man entnimmt den Oszillogrammen (⊡ Abb. 31.2 und ⊡ Abb. 31.6) zunächst die Amplituden der Überdruckund der Unterdruckphase. Die Bedeutung des Spitzendrucks für die Beschreibung der Effizienz eines Lithotripters wurde früher oft überbewertet. Heute ist man sich sicher, dass er oberhalb einer gewissen Schwelle keine besondere Korrelation zur Zertrümmerung hat, hierfür sind die Energieflussdichte und die Energie wesentlicher (Rassweiler 2010). Die Anstiegszeit wird zwischen 10% und 90% der Amplitude des Überdrucksignals bestimmt. Um das Vorhandensein von Stoßwellen mit einer Anstiegszeit von <5...10 ns nachweisen zu können, ist allerdings eine Messbandbreite von zumindest 500 MHz sowie Abtastraten von 1GSample/Sekunde notwendig. Gleichzeitig muss der effektive Nachweisbereich des Sensors exakt parallel zur Stoßfront ausgerichtet sein, da sonst Teile des Sensors mit zeitlicher Verzögerung von der Welle getroffen werden und damit die Anstiegszeit länger erscheint. Da die Anstiegszeit in den in der ESWL oder ESWT üblichen Bereichen (<5 ns bis einige 10 ns) jedoch nach bisherigen Kenntnissen kein allzu relevanter Parameter ist, kann man den Aufwand bei der Messung im Rahmen halten und darüber hinaus durch etwas geringere Bandbreiten (z. B. 20 MHz) das Rauschen begrenzen und so die Messgenauigkeit für wichtigere Parameter steigern. Die Pulsbreite ist definiert als die Signaldauer zwischen den Zeitpunkten, bei denen jeweils 50% der Überdruckamplitude erreicht wird. Bei komplizierten Signalen kann diese Angabe daher recht irreführend sein, insbesondere wenn die Signale an sich eine längere Zeitdauer haben, jedoch eine kurzzeitigen Peak aufweisen. Solche Signale findet man oft außerhalb des Fokus. Die Schallintensität ist ein Maß für die mittlere Leistung, die durch den Schallpuls übertragen wird. Sie wird auch als Energieflussdichte pro Puls mit der Einheit Joule/mm2 bezeichnet. Herstellerangaben der Ener-
gieflussdichte beziehen sich i. d. R. auf den maximalen im Fokus gemessenen Wert. Die Korrelation zwischen ED und der Kratertiefe im Modellsteinversuch ist hoch. In in vitro-Untersuchungen mit perfundierten Schweinenieren wurde aber auch die Bedeutung der positiven Energieflussdichte ED+ als relevant für Nierenschädigung unterstrichen (Rassweiler 2005).
Die Signal-Ortsverläufe im Schallfeld Bereits wenige Millimeter abseits des Fokus verändern sich die Pulsverläufe drastisch (Staudenraus 1991). Seitlich des Fokus nimmt die Anstiegszeit des Signals schnell zu (Ueberle 1997). Der zeitliche Signalverlauf vor und hinter dem Fokus hängt deutlich von der Art der Quelle ab: Bei Funkenquellen hat man vor dem Fokus immer eine Stoßfront, während sich bei den weniger »steilen« EMSE- und Piezo-Quellen erst einige Millimeter vor dem Fokus durch Aufsteilung eine Stoßfront ausbildet. Die Bedeutung der Frontsteilheit für die Steinzertrümmerung ist jedoch gering (Dreyer 1998).
Axiale und laterale Schalldruckverteilung, Halbwertsbreite (FWHM) des Schalldrucks Üblicherweise werden typische axiale und laterale Verteilungen des Überdrucks in der Region um den Fokus graphisch dargestellt (⊡ Abb. 31.7, 4-Farbteil am Buchende). Daraus werden nach Norm Zahlenangaben für Fokusabmessungen entnommen, die das Fokusvolumen definieren sollen. Die Zahlenangaben sind so genannte Halbwerts- oder FWHM-Angaben (Full Width Half Maximum). Sie kennzeichnen die Entfernungen zwischen den Orten, bei denen jeweils der halbe Maximalwert der Kurve gemessen wird. Aus den axialen und lateralen Abmessungen wird auch das »Fokusvolumen« berechnet, und zwar vereinfacht unter Annahme einer elliptischen Fokus-»Zigarre«, deren lange Achse in Richtung der Stoßwellenausbreitung liegt. Die medizinische Bedeutung dieser Messwerte ist jedoch nicht geklärt. All diese Angaben basieren normgemäß auf relativen Werten des positiven Schalldrucks bezogen auf den fokalen Spitzendruck. Der Spitzendruck im Fokus und damit die Basis der FWHM-Angaben ist sehr stark vom Aperturwinkel des fokussierenden Systems abhängig – je größer der Aperturwinkel, desto höher der Fokusdruck und desto schmaler der Fokus. Die Korrelation zwischen Schalldruck und Zertrümmerungswirkungen ist gering, da für die Wirkung auf Konkremente die Wirkenergie entscheidend ist, wie weiter unten gezeigt wird. Auch für biologische Wirkungen beziehen sich Autoren zunehmend nicht auf den Druck, sondern auf die Energieflussdichte (Steinbach 1993; Rassweiler 2005, 2010; Lingeman et al. 2009).
31
544
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
31.3.3 Energiegrößen im Schallfeld
III
Die Energieflussdichte wird durch Integrieren des quadrierten Drucksignals über die Zeitdauer eines Pulses berechnet und daher bisweilen auch als Integral der Pulsintensität (PII) bezeichnet. Die räumliche Verteilung der Energieflussdichte nimmt lateral zumindest so schnell ab wie der Fokusdruck, da sie vom Quadrat des Schalldrucks abhängt. Durch Integrieren der Energieflussdichtewerte über eine gewisse Fläche in der Fokusebene kann man die durch diese Fläche im Fokus fließende Energie berechnen. Meist wird die Fokusenergie angegeben, die in einer Kreisfläche mit dem Durchmesser der Fokus-Halbwertsbreite3 der Druckverteilung wirkt (⊡ Abb. 31.8, 4-Farbteil am Buchende sowie (1) in ⊡ Abb. 31.7). Effektive Energieangaben sind charakterisiert durch die Annahme einer gewissen Wirkfläche, z. B. ein Kreis mit Radius 6 mm (eine typische Steingröße bei der ESWL). Ein Vergleich verschiedener Stoßquellen ist nur durch Vergleich der effektiven Energien unter Angabe der Energiewerte für identische Flächen möglich. Zuweilen wird auch die Gesamtenergie im Fokus angegeben, die in guter Näherung durch die Angabe von E5MPa beschrieben ist. Diese fokale Gesamtenergie ist bei Flächenschallquellen im Wesentlichen so groß wie die von der Quelle primär abgegebene akustische Energie. Bei Reflektorsystemen hängt die fokussierte Energie zusätzlich von dem Anteil der abgestrahlten Welle ab, den der Spiegel auffängt4. Bei diesen Reflektor basierten Systemen ist die fokale Gesamtenergie also mitunter geringer als die erzeugte primäre akustische Energie. Die nicht fokussierten Anteile gelangen unter Umständen zu unterschiedlichen Zeiten ebenfalls zum Patienten, wobei sie aber nicht zur Steinzertrümmerung beitragen. Möglicherweise sind sie für die Kavitationsdynamik von gewisser Bedeutung. Generell gilt: Je größer der Aperturwinkel des Systems, desto höher sind bei gegebener Schallwellenanregung der Fokusdruck und die erreichbare Fokusenergieflussdichte. Dagegen werden die lateralen Fokusabmessungen mit wachsendem Aperturwinkel immer geringer. Eine Schallquelle mit geringer Energie, aber großem Aperturwinkel und resultierend kleinem Fokusdurchmesser kann daher dennoch eine hohe Energieflussdichte im Fokus haben. Eine Wirkung auf biologische Materialien und Konkremente tritt nur dann auf, wenn gewisse materialabhängige Energie-Schwellwerte überschritten werden.
3
Die Fokusbreite wird auch als FWHM oder auch –6 dB-Breite bezeichnet. 4 Dies ist bei den sphärisch abstrahlenden Funkenquellen der umfasste Raumwinkel.
Addiert man die effektive Energien (z.B. E12mm) über die Anzahl der Stoßwellen einer Behandlung auf, so gelangt man zu einer Energiedosis. Diese wird als Indikator zur Beurteilung des Behandlungsfortschrittes vorgeschlagen (Rassweiler 2010).
Primäre akustische Energie und elektrische Energie Die primäre akustische Energie wird durch Fokussierung auf den Fokusbereich konzentriert. Je nach Schallquellentyp kann nicht die komplette Primärenergie fokussiert werden, wie oben am Beispiel der Funkenquelle erläutert wurde. Bei Schallquellen, die Einbauten wie InlineScanner enthalten, kann ebenfalls ein Teil der Energie abgeschattet werden (Delius 1994). Auch Luftblasen im Schallfeld führen schnell zu Abschattung und damit deutlichen Energieverlusten (Rassweiler 2010). Die zur Ansteuerung der Schallquelle notwendige elektrische Energie wird aus der Ladespannung und der Kapazität des Speicherkondensators errechnet. Sie wird nur zu einem Bruchteil in akustische Energie umgesetzt und ist wegen der unterschiedlichen elektroakustischen Wirkungsgrade von Funkensystem, elektromagnetischem System und piezoelektrischem System zum Vergleich von verschiedenen Quellentypen nicht geeignet (Ueberle 2003).
Räumliche Verteilung des Unterdrucks Früher war eine genaue Bestimmung des Unterdrucks in Fokusnähe nur unbefriedigend möglich. Bereits ab wenigen MPa Unterdruck bildet sich Kavitation, d. h. Flüssigkeiten beginnen aufzureißen (Kuttruff 1988) oder sich von der Oberfläche eines Wasserschallsensors (Hydrophon) abzulösen. Außerdem reagieren einige Hydrophone weniger empfindlich auf Unterdrucksignale, oder diese Anteile werden durch Reflexionen am Hydrophonaufbau verfälscht. Mittels Glasfaserhydrophon und des LSHD sind verlässlichere und reproduzierbare Daten für die Unterdruckverläufe messbar, da die Adhäsion von Wasser zu Glas hin stark ist und die Flüssigkeit nicht – im Gegensatz zu Kunststoffmembranen – von der Oberfläche abreißen und somit an der Grenzfläche Kavitation verursachen kann. Sind andere Keime an der Glasfläche, so ist das Einsetzen von Kavitation sofort durch einen Signalsprung zu detektieren. Das von einer Funken- oder EMSE- Quelle erzeugte Signal enthält direkt an der Quelle zunächst nahezu keine messbaren Unterdruckanteile. Der in der Fokusregion und auf der Stoßwellenachse beobachtete Unterdruck stammt vielmehr von der Randbeugungswelle der Quelle. Diese Randbeugungswelle ist ein Spiegelbild des Überdrucksignals, das vom Rand des fokussierenden Systems abgestrahlt wird.
545 31.3 · Das Schallfeld eines Lithotripters – Messtechnische Grundlagen
Bei der Auslegung der Schallquellen bemüht man sich i. d. R. um möglichst geringe Unterdruckamplituden. Da das Unterdrucksignal auch nicht von der überdruckabhängigen Nichtlinearität betroffen ist und daher auch nicht aufsteilt, ist seine Amplitude im Fokus i. d. R. geringer (ca. 1/10 bis 1/5 des Überdrucksignals) als die des aufgesteilten Überdrucksignals. Seine messbare Zeitdauer beträgt ca. 2–5 ms. Überdrucksignale erfahren durch die nichtlineare Aufsteilung eine geringe axiale Verschiebung des Fokus (Normgemäß Ort des Maximalen Drucks!) weg von der Schallquelle. Bei nicht aufgesteilten Signalen ist je nach Frequenzgehalt eine geringe Verschiebung zur Quelle hin zu beobachten. Daher kann sich das Maximum des Unterdrucks wenige Millimeter vor dem Überdruckfokus befinden. Die Piezo-Quelle erzeugt zusätzlich zur Randbeugungswelle noch ein definiertes primäres Unterdrucksignal, das im Fokus schließlich mit der Randbeugungswelle zusammentrifft. Durch schaltungstechnische und konstruktive Maßnahmen kann man diesen Unterdruckanteil klein halten.
31.3.4 Was bedeuten die Druckpulsparameter
für die Wirksamkeit der Lithotripsie? In den früheren Jahren war es zunächst mangels geeigneter Sensoren nicht möglich, die meisten Druckpulsparameter ausreichend genau zu bestimmen. In den frühen Veröf-
fentlichungen wird daher oft auf die Ladespannung der Generatoren Bezug genommen. Da sich diese Spannung naturgemäß je nach Schallquellentyp (Elektrohydraulisch, EMSE, Piezoelektrisch) und Kapazität des Ladekreises stark unterscheiden kann, sind frühere klinische Ergebnisse nur schwer vergleichbar. Seit Einführung der Norm IEC 61846 ist eine deutlich bessere Datenqualität möglich. Die Korrelation der verschiedenen Druckpulsparameter mit den physikalischen und klinischen Effekten ist in ⊡ Tab. 31.6 dargestellt. Die Pulsintensität oder Energieflussdichte korreliert mit der Tiefe des kegelförmigen Kraters, der aus sehr großen Steinen durch viele Stöße ausgearbeitet wird. Die beste Korrelation zur zertrümmerten Steinmenge liefert die effektive Energie, die über den Steinquerschnitt bestimmt wird (i. d. R. ein Kreis mit dem Durchmesser 12 mm, wodurch die Energie E12mm fließt), sowie die Gesamtenergie im Fokus, die durch E(5MPa) gut angenähert wird (Wess 1997). Das ist diejenige Energie, deren Druckwert größer als 5 MPa ist, was ungefähr der Zertrümmerungsschwelle von Kunststeinmaterial entspricht (ca. 2 MPa bis 10 MPa) (Eisenmenger 2001; Sass 1992). Dabei wird auch ein Dosiseffekt deutlich: Steigert man bei gegebenem Steinvolumen V die effektive Energie E´eff pro Einzelstoß, so verringert sich proportional (Koch 1989) die Anzahl Sz der notwendigen Stöße: E´eff/V = constMaterial / Sz. Die »Konstante« constMaterial ist materialabhängig, je nach Steinkomposition kann sie deutlich variieren. Für Modellsteine liegt der Wert bei ca. 2 mJ (Lobentanzer 1991).
⊡ Tab. 31.6. Parameter zur Beschreibung einer Druckpulsquelle (IEC 1998, Wess 1997). Die mit * markierten Anmerkungen zur Korrelation der Parameter mit der Zertrümmerung und den biologischen Effekten entstammen Granz 1992, Dreyer 1998 und Seidl 1994. Die Korrelationskoeffizienten ** wurden aus Messungen an 6 verschiedenen Druckpulsquellen ermittelt (Mishriki 1993). Die Korrelationen *** entstammen Granz 1992, diejenigen **** sind aus Dreyer 1998 entnommen. Anschaulich sind die Parameter in den Abbildungen 2 sowie 6 bis 10 dargestellt Symbol
Parameter
Maßeinheit
Typischer Wertebereich
Fokusparameter
7 bis >80 MPa (ESWT)
Geringe Korrelation zur Zertrümmerung*
20 bis >100 MPa (ESWL)
(Korrelationskoeffizient zwischen 0,704** und 0,54***)
Megapascal MPa
–3 bis –15 MPa
Korrelation zur Zertrümmerung ungeklärt*
(Nano) sekunden ns
<5 bis 500 ns
Megapascal MPa
P-
Negativer Spitzenschalldruck (Unterdruckamplitude)
Tr
Anstiegszeit (Gemessen zwischen 10% und 90% von P+)
▼
Anmerkung
Sie sollen normgemäß am Ort der maximalen Druckamplitude, dem akustischen Fokus angegeben werden (IEC 1998)
Positiver Spitzenschalldruck (Überdruckamplitude)
P+
Bedeutung für die Lithotripsie
(0,394**) Geringe Korrelation zur Zertrümmerung (0,006**)
Als Schwellwert für die Entstehung von transienter Kavitation bedeutend Stoßwellentypisch geringe Werte von wenigen Nanosekunden nur direkt im Fokus
31
546
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
⊡ Tab. 31.6. Fortsetzung
III
Symbol
Parameter
Maßeinheit
Typischer Wertebereich
Bedeutung für die Lithotripsie
Anmerkung
Tw
Pulsdauer (gemessen zwischen dem Anstieg auf 50% von P+ und dem folgenden Abfall auf 50%)
(Nano) sekunden ns
<150 bis >500 ns
Bestimmt die Integrationsgrenzen für die Pulsintensität mit
Je länger die Pulsdauer, desto mehr Energie kann ein Puls enthalten
PII+
Energieflussdichte (oder Integral der Pulsintensität)des positiven Signalanteils
(Milli)joule pro Quadrat(Milli)meter mJ/mm²
<0,02 bis 0,8 mJ/ mm² (ESWT),
Korreliert zur Kratertiefe im Stein sowie zu zellulären Effekten im Gewebe*
Die laterale Verteilung von PII+ in der Fokusebene ist sehr ähnlich wie die laterale Druckverteilung von P+ (Ueberle 1997)
Energieflussdichte (oder Integral der Pulsintensität) des gesamten Wellenzuges inklusive der negativen Anteile
(Milli)joule pro Quadrat(Milli)meter mJ/mm²
<0,03 bis 1,0 mJ/ mm² (ESWT),
Gute Korrelation zur Kratertiefe in Steinen (Korrelationskoeffizient 0,99***) sowie zu zellulären Effekten*. Mäßige Korrelation zum zertrümmerten Steinvolumen (0,801**)
Die laterale Verteilung von PII in der Fokusebene korreliert zu der lateralen Verteilung von P+ (Ueberle 1997)
PII
<0,1 bis >1,2 mJ/ mm² (ESWL)
<0,1 bis >1,2 mJ/ mm² (ESWL)
(0,75***) Parameter des Schallfelds fx, fy, fz
Vf
Fokus-Abmessungen, die anhand der Druckverteilungen entlang der Achsen X, Y (lateral) und Z (axial) bei jeweils 50% der Druckamplitude P+ ermittelt werden
Millimeter mm
Fokus-Volumen, approximiert durch die Ellipsen-Näherung:
Kubikmillimeters mm³
Fokusenergie5, die durch Integrieren der Intensitätsverteilung von PII(r) in der Fokusebene bis zu den Grenzen fx, fy errechnet wird
(Milli)joule mJ
Effektive Energie, die durch Integrieren der Intensitätsverteilung von PII (r) über eine vorgegebene Fläche (z. B. mit 12 mm Durchmesser) in der Fokusebene errechnet wird
(Milli)joule mJ
lateral: <2 bis >8 mm
Geringe Korrelation zur Steinzertrümmerung*
Die Fokusabmessungen sind rein messtechnisch definierte Werte, die in der Praxis oft überinterpretiert werden
<100 bis >1000 mm³
Korrelation zur Steinzertrümmerung unbekannt
Das Fokusvolumen ist ein rein messtechnisch definierter Wert, der in der Praxis oft überinterpretiert und mit der erforderlichen Zielgenauigkeit verglichen wird
E+: 0,5 bis 180 mJ
Geringe Korrelation zur Steinzertrümmerung *
Darf nicht zum Vergleich verschiedener Schallquellen mit unterschiedlichen Fokusabmessungen fx, fy verwendet werden
axial: <15 bis >100 mm
Vf = π/6 wx wy wz
E+, E
Eeff+, Eeff
5
E: <1,5 bis 230 mJ
(Korrelationskoeffizient zwischen 0,442** und 0,62****)
E+12mm: 0,5 bis 65 mJ E12mm: <1,5 bis 80 mJ
Beste Korrelation aller Energieparameter zum zertrümmerten Steinvolumen (E12mm,: Korrelationskoeffizient0,98***)
Dies ist (siehe auch im Text) der wichtigste Parameter zur Beurteilung der Zertrümmerungs-Effizienz einer Schallquelle
(E5Mpa: Korrelationskoeffizient0,97****)
Die zeitlichen Integrationsgrenzen bestimmen dabei, ob nur der positive (Über)druckanteil des Signals (Positive Energie E+) oder der vollständige Signalverlauf (Energie E) in die Berechnung einbezogen wird. Diese Unterscheidung wurde u. a. gemacht, um den Problemen in der Darstellung der Unterdruckanteile mancher Hydrophone Rechnung zu tragen.
547 31.3 · Das Schallfeld eines Lithotripters – Messtechnische Grundlagen
Die Zertrümmerung kann aber erst bei Überschreiten einer Schwellenergie E0, die ebenfalls materialspezifisch ist, beginnen. Die tatsächlich wirksame effektive Energie ist daher E´eff = Eeff – E0. Der Endpunkt der Zertrümmerung ist erreicht, wenn das Steinvolumen in Restkonkremente kleiner als 2–3 mm zerlegt ist, da diese im Harnweg gut abgangsfähig sind. Zur Beurteilung anderer Effekte in der Stoßwellentherapie – insbesondere bei der ESWT – wird man in Zukunft vermutlich auf weitere Querschnittsflächen zurückgreifen, die von Schwellwerten der Energieflussdichte (PII) bestimmt werden (Ueberle 1997; Meier 1998). Die anderen Parameter wie Spitzendruck, Pulsweite und Anstiegszeit spielen nach Literaturangaben eine geringere Rolle für die Effektivität der Steinzertrümmerung, zumindest innerhalb den in ⊡ Tab. 31.6 angegebenen Grenzen. Die Fokusabmessungen werden normgemäß durch Bestimmung der Orte ermittelt, an denen der Druck jeweils auf 50% des fokalen Maximalwerts abgefallen ist. Es ist leicht einzusehen, dass der Wert für die Fokusbreite damit sehr stark vom Spitzendruck abhängt. Je stärker eine Schallquelle fokussiert ist, desto höher ist der Spitzendruck und desto kleiner wird scheinbar der Fokusdurchmesser. Der wirksame Fokusdurchmesser hängt jedoch nicht vom Spitzendruck ab, sondern von der Überscheritung gewisser Druck- oder Energieflussdichtewerte. So ist auch leicht einsichtig, dass die normgemäße –6 dB-Fokusgröße kein geeignetes Maß für die Wirksamkeit eines Lithotripters oder ESWT Geräts ist. Deren Angabe sorgt eher für Verwirrung, was sich in einer stetigen Diskussion über die Effizienz von Geräten mit kleinem oder großem Fokus ausdrückt (siehe weiter unten). In Ergänzung zum –6 dB-Fokusdurchmesser soll daher ein wichtigerer Parameter eingeführt werden: Als Zertrümmerungsbreite sei hier der Flächendurchmesser bezeichnet, an dessen Rand die Anzahl der Schallpulse zur Zertrümmerung eines Konkrements doppelt so hoch ist als wenn das Konkrement genau im Fokus liegt
(⊡ Abb. 31.9). Messungen haben gezeigt, dass sich die Zertrümmerungsbreite nicht von der normgemäßen (Druck-) Fokusbreite abhängt, sie ist vielmehr für unterschiedliche Schallquellen unabhängig vom Erzeugungsprinzip (Funken oder EMSE) und auch vom Aperturwinkel (betrachtet wurden zwischen 54 und 74 Grad) sehr ähnlich und durchmisst 15 bis 22 Millimeter (Ueberle 2002; Bohris et al. 2010). Dies wird durch ⊡ Abb. 31.9 und ⊡ Abb. 31.10 illustriert. Andere Wirkdurchmesser, z. B. für bestimmte Gewebereaktionen, müssen anhand noch zu bestimmender Wirkschwellen erst ermittelt werden. Ein Ansatz dafür könnten die in den nächsten Abschnitten genannten Druck- und Energieflussdichte-Grenzwerte für Gewebezerstörungen sein.
31.3.5 Welche physikalischen Effekte
spielen bei der Steinzertrümmerung eine Rolle? Aus der Literatur ist eine ganze Anzahl von Effekten bekannt, die alle zur Steinzertrümmerung beitragen: ▬ Direkte Krafteinwirkung auf den Stein führt zu Spannungsrissen und Risswachstum (Vakil 1991). ▬ Durch scharf fokussierte Wellen werden Steine kegelförmig ausgehöhlt (Eisenmenger 2003). ▬ Spallationseffekte durch die Reflexion des Druckpulses an der Steinrückseite bei gleichzeitiger Phasenumkehr (Hopkins-Effekt) (Vakil 1991). Der reflektierte Puls überlagert sich dabei dem Zuganteil des einlaufenden Pulses und führt zu hohen Zugspannungen im Steininneren. Durch diesen Effekt ist zu erklären, dass manche impaktierten Steine zuerst auf der Rückseite zerfallen. ▬ Kavitationseffekte besorgen die Aufweitung bestehender Risse, induzieren lokal hohe Kollapsdruckpulse von wenigen Nanosekunden Dauer direkt auf den Stein und bohren seine Oberfläche mit Wasser-Jets von 200–800 m/s an (Vakil 1991; Koch 1998). Ent-
⊡ Abb. 31.9. Die Pulszahl zur Zertrümmerung eines 12 mm durchmessenden Steins in Konkremente <2 mm verdoppelt sich, wenn der Stein um ±11 mm seitlich aus dem Fokus verschoben wird. Das Experiment wurde mit unterschiedlichen Schallquellen (Funken, Aperturwinkel 54° und EMSE, 62°) mit den genannten unterschiedlich starken Fokussierungen durchgeführt. Dennoch sind die gemessenen Unterschiede minimal. Die Zertrümmerungsbreite f´x, definiert durch eine Abnahme der Zertrümmerungsleistung auf 50% oder eine Verdopplung der notwendigen Stoßzahl pro Steinvolumen beträgt jeweils 22 mm.
31
548
III
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
⊡ Abb. 31.10. Die Fokus-Druckverteilung von stärker und schwächer fokussierenden Quellen zeigen hauptsächlich im Bereich ±2 mm um den Fokus große Unterschiede. Dadurch ist normgemäß berechnet die Fokusbreite Fx des stark fokussierten Systems (Kreissymbole) lediglich 2,5 mm, die der schwächer fokussierten Systeme sind 6 mm (Dreiecke) bzw. sogar 18 mm (Rautensymbole). Der Wirkdurchmesser der Systeme, innerhalb dem noch eine Steinzertrümmerung stattfindet, ist jedoch annähernd gleich, da der Zertrümmerungsschwellwert von ca. 10 MPa jeweils bei ca. 18–22 mm erreicht wird
sprechende Krater sind im Mikroskopbild an der Steinvorderfront sowie in Rissflächen zu sehen. ▬ Cluster von Kavitationsblasen sammeln sich um den Stein und erzeugen beim Zerfall einen Wasserhammer-Effekt (Kedrinskii 1998). ▬ Quasistatischer Quetscheffekt: Durch unterschiedliche Schallgeschwindigkeiten im Stein und in der umgebenden Schicht werden mechanische Spannungen erzeugt, die zu zusammenwachsenden Mikro-Spannungsrissen und in der Folge zu binärer Fragmentation, dem Zerbrechen in jeweils 2 Teilstücke führen (Eisenmenger 2001). ▬ Dynamisches Quetschen (Sapozhnikov 2007): Bedingt durch die Kräfte der am Stein entlang laufenden Stoßwellen auf seine lateralen Seiten werden im Inneren des Steins Scherwellen erzeugt, die seinen Bruch hervorrufen. Der erste Bruch des Steins entsteht – zumindest bei großen Foki – wahrscheinlich durch die Quetschmechanismen, eventuell auch den Spallationseffekt. Für die weitere Zerkleinerung ist eine dynamische Ermüdung des Materials durch die Ausbildung weiterer Mikrorisse in den Steintrümmern verantwortlich. Dabei spielt dann auch die Kavitation eine gewisse Rolle. Je nach Umgebung des Steins (in Flüssigkeit schwimmend, in Gewebe ganz oder teilweise impaktiert oder eingewachsen) haben die Effekte unterschiedliches Gewicht. Unterdrückt man die Kavitation mittels geringen statischen Überdrucks, so nimmt die Zertrümmerung um ca. 20% ab. Bringt man den Stein in eine höher viskose Umgebung, z. B. ein Öl, so benötigt man wegen der unterdrückten Kavitation deutlich mehr Stöße und die Trümmer werden größer (Zhu 2002). Bei
höherem Überdruck oder impaktierten Steinen kann die zusätzliche Vorspannung das Risswachstum erheblich behindern (Eisenmenger 2001; Sapozhnikov 2007). Den unterschiedlichen Steinmaterialien lässt sich jeweils eine typische Energiemenge zuordnen, die zur Zertrümmerung einer Volumeneinheit notwendig ist (Delius 1994; Holtum 1993). Diese liegt für Modellsteine, wie sie in der Lithotripsie zu Testzwecken verwendet werden6, bei ca. 2 mJ/mg (Lobentanzer 1991). Dabei muss ein Druck von mindestens 2–10 MPa (Eisenmenger 2001; Sass 1992) überschritten werden. Zertrümmerung findet überall dort statt, wo die Druckschwelle überschritten ist. Dabei ist die Höhe der Überschreitung wohl eher nachrangig, was man aus der geringen Korrelation zwischen Fokusdruck und Zertrümmerungswirkung sehen kann. Bei der Behandlung der Patienten spielen aber auch die Einflüsse des Gewebes sowie geometrische Randbedingungen auf dem Schallweg eine wesentliche Rolle für den Behandlungserfolg. Diese Einflüsse werden in einem gesonderten Abschnitt diskutiert.
31.3.6 Wirkungen der Druckpulse
auf Gewebe In diesem Zusammenhang ist es von besonderem Interesse, zwischen unerwünschten Nebenwirkungen (z. B. Blutungen bei Steinzertrümmerung oder Gefühlsstörungen nach ESWT) und gewünschten Wirkungen (Schmerzreduktion durch ESWT) zu unterscheiden. 6
Synthetischer Gips, gemischt mit Glashohlkugeln zur Homogenisierung.
549 31.3 · Das Schallfeld eines Lithotripters – Messtechnische Grundlagen
⊡ Tab. 31.7. Grenzwerte für biologische Wirkungen von Druckpulsen auf Zellen PII (Energieflussdichte)
Befund
Anmerkung
0,3 mJ/mm²
Völlige Ablösung von Endothelzellen der Gefäße auf der Schalleintrittsseite; wahrscheinlich durch den Schalldruck verursacht.
Bewirkt möglicherweise Thrombosen und Gefäßverschluss; Messungen mit PVDF-Nadelhydrophon
(Steinbach 1993)
0,22 mJ/mm²
Veränderte Mitochondrien in Nachbarzellen
Messungen mit PVDF-Nadelhydrophon
(Steinbach 1993)
0,1 mJ/mm²
Bildung von Stressfasern im anliegenden Endothel; wahrscheinlich durch Kavitation verursacht
Stressfasern treten als Reaktion awuf Scherkräfte auch bei anderweitig in die Zelle eingebrachten Kräften auf Messungen mit PVDF-Nadelhydrophon
(Steinbach 1993)
0,045 mJ/mm²
Blutungen von Eingeweiden
Mausmodell, ED Werte aus den veröffentlichten Signalkurven berechnet
(Miller 1995)
0,007 mJ/mm²
Hautschäden
Mausmodell, ED Werte aus den veröffentlichten Signalkurven berechnet
(Miller 1995)
Während die Mechanismen der Steinzertrümmerung bei der ESWL wie oben erläutert weitgehend bekannt sind, sind die heilenden Wirkungen der ESWT bisher biophysikalisch nicht verstanden. Möglicherweise werden mit der Stoßwelle Mikroschäden gesetzt, die zu einem Umbauprozess des erkrankten Gewebes und einer Neubildung von Mikrogefäßen führen, und damit den späteren Heilungsprozess der ESWT gezielt initiieren (Staples 2008). Es konnte bisher gezeigt werden, dass durch Stoßwellenfokussierung auf Weichteilgewebe die Substanz P freigesetzt wird sowie zelluläre Kaskaden getriggert werden (Maier 2003). Folgende Mechanismen werden beschrieben: ▬ ein Dosis-Effekt, der mit steigender Impulszahl zunimmt (Miller 1995), ▬ ein energieabhängiger Effekt, der mit steigender Energie pro Puls zunimmt, ▬ der Kavitationseffekt, der hauptsächlich der Stoßwellen-Blaseninteraktion zugeschrieben wird (Delius 1998). Die bislang in der Literatur beschriebenen biologischen Grenzwerte wurden i. d. R. für stoßwellenbedingte Nebenwirkungen7 bei der Nierenlithotripsie ermittelt. Insgesamt treten hier schwere, behandlungspflichtige Nebenwirkungen nur in einer geringen Anzahl von Behandlungen auf (Jocham 1998; Drach 1986), eine transiente Hämaturie ist dagegen als übliche Nebenwirkung akzeptiert. Als Ursache für die potentiellen Schädigungsmechanismen wird zum einen Kavitation angesehen. Zum anderen können
7
Andere Nebenwirkungen der Lithotripsie sind eher biologisch bedingt, z. B. durch Obstruktionen der Harnableitenden Wege.
aber auch Scherkräfte im Gewebe durch die Stoßwellen Schäden hervorrufen. Wie neuere Untersuchungen zeigen, spielt dabei die Wiederholungsrate eine große Rolle: Werden weniger als eine Stoßwelle pro zwei Sekunden verabreicht, so sind die beobachteten Gewebeschäden deutlich geringer als bei schnellerer Stoßwellengabe (McAteer 2009). An gekühlten humanen Nabelschnüren wurden Grenzwerte der Energieflussdichte für die Ausbildung von Stressfasern und stärkere Wirkungen auf Zellen ermittelt (Steinbach 1993). Die Effekte und zugehörige Pulsintensitäten sind in ⊡ Tab. 31.7 aufgeführt. Es sei darauf hingewiesen, dass die Werte mit PVDF-Nadelhydrophonen über die gesamten Wellenzüge ermittelt wurden. Die mit diesen Messinstrumenten möglichen hohen Fehler bei Absolutangaben wurden bereits im Abschnitt über die Messtechnik diskutiert. Aus diesen Grenzwerten kann man anhand der gemessenen örtlichen Verteilung der Energieflussdichte die jeweilige biologische Wirkzone abschätzen (analog zur Zertrümmerungsbreite für Konkremente: ⊡ Abb. 31.12 und ⊡ Abb. 31.13). Derzeit dienen die Werte zunächst als grobe Richtschnur zur Einstellung von Geräten. Um sie auf die in vivo Behandlungssituation übertragen zu können, müssen sie mit verbesserter Druckmesstechnik noch an weiteren, realistischeren Modellen abgesichert werden. Aus Versuchen mit perfundierten Schweinenieren hat sich ebenfalls eine starke Korrelation von Schädigung zur positiven Energieflussdichte ED+ gezeigt (Rassweiler 2005), während zu weiteren Stoßwellenparametern, auch nicht zum negativen Spitzendruck (Bergsdorf 2005; Rassweiler 2010), keine gute Korrelation bestand. Grenzwerte für ungewollte Schäden am Knochen sind nur indirekt bekannt. Mikro- und Makrofrakturen wur-
31
550
III
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
den zumeist für Energieeinstellungen beschrieben, die nur selten im Bereich höchster Geräteeinstellungen bei der Steinzertrümmerung (Delius 1995; Kauleskar 1993; Haupt 1992) benutzt werden. Aus der Orthopädie-Literatur sind bislang keine langdauernden Nebenwirkungen oder diagnostisch nachweisbare Schäden durch ESWT-Behandlungen bekannt. Es fehlt aber nicht an Hinweisen, dass eine saubere Indikationsstellung absolut notwendig ist (DGSL 1995). Die Druckschwelle für Hautschäden wurde zu 0,6– 1,6 MPa und für Darmblutungen zu 1,6–4 MPa bestimmt (Miller 1995). Thermische Einwirkungen wurden ausgeschlossen sodass als wahrscheinlichster Wirkmechanismus Kavitation in Frage kommt. Blut und anderes abdominale Gewebe waren deutlich weniger von den Druckpulsen beeinflusst. Die Energieflussdichten bei diesen Untersuchungen können nur aus den veröffentlichten Grafiken abgeschätzt werden, sie liegen bei8 0,007–0,045 mJ/mm2.
31.4.1 Punktförmige und flächige
Schallquellen Man unterscheidet je nach Erzeugungsprinzip punktförmige und flächige Schallquellen. Punktförmige Schallquellen erzeugen sphärisch expandierende Schallwellen. Flächenschallquellen erzeugen je nach Aufbau ebene, zylindrisch expandierende oder sphärisch konvergierende Schallwellen. Alle diese Ausbreitungsformen der primären Schallwellen erfordern verschiedene Arten von Fokussierungsmechanismen. Aus dem im Fokus gemessenen Schallsignal kann man i. d. R. nicht auf die verwendete Quelle schließen. Spezifische Unterschiede zeigen sich eher im Schallfeld außerhalb des Fokus, wie im Folgenden erläutert wird.
31.4.2 Erzeugung sphärischer Schallwellen 31.4
Erzeugung von Druckpulsen zur extrakorporalen Steintherapie (ESWL) und Schmerztherapie (ESWT)
In der Praxis bestehen alle ESW-Generatoren aus einer elektrischen Energiequelle, einem elektroakustischen Umwandlungsmechanismus und einer Einrichtung zur Fokussierung der Schallwellen. Um eine gezielte Wirkung zu erreichen, müssen die Schallwellen fokussiert werden. Bei Punktquellen (z. B. Funken) und Zylinderquellen bietet sich die Anwendung eines fokussierenden Spiegels an, bei Flächenquellen kommen Linsen oder ein selbstfokussierender Aufbau in Form eines Sphärenabschnitts zur Anwendung. Am Ende jedes Kapitels wird auf quellenspezifische Unterschiede in der Erzeugung der Schallwellen und ihre Auswirkungen auf die Schallfront eingegangen. Es muss aber betont werden, dass über die medizinische und biologische Relevanz der angesprochenen Parameter bislang keine Aussage getroffen werden kann.
8
10,9 μs Dauer von P- und 5,5 μs Dauer von P+, bei Variation zwischen 1,6 und 4 MPa (Miller 1995).
⊡ Abb. 31.11. Primärer Druckpuls einer elektrohydraulischen Funkenschallquelle. Kleines Bild: Vergrößerter Ausschnitt aus der Schallfront mit dem stoßwellentypisch steilen Anstieg (begrenzt durch die Anstiegszeit der Messsonde)
Funkenstrecke Die ersten Nierenlithotripter arbeiteten mit einer Funkenquelle. Auch heute noch ist dieses »klassische« Prinzip im Einsatz. Analog zu einer Autozündkerze wird dabei durch Anlegen einer Hochspannung (üblich sind ca. 12–30 kV) zwischen zwei Elektroden unter Wasser ein Blitzschlag erzeugt. Dadurch entsteht eine expandierende Plasmablase, die zu einer Kompression der umgebenden Flüssigkeit führt. Nach Entleerung des elektrischen Energiespeichers bleibt eine Dampfblase bestehen, die sich weiter mit abnehmender Geschwindigkeit ausdehnt und schließlich nach einigen hundert Mikrosekunden wieder kollabiert. Als »Nutzschallwelle« wird lediglich die Kompressionswelle während der Plasmaphase abgestrahlt. Da sich die primäre Blase zunächst mit Überschallgeschwindigkeit bewegt, ist die Schallfront der Kompressionswelle von Anfang an extrem steil und somit eine Stoßwelle im physikalischen Sinn (⊡ Abb. 31.11). Ihre Zeitdauer ist 1 bis ca. 3 ns. Beim sekundären Blasenkollaps entsteht wie oben beschrieben eine weitere, schwächere Schallwelle. Die Hochspannung ist in einem Kondensator von 40 nF bis zu einigen 100 nF gespeichert. Dessen gesamte
551 31.4 · Erzeugung von Druckpulsen zur extrakorporalen Steintherapie (ESWL) und Schmerztherapie (ESWT)
Energie wird im Augenblick des Durchbruchs in die entstehende Plasmablase überführt. Der akustische Anteil beträgt dabei lediglich einige Promille. Fokussierendes Ellipsoid für Kugelwellen Ein Rotationsellipsoid hat die Eigenschaft, alle Schallereignisse, die in seinem ersten Brennpunkt erzeugt werden, in den zweiten Brennpunkt abzubilden. Soll das Ziel, z. B. die Verkalkung, in den zweiten Brennpunkt eingebracht werden, so muss das Ellipsoid an geeigneter Stelle abgeschnitten werden (⊡ Abb. 31.12). Der verbleibende Restspiegel umschließt einen gewissen Raumanteil der Kugelwelle und fokussiert diesen, während der übrige Kugelwellenanteil als unfokussierter Anteil das Gewebe durchdringt. Dieser Anteil wird im 2. Fokus, dem so genannten »Therapeutischen Fokus« zeitlich früher beobachtet als die fokussierte Stoßwelle. Er hat eine maximale Amplitude von weniger als 1 MPa bis 2 MPa. Dieser Wert ist damit deutlich geringer als der Spitzendruck der fokussierten Stoßwelle. Nichtlineare Aufsteilungsvorgänge bewirken bei zunehmenden Schallamplituden eine geringfügige Verschiebung des Druckmaximums um ca. 2–5 mm über den geometrischen Fokus F2 hinaus. Besondere Eigenschaften der Funkenquelle Typisch für Funkenquellen (auch elektrohydraulische Schallquellen genannt) ist eine dem fokussierten Signal um ca. 40 μs voreilende, unfokussierte Überdruckwelle, die im Fokusgebiet einen Druck von wenigen MPa hat. Fast eine Millisekunde nach dem Nutzsignal folgt eine weitere, recht schwache Druckwelle, die vom Kollaps der beim Durchbruch primär erzeugten Gasblase stammt. Diese Blase ist eine Folge dieses Erzeugungsprinzips und hat keinen Zusammenhang mit Kavitationsblasen, die anderswo im Schallfeld entstehen können. Funkenerzeugte Druckpulse haben für gewöhnlich Stoßwellencharakter. Dies bedeutet, dass die Schallfront
⊡ Abb. 31.12. Die primäre Kugelwelle der Funkenstrecke in Brennpunkt F1 kann über ein Rotationsellipsoid auf den Brennpunkt F2 fokussiert werden
von Anfang an extrem steil ist. Dadurch ist sie beim Durchlaufen großer Strecken in Gewebe insbesondere dem Einfluss der Dämpfung hoher Frequenzen ausgesetzt, sodass man annehmen kann, dass ein Teil ihrer Energie im Gewebe vor dem Fokus weggedämpft wird. Infolge der Aufsteilung werden aber die hochfrequenten Anteile ständig wieder nachbildet, was wiederum zu Dämpfungsverlusten führt.
Spezielle Eigenschaften und neuere Ansätze elektrohydraulischer Schallquellen Beginnend bei den elektrohydraulischen Lithotriptern der ersten Generationen wurde das Konzept verfolgt, pro Patient eine neue Funkenstrecke einzusetzen. Dieses Vorgehen hat den unbestreitbaren Vorteil, dass das Abbrandverhalten der Elektrode während des Behandlungsverlaufs bei jedem Patienten vergleichbar ist. Bedingt durch den zunehmenden Abbrand der Elektroden im Verlauf der Behandlung ergeben sich einige Nachteile: ▬ Ein zunehmender Spaltabstand bedingt einen länger werdenden Zündverzug. Währenddessen fließt Ladung ab, sodass ein Teil der bereitgestellten elektrischen Energie nicht mehr in Stoßwellenenergie verwandelt wird. ▬ Durch die unregelmäßig erodierte Elektrodenoberfläche schwankt der Zündzeitpunkt ebenso wie der Durchschlags-Pfad von Stoß zu Stoß. Dadurch schwankt sowohl die primäre Druckamplitude als auch der genaue Ort der Stoßerzeugung. Dies äußert sich in einer »Schuss-zu-Schuss«-Variation des Fokusdrucks von teilweise ±30%. ▬ Die wahren Fokusabmessungen sind nur äußerst schwer zu bestimmen. Da bei der Messung normgemäß mit statistischen Methoden gearbeitet werden muss, erscheinen die Fokusbreiten größer, während die Spitzendrücke und Energieflussdichten geringer werden. Neuere Entwicklungen versuchen, die Zündfreudigkeit der Elektrode bei zunehmendem Abbrand durch erhöhte elektrische Leitfähigkeit zu steigern. Dazu wird beim elektrokonduktiven Verfahren ein Elektrolyt eingesetzt (Cathignol 1991). Durch diese Maßnahmen wird die »Schuss-zu-Schuss«-Variation weitgehend unterbunden, die Effizienz der Behandlung nimmt deutlich zu, während die Fokusabmessungen kleiner werden. Andere Hersteller haben nachfahrbare Elektroden entwickelt. Da die Elektroden im Zentrum von Explosionen sind, spielen Sicherheit und Positionsgenauigkeit der Elektrodenspitzen bezüglich des Ellipsoidbrennpunktes eine große Rolle. Über einen gänzlich anderen Ansatz berichtet eine tschechische Arbeitsgruppe. Sie verwendet einen Me-
31
552
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
tallzylinder, der durch eine poröse Keramikschicht hindurch zahlreiche Durchschlagspfade zum umgebenden hochleitfähig gemachten Wasser hin bildet. Dadurch entsteht eine elektrohydraulische Zylinderquelle, die über einen parabolischen Spiegel fokussiert wird (Sunka 2004).
III
Explosionsladungen und Lasererzeugte Stoßwellen Bereits 1986 kam ein japanischer Lithotripter auf den Markt, der kleine Explosionsladungen im Fokus eines Rotationsellipsoids benutzte. Das Gerät wird weiterhin klinisch eingesetzt, inzwischen wurde auch über Versuche zur Schmerztherapie berichtet. Auch der lasererzeugte thermische Durchbruch einer Flüssigkeit wurde zur Erzeugung von Stoßwellen untersucht (Steiger 1987). Dieses Verfahren liefert zwar ebenfalls sehr präzise Druckpulse, aber die Kosten für einen entsprechenden Laser sind gegenüber den anderen Generatoren nicht konkurrenzfähig. Daher wird diese Methode ausschließlich im akademischen Bereich für Grundlagenexperimente eingesetzt.
⊡ Abb. 31.13. Der elektromagnetische Stoßwellenemitter (EMSE) erzeugt effektive ebene Druckpulse, die durch eine akustische Linse fokussiert werden und im Fokus durch Aufsteilung Stoßwellencharakter haben, wenn der Druck der primären ebenen Welle entsprechend groß gewählt wird und die Dämpfung im Gewebe nicht zu stark ist
31.4.3 Erzeugung ebener Schallwellen
Elektromagnetische Schallquelle (EMSE) Bei dem elektromagnetischen Stoßwellen-Emitter (EMSE), dessen Prinzip 1962 zuerst von Eisenmenger (Eisenmenger 1962) beschrieben wurde, wird eine Flachspule verwendet. Wird sie von einem impulsförmigen elektrischen Strom von mehreren Kilo-Ampère Stärke durchflossen, so erzeugt sie ein starkes Magnetfeld. Auf die Spule ist isoliert eine gut leitfähige Membran aufgelegt. In dieser wird durch das primäre Magnetfeld ein Wirbelstrom erzeugt, der wiederum ein Magnetfeld mit entgegengesetzter Polarisation zur Folge hat. Diese beiden Magnetfelder bewirken eine Abstoßung der Membran (⊡ Abb. 31.13). Dabei wird im Membranbereich das Wasser komprimiert und so ein ebener Überdruckpuls mit dem zeitlichen Verlauf einer quadrierten halben Sinuswelle abgestrahlt (⊡ Abb. 31.14). Der Druck ist über die Membranfläche im Wesentlichen konstant. Die Zeitdauer der Welle beträgt ca. 2–5 μs. Als elektrischer Energiespeicher dient wiederum ein Kondensator, der i. d. R. einige hundert Nanofarad Kapazität hat und somit deutlich größer ist als bei der Funkenquelle. Die Ladespannung (ca. 8 kV bis max. 16–20 kV) ist meist geringer als beim Funken. Dadurch sind die elektro-akustischen Wirkungsgrade der Quellen nicht vergleichbar. Ein Vergleich der Ladespannungen oder auch der elektrischen Primärenergien ist daher nicht zum Vergleich verschiedener Druckpulsquellen geeignet.
⊡ Abb. 31.14. Die Form der primär abgestrahlten akustischen Welle der elektromagnetischen Stoßwellenquelle (EMSE) entspricht dem Quadrat des antreibenden Stroms (Eisenmenger 1962). Sie enthält nur wenig hochfrequente Spektralanteile und wird dadurch in Gewebe nur wenig gedämpft. Die Ausbildung einer Stoßwellenfront findet erst auf dem Weg zum Fokus statt
Linsen zur Fokussierung der Schallwelle Für ebene Schallsender wie EMSE oder Piezo-Wandler werden zur Fokussierung akustische Linsen verwendet. Je nachdem, ob das Material eine höhere Schallgeschwindigkeit als das Übertragungsmedium Wasser hat (z. B. Plexiglas) oder eine geringere (z. B. Silikon-Kautschuk), wird die Linsenform konkav oder konvex. Spezielle Eigenschaften der Elektromagnetischen Schallquelle Das primäre EMSE-Signal hat zunächst die Form einer quadrierten Sinushalbwelle (vgl. ⊡ Abb. 31.14) mit einer endlichen Anstiegszeit von einigen hundert Nanosekunden. Es enthält daher nur einen geringen Anteil an höheren Frequenzen und wird demzufolge in Gewebe wenig gedämpft. Die höheren Spektralanteile treten erst bei Ausbildung einer Stoßfront auf dem Weg zum Fokus auf. Aufsteilung im Stoßrohr. Um schon vor der Linse ein aufgesteiltes Signal zu erzeugen, kann man ein langes
553 31.4 · Erzeugung von Druckpulsen zur extrakorporalen Steintherapie (ESWL) und Schmerztherapie (ESWT)
Stoßrohr zwischen EMSE und Linse einfügen. Während des Laufwegs wird darin die Anstiegszeit der Welle immer kürzer, am Stoßrohrende erhält man im idealen Fall eine Stoßwelle. Nachteilig ist neben größerer Baulänge und Gewicht der Energieverlust durch in die Rohrwandung eingekoppelte Wellenanteile. In neueren Gerätekonzepten findet man üblicherweise kein Stoßrohr. Aufsteilung durch Fokussierung. Auf dem Weg zum Fokus steilt die Schallwelle ebenfalls auf, wobei dieser Effekt durch die zunehmende Bündelung unterstützt wird. Im Wasserbad kann man daher i. d. R. bei Systemen mit entsprechender Auslegung (Entfernung Linse – Fokus, Anfangsdruck) im Fokusgebiet Stoßwellen messen. Ob die gleichen Signale auch in Gewebe vollständig aufsteilen, lässt sich nur schwer vorausberechnen (Steiger 1998). Weil dessen Verhältnisse (z. B. Schichtung, Dämpfung, Nichtlinearität) beim individuellen Patienten nicht vorhersehbar sind, ist eine genaue Vorhersage der Steilheit im Fokus nicht möglich. Experimente in vivo zeigen aber, dass die Welle voll aufgesteilt sein kann. Bei Schallsignalen mit weniger als etwa 25 MPa im Fokus wird bei in der ESWT üblichen Geometrien (Fokusentfernung 5–10 cm von der Quelle) auch in Wasser kein voll aufgesteiltes Fokussignal erreicht. In einem ESWL-System mit selbst fokussierender KalottenEMSE von 12 cm Apertur (Eisenmenger 2003) entstehen dagegen auch schon bei geringeren Fokusdrücken durch einen entsprechend langen Laufweg zum Fokus voll aufgesteilte Stoßwellen. Der Zylinder-EMSE Bei dieser besonderen Form des EMSE wird die Spule zylinderförmig aufgebaut und von einer zylindrischen Membran umgeben. Der Schallpuls wird dabei radial abgestrahlt. Er hat den gleichen Zeitverlauf wie bei der flachen Bauform, entspricht also dem Quadrat des elektrischen Stromimpulses (Steiger 1998). Die Wellen des Zylinder-EMSE werden durch einen Rotationsparaboloid auf einen Fokus konzentriert. Dabei wird nur ein kleiner Abschnitt des Paraboloids verwendet (Wess 1989).
Piezoelektrische Schallquelle Bei der piezoelektrischen Schallquelle geschieht die Umsetzung von elektrischer in mechanische Energie in polarisierten Keramikplättchen, z. B. aus Blei-ZirkonatTitanat, die sich aufgrund des piezoelektrischen Effekts beim Anlegen einer elektrischen Spannung (bis ca. 5 kV) ausdehnen oder kontrahieren. Meist verwendet man einige Dutzend bis zu mehreren tausend Plättchen, die eng benachbart in einer Ebene oder auf einer kugelabschnittförmigen Trägerstruktur (Anfangs mit 50 cm Durchmesser) aufgebaut werden und
insgesamt eine großflächige Schallfront abstrahlen (Riedlinger 1986; Ueberle 1987). Der zeitliche Verlauf der Piezo-Schallwelle hängt wesentlich vom mechanischen Aufbau der Strahler-Frontund Rückseite (»Backing«) sowie von der gewählten elektrischen Ansteuerung ab. Bei akustisch gut angepasstem Backing lässt sich ohne weitere elektrische Pulsformung als kürzester Schallpuls eine Welle mit einer Überdruckund einer Unterdruckphase erzielen (Riedlinger 1986; Ueberle 1987). Die Zeitdauer des Signals hängt dabei von der Dicke der Piezoelemente (z. B. 5 mm) (Dreyer 2001) ab, sie wird i. d. R. zwischen 1 und 2 μs pro Halbwelle gewählt. Auch Pulsformen, die mehrere Über- und Unterdruckphasen beinhalten, können durch entsprechende Wandlerkonstruktion erzeugt werden. Die Wechsel zwischen Über- und Unterdruck erzeugen dann im Fokus starke Kavitationswirkung, die große Gewebeschäden zur Folge hat. Mögliche Anwendungen hierfür finden sich bei der Tumorzerstörung (Feigl 1995; Schneider 1994; Joechle 1996; Parsons 2006; Coussios 2008) sowie beim Einsatz von Druckpulsen zur Beeinflussung von Zellen in der Biotechnologie (Tschoep 2001; Ueberle 2000).
Selbstfokussierte Aufbauten – Sphärische Schallquellen Piezoelektrische Schallsender werden bevorzugt auf einer sphärischen Oberfläche angeordnet. Dadurch kommen alle von den Einzelelementen abgestrahlten Schallwellen gleichzeitig im Kugelzentrum an, wo sich der Fokus bildet. Je geringer der Raumwinkel (Apertur) der strahlenden Fläche ist, desto mehr verschiebt sich das Druckmaximum in Richtung des Strahlers. Dieser Verschiebung wirkt eine durch die Aufsteilung bedingte positive Verschiebung des Druckmaximums in Richtung Fokus entgegen. Bei voll aufgesteilten Schallwellen fallen geometrischer Fokus und Druckmaximum meist zusammen. Auch bei EMSE-Schallquellen findet man selbstfokussierende Aufbauten mit einer gekrümmten Spiralspule und entsprechender Membran (Staudenraus 1991; Eisenmenger 2003). Neue Ansätze zur Effizienzsteigerung piezoelektrischer Druckpulsquellen Der primäre Schalldruck des einlagigen Piezo-Generators ist mit <1 MPa geringer als der einer EMSE Quelle (Dreyer 2006). Da dadurch auch die Schallenergiedichte an der Piezowandleroberfläche deutlich geringer sind als bei EMSE, ist eine größere Wandlerfläche zur Erzeugung der notwendigen Fokusenergien notwendig. Neue Ansätze (Dreyer 2000; Chapelon 2000) beschreiben geschichtete Wandlerstrukturen, die aus aufeinandergesetzten Einzelelementen bestehen, die zeitlich
31
554
III
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
versetzt angesteuert werden. Im Prinzip wird die patientenseitige Wandlerschicht erst dann angesteuert, wenn die Schallwelle der entfernteren Schicht an ihrer Oberfläche ankommt. Dadurch kann der Primärdruck verdoppelt werden, die Energie wird also vervierfacht (Dreyer 2000). Dies erlaubt z. B. die Reduktion des Wandlerdurchmessers auf 30 cm (für ESWL), wodurch neuartige Systemkonstruktionen möglich werden. Ein geschichteter Wandleraufbau wird z. B. durch Bekleben der Vorder- und der Rückseite einer metallischen Sphäre mit Piezo-Elementen realisiert. Für ESWT-Zwecke gibt es dadurch handgehaltene Wandlerköpfe von <10 cm Durchmesser. Durch Veränderung der Zeitverzögerung zwischen der Ansteuerung der Piezo-Schichten ergeben sich Möglichkeiten, die Fokusgröße zu variieren (Dreyer 2006). Besondere Eigenschaften der Piezo-Schallquelle Ein Piezo-Schwinger erzeugt wie die EMSE zunächst keine Stoßwellen, sondern dreieckförmig ansteigende Signale. Da sie nur geringe hohe Frequenzanteile enthalten, gelten in etwa die gleichen Verhältnisse wie beim EMSE. Das typische Schallsignal des Piezo-Schwingers enthält einen Unterdruckanteil, der zunächst eine ähnliche Amplitude hat wie der Überdruckanteil. Da er aber im Gegensatz zum Überdruckanteil nicht aufsteilt, erzielt man im Fokus eine geringere Unterdruckamplitude. Zu dieser addiert sich noch die Unterdruckamplitude der Randbeugungswelle. Dabei ist eine optimale Signalformung durch elektrische und mechanische Maßnahmen wichtig. Wenn der Wandler wenig gedämpft ausschwingt und dabei mehrere Über- und Unterdruckperioden abstrahlt (Ueberle 1987; Feigl 1995), kann dies zu größerer Gewebezerstörung durch Kavitation führen. Solche Wandler werden für gezielte Gewebezerstörung eingesetzt, nicht aber zur Lithotripsie (Parsons 2006; Coussios 2008). Es wurden erhebliche Anstrengungen unternommen, sowohl monopolare Schallpulse zu erzeugen wie auch die Randbeugungswelle zu minimieren (Riedlinger 1987; Cathignol 1989). Durch die vielfältigen Möglichkeiten zur Pulsformung bieten Piezowandler ein weites Feld für die Untersuchung verschiedenster Bioeffekte. Eine Studie der Effekte von Schallpulsen, die mit einer Unterdruckphase beginnen (Cathignol 1998), zeigte, dass diese inversen Pulse signifikant größere Schäden in Agar und Kaninchenleber verursachten. Andere Autoren berichten dagegen von deutlich geringerer Hämolyse, wenn sie Unterdruckpulse mit einem schallweichen Reflektor und einer Funkenquelle erzeugten (Evan 1998; Jordan 1998). Die Steinzertrümmerung dieser Anordnung war wesentlich geringer als bei funkenerzeugten (Überdruck-)Stoßwellen mit einer vergleichbaren Reflektorgeometrie bei schallharter Reflexion (Crum 1998).
31.5
Praxis der Extrakorporalen Lithotripsie (ESWL) und der Extrakorporalen Stoßwellentherapie (ESWT)
31.5.1 Systemkomponenten eines Lithotripters
Ein typisches Lithotriptersystem wie es in ⊡ Abb. 31.1 und ⊡ Abb. 31.15 zu sehen ist, besteht aus folgenden Komponenten: ▬ Schallquelle mit Ansteuerung und Ankoppelkissen (Wasserkreislauf); ▬ Schallquellenpositionierung; ▬ Ortungseinrichtung(en) mit Monitorsupport; ▬ Gehäuse mit Netzteilen, Steuerung, Stoßgeneratoren etc.; ▬ Patientenlagerung (z. B. Tisch) mit Zubehör zur Halterung von Extremitäten; ▬ EKG-Gerät zur Herzfrequenz-abhängigen Druckpulsauslösung.
Ankopplung Zwischen Schallquelle und Patient wird i. d. R. ein Wasservorlauf eingesetzt, der patientenseitig durch einen Koppelbalg abgeschlossen ist. Der Wasserdruck im Balg kann zur Unterstützung der Ankopplung eingestellt werden. Zwischen Balg und Haut wird ein Ultraschall-Koppelgel gegeben. Dabei sind insbesondere Luftblasen im Gel zu vermeiden, welche die Schallwellentransmission stören und durch ihre Kavitationswirkung Petechien verursachen können (Pishchalnikov et al. 2006; Bergsdorf et al. 2008).
Ortung Während bei der Nieren- oder der Gallenlithotripsie, bei der Zertrümmerung eines Schulter-Kalkdepots und bei einem Knochenbruch das Zielgebiet mittels Ultraschall- oder Röntgengeräten objektiv lokalisiert werden kann, ist der Arzt bei der Schmerztherapie von Epikondylitiden und Ansatztendinosen auf die Mitwirkung des Patienten angewiesen. Er lässt sich i. d. R. die genaue Lage des Punkts maximaler Schmerzen angeben und richtet während der Behandlung die Schallwellen gemäß Patientenangaben auf diesen Ort. Diese Art der Behandlung findet zumeist unter Ultraschallkontrolle statt, da damit auch Gewebestrukturen wie Sehnen und Muskeln darstellbar sind. Bei einigen Systemen ist »Dual Imaging« möglich. Darunter versteht man die simultane Verwendung von Röntgenortung zur präzisen Einstellung des Ziels und einer Realtime-Ultraschallkontrolle. Dadurch ist eine fortlaufende Behandlungskontrolle bei minimaler Strahlenbelastung möglich. Allerdings kann schon aus anatomischen Gründen nicht in allen Therapiesituationen mit
555 31.5 · Praxis der Extrakorporalen Lithotripsie (ESWL) und der Extrakorporalen Stoßwellentherapie (ESWT)
Ultraschall geortet werden. Daher gibt es bei fast allen etablierten Lithotriptern eine Röntgenortung oder Möglichkeiten, eine solche zu integrieren. An die Genauigkeit der Ortung werden hohe Anforderungen gestellt. Wie oben gezeigt, hat die wirksame Fokusebene lediglich einen Durchmesser von ca. 22 mm um die Schallachse, und auch in Achsrichtung hat man nur wenig mehr Platz. Der Mittelpunkt der Ortungsanzeige muss daher hochgenau auf den Fokus zeigen, ungeachtet aller mechanischen Anforderungen an die Positioniermechaniken. Um die Qualität dieser Einstellungen sicherzustellen, wird ein Fokusphantom verwendet, das auf den Therapiekopf aufgesetzt werden kann und die genaue Position des Therapiefokus im Ortungssystem anzeigt und mit dem der Lithotripter in regelmäßigen Zeitabständen geprüft werden sollte.
(⊡ Abb. 31.16). Anstelle der cranial-caudal-Ebene zur Einstellung der vertikalen Patientenposition kann auch eine Lateral-Ebene verwendet werden. Während der Behandlung sind gelegentliche Ortungskontrollen wichtig, besonders wenn der Verdacht besteht, dass sich der Patient bewegt hat. Varianten der Röntgenortung Die ersten Lithotripsiegeräte (⊡ Abb. 31.1) hatten zur Ortung zwei unabhängige Röntgensysteme, die fest auf den Stoßwellenfokus ausgerichtet waren. Die Röntgenstrahlen
Röntgenortung Eine Ortungseinrichtung muss generell in der Lage sein, das Gebiet um den Fokus in allen Raumrichtungen darzustellen. Während das Problem bei älteren Lithotriptern durch zwei Röntgensysteme gelöst wurde, deren Schnittpunkt der Röntgenachsen auf den Stoßwellenfokus ausgerichtet war, verfügen neuere Geräte über einen isozentrisch um den Schallfokus schwenkbaren Röntgenarm. Damit wird der Fokus zunächst durch Verfahren der Schallquelle oder des Patienten in einer horizontalen Ebene bei AP-Durchleuchtung auf das Ziel eingestellt. Anschließend wird das Röntgengerät isozentrisch in eine schräge Position, z. B. cranial-caudal (cc) geschwenkt. In dieser Projektion kann das Ziel vertikal eingestellt werden
⊡ Abb. 31.15. Ein moderner Lithotripter, der gleichzeitig als urologischer Arbeitsplatz genutzt werden kann. Das Bild zeigt alle Systemkomponenten wie Stoßquelle mit Positionierungsmechanik und angebautem Ultraschall-Outline – Ortungssystem, Röntgenortung an einem drehbaren C-Bogen mit Monitorwagen, den in drei Achsen verfahrbaren Lagerungstisch sowie die Bedienkonsole (Dornier Lithotripter S)
⊡ Abb. 31.16. Bei der Röntgenortung wird zunächst bei AP-Durchleuchtung (oberes Bild) das Ziel in den Fokus der Therapiequelle durch Verfahren des Patienten in der horizontalen X-Y-Ebene eingestellt. Anschließend kann bei schräggestelltem Röntgenbogen mittels ccDurchleuchtung unter 30° Schrägstellung die Z-Koordinate des Ziels in den Therapiefokus justiert werden, indem der Tisch oder die Therapiequelle in der Höhe verfahren wird
31
556
III
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
gingen dabei schräg durch den Körper, was die Orientierung erschwerte. Neuere Geräte verwenden mitunter für eine Projektionsrichtung das so genannte Inline-Röntgen, bei dem durch eine strahlendurchlässige Öffnung auf der Mittelachse der Schallquelle geröntgt wird. Nachteilig sind unter Umständen der abschattungsbedingte kleine Bildausschnitt sowie die erhöhte Streustrahlung in der Koppelflüssigkeit, was durch aufblasbare Luftstrecken gelöst werden kann. Besteht kein direkter Röntgenzugang an der Schallquelle vorbei oder durch sie hindurch, so wird auch ein »OfflineRöntgen« eingesetzt. Dabei ist der Röntgenbogen gegenüber der Schallquelle entlang der Tischlängsachse verschoben angeordnet. Zur Ortung wird der Tisch um eine definierte Strecke verschoben. Man kann sich vorstellen, dass die Anforderungen an die mechanische Genauigkeit solcher Anordnungen außerordentlich hoch sind, zumal während der Behandlung die Steinlage und der Zertrümmerungsfortschritt nicht kontrolliert werden kann, ohne den Patienten von der Schallquelle abzukoppeln. In neuerer Zeit wurden auch Ortungssysteme konstruiert, die keine mechanische Verbindung zwischen Schalltherapiekopf und Röntgensystem mehr erfordern. Stattdessen wird die Position der beiden Komponenten gegeneinander durch ein Navigationssystem mit einer Ultraschallsensorik oder infrarotoptischen Mitteln gemessen. Der behandelnde Arzt wird über numerische oder Bildschirmanzeigen über die Position des Schallfokus im Röntgenbild informiert (Köhrmann 1999; Rassweiler 2005). Wesentlich kostengünstiger, aber ebenso exakt arbeitet ein System, das die Position des Therapiekopfs mit Hilfe von Laserpointern auf kleinen Zielscheiben anzeigt, die am Röntgen-Bogen angebracht werden. Damit ist es möglich, jeden beliebigen C-Bogen als Ortungssystem einzusetzen. Ultraschallortung Je nach Anordnung des bildgebenden Ultraschallwandlers unterscheidet man zwischen Inline- und Outlinesystem. Beim Inlinesystem ist der Schallkopf im Zentrum der Therapiequelle eingebaut. Oft kann er um seine Achse geschwenkt oder axial verschoben werden. Vorteilhaft ist, dass Ultraschallbild und Therapiequelle das gleiche Schalleintrittsfenster verwenden. Nachteilig ist, dass der Inline-Scanner einen Teil der Therapiewellen abschattet und an ihm Beugungswellen entstehen. Der resultierende Energieverlust muss durch eine erhöhte akustische primäre Energie ausgeglichen werden. Zudem wird durch die Wasservorlaufstrecke und das Koppelkissen das Bild beeinträchtigt, und es kann zusätzlich zu Artefakten kommen, die die Ortung erschweren. Zur Minimierung dieser Probleme wird oft der Inline-Scanner zur Ortung durch einen axialen Antrieb an den Patienten herangefahren, während der Stoßwellenbehandlung wird er dann möglichst weit zurückgezogen. Durch spezielle Scannerkonst-
ruktionen kann bei guter Bildqualität auf die mechanische Verfahrung verzichtet werden (Bohris et al. 2006). Beim Outlinesystem ist der Ultraschallscanner auf einem zum Therapiefokus isozentrisch beweglichen Arm angeordnet. Damit ist es möglich, für die Ortung wie für die Druckpulsquelle jeweils das optimale Schallfenster zu wählen. Da die Ortungsachse nicht mit der Therapieachse übereinstimmt, sind beim Outlinesystem zwar geringfügig erhöhte Anforderungen an die anatomische Orientierung des Arztes gestellt, dafür ist es aber möglich, mit Standard-Schnittebenen zu arbeiten, was für eine korrekte Beurteilung des Krankheitsbildes Voraussetzung ist. Vorteilhaft ist außerdem die einfache Wechselbarkeit der Scanner zur optimalen Anpassung an jede Behandlungssituation sowie das artefaktfreie ungestörte Bild. Durch unterschiedliche Schallwege von Ortung und Stoßquelle können bei der Outlineortung unter ungünstigen Umständen Missweisungen von einigen Millimetern entstehen (Folbert 1990), die in der Praxis aber mit ca. 2 bis 5 mm gering sind (Bohris et al. 2010; Rassweiler 2010) und durch die Echtzeit-Beobachtung des Zertrümmerungsvorgangs kompensiert werden können. Auch für die Ultraschallortung werden schon sensorbasierte Navigationssysteme zur Anzeige der Fokusposition eingesetzt. Der Therapiefokus wird dabei in das Ultraschallbild eingeblendet oder über eine numerische Anzeige dem Arzt mitgeteilt. Zur Halterung des Ultraschallscanners ist dennoch ein mechanischer Arm notwendig, wenn eine andauernde Beobachtung der Behandlung gewünscht wird.
31.5.2 Ansätze zur Online-Zertrümmerungs-
kontrolle während der Behandlung Bedingt durch die Atmung verschiebt sich die Niere teilweise um mehrere Zentimeter, sodass der Stein oft aus dem Zielgebiet auswandert. Dadurch werden deutlich mehr Stoßwellen zur Behandlung gebraucht als eigentlich zur Steinzertrümmerung bei ruhendem Ziel notwendig sind (Rassweiler 2010). Bereits früh wurden Ansätze untersucht, den Fortgang der Steinzertrümmerung online zu verfolgen. PiezoWandler können auch Signale empfangen. Damit können sowohl Echos von Testpulsen als auch Signale, die nach den Hochenergiepulsen in der Fokusregion entstehen, empfangen werden. Durch Auswertung der Signalpolarität ist dabei eine Unterscheidung zwischen Kavitations- und Steinsignalen möglich (Ueberle 1988). Durch Einblendung der Signale in ein synchronisiertes Ultraschallbild konnten ebenfalls Echos aus der Fokusregion verstärkt werden, um damit ein »Hit-Miss«-Monitoring zu realisieren (Kuwahara et al. 1991). In neueren klinischen Versuchen wurde gezeigt, dass durch Auswertung der Zeitdauer von Dopplersignalen,
557 31.6 · Der Patient
die direkt nach einem Druckpuls erfasst werden, eine hochsignifikante Aussage über Treffer oder Fehlschuss zu machen ist und auch der Zertrümmerungsfortgang beobachtet werden kann (Bohris et al. 2003). All diese Verfahren fanden jedoch bislang klinisch keine weite Verbreitung. Insbesondere Lösungen, die die Abgabe von Stoßwellen bei nicht vorhandenen Steinreflexen im Fokus unterbinden, führten – wie auch Atemtriggerung – zu einer unregelmäßigen Stoßwellenabgabe, was auf Patienten und Behandler stark irritierend wirkt (Rassweiler 2005). So bleibt man bislang bei einer kontinuierlichen, gleichmäßigen Stoßwellenabgabe und nimmt dabei eine gewisse Anzahl (bis zu 30%) Fehlschüsse in Kauf. Eine sowohl kontinuierliche als auch wohlgezielte Stoßwellenapplikation könnte durch eine Online-Zielverfolgung erreicht werden. Mechanische Nachführungen lassen sich aufgrund der großen bewegten Massen der Druckpulsquellen kaum umsetzen. Ein Ansatz wäre die elektronische Fokussierung der Druckpulse, etwa mittels »Phased Array« aus vielen Einzelquellen (16–128). Derartige Konstruktionen wurden als »Akustischer Spiegel« vorgestellt und bereits klinisch erprobt, konnten sich aber aufgrund ihres hohen technologischen Aufwandes und damit Preises bislang nicht behaupten (Fink 1999).
31.6
Der Patient
31.6.1 Patientenlagerung bei der ESWL
und ESWT Bei der Steinbehandlung wird der Patient i. d. R. liegen. Dies erleichtert die Analgesie und die Überwachung von Blutdruck und Puls. Zur ESWT-Behandlung kann der Patient sitzend oder liegend gelagert werden. Eine liegende Position kann auch hier zur Vermeidung von Kreislaufproblemen vorteilhaft sein, besonders wenn unter Lokalanästhesie behandelt wird. Durch entsprechende Halterungen können die Extremitäten gestützt und in eine geeignete und bequeme Ankoppelposition gebracht werden. Dadurch wird auch das Abkoppeln durch schmerz- oder schreckbedingte Reflexe verringert.
31.6.2
Stein- und patientenabhängige Einflüsse
Im Abschnitt über die Steinzertrümmerung wurden bereits die beteiligten Effekte aus physikalischer Sicht diskutiert. Dabei wurde von idealisierten Bedingungen ausgegangen, wie man sie nur bei der Messung im Wasserbad findet. Um den Patienteneinflüssen Rechnung zu tragen, wurde von einer Arbeitsgruppe der Deut-
schen Gesellschaft für Stoßwellenlithotripsie (DGSL) ein Patienten-Phantom entwickelt (Wess 1997), um das es allerdings – auch aufgrund der erheblichen Anzahl von zu berücksichtigenden Parametern – recht ruhig geworden ist. Bei der realen Steinbehandlung spielen folgende Einflüsse der »wirklichen Welt« eine große Rolle für das Zertrümmerungsergebnis, die benötigte Energie pro Puls und die Gesamt-Energiedosis: 1. Abschwächung durch Gewebeabsorption; 2. Energiedissipation und Verluste durch nichtlineare Veränderung der Schallpulse; 3. Reflexion an Gewebegrenzflächen (Haut, Fett, Muskel, Nierenkapsel, Harnleiter etc.); 4. Abschattung durch Knochenstrukturen (Rippen, Rückgrat, Hüftknochen) (Delius 1994); 5. Abschattung durch Einbauten in der Schallquelle, z. B. Ultraschall-Inline-Schwinger (Delius 1994; Wess 1989; Bohris et al. 2006); 6. Abschattung durch gasgefüllte Strukturen (z. B. Gas im Darm); 7. Abschattung und Absorption durch »Sludge«, d. h. bereits zertrümmerter Steinmasse (Lobentanzer 1991); 8. Aberration an Grenzschichten durch Schallbrechung (führt auch zu Missweisung der Ortung); 9. Einfluss des den Stein umgebenden Mediums (Gewebe, Urine, Gallenflüssigkeit etc.) auf die Bildung und Ausbreitung von Kavitation (Koch 1998; Delius 1994; Vakil 1991; Zhong 2001); 10. Impaktierte Steine, z. B. im Ureter (Parr 1992; Nitsche 1994) oder auch Verkalkungen in der Schulter (Loew 1994) benötigen deutlich höhere Energiedosen zur Zertrümmerung als frei schwimmende Steine in der Niere. Bei viskoser Steinumgebung wie PVA wurden 8–10-fach mehr Druckpulse zur Steinzertrümmerung benötigt verglichen mit reinem Wasser (Delius 1994); 11. Gasbläschen im Stoßwellenpfad (z. B. im Koppelgel zwischen Koppelbalg und Patient oder in Fettschichten an der Haut) erhöhen die Dämpfung im Stoßwellenpfad deutlich (Rassweiler 2010; Bergsdorf 2008); 12. Unterschiedliche Steinzusammensetzung kann die notwendige Stoßzahl vervielfachen (Heimbach 2000); 13. Fehlpositionierung durch Ortungsfehler können rasch zu Verschiebungen im Zentimeterbereich führen; 14. Bewegung des Organs und des Steines durch Atemverschiebung, typisch sind um 30 mm (Carlson 1986); 15. Fehlpositionierung aufgrund einer Bewegung des Patienten – daher ist gelegentliche Ortungskontrolle (trotz ggf. damit verbundener Röntgendosis) wichtig. Diese Einflüsse summieren sich zu einem starken Einfluss auf die Gesamtschusszahl auf: Die Anzahl der Pulse pro Steinbehandlung (1000 bis >5000 Pulse pro Behandlung bei einer Wiederbehandlungsrate von 10% bis >40%) ist
31
558
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
i. d. R. zumindest 5- bis 10-mal höher als die Pulszahl, die ein vergleichbarer Modellstein in einem idealen Labormodell mit entgastem Wasser benötigt (z. B. 0,9 ml Modellsteinmaterial benötigen 50–500 Pulse (Köhrmann 1993).
31.7
III
Angriff genommen werden. Eine sinnvolle Größe bei der Steinbehandlung ist die gesamte effektive Energie einer Behandlung, also die Summe der effektiven Energien pro Druckpuls E12mm (Forssmann 2002; Rassweiler 2010). Bei der ESWT wird ebenfalls eine aufsummierte effektive Energie (Meier 1998) oder auch die Summe der Pulsintensitäten diskutiert.
Bewertung der klinischen Effizienz von Lithotriptoren 31.7.1 Einfluss der Fokusgröße
Für die Beurteilung der klinischen Effizienz eines Lithotripters spielt nicht nur die reine Zertrümmerungsleistung eine Rolle. Vielmehr sind patientenbezogene Faktoren zu berücksichtigen, die sowohl Anforderungen an die Analgesie und Anästhesie wie auch Auxiliärmaßnahmen nach der Behandlung, z. B. endourologische Eingriffe bei Harnstau sowie Mehrfach-Lithotripsien (Re-ESWL) berücksichtigen. Alle diese Anforderungen wurden in einem Effizienz-Quotienten zusammengefasst (Tailly 1999; Rassweiler 1992), der wie folgt definiert ist: EQA =
% steinfreie Patienten
(31.1)
100% + %Zweitbehandlung + %Auxiliärmaßnahmen nach ESWL
Moderne Behandlungsstrategien beinhalten außerdem Auxiliärmaßnahmen vor der Behandlung wie das Legen von Kathetern oder das Zurückschieben eines Harnleitersteins in die Niere. Sie werden als zusätzlicher Summand im Nenner berücksichtigt, der Quotient wird dann als EQB bezeichnet. Bei Geräten der ersten Generation fand man EffizienzQuotienten ab 25%, während mit den modernen Geräten bis 67% erreicht werden (Köhrmann 2005). Dabei spielt sowohl die seither erhöhte Steinfreiheit (üblicherweise nach 3 Monaten kontrolliert) wie auch die stetige Verringerung auxiliärer Maßnahmen und die für den Patienten weniger belastenden, schmerzärmeren Schallquellen eine große Rolle. Unterschiedliche Autoren finden aber beim gleichen Gerät oft sehr unterschiedliche Effizienzquotienten (z. B: HM3: 0,25–0,67) – Interessant ist, dass gerade dieses vor 25 Jahren eingeführte Gerät von einigen Ärzten bis heute als das effizienteste Gerät geschätzt wird (Gerber 2005). Gemäß einer neueren Studie spielen sowohl die angewandte Behandlungsstrategie (Energie, Stoßzahl, Ortung) wie das Training und die Erfahrung der Anwender eine entscheidende Rolle (Logarakis 2000) für die Effizienz der Behandlung. Ein weiterer Grund für größere Abweichungen kann in der unterschiedlichen Patientenpopulation von Studien liegen, z. B. durch Ein- oder Ausschluss von Uretersteinen oder die Beschränkung der Steingröße. Nachdem heutzutage durch die verbesserte Messtechnik auch die technischen Daten der Schallquellen ausreichend genau erfasst werden können, sollte die Einführung einer Druckpuls-Dosimetrie bei den Behandlungen in
Aussagen über die Fokusgröße beziehen sich traditionsund normgemäß auf die axialen und lateralen (–6 dB) Fokusabmessungen, ein Wert, der leider, wie oben gezeigt, keine brauchbare Korrelation zur Zertrümmerungseffizienz hat und sogar zu Fehleinschätzungen der Druckpulsquellen verführt. Auch in neueren Arbeiten, bei denen Geräte verschiedener Hersteller mit kleinerem und größerem Fokus verglichen werden, werden i. d. R. keine effektiven Energiewerte aufgelistet. Ursache dafür ist eine mangelnde Verpflichtung zu solchen Angaben. In einer Konsensvereinbarung (Wess 1997) hat man sich zwar in Deutschland auf einen entsprechenden Datensatz geeinigt. Umgesetzt wurde diese Vereinbarung aber bislang erst für ESWT-Geräte, deren technische Daten konsistent mit Glasfasersonden gemessen wurden und auf den Internetseiten der (DIGEST) zugänglich sind. Für Lithotripter existiert eine solche Datenbasis bislang nicht. Publizierte Vergleiche mit Hilfe von Modellsteinen geben eine gewisse Orientierung (Teichmann 2000), werden aber nicht von allen Herstellern akzeptiert. Eine Standardisierung einer Modellstein-Messtechnik steht noch aus. Ein Vergleich von klinischen und technischen Daten zwischen Geräten mit breitem Fokus und niedrigem Spitzendruck und Geräten mit kleinerem Fokus und deutlich höherem Spitzendruck anhand der klinischen Effizienzquotienten EQA ist aufgrund unvollständiger Daten und der oben erwähnten Streuung nur unvollständig möglich. Dennoch seien zwei Beispiele genannt: Ein Gerät mit 18 mm (–6 dB) Fokus bei 20–32,8 MPa vs. Einem Gerät mit 6 mm (–6 dB) Fokus und ca. 90– 100 MPa: Die klinischen EQA liegen in beiden Fällen bei 0,65 (Niederdruckgerät) bzw. 0,62 (Hochdruckgerät) und sind somit vergleichbar (Eisenmenger 2001). Allerdings wird von anderen Autoren die Vermutung geäußert wird, dass das Patientengut zwischen den Studien große Unterschiede aufweise (Rassweiler 2005). Ein weiterer Vergleich mit Hilfe von Daten aus zwei verschiedenen Publikationen ergibt für das »Niederdruckgerät« (33 MPa bei 16 mm –6 dB Breite) einen EQA von bis zu 0,67 gegenüber einem EQA von 0,71 für das »Hochdruckgerät« (90 MPa bei 5,4 mm –6 dB Breite: Forssmann et al. 2002; Niersteenverbrijzeling-eng 2005). Aus diesen Daten lässt sich also derzeit kein wirklicher Vor- oder Nachteil der beiden Philosophien »großer
559 31.7 · Bewertung der klinischen Effizienz von Lithotriptoren
Fokus, niederer Druck« bzw. »kleinerer Fokus, hoher Druck« ableiten. Bislang kaum berücksichtigt oder schwer zu ermitteln sind die Nebenwirkungen verschiedener Geräte. Dazu ist anzumerken, dass der Anteil schwerer klinisch relevanter Nebenwirkungen (offenbar bei allen am Markt befindlichen Geräten) i. d. R. zu gering ist, um eine statistisch signifikante Aussage für einen Gerätetyp zu ermöglichen. Von Befürwortern großer Foki und geringem Spitzendruck wird aber besonders auf die sehr geringen Nebenwirkungen und (beim ersten Beispiel, s. oben) auch auf völligen Verzicht auf Anästhesie und sogar Analgesie trotz hoher Effizienz bei geringer Gesamt-Stoßwellenzahl hingewiesen. Als Grund wird der außerordentlich geringe Unterdruckanteil von weniger als 5 MPa angeführt, wodurch gewebeschädigende Kavitation weitestgehend vermieden wird (Eisenmenger 2003). Die Befürworter anderer Philosophien beziehen sich auf die positiven Erfahrungen in mehreren Millionen erfolgreichen Behandlungen, wobei subkapsuläre Nierenhämatome als häufigste schwere Komplikation lediglich in 0,1–0,7% der Fälle vorkommen und andere Organe weitaus seltener geschädigt werden (Hirata 1999). Von einigen Herstellern werden Geräte mit umschaltbaren Fokuseigenschaften angeboten. Dies wird bei einigen durch komplett auswechselbare Reflektorsysteme erreicht. Bei neueren Geräten variiert man die Pulsdauer der EMSE-Ansteuerung oder die Verzögerungszeiten von zwei Piezo-Lagen. Der größere Fokus soll dabei für Nierensteine gewählt werden. Für impaktierte Uretersteine wäre wohl eher der kleinere Fokus zu wählen. Neuerdings gibt es auch Geräte, die mit zwei konfokalen Stoßquellen ausgerüstet sind (Dual Source Lithotripter). Damit ist es möglich, die Energie am Stein zu verdoppeln, ohne dabei den Stoßwellenpfad stärker zu belasten.
31.7.2 Nebenwirkungen und Sicherheit
Als unmittelbare Nebenwirkungen der ESWL werden aufgeführt: Schmerz, Harntraktinfektion, Obstruktion der Harnwege, Hämaturie, Herzrhythmusstörungen, Nierenhämatome und subkapsuläre Hämatome sowie Verletzungen umliegender Organe. Lediglich die letzten drei Nebenwirkungen werden als schwer eingeschätzt. Verzögerte Komplikationen sind Funktionsverluste der Niere, Bluthochdruck (umstritten), Steinstraße, Restkonkremente und wiederkehrende Steinbildung. Die meisten dieser Komplikationen sind selten; einige werden unterschiedlich bewertet und fast alle können durch die Einhaltung entsprechender Behandlungsrichtlinen minimiert werden (Maheshwari 2002). Bei der niederenergetischen ESWT der Epicondylitiden treten sehr geringe Nebenwirkungen wie transiente Hautrötung, Schmerzen, kleine Hämatome und
selten Migräne auf (Haake 2002). Bei höher energetischen ESWT Behandlungen kann es selten auch zu großflächigeren Hämatomen kommen. An gashaltigen Geweben wird die Schallenergie fast vollständig reflektiert. Besonders an der Lunge kann es dabei zu schweren Schäden kommen. Bei der Therapieplanung ist daher zu berücksichtigen, dass die Lunge nicht im Schallweg auf der Schallachse ist, auch nicht in weiterer Entfernung vom Fokus. Der Sicherheitsabstand zum Fokus richtet sich nach den konstruktiven Merkmalen der Schallquelle. Die Stoßwellenwirkung auf Nerven ist bislang ungeklärt. Es wurde zunächst nachgewiesen, dass Nerven durch Kavitation angeregt werden können (Hepp 1992). Über mögliche Schäden gibt es aber bislang keine Untersuchungen. Das unbeabsichtigte Beschallen von Nerven, die sich in Fokusnähe oder auf der Stoßwellenachse befinden, sollte daher vermieden werden. Anzeichen von Taubheit und andere neurologische Reaktionen sollten sorgfältig beachtet werden. Inzwischen werden jedoch bereits Patente auf die Beschallung von Nerven mit Hochenergie-Schallpulsen erhoben. Bei der Einnahme blutverdünnender Medikamente werden verstärkt Hämatome beobachtet – solche Mittel sollten daher rechtzeitig vor dem Behandlungstermin abgesetzt werden. Die Deutsche Gesellschaft für Stoßwellenlithotripsie schreibt vor, dass die Medikamente vor der ESW-Behandlung zumindest 10 Tage abgesetzt werden sollen (DGSL 1999). Bei Schwangeren ist nicht nur aufgrund der Belastung durch eine Röntgenortung Vorsicht geboten. Die Wirkung der Stoßwellen (auch indirekt durch Schmerzen bei der Behandlung) auf die Entwicklung des Fötus ist noch nicht ausreichend untersucht. Bei Schrittmacherpatienten muss sichergestellt sein, dass das Gerät im eingestellten Modus nicht durch die starken elektromagnetischen Pulse der Therapiequelle beeinflusst wird, andernfalls ist von der Behandlung abzusehen. Während bei den Geräten der ersten Generation generell mit EKG-Triggerung gearbeitet wurde, kann bei den neueren Geräten auf Festfrequenz umgeschaltet werden. Die maximale Wiederholrate ist dabei 120 bis (selten) 240 Pulse pro Minute. Aufgrund der Kavitationsbildung ist jedoch die Wirkung der Pulse auf den Stein mit steigender Wiederholrate geringer, während die Gefahr von Nierenhämatomen ansteigt (Delius 1988; Wiksell 1995). Neuere Tierexperimente und klinische Berichte (Evan 2007; Pishchalnikov et al. 2006) deuten ebenfalls auf verringerte Nierenschädigung bei langsameren Pulsfolgefrequenzen hin. Bei Patienten mit Neigung zu Herzrhythmusstörungen muss das EKG überwacht werden, gegebenenfalls können die Druckpulse EKG-getriggert ausgelöst werden. Dies gilt auch, wenn Teile des Herzens im Bereich der Druckpulswellenachse liegen.
31
560
III
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
In den letzten Jahren werden Behandlungsprotokolle erarbeitet, deren Anwendung zu reduzierten Nebenwirkungen führt (Lingeman et al. 2009; Rassweiler 2010). Eine besondere Rolle spielen dabei die blasenfreie Ankopplung, eine relativ langsame Stoßwellen-Pulsfolgefrequenz sowie die Strategie, die Stoßwellenenergie allmählich während der Behandlung zu steigern. Mit fortlaufendem Monitoring der applizierten Stoßwellendosis sowie verbesserter Echtzeit-Ortung kann man den Endpunkt der Zertrümmerung bestimmen und damit unnötige Stoßwellengaben reduzieren. Die generellen Anforderungen an die Gerätesicherheit von Lithotriptoren sind in der internationalen Norm IEC 601-2-36 nachzulesen. Medizinische Richtlinien werden von urologischen bzw. orthopädischen Fachgesellschaften erarbeitet und immer wieder den neuesten Erkenntnissen angepasst.
31.8
Fachgesellschaften für Lithotripsie und Schmerztherapie
In Deutschland wurden einige Fachgesellschaften gegründet, die sich mit allen Aspekten der Stoßwellenlithotripsie und Schmerztherapie beschäftigen. An dieser Stelle sei besonders auf die Deutsche Gesellschaft für Stoßwellenlithotripsie hingewiesen, die im Rahmen der Deutschen Gesellschaft für Urologie insbesondere für die Nierenlithotripsie und verwandte Gebiete zuständig ist. Sie entwickelt Richtlinien zur Qualitätssicherung und beobachtet auf breiter Ebene die technische und medizinische Entwicklung der extrakorporalen und intrakorporalen Steinzertrümmerung und verwandter Gebiete. Die Deutsche und Internationale Gesellschaft für Stoßwellentherapie (DIGEST) widmet sich den Belangen der Schmerztherapie und der Pseudarthrosenbehandlung mit Hilfe von Stoßwellen. Im internationalen Umfeld arbeitet die ISMST (International Society for Muscosceletal Shockwave Therapy) mit ähnlichen Zielen.
31.9
Zum Abschluss
Ich danke allen Kollegen der »ESWL-Szene« für ihre stets freundlichen und kooperativen Anregungen.
Literatur Bergsdorf, Chaussy, Thüroff (2008) Energy coupling in extracorporeal shock wave lithotripsy – the impact of coupling quality on disintegration efficacy. J Endourol 22: A161 (Suppl) Bergsdorf, Thüroff, Chaussy (2005) The isolated perfused kidney: an in vitro test system for evaluation of renal tissue by high-energy shockwave sources. J Endourol 19: 883–888
Berlinicke, Schenneten (1951) Vorläufige Mitteilung d.I.Med.Univ. Klin.d.Charite Berlin.Klin. Wschi. 21/22, p 390 Bohris, Bayer, Lechner (2003) Hit/Miss Monitoring of ESWL by Spectral Doppler Ultrasound, Ultrasound Med Biol Vol 29(5): 705–712 Bohris, Jensen, Bayer, Liong (2006) A New Integrated Ultrasound System for Shockwave Lithotripsy. J Endourol 20(11) Bohris, Bayer, Gumpinger (2010) Ultrasound Monitoring of Kidney Stone Extracorporeal Shockwave Lithotripsy with an External Transducer: Does Fatty Tissue Cause Image Distortions That Affect Stone Comminution? JOURNAL OF ENDOUROLOGY Volume 24, Number 1, January 2010 Carlson, Boysen, Banner, Gravenstein (1986) Stone Movement During ESWL. In: Gravenstein, P (ed) Extracorporeal shock-wave lithotripsy for renal stone disease, Butterworths: ESWL for Renal Stone Disease. Boston, pp 77–85 Cathignol, Chapelon, Mestas et al. (1989) Minimization of the negative pressure in piezoelectric shock wave. Ultrasonics Int. Conf. Proc., pp 1142ff Cathignol, Tavakkoli, Arefiev (1998) Influence of the pressure time waveform on the transient cavitation effect. 135th ASA conf. Proc., pp 2799f, Seattle (WA) Cathignol, Mestas, Gomez, Lenz (1991) Influence of Water Conductivity on the Efficiency and the Reproducibility of Electrohydraulic Shock Wave Generation. Ultrasound Med Biol Vol.17(8): pp 8, 19–828 Chapelon, Cathignol, Cain et al. (2000) New Piezoelectric Transducers for Therapeutic Ultrasound. Ultrasound Med Biol 26(1): 153–159 Chaussy (1980) Berührungsfreie Nierensteinzertrümmerung durch extrakorporal erzeugte, fokussierte Stoßwellen. S. Karger Verlag, Basel Chuong, Zhong, Preminger (1992) A comparison of stone damage caused by different modes of shock wave delivery. J.Urol. 148: 200 Church (1999 On Nucleation Theory. DKE 821.3 Document 55/99, VDE, Frankfurt Cleveland, Bailey, Crum et al. (1998) Effect of Overpressure on Dissolution and Cavitation of Bubbles Stabilized on a Metal Surface, 135th ASA Conf. Proc., 2499–2500 Coats (1956) The J.Of Urology 75(5): B65–876 Coleman, Saunders (1990) A comparison of PVDF Hydrophone Measurements in the Acoustic Field of a Shock Wave Source. In: Extraund Intrakorporale Lithotripsie bei Harn-, Gallen-, Pankreas und Speichelsteinen, Thieme, Stuttgart, pp 15–22 Coleman, Codama, Choi et al. (1995) The cavitation threshold of human tissue exposed to 0,2 M Hz pulsed ultrasound: Preliminary measurements based on a study of clinical lithotripsy«. UMB 21: 405–417 Coleman, Choi, Saunders (1996) Detection of acoustic emission from cavitation in tissue during clinical extracorporeal lithotripsy. Ultrasound Med. Biol. Vol. 22(8): 1079–1087 Coleman, Draguioti, Tiptaf et al. (1998) Acoustic Performance and Clinical Use of a Fiberoptic Hydrophone. UMB Vol. 24(1): 143–151 Coussios, Roy (2008) Applications of Acoustics and Cavitation to Noninvasive Therapy and Drug Delivery. Annual Review of Fluid Mechanics 40: 395–420 Crum, Bailey, Kaczkowski et al. (1998) Therapeutic Ultrasound: A Promising Future in Clinical Medicine. 135th ASA conf. Proc., pp 7, 19f, Seattle (WA) Dahmen, Meiss, Nam Skruodies (1992) Extrakorporale Stoßwellentherapie (ESWT) im knochennahen Weichteilbereich der Schulter. Extr Orthop 11: 25 Delhaye, Vandermeeren, Baize, Cremer (1992) Extracorporeal shock wave lithotripsy of pancratic calculi. Gastroenterology 102: 610– 620 Delius, Enders, Heine et al. (1987) Biological Effects of Shock Waves: Lung Hemorrhage by Shock Waves in Dogs – Pressure Dependence. UMB 13: 61–67
561 Literatur
Delius, Jordan, Eizenhöfer et al. (1988)Biological Effects of Shock Waves: Kidney Haemorrhage by Shock Waves in Dogs – Administration Rate Dependence. Ultrasound Med Biol 14: 689–694 Delius, Denk, Berding et al. (1990) Biological Effects of Shock Waves: Cavitation by Shock Waves in Piglet Liver. Ultrasound Med Biol 16: 467–472 Delius M, Gambihler (1992) Sonographic imaging of extracorporeal shockwave effects in the liver and gallbladder of dogs. Digestion, 52–60 Delius, Ueberle, Gambihler (1994) The destruction of gall stones and model plaster stones by extracorporeal shock waves. Ultrasound in Med. & Biol. Vol. 20(3), pp 251–258 Delius, Hofschneider PH, Lauer U, Messmer K (1995) Extracorporeal shock waves for gene therapy? Lancet 345: 1377 Delius, Draenert et al. (1995) Biological effects of shock waves: in vivo effect of high energy pulses on rabbit bone. Ultrasound in Med. and Biol. Vol. 21(9): 12, 19–1225 Delius (1997 »Minimal static excess pressure minimizes the effect of extracorporeal shock waves on cells and reduces it on gallstones. UMB 23: 611–617 Delius (1998) Ueberle, Eisenmenger: »Extracorporeal Shock Waves Act by Shock Wave – Gas Bubble Interaction. Ultrasound Med. Biol. Vol. 24(7): 1055–1059 Delius (1999) Adams: Shock Wave Permeabilization with Ribosome Inactivationg Proteins: A New Approach to Tumor Therapy. Cancer Research 59: 5227–5232 DIGEST: http://www.digest-ev.de DGSL (1995 Deutsche Gesellschaft für Stoßwellenlithotripsie: Konsensus-Workshop 4 der deutschen Gesellschaft für Stoßwellenlithotripsie. Die Stoßwelle. Attempto-Verlag, Tübingen DGSL (1999 Deutsche Gesellschaft für Stoßwellenlithotripsie, Mitgliederversammlung 1999: Anmerkung zum rechtzeitigen Absetzen von blutverdünnenden Mitteln vor ESWL Drach, Dretler, Fair et al. (1986) Report of the United States cooperative study of extracorporeal shock wave lithotripsy. J. Urol. Vol. 135: 1127–1133 Dreyer, Riedlinger, Steiger (1998) Experiments on the relation of shock wave parameters to stone disintegration. 135th ASA Conf. Proc., 2811–2812 Dreyer, Krauss, Bauer, Riedlinger (2000) Investigations of Compact Self Focusing Transducers using Stacked Piezoelectric Elements for Strong Sound Pulses in Therapy, IEEE Ultrasonics Symposium Proc., 1239–1242 Dreyer, Riedlinger (2001) Modeling of Piezoceramic Composite Transducer Structures Generating Strong Sound Pulses in Therapy. IEEE Ultrasonics Symposium Proc., 1027–1030 Dreyer (2006) Systemmodellierung piezoelektrischer Sender zur Erzeugung hochintensiver Ultraschallimpulse für die medizinische Therapie, Forschungsberichte aus dem Institut für Höchstfrequenztechnik und Elektronik, Karlsruhe Band 49 ISSN 09422935 Eisenmenger (1962) Elektromagnetische Erzeugung von ebenen Druckstössen in Flüssigkeiten. Akustische Beihefte, Acustica Heft 1: 185–202 Eisenmenger (2001) The Mechanisms of Stone Fragmentation in ESWL. Ultrasound Med Biol 27(5): 683–693 Eisenmenger (2003) Die Physik der akustischen Nierensteinzertrümmerung und neue klinische Resultate. Vortrag anläßlich der Verleihung der Hermann von Helmholtzmedaille bei der DAGA Tagung Aachen, Proceedings, DPG Verlag, Bad Honnef Evan, Willis, Connors et al. (1998) Separation of cavitation and renal injury induced by ahock wave lithotripsy (SWL) from SWL-induced impairment of renal hemodynamics. 135th ASA conf. Proc., pp 2487f, Seattle (WA) Evan, McAteer, Connors, Pishchalnikov, Handa, Blomgren, Willis, Williams, Lingeman, Gao (2007) Independent assessment of a wide-
focus, low-pressure electromagnetic lithotripter: absence of renal bioeffects in the pig. BJU Int 101: 382–388 Evan, McAteer, Connors, Blomgren, Lingeman (2007) Renal injury is significantly reduced by slowing the rate of shock wave delivery, BJU Int. 100, 624–627 FDA (1991) Draft of suggested information for reporting extracorporeal shock wave lithotripsy device shock wave measurements, FDA, Rockville, USA FDA (2002-1) http://www.accessdata.fda.gov/cdrh_docs/pdf/P000048b. pdf FDA (2002-2) http://www.accessdata.fda.gov/cdrh_docs/pdf/P010039b. pdf Fedele, Coleman, Leighton, White, Hurrell (2004) A New Sensor for Detecting and Characterising Acoustic Cavitation in Vivo During ESWL. Proceedings of the Institute of Acoustics, vol. 26 Pt2: 422–432 Fedele, Coleman, Leighton, White, Hurrell (2004) A New Sensor for Detecting and Characterising Acoustic Cavitation in vivo During ESWL. Proceedings of the Institute of Acoustics 26: 422–432 Feigl, Waldfahrer et al. (1995) Destruction of normal and malignant human cells by high-energy pulsed ultrasound. Proc. World congress on Ultrasonics, pp 1087–1090 Filipiczinsky (1990) Capacitance Hydrophone for Pressure Determination in Lithotripsy. Ultrasound Med Biol Vol. 16: 157–165 Fink (1999) Time-reversed acoustics. Scientific American 281: 91–97 Folbert, Hassler (1990) Die Wertigkeit von Inline-und Outline Ultraschall-Lokalisation in der extrakorporalen Stoßwellen-Lithotripsie. Z Urologie Poster I, p 46 Forssmann, Ueberle, Bohris (2002) Towards a New EMSE Generation. J Endourol 16 (Suppl 2): 18–21 Gambihler, Delius (1992) Influence of dissolved and free gases on iodine release and cell killing by shock waves in vitro. Ultrasound in Med. and Biol. Vol 18. No 6/7: 617–621 Gerber, Studer, Danuser (2005): Is Newer Always Better? A comparative Study of 3 Lithotriptor Generations. J Urol 2005 Jun; 173(6): 2013–6 Granz, Köhler (1992) What makes a shock wave efficient in lithotripsy?. J.Stone Dis, Vol. 4, No.2, April 1992, pp 123–125 Granz, Nanke, Fehre, Pfister, Engelbrecht (2004) Light Spot Hydrophone, Innovation in Lithotripsy. Medical Solutions, June 2004, 86–87 Haake, Boddecker, Decker et al. (2002) Side-effects od Extracorporeal Shock Wave Therapy (ESWT) in the Treatment of Tennis Elbow. Arch Orthop Trauma Surg 2002, may; 122(4): 222-8 Harris (1989) Lithotripsy pulse measurement errors due to non-ideal hydrophone and amplifier frequency response. FDA, Rockville Haupt et al. (1992) Influence of shock waves on fracture healing. Urology 39, 6: 529–532 Heimbach, Munver, Zhong et al. (2000) Acoustic and mechanical properties of artificial stones in comparison to natural stones« J. Urol. Vol. 164: 537–544 Hepp (1984) Überblick über die Entwicklung der Stoßwellenlithotripsie, September 1984. Dornier Medizintechnik, Friedrichshafen Hepp (1989) Work bond index values (persönliche Mitteilung) Herbertz (1993) Physikalische Grenzwerte für die sichere medizinische Anwendung des Ultraschalls am Menschen. DAGA, Fortschritte der Akustik, DPG-Verlag Herbertz (1988) Spontaneous Cavitation in Liquids Free of Nuclei. Fortschritte der Akustik DAGA 88, DPG Verlag, Bad Honnef, pp 439–442 Hirata, Kushida, Ohguri et al. (1999) Hepatic subcapsular hematoma after extracorporeal shock wave lithotripsy (ESWL) for pancreatic stones« J Gastroenterol 1999 Dec.; 34 (6): 713–6 Holtum (1993) Eigenschaften und Desintegration von menschlichen Gallensteinen unter Stoßwelleneinwirkung. Dissertation, Stuttgart 1993
31
562
III
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
HPA (2010) Report of the Health Protection Agency: Safety of Ultrasound and Infrasound 1265028759369.pdf, UK 2010, p 36 IEC (1998) Norm 61846 Pressure Pulse Lithotripters, International Electrotechnical Commission, Genf 1998 Iloreta, Zhou, Sankin, Zhong, Szeri (2007) Assessment of shock wave lithotripters via cavitation potential. Physics of Fluids 19: 86103 Iro, Nitsche, Schneider, Ell (1989) Extracorporeal shock wave lithotripsy of salivary gland stones. Lancet II: 115 Jocham (1998) Report at the meeting of the German Society for Shockwave Lithotripsy Joechle (1996) Kavitationsdosimetrie in hochenergetischen Ultraschallfeldern« Dissertation, Heidelberg 1996 Jordan, Bailey, Cleveland, Crum (1998) Detection of Lithotripsy Induced Cavitation in Blood. 135th ASA conf. Proc. pp 2809f, Seattle (WA) Kauleskar, Sukul et al. (1993) The effect of high energy shock waves focused on cortical bone. J. Surg. Res. 54: 46–51 Kedrinskii (1998) On a mechanism of target disintegration at shock wave focusing in ESWL. 135th ASA Conf. Proc.: 2803–2804 Keller, Riedlinger (1990) Vergleich der Kavitation bei verschiedenen Stoßwellengeneratoren. Biomed. Tech. Ergänzungsband 35: 233– 234 Koch, Grünewald (1989) Disintegration mechanisms of weak acoustic shock waves. Ultras. Int. Conf. Proc 1136–1141 Koch, Molkenstruck, Reibold (1997) Shock-Wave Measurement using a Calibrated Interferometric Fiber-tip Sensor. UMB Vol. 23, no. 8, pp 1259–1266 Köhrmann, Kahmann, Weber et al. (1993) Vergleich verschiedener Lithotripter anhand der Desintegrativen Effektivität (DE) un Desintegrativen Bandbreite (DB) am In-vitro-Steinmodell. Akt. Urol. 24: 320–325 Köhrmann, Michel, Braun et al. (1999) New Interactive Navigation System for Integration of Fluoroscopic and Ultrasound Imaging«, J Endourol, Vol.13 Suppl 1, FP3-5 and 3–6, p A32 Köhrmann (2005) Comparison of Lithotripters. Business Briefing European Pharmacotherapy, 90–93 Kuttruff (1988) Physik und Technik des Ultraschalls. Hirzel, Stuttgart Kuwahara, Kambe, Taguchi et al. (1991) Initial Experience Using a New Extracorporeal Lithotripter With an Anti-Misshot Control Device. J. Lithotr. Stone Disease 3: 141–146 Lamport, Newman, Eichorn (1950) Federation Proc: 9 mar. 1950, pp 73–74 Lewin, Shafer (1991) Shock wave sensors: I. Requirements and Design. J. Lithotripsy and Stone Disease Vol. 3, no 1: 3–17 Lingeman, McAteer, Gnessin, Evan (2009) Shock wave lithotripsy: advances in technology and technique. Nature Reviews Urology 6: 660–670 Lobentanzer (1991) The concept of acoustic energy in lithotripsy. Dornier User Letter 7: 22–26 Loew (1993) Die Wirkung extrakorporal erzeugter hochenergetischer Stoßwellen auf den klinischen, röntgenologischen und histologischen Verlauf der Tendinosis calcarea der Schulter – eine prospektive Studie. In: Chaussy et al. (Hrsg) Die Stoßwelle, Forschung und Klinik. Attempto Tübingen, pp 153–156 Loew (1994) Die Wirkung extrakorporal erzeugter hochenergetischer Stoßwellen auf den klinischen, röntgenologischen und histologischen Verlauf der Tendinosis calcarea der Schulter. Habilitationsschrift Heidelberg, 1994 Logarakis, Jewett, Luymes, Honey (2000) »Variation in clinical outcome following shockwave lithotripsy. J.Urol. Vol. 163, 2000, 721–725 Lohse-Busch, Kraemer, Reime (1997) The Use of Extracorporeal Shock Wave Fronts for Treatment of Muscle Dysfunction of Various Etiologies: An Overview of First Results. In: Siebert, Buch (Eds) Extracorporeal Shock Waves in Orthopedics, chapt 14. Springer, Berlin Heidelberg New York Lovasz, Palfi, Romics (1999) Temperature elevation of stones during extracorporeal shock wave lithotripsy (ESWL) a hypothesis for
possible cause of complications. Abstracts Tagung der Deutschen Urologischen Gesellschaft DGU, Abstract Session V2.5 Maheshwari, Andankwar, Saple, Oswal (2002) Extracorporeal Shock Wave Lithotripsy: Complications and Their Prevention. www,bhj. org/journal/2002_4402_apr/endo_181.htm McAteer, Evan, Williams, Lingeman (2009) Treatment protocols to reduce renal injury during shockwave lithotripsy. Curr Opin Urol 19: 192–195 Meier, Ueberle, Rupprecht (1998) Physikalische Parameter extrakorporaler Stoßwellen. Biomed Tech 43: 269–274 Michel, Ptaschnyk, Musial et al. (2003) Objective and subjective changes in patients with Peyronie’s Disease after Management with Shockwave Therapy. J.Endourology, 17(1): 41–44 Michel, Erben, Köhrmann, Siegsmund, Alken (2002), Gentherapie des Prostatakarzinoms durch extrakorporale akustische Energie: Erste In-vitro- und In-vivo-Ergebnisse. Aktuel Urol 33(3): 213–218 Miller (1995) Thresholds for hemorrhages in mouse skin and intestine induced by lithotripter shock waves. UMB vol. 21(2): 249–257 Mishriki, Cohen, Baker et al. (1993) Choosing a powerful lithotripter. Brit. J. Urol 71: 653–660 Müller, Platte (1985) Einsatz einer breitbandigen Piezodrucksonde auf PVDF-Basis zur Untersuchung konvergierender Stoßwellen in Wasser. Acustica 58 Müller (1990) Dornier-Lithotripter im Vergleich: Vermessung der Stoßwellenfelder und Fragmentationswirkungen. Biomed. Technik 35(11): 250 – 262 Mulvaney (1953) The J. of Urology 70(5): 704–707 Niersteenverbrijzeling-eng (2005) http://www.urologiena.com/subspecialisaties/niersteenverbrijzeling-eng.htm#Results Nishida, Shimokawa, Oi et al. (2004) Extracorporeal Cardiac Shock Wave Therapy Markedly Ameliorates Ischemia-Induced Myocardial Dysfunction in Pigs in Vivo. Circulation 110: 2977 Nitsche (1994) Amelsberg, Berg, Fölsch: Extracorporeal shock wave lithotripsy of gallstones in different biles and water in vitro. Digestion 55: 175–178 Ogden JA, Alvarez R, Levitt R, Cross GL, Marlow M (2001) Extracorporeal shock wave therapy for chronic plantar fasciitis. Clin Orthop 387: 47–59 Pace, Ghiculete, Harju, Honey (2005) Shock wave lithotripsy at 60 or 120 shocks per minute: a randomized, double-blind trial. J Urol. 174(2): 595–9 Parr, Pye, Ritchie, Tolley (1992) Mechanisms responsible for diminished fragmentation of uretreal calculi. J.Urol. 148: 1079–1083 Parsons, Cain, Abrams (2006) Pulsed cavitational ultrasound therapy for controlled tissue homogenization. Ultrasound in Medicine and Biology 32(1): 115–129 Pettrone F. Randomized clinical Study to evaluate the safety and efficiacy of the Siemens Sonocur ESWT System in treating patients with lateral epicondylitis (chronic tennis elbow); http://www.fda. gov/cdrh/pdf/P010039b.pdf Philipp, Delius, Scheffcyk et al. (1993) Interaction of lithotripter-generated shock waves with air bubbles. JASA 5: 2496–2509 Pishchalnikov, McAteer, Williams, Pishchalnikova, vonDerHaar (2006) Why stones break better at slow shock wave rate than at fast rate: In vitro study with a research electrohydraulic lithotripter. J Endourol 20: 537–541 Pishchalnikov, Neucks, Von der Haar, Pishchalnikova, Williams, McAteer (2006) Air pockets trapped during routine coupling in dry head lithotripsy can significantly decrease the delivery of shock wave energy. J Urol 176: 2706–2710 Pye (1991) Parr, Munro, Anderson, McDicken: »Robust Electromagnetic Probe for the Monitoring of Lithotripter Output. UMB Vol. 17(9): 931 –939 Rassweiler, Bergsdorf, Bohris, Burkhardt, Burnes, Forssmann, Meinert, Partheymüller, Vallo, Wess, Williger, Chaussy (2010) Shock wave technology and application – state of the art in 2009, Konsensus-
563 Literatur
Meeting der Deutschen Gesellschaft für Stoßwellenlithotripsie (in print) Rassweiler, Henkel, Köhrmann et al. (1992) Lithotriptor Technology: present and future. J. Endourology 6(1): 1–15 Rassweiler, Bergsdorf, Ginter et al. (2005) Progress in Lithotripter Technology. In Chaussy, Haupt, Jocham et al. (eds) Therapeutic Energy Applications in Urology. Thieme, Stuttgart New York Rassweiler, Tailly, Chaussy (2005) Progress in Lithotriptor Technology, EAU Update Series 3: 17–36 Rieber (1951) Shock Wave Generator. US Patent 2: 559 227 Riedlinger, Weiß, Ueberle (1987) Nichtlinearitäten des transienten Schallfeldes eines piezoelektrischen Hochenergie-Pulssenders. Fortschritte der Akustik DAGA: 489–493 Riedlinger, Ueberle, Wurster et al. (1986) Die Zertrümmerung von Nierensteinen durch piezoelektrisch erzeugte Hochenergie-Schallpulse. Urologe A 25: 188–192 Rompe, Hopf, Küllmer et al. (1996) Analgesic effect of extracorporeal shock wave therapy on chronic tennis elbow. J. Bone Joint Surgery (Br) 78 B: 233–237 Sass, Steffen, Matura et al. (1992) Experiences with Lithotripters: Measurement of Standardized Fragmentation. J.Stone Disease Vol.4(2) Sapozhnikov, Maxwell, MacConaghy, Bailey (2007) A mechanisrtic analysis of stone fracture in lithotripsy. J Acoust Soc 121: 1190–1202 Sauerbruch, Delius, Paumgartner et al. (1986) Fragmentation of gallstones by extracorporeal shockwaves. New England J. Med 314: 818–822 Sauerbruch, Holl, Sackmann et al. (1987) Disintegration of a pancreatic duct stone with extracorporeal shock waves in a patient with cronic pancreatitis. Endoscopy 19: 207–208 Sauerbruch, Stern (1989) Fragmentation of bile duct stones by extracorporeal shock waves. Gastroenterology 96: 146–152 Schätzle (1992) Spezielle Fokusdruck-Sensoren für die Lithotripsie und deren Kalibration. Fortschritte der Akustik DAGA 1992 Schafer (1993) Cost effective shock wave hydrophones. J. Stone Disease Vol. 5: 73–76 Schelling, Delius et al. (1994) Extracorporeal shock waves stimulate frog sciatic nerves indirectly via a cavitation-mediated mechanism. Biophysical Journal 6: 133–140 Schneider, Feigl, Löhr et al. (1994) In vitro effects of high energy pulsed ultrasound on human tumor cells. Eur J Gastroenterol & Hepatol 6: 257–262 Seidl, Steinbach, Wöhrle, Hofstädter (1994) Induction of stress fibres and intercellular gaps in human vascular endothelium by shockwaves. Ultrasonics Vol. 32(5): 397ff Singh, Agarwal (1990) Mechanical and Ultrasonic Parameters of Kidney Stones. J. Lithotripsy and Stone Disease, Vol. 2(2): 117–123 Staples, Forbes, Ptasznik, Gordon, Buchbinder (2008) A Randomized Controlled Trial of Extracorporeal Shock Wave Therapy for Lateral Epicondylitis (Tennis Elbow). J Rheumatol 35: 2038–46 Smith, Simmons, Sankin, Nanke, Fehre, Zhong (2010) A Comparison of Fiber Optic Probe Hydrophone and Light Spot Hydrophone for Lithotripter Field Characterization. Ultrasound in Medicine and Biology (to be submitted) Staudenraus (1991) Erzeugung und Ausbreitung freifeldfokussierter Hochenergiedruckpulse in Wasser. PhD Thesis, University of Stuttgart Staudenraus (1993) Eisenmenger: Fibre-Optic Probe Hydrophone for Ultrasonic and Shock Wave Measurements in Water. Ultrasonics 31: 267–273 Steiger (1987) Extracorporal Laser Induced Shock Wave Lithotripsy (ESWL). Laser, pp 201–206, MZV-EBM Verlag Steiger (1998) Modellierung der Ausbreitung in extrakorporalen Therapien eingesetzter Ultraschallpulse hoher Intensität, Forschungsberichte aus dem Institut für Höchstfrequenztechnik und Elektronik, Karlsruhe Band 19, ISSN 0942–2935
Steinbach et al. (1993) Effekte hochenergetischer Ultraschallstoßwellen auf Tumorzellen in vitro und humane Endothelzellen in situ. In: Chaussy et al. (Hrsg) Die Stoßwelle. Attempto-Verlag, Tübingen, SS 104–109 Steinbach, Hofstaedter, Roessler, Wieland (1993) Determination of energy-dependent extent of vascular damage caused by highenergy shock waves in an umbilical cord model. Urological Research 21: 279–282 Stranne, Cocks, Gettliffe (1990) Mechanical property studies of human gallstones Journal of Biomedical Materials Research, Vol. 24: 1049–1057 Suhr, Brümmer, Hülser (1991) Cavitation-generated free radicals during shock wave exposure: Investigations with cell-free solutions and suspended cells. Ultrasound Med. Biol. 17: 761–768 Sunka, Babicky, Clupek et al. (2004) Localized damage of tissues induced by focused shock waves. IEEE Trans. Plasma Sciences, Vol. 32(4): 1609–1613 Tailly (1999) Consecutive Experience with Four Dornier Lithotripters: HM4, MPL 9000, Compact and U/50. J. Endourology Vol. 13(5) Teichmann, Portis, Parker et al. (2000) In vitro Shock Wave Lithotripsy Comparison. J Urol 164: 1259–1264 Tschoep, Hartmann, Jox et al. (2001) Shock Waves: A Novel Method for Cytoplasmic Delivery of Antisense Oligonucleotides. J Mol Med 79: 306–313 Ueberle (1987) Piezoelektrisch erzeugte Hochenergiepulse und ihre Eignung zur Eignung zur Lithotripsie. in: Ziegler (ed.) die extracorporale und laserinduzierte Stoßwellenlithotripsie bei Harn- und Gallensteinen, Springer, Berlin Heidelberg New York Ueberle (1988) Ein Konzept zur Ortung und Erkennung von Zielen für Schallpulse hoher Energie. Dissertation, Karlsruhe 1988 Ueberle (1997) Acoustic Parameters of Pressure Pulse Sources Used in Lithotripsy and Pain Therapy. in: Chaussy et al (eds) High Energy Shock Waves in Medicine, pp 76–85, Thieme Stuttgart, New York 1997 Ueberle (1997) Shock Wave Technology. in Siebert, Buch Extracorporeal Shock Waves in Orthopedics, Springer, Berlin Heidelberg New York, pp 59–87 Ueberle (2000) Cell transfection by pulsed sound wave effects. Proceedings Microtec. VDI-Verlag Hannover Ueberle (2003) Pressure Pulses in Medicine. In: Srivastava, Leutloff, Takayama, Groenig (eds) Shock Focussing Effects in Medical Science and Sonoluminescence. Springer, Heidelberg New York Ueberle (2006) Shockwave Measurements Using an Optical Light Spot Hydrophone, Jahrestagung der DGBMT, Zürich August 2006 Vakil, Gracewski, Everbach (1991) Relationship of Model Stone Properties to Fragmentation Mechanisms during Lithotripsy. J. Lithotripsy and Stone Disease Vol. 3(4): 304–310 Valchanou, Michailow (1991) High energy shockwaves in the treatment of delayed and nonunion fractures. Internat. Orthopedics (SICOT) 15: 181–184 Vergunst, Onno, Terpestra et al. (1990) In vivo assessment of shockwave pressures, Gastroenterology, SS 1467–1474 Vergunst, Onno, Terpestra et al. (1989) Assessment of Shock Wave Pressure Profiles In Vitro: Clinical Implications. J. Lithotripsy and Stone Disease, Vol.1(4) Wess, Marlinghaus, Katona (1989) Lars, eine großaperturige leistungsschallquelle für medizinische Anwendungen. Fortschritte der Akustik DAGA 295ff, DPG Verlag, Bad Honnef Wess, Ueberle, Dührßen, Hilcken, Reuner, Schultheiß, Staudenraus, Rattner, Haaks, Granz (1997) Working Group Technical Developments – Consensus Report. in Chaussy et al (eds) High Energy Shock Waves in Medicine. Thieme, Stuttgart New York, pp 59–71 Wess (2009) Der schwebende Patient. In: Zimmermann R (Red) Dornier erlebt, S 303–310. Verlag Senn, Tettnang
31
564
III
Kapitel 31 · Einsatz von Stoßwellen in der Medizin
Wiksell, Kinn (1995) Implications of cavitation phenomena for shot intervals in extracorporeal shock wave lithotripsy. British Journal of Urology, 75: 720–723 Wolfrum (2004) Cavitation and shock wave effects on biological systems. Dissertation, Göttingen: S 14 Zhong, Preminger (1994) Mechanisms of differing stone fragility in extracorporeal shock wave lithotripsy. J Endourol 8: 163–168 Zhong, Cioanta, Cocks, Preminger (1998) Effects of Tissue Constraint on Shock Wave-Induced Bubble Oscillation in vivo. 135th ASA conf. Proc., pp 2495f, Seattle (WA) Zhong, Zhou, Zhu (2001) Dynamics of Bubble Oscillation in Constrained Media and Mechanisms of Vessel Rupture in ESWL. Ultrasound Med. Biol. 2001, 27(1): 119–134 Zhu, Zhong (2002) The role of stress waves and cavitation in stone comminution in shock wave lithotripsy. Ultrasound Med Biol 28: 661–671; found in: http://www.duke.edu/~slzhu/research/fv/ sf/research1g.html
32 Hochfrequenzchirurgie B. Hug, R. Haag
32.1
Entwicklung der Hochfrequenzchirurgie – 565
32.2
Physikalische und technische Grundlagen – 568
32.2.1
Bioelektrische und -thermische Wirkungen am Gewebe – 568 Koagulation – 570 Elektrotomie (Schneiden) – 570
32.2.2 32.2.3
32.3
Technik
32.3.1 32.3.2 32.3.3
HF-Generatortechnik – 571 HF-Applikationstechnik – 572 Ableitströme – 573
– 571
Hochfrequenzchirurgie (im Weiteren auch als HF-Chirurgie bezeichnet) ist seit vielen Jahren die dominierende Form der Elektrochirurgie. Hierunter versteht man den assistierenden Einsatz von elektrischer Energie in der Chirurgie zur thermisch induzierten Veränderung oder Zerstörung von Gewebezellen mit dem Ziel der Hämostase (Blutstillung), Gewebedurchtrennung oder -versiegelung. Bei der HF-Chirurgie wird hochfrequenter Wechselstrom (bevorzugt 0,3–4 MHz) über spezielle Applikatoren in das zu behandelnde Gewebe geleitet, wo es durch den elektrischen Gewebewiderstand zu einer thermischen Gewebewechselwirkung kommt. Im Gegensatz hierzu wird oder wurde bei der heute unbedeutenden elektrochirurgischen Operationsmethode der Galvanokaustik ein Gleichstrom dazu verwendet, einen Kauter (griech. Brenneisen) als chirurgisches Instrument direkt zu erhitzen, um von diesem die Hitze auf das Gewebe zu übertragen. Das Verfahren kommt heute nur noch bei wenigen Indikationen zum Einsatz; dann, wenn jeglicher Stromfluss durch das Körpergewebe vermieden werden soll (z. B. Ophthalmologie). Dagegen ist die HF-Chirurgie ein unentbehrliches Handwerkszeug aller operativen Fachdisziplinen geworden, sei es im stationären, sei es im niedergelassenen Bereich. Ein wesentlicher Vorteil der hochfrequenzchirurgisch assistierten Gewebetrennung gegenüber herkömmlicher Schneidetechnik mit dem Skalpell oder der Schere ist, dass gleichzeitig mit dem Schnitt eine Blutungsstillung durch Verschluss der betroffenen Gefäße erfolgt. Weitere Vorteile liegen in der Verhütung der Keimverschleppung, mechanischen Gewebeschonung und der Möglichkeit des
32.4
Stromformen und Applikation – 574
32.4.1 32.4.2
Schneideströme – 574 Koagulationsströme – 577
32.5
Methodische Hinweise für die Anwendung und Sicherheit – 583
32.5.1 32.5.2 32.5.3 32.5.4 32.5.5
Patienten- und Anwendersicherheit – 583 Neutralelektrode (NE) – 584 HF-Instrumente und -Kabel – 585 HF-Chirurgiegerät – 586 Vorkommnisse bei der Anwendung der HF-Chirurgie – 586
32.6
Ausblick
– 586
Literatur
– 587
endoskopischen Einsatzes. Beim Einsatz der Methode zur gezielten Hämostase blutender Gefäße kann im Vergleich zur alternativen Gefäßligatur schnell und einfach durch räumlich eng umschriebene Gewebeverkochung (Koagulation) ohne den Einsatz körperfremder Materialien eine gezielte Blutstillung erreicht werden. Bedingt durch seine Entwicklungsgeschichte wird eine Vielzahl synonymer Begriffe für die Methode verwendet. Wenngleich die eine oder andere Bezeichnung historisch bedingt auf völlig unterschiedlichen Technologien basiert, ist heute damit meist ein und dasselbe Anwendungsverfahren gemeint. Ohne den Anspruch auf Vollständigkeit seien nachfolgend einige der international gängigen Begriffe aufgeführt: HF-Chirurgie, RF-Chirurgie, Radiochirurgie, Elektrochirurgie, Kauter, Elektrokauter, Diathermie, Endothermy, Transthermy, Elektrotom oder – häufig in den USA – auch nach einem amerikanischen HF-Chirurgie-Pionier als »Bovie« bezeichnet.
32.1
Entwicklung der Hochfrequenzchirurgie
Den Ausgang für die Entwicklung der Methode bildet die vorteilhafte therapeutische Anwendung von Hitze. Bereits in den im 2. Jahrtausend v. Chr. von den Ägyptern verfassten Papyri (Papyrus Ebers, Papyrus Edwin Smith) finden sich Hinweise auf den gezielten, therapeutischen Einsatz von Hitze. Die Behandlung von Kriegswunden mit erhitzten Steinen, das Eröffnen von Eiterherden mittels in siedendem Öl erhitzter Holzspäne oder das Ausbrennen von Wunden mit dem »Feuerbohrer« (glühen-
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _32, © Springer-Verlag Berlin Heidelberg 2011
566
III
Kapitel 32 · Hochfrequenzchirurgie
der Holzkohlenstumpf) wurden dort empfohlen. Auch Hippokrates, oft als »Vater der Medizin« bezeichnet (ca. 400 v. Chr.), bediente sich des »Ferrum candens« (Glüheisen) genauso wie arabische und römische Ärzte, um bei Amputationen mit glühenden Messern die Blutung geringer zu halten. Bis ins 19. Jahrhundert war das auf unterschiedliche Weise erhitzte Ferrum candens das Mittel der Wahl in der Chirurgie. Schon immer hielten neue Technologien schnellen Einzug in die Medizin. So war der von Graf Volta um 1800 entwickelte Vorläufer der elektrischen Batterie (Voltasche Säule) nur wenige Jahre bekannt, und an elektrische Straßenbeleuchtung war noch lange nicht zu denken, da wurde die Ära der Elektrochirurgie eingeläutet. Dabei waren weniger die Empfehlungen des Engländers Humphrey Davy (1807), die Elektrizität zur Zersetzung organischer Teile zu verwenden, ausschlaggebend als die Anregungen des Münchener Physikers Karl August Steinheil, nach denen in Wien der Zahnarzt Moritz Heider 1845 mit einem elektrisch erhitzten Platindraht einen Zahnnerven abgetötet hat. In ganz Europa arbeiteten nun vornehmlich Ärzte an der neuen Methode; der finnische Arzt Gustav Crusell prägte schließlich den Begriff Galvanokaustik. Als weitere Pioniere in dieser Zeit sind die Franzosen Alphonse Amussat, Charles Sedillot, Auguste Nelaton und Leroy d‘Etoiles, die Engländer John Marshall, T. Harding, J. Waite und Robert Ellis zu nennen. Wenngleich ihm nicht die Rolle des Erfinders der Galvanokaustik zukommt, so hat sich der Breslauer Arzt Albrecht Theodor Middeldorpf (1824–1883) um die neue Methode sehr verdient gemacht, indem er Operationsmethoden standardisiert und in seinem Werk »Die Galvanocaustik. Ein Beitrag zur operativen Medizin« im Jahr 1854 umfassend beschrieben hat. Auf ihn geht das Basisinstrument der Galvanokaustik zurück, der Galvanokauter und die galvanokaustische Schneideschlinge – Ligatura candens. Einer der renommiertesten Chirurgen der damaligen Zeit, Theodor Billroth (1826–1894), der Middeldorpf sogar als den Erfinder der Galvanokaustik würdigte, schrieb 1878 in seinem »Handbuch der allgemeinen und speciellen Chirurgie«: »Middeldorpf hat die Galvanokaustik nicht nur erfunden, sondern auch in seinem Buch, wie mir scheint, vollkommen erschöpft, indem er die zweckmäßigste Batterie, die zweckmäßigsten Instrumente erfand und auch die Indicationen für die Verwendbarkeit dieser Operationsmethode aufs Präciseste formulierte« (Sudermann 2000). Einer der wenigen aus der ersten Garde deutscher Chirurgen, die sich nach Middeldorpf um das Thema verdient gemacht haben, war der Chirurg Victor von Bruns. Auf ihn gehen im Wesentlichen technische Verbesserungen der Ligatura candens zurück, bei der ein zusammenziehbarer, schlingenförmiger Platindraht Verwendung findet, der mit Gleichströmen von 10–20 A bei Spannungen von 3–6 V aufgeheizt wurde. Es war nun möglich, an schwer zugänglichen Stellen zu operieren und
die Glühhitze einwirken zu lassen, nachdem man zuvor ungehindert den noch kalten Draht appliziert hatte – also ideale Voraussetzungen, um die Methode endoskopisch einzusetzen. Letztlich war es dann auch der endoskopische Bereich, in dem sich die Galvanokaustik etablieren konnte. In der Allgemeinchirurgie setzte sich zwar die Glühkaustik durch, allerdings nicht elektrisch basiert als Galvanokaustik, sondern in Form des Thermokauters nach Paquelin. Bei ihm wurden verschieden geformte Hohlkörper aus Platin zum Glühen erhitzt und dann, durch Einblasen eines Benzin-Luft-Gemisches, das an der glühenden Platinfläche verbrannte, glühend erhalten. Dass dem Thermokauter nach Paquelin überall dort der Vorzug gegeben wurde, wo man offen zugänglich arbeiten konnte, mag daran liegen, dass der Einsatz des Galvanokauters kompliziert und teuer war. Nicht zuletzt war der Umgang mit den damaligen Batterien (meist vom ZinkPlatin-Typ) teuer und wartungsintensiv. Die Voraussetzungen, den elektrischen Strom nicht nur als Energieform zum Betrieb eines modernen Ferrum candens einzusetzen, sondern unmittelbar im Gewebe zur Anwendung zu bringen, wurden ebenfalls in der Mitte des 19. Jahrhunderts erarbeitet. Aus den elektrophysiologischen Experimenten von Duchenne de Boulogne, deren Ergebnisse er 1855 publizierte, wusste man, dass niederfrequente Wechselströme zu Muskelkontraktionen und Nervenreizungen führen und insofern für chirurgische Zwecke unbrauchbar sind. Ende des 19. Jahrhundert zeigten Tesla und Jacques-Arsène d’Arsonval, dass Wechselströme im Frequenzbereich von 2 kHz bis 2 MHz zu einer Gewebeerwärmung führen, ohne dabei Muskel- oder Nervenreizungen hervorzurufen. Die Deutung dieser Ergebnisse und den Nachweis des elektrophysiologischen Wirkungszusammenhangs zeigte Walther Nernst im Jahre 1899 auf. Er formulierte das nach ihm benannte Nernst’sche Reizschwellengesetz, das den Schwellenwert der für eine Nervenreizung nötigen Stromstärke in Beziehung zur Frequenz des Reiz auslösenden Wechselstroms setzt. Diese grundlegenden Erkenntnisse bildeten die Basis dafür, dass Rivière im Jahre 1900 in Paris über Erfolge der Funkenbehandlung von Geschwülsten und tuberkulösen Hauterkrankungen berichten konnte. Das Zeitalter der Hochfrequenzchirurgie hatte begonnen. Zunächst wurde ein Apparat von d’Arsonval verwendet, dessen gedämpfte Schwingungen mit hohen Spannungsspitzen eine Gewebezerstörung durch Funkenübertritt auf das Gewebe ermöglichten. Pozzi bezeichnete dieses Verfahren als Fulguration (lat.: fulgur, Blitz), eine Bezeichnung, die bis heute für die quasi berührungslose Form der Energieübertragung auf den Patienten gängig ist. Neben Pozzi sind die Arbeiten von de Keating-Hart richtungsweisend. Er hat in Marseille und Paris (Hospital Broca) mit einem auch von Professor Czerny empfohlenen Fulgurationsapparat (⊡ Abb. 32.1) die Funkenbestrahlung bösartiger Ge-
567 32.1 · Entwicklung der Hochfrequenzchirurgie
⊡ Abb. 32.1. Fulgurationsapparat nach DE KEATING HART zur »Blitzbehandlung (Fulguration) der Krebse«. Einige zehn Minuten lang wurden kräftige »Blitzfunkenbüschel« auf das Tumorgewebe appliziert. Übermäßige Hitzewirkung verhinderte ein koaxial über die Elektrode geleiteter Kohlensäurestrom. (Wiesner 1908)
schwüre in Kombination mit deren operativer Entfernung durchgeführt. Seit 1907 ist die Elektrodesikkation (William L. Clark) bekannt. Bei dieser Methode kommen Nadelelektroden zur Anwendung, die aufgesetzt oder ins Gewebe eingestochen werden und unter dem Einfluss von HF-Strom zu einer Gewebeverkochung und Austrocknung führen. 1909 berichtete Eugène L. Doyen über ein zweipoliges Verfahren zur »Electrocoagulation« bösartiger Geschwüre. Der Begriff »Voltaisation bipolaire« war nun eingeführt. Die Anwendungsmöglichkeiten der Methode waren anfangs dennoch begrenzt, und zwar wegen der zur Verfügung stehenden Generatoren (Oudin’sche Resonatoren und Löschfunkensender mit weniger als 3 kHz Funkenfrequenz). Denn, wie Nernst schon nachwies, sind die niedrigen Frequenzen von starker faradischer Gewebereizung begleitet. Zwar standen ab 1907 Löschfunkensender mit Frequenzen bis ca. 1 MHz zur Verfügung, womit der Einsatz auch auf neurochirurgische Indikationen erweitert werden konnte, eine Gewebetrennung (Elektrotomie) war mit der gegebenen Technologie dennoch nicht befriedigend möglich. Hierfür werden – wie später gezeigt wird – unmodulierte bzw. gering modulierte HF-Ströme benötigt, wie sie von Funkenstreckensendern nicht generiert werden konnten. Dies gelang erst mit Röhrengeneratoren, wie sie Mitte der 1920er Jahre durch George A. Wyeth
(The endotherm) zum Einsatz kamen. Allerdings war bei diesen Generatoren die Hämostasewirkung nicht so gut ausgeprägt wie bei den Funkenstreckengeneratoren. Für Elektrotomie und Hämostase wurden daher lange Zeit zwei getrennte Generatoren verwendet (Schneiden mit Röhre, Blutstillung mit Funkenstrecke). So stellt die Patentanmeldung des Amerikaners William T. Bovie im Jahre 1928 (US 1,813,902) einen weiteren Meilenstein in der Entwicklung der HF-Chirurgie dar. Er schlug vor, mit ein und demselben Gerät über ein und denselben Applikator wahlweise verschiedene Arten von HF-chirurgischen Strömen dem Operateur anbieten zu können. Es war nun ein technischer Stand erreicht, bei dem faradische Reizungen weitgehend vermieden wurden und ein »zuckungsfreies Schneiden« möglich war. Während sich in den USA William T. Bovie in Zusammenarbeit mit dem Neurochirurgen Harvey Cushing um die Methode verdient gemacht haben, war es in dieser Zeit in Deutschland der Elsässer Hans von Seemen (1898–1972), der in seiner Münchener Zeit ein frühes Standardwerk (»Allgemeine und spezielle Elektrochirurgie«) über das Thema verfasste. In den folgenden Jahren konzentrierten sich die Entwicklungen hin zu höheren Frequenzen und damit zur Heilbehandlung mit abgestrahlten elektrischen oder magnetischen Feldern. Dabei wurden moderat zu erwärmende Körperpartien in den elektrischen Einfluss eines Kondensatorfeldes (Schliephake) oder den magnetischen Einfluss eines Spulenfeldes (Esau) gebracht. Die in den 1930er und 1940er Jahren verfügbaren Kurzwellen- (27,12 MHz) und Dezimetergeräte (433,92 MHz) wurden nach der Verfügbarkeit des Magnetrons aus der Radartechnik nach dem zweiten Weltkrieg um Mikrowellengeräte (2,45 GHz) erweitert. Wenngleich einige der angebotenen Kurzwellengeräte auch für den chirurgischen Einsatz geeignet waren, stand bei ihnen die HF-Hyperthermie – also die künstliche Erzeugung zeitlich und lokal begrenzten »Fiebers« – im Vordergrund. In der Chirurgie setzten sich die Geräte vermutlich wegen des hohen Preises der Senderöhren erst nach 1945 durch. Für den chirurgischen Einsatz beinhalteten die Geräte nach wie vor für die Blutstillung einen Funkenstreckengenerator und für das Gewebeschneiden einen Röhrengenerator. Erst 1955 wurde das erste vollelektronische auf Röhrenbasis entwickelte Universalgerät für die HF-Chirurgie angeboten. Die Entwicklung moderner Transistortechnik in den 1970er Jahren bot gerätetechnisch eine technologische Adaption. Mit dieser Technik konnten die Geräte wesentlich kleiner und kompakter gebaut werden. Der Methode selbst eröffneten sich hinsichtlich neuer Anwendungen dadurch allerdings keine wesentlichen Bereicherungen. Einen wichtigen Meilenstein stellte dann allerdings die Entwicklung des sog. Argonbeamers Mitte der 1970er Jahre dar. Ausgehend von einem »Plasma Scalpel«, wie es von den Amerikanern Robert Shaw (1966), Robert Goucher (1972) und Frank Incropera (1975) zur
32
568
Kapitel 32 · Hochfrequenzchirurgie
III ⊡ Abb. 32.2. Modernes HF-Chirurgiegerät mit menügeführter Bedienoberfläche. Die Behandlungsparameter sind auf einem Bildschirm räumlich dem jeweiligen Patientenausgang zugeordnet
Vaporisation von Gewebe vorgeschlagen wurde, entwickelte Charles Morrison (1976) den Argonbeamer, wie er im Prinzip bis heute zum Einsatz kommt. Während beim »Plasma Scalpel« ein energiereicher Plasmastrahl – vergleichbar einem Schneidbrenner – auf das Gewebe gerichtet wurde, nutzt man beim Argonbeamer lediglich einen ionisierten Argonstrahl als leitfähiges Medium, um berührungslos die HF-Energie ins Gewebe zu leiten. Während das »Plasma Scalpel« völlig ohne medizinische Bedeutung blieb, schuf sich der Argonbeamer seinen festen Platz in der medizinischen Anwendung. Seit Anfang der 1990er Jahre werden mikroprozessorgesteuerte HF-Chirurgiegeräte eingesetzt. Regelungstechnisch ergaben sich dadurch völlig neue Möglichkeiten. Eine Vielzahl verschiedener Stromformen, die auf die jeweilige Indikation und Applikation abgestimmt wurden, konnten so realisiert werden. Durch die vielfältigen verschiedenen Einsatzmöglichkeiten mit den jeweils auf den Prozess abgestimmten Behandlungsparametern wurden die Geräte hinsichtlich ihrer Bedienung sehr komplex. Dem trug die weitere Entwicklung Rechnung, indem heute Bildschirm-Geräte (⊡ Abb. 32.2) mit menügeführter Bedienoberfläche angeboten werden.
32.2
Physikalische und technische Grundlagen
32.2.1 Bioelektrische und -thermische
Wirkungen am Gewebe Fließt elektrischer Strom durch biologisches Gewebe, treten je nach Stromart, Stromstärke und Frequenz drei unterschiedliche Effekte auf: ▬ Elektrolytischer Effekt Bei Gleichstrom und niederfrequenten Wechselströmen dominiert der elektrolytische Effekt, d. h. es kommt zu Ionenverschiebungen im Gewebe. Positiv geladene Ionen wandern zum negativen Pol (Kathode), negativ geladene Ionen zum positiven Pol
(Anode). Dieser Effekt wird in der Medizin bei der Iontophorese genutzt, um bestimmte Medikamente in den Körper einzuschleusen. In der HF-Chirurgie ist dieser Effekt nicht erwünscht, weil das Gewebe elektrolytisch geschädigt werden kann. ▬ Faradischer Effekt Fließen Wechselströme mit einer Frequenz bis 20 kHz durch biologisches Gewebe, entsteht der faradische Effekt. Ströme innerhalb dieses Frequenzspektrums reizen Nerven und Muskelzellen, sodass es zu Muskelkontraktionen kommen kann. Die maximale Reizung entsteht bei Frequenzen zwischen 10 und 100 Hz (⊡ Abb. 32.3). Der faradische Effekt wird in der Reizstromdiagnostik und der Reizstromtherapie sinnvoll genutzt (z. B. bei Muskellähmungen). In der HF-Chirurgie ist dieser Effekt nicht erwünscht, da Muskelkontraktionen für den Patienten unangenehm, sogar gefährlich, und für den Chirurgen hinderlich sind. ▬ Thermischer Effekt Mit hochfrequenten Wechselströmen wird im biologischen Gewebe sowohl der elektrolytische als auch der faradische Effekt weitgehend vermieden und es dominiert der thermische Effekt. Die Frequenz des Wechselstroms beträgt dabei mindestens 300 kHz; daher die Bezeichnung HF-Chirurgie. Dieser gewünschte thermische Effekt wird hauptsächlich für zwei verschiedene Anwendungen genutzt, nämlich das Schneiden und das weitaus häufigere Koagulieren. Die Erwärmung des Gewebes hängt im Wesentlichen vom spezifischen Widerstand des Gewebes, der Stromdichte und der Einwirkdauer ab. Der thermische Effekt wird dadurch erreicht, dass die elektrische Energie in Wärmeenergie umgewandelt wird. In jeder stromdurchflossenen Materie entsteht Wärme. Die Umwandlung von elektrischer Energie in Wärmeenergie erfolgt verlustfrei. Nach dem Joule’schen Gesetz ergeben sich folgende Zusammenhänge: Q = Pt = UIt = I2Rt = U2t/R [J = Ws]
(32.1)
Hier bedeuten: P Leistung, U Spannung, I Strom, R Widerstand, t Zeit. Die zum Koagulieren erforderliche Hochfrequenzleistung PK kann näherungsweise aus der Wärmemenge QK und der Koagulationsdauer tK berechnet werden: PK = QK / tK [W]
(32.2)
Die Wärmemenge QK ist abhängig von der Menge mK des zu koagulierenden Gewebes, von dessen spezifischer
32
569 32.2 · Physikalische und technische Grundlagen
Für die gesamte Wärmemenge bedeutet dies: QGes = QK + QU + QAE [Ws]
(32.4)
Hier bedeuten: QK Wärmemenge zum Koagulieren, QAE Wärmemenge aktive Elektrode, QU Wärmemenge Umgebung, unbeabsichtigt, QGes Wärmemenge gesamt, tK Koagulationsdauer, PK Leistung zum Koagulieren, ΔtK Temperaturdifferenz, mK Menge des zu koagulierenden Gewebes, cK spezifische Wärmekapazität. Die zum Schneiden erforderliche Hochfrequenzleistung PS kann näherungsweise ebenfalls aus der Wärmemenge QS und der Schnittdauer tS berechnet werden: PS = QS / tS [W] ⊡ Abb. 32.3. Nernst’sches Reizschwellengesetz, das den frequenzabhängigen Schwellenwert der für eine Nervenreizung nötigen Stromstärke angibt
Wärmekapazität cK und der Temperaturdifferenz ΔtK (von ca. 37°C auf 60°–100°C) zwischen Beginn und Ende der Koagulation im Koagulat: QK = mKcΔtK [Ws]
(32.3)
In QK ist nur die Wärmemenge berücksichtigt, die zur Koagulation erforderlich ist. Je nach angewendeter Koagulationstechnik muss auch eine zusätzliche Wärmemenge QU berücksichtigt werden, welche unbeabsichtigt in anderen vom elektrischen Strom durchflossenen Gewebebereichen entsteht. Während QU bei bipolaren Koagulationstechniken im Vergleich zu QK vernachlässigbar klein bleibt, kann QU bei monopolaren Koagulationstechniken im Vergleich zu QK unter ungünstigen Umständen sehr groß sein. Zu diesen ungünstigen Umständen zählen z. B. monopolare Koagulationstechniken, bei denen ein großer Teil des hochfrequenten Stroms an dem zu koagulierenden Gewebe vorbeifließt, wie bspw. durch die Spülflüssigkeit bei der TUR. Die Wärmemenge QU stellt stets ein Risiko für unerwünschte Nebenwirkungen dar und ist daher unbedingt zu beachten. Hieraus erklärt sich auch, dass bei der monopolaren Applikationsform im Vergleich zur bipolaren ein höherer Leistungswert erforderlich ist. Außer den Wärmemengen QK und QU ist bei verschiedenen Koagulationsverfahren auch die Wärmemenge QAE zu berücksichtigen, welche während der Koagulation die aktive Elektrode erwärmt. Die Temperatur der aktiven Elektrode sollte während der Koagulation nicht ansteigen, weil hierdurch das Problem entsteht, dass das Koagulat an der aktiven Elektrode anklebt; in Folge des direkten Kontakts der aktiven Elektrode mit dem Koagulat wird diese aber unvermeidlich erhitzt.
(32.5)
Beim Schneiden wird ein Gewebevolumen, welches proportional zu der Länge, der mittleren Tiefe und der Breite des Schnittes ist, so stark erhitzt, dass dessen Wassergehalt verdampft. Die hierfür erforderliche Wärmemenge QS ergibt sich aus der Wärmemenge Q100, welche das Gewebevolumen VS von ca. 37°C auf 100°C erhitzt, und der Wärmemenge QD, welche den Wassergehalt des Gewebevolumens VS verdampft: QS = Q100 + QD [Ws]
(32.6)
Analog der Wärmebilanz beim Koagulieren müssen auch beim Schneiden die Wärmemenge für die unvermeidliche Erwärmung des am Schnitt unbeteiligten Gewebes sowie die Wärmemenge für die unvermeidliche Erwärmung der aktiven Schneideelektrode berücksichtigt werden. Für die gesamte Wärmemenge bedeutet dies: QGes = QS + QU + QAE [W]
(32.7)
Hier bedeuten: PS Leistung zum Schneiden, QS Wärmemenge zum Schneiden, QD Wärmemenge, die den Wassergehalt des Gewebevolumens verdampft, Q100 Wärmemenge von 37°C auf 100°C, VS Gewebevolumen, Schnitt, tS Schnittdauer. Die Stromdichte J nimmt eine Schlüsselrolle bei der HFChirurgie ein; nur wenn die Stromdichte ausreichend groß ist (üblich 1–6 A/cm2), kann der gewünschte Schneideoder Koagulationseffekt entstehen. Die Stromdichte nimmt quadratisch mit der Entfernung r ab. J ~ l/r2 [A/cm2]
(32.8)
570
Kapitel 32 · Hochfrequenzchirurgie
Die Temperaturerhöhung nimmt bei homogenen Gewebeeigenschaften mit der 4. Potenz zur Entfernung r ab. Δt ~ l/r4 [°C]
III
(32.9)
Das biologische Gewebe selbst verhält sich im Wesentlichen wie ein Ohm’scher Widerstand (⊡ Tab. 32.1). Während der spezifische Widerstand bei Muskelgewebe und gut durchblutetem Gewebe relativ gering ist, haben flüssigkeitsarme Gewebe wie Knochen, Knorpel und Fettgewebe einen hohen spezifischen Widerstand, was wiederum bedeutet, dass ein verhältnismäßig kleiner Strom fließt. Beim Schneiden im Muskelgewebe liegt der Widerstand im Bereich von 150 und 300 Ω, während er im Fettgewebe zwischen 500 und 1000 Ω liegt. Unabhängig von der Art, wie eine Gewebeerhitzung durchgeführt wird (HF-Strom, Laser, IR-Koagulator, Ultraschall, Ferrum candens,…), lassen sich die thermischen Wirkungen qualitativ wie in ⊡ Tab. 32.2 aufgeführt einteilen.
⊡ Tab. 32.1. Spezifischer Widerstand ρ von biologischem Gewebe (0,3–1 MHz), modifiziert nach Reidenbach 1983 Gewebe Blut
160–300
Muskel, Niere
160–260
Milz
270–300
Herz
200–230
Leber
200–380
Gehirn
670–700
Lunge
160–1000
Fett
1600–3300
32.2.2 Koagulation
Die Bezeichnung Koagulation (lat.: coagulare, gerinnen) bezeichnet allgemein die Ausfällung, Ausflockung oder Gerinnung eines Stoffes, also den Übergang kolloidaler Stoffe (Kolloid: von griech. kolla »Leim«, und eidos »Form, Aussehen«) aus dem Lösungszustand in den Gelzustand. Der Prozess könnte vereinfacht auch als Gewebeverkochung bezeichnet werden. Dabei wird das Gewebe vom hochfrequenten elektrischen Strom relativ langsam erhitzt, sodass intra- und extrazelluläre Flüssigkeit verdampft und dadurch das Gewebe schrumpft. Der entstandene »Gewebeleim« und die Gewebeschrumpfung führen dazu, dass perforierte Blutgefäße verschlossen werden und eine Hämostase erfolgt. Diese schnelle und effiziente Blutstillung ersetzt bei kleinen, blutenden Gefäßen in vielen Fällen teuren Fibrinkleber oder die aufwändige Ligatur. Im täglichen Umgang mit der HF-Chirurgie wird die Bezeichnung Koagulation nicht nur für die beschriebene Gewebereaktion verwendet, sondern umfassender auch für eine bestimmte Betriebsart von HF-Chirurgiegeräten. Abhängig von der Qualität des HF-Stromes und bedingt durch unterschiedliche Applikationsformen wird in Kontaktkoagulation, Forcierte Koagulation, Desikkation, Fulguration (auch Spraykoagulation genannt) sowie argonassistierte Koagulation und Gefäßversiegelung unterschieden ( Abschn. 32.4.2).
32.2.3 Elektrotomie (Schneiden)
Wenngleich die biophysikalischen Vorgänge beim Schneidvorgang im Detail bis heute nicht hinreichend untersucht sind, so lässt sich der Prozess über eine phänomenologische Beschreibung und theoretische Überlegungen plausibel erklären. Dabei müssen zwei unterschiedliche Ausgangssitua-
⊡ Tab. 32.2. Thermische Gewebeschädigung in Abhängigkeit von der Temperatur Temperatur
Gewebereaktion
bis ca. 40°C
Keine signifikanten Zelländerungen.
ab ca. 40°C
Reversible Zellschädigung (abhängig von der Expositionsdauer).
ab ca. 49°C
Irreversible Zellschädigung.
ab ca. 60–65°C
Koagulation: Kollagene werden in Glukose umgewandelt, das kollagenhaltige Gewebe schrumpft und es kommt zur Hämostase blutender Gefäße.
ab ca. 90–100°C
Dehydration/Desikkation (Austrocknung): Übergang von intra- und extrazellulärer Flüssigkeit in die dampfförmige Phase. Glukose kann aufgrund der Dehydration einen Klebeeffekt zeigen, das Koagulat schrumpft.
ab ca. 200 °C
Karbonisation: Das Gewebe verkohlt wie bei einer Verbrennung IV. Grades, unangenehmer Geruch des verbrannten Gewebes, der postoperative Verlauf kann beeinträchtigt werden.
einige hundert °C
Vaporisation (Verdampfung des Gewebes): Rauch und Gasentwicklung.
571 32.3 · Technik
tionen berücksichtigt werden; zum einen, die Schneidelektrode ist zu Beginn des Schneidvorgangs bereits in Gewebekontakt – zum anderen, die Schneidelektrode nähert sich im aktivierten Zustand allmählich dem Gewebe. Mit hochfrequentem Wechselstrom lassen sich über kleinflächige messer- oder nadelförmige Elektroden lokal begrenzt relativ hohe Stromdichten im Gewebe erzeugen. Dieses erhitzt sich dadurch blitzartig über 100°C, sodass der entstehende Dampfdruck die Zellmembranen explosionsartig zerreißt. Der entstandene isolierende Dampf zwischen Elektrode und Gewebe verhindert in der Folge den ungehinderten Ohm’schen Stromfluss ins Gewebe, sodass sich eine Spannung (Schneidespannung) zwischen Elektrode und Gewebe aufbaut, die zu einer Funkenbildung zwischen diesen führt. Der weitere Energieeintrag erfolgt nun über Funken, in deren nur wenige μm großen Fußpunkten (r=10–20 μm) extrem hohe Energiedichten auftreten, unter deren Einfluss die einbezogenen Gewebezellen vaporisieren. Dabei spielt es keine Rolle, ob dieser Vorgang offen unter Atmosphäre oder unter elektrisch nicht leitender Flüssigkeit erfolgt. Diese Modellvorstellung wird auch durch die Arbeiten der Arbeitsgruppe um K. Fastenmeier (1996) untermauert. Nähert man sich dagegen mit einer bereits unter Spannung stehenden Elektrode dem Gewebe, zündet die anstehende Spannung bei entsprechender räumlicher Nähe zum Gewebe Funken. Diese für einen Schneidvorgang unbedingt notwendigen Funken überbrücken also zunächst den »letzten« Luftspalt, bevor eine dann entstehende Dampfschicht den Prozess wie oben beschrieben unterhält. Der im ersten Fall beschriebene Ohm’sche Stromfluss ins Gewebe zu Beginn eines gewünschten Schneidvorgangs führt zu einem »verzögerten Anschnitt«. Dies wurde in der Vergangenheit durch eine pulsartige Leistungserhöhung zu Beginn der Stromaktivierung überwunden (Anschnitthilfe); heute wird das Phänomen regelungstechnisch kompensiert. Ein mit dem »HF-Messer« ausgeführter Gewebeschnitt erfolgt ohne mechanischen Kraftaufwand. Die Schneidelektrode gleitet quasi durch das Gewebe – vergleichbar einem heißen Draht durch Butter oder Wachs. Durch die entstehenden hohen Temperaturen am Schnittsaum wird die Gefahr einer Keimverschleppung vermindert. Zudem wird gleichzeitig beim Schneiden eine Hämostase erzielt. Die präzise Schnittführung kann vom Chirurgen sowohl offenchirurgisch als auch endoskopisch genutzt werden.
32.3
Technik
32.3.1 HF-Generatortechnik
Die Hauptaufgabe eines HF-Generators besteht darin, den Netzstrom in Hochfrequenzstrom umzuwandeln. Die sichere galvanische Trennung zwischen Netz- und Patientenkreis steht dabei im Vordergrund des Sicher-
heitsinteresses. Die heutige Generation der mikroprozessorgesteuerten HF-Generatoren wurde auf der Grundlage der exakten Analyse der Gewebeeffekte und der Berücksichtigung der besonderen Erfordernisse der unterschiedlichen Fachdisziplinen entwickelt. Damit stehen HF-Chirurgiegeräte zur Verfügung, mit denen reproduzierbare Schneide- und Koagulationseffekte erzielt werden können. Dies ermöglicht bspw. eine sanfte Koagulation ohne Karbonisation oder reproduzierbare Schneideeigenschaften, weitestgehend unabhängig von äußeren Bedingungen wie z. B. Schnittgeschwindigkeit oder Elektrodengröße. Das Ausgangsleistungsniveau automatisch geregelter HFChirurgiegeräte liegt wesentlich niedriger als das konventioneller Geräte. Vor 1975 wurden noch Geräte angeboten mit einer Ausgangsleistung bis zu 1000 W; dabei wurden auch damals wie heute selbst bei Anwendungen mit relativ hohem Leistungsbedarf (Applikationen unter Flüssigkeit) nicht mehr als typisch 150 W benötigt. Diesem damaligen Trend zu immer höheren Ausgangsleistungen hin wurde durch die Normengebung (IEC 60601-2-2) entgegengewirkt, indem eine Obergrenze der max. HFAusgangsleistung für HF-Chirurgiegeräte von 400 W definiert wurde. Eine Reihe von heute in den Geräten implementierten Überwachungseinrichtungen wie z. B. NeutralelektrodenMonitoring, Überdosierungs-Schutzschaltungen, optische und akustische Aktivierungsanzeigen, GewebeimpedanzMonitoring und HF-Ableitstromkompensation bedeuten für den Patienten und Operateur mehr Sicherheit. Für alle HF-Chirurgiegeräte-Hersteller ist international normativ vorgegeben, dass Geräte mit einer HF-Ausgangsleistung von über 50 W mit einer Überwachungseinrichtung ausgestattet sein müssen, die eine Unterbrechung in der Neutralelektrodenzuleitung erkennen und eine Energieabgabe im Fehlerfall verhindern kann. Es wird allerdings empfohlen, nur Geräte einzusetzen, die nicht nur eine Kabelunterbrechung erkennen, sondern darüber hinaus die korrekte Applikation der Neutralelektrode am Patienten überwachen. Der Patientenausgangskreis (Anwendungsteil) darf bei HF-Chirurgiegeräten keinen galvanischen Erdbezug haben; d. h., das Anwendungsteil muss »floatend« aufgebaut sein. HF-Geräte dürfen also nicht als Geräte mit einem Anwendungsteil vom Typ B aufgebaut werden. Bei einem vollständig floatenden Ausgang – Geräte mit Anwendungsteil vom Typ CF (Cardiac Floating) – hat keine der beiden Patienten-HF-Zuleitungen einen konstruktiv gewollten HF-Erdbezug; bei Geräten mit einem Anwendungsteil vom Typ BF (Body Floating) wird dagegen dem Neutralelektrodenanschluss konstruktiv über einen Kondensator Erdbezug gegeben. Für den Einsatz am offenen Herzen und für die Kombination mit intrakardialen Kathetern stehen HF-Chirurgiegeräte mit isoliertem Anwendungsteil vom Typ CF und defibrillationsfestem Ausgang zur Verfügung.
32
572
III
Kapitel 32 · Hochfrequenzchirurgie
Da kapazitive Ableitströme – also HF-Ströme, die aufgrund vielfältiger Teilkapazitäten von Gehäuse, Leitungen und Patient gegen Erde – unkontrolliert auftreten und dem Patienten Verbrennungen zuführen können, dürfen normierte Grenzwerte nicht überschritten werden. Da die Ableitströme mit zunehmender Frequenz größer werden, ist der HF-chirurgischen Anwendung praktisch eine obere Frequenzgrenze gesetzt. Niedrige Frequenzen führen dagegen – wie Nernst schon zeigte – zu Nerven- und Muskelreaktionen. Vor diesem Hintergrund empfiehlt die IEC 60601-2-2 nur Arbeitsfrequenzen oberhalb von 300 kHz zu verwenden. Aufgrund der Ableitstromproblematik empfiehlt sie, Frequenzen oberhalb von 5 MHz nicht anzuwenden. Auch bei den genannt hohen Arbeitsfrequenzen können faradische Reizungen auftreten. Sie beruhen auf der gleichrichtenden Wirkung von Funken – wie sie ja z. B. bei der Elektrotomie zwingend erforderlich sind. Um faradische Reizungen zu vermeiden, wird in den Patientenstromkreis ein sog. Antifaradisationskondensator geringer Kapazität eingefügt. An bestimmten Stellen ist es dennoch nicht vollständig auszuschließen, dass Muskelzuckungen auftreten (z. B. Obturatoriusreizung bei Resektion in der Harnblase).
32.3.2 HF-Applikationstechnik
Die verschiedenartigen Anwendungsformen können prinzipiell in monopolare, monoterminale und bipolare Verfahren eingeteilt werden. Die monopolare Anwendungstechnik kommt dabei am häufigsten zum Einsatz.
Monopolare Technik Bei der monopolaren Technik müssen eine aktive und eine sog. Neutralelektrode am HF-Chirurgiegerät angeschlossen sein. An der Aktivelektrode werden die für die Elektrochirurgie notwendigen physikalischen Effekte erzeugt (Schneiden, Koagulieren). Die im Vergleich zur Aktivelektrode sehr viel großflächigere Neutralelektrode wird üblicherweise am Oberschenkel oder Oberarm des Patienten platziert. Die Kontaktfläche zwischen Neutralelektrode und Haut des Patienten ist groß, damit die Stromdichte (Strom pro Fläche) relativ gering bleibt. Dagegen bietet die aktive Elektrode nur eine kleine Kontaktfläche, woraus eine sehr hohe Stromdichte resultiert. Nur aufgrund der großen Stromdichte und des Gewebewiderstands kann eine selektive Erwärmung, d. h. eine hohe Temperatur durch die aktive Elektrode im Gewebe entstehen. Die Neutralelektrode wird synonym auch als Plattenelektrode, passive Rückflusselektrode, dispersive Elektrode, indifferente Elektrode, oder fälschlicherweise auch als Erdungselektrode bezeichnet. Berührt der Operateur bei aktiviertem HF-Chirurgiegerät mit der monopolaren
⊡ Abb. 32.4. Monopolarer Stromkreis mit am Oberschenkel des Patienten angelegter, großflächiger Neutralelektrode
aktiven Elektrode das Gewebe, fließt hochfrequenter elektrischer Strom zum Patienten und verursacht unmittelbar an der Gewebe-Kontaktstelle zur relativ kleinflächigen Aktivelektrode den gewünschten physikalischen Effekt (⊡ Abb. 32.4).
Monoterminale Technik Hier schließt sich der Stromkreis über die Kapazität des Patientenkörpers zu dessen geerdeter Unterlage (⊡ Abb. 32.5). Es wird ohne Neutralelektrode gearbeitet. Im Grunde handelt es sich um eine Sonderform der monopolaren Arbeitsweise. Diese Technik ist nur im Bereich kleiner Arbeitsströme sicher und eignet sich daher nur für kleine Eingriffe, z. B. in der Zahnheilkunde und in der Dermatologie. Es sollten für diese Anwendungstechnik nur Geräte mit einer maximalen HF-Ausgangsleistung von 50 W zum Einsatz kommen. Bei diesen Geräten ist ein Betrieb auch ohne Neutralelektrode möglich. Da bei dieser Arbeitsweise der HF-Strom bestimmungsgemäß über Erde zum Gerät zurückfließt, können in erhöhtem Maße elektromagnetische Interferenzprobleme mit anderen elektrischen Geräten auftreten. Geräte mit höherer Ausgangsleistung als 50 W dürfen monoterminal nicht eingesetzt werden. Fehlbedienungen könnten zu ernsten Verbrennungen beim Patienten führen.
Bipolare Technik Sind beide Elektroden (Aktiv- und Neutralelektrode) in einem Instrument wie z. B. der bipolaren Pinzette mit gegeneinander isolierten Schenkeln (Branchen) integriert, spricht man von bipolarer Technik (⊡ Abb. 32.6). Dabei fließt der Strom über die eine Elektrode ins Gewebe und über die andere Elektrode zum HF-Chirurgiegerät zurück. Das bedeutet, dass der Strom nur in dem eng um-
32
573 32.3 · Technik
⊡ Abb. 32.5. Monoterminaler Stromkreis: Die HF-seitige Erdung des HF-Geräts erlaubt den Stromrückfluss über einen geerdeten Behandlungsstuhl, an den der Patient kapazitiv gekoppelt ist
Hatte die bipolare Technik früher ihren Einsatzbereich hauptsächlich in der Neurochirurgie, so wird sie heute erfolgreich u. a. in der HNO, der Gynäkologie und insbesondere im Rahmen minimalinvasiver Eingriffe (MIC) angewandt. Im Wesentlichen wird die bipolare Technik für die Koagulation über bipolare Pinzetten und für die Gefäß- und Gewebeversiegelung eingesetzt. Das bipolare Schneiden blieb bislang trotz mehrfacher Versuche auf wenige »Spezialitäten« beschränkt. Hier besteht das grundsätzliche Problem, dass die notwendige Funkenbildung für einen richtungsgeführten Schnitt auf die konstante Existenz einer differenten und einer indifferenten Elektrode angewiesen ist. Bei der bipolaren Technik sind beide Elektroden mehr oder weniger gleich groß. Dies bedeutet, dass die Aktiv-/Passivzuordnung während des Schnittes wechseln kann und der Schneidvorgang zum Erliegen kommt. Eine Ausnahme hiervon stellt das bipolare Schneiden unter leitfähiger Kochsalzlösung für transurethrale Resektionen dar ( 32.4.1, Abschn. «Bipolare transurethrale Resektion (Bipol-TUR)«). Allerdings müsste man hier korrekterweise von einer quasi bipolaren Technik sprechen, da die beiden Elektroden signifikant verschieden groß sind und auch applikationsbedingt immer definiert ist, welche der beiden Elektroden die Funktion der aktiven Elektrode übernimmt. Im Grunde wird hier die Neutralelektrode – wie man sie aus der monopolaren Technik kennt – stark verkleinert und räumlich sehr nahe an die Aktivelektrode geführt.
32.3.3 Ableitströme
⊡ Abb. 32.6. Bipolarer Stromkreis: Der Stromfluss bleibt auf das zwischen den beiden Pinzettenspitzen gefasste Gewebe begrenzt
schriebenen Gewebebereich zwischen den beiden Elektrodenspitzen fließt. Daher bietet die bipolare Technik insbesondere bei neurologischen Feinpräparationen mehr Sicherheit. Eine separate Neutralelektrode ist zum Betrieb nicht notwendig. Im Vergleich zur monopolaren Technik bietet dies folgende Vorteile: ▬ Der Strom fließt nur zwischen den beiden Elektroden durch das Gewebe, wo der thermische Effekt erwünscht ist. ▬ Die Gefahr von Verbrennungen am Patienten durch Berührung leitfähiger Gegenstände während der Operation ist vernachlässigbar. ▬ Keine vagabundierenden Ströme. ▬ Reduzierte Beeinflussung von Herzschrittmachern und Geräten, die neben dem HF-Gerät am Patienten angeschlossen sind (z. B. Monitoring).
Bei der Anwendung der HF-Chirurgie in der flexiblen Endoskopie und der sog. Minimal Invasiven Chirurgie (MIC) sollte berücksichtigt werden, dass, bedingt durch die hohe Frequenz, ein kapazitiver Strom fließen kann. Und zwar immer dann, wenn ein kapazitiver (Blind) widerstand vorhanden ist (Kondensatoreffekt). Der kapazitive Widerstand folgt der Beziehung: XC = l/2πƒC [Ω]
(32.10)
Hier bedeuten: C Kapazität eines Kondensators, f Frequenz, die am Kondensator anliegt, XC kapazitiver Widerstand. In der Praxis wird häufig auch von kapazitiver Kopplung gesprochen. »Kapazitive Kopplung« ist eine Bezeichnung für einen physikalischen Effekt, der immer dann auftritt, wenn hochfrequenter Strom von einem elektrisch leitfähigen Medium, getrennt durch einen Isolator, zu einem anderen elektrisch leitfähigen Medium fließt. Dies kann geschehen, weil ein Isolator für hochfrequenten Strom nicht die gleichen isolierenden Eigenschaften besitzt wie für
574
III
Kapitel 32 · Hochfrequenzchirurgie
niederfrequenten Strom (z. B. 50 Hz Netzfrequenz). Da aber unsere Erfahrungen über die Eigenschaften von Isolierstoffen aus dem Bereich der Niederfrequenz geprägt sind, erwartet der Anwender von diesen Stoffen ein ähnliches Isolier-Verhalten beim Einsatz von HF. Der kapazitiv gekoppelte Strom ist beim Anwender deshalb nicht im Bewusstsein. Dabei hängt die kapazitive Kopplung von einer Reihe von Faktoren ab, wie z. B. ▬ dem Abstand der beiden elektrischen Leiter: je kleiner der Abstand, desto höher ist der kapazitive Strom; ▬ den Flächen der elektrischen Leiter: je größer die Flächen, desto höher ist der kapazitive Strom; ▬ der Höhe der elektrischen Spannung: je höher die elektrische Spannung, desto höher ist der kapazitive Strom; ▬ der Höhe der Frequenz: je höher die Frequenz, desto höher ist der kapazitive Strom; ▬ der Form der elektrischen Spannung: Spannungsverläufe mit wenig Oberwellen verursachen einen geringeren kapazitiven Strom als stark Oberwellen-behaftete Spannungen. Bei Anwendungen in der offenen Chirurgie spielt der kapazitive Kopplungseffekt eine untergeordnete Rolle. Bei laparoskopischen Eingriffen und in der flexiblen Endoskopie hingegen tritt der kapazitive Kopplungseffekt, bedingt durch die langen Instrumente, verstärkt auf. Da Ableitströme unvermeidbar, unerwünscht, unbemerkt und nicht vorhersagbar sind, ist es besonders wichtig, dass der Anwender beim Einsatz der Instrumente beachtet, dass der kapazitive Kopplungseffekt auftreten kann. In der Praxis bedeutet dies, dass auch durch eine isolierende Kunststoffschicht, wie sie z. B. bei Trokaren oder MICInstrumenten vorhanden ist, ein Strom fließen kann und bei entsprechender kleinflächiger Berührung mit dem Gewebe eine so hohe Stromdichte zustande kommen kann, dass eine Verbrennung möglich ist.
32.4
230 Veff (Netzspannung) einen Spitzenwert _(Up) von ca. 325 Vp, der Crestfaktor (CF) ist hier 1,41 (√2). Bei konstanter Ausgangsleistung muss demnach bei einem Strom mit hohem Crestfaktor auch die Ausgangsspannung größer sein. Hinsichtlich der Auswirkungen auf den Gewebeeffekt gilt: Je höher der Crestfaktor, desto ausgeprägter ist die Koagulationswirkung; je niedriger, desto ausgeprägter ist die Schneidwirkung. Bedingt durch die verwendeten sinusförmigen Stromformen in der HF-Chirurgie kann der Crestfaktor den Wert 1,41 nicht unterschreiten. Up C (Sinus) = 1,41, C (32.11) Crestfaktor = F F Ueff C (symmetrisches Rechteck) = 1 F
32.4.1 Schneideströme
Mit hochfrequentem Wechselstrom ist ein Schnitt durch Gewebe nur möglich, wenn die elektrische Spannung zwischen der aktiven Elektrode und dem Gewebe so groß ist, dass elektrische Funken zünden (⊡ Abb. 32.7). Führt man die aktive Elektrode durch Gewebe, zünden elektrische Funken überall dort, wo der Abstand zwischen aktiver Elektrode und Gewebe genügend klein ist. Funken entstehen allerdings erst ab einer Mindestspannung von etwa 200 Vp. Erhöht man die Spannung, so nimmt die Funkenintensität proportional zu. Bestimmt vom Aussehen der Schnittflächen wird zwischen »glattem Schnitt« und »verschorftem Schnitt« unterschieden. Beim glatten Schnitt, bei dem die Schnittflächen keine Verfärbung durch Hitzeeinwirkung zeigen, kommt ein HF-Strom mit einem
Stromformen und Applikation
Welche Wirkung ein HF-Strom im Gewebe hervorruft, ist im Wesentlichen durch dessen Einwirkdauer, Spannungshöhe und den Grad der Amplitudenmodulation vorgegeben. Die Frequenz (0,3–5 MHz) spielt dabei keine entscheidende Rolle. Eine wichtige Kenngröße stellt dabei der sog. Crestfaktor (engl.: crest, Scheitelpunkt) dar. Er beschreibt das Verhältnis von Spitzenwert (Scheitelwert) zu Effektivwert einer elektrischen Wechselgröße und gibt somit einen Hinweis darauf, wie stark ein Strom in seiner Amplitude moduliert ist. So hat z. B. eine sinusförmige Wechselspannung mit einem Effektivwert (Ueff ) von
⊡ Abb. 32.7. Dissektion: Das HF-chirurgische Schneiden (Elektrotomie) basiert auf einer Funkenbildung zwischen Schneidelektrode und Gewebe
575 32.4 · Stromformen und Applikation
Crestfaktor von ca. 1,4 zum Einsatz. Beim verschorften Schnitt, bei dem die Schnittflächen bräunlich verfärbt sind, kommt je nach gewünschtem Koagulationsgrad ein HF-Strom mit einem Crestfaktor zwischen 2 und 4 zur Anwendung. Je stärker die Schnittflächen verschorft sind, desto effektiver ist die den Schnitt begleitende Hämostase. Ein Strom mit noch höherem Crestfaktor als 4 lässt ein befriedigendes Schneiden nicht mehr zu (»Rupfen«). Da zunächst nach Einführung der Röhrengeneratoren (1920) die unmodulierten Ströme beim Schneiden zu wenig Hämostasewirkung hatten, wurde ein auf Funkenstrecke basierter Fulgurationsstrom dem Schneidestrom überlagert (dazugemischt). Man sprach von einem Misch- oder Blend-Strom – eine Bezeichnung, die bis heute für modulierte Ströme gebräuchlich ist. Eine für einen glatten Schnitt häufig verwendete Bezeichnung ist »Pure Cut«, für mittlere Verschorfung »Blend Cut« und für starke Verschorfung »Super Blend Cut« (⊡ Abb. 32.8, 4-Farbteil am Buchende). Prozessgrößen, die für die Schnittqualität ausschlaggebend sind, werden heute regelungstechnisch beherrscht. Die folgenden Faktoren spielen dabei eine wesentliche Rolle: ▬ Größe und Form der Schneideelektrode: Für den HF-Generator sind es völlig unterschiedliche Bedingungen, ob bspw. mit einer großen Messerelektrode oder mit einer feinen Nadel geschnitten wird. ▬ Schnittführung und -geschwindigkeit: ▬ Die Schneidequalität hängt davon ab, ob oberflächlich oder tiefer, schneller oder langsamer geschnitten wird. ▬ Gewebeeigenschaften: Wird die Schneideelektrode durch Gewebe mit geringem elektrischem Widerstand geführt (Muskeln, Gefäße), bricht die Ausgangsspannung z. T. stark zusammen; bei Gewebe mit großem elektrischem Widerstand (Fett) dagegen weniger stark. Je nach Gegebenheit kommen verschiedene Regelalgorithmen zur Anwendung, die sich auf die Ausgangsleistung, Ausgangsspannung und die Funkenintensität beziehen. Das Ziel dabei ist, dem Anwender weitestgehend unabhängig von äußeren Bedingungen reproduzierbare Schneideeigenschaften zu bieten.
Geregelte Schneideströme Bei der Spannungsregelung werden sinusförmige Spannungen im Bereich von 200–650 Vp eingesetzt. Dabei nimmt auch die Höhe der Ausgangsspannung Einfluss auf die Funkenintensität und damit auch auf den Koagulationsgrad beim Schneiden (neben dem Modulationsgrad beeinflusst also auch die Funkenintensität den Koagulationsgrad). Unter 200 Vp ist kein Schnitt möglich, da bei dieser Spannung kein elektrischer Funke zwischen aktiver
Elektrode und Gewebe zündet. Spannungen von über 650 Vp führen dagegen zu unerwünschter Karbonisation des Gewebes und zu einem übermäßigen Verschleiß der aktiven Elektrode. In homogenem Gewebe kompensiert die Spannungsregelung variable Schnitttiefen, -geschwindigkeiten und Elektrodengrößen. Da aber im chirurgischen Einsatz meist heterogenes Gewebe bzw. unterschiedliche Gewebearten geschnitten werden, ist eine »Konstantspannungs-Regelung« allein nicht ausreichend. Niederohmiges Gewebe (z. B. Muskel) erfordert für einen bestimmten Schneideffekt eine deutlich niedrigere Schneidespannung als hochohmiges Gewebe (z. B. Fett). Ein rein spannungsgeregelter Schneidprozess kann also beim Schnitt durch eine Fettstruktur zum Erliegen kommen. Um dies zu verhindern, wechselt bei modernen HFGeneratoren der Regelalgorithmus auf ein anderes Regelkriterium – z. B. die Ausgangsleistung. Die Ausgangsspannung »darf« in diesem Fall fluktuieren; dafür wird aber dann die Ausgangsleistung konstant gehalten. Wenn unter dieser Bedingung ein Gewebeimpedanzsprung (Schnitt vom Muskel- ins Fettgewebe) auftritt, wird die Ausgangsspannung erhöht, um den Leistungseintrag ins Gewebe konstant zu halten. Damit ist ein konstantes Schneidergebnis durch heterogenes Gewebe mit stark unterschiedlichen Gewebeimpedanzen gewährleistet. Als ein weiterer wesentlicher Faktor für den Schneidprozess wurde bereits die Funkenintensität angeführt. Da die Existenz von Funken nicht ohne Rückwirkung auf den Generator selbst bleibt, kann dies regelungstechnisch genutzt werden. Zum einen verursachen Funken Oberwellen im Strom; zum anderen haben Funken eine gleichrichtende Wirkung. Dies wurde im Zusammenhang mit faradischen Reizungen, die bei der Elektrotomie auftreten können, bereits angesprochen. Es werden also während des Schneidens elektrische Größen generiert, die in unmittelbarem Zusammenhang zur Funkenintensität und damit zum Schneidprozess selbst stehen. Regelt man auf eine dieser Größen, kann die Funkenintensität konstant gehalten werden. Auf diese Weise ist die Schnittqualität ebenfalls reproduzierbar und weitestgehend unabhängig von der Schnittgeschwindigkeit und Gewebeart. Aber auch die Funkenregelung allein wäre für einen umfassenden Regelalgorithmus, der alle Gegebenheiten befriedigend abdeckt, nicht ausreichend. Wird die aktive Elektrodenfläche reduziert – z. B. am Ende eines Schnittes beim Herausfahren aus dem Gewebe – wird sowohl ein Leistungskonstant- als auch ein Funkenkonstant-Algorithmus versuchen, bis zum Schluss über eine immer kleiner werdende wirksame Elektrodenfläche den Prozess aufrecht zu erhalten. Als Ergebnis bekäme man eine viel zu heftige Reaktion. Dieses Phänomen kann dann allerdings wieder vom Spannungskonstant-Algorithmus beherrscht werden. Ein allumfassender Regelalgorithmus verknüpft die drei Einzelkriterien zu einem Komplex, in dem impedanz-, spannungs- und stromabhängig der jeweils am
32
576
Kapitel 32 · Hochfrequenzchirurgie
besten geeignete Regelalgorithmus zum Eingriff kommt. Dabei wird das erforderliche Ausgangsleistungsniveau so niedrig wie möglich, aber so hoch wie nötig eingestellt. Als Schneidelektroden kommen beim offenchirurgischen Arbeiten Nadel-, Messer- und Lanzettelektroden zum Einsatz; bei transurethralen, hystero- und cystoskopischen Resektionen starre Schlingenelektroden und bei laparoskopischen Eingriffen Hakenelektroden.
III Fraktionierte Schneideströme HF-chirurgische Eingriffe in der Gastroenterologie stellen eine besondere Herausforderung dar. Im Vordergrund stehen dabei die endoskopische Polypektomie (Abtragung einer Schleimhautgeschwulst meist im Darm), Mukosektomie (flächenhafte Abtragung der Magen- oder DarmSchleimhaut) und die Papillotomie (weitende Eröffnung der Gallen- und Pankreasgangsmündung im Duodenum, auch Sphinkterotomie genannt). Bei beiden Indikationen sollen kollaterale thermische Läsionen so gering wie möglich, für eine ausreichende Hämostase aber so stark wie nötig ausgebildet werden. Die Wandstärken der Zielorgane schwanken nach Lage und Dehnungszustand erheblich (Magen 2–8 mm, Kolon 0,5–4 mm), was eine Resektion wegen der bestehenden Perforationsgefahr stark erschwert. Dabei ist zu berücksichtigen, dass nicht nur ein offener Durchbruch, sondern auch eine wanddurchgängige Koagulation als Perforation zu werten ist. Die Ausgangsvoraussetzungen für die Elektrotomie sind insbesondere bei der Polypektomie aus physikalischer Sicht sehr ungünstig. Mit der Polypektomie-Drahtschlinge wird vor der HF-Aktivierung nach Möglichkeit der Polyp vollständig umfasst und unter innigem, mechanischem Zug gehalten. Daraus resultiert eine für den elektrischen Schneidvorgang sehr ungünstige Kontaktsituation zum Gewebe. Der Schneidvorgang kann sich durch den anhaltenden mechanischen Druck der Schneidelektrode auf das Gewebe nicht als gleitender, wachsartiger Schnitt ausbilden. Der Schnitt wird – nachdem der Schneidvorgang begonnen hat – ruckartig ausgeführt. Um unter den gegebenen Kontaktbedingungen zum Gewebe den Prozess zu starten, muss zunächst eine sehr hohe HF-Leistung angeboten werden. Diese führt zu Beginn zu einem sehr viel stärkeren, begleitenden Koagulationseffekt als die danach im stationären Schneidprozess notwendige Schneidleistung, die um Größenordnungen niedriger ist als die Anfangsschneidleistung. Als Ergebnis erhält man eine stark inhomogen koagulierte Resektionsfläche, die an den Außenrändern zu intensiv (Perforationsrisiko) und im Zentrum zu schwach (Blutungsrisiko) ausgebildet ist. Gelöst wird dieses Problem, indem der Schneideprozess quasi unmittelbar nachdem er sich ausgebildet hat wieder abgebrochen wird. Diesem kurzen Schneidvorgang schließt sich eine Koagulationsphase an, in der keine Gewebetrennung erfolgt. Mit weiteren intensiven Schneidepulsen, die
in ihrer Intensität regelungstechnisch auf den Prozess abgestimmt sind, wird das in den jeweiligen Pulspausen vorkoagulierte Gewebe schrittweise (fraktioniert) geschnitten. Als Ergebnis erhält man eine homogen koagulierte Resektionsfläche. Abhängig von der Art des Polypen – flachbasig oder gestielt – kann der Koagulationsgrad durch die Wahl der entsprechenden Stromart gewichtet werden. Beim endoskopisch assistierten Hantieren einer Schneidelektrode bei der Papillotomie muss der Operateur häufig Richtungskorrekturen vornehmen, er muss intermittierend zum Schnitt das Gewebe beurteilen und einschätzen, ob die erlangte Schnittlänge für sein Vorhaben ausreichend ist. Dabei ist es für ihn sehr hilfreich, wenn der Schnitt nicht kontinuierlich, sondern fraktioniert abläuft. Das heißt der Schneidvorgang schreitet »Millimeter für Millimeter« pulsartig voran, wobei der Operateur in den Schnittpausen entscheiden kann, ob er im Prozess fortfährt oder abbricht.
Argonassistiertes Schneiden Wenn der Einsatz von Argongas mit dem normalen Schneidemodus des HF-Chirurgiegerätes kombiniert wird, spricht man von argonassistiertem Schneiden. Hierzu wird ein spezieller Applikator verwendet. Aus dem Applikatorschaft ragt eine aktive Schneideelektrode, die beim Schneidevorgang von Argongas koaxial umströmt wird. Beim argonassistierten Schneiden wird mit den normalen Schneidespannungen des HF-Chirurgiegerätes gearbeitet; d. h. das Argongas wird nicht ionisiert und somit auch nicht leitfähig. Die Schneidestelle ist von einer inerten Argongasatmosphäre umgeben, die hier die Funktion einer Schutzgasatmosphäre einnimmt. Durch das Argongas kommt weniger Sauerstoff an die Schnittfläche, dies führt zu ▬ einer reduzierten Rauchbildung – der Operateur hat somit eine bessere Sicht zum OP-Feld; ▬ weniger Karbonisation – dies bedeutet postoperativ einen besseren Heilungsverlauf. Argonunterstütztes Schneiden ist insbesondere für die Mammachirurgie und Leberchirurgie geeignet.
Bipolares Schneiden Prinzipiell herrschen beim bipolaren Schneiden die gleichen physikalischen Gesetzmäßigkeiten wie beim monopolaren Schneiden. Die Stromqualitäten und die regelungstechnischen Möglichkeiten, wie sie für die monopolaren Schneidströme aufgezeigt wurden, können grundsätzlich auch bei der bipolaren Applikationsform zum Einsatz kommen. Die im Zusammenhang mit dem bipolaren Schneiden unter 32.3.2., Abschn. »Bipolare Technik« erläuterten Einschränkungen liegen primär im verfügbaren Applikationsinstrumentarium begründet. Zwar wurden
577 32.4 · Stromformen und Applikation
Mitte bis Ende der 1990er Jahre große Anstrengungen unternommen, die Performance und das Angebot an bipolarem Schneidinstrumentarium zu verbessern; als wirklicher Standard konnte sich bis heute jedoch keines der Instrumente durchsetzen. Auch die Versuche, zusätzliche Elektroden in ein Instrument zu integrieren, um in tri- oder multipolarer Anordnung arbeiten zu können, führten nicht zum erhofften Durchbruch.
Bipolare transurethrale Resektion (Bipol-TUR) Die transurethrale Resektion der hypertrophen Prostata (TUR-P), Resektionen in der Blase (TUR-B) in der Urologie oder die transzervikale Resektion des Endometriums in der Gynäkologie sind Standardverfahren, die traditionell HF-chirurgisch monopolar unter elektrisch nicht leitender Spülflüssigkeit durchgeführt werden. Als Spülmedium dient meist eine Zuckerlösung (Sorbit + Mannit), die bedingt durch intraoperative Blutungen über den Spüldruck in den Kreislauf eingeschwemmt werden kann. Durch die eingeschwemmte, hypotone Spülflüssigkeit kann es in der Folge zu einer Elektrolytverschiebung (Hyponatriämie) kommen, die – als TUR-Syndrom beschrieben – zu einem Hirn- oder Lungenödem führt und intensivmedizinisch behandelt werden muss. Mit zunehmender Operationsdauer steigt dieses Risiko, deshalb ist die OP-Dauer zeitlich begrenzt. Bei der Anwendung der Bipol-TUR kann im Gegensatz zur monopolaren Resektion als Spülmedium physiologische Kochsalzlösung verwendet werden, unter deren Einfluss das TUR-Syndrom vermieden wird. Bei der Bipol-TUR sind die beiden Elektroden im Resektoskop vereint; entweder bildet der Resektoskopschaft die indifferente Elektrode oder sie wird als Gegenelektrode in räumlicher Nähe zur aktiven Schlingenelektrode geführt. In beiden Fällen handelt es sich entsprechend 32.3.2., Abschn. »Bipolare Technik« um eine quasi bipolare Anordnung. Da Kochsalzlösung leitfähig ist, besteht beim Resezieren das Problem, dass diese Flüssigkeit einen elektrischen Nebenschluss bildet und den elektrischen Strom von der Schneidelektrode am Gewebe vorbei ableitet. Die notwendige Schneidespannung kann sich so also nicht ausbilden. Um diese Situation zu überwinden, muss mindestens kurzzeitig eine sehr hohe Leistung an der Schlingenelektrode umgesetzt werden. Der hohe Leistungseintrag führt dazu, dass die Spülflüssigkeit entlang der ganzen Schneidelektrode schlagartig verdampft und sich so eine Plasmaschicht entlang der Schlingenelektrode ausbildet. Dabei ist völlig klar, dass die zur Ausbildung des Plasmas notwendige Energie von der Oberfläche der Schlingenelektrode abhängig ist. Die weitere Existenz des so etablierten Plasmas kann dann auf einem wesentlich niedrigeren Leistungsniveau aufrechterhalten werden. In diesem Zustand ist die Schlinge resektionsbereit, sodass Gewebe, das in Kontakt zur Schlinge gelangt,
⊡ Abb. 32.9. TUR-Anwendung: Über ein starres Resektoskop wird transurethral Blasen- oder Prostatagewebe HF-chirurgisch monopolar unter elektrisch isolierender Zuckerlösung oder bipolar unter elektrisch leitfähiger NaCl-Lösung mit einer Schlingenelektrode reseziert
ohne das beschriebene Anschnittphänomen und ohne einem Schlingendruck auszuweichen, unmittelbar geschnitten wird. Die Methode bietet die folgenden Vorteile: ▬ Vermeidung des TUR-Syndroms. ▬ Statistisch signifikant geringeres Auftreten einer Obturatoriusreizung. Durch die bipolare Anordnung fließt der Strom nicht durch den Körper zur am Oberschenkel applizierten Neutralelektrode, sondern nur in enger räumlicher Umbebung vom Resektionsort. ▬ Geringerer Blutverlust. ▬ Risikoärmer für Schrittmacher-Patienten durch geringere Interferenz. ▬ Keine Gewebeerwärmung in tieferen Schichten. ▬ Geringfügig kostengünstigere Spülflüssigkeit. ▬ Einsparung der Neutralelektrode. 32.4.2 Koagulationsströme
Ziel der Koagulation ist es, mit Hilfe von hochfrequentem Strom Gewebe zu denaturieren bzw. Gefäße so weit zu verengen, dass »Blutungen stehen«. Die Koagulationswirkung hängt im Wesentlichen von Höhe und Form der Ausgangsspannung, der Stromdichte im Gewebe, vom Gewebewiderstand, von Form und Größe der aktiven Elektrode und der Applikationszeit ab. Um biologisches Gewebe zu koagulieren ist eine Temperatur von etwa 70°C notwendig.
32
578
III
Kapitel 32 · Hochfrequenzchirurgie
Wird die Koagulationstemperatur von ca. 70°C überschritten, dehydriert das glukosehaltige Koagulat, und das Gewebe kann an der aktiven Elektrode kleben. Bei noch höheren Temperaturen kann es zu einer Karbonisation des Gewebes kommen (vgl. ⊡ Tab. 32.2). Bei der Koagulation sind die Anforderungen an ein HF-Chirurgiegerät sehr komplex, daher ist es wichtig, verschiedene Koagulationsmodi nutzen zu können, um allen chirurgischen Anforderungen gerecht zu werden. Folgende Modi sollten zur Verfügung stehen: Kontaktkoagulation, Forced Koagulation, Desikkation, Spraykoagulation, argonassistierte Koagulation, bipolare Koagulation und bipolare Gefäßversiegelung. So kann der Anwender den für den jeweiligen Eingriff am besten geeigneten Koagulationsmodus vorwählen und die Einstellung der Intensität jeweils optimieren.
Kontaktkoagulation Zwei grundsätzlich verschiedene Applikationsformen werden hier unterschieden: ▬ Direkte Applikation des HF-Stromes am Gewebe vom HF-Chirurgiehandgriff aus über spezielle Kontaktkoagulationselektroden wie Kugel- oder Plattenelektrode. ▬ Indirekte Applikation des HF-Stromes am Gewebe über ein chirurgisches Instrument, auf das vom HFChirurgiehandgriff aus i. d. R. über eine Schneidelektrode (Nadel-, Messerelektrode) der Strom übertragen wird. Die direkte Applikation kommt sehr viel seltener zur Anwendung als die indirekte Applikation. Sie spielt im Niedergelassenen Bereich, wo nur wenig geschnitten wird, eine bedeutendere Rolle als in der täglichen Routineanwendung im OP-Saal. Dort geht gezielte Blutstillung mit Schneiden einher und findet im permanenten Wechsel »Schneiden/Koagulieren« statt. Da die Quelle spontan auftretender Blutungen schnell über eine chirurgische Präparierpinzette vom Chirurgen gefasst, komprimiert und somit mechanisch gestoppt wird, bietet es sich an, diese Stelle zu »verkochen«, indem HF-Strom auf eben diese Pinzette gegeben wird (indirekte Applikation). Da der Operateur, der die Pinzette mit einer Hand fasst, häufig mit seiner zweiten Hand ebenfalls in Patientenkontakt steht, wird er – elektrisch betrachtet, da nur durch sehr dünne OPHandschuhe isoliert – »Teil des Patienten«. Je höher dabei die zur Anwendung kommende Koagulationsspannung ist, umso größer ist das Risiko für den Operateur in dieser Situation, dass die Isolation des Handschuhs versagt. Als Folge würde er die koagulierende Wirkung des HF-Stroms selbst an der betroffenen Stelle seiner Hand spüren. Um dieses Risiko gering zu halten, sollten bei der indirekten Applikationsform nur HF-Spannungen von ca. 600–700 Vp zur Anwendung kommen. Um den Anwender hier zu unterstützen, werden heute speziell optimierte Ströme für
⊡ Abb. 32.10. Indirekte Kontaktkoagulation über eine isolierte, chirurgische Pinzette. Alternativ kann die HF-Chirurgie-Elektrode auch in direktem Gewebekontakt zur Kontaktkoagulation verwendet werden
die Klemme als sog. Klemmenstrom angeboten. Um das Risiko einer wie oben beschriebenen Verbrennung beim Anwender noch stärker zu reduzieren, müssen Instrumente verwendet werden, die im Haltebereich elektrisch isoliert sind (⊡ Abb. 32.10). Die Vielfalt der unterschiedlichen Gewebearten (u. a. Muskel, Fett) und deren Zustände (blutend, trocken, inniger oder loser Elektrodenkontakt…), an denen HF-Strom appliziert wird, bilden ein sehr breites Impedanzspektrum ab (ca. 50–1000 Ω). Eine breitbandige Anpassung des HFGenerators, d. h. konstante Leistungsabgabe über einen breiten Gewebeimpedanzbereich, ist deshalb hier gefordert. Da man hinsichtlich der maximalen Ausgangsspannung für indirekt applizierte Kontaktkoagulationen limitiert ist, können nur Koagulationsströme mit für solche Anwendungen vergleichsweise niedrigen Crestfaktoren eingesetzt werden. Diese Ströme besitzen einen teilweise schneidenden Charakter, den manche Anwender bewusst dann zum Schneiden nutzen, wenn der Schnitt von ausgeprägter Hämostasewirkung begleitet sein soll, oder wenn das Risiko einer Keimverschleppung relativ groß ist (z. B. Schnitt am Darm). Eine Sonderform stellt die sog. Care Koagulation (engl.: care, schonen, Sorgfalt) dar. Bei der Care Koagulation (auch Soft Koagulation) bleibt die Spitzenspannung zwischen aktiver Elektrode und Gewebe auf Werte <200 Vp beschränkt. Bei diesen niedrigen Spannungswerten kann kein elektrischer Funke zwischen aktiver Elektrode und Gewebe entstehen. Ein ungewollter Schneideffekt und eine unerwünschte Karbonisation werden dadurch ausgeschlossen. Ein weiterer Vorteil der Care Koagulation ist
579 32.4 · Stromformen und Applikation
die geringere Verschmutzung der aktiven Elektrode, die deshalb während des Eingriffs seltener gereinigt werden muss. Die Care Koagulation eignet sich für alle Eingriffe, bei denen die aktive Elektrode direkt mit dem zu koagulierenden Gewebe in Kontakt gebracht wird (z. B. in der Neurochirurgie, Gynäkologie, HNO und insbesondere bei minimalinvasiven Eingriffen). Der Umstand, dass der Strom einen vom Koagulationsfortgang abhängigen Verlauf zeigt, kann als Kriterium zum Abschalten der Energiezufuhr genutzt werden. Während des Koagulationsvorgangs sinkt in der ersten Phase die Gewebeimpedanz deutlich, wodurch der Strom ansteigt. Wenn die intra- und extrazelluläre Flüssigkeit in Dampf überführt ist, steigt aufgrund der Dehydration die Impedanz rapide an, wodurch sich der Strom dann abrupt auf ein Minimum reduziert. Eine dynamische Sensorik registriert diese Änderung und schaltet den Generator beim Erreichen eines bestimmten Grenzwerts automatisch ab. Man spricht in diesem Zusammenhang von Kontaktkoagulation mit Auto Stopp Funktion. Für den Operateur bedeutet dies, dass selbst dann eine optimale Koagulation möglich ist, wenn er die Spitze der Elektrode im Gewebe nicht beobachten kann. Der Anwender kann das Abschaltkriterium bei der Auto-Stopp-Koagulation unterschiedlich einstellen und damit unterschiedliche Koagulationsqualitäten vorwählen. Abhängig von der Ausgangsspannung ändert sich die Geschwindigkeit im Ablauf der Koagulation. Bei höherer Ausgangsspannung wird die Dehydration im Gewebe früher erreicht, bei niedrigerer wird weniger Leistung pro Zeiteinheit im Gewebe appliziert, und es muss insgesamt mehr Zeit aufgewendet werden. Während dieser Zeit kann sich die Koagulation aufgrund der Wärmeleitung räumlich weiter ausbreiten, bis die Koagulation abgeschlossen ist. In Abhängigkeit von der Einstellung am HF-Chirurgiegerät können also unterschiedliche Koagulationstiefen mit gleich großen Elektroden erreicht werden.
Desikkation Mit dem Begriff Desikkation (lat.: desiccare, austrocknen) wird weniger eine bestimmte Stromform als vielmehr eine ganz spezielle Applikationsform abgegrenzt. Dabei wird eine nadelförmige Elektrode in das Gewebe eingestochen und für die Zeitdauer der Stromeinwirkung an der gleichen Stelle belassen. Bei entsprechender Stromintensität kommt es dann im engeren Bezirk der Nadel zur Gewebsverkochung und Austrocknung. Da die Desikkation einen Vorgang in der Tiefe des Gewebes darstellt und die thermische Gewebereaktion optisch nicht kontrolliert werden kann, wird diese Applikationsform vorteilhaft mit der bereits unter Abschn. »Kontaktkoagulation« beschriebenen »Auto Stopp Funktion« kombiniert. In der Tumortherapie möchte man im Zusammenhang mit der Desikkation möglichst große Gewebevolumina
erreichen. Daher eignet sich als Strom der Care Koagulationsstrom oder ein spezieller Desikkationsstrom, der heute für die HF induzierte interstitielle Tumortherapie (HFITT) angeboten wird. Bei der HFITT werden spezielle mono- bi- oder multipolare Applikatoren in das Zentrum eines Tumors oder einer Metastase unter bildgebender Kontrolle (MRT, Röntgen, Ultraschall) gebracht. Es wird über einen längeren Zeitraum (typ. 20 min) HF-Strom appliziert und die Ausbreitung der thermischen Läsion unter Bildgebung beobachtet. Wenn sich die Koagulationsfront bis ins Gesunde ausgedehnt hat, wird die Energiezufuhr gestoppt. Damit man möglichst große Koagulationsvolumina generieren kann, werden die Nadelelektroden teilweise gekühlt, um eine zu frühe Desikkation des an der Nadel anliegenden Gewebes zu verhindern. Würde dieses zu früh austrocknen, wäre der weitere Energieeintrag wegen der hohen Impedanz von ausgetrocknetem Gewebe verhindert und der Tumor könnte nicht vollständig nekrotisiert werden. Die größte Erfahrung über den Einsatz der HFITT in der Tumortherapie besitzt man heute für Lebertumore und -metastasen.
Forced Koagulation Bei diesem Koagulationsmodus wird mit hohen pulsförmigen, stark modulierten Ausgangsspannungen von bis zu 3 kVp gearbeitet (Crestfaktor: 5–7). Man bezeichnet diesen Koagulationsstrom als »forced«, weil er durch seine hohe Spannung auch hochohmige Gewebeimpedanzen überwindet und eine Koagulation auch in »ungünstigen« Ausgangssituationen quasi erzwingen kann. Auch wird durch die Bezeichnung »forced« der ausschließliche Koagulationscharakter des Stromes unterstrichen. Durch die relativ hohen Spannungen können bei der forcierten Koagulation zwischen der aktiven Elektrode und dem Gewebe Funken entstehen, und man kann in kurzer Zeit ausgeprägte Koagulationen erzielen. Dieser Modus erfüllt die Anforderungen an eine Standardkoagulation und ermöglicht dem Operateur ein schnelles und effektives Arbeiten – allerdings mit dem Kompromiss einer möglichen Karbonisation des Gewebes. Wenn eine forcierte Koagulation indirekt über ein chirurgisches Instrument appliziert werden soll, muss das Instrument elektrisch isoliert sein. In geringfügig modifizierter Form kommt dieser Strom auch bei transurethralen und gynäkologischen Eingriffen unter elektrisch nicht leitender Spülflüssigkeit zur Anwendung (vgl. ⊡ Abb. 32.9). Hier ist es ganz besonders wichtig, dass der Strom nicht zum Schneiden neigt, denn hier werden die Koagulationen über sehr dünne Drahtschlingenelektroden mit Drahtstärken von 0,3–0,4 mm ausgeführt. Mit einem schneidenden Koagulationsstrom würde die Schlingenelektrode bei leichtem Gewebeanpressdruck einsinken, was bei einer Resektion in der Blase bei den dort gegebenen dünnen Gewebewandstärken nicht toleriert werden kann.
32
580
Kapitel 32 · Hochfrequenzchirurgie
Spraykoagulation oder Fulguration
III
Durch die Art der zur Verfügung stehenden Apparate zur Zeit Pozzis war die Fulguration, die heute meist als Spraykoagulation – selten auch als Sidération – bezeichnet wird, die erste Anwendungsmöglichkeit des HF-Stromes am lebenden Gewebe (⊡ Abb. 32.11). Bei der Spraykoagulation werden sehr hohe pulsförmige, extrem stark modulierte Ausgangsspannungen von einigen tausend Volt (bis zu 8 kVp) verwendet (Crestfaktor: bis 20). Nähert der Anwender sich mit einer unter Sprayspannung stehenden kleinflächigen Elektrode (Nadelelektrode) dem Gewebe, wird bereits in einer Entfernung zum Gewebe von 3–4 mm die Luft zwischen Elektrodenspitze und Gewebe ionisiert. Über die im elektrischen Feld ionisierte Luft entlädt sich ein Funke auf das Gewebe, gefolgt von weiteren Funkenentladungen, die räumlich ausgedehnt eine relativ große Gewebeoberfläche »besprühen« und koagulieren – daher die Bezeichnung Spraykoagulation. Wird anstelle einer Nadelelektrode eine Kugelelektrode verwendet, resultiert an der stumpfen »Elektrodenspitze« bei gleichem Gewebeabstand eine geringere elektrische Feldstärke. Diese nimmt erst mit abnehmendem Gewebeabstand wieder zu, sodass die Ionisation der Luft mit der einhergehenden Funkenentladung beim Einsatz einer Kugelelektrode erst bei geringerem Abstand stattfindet. Elektrische Feldstärke E =
Elektrische Spannung U [kV] Abstand 1 [mm] (31.12)
Mit Hilfe der Spraykoagulation kann also Gewebe berührungsfrei koaguliert werden (»Nonkontaktkoagulation«). Immer dann, wenn eine Oberflächenkoagulation oder eine Stillung diffuser Blutungen notwendig ist, kann die
⊡ Abb. 32.11. Spraykoagulation – auch Fulguration genannt
Spraykoagulation vorteilhaft eingesetzt werden, bspw. bei der Koagulation parenchymatöser Gewebe (Leber, Niere, Milz, Lunge). Dort wo aus Wärmegründen der direkte Kontakt mit dem Gewebe vermieden werden soll oder aufgrund der hohen Gewebeimpedanz ein Energieeintrag per Kontaktkoagulation nicht möglich ist – z. B. bei der Blutstillung am knöchernen Sternum in der Thoraxchirurgie – ist die Spraykoagulation häufig die einzig mögliche Applikationsform zur Blutstillung. Für endoskopische Anwendungen werden bedingt durch die Anforderungen an die Spannungsfestigkeit des Instrumentariums in der Spannung reduzierte Spraykoagulationströme (Endo Spray) eingesetzt (typ. bis 4 kVp).
Argonassistierte Koagulation (Argonbeam) Es gibt klinische Situationen, die sich mit Hilfe der herkömmlichen mono- und bipolaren Koagulationsverfahren nur unzureichend bewältigen lassen. Problematisch ist u. a. die offene oder endoskopische Koagulation großflächiger Blutungs- oder Tumorareale, die mit den üblichen Methoden nur unter technischen Schwierigkeiten und mit erheblichem Zeitaufwand zu behandeln sind. Insbesondere für die endoskopische Anwendung sollte außerdem eine sichtbehindernde Rauchbildung und eine Karbonisation des Gewebes sowie ein Festkleben des koagulierten Gewebes an der Elektrode ausgeschlossen sein. Seit Mitte der 1980er Jahre steht hierfür in der offenen Chirurgie und seit Mitte der 1990er Jahre auch in der flexiblen Endoskopie mit dem Argonbeamer eine HF-Methode zur Verfügung. Heute können moderne HF-Chirurgiegeräte mit einer Argongas-Zusatzeinheit erweitert werden, sodass bedarfsorientiert die Stromform Argonbeam zur Verfügung steht. Argonbeam ist ein monopolares Koagulationsverfahren, bei dem hochfrequenter Wechselstrom durch ionisiertes und dadurch elektrisch leitfähiges Argongas (Argonplasma) auf das zu koagulierende Gewebe geleitet wird. Vergleichbar mit der Spraykoagulation ist auch hier eine hohe Spannung (z. B. >2000 Vp) und ein entsprechend geringer Abstand zum Gewebe eine Voraussetzung. Prinzipiell läuft der Prozess ähnlich ab wie bei der Spraykoagulation. Mit dem Unterschied, dass die erforderliche elektrische Feldstärke zur Ionisation von Argongas deutlich geringer ist als die für Luft (Argon: 5 kV/cm, Luft: 25 kV/cm). Der Applikator kann deshalb im Vergleich zur Spraykoagulation in deutlich größerem Abstand zum Gewebe geführt werden (⊡ Abb. 32.12). Außerdem ist die Qualität des thermisch generierten Gewebeschorfs deutlich verschieden von dem, den man mit der Spraykoagulation erzielen kann. Der Argonbeam erzeugt eine gebündelte, kontrollierte Stromverteilung im Beam, was sich durch eine gleichmäßige, homogene Koagulation der Gewebeoberfläche ausdrückt. Dazu kommt, dass der Argongas-Strahl Gewebeflüssigkeiten von der zu koagulierenden Stelle wegbläst, sodass die Energie nicht
581 32.4 · Stromformen und Applikation
nur in einen, dem Gewebe möglicherweise aufliegenden Blutfilm, sondern unmittelbar ins Gewebe gelangt. Physikalisch bedingt wendet sich der Plasmastrahl automatisch von koagulierten (hochohmigen) Arealen ab, hin zu blutenden oder noch nicht ausreichend koagulierten (niederohmigen) Gewebebereichen im Applikationsgebiet. So wird eine automatisch begrenzte, gleichmäßige Koagulation nicht nur in der Tiefe, sondern auch in der Fläche erreicht. Dabei bleibt die Tiefenwirkung praktisch auf eine Eindringtiefe von 2–3 mm begrenzt. Im Vergleich zu herkömmlichen mono- und bipolaren Verfahren bietet die argonunterstützte Koagulation bedeutende Vorteile: ▬ Rasche, flächenhafte Koagulation oberflächlicher Blutungen. ▬ Der Strom fließt automatisch zu dem noch nicht (ausreichend) koagulierten Gewebe, daher lückenlose und gleichmäßig tiefe Verschorfung. ▬ Möglichkeit der lateralen Koagulation. ▬ Zuverlässige Blutstillung bei geringer Traumatisierung des Organs. ▬ Berührungslose Applikation (»Nonkontaktkoagulation«), deshalb kein Verkleben der Elektrode. ▬ Eindringtiefe maximal 3 mm, dadurch geringeres Perforationsrisiko beim Koagulieren in dünnwandigen Organen. ▬ Bessere Wundheilung, da minimale Nekrose und weniger Karbonisation. ▬ Keine Vaporisation. ▬ Der Argon-Flow bläst auftretendes Blut beiseite. Die Blutungsquelle wird so direkt erreicht, was eine verbesserte Koagulationswirkung bedeutet. ▬ Verminderte Rauchentwicklung (bessere Sicht), weniger Geruchsbelästigung. ▬ Kürzere Operationszeiten. ▬ Geringere Komplikationsrate.
Insbesondere hat sich der endoskopische Einsatz des Argonbeams bei vielen lndikationen bewährt, bspw. zur Stillung von Tumorblutungen oder von Blutungen nach Dilatation oder Bougierung, der Behandlung von Anastomosen- und Narbenstenosen sowie partiell stenosierenden oder wandnahen Tumoren. Tumor- und Granulationsgewebe, das nach Stenteinlage durch den Maschenstent wächst, lässt sich mit Hilfe der endoskopischen Argonbeam Applikation devitalisieren. Angiodysplasien, die sporadisch bluten, sind effektiv mit argonunterstützter Koagulation zu behandeln und per Enteroskopie auch im Dünndarm zu erreichen. Tumorgewebe in perforationsgefährdeten Bereichen (Duodenum, Kolon) kann nekrotisiert werden. Für die Bronchoskopie stehen dünne, flexible Sonden zur Verfügung, angepasst an den Arbeitskanal des Bronchoskops. Im Tracheobronchialbaum lassen sich mit Hilfe des Argonbeams Blutungen stillen und stenosierende Tumoren behandeln. Bedingt durch die vielen Vorteile, die diese Koagulationsmethode bietet, hat sich der Argonbeam relativ schnell in den Operationssälen durchgesetzt. Limitiert werden die Einsatzgebiete derzeit hauptsächlich durch die notwendigen Spezialapplikatoren, die für die jeweilige Disziplin/Indikation erforderlich sind. Hier ist zu erwarten, dass neue Entwicklungen von Kombinationsinstrumenten der Methode zusätzliche Indikationen zuführen werden.
Bipolare Koagulation Wie beim bipolaren Schneiden gelten auch für die bipolaren Koagulationsströme hinsichtlich der Gewebewechselwirkung die gleichen physikalischen Gesetzmäßigkeiten wie für die monopolaren. Bedingt durch die Integration beider Pole in ein Instrument können aus Gründen der Spannungsfestigkeit allerdings nur Ströme mit nicht allzu hoher Ausgangsspannung (max. 500–800 Vp) zur Anwendung kommen. Stark amplitudenmodulierte Ströme
⊡ Abb. 32.12. Gegenüberstellung einer argonunterstützten Koagulation (links) und einer Spraykoagulation (rechts)
32
582
III
Kapitel 32 · Hochfrequenzchirurgie
mit hohen Crestfaktoren und hohen Spannungspulsen – wie sie für die Nonkontaktkoagulation benötigt werden – scheiden daher aus praktischen Gründen aus. Die bipolare Koagulation wird daher heute ausschließlich als Kontaktkoagulation und Desikkation ausgeführt. Dabei kommt eine indirekte Applikation des Stromes über chirurgische Instrumente nicht in Betracht; das Gewebe muss mit dem bipolaren Instrument direkt in Kontakt gebracht werden. In den überwiegenden Fällen handelt es sich dabei um bipolare Pinzetten, die in einer großen Vielfalt mit für die jeweiligen Fachdisziplinen angepassten Geometrien angeboten werden.
Auto Start- und Auto Stopp-Funktion Wie bei der monopolaren Kontaktkoagulation gibt es auch bei der bipolaren Koagulation die Möglichkeit, die Koagulation automatisch, d. h. per Auto Stopp, zu beenden. Diese Funktion wird vorteilhaft bspw. bei der Koagulation der hypertrophen Nasenmuschel- und Myomkoagulation genutzt, bei der eine bipolare Nadelanordnung in das Gewebe gestochen und unter HF-Energieabgabe nekrotisiert wird (Desikkation). Zusätzlich zur Auto Stopp-Funktion gibt es beim bipolaren Koagulieren die Möglichkeit der automatischen Aktivierung ohne Fußschalter (Auto Start). Ein Berührungssensor registriert, wenn sich das zu koagulierende Gewebe zwischen den beiden Elektroden befindet, und aktiviert den Generator automatisch. Damit der Operateur vor der Aktivierung des Generators ausreichend Zeit zum Positionieren und Präparieren hat, kann er individuell programmierbare Verzögerungszeiten vorwählen. Die Auto Start-Funktion ist nur bei offenen Eingriffen empfehlenswert und zulässig. Die Kombination der Auto Start- mit der Auto Stopp-Funktion ergibt ein hohes Maß an Bedienungskomfort. Der Generator aktiviert automatisch mit der vorgewählten Verzögerungszeit, er liefert automatisch die richtige Leistung und schaltet bei Erreichen des optimalen Koagulationsergebnisses automatisch ab. Zusätzlich werden unerwünschte Nebeneffekte wie Verkleben der Elektrode und Karbonisation vermieden.
Non-stick-Technologie Ähnlich wie beim Anbraten in einer Pfanne neigt Gewebe beim Erhitzen zum Zweck der Gewebekoagulation über eine elektrochirurgische Pinzette dazu, an der Metallkontaktfläche anzuhaften. Beim Versuch, die Pinzette vom Gewebe zu lösen, kann es dann vorkommen, dass Gewebe mit »abgerissen« wird und die Blutungsquelle wieder aufgeht. Welche chemisch-physikalischen Abläufe für das Ankleben letztendlich verantwortlich sind, ist weitgehend unbekannt. Was jedoch beobachtet werden kann ist, dass der Effekt umso stärker auftritt, je höher die Temperatur an der Pinzette wird. Ganz besonders stark also dann, wenn zwischen dem Gewebe und den Pinzettenelektroden Funken entstehen.
Eine Möglichkeit, die Elektrodentemperatur zu limitieren, besteht darin, die an der Elektrodenkontaktstelle auftretende Wärmeenergie möglichst effektiv abzuführen. Dies kann z. B. dadurch erfolgen, dass für die Elektroden ein Material mit hoher spezifischer Wärmekapazität und guter Wärmeleitfähigkeit gewählt wird. Der üblicherweise für Pinzetten verwendete Edelstahl besitzt zwar eine relativ hohe Wärmekapazität (0,5 kJ/(kg×K); im Vergleich hierzu Silber mit 0,235 oder Kupfer mit 0,383 kJ/(kg×K)), also ein für eine Koagulationselektrode sehr günstiges Verhältnis zwischen zugeführter Wärmemenge und erzielter Temperaturerhöhung, aber eine relativ schlechte Wärmeleitfähigkeit. Diese beträgt für Edelstahl nur 15 W/(m×K) und ist damit z. B. 25mal kleiner als die von Kupfer. Der Abtransport der Wärme von der Kontaktstelle ins Pinzettenvolumen geschieht also zu langsam; es kommt zum Hitzestau. Der beste Wärmeleiter mit 418 W/(m×K) ist Silber. Aus diesem Grund wird bei Non-Stick-Pinzetten für den distalen Elektrodenbereich (Gewebe Kontaktbereich) eine Silber-Legierung gewählt, die mechanisch robust ist und die herausragenden thermischen und elektrischen Eigenschaften von Silber bei gegebener Biokompatibilität in sich vereinigt. Über die distalen Pinzettenbranchen wird die Wärmeenergie rasch von der Gewebekontaktstelle abgeleitet, hin zum Edelstahl-Komposit, das mit seiner Wärmekapazität die Wärmeenergie aufnimmt. Bei der unter Elektro-Hydro-Thermosation (EHT) bekannt gewordenen Methode nach Reidenbach wird Flüssigkeit (z. B. NaCl) durch die Pinzettenbranchen hindurch auf die Elektrodenkontaktstellen zum Gewebe geführt. Diese die Elektroden umgebende Flüssigkeit führt u. a. dazu, dass bei einer Elektrodenerwärmung bedingt durch Siedekühlung die Temperatur 100°C nicht übersteigen kann. Diese Temperatur ist für die gewünschte Gewebekoagulation ausreichend hoch, führt aber nicht zur vollständigen Austrocknung an den Kontaktflächen oder gar zur Karbonisation des Gewebes. Die EHT-Methode ist zwar sehr effektiv, aber aufwändig, da spezielle Pinzetten erforderlich sind und zusätzlich Spülflüssigkeit bereitgestellt werden muss. Hinzu kommt, dass bei einigen Indikationen eine Spülflüssigkeitszufuhr nicht akzeptiert werden kann. Non-stick-Pinzetten sind daher eine attraktive Alternative. Sie kommen insbesondere in der Neurochirurgie vorteilhaft zum Einsatz; aber auch überall dort, wo das Anhaften von Gewebe nicht toleriert wird.
Bipolare Gefäßversiegelung Obwohl die bipolare Applikationsform bereits Anfang des 20. Jahrhunderts (E.L. Doyen) vorgestellt wurde und die Wirkmechanismen bei der Koagulation zum Verschluss von Blutgefäßen Anfang der 1960er Jahre hinreichend untersucht waren (Bernhard Sigel et al 1965), gelang es bis Ende des 20. Jahrhunderts »nur«, kleinere Gefäße mit einem Durchmesser von ca. 2–3 mm bipolar zuverlässig zu verschließen. Einen Meilenstein in der bipolaren Technik
583 32.5 · Methodische Hinweise für die Anwendung und Sicherheit
stellt deshalb zweifelsfrei die Entwicklung einer amerikanischen Arbeitsgruppe um Steven P. Buysse und Thomas P. Ryan dar. Sie stellten Ende der 1990er Jahre ein System vor, mit dem es glückte, durch einen speziell geregelten Ablauf des Koagulationsvorgangs über eine bipolare Klemme auch bedeutend größere Gefäße zu versiegeln (⊡ Abb. 32.13). Das Gewebe durchläuft im Verlauf einer Erwärmung verschiedene Stadien. Zunächst kommt es zu einer Koagulation von Bindegewebe mit Erhalt der Faserstruktur; gefolgt von amorpher Koagulation – d. h., Strukturen lösen sich auf – und schließlich zur vollständigen Zerstörung, welche als Karbonisation mit Substanzverlust erscheint. Bei der Gefäßversiegelung kommt es darauf an, unter Erhalt der morphologischen Gewebestruktur das körpereigene Kollagen und Elastin – also das faserige Grundgerüst von Bindegewebe – zu verschmelzen. Mechanischer Druck ist für die Verbindung dieser Fasern während der Erhitzung notwendig, damit die Gefäßwände dabei in innigem Kontakt zueinander stehen. Unzureichender Druck führt lediglich zu einer Thrombusbildung im Gefäß, welche keinen zuverlässigen Gefäßverschluss bei größeren Gefäßen darstellt. Eine unzureichende Erwärmung führt zu einer schwachen Verbindung oder nur zu einer Verbindung der Adventitia-Schichten (das Blutgefäß umgebende lockere Bindegewebe). Zu starke Erhitzung zerstört die physikalischen Eigenschaften der Bindegewebsfasern. Das amorphe Koagulat würde zum Brechen neigen und sich vom übrigen Gewebe lösen; die Faserstruktur wäre zerstört und damit die mechanische Stabilität und Elastizität verloren. Eine ideale Versiegelung entsteht nur, wenn die physikalischen Gewebeeigenschaften erhalten bleiben. Wenn Funken auf das Gewebe wirken, entstehen Temperaturen über 1000 K, welche die Integrität des Gewebes zerstören. Der bipolare Gefäßversiegelungsstrom darf also keine Spannungswerte annehmen, die zu einer Funkenbildung führen (<180–200 Vp). Damit mit solch niedrigen HFSpannungen dennoch genügend Energie ins Gewebe für eine ausreichende Koagulation gebracht werden kann, muss der Energieeintrag regelungstechnisch unterstützt ablaufen. Man nutzt dabei den Umstand aus, dass die Gewebeimpedanz nach der ersten Desikkationsphase unmittelbar nach Unterbrechung der HF-Energiezufuhr wieder sinkt und eine wiederholte Energieabgabe auch bei der zulässig niedrigen HF-Spannung möglich ist. Man koaguliert also das Gewebe, indem man die Energie in einer gepulsten Weise appliziert. Erst wenn ein gewünschter Versiegelungsgrad erreicht ist, wird der Prozess automatisch gestoppt. Bei einer zuverlässigen Versiegelung erscheint das versiegelte Gewebe pergamentartig transluzent und weist nur einen schmalen, thermisch geschädigten Randbereich auf. Die Hauptvorteile der Methode sind: ▬ Kein körperfremdes Material – wie Nahtmaterial und Clips – wird im Patienten hinterlassen. ▬ Kostenreduktion durch Einsparen von Nahtmaterial. ▬ Kürzere OP-Zeiten (Patientenschonung und Kosten).
⊡ Abb. 32.13. Wiederverwendbare bipolare Instrumente. Links: Eine bipolare Klemme für die Gefäßversiegelung in der offenen Chirurgie: Gewebe wird vor dem Schneiden intensiv mit Hilfe der Klemme versiegelt. Rechts: Eine bipolare Schere erlaubt die Applikation von koagulierendem, bipolarem HF-Strom über die beiden Scherenblätter während des mechanischen Schneidens. Die Hämostase ist dabei im Gegensatz zur Gefäßversiegelung nur für kleinere Gefäße ausreichend
▬ Bipolares Verfahren mit den prinzipbedingten Vorteilen (keine aberrierenden Ströme, keine Erwärmung entfernt liegender Gewebestrukturen, Verzicht auf eine Neutralelektrode, elektromagnetische Verträglichkeit).
32.5
Methodische Hinweise für die Anwendung und Sicherheit
Moderne HF-Chirurgiegeräte, ausgestattet mit automatischen Überwachungsfunktionen, vereinen Bedienungskomfort und Funktionsvielfalt mit größtmöglicher Sicherheit und Schonung für die Patienten. Bei allen HF-Chirurgiegeräten hängt die Sicherheit aber auch von der Handhabung ab. Für maximale Sicherheit gibt es einige grundsätzliche Regeln, deren Einhaltung ebenso zur Routine gehören sollte wie das Beachten der Gebrauchsanweisung. Aus der Erfahrung der Praxis ist die folgende Zusammenfassung mit 4 Schwerpunkten entstanden: 1. Patient, 2. Neutralelektrode, 3. Instrumente und Kabel, 4. HF-Chirurgiegerät.
32.5.1 Patienten- und Anwendersicherheit
Allgemeine Anwendungsregeln ▬ Der Patient muss trocken und elektrisch isoliert gelagert werden. Er sollte nicht mit elektrisch leitfähigen Gegenständen in Berührung kommen, die geerdet sind oder eine große Kapazität gegen Erde haben, wie z. B. OP-Tisch oder Infusionsständer. ▬ Bei lang andauernden Eingriffen ist der Urin durch einen Katheter abzuleiten.
32
584
III
Kapitel 32 · Hochfrequenzchirurgie
▬ Wenn möglich, sollten nasse OP-Tischauflagen und Abdecktücher durch trockene ersetzt werden. ▬ Bei der Patientenlagerung sollte kein punktueller Haut-zu-Haut-Kontakt entstehen, etwa zwischen Fingern und Oberschenkel. ▬ Die Kabel zum Elektrodengriff und zur Neutralelektrode sind möglichst so zu führen, dass sie weder andere Leitungen noch den Patienten berühren. ▬ Die Hochfrequenzkabel nicht aufwickeln und nicht mit einer Metallklemme, sondern mit einer Kunststoffklemme am OP-Tuch fixieren. ▬ Ausreichender Abstand von mindestens 15 cm zwischen der aktiven HF-Elektrode und einer EKG-Elektrode sollte eingehalten werden. ▬ Bei Patienten mit einem Herzschrittmacher oder Kardioverter ist eine Gefährdung durch Störung oder Beschädigung des Schrittmachers möglich. – Die Konsultation eines Kardiologen wird empfohlen. ▬ Auf eventuell vorhandene Metallteile im und am Körper achten. Falls möglich, sollte Piercing-Schmuck entfernt werden. ▬ Vorsicht mit Anästhesie-, Entfettungs- und Desinfektionsmitteln! Sie müssen restlos verdunstet und aus dem Bereich der Funkenbildung entfernt sein. Der darin enthaltene Alkohol kann sich durch einen elektrischen Funken entzünden. ▬ Vor der HF-Anwendung im Magen-Darm-Trakt muss sichergestellt werden, dass keine brennbaren endogenen Gase vorhanden sind. ▬ Wenn während einer TUR nicht ausreichend gespült wird, können H2O-Moleküle zu H2 und O2 dissoziieren und sich am Harnblasendach ansammeln. Wird in diesem Gasgemisch reseziert, kann es zu einer Explosion kommen. ▬ Der Elektrodengriff soll nicht auf dem Patienten abgelegt werden; er gehört immer auf die Instrumentenablage oder in den entsprechenden Köcher. ▬ Bei chirurgischen Eingriffen, bei denen der HF-Strom durch Organe oder Gefäße mit relativ kleinem Querschnitt fließt, lassen sich unerwünschte thermische Schädigungen sicher vermeiden, indem die bipolare Technik eingesetzt wird. ▬ Elektrische Verbindung zum Instrument erst unmittelbar vor der gewünschten HF-Anwendung herstellen – insbesondere wenn es sich um ein über Fußschalter aktiviertes Instrument handelt. ▬ Akustisches Signal, welches den aktivierten Zustand des HF-Generators anzeigt, stets gut hörbar einstellen.
Anwendungsregeln beim Einsatz des Argonbeamers Im Zusammenhang mit der Applikation von Argongas am Patienten gilt:
▬ Die argonassistierte Koagulation ist eine monopolare HF-chirurgische Anwendungsform; die Sicherheitsregeln für die monopolare HF-Chirurgie müssen beachtet werden. ▬ Argongas nicht in offene Blutgefäße einblasen. ▬ Den Gasauslass des Applikators nicht gegen Gewebe drücken, weil hierdurch ein Gasemphysem verursacht werden kann. ▬ Zur Gasionisation sind hohe HF-Spannungen erforderlich; auf die unversehrte elektrische Isolation von Leitungen und Applikatoren ist zu achten. ▬ Argon ist schwerer als Luft (1:1,38); es kann sich in Bodennähe anreichern und den Sauerstoff verdrängen. ▬ Argongasflaschen stehen unter hohem Druck (bis zu 200 bar). → Vorsichtiger Umgang mit Druckbehältern.
Anwendungsregeln in der Endoskopie Neben den allgemeinen Anwendungsregeln müssen in der Endoskopie die folgenden Punkte zusätzlich beachtet werden: ▬ Keine Aktivierung des HF-Geräts, wenn die Elektrode nicht im Blickfeld ist. ▬ Das in die betroffene Körperhöhle strömende Argongas erhöht dort den bereits durch insufflierte Luft oder CO2-Insufflation vorhandenen Druck. → Es sollen nur druckablassgeregelte Insufflatoren verwendet werden. ▬ Führungsdrähte, die in Kombination mit einer HFAnwendung eingesetzt werden, müssen elektrisch isoliert sein (z. B. Terumodrähte). ▬ Endogene Gase aus dem Lumen des betreffenden Organs vor der Argonbeamapplikation entfernen. ▬ Kein sauerstoffangereichertes, brennbares Beatmungsgas vor oder während der Argonbeamanwendung in das Tracheobronchialsystem einleiten. ▬ Beim Einsatz eines Videoendoskops darauf achten, dass das Argon-Plasma nicht auf den Kamerachip gerichtet wird; eine Zerstörung des Chips wäre sonst möglich.
32.5.2 Neutralelektrode (NE)
Bei der monopolaren Applikationsform ist ein thermischer Effekt ausschließlich an der Aktivelektrode gewünscht. Unter der Neutralelektrode darf dagegen keine thermische Reaktion stattfinden. Damit eine Verbrennung des Patienten verhindert ist, muss eine mögliche Erwärmung im Anlagebereich der NE unter 6°C bleiben (ANSI AAMI HF 18). Eine korrekte Anlage der NE und die Gewähr dafür, dass sie sich im Verlauf einer OP nicht ablöst, sind hierfür Voraussetzungen. Moderne HF-Chirurgie-Geräte bieten Überwachungseinrichtungen (NE-Monitoring), die eine korrekte NE-Anlage überwachen und im erkannten Problemfall die Abgabe von monopolarer HF-Energie
585 32.5 · Methodische Hinweise für die Anwendung und Sicherheit
⊡ Tab. 32.3. CQM (Contact Quality Monitor) verschiedener Anbieter Akronym
Anbieter
Wortlaut
PCS
Martin
Patient Control System
REM
Valleylab
Remote Electrode Monitoring
ARM
Conmed
Aspen Return Monitor
NESSY
Erbe
Neutral Elektroden Sicherheits System
PDM
Aesculap
Permanent Dynamic Monitoring
PACC
Integra
Patient Contact Controlsystem
verhindern (Contact Quality Monitor). Die Verwendung einer geteilten Neutralelektrode ist hierfür Voraussetzung. Hinter den von verschiedenen Herstellern verwendeten Akronymen verbergen sich unterschiedliche Überwachungsmonitore mit jeweils unterschiedlichen Überwachungs-Philosophien (⊡ Tab. 32.3). Die ursprüngliche Annahme, dass der zurückfließende Strom aus tiefen Gewebeschichten mehr oder weniger gleich verteilt zur Neutralelektrode gelangt, war nicht richtig. Die Stromverteilung zeigt eine ausgeprägte Stromkonzentration an den Rändern der NE (engl.: edge effect, Randeffekt). Verursacht wird der Effekt durch den Schichtaufbau der menschlichen Haut mit gut leitfähiger Lederhaut über schlecht leitender Unterhaut mit Fettgewebe. Bei rechteckigen Neutralelektroden addieren sich die Randeffekte der auf eine Ecke zulaufenden Kanten, sodass sich dort ein »hot spot« bildet. Ideal ist eine möglichst runde Elektrode mit ausreichend langer Umfangskante, die zum OP-Feld hin ausgerichtet ist. Da bedingt durch den bevorzugten Stromfluss an der Gewebeoberfläche eine Gleichverteilung des Stromes in den beiden NE-Hälften nicht möglich ist, haben sich Monitorsysteme, die auf eine Strom-Gleichverteilung abgestimmt sind, in der Praxis nicht bewährt. Dagegen bieten Monitore, die den dynamischen Impedanzverlauf zwischen den beiden NE-Hälften kontinuierlich auswerten, die höchste Patientensicherheit. Dabei können moderne Monitore erkennen, ob eine ein- oder zweiteilige Neutralelektrode angeschlossen ist und bei gegebenem Sicherheitsbewusstsein anbieten, den Betrieb von einteiligen Neutralelektroden nicht zuzulassen.
Anwendungsregeln im Zusammenhang mit der Applikation der Neutralelektrode ▬ Vergewisserung darüber, dass die Isolation des Neutralelektrodenkabels nicht beschädigt ist. ▬ Gewissenhafte Verbindung des NE-Kabels mit dem Chirurgiegerät und der Neutralelektrode.
▬ Gelegentliche Überprüfung, ob der NE-Alarm des HF-Chirurgiegerätes anspricht. ▬ Positionierung der Neutralelektrode mit der langen Kante zum Operationsfeld. ▬ Positionierung der Neutralelektrode möglichst nahe am Operationsfeld an einer der geeigneten Extremitäten (Oberarm, Oberschenkel). ▬ Auf einen guten Gewebekontakt achten; um guten Kontakt sicherzustellen, müssen ggf. Haare abrasiert werden. ▬ Flüssigkeiten vom Bereich der Neutralelektrode fernhalten. Diese können sowohl die Klebewirkung als auch die elektrischen Eigenschaften negativ beeinflussen. ▬ Neutralelektroden zum Einmalgebrauch aus Gründen der Sicherheit und der Hygiene nur einmal verwenden! ▬ Verfallsdatum der Neutralelektrode beachten. ▬ Die Neutralelektrode darf nicht zugeschnitten oder verkleinert werden. ▬ Keinesfalls noch zusätzliches Kontaktgel auf die Neutralelektrode aufbringen. ▬ Ungeeignet für das Anbringen der Neutralelektrode sind: knochige oder unebene Oberflächen, Stellen, unter denen ein Implantat liegt, Stellen mit dicken Fettschichten wie z. B. Bauch oder Gesäß, vernarbtes Gewebe. ▬ Contact Quality Monitor nutzen, indem ausschließlich geteilte Neutralelektroden verwendet werden. ▬ Auf dem Boden liegende NE-Kabel mechanisch nicht stressen; nicht mit Gerätewagen oder gar C-Bogen darüber fahren.
32.5.3 HF-Instrumente und -Kabel
▬ Nur vom Hersteller des HF-Chirurgiegerätes empfohlenes Originalzubehör verwenden. Im Zweifelsfall Konformitäts- oder Kompatibilitätsbescheinigung vom Hersteller oder Händler anfordern. ▬ Vor jedem Einsatz Sichtprüfung, ob schadhafte Stellen an der Isolation von Stecker, Kabeln und Instrumenten sichtbar sind. Eine kurze Funktionsprüfung der Instrumente empfiehlt sich. ▬ Während der Operation die Elektroden am besten mit einem feuchten Tuch (Tupfer) reinigen. Nicht Kratzen, die Oberfläche und die Isolation der Elektrode könnten beschädigt werden. ▬ Es ist zweckmäßig, die Elektroden immer sauber zu halten und unmittelbar nach dem Eingriff zu reinigen. Elektroden mit angetrockneten Geweberesten werden vor der Reinigung in Lösung gelegt. ▬ Bei der Aufarbeitung, Reinigung und Sterilisation müssen die vom Hersteller empfohlenen Angaben nach ISO 17664 beachtet werden.
32
586
III
Kapitel 32 · Hochfrequenzchirurgie
▬ Entsorgung von Einmalinstrumenten (Disposables) stets unmittelbar nach der Operation (Mehrfacheinsatz ist nicht zu verantworten). ▬ Wiederverwendbare Instrumente (Reusables) sorgfältig aufbewahren. Das Beachten der Handhabungs- und Pflegehinweise der Hersteller erhöht die Sicherheit des Patienten und die Lebensdauer der Instrumente. ▬ Zubehör mit erkennbaren Defekten von der medizintechnischen Abteilung im Haus oder vom Hersteller überprüfen lassen.
32.5.4 HF-Chirurgiegerät
▬ Der Einsatz eines jeden HF-Chirurgiegerätes setzt voraus, dass der Anwender mit dessen korrekter Bedienung vertraut ist. ▬ Nur HF-Geräte mit Contact Quality Monitor verwenden. ▬ Die Einstellung der HF-Leistung sollte immer so niedrig wie möglich und so hoch wie nötig gewählt werden. Optimal sind automatisch geregelte HF-Chirurgiegeräte. ▬ Die Schneide- und Koagulationsfunktion sollte man nur so lange aktivieren, wie sie tatsächlich benötigt wird. ▬ Vor der Operation einen Funktionstest durchführen. Bei angelegter Neutralelektrode kurz über den Handgriff per Tastendruck aktivieren. ▬ Auf Fehlermeldungen und Alarmsignale achten. ▬ Schulungen über die Grundlagen der Hochfrequenzchirurgie und deren sichere Anwendung jährlich wiederholen (Schulungsangebot von Herstellern in Anspruch nehmen). ▬ Um bei älteren Systemen Videostörungen zu vermeiden, sollten die HF-Chirurgiekabel möglichst weit entfernt vom Kamerakabel verlegt werden.
32.5.5 Vorkommnisse bei der Anwendung
der HF-Chirurgie Das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) in Berlin hat im Rahmen des Vollzugs des Medizinproduktegesetzes die gemeldeten Vorkommnisse auf dem Gebiet der HF-Chirurgie über einen Zeitraum von elf Jahren (1996–2007) ausgewertet. Als Fazit wurde festgehalten, dass vorwiegend Anwendungsprobleme, die nicht einer Fehlfunktion der Medizinprodukte anzulasten waren, Ursache für die wenigen, gemeldeten Komplikationen waren. Aus den Anwendungsfehlern wurden Richtlinien vom BfArM abgeleitet, die bei den o. g. Anwendungsregeln berücksichtigt wurden. Von den wenigen Vorkommnissen betraf die überwiegende Zahl Schädigungen unter der Neutralelektrode.
In diesem Zusammenhang stellte das BfArM fest: »… Es zeigt sich eine eindeutige Vorkommnishäufung bei der Verwendung der einteiligen Bauform, bei der keine Sicherheitsüberwachung stattfindet. Die vereinzelt bei geteilten Elektroden beobachteten »Verbrennungen« sind auf andere Ursachen als hohe Stromdichten zurückzuführen. …Verätzungen durch nicht verdunstete Desinfektionsmittel…«. Im Zusammenhang mit Schädigungen im Steiß- und Rückenbereich stellte das BfArM fest »…Zum Teil nannten die Anwender Verbrennungen, obwohl gem. Untersuchung der Hersteller oder Auswertung der mitgelieferten Fotos Verätzungen oder Entzündungen vorlagen. Während der OP ist der Bereich über dem Sacrum besonders druckbelastet, wodurch es zu einer geringen Perfusion der betreffenden Hautareale kommt. …« (Schröder 2003). Über ein gestiegenes Verbrennungsrisiko unter der Neutralelektrode wird im Zusammenhang mit verlängerten Aktivierungszeiten berichtet. »...Solche Probleme treten besonders bei einigen Geräten für neue Verfahren auf, die unter Tumorablation, Gelenkablation, Gewebekoagulation oder HF-Ablation in der Kardiologie bekannt sind. ...« (Schröder 2009). Um so mehr muss gelten, dass HF-Geräte nur von Fachpersonal in Betrieb genommen und angewendet werden, das speziell geschult wurde und mit dem Gerät vertraut ist.
32.6
Ausblick
Die derzeit verfügbaren automatisch geregelten HF-Chirurgiegeräte weisen einen sehr hohen Standard auf, sowohl im sicherheitstechnischen Bereich als auch bei der Gebrauchstauglichkeit (Usability). Die fortschreitenden technischen Möglichkeiten werden dazu beitragen, auch diese Standards weiter zu verbessern. Zusätzlich werden anwendungsspezifische Verbesserungen bewirken, dass sich die Handhabung der HF-Chirurgiegeräte noch einfacher gestaltet. Instrumentenerkennung und daraus resultierende, automatische Geräte-Parametrierung mit geeigneten Einstellwerten wird hier eine Rolle spielen. Innerhalb erlaubter Grenzen können dann nur noch logische und sinnvolle Veränderungen an den automatisch voreingestellten Einstellungen vorgenommen werden (Expertensysteme). In der Konsequenz wird es deshalb keine standardisierten Schnittstellen für das HF-Instrumentarium geben, sondern herstellerspezifische Lösungen. Die Integration von HF-Geräten in OP-Systeme über Kommunikations-Netzwerke wird einen Beitrag leisten, um über eine gemeinsame Bedienoberfläche alle für eine OP benötigten Geräte steuern zu können. Touch-ScreenMonitore und Sprachsteuerung sind hier zwei relevante Schlagworte. Da HF-Ströme mehr und mehr auf spezifische Anwendungen hin optimiert werden, wird es einen Trend weg vom Generalisten, hin zum Spezialisten bei den HF-
587 Literatur
Generatoren geben. Man wird mit speziellen Geräten und Systemen für z. B. die Gastroenterologie, Urologie oder Neurochirurgie in den Kosten und in ihrer Bedienung optimierte Lösungen für die verschiedenen Fachgebiete anbieten. Die argonunterstützten Anwendungen werden eine noch gewichtigere Bedeutung beim täglichen Einsatz im OP bekommen. Das Anwendungsspektrum ist hier noch lange nicht erschöpft und wird nur begrenzt durch die heute verfügbaren Applikatoren. Hier werden Kombinationsinstrumente – wie z. B. Polypektomieschlingen, Sklerosiernadeln oder Biopsiezangen mit der Möglichkeit zur Applikation von argonunterstützten Koagulationen – der Methode neue Indikationen zuführen. Große Bedeutung wird der Weiterentwicklung des Instrumentariums zukommen, insbesondere im Hinblick auf spezialisierte, indikationsspezifische Instrumente. Eine große Herausforderung wird es sein, die Qualität der Instrumente zu erhöhen und die Nutzung im täglichen Einsatz für den Anwender einfacher zu gestalten. Trotz des massiven Kostendrucks, unter dem das Gesundheitswesen weltweit steht, wird sich ein Trend hin zum Einsatz von Einmal-Instrumentarium (Disposables) abzeichnen. Denn Hepatitis, Aids, Tollwut-Virus, Creutzfeld-JakobKrankheit (CJK) und die Bovine Spongiforme Enzephalopathie (BSE) sind nur einige der gefürchteten ansteckenden Krankheiten, die jährlich um weitere ergänzt werden und die die Instrumentenaufbereitung im Krankenhaus laufend problematischer machen. Der Gefäßversiegelung wird insbesondere im Rahmen der laparoskopischen OP-Technik eine bedeutende Rolle zukommen. Chirurgische Nähte und Ligaturen sind hier besonders schwierig auszuführen und hinterlassen im Patienten Fremdmaterial. Eine zuverlässige Gefäßversiegelung wird diesen Bereich hinsichtlich standardisierter OP-Techniken stark verändern. Die Vielzahl der verschiedenen Methoden zur Gewebe-Dissektion wird sich reduzieren. Ultraschall- und Wasserstrahl-Dissektion lassen hinsichtlich ihrer Performance Wünsche offen und sind zudem teure Verfahren. Sie werden durch die bipolare HF induzierte Gewebeversiegelung abgelöst. Wichtig ist zudem, dass sich die Anwender, der Chirurg und die Operationsfachkräfte mit den heutigen und zukünftigen Entwicklungen der Industrie auseinandersetzen, um dem Patienten das größtmögliche Maß an Sicherheit zu bieten.
Literatur American National Standard ANSI/AAMI HF18, (2001) Electrosurgical Devices. Bovie W et al (1931) Electrosurgical Apparatus. US Patent 1,813,902 DIN EN 60601-2-2 (03. 2001) Medizinische elektrische Geräte Teil 2-2: Besondere Festlegungen für die Sicherheit von HochfrequenzChirurgiegeräten. DIN, Beuth
Haag R (1993) Grundlagen der HF-Chirurgie. Krankenhaustechnik 3: 36–37/ 4: 36-38 Morrison Jr. et al (1977) Electrosurgical Method and Apparatus for Establishing an Electrical Discharge in an Inert Gas Flow. US Patent 4,060,088 Reidenbach H-D (1983) Hochfrequenz- und Lasertechnik in der Medizin. Springer, Berlin Heidelberg New York Tokio Reidenbach H-D (1992) Entwicklungstendenzen in der HF-Chirurgie. Biomed Tech 37: 134–140 Roos E (1972/1973) Elektrochirurgie im modernen Krankenhaus I–V. Gebrüder Martin, Tuttlingen Seemen H (1932) Allgemeine und spezielle Elektrochirurgie, Springer, Berlin Schröder D (2003) Vorkommnisse bei der Anwendung der HF-Chirurgie. Medizintechnik 123: 145–147 Schröder D (2009) Risiko richtig einschätzen. Krankenhaus Technik + Management Mai 2009: 33-35 Sigel B, Dunn M (1965) The Mechanism of Blood Vessel Closure by High Frequency Electrocoagulation. Surgery; Gynecology&Obstetrics Oct.: 823–831 Sudermann H (2000) Albrecht Theodor Middeldorpf (1824–1868) und die Elektrochirurgie. Würzburger medizinhistorische Mitteilungen Bd 19, Königshausen&Neumann Thiel C, Fastenmeier K (1996) Biomedizinische Technik, Bd 41, Ergänzungsband 1: 494–495 Wiesner B (1908) Ueber Fulguration nach de Keating Hart. Münchener Medizinische Wochenschrift 11: 569–570
32
33 Medizinische Strahlentherapie P. H. Cossmann 33.5.5
33.1
Einleitung
33.2
Historische Entwicklung – 589
33.3
Physikalisch-technische Grundlagen der Strahlenphysik – 591
33.3.1 33.3.2 33.3.3 33.3.4
Strahlenarten – 591 Strahlenquellen – 592 Wechselwirkungen mit Materie Dosimetrie – 593
33.4
Therapieformen
33.4.1 33.4.2 33.4.3
Perkutane Therapie – 594 Brachytherapie – 595 Radionuklidtherapie – 595
33.5
Gerätetechnologien zur Strahlungserzeugung – 596
33.5.1 33.5.2 33.5.3 33.5.4
Röntgengeräte – 596 Kobaltgerät – 596 Linearbeschleuniger – 597 Miniaturbeschleuniger – 598
33.1
– 589
– 592
– 594
Einleitung
Im physikalischen Institut der Universität Würzburg entdeckte W.C. Röntgen am 8.11.1895 eine neue Strahlenart. Röntgen sprach in seiner ersten Mitteilung von XStrahlen, da er nicht wusste, um was für eine Strahlenart es sich handelte. Er legte hiermit den Grundstein für die medizinische Strahlentherapie. Die Therapie mit ionisierenden Strahlen begann schon wenige Monate nach Röntgens Entdeckung in Wien im Jahre 1896. Erste Berichte über die erfolgreiche therapeutische Anwendung von Röntgenstrahlung gehen auf Freund, Sjögren und Stenbeck zurück. Professor Freund aus Wien hatte aufgrund von Zeitungsberichten über Hautrötungen und Haarausfall nach Einwirkung mit Röntgenstrahlen 1896 ein junges Mädchen, welches an einem Tierfellnaevus litt, bestrahlt. Die Patientin wurde 1966 am deutschen Röntgenkongress vorgestellt. Das Ergebnis, welches in ⊡ Abb. 33.1 illustriert ist, zeigte deutlich auf: Die Strahlung hatte zweifelsohne ihre Wirkung nicht verfehlt, sprich die Behaarung war an dieser Stelle definitiv verschwunden. Jedoch kam es – vermutlich auch aufgrund fehlender Kenntnisse zu einer adäquaten Dosierung – zu einer signifikanten Nebenwirkung, einer deutlichen Wirbelsäulenkrümmung im Bestrahlungsbereich. Dies illustrierte in eindrücklicher Weise, wo letztendlich das Hauptproblem auch dieser Therapieform liegt: Die Erzielung einer
33.5.6
Brachytherapiequellen und Brachytherapiegeräte – 599 Radioaktive Implantate – 600
33.6
Spezielle Techniken und neuere Entwicklungen in der Teletherapie – 601
33.6.1
Intensitätsmodulierte Strahlentherapie (Intensity modulated radiotherapy, IMRT) – 601 Atmungsgetriggerte Strahlentherapie (Breathing adapted radiotherapy, BART) – 602 Bildgeführte Strahlentherapie (Image guided radiotherapy, IGRT) – 603 Dynamisch adaptierte Radiotherapie (Dynamic adaptive radiotherapy, DART) – 604 Stereotaktische Radiochirurgie/-therapie (Stereotactic radiosurgery/-therapy, SRS/SRT) – 604 Tomotherapie – 604 Intensitätsmodulierte Rotationstherapie (Intensity modulated arc therapy, IMAT) – 605
33.6.2 33.6.3 33.6.4 33.6.5 33.6.6 33.6.7
Weiterführende Literatur
– 606
erwünschten Wirkung unter Vermeidung unerwünschter Nebenwirkungen. Im Jahre 1899 berichteten T. Sjögren und T. Stenbeck in Stockholm erstmals von erfolgreichen Behandlungen von Lippen- und Wangenkarzinomen mittels Röntgenstrahlung. ⊡ Abb. 33.2 zeigt die genannten Beispiele.
33.2
Historische Entwicklung
Als Therapiesysteme wurden anfangs Gasionenröhren, bestehend aus einem teilweise evakuierten Glaskolben mit Kaltkathode und Anode, eingesetzt. Die erste Röntgenröhre war eine Hittorf ’sche Röhre, wie sie in ⊡ Abb. 33.3 gezeigt ist. Die zur Röntgenstrahlerzeugung benötigte Hochspannung wurde mit Funkeninduktoren erzeugt, welche im Prinzip einen Transformator mit einer Primärund Sekundärspule auf einem Eisenkern darstellen. Die Kathode ist hohlspiegelförmig, sodass sich die aus der Kathode senkrecht zur Kathodenoberfläche austretenden Kathodenstrahlen in einem Punkt treffen. In diesem Fokus befindet sich die um etwa 45° geneigte Antikathode, ein Metallblech aus Platin oder Wolfram, die mit der Anode leitend verbunden ist. Durch die auf die Elektroden (Kathode und Anode) auftreffenden Metall-Ionen und Elektronen wird Röntgenstrahlung erzeugt; gleichzeitig findet eine Zerstäubung des Elektrodenmaterials
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _33, © Springer-Verlag Berlin Heidelberg 2011
590
Kapitel 33 · Medizinische Strahlentherapie
statt. Durch die zerstäubten Metallteilchen werden die in der Hittorfschen Röhre vorhandenen Gasmoleküle absorbiert und das Vakuum der Röhre nimmt zu. Man muss um den Stromfluss zu gewährleisten immer höhere Spannungen anlegen. Infolge der höheren Spannung werden
III
⊡ Abb. 33.1. Erste Bestrahlung zur Entfernung eines Tierfellnaevus (Quelle: Freund 1937)
⊡ Abb. 33.2. Erste Behandlungen von Lippen- und Wangenkarzinomen mittels Röntgenstrahlung (Quelle: Lennmalm 1900)
die Röntgenstrahlen immer härter und schließlich hört die Röhre ganz auf zu arbeiten. Um sie wieder brauchbar zu machen, musste man Gas in die Röhre eintreten lassen. Weiche Röntgenstrahlen sind Strahlen mit größerer Wellenlänge, also mit kleinem Durchdringungsvermögen,
591 33.3 · Physikalisch-technische Grundlagen der Strahlenphysik
erzeugt durch niedere Spannung (ca. 30000–50000 V). Harte Röntgenstrahlen haben eine kleine Wellenlänge mit hohem Durchdringungsvermögen und geringer Absorbierbarkeit (100000–300000 V). Bei modernen Röntgenröhren wie der so genannten Coolidgeröhre handelt es sich um HochvakuumGlühkathodenröhren; dies sind reine Elektronenröhren. Die Glühkathode ist eine Heizspirale aus Wolfram, das einen sehr hohen Schmelzpunkt hat. Die Röhre hat keine spezielle Antikathode, vielmehr steht der Kathode die Anode als Antikathode gegenüber. Sie ist aus Kupfer, einem guten Wärmeleiter und wegen der großen Erhitzung durch die auf sie auftreffenden Kathodenstrahlen mit einer Kühlvorrichtung, z. B. Wasserkühlung, versehen. An der Stelle, wo die Kathodenstrahlen auftreffen, trägt die Anode zum Schutz ein Wolframplättchen. Eine solche Coolidge-Röhre ist in ⊡ Abb. 33.4 illustriert. Glühkathodenröhren haben diverse Vorteile zu Kaltkathodenröhren. Zum einen kann durch variable Spannungen weiche oder harte Röntgenstrahlung erzeugt
werden, deren Intensität ist durch Veränderung des Heizstroms regulierbar. Sie verändern ihre Eigenschaften nur sehr langfristig. Moderne Röhren werden ausschließlich mit Wechselstrom des Stromnetzes und einem Transformator betrieben. Die Spannung von 220 V wird hierzu auf 30000–300000 V heraufreguliert. Die 1898 von Marie Curie gefundene Strahlung des Radiums führte durch Zufall zu einer therapeutischen Anwendung radioaktiver Stoffe, denn 1901 zog sich Bequerel eine Dermatitis durch eine Radiumquelle zu, wobei diese von einer Röntgendermatitis nicht zu unterscheiden war. Daraufhin wurde mit einer von M. Curie zur Verfügung gestellten Radiumquelle am Pariser St.Louis-Hospital die Therapie dermatologischer Erkrankungen begonnen. Anfangs wurden hauptsächlich die Betastrahlen des Radiums zu therapeutischen Zwecken genutzt. Später, d. h. ab 1906, waren die Quellen gekapselt, um nur die Gammastrahlung auszunutzen. Radium hatte besonders in der gynäkologischen Strahlentherapie eine große Bedeutung, wurde jedoch – v. a. aus Strahlenschutzgründen – inzwischen durch Nachladeverfahren mit künstlichen radioaktiven Strahlern vollständig abgelöst. Die Tele-Curie-Therapie mit künstlichen radioaktiven Stoffen begann nach der Entdeckung der künstlichen Radioaktivität durch Joliot-Curie im Jahre 1934 und v. a. mit der Möglichkeit, 60Co und 137Cs in Kernreaktoren zu produzieren. Im Jahre 1952 folgte der erste Einsatz eines Telekobaltgerätes für die Strahlentherapie. Es dauerte bis Mitte des 20. Jahrhunderts, ehe erste klinische Anwendungen eines Elektronen-Kreisbeschleuniger (Betatron) realisiert werden konnten. Der Beginn des Einsatzes des 1930 erstmals entwickelten Linearbeschleunigers (Linac) kann auf die frühen 70er Jahre datiert werden. Linacs haben die Betatrons inzwischen fast vollständig abgelöst und sind heute im Bereich der Teletherapie die wichtigsten Strahlenquellen.
⊡ Abb. 33.3. Hittorf’sche Röhre (Kaltkathoden-Röhre) (Quelle: Technikmuseum Electrosuisse, Fehraltdorf/Schweiz)
33.3
Physikalisch-technische Grundlagen der Strahlenphysik
33.3.1 Strahlenarten
⊡ Abb. 33.4. Coolidge-Röhre (Glühkathodenröhre) (Quelle: Fa. Siemens, Erlangen)
Strahlung, welche beim Durchgang durch Materie durch Stoßwechselwirkungen Ionen erzeugen kann, bezeichnet man als ionisierend. Man unterscheidet direkt und indirekt ionisierende Strahlung. Direkt ionisierende Strahlung besteht aus geladenen Teilchen wie Elektronen, Protonen, α-Teilchen und schweren Ionen; deren kinetische Energie reicht aus, um eine Stoßionisation eines Atoms zu erzielen. Bei indirekt ionisierender Strahlung werden von ungeladenen Teilchen wie Photonen oder Neutronen geladene Teilchen erzeugt, welche dann in einem zweiten Schritt ihre Energie wiederum über Stoßionisation an die Atome der Umgebung übertragen.
33
592
III
Kapitel 33 · Medizinische Strahlentherapie
In der Strahlentherapie finden mehrheitlich Photonen – in Form von Röntgen- und γ-Strahlung – sowie Elektronen Anwendung. Daneben werden auch vermehrt Protonen – sowie vereinzelt Schwerionenstrahlung – eingesetzt, wobei insbesondere die Erzeugung/Applikation von Schwerionen sehr hohe technologische Anforderungen stellt, welche außer in einem Forschungszentrumsumfeld z. Zt. noch nicht realisierbar sind. In letzter Zeit wurden mit der Bor-Neutronen-Einfang-Therapie zudem wieder Neutronen zur Therapie in die Diskussion gebracht, wobei es sich hier um eine auf wenige Anwendungsgebiete beschränkte Therapieform handelt, welche zudem technologisch aufwändig und daher bisher nur wenig verbreitet ist. Nachdem in der Strahlentherapie hauptsächlich mit Photonen für die Tiefentherapie und Elektronen für die Oberflächen- und Halbtiefentherapie bestrahlt wird, beschränken sich die folgenden Kapitel auf diese Strahlenarten.
33.3.2 Strahlenquellen
Die Erzeugung von Photonen in Form von Röntgenund γ-Strahlung geschieht entweder mittels Abbremsung/ Energievernichtung von beschleunigten Teilchen in einem Target (⊡ Abb. 33.5) oder durch radioaktiven Zerfall. Technische Grundlage hierfür bilden einerseits Röntgenröhren im niedrigen bis mittleren Energiebereich (kV) und Beschleuniger im hohen Energiebereich (MV). Letztere werden auch zur Erzeugung hochenergetischer Elektronen eingesetzt. Als weitere Strahlungsquelle dienen radioaktive Stoffe. Die drei möglichen Zerfallsarten sind in ⊡ Abb. 33.6 il-
⊡ Abb. 33.5. Schematischer Aufbau einer Röntgenröhre
A A.4 ZX→ Z.2Y
+ 24He
-
A A ZX→ Z+1Y
+ß +v
A A ZX→ Z-1Y
+ß +v
A + A ZX → ZX
+γ
+
⊡ Abb. 33.6. Radioaktive Zerfallsarten (links: α-Zerfall; Mitte: β-Zerfall; rechts: γ-Strahlung)
lustriert. Nach einem α- oder β-Zerfall befindet sich der Tochterkern oft in einem angeregten Zustand. Die meisten dieser angeregten Zustände haben sehr kurze Halbwertszeiten und gehen unter Aussendung von therapeutisch einsetzbarer γ-Strahlung in ein niedrigeres angeregtes Niveau oder in den Grundzustand über.
33.3.3 Wechselwirkungen mit Materie
Photonen werden durch Materie einerseits durch Absorption (Photoeffekt oder Paarbildung) und andererseits durch Streuung (Anregung oder Compton-Effekt) geschwächt. Die Absorption hängt vom linearen Schwächungskoeffizienten, einer Materialkonstante, sowie der Schickdicke ab. Beim photoelektrischen- oder Photoeffekt überträgt das Photon seine ganze Energie auf ein Elektron und dieses Photoelektron verlässt die Atomhülle. Bei Photonenenergien oberhalb von 1022 MeV kann das Photon in ein Elektron-Positron-Paar umgewandelt werden. Bei der elastischen Streuung von Photonen werden die Elektronen der Atomhülle angeregt und die Energie dann in eine andere Richtung mit dem gleichen Betrag ausgestrahlt. Beim Compton-Effekt handelt es sich um eine inelastische Streuung, d. h., das Photon löst mit einem Teil seiner Energie ein Elektron aus der Hülle und es bewegt sich dann in eine veränderte Richtung weiter. Innerhalb des Energiebereichs von etwa 20 keV–20 MeV, also praktisch im gesamten Energiespektrum der Strahlentherapie, dominiert für alle menschlichen Gewebe der Compton-Effekt. Die Wechselwirkung von Photonen mit Gewebe vollzieht sich in zwei Stufen. In der ersten Stufe werden geladene Teilchen freigesetzt (Elektronen), in der zweiten Stufe übertragen diese Teilchen ihre Energie auf die Materie oder setzten wiederum Elektronen frei. Da Photonen ihre Wirkung auf diesem Wege indirekt entfalten, spricht man auch von indirekt ionisierender Strahlung. Je höher die Energie eines Photons ist, desto tiefer kann es in das Gewebe eindringen, bevor es ein Elektron freisetzt. Bei den durch Linearbeschleunigern erzeugten Photonen mit Energien von 4–25 MV (ultraharte Röntgenstrahlung) wird in der Tiefe eine höhere Dosis erzeugt als an der Hautoberfläche; man bezeichnet das als den so genannten Aufbaueffekt, der bei den Röntgenstrahlen im Energiebereich von 200–400 kV noch nicht auftritt. Je höher die Energie ist, umso weniger werden die Photonen abgebremst; sie werden v. a. in Vorwärtsrichtung gestreut. Auf diese Art und Weise erreicht man mit ultraharten Röntgenstrahlen eine höhere Dosis für tiefer gelegene Zielvolumina. Dies führt gleichzeitig zu einer besseren Hautschonung und durch den geringen Anteil seitlicher Streuung zu einer schärferen seitlichen Dosisbegrenzung. Die Wechselwirkung von Elektronen mit Materie geschieht ausschließlich über Streuprozesse. Elastische
593 33.3 · Physikalisch-technische Grundlagen der Strahlenphysik
Streuung führt zu einer Richtungsänderung der Teilchen. Bei der inelastischen Streuung ändern die Teilchen ihre Richtung und verlieren Energie durch die Anregung der Atomhülle, durch die Ionisation von Atomen oder durch die Erzeugung von Röntgenbremsstrahlung. Elektronen sind elektrisch geladene Teilchen, die ihre Energie direkt dem Gewebe übertragen, es handelt sich also um direkt ionisierende Strahlung. Daraus resultieren eine relativ hohe Hautbelastung, ein großer Bereich, in der die Maximaldosis deponiert wird und ein schneller Dosisabfall im Anschluss an das Dosismaximum, sodass die Region hinter dem oberflächlich gelegenen Zielvolumen besser geschont wird als bei Photonen.
33.3.4 Dosimetrie
Eine Dosimetrie im heutigen Sinne war in der Anfangsphase der Strahlentherapie unbekannt. Zur semiquantitativen Bestimmung der Strahlenmenge wurden folgende drei Effekte genutzt: die Rötung der Haut des Patienten als »biologisches Dosimeter«, die Schwärzung einer photographischen Platte oder das Leuchten verschiedener Stoffe (meist Bariumzyanyr). Für eine Dosisabschätzung war es wichtig, die Strahlenhärte zu kennen, da alle drei Methoden bei unterschiedlichen Strahlengemischen zu verschiedenen Ergebnissen führen. Unter »Dosis« im Bereich der Strahlentherapie versteht man die Energie, die bei Durchstrahlung von Gewebe von diesem absorbiert wird, denn nur die im Gewebe verbliebene Energie kann zu einer Strahlenwirkung führen. Man spricht von der so genannten Energiedosis gemessen in »Gray«, wobei 1 Gray einer Energie von 1 Joule pro Kilogramm Gewebe entspricht. Um Dosierungen verschiedener Kliniken bei internationalen Kooperationen oder in Veröffentlichungen vergleichbar zu machen, gibt es wiederum Normen, wie diese angegeben werden sollten. Beim hierfür eingesetzten Referenzpunktkonzept wird häufig auf den ICRU 50 Report Bezug genommen (International Commission on Radiation Units and Measurements, ICRU 50 Report: Prescribing, recording, and reporting photon beam therapy, Washington/DC). Daher spricht man auch im klinischen Alltag oft vom »ICRU-Referenzpunkt« oder von »Dosierung nach ICRU«. Zur Dosismessung von ionisierender Strahlung können alle Materialien eingesetzt werden, bei denen ein Signal durch die Strahlenexposition entsteht. Es lässt sich daher grundsätzlich jeder physikalische, chemische oder sogar biologische Effekt ausnutzen, welcher durch ionisierende Strahlung verursacht wird. Unter den Strahlungsnachweis- und Messverfahren hat die Ionisationsdosimetrie bis heute die größte Bedeutung. Sie basiert auf dem primären Wechselwirkungsprozess von Strahlung und Materie, der Ionisation. Ionisati-
onskammern werden hauptsächlich in zwei Bauarten verwendet: Zylinder- und Flachkammern. Zylinderkammern – sie werden auch Kompaktkammern genannt – bestehen aus einer zylindrischen Kammerwand in leitendem Material und einer axialen, meist metallischen Elektrode. Die Hauptvorteile dieses Dosimetrieansatzes liegen in der Tatsache, dass man auf bewährte elektrische bzw. elektronische Messtechnik zurückgreift, das System höchste Empfindlichkeit, Messgenauigkeit, Reproduzierbarkeit und Langzeitstabilität aufweist, nicht durch Strahlung geschädigt wird und im gesamten Anwendungsbereich ionisierender Strahlung bei geringer Energieabhängigkeit eingesetzt werden kann. Daneben sind die Kammern handlich, bedienungsfreundlich und recht robust. Auch die Ionisation von Festkörpern, v. a. Halbleitern, wird mittlerweile routinemäßig in der Dosimetrie angewendet. Hierbei werden durch Strahlung im Halbleiter bewegliche Elektronen sowie bewegliche positiv geladene »Löcher« erzeugt, d. h., er wird n-leitend oder p-leitend gemacht. Die Empfindlichkeit bei gleich großen Messvolumina ist bei Halbleitern rund 20000-mal größer als bei Ionisationskammern. Vorteil der Halbleiterdetektoren ist eine hohe Ortsauflösung, jedoch nimmt auf längere Sicht bedingt durch irreversible Strahlungsschäden im Material die Empfindlichkeit ab. Neuerdings werden auch Diamantdetektoren eingesetzt. Sie zählen zu den so genannten Leitfähigkeitsdetektoren und weisen nach einer obligatorischen Vorbestrahlung Detektorströme auf, welche diejenigen von Ionisationsdetektoren um mehrere Zehnerpotenzen übertreffen können – dies zudem mit besonders hohen Ortsauflösungen. Szintillationsdetektoren beruhen auf dem physikalischen Phänomen der Anregung und finden vornehmlich Verwendung zum Strahlungsnachweis. Die dabei in höheren Bahnen gehobenen Hüllenelektronen fallen unter Aussendung von Licht in den Grundzustand zurück – die ausgesandten Lichtpulse werden hierbei meist durch den Einsatz von Photomultipliern verstärkt. Die Thermolumineszenzdosimetrie verwendet als Detektoren spezielle Ionenkristalle, so genannte Thermolumineszenzdosimeter (TLD). Diese Lithium- oder Calciumfluoridkristalle werden gezielt mit Fremdatomen wie Magnesium, Mangan oder Titan dotiert und zeichnen sich dadurch aus, dass sie nach Anregung nicht unmittelbar in ihrem Grundzustand zurückkehren. So bleibt eine langfristige Leuchterscheinung nach Strahlungseinwirkung bestehen, welche als Lumineszenz bezeichnet wird. In den Kristallen wird ein Teil der absorbierten Energie gespeichert und kann durch kontrolliertes Erhitzen in Form einer Lichtemission abgerufen werden. TLDs existieren in verschiedenen Formen und eignen sich sowohl für in-vivo- als auch für Phantommessungen. Eine gleichzeitige Bestrahlung von mehreren dieser miniaturisierten Dosimetern ermöglicht zudem auch die Messung von Dosisverteilungen möglich ist. Es lassen
33
594
III
Kapitel 33 · Medizinische Strahlentherapie
sich Ortsauflösungen bis in den Submillimeterbereich mit Messgenauigkeiten von bis zu 1% erzielen, Letzteres allerdings mit recht großem experimentellem Aufwand. Auch Filme eignen sich, wie schon früh erkannt wurde, sehr gut als Dosimeter. Nach einer Bestrahlung mit nachfolgender Entwicklung werden die Filme mit speziellen Geräten (Densitometer, Filmscanner) densitometrisch ausgewertet. Die Reproduzierbarkeit der Prozessbedingungen von der Filmherstellung über die Entwicklung bis hin zur Auswertung spielen für die Genauigkeit der Messungen eine elementare Rolle – dies macht Filme für den Routineeinsatz nur bedingt brauchbar. Filme sind die Dosimeter mit der höchsten Ortsauflösung, da praktisch jedes einzelne Silberkorn als Dosimeter fungiert. Letztendlich aber wird die Auflösung durch den Durchmesser des Lichtstrahls eines Densitometers bzw. durch die CCD-Detektorendichte des eingesetzten Filmscanners begrenzt. Die Eisensulfatdosimetrie, auch Fricke-Dosimetrie genannt, zählt zur Gruppe der chemischen Methoden und war gleichzeitig der erste Ansatz innerhalb der so genannten Geldosimetrie. Dem Messverfahren liegt zugrunde, dass 2-wertiges Eisen in einer luftgesättigten wässrigen Schwefelsäurelösung durch ionisierende Strahlung irreversibel zu 3-wertigem Eisen oxidiert wird. Die Stoffmengenkonzentration der 3-wertigen Eisenionen wird mittels Extinktionsmessung ermittelt. Die Methode weist in einem breiten Dosisbereich eine Proportionalität von Stoffmengenkonzentration und Energiedosis auf, ist unabhängig von der Dosisleistung, und es können absolute Dosisbestimmungen mit einer Genauigkeit von 1% erreicht werden. Die Methode wird daher auch von Kalibrierdiensten zur Kalibration/Eichung von Dosimetern eingesetzt. Die Geldosimetrie gewinnt in den letzten Jahren vermehrt an Bedeutung, nachdem inzwischen neue, weniger schwierig zu verarbeitenden Gele verfügbar sind. Zu dieser Gruppe zählen die seit kurzer Zeit verfügbaren BANG (Bis-Acrylamide-Nitrogen-Gelatine)-Gele. Es handelt sich um ein Monomer, welches in eine Gelatinematrix eingebunden ist. Unter Bestrahlung wird eine Polymerisation ausgelöst, was eine Änderung der Spinrelaxationszeit T2 in Abhängigkeit der jeweilig örtlich aufgenommenen Dosis zur Folge hat. Als Auswerteverfahren wurde anfangs ausschließlich die Kernspintomographie (MRI) eingesetzt; mittlerweile gibt es auch optische Systeme, welche auf einem CT basieren und sich die gleichzeitig eintretende Veränderung der optischen Dichte zunutze machen. Der Vollständigkeit halber sei auch noch die Kalorimetrie als weiterer Ansatz erwähnt. Er basiert auf der Grundlage, dass bei einer vollständigen Umwandlung der absorbierten Energie in Wärme diese Energie direkt und absolut gemessen werden kann. Neben Graphitkalorimetern werden in nationalen Standardlabors verstärkt
Wasserkalorimeter eingesetzt, da inzwischen die Wasserenergiedosis als Grundlage der klinischen Dosimetrie gilt. Aufgrund des großen experimentellen Aufwandes ist die Kalorimetrie in der klinischen Routine nicht zu gebrauchen. Besonders in den letzten Jahren wurden auch verschiedene biologische Dosismessmethoden weiterentwickelt und klinisch eingesetzt. Hierzu zählen neben der genannten, sicherlich überholten rein qualitativen Methode der Hautrötungsbeurteilung die quantitative Ringchromosomenzählung und die Fluoreszenzanalyse an chemisch markierten DNS-Strängen.
33.4
Therapieformen
Im Allgemeinen lässt sich die heutige Strahlentherapie in drei Formen unterteilen: Die perkutane Strahlentherapie, die Brachytherapie und die Radionuklidtherapie. Bei einer perkutanen Therapie, auch Teletherapie genannt, befindet sich die Strahlungsquelle außerhalb des Patientenkörpers, der bestrahlt werden soll, und die Strahlen dringen durch die Haut in den Körper ein. Beispiele hierfür sind Bestrahlungen an einem TelegammaGerät oder an einem Beschleuniger. Bei einer Brachytherapie werden eine oder mehrere kleine Strahlungsquellen in jene Körperregion eingeführt, welche bestrahlt werden soll. Die Bestrahlung findet somit unmittelbar am Tumor, also in einem kurzen Abstand statt (griech. Brachy = kurz). Eine Brachytherapie kann »intrakavitär« sein, wie z. B. in der Gebärmutter, oder »intraluminal«, wie z. B. in der Vagina, der Speiseröhre und den Bronchien, oder »interstitiell« mit extra im Tumor bzw. im Tumorbett implantierten Nadeln oder dünnen Kathetern. Bei der Radionuklidtherapie werden radioaktive Substanzen verabreicht, welche sich bevorzugt in einem bestimmten Organ oder Körperteil anreichern.
33.4.1 Perkutane Therapie
Bei der perkutanen Therapie unterscheidet man in Abhängigkeit von der Tiefe der zu bestrahlenden Region zwischen Oberflächentherapie, Halbtiefentherapie und Tiefentherapie. Zur Oberflächentherapie zählen einerseits Hautbestrahlungen und andererseits intraoperative Bestrahlungen. Sie werden mit speziell hierfür entwickelten Therapiesystemen durchgeführt, welche üblicherweise im Energiebereich zwischen 10 und 50 kV liegen. Anwendungsgebiete der Halbtiefentherapie sind hauptsächlich die Behandlung benigner Erkrankungen wie z. B. entzündlicher Prozesse des Band- und Gelenkapparates. Hierfür werden einerseits Photonen im Bereich von 150 und 300 kV von so genannten Orthovoltgeräten als auch teilweise niederenergetische Elektronen von
595 33.4 · Therapieformen
Linearbeschleunigern eingesetzt. Die Tiefentherapie mit Hochvoltgeräten wird heute mehrheitlich mit Linearbeschleunigern durchgeführt, welche das Kobaltgerät praktisch verdrängt haben. Der Energiebereich für diese so genannte Hochvolttherapie liegt zwischen 1 und 25 MeV. Typische in der Teletherapie applizierte Dosen liegen bei ca. 2 Gy pro Bestrahlungssitzung; unterschiedliche Sitzungszahlen führen letztendlich zu Gesamtdosen von bis zu ca. 75 Gy.
33.4.2 Brachytherapie
Im Gebiet der Brachytherapie lassen sich sowohl aufgrund der eingesetzten Dosisrate als auch der bestrahlten Region Unterscheidungen vornehmen. Nimmt man als Messgrösse die Dosisrate, so wird zwischen Low-DoseRate (LDR), Medium-Dose-Rate (MDR), High-Dose-Rate (HDR) und Pulsed-Dose-Rate (PDR) unterschieden. Gemäß Definition nach ICRU (International Commission on Radiation Units and Measurements, Bethesda/USA) betragen die Dosisraten bei der LDR 0,4 bis 2,0 Gy/h, bei MDR 2,0 bis 12,0 Gy/h und bei HDR mehr als 12,0 Gy/h, wobei die üblichen Dosisraten mit heutigen HDRBrachytherapie-Systemen zwischen 100 und 300 Gy/h liegen. Die Pulsed-Dose-Rate ist eine neuere Variante, welche sich aus Strahlenschutzgründen immer mehr als Ersatz von LDR-Ansätzen zu etablieren scheint. Eine alternative Einteilung ergibt sich aus der Art der Applikation: Hier unterscheidet man zwischen Kontakt-, intrakavitärer, endoluminaler und interstitieller Therapie. Bei der Kontaktherapie werden mit speziell geformten radioaktiven Applikatoren oder in Moulagen eingebrachten radioaktiven Präparaten oberflächennahe Therapien durchgeführt. In der intrakavitären Therapie werden natürlich vorhandene oder künstlich geschaffene Hohlräume im menschlichen Körper genutzt, um radioaktive Substanzen einzubringen. Bei der endoluminalen Therapieform, auch als intravaskulär bezeichnet, werden radioaktive Quellen temporär (HDR) oder in Form von Stents permanent (LDR) in das Gefäßlumen eingebracht. Die interstitielle Therapie ist eine temporäre oder permanente Einbringung von radioaktiven Strahlern direkt in das Tumorgewebe, wobei diese in vorab gelegte Katheter oder Hohlnadeln appliziert werden.
33.4.3 Radionuklidtherapie
In der Radionuklidtherapie kennt man v. a. die RadiojodTherapie zur Behandlung von Schilddrüsenerkrankungen. Sie wird seit den 50er Jahren weltweit durchgeführt und zählt im Gegensatz zur Radiotherapie nicht zum Fachgebiet Strahlentherapie/Radio-Onkologie, sondern zur Disziplin Nuklearmedizin. Aufgrund statistischer
Untersuchungen an über hunderttausend behandelten Patienten konnte sichergestellt werden, dass durch die Radiojod-Behandlung keine Zunahme von Schilddrüsenkrebs oder anderen bösartigen Erkrankungen im Körper erfolgt. Die Strahlenbelastung, die der Körper dabei erfährt, entspricht der einer gründlichen Röntgenuntersuchung. Eine Radiojod-Therapie wird durchgeführt bei Schilddrüsenfunktionsstörungen (Basedow-Hyperthyreose, unioder multifokale Autonomie, latente Hyperthyreose), zur Verkleinerung großer Schilddrüsen (»Struma«, »Kropf«) sowie zur Nachbehandlung eines SchilddrüsenKarzinoms. Aus Strahlenschutzgründen muss die Therapie stationär durchgeführt werden, da die Patienten mit ihren Ausscheidungen (Urin, Stuhlgang, Schweiß und Speichel) sowie auch in ihrer Atemluft Radioaktivität abgeben. Alle Abwässer der Therapiestation müssen aufgefangen werden und dürfen erst nach Abklingen der Radioaktivität an das öffentliche Kanalnetz abgegeben werden. Das radioaktive Jod wird dem Patienten in einer zuvor durch einen Radiojodtest individuell ermittelten Menge oral verabreicht. Das zur Radiojod-Therapie verwendete Isotop131I ist ein Betaminusstrahler mit nachfolgender Gammastrahlung. Es strahlt 90% mit einer BetaStrahlung und 10% mit einer Gamma-Strahlung. Therapeutisch wirksam ist die Beta-Strahlung, deren mittlere Reichweite im Gewebe lediglich 0,5 mm beträgt. Dadurch wird die Strahlenbelastung der Nachbarschaftsorgane minimal. Das Nuklid besitzt eine Halbwertzeit von rund 8 Tagen und eine Gammaenergie von 360 keV. Die für die Strahlentherapie erforderliche Radiojodmenge wird abhängig von der gewünschten Herddosis aus der Höhe der maximalen thyreoidalen Jod-Aufnahme, der effektiven Halbwertszeit und dem zu bestrahlenden Schilddrüsenvolumen berechnet. Als Zieldosis werden 150–200 Gy bei der Basedow’schen Krankheit, 200–400 Gy bei der thyreoidalen Autonomie angesetzt, zur Verkleinerung einer Struma 150–180 Gy. Bei Hyperthyreosen ist in etwa 80% der Fälle mit einer dauerhaften Beseitigung der Stoffwechselstörung zu rechnen. Mit Hilfe der Gamma-Strahlung, welche aus dem Körper austritt, erfolgen die Strahlenschutzmessungen und die posttherapeutischen Kalkulationen der Strahlendosis. Die Gonadenbelastung bei der Radiojod-Therapie gutartiger Schilddrüsenerkrankungen beträgt 0,02–0,05 Gy. Die Gonadendosis, die zu einer Verdoppelung der spontanen Mutationsrate führt, beträgt 0,2–2,0 Gy. Die Jod-Betastrahlung hat im Zellsystem der Schilddrüse folgende radiobiologische Wirkungen: Funktionseinschränkung, Verlust der Regenerationsfähigkeit sowie Zelltod. Aus dem Niedergang von einzelnen Schilddrüsenzellen resultiert neben der Beeinflussung der Funktion auch eine Verkleinerung der Struma, welche gewöhnlich ca. 40% beträgt.
33
596
Kapitel 33 · Medizinische Strahlentherapie
33.5
III
Gerätetechnologien zur Strahlungserzeugung
In der Strahlentherapie wird ionisierende Strahlung eingesetzt, welche entweder aus radioaktiven Zerfallsprozessen resultiert oder aber durch die Beschleunigung geladener Teilchen erzeugt wird. Zur Beschleunigung geladener Teilchen werden neben Röntgenröhren verschiedene Technologien wie Linear- und Kreisbeschleuniger eingesetzt – zu den Kreisbeschleunigern zählen außer dem inzwischen nicht mehr eingesetzten Betatron das Mikrotron, das Zyklotron und das Synchrotron. Nachdem insbesondere Linearbeschleuniger und Afterloading-Geräte klinisch zur Strahlungserzeugung Verwendung finden, wird in den folgenden Kapiteln v. a. auf diese Technologien vertiefend eingegangen.
33.5.1 Röntgengeräte
Man unterscheidet heutzutage zwischen Weichstrahl- und Hartstrahltherapie – letztere wird auch als Orthovolttherapie bezeichnet. Die Grenze zwischen den beiden Therapieformen liegt bei einer Röhrenspannung von 100 kV. Der Therapieabstand – auch Fokus-Haut-Abstand genannt – beträgt bei der Nahbestrahlung zwischen 0 und 5 cm und ansonsten zwischen 10 und 30 cm bzw. in Ausnahmefallen bis 50 cm. Neben den heute noch immer eingesetzten teilweise über 50 Jahre alten »Klassikern« der Firmen Siemens (Dermopan, Stabilipan 2) und Müller bzw. Philips (RT50, RT100, RT250) werden inzwischen mikroprozessorgesteuerte Systeme mit integrierter Patientendatenbank eingesetzt, welchen einen Röhrenspannungsbereich von 10 bis zu 300 kV abdecken. In ⊡ Abb. 33.7 ist ein modernes Röntgentherapiegerät illustriert.
⊡ Abb. 33.7. Röntgentherapiegerät Gulmay Xstrahl 200® (links) mit Bedienkonsole (rechts) (Quelle: Fa. Gulmay Medical, Camberley/GB)
Therapeutische Röntgenbestrahlungsgeräte bestehen aus einer gekühlten Röhre, die in einem auf einem Stativ fixierten Strahlerkopf integriert ist, einem Generator, einem Schaltpult, einer Patientenliege sowie einem Satz Applikatoren. Als Stative werden je nach Einsatzspektrum Systeme mit Decken- oder kombinierter WandBodenmontage verwendet. Nachdem die verwendeten Stromstärken mit 20 bis 30 mA deutlich geringer als diejenigen von Diagnostikröhren sind, tritt weniger Erwärmung auf, und somit können feststehende, d. h. konstruktiv einfachere Anoden verwendet werden. Da die erzeugte Röntgenstrahlung eine breite, kontinuierliche Photonenenergieverteilung aufweist, wird eine Grundfilterung vorgenommen, welche die niederenergetischen Komponenten eliminiert und so eine Strahlaufhärtung bewirkt. Moderne Geräte dieser Art sind neben den klassischen Applikatoren – auch Tubusse genannt – für die Kontaktherapie teilweise auch mit einem Kollimator mit verstellbaren Blenden zur Feldbegrenzung ausgestattet. Zudem können für die Formung irregulärer Felder individuell angefertigte Bleiausschnitte in die Tubusse eingesetzt werden. Daneben ist ein neuerer Ansatz die Verwendung eines Multilamellenkollimators, welcher anstelle des Blendenkollimators eingesetzt wird. Es handelt sich hierbei um ein Gerät, das eine irreguläre Feldformung durch manuelles Positionieren der einzelnen voneinander unabhängigen Lamellen erlaubt.
33.5.2 Kobaltgerät
Kobaltgeräte zählen zu den so genannten Telegammageräten, d. h., sie werden für die Teletherapie eingesetzt. Damit im therapeutischen Abstand von üblicherweise 80 cm ausreichend hohe Dosisraten erreicht werden, müs-
597 33.5 · Gerätetechnologien zur Strahlungserzeugung
sen die Quellen eine sehr hohe Aktivität aufweisen. Um zudem nur selten einen Wechsel der hochaktiven Quelle durchführen zu müssen, sind Radionuklide mit einer möglichst langen Halbwertszeit wünschenswert. Als Radionuklide finden daher Co-60 und nur noch in seltenen Fällen Cs-137 Verwendung. Co-60 hat gegenüber Cs-137 eine höhere Photonenenergie von ca. 1 MeV und somit therapeutische Vorteile, wenngleich die viel kürzere Halbwertszeit von 5,25 Jahren i. d. R. einen Quellenwechsel schon nach 5–10 Jahren notwendig macht. In ⊡ Abb. 33.8 ist ein modernes Kobaltgerät illustriert. Der Strahlerkopf des Kobaltgeräts ist durch einen um eine horizontale Achse drehbaren Tragarm mit einem Stativ verbunden. Diese Konstruktion wird auch als Gantry bezeichnet und ermöglicht eine Rotationsbestrahlung um einen virtuellen, fix im Raum liegenden Punkt, dem so genannten Isozentrum. Der Strahlerkopf selbst besteht aus der Quelle, einem Quellenschieber oder einem Drehverschluss, der Bleiabschirmung, den Blenden zur Feldbegrenzung, einem Lichtvisier sowie einer Entfernungsanzeige. Neben dem Tragarm lassen sich auch die Blenden rotieren. Der mit dem System fest verbundene Behandlungstisch lässt sich in alle 3 Raumrichtungen linear bewegen und erlaubt neben einer isozentrischen eine exzentrische Rotation um die eigene Achse.
33.5.3 Linearbeschleuniger
Heute werden moderne Linearbeschleuniger zur Erzeugung therapeutischer Elektronenstrahlung von 2–25 MeV und ultraharter Photonenstrahlung von 4–25 MV Grenzenergie angeboten. Es existieren mehrere umschaltbare
Elektronen-Energiestufen sowie – je nach Hersteller – bis zu 3 Photonenenergien. Daneben gibt es, als eine Art Sonderform, die »Nur-Photonen-Maschinen« mit niedrigen Photonengrenzenergien zwischen 4 und 6 MV. Sie dienen meist als Ersatz für ausgemusterte Kobaltanlagen, d. h., diese lassen sich meist ohne große Zusatzmaßnahmen im Bereich Strahlenschutz in vorhandenen Therapieräumen installieren. Derartige Systeme kommen ohne bewegliche Teile im Beschleunigungssegment aus und haben zudem Beschleunigungsrohre von maximal 50 cm Länge. Hierdurch ist eine deutlich kompaktere, einfachere Bauweise ohne Strahlumlenkung bzw. -analyse möglich, und dies senkt entsprechend die Kosten. Linearbeschleuniger sind Hochfrequenzbeschleuniger, die Elektronen in geraden Beschleunigungsrohren mittels Hochfrequenzwellen von 3 GHz und 10 cm Wellenlänge beschleunigen. Die Systeme bestehen im Wesentlichen aus den fünf Baugruppen Energieversorgung, Modulator, Beschleunigungseinheit, Strahlerkopf und Bedieneinheit. In ⊡ Abb. 33.9 ( 4-Farbteil am Buchende) ist schematisch der Aufbau eines modernen Hochenergie-Linearbeschleunigers gezeigt. Der Modulator enthält die Quelle zur Hochfrequenzerzeugung, sowie die Steuerelektronik plus elektrische Versorgung. Die Hochfrequenzgeneratoren stammen ursprünglich aus der Radartechnik; sie erzeugen Mikrowellen in Magnetrons oder Klystrons und verstärken diese. Magnetrons werden bevorzugt bei kleinen und mittleren Elektronenenergien eingesetzt, sind preiswerter als Klystrons, haben jedoch auch eine deutlich geringere Lebensdauer als diese. Bei Klystrons, welche bei höheren Elektronenenergien eingesetzt werden, unterscheidet man zwischen Einkammerund Zweikammersystemen.
⊡ Abb. 33.8. Kobaltgerät UJP Terabalt® 80 (Fa. UJP, Prag/Tschechien)
33
598
III
Kapitel 33 · Medizinische Strahlentherapie
Die Beschleunigungseinheit setzt sich zusammen aus einer Elektronenkanone, dem Beschleunigungsrohr sowie Kühlaggregaten und Vakuumpumpen. Die Elektronenkanone ist entweder eine direkt geheizte Glühkathode aus Wolframdrahtwendeln oder eine indirekt geheizte Wolframmatrix. Daneben finden auch nicht geheizte Gitterkathoden, so genannte Kaltkathoden, welche z. B. mit Bariumsulfat beschichtet sind. Diese Beschichtungen reduzieren die Austrittsarbeit für die Elektronen dermaßen, dass sie durch alleiniges Anlegen einer Hochspannung extrahiert werden können. Die Extraktionsspannungen liegen zwischen 15 und 50 kV. Je nach Hersteller werden als Beschleunigungsmedium Wanderwellen oder Stehwellen eingesetzt. Beim Wanderwellenprinzip läuft die Hochfrequenzwelle durch das Rohr und zieht dabei die Elektronen mit sich; am Ende des Rohres wird die elektromagnetische Wanderwelle dann vernichtet. Im Gegensatz hierzu wird beim Stehwellenbetrieb die elektromagnetische Longitudinalwelle am Ende des Rohres so reflektiert, dass sich eine stehende Welle ausbildet. Konstruktive Unterschiede liegen hauptsächlich in der Länge des Beschleunigungsrohres, welches für Wanderwellen länger als für Stehwellen ist. Andererseits besteht bei einem Wanderwellensystem eine geringere Frequenzabhängigkeit der Beschleunigungsleistung und weniger hohe Anforderungen an die Energieschärfe der eingeschossenen Elektronen. Der Strahlerkopf hat die Aufgabe, den in Richtung des Beschleunigungsrohres zeigenden Nadelstrahl von nur wenigen Millimetern Durchmesser einerseits umzulenken und andererseits geometrisch an die Bedürfnisse anzupassen. Die hierfür notwendigen Schritte sind a) Bündelung, Fokussierung und Ablenkung, b) Primärkollimation, c) Homogenisierung, d) Strahlüberwachung (Lage und Symmetrie), e) Dosisüberwachung und Dosisleistungsregelung sowie f) Feldformung. Die dazu eingesetzten Komponenten sind der 270°-Umlenkmagnet, die Strahlsteuerung, der Primärkollimator, das Karrusell mit Photonenausgleichskörpern und Elektronenstreufolien, die Doppelionisationskammer, die Kollimatorblenden X,Y sowie der Multilamellenkollimator. Die Feldformung geschieht bei Photonen mittels Kollimatorblenden sowie Multilamellenkollimator, bei Elektronen werden hierzu so genannte Tubusse eingesetzt, welche kaskadierend kollimieren und in der untersten Ebene eine Aufnahmemöglichkeit für einen individuell geformten Einsatz zur Erzeugung einer irregulären Feldform bieten. Zur Begrenzung des Strahlfeldes werden einerseits Blendensysteme mit variabler, ggf. asymmetrischer Öffnung eingesetzt auch dynamisch betrieben werden können. Die Limitierung solcher Systeme auf rechteckig geformte Felder hat zur Integration
von Blöcken geführt, welche zwar individuell hergestellt werden müssen, aber mit denen praktisch beliebige irreguläre Feldformen erzeugt werden können. Modernere Beschleunigersysteme bieten heute zudem MultiLamellen-Kollimatoren (MLC), welche – je nach Lamellenbreite – fast beliebig geformte Feldkonfigurationen ermöglichen. Je nach Hersteller lassen sich diese MLCs zudem dynamisch betreiben. Es existiert die Möglichkeit, das Feld zu modulieren. Dies geschieht entweder mittels Keilfiltern oder Kompensatoren, wobei diese entweder hardware- oder softwaretechnisch erzeugt werden. Externe Keilfilter sowie physikalische Kompensatoren werden aus Schwermetall gefertigt. Erstere sind standardmäßige Bestandteile eines Linearbeschleunigers, Letztere hingegen werden für den Patienten individuell angefertigt. Beides lässt sich bei modernen Linearbeschleunigern auch durch einen dynamischen Betrieb der Kollimatorblenden bzw. des Multileafkollimators erzeugen. Hierzu fahren die Blenden bzw. die Lamellen während der Bestrahlung und modulieren hierdurch die Intensitätsverteilung innerhalb des Feldes gemäß den gemachten Vorgaben.
33.5.4 Miniaturbeschleuniger
Eine massive Miniaturisierung der Röntgenquelle, die ein mobiles, von Operationssaal zu Operationssaal transportables System ermöglicht, wurde vor nicht allzu langer Zeit erstmals realisiert. Bei der Quelle (⊡ Abb. 33.10 rechts), welche ein Gewicht von nur 2 kg aufweist, handelt es sich um einen kompakten Linearbeschleuniger mit einer Energie von 50 kV; diese kann mit Spannungen von 110–230 V und ggf. sogar mit Batterie bei 9,6 V betrieben werden. Die Beschleunigungsstrecke beträgt ca. 40 cm, und es lassen sich Dosisleistungen von 2,8 Gy/min in 1 m Abstand erzielen. Der Aufbau eines solchen Systems ist in ⊡ Abb. 33.10 ( 4-Farbteil am Buchende) illustriert; das Gerät ist in einen stereotaktischen Roboter integriert und erlaubt somit intraoperative Hochpräzisionsbestrahlungen. Aus der Miniaturisierung der Quelle und der verwendeten Energie resultiert zusätzlich auch die Beschränkung der Strahlung auf ein kleines Volumen. Dadurch entfallen die bei konventionellen Geräten (Linearbeschleuniger, radioaktive Strahler) notwendigen Investitionen in Schutzräume und persönliche Schutzmaßnahmen. Durch die räumliche Beschränkung und isotrope Ausbreitung der Strahlung wird nur das betroffene Gewebe um das Tumorbett bestrahlt und gesundes Gewebe geschont. Die starke Strahlenbelastung des gesunden Gewebes ist hingegen bei den konventionellen Methoden der Strahlentherapie ein kritischer Nebeneffekt der Behandlung, da aus medizinischen Gründen Grenzwerte im Strahlenschutz bestehen.
599 33.5 · Gerätetechnologien zur Strahlungserzeugung
33.5.5 Brachytherapiequellen und
Brachytherapiegeräte In der Brachytherapie werden ausschließlich geschlossene radioaktive Quellen angewendet, bei denen die radioaktive Substanz von einer festen inaktiven Ummantelung umgeben oder in diese so eingebettet ist, dass bei normaler Anwendung ein Austreten unmöglich ist. Im Gebiet der LDR werden mehrheitlich radioaktive Drähte eingesetzt, welche das Isotop 192Ir enthalten. Die lange Anwendungsdauer der anfänglich eingesetzten Applikationsformen verbunden mit der hohen Strahlenbelastung des Personals hat dazu geführt, dass ferngesteuerte Nachladeverfahren, so genannte Afterloading-Verfahren, entwickelt wurden. Hierzu wurden verschiedene ferngesteuerte Nachlade- oder Afterloadingsysteme konstruiert, welche mit 192Ir, 137Cs oder 60Co als radioaktivem Strahler arbeiten. Mit dem Gammastrahler 192Ir lassen sich hohe Dosisleistungen und hierdurch sehr kleine Therapiezeiten erreichen. Die Halbwertszeit von Iridium beträgt 74 Tage und die mittlere Gammaenergie 0,35 MeV. Daher hat sich – bis auf wenige Anwendungen – Iridium durchgesetzt. Im Zuge einer Kostenoptimierung werden inzwischen jedoch wieder Mehrquellensysteme angeboten, welche mit einer 60Co Quelle in gleicher Größe, aber mit ca. nur einem Viertel der Aktivität bestückt werden können. Üblicherweise ist nur ein Strahleraustausch in den ersten 10 Jahren Betrieb erforderlich, verglichen mit 35 bis 40 Strahleraustauschen beim herkömmlichen Ir-Strahler. ⊡ Abb. 33.11 zeigt ein modernes Mehrkanal-Afterloading-Gerät. Es werden zwei verschiedene Antriebssysteme eingesetzt, welche die praktisch punktförmige Quelle aus einem Tresor ferngesteuert in den Applikator fahren: Stahlseelen in Form von biegsamen Wellen oder massiven Drähten. Erstere weisen eine besonders hohe Biegsamkeit bei größerem Durchmesser auf, währenddem Letztere zwar sehr dünn aber auch deutlich weniger flexibel sind. Die Ir-Quelle ist ein kombinierter BetaGamma-Strahler, deren Gammastrahlungskomponente zur Therapie genutzt wird. Die gekapselten Strahler sind von 1 bis 2 Edelstahlhüllen umgeben, welche einerseits die unerwünschten Betastrahlungsanteile abschirmen und andererseits den Verschleiß der Quelle beim Transport durch den Führungsschlauch und Bewegung in den Applikatoren reduzieren. Ein Indexersystem, wie es in ⊡ Abb. 33.11 rechts illustriert ist, erlaubt es – je nach Hersteller – bis zu 40 Kanäle sequentiell anzusteuern und so in Verbindung mit entsprechenden Applikatorkonfigurationen räumlich komplexe Dosisverteilungen zu erzeugen. Vor der eigentlichen Bestrahlung wird die Bestrahlungssitzung mit einem nichtstrahlenden Metalldraht – auch Dummy genannt – simuliert, um die Fahrwege vorab auf eventuelle Widerstände aufgrund starker Krümmungen oder Anschlussprobleme der Verbindungen zu Indexer und/oder Applikator zu überprüfen.
⊡ Abb. 33.11. HDR-Afterloader Varian GammaMedPlus® (oben) mit Indexer (unten) (Quelle: Fa. Varian Medical Systems, Palo Alto/USA)
Neben den Ir-HDR-Geräten, welche eine initiale Quellenaktivität von 10 Curie besitzen, existieren auch PDRSysteme, welche sehr ähnlich konstruiert sind. Diese Systeme sind für regelmäßige Wiederholungsbestrahlungen ausgelegt und haben eine Anfangsquellenaktivität von 1 Curie. Es existieren vereinzelt Systeme für spezielle Anwendungen, darunter auch das so genannte Curietron. Es handelt sich um ein ferngesteuertes Nachladegerät für geringe bis mittlere Dosisleistung zum Einsatz von Cs-137-Quellen für die intrakavitäre gynäkologische Brachytherapie.
33
600
III
Kapitel 33 · Medizinische Strahlentherapie
Zur endovaskulären Bestrahlung mit Nachladern werden spezielle Systeme verwendet: Die Applikation von Gammastrahlen erfolgt derzeit mittels 192Iridium, während für Betastrahlen unterschiedliche Quellen angewendet werden. Die klinisch relevante Anwendung von Betastrahlen erfolgt bislang mit einem 90Yttrium-Draht oder mit einem 90Strontium/90Yttrium-Aktivitätszug. Die Systeme unterscheiden sich auch hinsichtlich ihrer Zentrierung im Gefäßlumen: Einige verwenden einen speziellen Zentrierungsballon, andere sind selbstzentrierend (radioaktive Ballonkatheter, radioaktive Stents). Es muss allerdings hier erwähnt werden, dass selbst so genannte zentrierte Systeme in Bezug auf die so genannte Plaque immer exzentrisch bleiben, sodass Dosisschwankungen im Gefäß unvermeidlich sind. Wahrscheinlich wird in Zukunft das endovaskuläre Afterloading mit Gammastrahlen v. a. bei größeren Gefäßdurchmessern wie venösen Bypassgefäßen und peripheren Gefäßen angewandt werden, während sich für Koronararterien die Brachytherapie mittels Betastrahlen – v. a. bei in-Stent-Restenosen – etablieren wird.
33.5.6 Radioaktive Implantate
Bei der Verwendung radioaktiver Implantate handelt es sich eigentlich um eine Unterform der Brachytherapie. Da jedoch diese Therapieform ganz spezifische Anwendungen im Bereich der Tumor- bzw. Gefäßerkrankungen kennt, werden diese im Folgenden gesondert beschrieben.
Augenapplikatoren Bei der Oberflächenkontaktherapie von Tumoren am Auge werden kalottenförmige Plättchen eingesetzt, welche als Radionuklid den Beta-Strahler Ruthenium (106Ru) enthalten. Die nominelle Oberflächendosisleistung be-
trägt 120 mGy/min und die Aktivität variiert zwischen 10 und 50 MBq. Diese Applikatoren (⊡ Abb. 33.12, 4-Farbteil am Buchende) erlauben Bestrahlungen bis zu 100 Gy in eine Tiefe bis 2 mm, ohne benachbart liegende empfindliche Strukturen zu schädigen.
Seeds Die permanente Brachytherapie oder Seedimplantation ist eine kurative (heilende) und gleichzeitig besonders schonende Form der Strahlentherapie beim lokal begrenzten Prostatakarzinom. Aufgrund ihrer hohen Wirksamkeit wird sie immer häufiger als Alternative zur radikalen Prostatektomie, der Totaloperation, eingesetzt. Mit Hilfe spezieller Hohlnadeln werden die Strahlenquellen in Form von winzigen radioaktiven Implantaten (Seeds) bei diesem Verfahren direkt in die Prostata eingebracht. In ⊡ Abb. 33.13 sind solche Seeds sowie die Situation nach der Applikation gezeigt. Als radioaktive Quellen werden Iod (125I) oder Palladium (103Pd) eingesetzt, welche auf Trägermatrizen aufgebracht und in laserverschweißte Titanhülsen eingebettet sind. Auf diese Weise können deutlich höhere Strahlendosen direkt in der Prostata mit Schonung umliegender Organe verabreicht werden als bei einer externen Bestrahlung. Die Implantate verbleiben in der Prostata und geben die Strahlung langsam abnehmend über mehrere Monate (bei Iod-125 in etwa 12 Monaten und bei Palladium-103 in etwa 3 Monaten) unmittelbar in das Tumorgewebe ab. So wird das Prostatakarzinom allmählich zerstört, ohne dass gesundes Gewebe relevante Schäden erleidet. Wesentlich bei der Implantation von Seeds ist die genaue Positionsbestimmung während der Applikation mittels Ultraschall. Typischerweise werden 40–200 Seeds, deren Aktivität 20–80 Mbq beträgt, in einem Tumor implantiert. Mittels einer ultraschallgestützten Therapieplanung wird sichergestellt, dass an der Prostataoberfläche eine Dosis von 144 Gy erreicht wird.
⊡ Abb. 33.13. Jod-Seed-Therapie des Prostatakarzinoms (links: Seeds, rechts: Durchleuchtungsbild, aufgenommen nach der Applikation) (Quelle: Fa. Eckert & Ziegler BEBIG/ Berlin)
601 33.6 · Spezielle Techniken und neuere Entwicklungen in der Teletherapie
Es werden zwei verschiedene Applikationsformen eingesetzt: Neben der Applikation einzelner isolierter Seeds werden bei der so genannten Rapid-Strand-Technik die Seeds verkettet appliziert. Hiervon verspricht man sich insbesondere eine geringere Beweglichkeit der Quellen.
Stents Eine der häufigsten Todesursachen in den Staaten der westlichen Welt stellt die koronare Herzkrankheit dar. Gesunde Koronararterien haben normalerweise eine glatte, elastische Wand. Bei der koronaren Herzerkrankung beginnen sich Ablagerungen von Cholesterin, einem natürlichen Blutbestandteil, an der Gefäßwand festzusetzen und den Blutfluss zu vermindern – und es entsteht eine Stenose. Neben der Möglichkeit einer operativen Therapie, der so genannten Bypass-Operation, sind vor allen Dingen nichtoperative Methoden zur Weitung der verengten Herzkranzgefäße für die Behandlung von Gefäßverengungen bedeutsam geworden. Schon im Jahre 1979 wurde die Ballondilatation oder PTCA (Percutaneous Transluminal Coronary Angioplasty) als nichtoperative Behandlungsmethode der koronaren Herzkrankheit eingeführt. Durch das Aufweiten der Koronararterie durch einen Ballon entstehen feinste Verletzungen in der Gefäßwand. Diese Verletzungen verheilen wieder problemlos. Allerdings verringert das durch den Heilungsprozess ausgelöste Zellwachstum den Gefäßquerschnitt erneut (Narbenbildung). In der Medizin spricht man dann von einer Proliferation, d. h. Wucherung des Gewebes. Dadurch zeigt sich bei rund einem Drittel der erfolgreich geweiteten Koronargefäße nach kurzer Zeit eine Restenose, d. h. ein erneuter Gefäßverschluss. Hauptverursacher von Restenosen sind die Kontraktion der Gefäßwände nach Entfernung des Ballonkatheters und das vermehrte Zellwachstum aufgrund von Heilungsprozessen in der verletzten Gefäßwand. Da Stents nur die Kontraktion der Gefäßwände nach der Ballondilatation verhindern, musste nach neuen Möglichkeiten gesucht werden, die Gewebewucherungen zu stoppen. Mit Hilfe der Radioaktivität, die durch Ionenimplantation in die Stentoberfläche eingebracht wird, soll die Proliferation des Gewebes verhindert werden. In Studien konnte gezeigt werden, dass durch Bestrahlung der Gefäßwand das Zellwachstum nach einer Ballondilatation deutlich vermindert werden kann. Es bedarf jedoch einer gewissen Minimalaktivität (>100 kBq), damit der Stent medizinisch wirksam ist, d. h. die Zellwucherungen verhindert. Es konnte zudem gezeigt werden, dass durch das temporäre Einbringen einer starken Quelle in das Herzkranzgefäß nach der Stentimplantation mittels HDR-Afterloading-Technik ebenfalls eine Reduktion der Restenoserate bewirkt werden kann. Diese Methode hat allerdings gegenüber radioaktiven Stents den Nachteil, dass eine sehr starke radioaktive Quelle (bis zu 400 MBq) in den Körper des Patienten eingebracht werden muss,
um in kurzer Zeit eine entsprechend hohe Strahlendosis auf die Gefäßwand zu bringen. Operationsteam und Patienten sind somit einer höheren Strahlenbelastung ausgesetzt als bei Verwendung eines radioaktiven Stents, dessen Aktivität deutlich niedriger ist (<1 MBq). In ⊡ Abb. 33.14 ( 4-Farbteil am Buchende) ist der Effekt einer radioaktiven Beschichtung illustriert. Nach einer Ballondilatation mit folgendem Einbau eines inaktiven Stents wächst das Blutgefäß langsam wieder zu (Restenose), währenddem eine Bestrahlung mittels radioaktivem die Zellen der Gefäßwand schädigt und dadurch das Wachstum der Außenwand und einen erneuten Gefäßverschluss verhindert. Der erste radioaktive Stent wurde 1992 am Forschungszentrum Karlsruhe (FZK) produziert. Es handelte sich hierbei um einen Stent aus Stahl, dessen Legierungselemente aktiviert wurden. Die heute wichtigsten Nuklide in Bezug auf die Stentbeschichtung sind Palladium (103Pd) und Phosphor (32P). Das radioaktive Isotop des Phosphors wurde erstmals mit Ionenimplantation in das Grundmaterial des Stents eingebracht. Hierbei erreichte man eine homogene Verteilung über den gesamten Stent und eine gute Haftung auf dem Grundmaterial. In klinischen Studien wurde die Wirksamkeit dieses Produkts bewiesen. Um einen Stent mit Palladium zu versehen wird zuerst eine Goldschicht durch Galvanisieren auf dem Stent aufgebracht. Diese dient als Haftvermittler für das Palladium, welches ebenfalls galvanisch auf dem Stent abgeschieden wird. Im Anschlusswird das Palladium mit einer letzten Goldschicht abgedeckt, um ein Auswaschen zu verhindern. Auch wird auf diese Weise die unerwünschte niederenergetische Röntgenstrahlung des Palladiums absorbiert.
33.6
Spezielle Techniken und neuere Entwicklungen in der Teletherapie
Die Strahlentherapie verzeichnet – v. a. auch bedingt durch die immer weiter fortschreitende Computerisierung – eine rasante Entwicklung bei der Implementierung neuer Therapietechnologien. Im Folgenden werden verschiedene solcher Ansätze beschrieben, welche technologisch meist auf einem Linearbeschleuniger aufbauen.
33.6.1 Intensitätsmodulierte Strahlentherapie
(Intensity modulated radiotherapy, IMRT) Dieser Ansatz beinhaltet eine Modulation der Felder, welcher technologisch prinzipiell auf zwei verschiedene Arten realisiert werden kann: Entweder mittels eines physikalischen Kompensators oder mit Hilfe eines Multilamellenkollimators (MLC). Heutzutage wird praktisch ausschließlich die Feldmodulation mit MLC durchgeführt; ⊡ Abb. 33.15 ( 4-Farbteil am Buchende) zeigt einem
33
602
III
Kapitel 33 · Medizinische Strahlentherapie
modernen Multileafkollimator mit erhöhter Auflösung, d. h. einer reduzierten Lamellenbreite von 5 mm statt der meist üblichen 1 cm breiten Lamellen. Je nach Beschleunigerhersteller existieren zwei verschiedene Applikationstechniken: Die Step-and-ShootTechnik (SS) und die dynamische MLC-Technik (dMLC). Bei der Step-and-Shoot werden sequentiell verschiedene Subfelder – so genannte Segmente – überlagert und so eine Feldmodulation erzielt, d. h., es wird erst eine definierte MLC-Position angefahren, dann ein Teil der Dosis appliziert gefolgt von Wiederholungen mit anderen MLCLayouts. Bei der dynamischen MLC-Technik fahren die einzelnen Lamellen während der gesamten Bestrahlungszeit. Da diese Technik mit über das Feld hinübergleitenden fensterähnlichen Öffnungen arbeitet, wird sie auch Sliding-Window-Technik genannt. Durch die IMRT tritt ein Paradigmenwechsel bei der dosimetrischen Therapieplanung ein. Bei der bisherigen Vorwärtsplanung verändert der Planer interaktiv die Feldkonfiguration solange, bis eine zufriedenstellende Dosisverteilung erzielt wird. Die IMRT erlaubt hingegen eine inverse Therapieplanung. Man definiert im Planungssystem gewisse Restriktionen in Form von Zieldosen (für den Tumor) bzw. Maximaldosen (für kritische Organe) sowie dazugehörige Wichtungsfaktoren. Der Planungscomputer errechnet hieraus dann in einem iterativen Rückwärtsprozess die optimale Feldkonfiguration. Die intensitätsmodulierte Strahlentherapie wurde schon früh als neue Wunderwaffe gehandelt. Die Erfahrungen zeigen jedoch, dass mit dem Einsatz dieser Technik zwar die Dosisverteilung deutlich besser an das Zielvolumen angepasst werden kann, jedoch dabei auch die Dosisverteilung über eine größere Region verschmiert wird.
⊡ Abb. 33.16. Atemsteuerung Varian RPM Gating® (Quelle: Fa. Varian Medical Systems, Palo Alto/USA)
33.6.2 Atmungsgetriggerte Strahlentherapie
(Breathing adapted radiotherapy, BART) Insbesondere im Thorax- und oberen Abdominalbereich erfordert die Atmungsverschieblichkeit der Zielvolumina, dass die Bestrahlungsregionen größer als das eigentliche Tumorvolumen gewählt werden müssen, um die Tumorkontrolle nicht zu gefährden. Hieraus resultieren teils sehr massive Nebenwirkungen. Neuere Ansätze haben nun dazu geführt, dass es möglich ist, die Bestrahlung über die Atmung zu steuern, d. h. den Therapiestrahl nur dann zu aktivieren, wenn sich das Zielvolumen im Bestrahlungsfeld befindet. Die Therapietechnik wird auch Gating genannt. Zur Atmungsüberwachung werden verschiedene Systeme eingesetzt, welche entweder auf einem Spirometer aufbauen und somit das Atemvolumen messen oder aber mit externer Messtechnik die Thoraxexkursion aufzeichnen. ⊡ Abb. 33.16 zeigt ein System, welches mittels einer externen Markerbox die Bewegungen der Brustwand aufzeichnen. Um eine stabile und konstante Atmung des Patienten zu erzielen, werden zwei Atmungscoaching-Techniken eingesetzt. Zum einen werden mittels digitalisierten Audiokommandos (»einatmen«/»ausatmen«) über Lautsprecher die Patienten unterstützt, einen regelmäßigen Atmungszyklus einzuhalten. Daneben existieren verschiedene Systeme (Prismen-/Spiegelbrille, LCD-Brille/Monitor), um durch visuelle Informationen (Biofeedback) den Patienten zu unterstützen, die Atmungstiefe bzw. Thoraxexkursion zu stabilisieren. Diese ist insbesondere von Bedeutung, wenn Tumoren bestrahlt werden, welche sich simultan mit der Thoraxwand bewegen.
603 33.6 · Spezielle Techniken und neuere Entwicklungen in der Teletherapie
33.6.3 Bildgeführte Strahlentherapie
(Image guided radiotherapy, IGRT)
⊡ Abb. 33.17. Linearbeschleuniger Varian Clinac iX® mit gantrybasiertem Bildgebungssystem On board imager OBI® (Quelle: Fa. Varian Medical Systems, Palo Alto/USA)
In letzter Zeit wurden Linearbeschleuniger entwickelt, welche mit dedizierten IGRT-Systemen ausgerüstet sind. Die grundlegende Idee solcher Systeme ist es, Bildgebungstechnologien am Bestrahlungsgerät zur Verfügung zu haben, welche primär der Verifikation der Patientenpositionierung dienen. Neben einem radiologischen Modus, welcher die Aufnahme von digitalen Röntgenbildern ermöglicht, existieren ein Fluoroskopie-Modus für Live-Durchleuchtungen sowie ein Computertomographie-Modus, welcher das Fahren eines CT-Scans mit konischer Strahlanordnung erlaubt und daher Cone-Beam-CT (CBCT) genannt wird. ⊡ Abb. 33.17 zeigt ein solches System. Es setzt sich aus zwei verschiedenen Bildsystemen zusammen. Eines verwendet die MV-Therapiestrahlung und ist seit einiger Zeit als Portalbildgebung (Portal Imaging) bekannt. Das zweite System basiert auf klassischer kV-Bildgebung und besteht aus einer Röntgenröhre sowie einem hochauflösenden Detektor. Auflösungen derartiger Systeme, welche allesamt auf modernster Halbleitertechnik (amorphes Silizium) basieren, liegen inzwischen bei bis zu 4 Millionen Pixeln bei Detektorflächen von bis zu 40×40 cm2. Bei den kV-Bildgebungssystemen unterscheidet man zwischen gantrybasierten Systemen (wie in ⊡ Abb. 33.17 gezeigt) und raumbasierten Lösungen. Eine raumbasierte Lösung ist in ⊡ Abb. 33.18 gezeigt. Während sich die gantrybasierten Systeme mit der Rotation der Gantry entspre-
⊡ Abb. 33.18. Raumbasiertes Bildgebungssystem Brainlab ExacTrac® (Quelle: Fa. Brainlab, Heimstetten/Deutschland)
33
604
III
Kapitel 33 · Medizinische Strahlentherapie
chend mitdrehen und somit zeitgleich zur Dosisapplikation keine Bildgebung zulassen, erlauben raumbasierte Systeme eine simultane, wenn auch auf fixe Raumwinkel beschränkte Verifikation mittels Fluoroskopie. Um die Patientenposition auf der Basis von internen Knochenstrukturen zu verifizieren, können entweder MV-basierte oder kV-basierte Kontrollaufnahmen angefertigt werden. Diese lassen sich dann online mit den vorhandenen Referenzbildern durch digitale Überlagerungstools, so genanntes Matching, vergleichen und ermöglichen so eine sofortige Repositionierung auf der Basis eines 2D/2D-Match, wobei die Bilder orthogonal zueinander aufgenommen werden müssen. Der ConeBeam-CT-Modus ermöglicht einen Match auf Basis von dreidimensionalen Datensätzen, welche zudem Weichgewebsstrukturen zeigen. Insbesondere im Becken sind solche Ansätze von Vorteil, da dort die zu bestrahlenden Zielvolumen nicht in einem festen Bezug zu knöchernen Strukturen stehen. Der Fluoroskopie-Modus liefert ein Live-Durchleuchtungsbild und erlaubt somit bewegte Strukturen im Thoraxbereich, wie z. B. einen Lungentumor, hinsichtlich seiner Bewegungen zu analysieren und ggf. Korrekturen vorzunehmen.
33.6.4 Dynamisch adaptierte Radiotherapie
(Dynamic adaptive radiotherapy, DART) Hierbei handelt sich um einen neuartigen Ansatz, welcher zum Ziel hat, die Therapie kontinuierlich an die sich ändernden Rahmenbedingungen anzupassen. Die bisherigen Ansätze fußten auf der Annahme, dass sich die anatomischen Verhältnisse im Verlaufe der Therapie nur geringfügig ändern. Jedoch hat insbesondere IGRT aufgezeigt, dass dem nicht so sein muss. Das Konzept der dynamisch adaptierten Radiotherapie basiert darauf, dass mit Hilfe von regelmäßig akquirierten Cone-BeamCT-Daten ein neuer Plan erstellt wird, wobei dies bei den derzeit verfügbaren Technologien nur als Offline-Prozess möglich ist. Das heißt, der Therapieplan wird aufgrund der neuen Gegebenheiten, wie z. B. die Schrumpfung des Zielvolumens, entsprechend angepasst. Hierdurch lässt sich u. a. eine verstärkte Schonung von gesundem Gewebe erzielen. Inzwischen werden neuartige Wege verfolgt, bei welchen dieser Ansatz online implementiert wird. Dies ist vor allem dann empfehlenswert, wenn Änderungen in der Patienten-Anatomie und/oder -Physiologie tiefgreifende Konsequenzen bei hochkonformalen Therapieformen haben. Eine Online-Adaptation setzt eine schnelle Akquisition der CT-Daten voraus, gefolgt von einer weitestgehend automatisierten Kontourierung und beschleunigten Planberechnung. Die Umsetzung stellt sehr hohe Anforderungen an den klinischen Workflow und befindet sich aufgrund noch bestehender technischer und weiterer Limitationen noch in der Anfangsphase.
33.6.5 Stereotaktische Radiochirurgie/
-therapie (Stereotactic radiosurgery/ -therapy, SRS/SRT) Hochpräzise Bestrahlungen im Schädelbereich stellen sowohl sehr hohe Anforderungen an die Genauigkeit des Strahlfeldes als auch an die Patientenpositionierung. Um Genauigkeiten im Bereich von 1 mm oder darunter zu erzielen, wurde schon in den 60er Jahren ein spezielles Therapiegerät, das so genannte Gamma-Knife, entwickelt, welches mit einem stereotaktischen Ring zur Schädelfixation ausgestattet ist. Es handelt sich letztlich um ein Kobaltgerät, jedoch mit der Besonderheit, dass es 201 Quellen beinhaltet, welche alle auf einen Punkt kollimiert sind. Für die intra- sowie extrakranielle Stereotaxie existieren in der Zwischenzeit neuere Systeme, welche entweder auf einem konventionellen LINAC beruhen oder aus einen auf einem Roboterarm fixierten, kompakten LINAC bestehen. ⊡ Abb. 33.19 zeigt ein solches System, welches auf einem gantrymontierten Linearbeschleuniger basiert. In ⊡ Abb. 33.20 ist hingegen ein CyberKnife illustriert. Letzteres ist eine vollständige Neuentwicklung, bei welcher der LINAC auf einem Roboterarm – wie er auch in der Automobilindustrie eingesetzt wird – montiert ist. Die Präzision beider Ansätze ist vergleichbar und liegt im Submillimeterbereich. Diese Systeme sind im Gegensatz zum Gamma-Knife mit zusätzlicher Bildgebungshardware ausgestattet, welche eine Positionskontrolle des Patienten ermöglichen. Die eingesetzten Bildgebungssysteme basieren auf digitalem Röntgen, allerdings mit der Besonderheit, dass es sich um zwei in einem definierten Winkel zueinander angeordnete, fest installierte kV-Einheiten handelt, bestehend jeweils aus einer Röntgenröhre sowie einem digitalen Imaging-Panel. Je nach technologischem Konzept beinhaltet die Bildgebungstechnologie auch Cone-BeamFunktionalität.
33.6.6 Tomotherapie
Bei dieser Generation von Strahlentherapiegeräten ist ein Linearbeschleuniger in eine CT-ähnliche Gantry – eine so genannte O-Ring Gantry – integriert. Dieser Ansatz basiert auf intensitätsmodulierter (IMRT) und bildgeführter (IGRT) Strahlentherapie. Der Linearbeschleuniger läuft ähnlich einer Röntgenröhre in einem CT um den Patienten herum und wird hier zusätzlich für die medizinische Bildgebung genutzt, sodass die Überprüfung der Tumorposition und die nachfolgende Behandlung ohne aufwändige Umrechnungs- und Anpassungsprozesse erfolgen können. Die Therapie selbst findet sozusagen schnittbasierend statt – daher auch die Bezeichnung »Tomotherapie«. ⊡ Abb. 33.21 zeigt die zwei zurzeit klinisch einsetzbaren Systeme. Es existiert neben dem ursprünglich entwickelten System Hi-ART des US-amerikanischen
605 33.6 · Spezielle Techniken und neuere Entwicklungen in der Teletherapie
⊡ Abb. 33.19. Radiochirurgiegerät Varian Novalis TX® (Quelle: Fa. Varian Medical Systems, Palo Alto/USA)
Herstellers Tomotherapy mit helikaler Dosisapplikation mittels binärem MLC und reiner MV-Bildgebung inzwischen eine neue funktionell unterschiedliche Variante Vero – entwickelt als Joint Venture von Mitsubishi und Brainlab – mit einem MLC mit 5 mm breiten Lamellen und 15 cm x 15 cm maximaler Feldgröße. Letztere Variante ist limitiert auf eine Gantryrotation von max. 360° (ähnlich einem gantrybasierten Linac) erlaubt aber auch nichtkoplanare Therapietechniken durch Gantrydrehung sowie eine Behandlungskopfkippung um zwei Achsen. Zudem enthält es ein kV-Bildgebungssystem mit zwei Röntgenröhren/Imagern, welches neben der MV-Bildgebung eingesetzt werden kann; dieser neuere Ansatz erlaubt auch eine Online-Verifikation mittels Fluoroskopie während der Therapie. Durch die mit dieser Technik erreichte hochkonformale Verteilung der Strahlendosis wird eine weitere Reduzierung der Nebenwirkungen erwartet, also eine Zerstörung des Tumors bei noch besserer Schonung vom den Tumor umgebendem gesunden Gewebe und Risikoorganen. Allerdings sind viele Fragen hierzu noch offen, denn die Tomotherapie steht in ihrer Entwicklung noch am Anfang. Insbesondere das neue Vero-System, welches erst seit kurzem als Prototyp im klinischen Einsatz ist, muss erst erprobt werden.
33.6.7 Intensitätsmodulierte Rotationstherapie
(Intensity modulated arc therapy, IMAT)
⊡ Abb. 33.20. Robotisches Radiochirurgiesystem Accuray CyberKnife® (Quelle: Fa. Accuray, Sunnyvale/USA)
Die intensitätsmodulierte Rotationstherapie vereint die klassische Rotationsbestrahlung – früher auch Pendelbestrahlung genannt – mit der Intensitätsmodulation. Hiermit ist nicht lediglich eine Feldaperturkorrektur – auch als konformale Rotationstherapie bekannt – gemeint, sondern eine echte Feldmodulation. Diese kombinierte Technik stellt außergewöhnlich hohe Anforderungen an
⊡ Abb. 33.21. Tomotherapie-System: Tomotherapy® Hi Art® (links) und Mitsubishi MHI TM 2000®/Brainlab Vero® (rechts) (Quelle: Fa. Tomotherapy, Madison/USA, und Fa. Mitsubishi Heavy Industries, Tokyo/Japan, bzw. Fa. Brainlab, Heimstetten/Deutschland)
33
606
Kapitel 33 · Medizinische Strahlentherapie
Podgorsak E (2005) Radiation Physics Handbook for Medical Physicists. Springer, Berlin Heidelberg New York Produktebroschüren der Firmen Accuray, Bebig, Brainlab, Elekta, Gulmay Medical, Mitsubishi, Siemens, Tomotherapy, UJP Praha, Varian Medical, Zeiss Richter J, Flentje M (1998) Strahlenphysik für die Radioonkologie. Thieme, Stuttgart Schlegel W, Bille J (2002) Medizinische Physik 2: Medizinische Strahlenphysik. Springer, Berlin Heidelberg New York Wintermantel E, Ha SW (2002) Medizintechnik mit biokompatiblen Werkstoffen und Verfahren. Springer, Berlin Heidelberg New York
III
⊡ Abb. 33.22. Intensitätsmodulierte Rotationsstrahlentherapie Varian RapidARC® (Quelle: Fa. Varian Medical Systems, Palo Alto/USA)
die LINAC-Steuerung, denn es müssen die dynamischen Lamellenbewegungen des Multileafkollimators mit der Gantry-Rotation koordiniert d. h. synchronisiert und zudem auch die Dosisleistungssteuerung darauf abgestimmt werden. Die klinische Einführung wurde bei einem Hersteller inzwischen erfolgreich realisiert. ⊡ Abb. 33.22 zeigt schematisch den Ablauf einer solchen Therapie. Aufgrund dieser kombinierten Applikationsform, welche noch weiter optimierte, hochkonformierende Dosisverteilungen ermöglicht, werden – ähnlich der schon genannten Tomotherapie – bessere Heilungschancen bei geringeren Nebenwirkungen erwartet. Daneben liegt ein Hauptvorteil in der schnelleren Applikation der Dosis. Dies führt zum einen zu einem höheren Patientendurchsatz, und zum anderen kann nach einer Bildverifikation die Therapiedosis umgehend und zügig appliziert werden, wodurch Bewegungen des Patienten und/oder körperinterne topographische Veränderungen (z. B. Gasbewegung im Darm) während der Bestrahlung weniger wahrscheinlich sind.
Weiterführende Literatur Freund L (1937) Ein mit Röntgenstrahlen behandelter Fall von Naevus pigmentosus pilferus, Demonstrationen in der Gesellschaft der Ärzte in Wien, 15.1.1897. Wien klin Wschr 147 Konecny E, Roelke V, Weiss B (2003) Medizintechnik im 20. Jahrhundert. VDE-Verlag, Berlin Krieger H (2001) Strahlenphysik, Dosimetrie und Strahlenschutz, Bd 2: Strahlungsquellen, Detektoren und klinische Dosimetrie. Teubner, Stuttgart Lennmalm F (ed) (1900) Förhandlingar vid Svenska Lakare-Sallskapets Sammankomster ar 1899, S 205–209. Isaac Marcus, Stockholm/ Schweden
34 Mechanische Herzunterstützungssysteme (2010) R. Hetzer, E. Hennig 34.1
Einleitung: Historie – 607
34.2
Indikationen zum Einsatz von MCSS (BTT, BTR, BTB, Destination DT) – 608
34.2.1 Bridge to Transplant (BTT) – 610 34.2.2 Bridge to Recovery (BTR) – 610 34.2.3 Bridge to Bridge (BTB) = Bridge to Decision (BTD) – 610 34.2.4 Permanente Unterstützung oder Ersatz der Pumpfunktion des Herzens (Destination Therapy, DT) – 610
34.3
Einteilung der MCSS – 610
34.3.1 Physikalische Pumpprinzipien und Konzepte – 610 34.3.2 Pulsatile Systeme – 611 34.3.3 Nichtpulsatile Systeme – Rotationsblutpumpen – 611
34.4
Heutige Systeme – 611
34.4.1 Pulsatile Systeme – 612 34.4.2 Nichtpulsatile Systeme (Axiale und zentrifugale Rotationsblutpumpen) – 615
34.1
Einleitung: Historie
Nach Jahrzehnten intensiver interdisziplinärer Forschung und Entwicklung und ersten Studien des Humaneinsatzes haben heute mechanische Pumpsysteme zur Unterstützung oder zum Ersatz des versagenden Herzens (Ventricular Assist Devices, VAD, bzw. Total Artificial Heart, TAH) ihren festen Platz in der Behandlung des terminalen Herzversagens gefunden. 1951 führte Clarence Dennis die erste Operation am offenen Herzen bei einem Menschen unter Anwendung einer selbst gebauten Herz-Lungen-Maschine durch, gefolgt 1953 von John H. Gibbon, Jr., der die extrakorporale Zirkulation anwendete, um einen ASD (Atrium-Septum Defekt) unter direkter Sicht zu korrigieren. Die Maschine wurde von IBM-Ingenieuren gebaut. Dies führte zur Entwicklung von Pumpen und Gasaustauschern (Oxygenatoren), die die Funktion von Herz und Lunge für einen begrenzten Zeitraum übernehmen konnten. Der Einsatz solcher Geräte, der Herz-Lungen-Maschinen (HLM), bildete die Grundlage der heutigen Operationen am offenen Herzen ( Kap. 30). Die Pioniere Willem Kolff und Tetsuzo Akutzu implantierten 1957 das erste totale künstliche Herz in einem Hund (TAH). Das Tier überlebte für 90 Minuten. Das erste »Ventricular Assist Device« (VAD) wurde 1963 von Liotta und Crawford implantiert, gefolgt 1966 von der ersten erfolgreichen klinischen Anwendung eines VAD
34.4.3 MCS-Systeme für Neugeborene und Kleinkinder – 619 34.4.4 Zusammenfassung – 619
34.5
Komplikationen – 621
34.5.1 34.5.2 34.5.3 34.5.4 34.5.5 34.5.6 34.5.7 34.5.8 34.5.9
Funktionsstörungen der Systeme – 621 Hämolyse – 622 Thrombembolien – 622 Blutungen – 622 Infektionen – 622 Anastomosen-Problematik – 623 Rechtsherzinsuffizienz – 623 Anatomisch bedingte Zuflussbehinderungen – 623 Arrhythmien – 623
34.6
Technische Nachsorge – 623
34.7
Zusammenfassung und Ausblick – 624 Literatur – 627
durch Liotta und DeBakey zur Unterstützung des Herzens bis zu seiner Erholung (Bridge To Recovery, BTR). Nach der ersten Herztransplantation (HTX), 1967 von C. Barnard in Kapstadt erfolgreich durchgeführt, schien das Kunstherz nicht mehr so wichtig zu sein (Barnard 1967). Aber bereits im Jahr 1969 implantierte Denton Cooley ein künstliches Herz, das Domingo Liotta für den Humaneinsatz konzipiert hatte, zur Überbrückung zur Transplantation (Bridge to Transplant, BTT), und eröffnete damit ein neues Gebiet für VAD und TAH (Cooley et al. 1969). Jarvik und DeVries setzten 1982 das von ihnen im Institut für künstliche Organe in Salt Lake City (Kolff) weiterentwickelte pneumatisch angetriebene TAH erstmals klinisch als Dauerimplantat ein (Joyce et al. 1983). Die öffentliche Meinung wurde durch die von den Medien verfolgten, komplikationsreichen klinischen Verläufe negativ geprägt, positive Ergebnisse schienen beim TAH in naher Zukunft nicht zu erwarten zu sein. In Deutschland wurde 1971 in Berlin ein Kunstherz-Programm unter der Leitung von Emil Sebastian Bücherl in Zusammenarbeit mit AEG, Siemens, MBB und Hoechst begonnen (Bücherl u. Hennig 1983). Eine Reihe unterschiedlicher Unterstützungspumpen und Herzersatz-Systeme wurden entwickelt, von denen auch heute noch eines im klinischen Einsatz ist (Berlin Heart EXCOR). Der erste klinische Einsatz einer extrakorporalen pneumatischen Blutpumpe (Bücherl VAD) als BTR bei
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _34, © Springer-Verlag Berlin Heidelberg 2011
608
III
Kapitel 34 · Mechanische Herzunterstützungssysteme (2010)
einem Patienten nach Herzoperation erfolgte in Berlin 1985. Das von Bücherl und Hennig entworfene Kunstherz (Berlin TAH) wurde erstmals 1986 als BTT implantiert. Das neu gegründete Deutsche Herzzentrum hat das Programm mit TAH Implantationen im Jahr 1987 und Einsätzen von Herzunterstützungs-Systemen (»Ventricular Assist Devices«, VAD) seit dem Jahr 1988 fortgeführt (Hetzer u. Bücherl 1988). Mit dem erfolgreichen temporären Einsatz von VADs als BTT gewannen diese Systeme zunehmend Akzeptanz und eröffneten damit eine Ära, in der reichlich Erfahrungen hinsichtlich Indikationen, Komplikationsbeherrschung, technischer Weiterentwicklung und Langzeitbetreuung gewonnen werden konnten, die schließlich dazu verhalfen, dass die Daueranwendung, das ursprüngliche Ziel, wieder klinische Realität werden konnte. Nach den ersten Erfahrungen bei Erwachsenen zeigte sich der Bedarf auch bei Kindern, wofür seit den frühen 90er Jahren miniaturisierte Systeme entwickelt wurden, die auch für Kleinkinder und Säuglinge geeignet sind (Hetzer et al. 1997). Anfangs folgten die Systeme dem pulsatilen Prinzip, d. h., Pumpen mit Klappen imitierten die Funktion des natürlichen Herzens, was ihre Größe, Gewicht, Geräuschentwicklung und einen hohen Energiebedarf bedingte. Die Entwicklung von Rotationsblutpumpen mit kontinuierlichem Fluss, die ohne Klappen auskommen, erheblich kleiner und geräuschlos sind, wiesen diese Nachteile nicht auf. Die erste derartige Pumpe, das von DeBakey entwickelte MicroMed-System, wurde am 13. November 1989 von Hetzer am Deutschen Herzzentrum Berlin bei einem Patienten implantiert (DeBakey 1999). Da sich zeigte, dass ein so andersartiger Blutfluss vom Organismus gut toleriert wurde, entwickelte sich die Rotationsblutpumpe zum heutigen Standard der mechanischen Herzunterstützung. Heute können Patienten für mehrere Jahre bei akzeptabler Lebensqualität mit LinksherzunterstützungsSystemen (LVADs) versorgt werden. Mit kleinen mobilen externen Antrieben oder elektromechanischen implantierbaren LVADs können sie nach Hause entlassen werden und am »normalen« Leben teilnehmen. Einige haben ihre Berufstätigkeit wieder aufgenommen (Körfer u. Arusoglu 2010). So kann heute mit einiger Berechtigung die mechanische Kreislaufunterstützung (MCS) als definitive Therapie auf Dauer erwogen werden, wenn Kontraindikationen eine Herztransplantation ausschließen. Angesichts des zunehmenden Mangels an Spenderorganen werden MCS-Systeme immer häufiger die Alternative zur Herztransplantation. Ihnen kommt aufgrund ihrer beliebigen Verfügbarkeit eine in der Zukunft bedeutendere Rolle in der Medizin zu, wobei auch weitere Verbesserungen der Systeme notwendig sind. Ein weiterer Aspekt ergibt sich aus der Beobachtung, dass unter längerfristiger Entlastung des Herzens bei
Myokarditis, nach Herzoperationen und auch bei chronischer Kardiomyopathie vollständige Erholung erfolgte und damit die Explantation der Pumpe möglich wurde (BTR-Bridge to Recovery) (Müller et al. 1997). Dieser faszinierendste aller Wege entbehrt bis heute genauerer Kenntnisse der Mechanismen der Myokarderholung und ihrer Vorhersehbarkeit und sollte Gegenstand intensivster Forschung sein. Der am meisten zunehmende Anteil von Herzerkrankungen ist das chronische Herzversagen bei Folgezuständen der koronaren Herzerkrankung. Hier mit einer Kombination von organerhaltender Operation und ggf. temporärer oder dauerhafter mechanischer Herzunterstützung zu helfen, ist ist die Herausforderung an die Herzchirurgen der Zukunft. Damit wird MCS in Zukunft wohl vor allem bei den älteren Patienten zur Routinetherapie, vergleichbar der heutigen Situation bei implantierbaren Herzschrittmachern und Defibrillatoren. Der vermehrte Einsatz von VADs und TAHs wirft natürlich eine Reihe von ethischen und gesetzlich-regulativen Fragen auf, auch wirtschaftliche Aspekte müssen diskutiert werden. Das kann jedoch nicht im Rahmen der nachfolgenden, kurz gefassten Zusammenstellung geschehen. Beschrieben werden bewährte MCSS (Mechanical Circulatory Support Systems) mit Betonung auf heute (im Jahr 2010) verfügbare Systeme. Basierend auf den Erfahrungen des »Deutschen Herzzentrum Berlin« (DHZB), der Institution mit dem weltweit größten Systemspektrum und der höchsten Zahl von Patienten mit mittel- und langfristigen MCSS, werden Indikationen und spezielle Begleittherapien vorgestellt (Potapov et al. 2008). Eine detaillierte Beschreibung der Vielzahl von Systemen ist hier nicht möglich, es wird auf die angeführten Internet-Seiten der Hersteller verwiesen, aus denen auch der stetige Fortschritt bei der Verfeinerung der Implantate und beim Entwurf neuer Konzepte hervorgeht und denen die aktuelle Einsatzstatistik zu entnehmen ist.
34.2
Indikationen zum Einsatz von MCSS (BTT, BTR, BTB, Destination DT)
Im Jahr 2009 betrug in Deutschland die Gesamtzahl der Eingriffe am Herzen rund 120.000, in 84 herzchirurgischen Zentren wurden über 65.000 koronarchirurgische Eingriffe (Bypass-Operationen) und knapp 18.000 Herzklappen-Operationen durchgeführt. Der Anteil der Eingriffe am Herzen mit Herz-Lungen-Maschine lag bei etwa 95.000. In einigen Fällen kann der Patient nicht von der Herz-Lungen-Maschine abgenommen werden, als erste Hilfe kommt dann ein MCSS zum Einsatz. Das System wird in der Regel temporär, d. h. für mehrere Tage und Wochen, am Patienten angeschlossen, bis das eigene Herz wieder leistungsfähig genug ist.
609 34.2 · Indikationen zum Einsatz von MCSS (BTT, BTR, BTB, Destination DT)
⊡ Tab. 34.1. Im DHZB implantierte Langzeit-MCSS (01.06.1988–31.05.2010) System
Datum der ersten Implantation
Anzahl der Patienten
Maximale Laufzeit Tage/Jahre
EXCOR Inkl. Kinder
01.06.1988 01.02.1990
705 110
1837/5,0 432/1,2
Novacor*
01.11.1993
113
1965/5,4
HeartMate I*
01.05.1994
23
390/1,1
DeBakey*
13.11.1998
41
518/1,4
LionHeart*
01.09.2000
6
1258/3,4
INCOR
16.06.2002
185
1942/5,2
DuraHeart
27.05.2004
16
1628/4,4
CardioWest
26.11.2004
48
669/1,8
CorAide*
30.11.2005
1
221/0,6
HeartMate II
09.05.2006
103
1105/3,0
Jarvik 2000
08.09.2007
10
643/1,8
VentrAssist*
04.03.2008
3
339/0,9
HeartWare HeartWare BVAD
26.08.2009 25.09.2009
43 13
278/0,8 247/0,7
Erfahrung
31.05.2010
1310
Akkumulierte Zeit: > 580 Patientenjahre
* heute nicht mehr im Programm
Die letzte lebensrettende Option eines schwer herzkranken Patienten besteht in einer Herztransplantation (HTX). In Deutschland werden bei den gegenwärtigen Indikationskriterien jährlich knapp 1000 Spenderherzen benötigt, im Jahr 2009 lag die Anzahl der transplantierten Herzen jedoch unter 350. Die Zahl der betroffenen Patienten steht somit in eklatantem Gegensatz zur Zahl der verfügbaren Spenderherzen. Patienten auf der Warteliste für eine HTX können in ein unmittelbar lebensbedrohendes Herzversagen abgleiten. Als letzte Therapiemöglichkeit kommt dann ein MCSS zum Einsatz. Am Deutschen Herzzentrum Berlin wurden unter der Leitung von R. Hetzer seit 1987 die verschiedensten Systeme mit der Zielsetzung zur Überbrückung der Wartezeit bis zu einer eventuellen Erholung des Herzens (BTR) oder, bei Verfügbarkeit eines entsprechenden Spenderorgans, einer dann möglichen nachfolgenden Transplantation (BTT) eingesetzt. Bei Patienten, die für eine Herztransplantation nicht in Frage kommen oder eine solche nicht wünschen, wurden seit 2000 solche Systeme auch zur dauerhaften Unterstützung, genannt »Destination Therapy« (DT), implantiert. ⊡ Tab. 34.1 zeigt das Spektrum der seit 1988 sukzessive am DHZB verwendeten Systeme mit ihrer Anzahl sowie deren längster Beobachtungsdauer. Bei insgesamt
1310 Patienten (Stand 31.5.2010) wurden 13 verschiedene Systeme eingesetzt mit maximalen Laufzeiten von bisher mehr als fünf Jahren. Damit konnte über eine akkumulierte Zeit von mehr als 580 Patientenjahren die weltweit größte Erfahrung an einer Institution gewonnen werden. Nicht angeführt ist die Zahl der Patienten, bei denen notfallmäßig zur Vermeidung eines akuten kardiogenen Schocks ein »Kurzzeitsystem« eingesetzt wurde, um Zeit für eine endgültige Entscheidung zu gewinnen (Bridge to Decision, BTD). Solche Kurzzeitsysteme umfassen die Intra-Aortale-Ballonpumpe, Katheterturbinen und Varianten der Herz-Lungen-Maschine (ECMO etc.). Da die bisherige Klassifizierung des Herzversagens entsprechend NYHA (New York Heart Association) nicht auf die unterschiedliche Tiefe des kardiogenen Schocks eingeht, hat das US Assist Device Registry INTERMACS eine differenziertere Einteilung erstellt. Die Ebenen sind wie folgt definiert: 1. Kritischer Kardiogener Schock 2. Zunehmende unaufhaltsame Kreislaufverschlechterung 3. Stabil unter inotroper Medikation 4. Rezidivierendes Herz-Kreislauf-Versagen 5. Belastungsintoleranz 6. Belastbarkeit eingeschränkt 7. Rekompensiert nach vorangegangener Herzinsuffizienz
34
610
III
Kapitel 34 · Mechanische Herzunterstützungssysteme (2010)
Die Ebenen 1–4 entsprechen der NYHA-Klasse 4. INTERMACS 5–7 betrachten wir derzeit nicht als Indikation für MCS. Entsprechend den bisherigen Erfahrungen sind bei den Ebenen 1–4 unterschiedliche Systemkonfigurationen angezeigt, um eine erfolgreiche Kreislaufstabilisierung zu erreichen. Der tiefe kardiogene Schock (Ebene 1) bedarf in jedem Fall eines biventrikulären Unterstützungssystems (BVAD) oder eines TAH. Bei primärem Linksherzversagen (Ebene 2, 3, 4) kann die Implantation eines Linksherzunterstützungssystems (LVADs) ausreichen. Bei drohendem Rechtsherzversagen ist auch hier die zumindest temporäre zusätzliche Rechtsherzunterstützung angezeigt, neuerdings auch die Anwendung eines implantierbaren BVADs. Die Gefahr eines Rechtsherzversagens nach LVADImplantation lässt sich heute zuverlässig mit echokardiographischen Kriterien prognostizieren. Mögliche Kontraindikationen sind septische Zustände, Hirnschäden und fortgeschrittene Tumorerkrankungen sowie die erkennbare Unmöglichkeit einer Rehabilitation.
Auch bei Herzversagen nach kardiochirurgischen Eingriffen kann durch effektive Entlastung der meist betroffenen linken Herzkammer mit LVADs zunächst der kritische Zustand beherrscht und eine Herzerholung werden.
34.2.3 Bridge to Bridge (BTB) = Bridge to
Decision (BTD) Wenn im Rahmen eines kardiogenen Schocks die Funktion der Organe, insbesondere die des Gehirns, beeinträchtigt ist und Unklarheit bezüglich deren Erholungsmöglichkeit herrscht, sollte ein für den kurzzeitigen Einsatz konzipiertes MCSS, das in der Regel weniger invasiv anzuschließen und mit geringerem Aufwand verbunden ist, zur Anwendung kommen. Damit wird Zeit gewonnen für eine weitergehende Diagnostik und für eine eventuelle Verbesserung der Situation durch einen dann stabilisierten Kreislauf. Bei Erholung des Organismus kann dann auf ein längerfristig oder auch permanent einsetzbares System übergegangen werden.
34.2.1 Bridge to Transplant (BTT)
Patienten, die für eine Herztransplantation gelistet sind, können bei zunehmend längerer Wartezeit ein nicht beherrschbares Herzversagen entwickeln und benötigen dann ein MCSS, um überhaupt die Möglichkeit zu haben, eine Herztransplantation bekommen zu können. In gleicher Weise können Patienten, die wegen eines sonstigen akuten Herzversagens ein MCSS erhalten haben, wenn sie die Voraussetzungen für eine HTX erfüllen, für diese gelistet werden. Eine durch die Herzinsuffizienz verursachte Beeinträchtigung der Organfunktion des Patienten vor MCSS kann durch Kreislaufstabilisierung häufig behoben werden. Stauungsbedingte Lungenfunktionsstörungen und durch Mangelperfusion hervorgerufene Leber- bzw. Niereninsuffizienz sind dann keine Kontraindikation mehr für eine spätere HTX. Der Allgemeinzustand des Patienten und damit die Ausgangssituation für die dann elektive Herztransplantation werden im hohen Maß verbessert.
34.2.4 Permanente Unterstützung oder
Ersatz der Pumpfunktion des Herzens (Destination Therapy, DT) Ziel war es, Systeme für den dauerhaften Einsatz, sei es zusätzlich zum Herzen oder als Ersatz des Herzens, zu entwickeln. Nach den nun langjährigen Erfahrungen mit »temporären« MCSS und Einsatzzeiten von mehreren Jahren erlauben heute schon einige verfügbare Systeme eine »Destination Therapy«. Patienten, bei denen die bekannten Kontraindikationen eine Herztransplantation nicht erlauben oder die selbst eine solche ablehnen, können lebensverlängernd mit vertretbarer Perspektive mit extrakorporalen oder implantierbaren VADs oder auch mit einem älteren Modell eines TAH versorgt werden. Bei umfassender Nachsorge und regelmäßiger Kontrolle der Systemfunktion, die auch den Ersatz von technischen Verschleißteilen einschließt, sind Funktionszeiten des Systems von mehreren Jahren gefordert und mittlerweile auch realisiert.
34.2.2 Bridge to Recovery (BTR) 34.3
Bei bestimmten Arten der Herzerkrankungen, die zu einer Herzinsuffizienz führen, wie z. B. bei einigen Formen der Myokarditis oder bei einer geringen Anzahl von Patienten mit dilatativer Kardiomyopathie, kann man eine Erholung der Myokardfunktion bei temporärer, Tage, Wochen oder Monate dauernder Herzentlastung durch MCSS erreichen. Das Unterstützungssystem kann dann wieder explantiert werden.
Einteilung der MCSS
34.3.1 Physikalische Pumpprinzipien
und Konzepte Blutpumpen können nach unterschiedlichen hydromechanischen Prinzipien arbeiten, als pulsatile Verdrängerpumpen oder als Rotationspumpen mit axialem oder radialem kontinuierlichem Fluss (Trummer 2007). Die
611 34.4 · Heutige Systeme
Pumpen selbst können außerhalb des Körpers (extrakorporal) oder auch im Körper (intrakorporal) positioniert werden. Alle Systeme sind abhängig von externer Energieversorgung, die bei den implantierten Pumpen über perkutane Kabel erfolgt. Die Energieversorgung durch die unverletzte Haut ist per Induktion über eine externe und eine implantierte Spule möglich. TAHs werden an Stelle des entfernten Herzens implantiert, ihr Antrieb kann sowohl extrakorporal verbleiben als auch eine Einheit mit der Pumpe im Thorax bilden. Entsprechend der angestrebten Therapie können die Systeme für kurzzeitigen (1–30 Tage), mittelfristigen (bis 6 Monate) oder langfristigen (5 und mehr Jahre) Einsatz ausgelegt sein. Ziel ist es bei Langzeitsystemen, alle benötigten Komponenten des Systems wie Pumpkammer, Aktivator (Antrieb), Energieübertragung und Energiespeicher, Steuer- und Überwachungseinheit und, soweit benötigt, Volumenausgleichskammer im Körper unterzubringen. Dieses Ziel ist bei den heute verfügbaren Systemen noch nicht realisiert.
34.3.2 Pulsatile Systeme
Ähnlich wie Kolbenpumpen können Blutpumpen mit elastischen Blutkammern als Verdrängerpumpen gestaltet werden, aktiviert durch pneumatische, hydraulische oder mechanische Kompressionsvorrichtungen, die in der Regel durch Elektromotoren angetrieben werden. Nachteil bei diesem Konzept ist, dass ein Volumenausgleich für das jeweils bewegte Blutvolumen erfolgen muss, entweder durch eine Verbindung zur freien Atmosphäre (Vented System) oder zu einer im Körper implantierbaren Volumenausgleichskammer. Diese Pumpen können einen dem natürlichen Blutfluss ähnlichen Fluss erzeugen, mit Perioden des Stillstands (Füllung, Diastole) und des Auswurfs (Entleerung, Systole). Pulsatile Pumpen benötigen Ventile, ähnlich den Herzklappen, um einen gerichteten Blutstrom erzeugen zu können. Ihre zahlreichen belasteten Bauteile sind problematisch bezüglich der Dauerfestigkeit des Systems.
34.3.3 Nichtpulsatile Systeme –
Rotationsblutpumpen Die ersten klinisch eingesetzten Rotationsblutpumpen waren kleine Axialturbinen, die an der Spitze von Kathetern über lange biegsame Wellen von externen Elektromotoren angetrieben wurden. Über einen Zugang in der Femoralarterie wurden sie unmittelbar über die Aortenklappe in der linken Herzkammer positioniert. Sie saugten Blut aus dem Ventrikel und förderten es in die aszendierende Aorta. Dieses System ist heute Historie
(Wampler et al. 1988), das Prinzip der intravasalen Rotationsblutpumpe wurde jedoch weiterentwickelt ( Abschn. »Abiomed Impella®«). Rotationsblutpumpen erzeugen einen kontinuierlichen Fluss und benötigen keine Ventile. Sie sind kleiner als Verdrängerpumpen, lassen sich also einfacher implantieren, benötigen keinen Volumenausgleich und haben meist nur ein bewegtes Bauteil, den Rotor, mit geringer mechanischer Belastung. Damit ist ihre Langzeitbetriebssicherheit erheblich höher als die pulsatiler Pumpen. Bei berührungsfreier Lagerung des Rotors durch Magnetlager oder die Kombination von hydrodynamisch-magnetischer Lagerung entsteht kein Abrieb, die Lebensdauer ist demzufolge theoretisch unbegrenzt. Man unterscheidet zwischen axialen und radialen Pumpen, entsprechend der Flussrichtung des Blutes am Rotor. Das unterschiedliche hydrodynamische Design bedingt den Drehzahlbereich, die Möglichkeiten der Lagerung und die mögliche Anschlussorientierung (180° bei axialen, 90° bei radialen Pumpen) sowie die Charakteristik der Pumpenkennlinie. Der Elektromotor zum Betrieb der Pumpe ist integriert. Üblicherweise ist der Rotor direkt als Impeller ausgeführt, der die notwendige Impulsänderung an das Blut weitergibt und Flüsse von bis zu 10 l/min bei normalem arteriellem Gegendruck ermöglicht. Das von einem im Stator, d. h. einem im Pumpengehäuse untergebrachten Spulensatz, erzeugte Drehfeld ermöglicht – je nach Konstruktion – Drehzahlen von bis zu mehr als 10000 Umdrehungen pro Minute. Die anfänglichen Bedenken über die möglichen negativen Auswirkung einer »kontinuierlichen«, nicht normal pulsatilen Perfusion auf die Funktion der Organe konnten durch klinische Erfahrungen mit tausenden Implantationen derartiger Systeme und Einsatzzeiten bis zu mehreren Jahren mittlerweile ausgeräumt werden.
34.4
Heutige Systeme
Die in 2010 für die klinische Anwendung in Europa und den USA zugelassenen MCSS sind in ⊡ Tab. 34.2 zusammengefasst. Einige in den vergangenen Jahren klinisch bewährte Systeme wurden von den Herstellern aus wirtschaftlichen oder funktionellen Gründen vom Markt genommen und fehlen deshalb in dieser Liste (LionHeart Fa. Arrow, CorAide Fa. Arrow, VentrAssist Fa. Ventracor). Die technische Konstruktion, die strömungsdynamische Funktion und die Komposition der verwendeten Materialien bei den unterschiedlichen elektropneumatisch, elektromechanisch, elektromagnetisch und elektrohydraulisch aktivierten Systemen sind so komplex, dass eine detaillierte Beschreibung den hier vorgegebenen Rahmen sprengen würde (Courtney et al. 2005).
34
612
Kapitel 34 · Mechanische Herzunterstützungssysteme (2010)
⊡ Tab. 34.2. In Europa und den USA zugelassene MCSS-Systeme (2010) (AbioCorTM nur Studienzulassung in USA)
können die Systeme gegen ein längerfristig einsetzbares System ausgetauscht werden. Bisher sind extrakorporale Systeme die Wahl bei biventrikulärem Herzversagen.
Extrakorporal
Abiomed BVS 5000® VAD
Kurzzeiteinsatz
III
pulsatil
nichtpulsatil
Abiomed AB 5000®
CardiacAssist, TandemHeart® PTVA™
Abiomed BVS 5000®
Levitronix® CentriMag Abiomed Impella®
Langzeiteinsatz pulsatil
nichtpulsatil
Thoratec® PVAD Berlin Heart EXCOR® Berlin Heart EXCOR® Pediatric
Das BVS 5000 der Firma Abiomed (www.abiomed.com) ist eine pneumatisch angetriebene pulsatile Pumpe, die – stationär eingesetzt – in der Intensivnachsorge die linke, die rechte oder beide Herzkammern unterstützen kann. Sie ist seit 1993 auf dem Markt und wurde in mehr als 6000 Fällen eingesetzt. Primär wird sie für BTR-Therapie angewandt. Die Einsatzfrequenz dieses 17 Jahre alten Systems hat in den letzter Zeit stark abgenommen, da die Wirksamkeit durch Zuflussprobleme aufgrund der notwendigen langen Schlauchleitung begrenzt ist und neuere Systeme konkurrieren, die bessere hämodynamische Eigenschaften haben.
Abiomed AB 5000® VAD
MEDOS-VAD Intrakorporal Langzeiteinsatz pulsatil
nichtpulsatil
Novacor® LVAS
HeartAssist 5™ (früher MicroMed DeBakey VAD®)
Thoratec P-IVAD
Berlin Heart INCOR®
HeartMate® XVE
Thoratec HeartMate® II LVAS
CardioWest™ temp. Total Artificial Heart (TAHt)
DuraHeart®
AbioCor™ Implantable Replacement Heart
Jarvik 2000
HeartWare HVAD™
Für weitergehende Informationen muss deshalb hier nochmals auf die Internet-Seiten der Hersteller verwiesen werden, die bei den Systembeschreibungen angeführt sind. An dieser Stelle werden nur die Funktionsprinzipien zusammengefasst.
34.4.1 Pulsatile Systeme
Extrakorporale pulsatile MCSS für Kurzzeiteinsatz Diese relativ billigen und einfach anzuschließenden Systeme werden eingesetzt, wenn eine oder beide Herzkammern akut versagen, der Patient in den kardiogenen Schock fällt und Aussicht auf eine Erholung bei Herzentlastung besteht. Sollte sich der Zustand nicht verbessern,
Das AB 5000 ist eine kleinere, pneumatisch angetriebene Membranpumpe. Sie kann uni- oder biventrikulär eingesetzt werden. Ein jetzt neu entwickelter mobiler Antrieb erleichtert den Patiententransport und ermöglicht auch in Grenzen eine gewisse Mobilität. Bei 80 ml Kammervolumen kann sie ebenfalls 6 l/min pumpen. Die Einsatzzeit ist begrenzt auf 30 Tage.
Extrakorporale pulsatile MCSS für Langzeiteinsatz Berlin Heart EXCOR® VAD System EXCOR® ist ein pneumatisches extrakorporales System der Firma Berlin Heart GmbH (www.Berlinheart.de). Es bietet mit einer großen Auswahl von Pumpen mit Schlagvolumen von 10 ml bis 80 ml, mit einer Vielzahl von Form- und Größenvariationen der apikalen, atrialen und arteriellen Kanülen sowie stationären und kleinen mobilen elektropneumatischen Antrieben eine einmalige Anpassungsmöglichkeit an die jeweiligen Patienten von Neugeborenen über Kleinkinder bis hin zu Erwachsenen. Die Blutpumpe besteht aus einem transparenten Polyurethangehäuse, dessen Innenraum durch eine dreischichtige hochflexible Membran in eine Blut- und eine Luftkammer geteilt ist. Die Membran der Blutseite geht nahtlos in das Gehäuse über und bietet so keine Ansatzstellen für Blutgerinnsel. Alle Blutkontaktflächen sind heparinbeschichtet (CARMEDA® coating). Die Anschlusskonnektoren aus poliertem Titan fixieren die Sorin-Kippscheibenklappen, die Luftkammer ist mit einem Delrinkonnektor für den PVC-Luftantriebsschlauch versehen. Bei den EXCOR Pediatric® Pumpen werden Taschenklappen aus Polyurethan verwendet, da ihre dynamischen Eigenschaften besser den kleinen Schlagvolumina entsprechen.
613 34.4 · Heutige Systeme
⊡ Abb. 34.1. Kanülierungsschema Berlin Heart EXCOR – LVAD bzw. BVAD (links: apikal-aortal, rechts: atrial-pulmonalarteriell)
Die Pumpe kann sowohl uni- als auch biventrikulär angeschlossen werden (⊡ Abb. 34.1). Silikonkanülen für den Anschluss am Apex des linken Ventrikels oder am linken Vorhof leiten das Blut aus dem Herzen zur Pumpe, über eine arterielle Silikonkanüle wird es zurück in die aszendierende Aorta gepumpt. Der stationäre IKUS-Antrieb wird sowohl für große Blutpumpen (50–80 ml Schlagvolumen) als auch für das Kindersystem EXCOR Pediatric® (10–30 ml Schlagvolumen) verwendet. Bei biventrikulärem Betrieb können die Pumpen separat angesteuert werden, Gleichtakt- oder Gegentaktpulsation ist wählbar, die Frequenzen können unabhängig gesteuert werden. Für Blutpumpen ab 50 ml kann der kleine Antrieb »EXCOR® Mobil« eingesetzt werden, der dem Patienten volle Bewegungsfreiheit ermöglicht, ohne Abhängigkeit von einer externen Stromversorgung. ⊡ Abb. 34.2 ( 4-Farbteil am Buchende) zeigt eine Übersicht der Komponenten des Berlin Heart EXCOR-Systems.
Thoratec® PVAD Die Pumpe des Paracorporeal Ventricular Assist Device (PVAD/Thoratec Corp., www.thoratec.com) besteht aus einem starren Kunststoffgehäuse, in dem durch Luftpulse ein flexibler Blutsack aus Polyurethan mit Blut gefüllt und entleert wird. Zwei Kippscheiben-Herzklappen aus Delrin sorgen für den gerichteten Blutfluss. Bei einem Schlagvolumen von 65 ml wird ein Fluss von 7 l/min erreicht. Polyurethankanülen für den Anschluss am Apex des linken Ventrikels oder dem linken Vorhof leiten das Blut zur Pumpe, über eine arterielle Gefäßprothese wird es zurück in die aszendierende Aorta gepumpt. Für die Unterstützung des rechten Ventrikels werden der rechte Vorhof und die Pulmonalarterie kanüliert. Anstatt des großen stationären Antriebs kann bei mobilen Patienten eine miniaturisierte Einheit angeschlossen werden, die die spätere Entlassung des Patienten erlaubt.
Medos® VAD Ähnlich dem EXCOR® ist das MEDOS-SYSTEM (www. medos-ag.com) ein VAD für pulsatile Herzunterstützung bei Kindern und Erwachsenen. Die Pumpen sind in unterschiedlichen Größen verfügbar und, wie bei allen anderen Systemen, für Einmalgebrauch zugelassen. Angetrieben wird es ebenfalls durch elektropneumatische Einheiten mit Batterie- oder Netzversorgung.
Implantierbare pulsatile MCSS für Langzeiteinsatz Implantierbare Langzeit-MCSS sind für BTR und BTT konzipiert, werden aber mit den heutigen Erfahrungen in Ausnahmefällen auch für DT-Therapie gewählt.
Thoratec® P-IVAD Das Thoratec PVAD wurde modifiziert zu einer implantierbaren Version. Die vorher beschriebenen extrakorporalen PVAD-Pumpen wurden in einem Titangehäuse eingekapselt. Damit können sie jetzt im Körper positioniert werden. So reduzieren sich die Längen der blutführenden Kanülen, die Zahl der die Körperoberfläche verletzenden Hautdurchleitungen wird halbiert, da für jede Pumpe nur der dünnere Antriebsschlauch eingeleitet werden muss. Das Infektionsrisiko an diesen Stellen nimmt ab. P-IVAD kann wie vorher PVAD als LVAD, RVAD oder BVAD eingesetzt werden (⊡ Abb. 34.3).
Thoratec HeartMate® XVE Das HeartMate XVE ist eine elektromotorisch angetriebene LVAD-Verdrängerpumpe. Eine elastische Polyurethan(PU)-Membran, die in einem Titangehäuse durch eine runde Druckplatte mit einem Kammgetriebe und Elektromotor in ihrer Längsachsenrichtung hin- und herbewegt wird, entleert die starre Blutkammer. Die Füllung erfolgt passiv durch den Druck des einströmenden Blutes. Zwei Bio-Herzklappenprothesen sorgen für den unidi-
34
614
Kapitel 34 · Mechanische Herzunterstützungssysteme (2010)
III
⊡ Abb. 34.3. Kanülierungsschema Thoratec, implantierbare pneumatische Pumpe P-IVAD, BVAD bzw. LVAD
⊡ Abb. 34.5. WorldHeart Novacor LVAS mit externen Komponenten
WorldHeart Novacor® LVAS
⊡ Abb. 34.4. Thoratec HeartMate® XVE mit externen Komponenten
rektionalen Blutfluss. Zum Betrieb der Pumpe wird eine externe Steuereinheit benötigt, die über ein perkutanes Kabel den in der implantierten Pumpe arbeitenden Elektromotor mit Energie versorgt. Entsprechend dem bei jedem Puls verschobenen Blutvolumen muss ein Luftausgleich erfolgen. Hierzu ist eine nach außen führende Schlauchverbindung vom Pumpeninnenraum der Antriebskammer entlang des Stromkabels vorgesehen (Vent) (Frazier et al. 2001). Die Pumpe wird präperitoneal unter die eröffnete Rektusscheide oder auch intraperitoneal implantiert (⊡ Abb. 34.4). 2003 wurde aufgrund der guten klinischen Langzeitergebnisse das System von der FDA in den USA als erstes LVAD für DT zugelassen.
WorldHeart Novacor® LVAS (www.worldheart.com) ist ein implantierbares elektromagnetisch angetriebenes LVAD (Portner et al. 2001). Ein innen hochglatter Polyurethan-Blutsack wird symmetrisch durch zwei Druckplatten (Pusher Plates) zusammengedrückt: zur Entleerung über die aortale Kanüle und dann, wieder freigegeben, zur passiven Füllung über die apikale Kanüle. Die Pumpe ist präperitoneal in die Rektusscheide implantiert und ebenso wie das HeartMate® XVE über ein perkutanes Kabel mit integriertem Entlüftungsschlauch mit den externen Komponenten verbunden (⊡ Abb. 34.5). Das System kann sich entsprechend der verbliebenen Herzfunktion mit der Pumpfrequenz automatisch an die Herzfrequenz und damit an die Kreislaufanforderungen anpassen.
Implantierbare pulsatile TAH für temporären oder Langzeiteinsatz Eine Sonderstellung der heute klinisch eingesetzten implanierbaren Systeme nehmen TAHs ein, also künstliche Ventrikel zum orthotopen Ersatz des Herzens. Zu ihrer Implantation wird wie bei einer Transplantation das natürliche Herz entfernt, dann werden an seiner Stelle zwei getrennte Pumpen oder eine zweikammerige mechani-
615 34.4 · Heutige Systeme
im Körper untergebracht. Damit verringert sich die Infektionsgefahr durch die sonst nötigen Wunden der Hautdurchleitungen für Kabel und Entlüftungsschläuche. Die Sicherheitsanforderungen für die einzelnen hochtechnologischen und empfindlichen Komponenten sind für dieses lebenserhaltende System hoch. Nach einer limitierten Serie der klinischen Studie ab 2001 mit fraglichen Ergebnissen wurde 2009 der erste kommerzielle Einsatz gewagt, der Patient verstarb nach einem Monat. Seither wurden keine weiteren Implantationen publiziert (⊡ Abb. 34.7).
34.4.2 Nichtpulsatile Systeme (Axiale und
zentrifugale Rotationsblutpumpen) Extrakorporale Systeme zum Kurzzeit-Einsatz Cardiac Assist TandemHeart® pVAD™ ⊡ Abb. 34.7. Abiomed AbioCor, vollständig implantierbares TAH mit TET
sche Blutpumpe an den Vorhöfen (linkes und rechtes Atrium) und großen Gefäßen (Aorta, Pulmonalarterie) angeschlossen.
SynCardia Systems, Inc. CardioWest™ temporary Total Artificial Heart (TAH-t) Dieses pneumatisch angetriebene TAH ist eine Weiterentwicklung des JARVIK 7 TAH, das 1982 erstmals klinisch eingesetzt wurde. Weltweit ist dieses Kunstherz als einziges für die temporäre Implantation mit dem Ziel einer nachfolgenden Transplantation (BTT) von der FDA zugelassen und CE zertifiziert. Die pneumatisch von einem extrakorporalen Antrieb aktivierten Mehrmembran-Verdrängerpumpen ähneln im Aufbau dem EXCOR-Design und können bis 9,5 l/ min gegen normale Kreislaufdrucke fördern (⊡ Abb. 34.6; 4-Farbteil am Buchende). Neu entwickelt wurde das elektropneumatische Antriebssystem. Eine verkleinerte mobile Einheit (»Freedom«) löst das bisher verwendete mobile Antriebssystem EXCOR TAH-t ab. Leider sind die Pumpen so voluminös, dass sie nur in den Thorax relativ großer Personen passen. Eine kleinere Version wird derzeit entwickelt und tierexperimentell untersucht.
Abiomed, AbioCor™ implantable replacement heart Das elektrohydraulisch angetriebene Abiocor TAH ist weltweit das erste vollständig implantierbare TAH (Dowling et al. 2003). Alle Komponenten wie Pumpkammern, Antriebe, Volumenausgleich, Steuereinheit, Energiespeicher und transkutane Energietransmission (TETs) sind
Das TandemHeart pVAD (CardiacAssist, Inc.; Pittsburgh, PA) ist ein perkutanes LVAD mit kontinuierlichem Fluss für temporäre Ventrikelunterstützung. Es wird bei Patienten im kardiogenen Schock als BTD eingesetzt. Komponenten sind eine kleine Blutpumpe, über magnetische Kopplung von einem Elektromotor angetrieben, der Rotor ist hydrodynamisch gelagert. Über eine transseptale venöse Kanüle wird Blut aus dem linken Vorhof entnommen und mit dem arteriellem Katheter zurückgeführt (⊡ Abb. 34.8). Der hydrodynamisch gelagerte Rotor dreht mit 3000– 7500 U/min und kann einen kontinuierlichen Fluss von bis zu 4.0 l/min liefern.
Levitronix® CentriMag® Das Levitronix CentriMag (Levitronix LLC; Waltham, Mass., www.levitronix.net) ist ein VAD mit magnetisch gelagertem Impeller, der ähnlich wie beim TandemHeart über magnetische Kopplung angetrieben wird. Es kann direkt an die Kanülierung der Herz-LungenMaschine angeschlossen werden, ist bei entsprechender Anschlusstechnik verwendbar als LVAD, RVAD, BVAD oder in einem Set zur extrakorporalen Membranoxygenierung. Bei 5500 U/min kann ein Fluss bis zu 9,0 l/min erreicht werden, abhängig von der Art der Kanülierung. Das System wird häufig genutzt als temporäres RVAD beim Einsatz eines implantierbaren LVAD oder speziell als BTB (BTD).
Abiomed Impella® Die Impella® Katheter-Pumpen können das Herz mit einem Fluss von bis zu 5,5 l/min unterstützen. Die Pumpen können minimal-invasiv nach einer Gefäßfreilegung über Katheter oder nach Thorakotomie, z. B. bei einer Herzoperation, direkt angeschlossen werden. Mit der Impella® mobilen Konsole können die Patienten im
34
616
Kapitel 34 · Mechanische Herzunterstützungssysteme (2010)
Implantierbare Langzeitunterstützungssysteme mit axialem Fluss
III
⊡ Abb. 34.8. CardiacAssist PTVA (TandemHeart), Kanülierung der extrakorporalen Pumpe
Krankenhaus verlegt oder auch in andere Kliniken transportiert werden. Die für den Einsatz primär durch Kardiologen entwickelten Systeme LP2.5 tragen an der Spitze eines Katheters elektrisch betriebene Mikroaxialpumpen mit einer »pigtail«-Verlängerung und werden, über die Femoralarterie eingeführt, via Aortenklappe im Herzen platziert. Von dort entnehmen sie das Blut und pumpen es in die Aorta. Mit 2,5 l/min stabilisieren sie die Herzfunktion für bis zu zwei Tage. Die größere Version LP5.0 liefert einen Fluss bis zu 5,5 l/min für bis zu fünf Tage. Die Modifikation LD (Left Direct) wird herzchirurgisch implantiert, entlastet den linken Ventrikel mit max. 5 l/min, die direkt mittels einer Gefäßprothese in die Aorta gepumpt werden (linker Ventrikel und Pumpe in Reihe). Die Pumpe wiegt nur 17 g. Ähnlich arbeitet RD (Right Direkt): Zur Unterstützung des rechten Ventrikels wird hier das Blut aus dem rechten Vorhof in die Pulmonalarterie gefördert (rechter Ventrikel und Pumpe parallel). Beide Systeme können für bis zu zehn Tage angeschlossen werden.
Heute klinisch verfügbare axiale Pumpen unterschiedlicher Hersteller haben eine ähnliche Systemkonfiguration. Die Pumpe wird im Brustkorb implantiert, außerhalb des Körpers verbleiben die elektronische Steuereinheit, die Energieversorgung für stationären und mobilen Betrieb, ein Ladegerät für Batterien und ein Monitor für die Einstellung der Betriebsparameter (Drehzahl, Alarmgrenzen) sowie die Funktionsüberwachung. Ein perkutanes flexibles Kabel verbindet die Pumpe mit den mobilen externen Komponenten, eine Hautdurchleitung fixiert es im Gewebe und schützt die Wunde vor Infektionen. Die Pumpen sind kleine Elektromotoren, deren Wicklung hermetisch gegen den Rotor (Impeller) in einem blutführenden Rohr gekapselt ist. Bei Systemen mit mechanischer Lagerung des Impellers dienen Ein- und Auslassleiträder im Rohr als Lagerträger. Im Rotor befinden sich ein oder mehrere kleine Permanentmagnete, damit kann er durch das rotierende elektromagnetische Feld der Spule in Drehung versetzt werden. Er ist das einzige bewegte Teil des Systems, wodurch dieses sehr funktionssicher und langzeitstabil konstruiert werden kann. Deutlich unterschiedlich bei den einzelnen Systemen sind jedoch: ▬ die strömungstechnische Formgebung des Rotors, ▬ die Lagerung des Rotors, ▬ die Betriebskennfelder Drehzahl-Fluss-Differenzdruck, ▬ die Sensorik in der Pumpe für die Mess- und Steuerungstechnik, ▬ dadurch bedingt die Auslegung des perkutanen Antriebskabels, ▬ die Dokumentation der Betriebsparameter und ihre Auswertung, ▬ das Finish der blutkontaktierenden Titanoberflächen, ▬ das anatomische Design und die Verbindungselemente mit Herz und großen Gefäßen.
MicroMed Technology HeartAssist 5™, früher DeBakey VAD® Das HeartAssist 5™, früher MicroMed (www.micromedtech.com) DeBakey VAD®, ist eine kleine, elektrisch angetriebene implantierbare Turbine, die bei Patienten mit terminalem Herzversagen bis zu 10 l/min bei 12.000 U/min aus dem linken Ventrikel in die aszendierende Aorta pumpen kann. Der Rotor ist beidseitig in KeramikLagern gehalten. Nur bei diesem Rotary-LVAD wird der Fluss hier mit einem Transsonic-Ultraschall-Aufnehmer direkt gemessen, was eine zuverlässige Systemüberwachung erlaubt. Ein aufwändiges Dokumentations- und Auswertungssystem erlaubt die Früherkennung von sich abzeichnenden Fehlfunktionen sowie deren spätere genaue Analyse.
617 34.4 · Heutige Systeme
Thoratec HeartMate® II LVAS Das HeartMate II ist ähnlich aufgebaut, jedoch mit anderer Kanülierungstechnik für den Apex des linken Ventrikels. Im Gegensatz zur beim MicroMed starren, gebogenen Einlasskanüle ist der HM II Apex-Konnektor flexibel über eine Gefäßprothese mit dem Pumpeneinlass verbunden. Das hat sich als vorteilhaft sowohl bei der Positionierung der Pumpe als auch beim Einwachsen des im Myokard liegenden Konnektors erwiesen (⊡ Abb. 34.9; 4-Farbteil am Buchende). Das System ist etwas größer als das HeartAssist 5, bei der Implantation muss deshalb für den Pumpenkörper eine Tasche unter der Bauchdecke präpariert werden. Der Rotor wird von zwei Edelsteinlagern gehalten. Die Förderleistung bei 8000–15.000 U/min kann bis zu 10 l/min betragen.
Berlin Heart INCOR® Die Besonderheit des Berlin Heart INCOR® LVAD ist die berührungsfreie Lagerung der Turbine. Eine Kombination aus Permanentmagneten in den Statoren und dem Rotor sowie Elektromagnete und Positionssensoren in den Statoren ermöglichen eine aktive Positionsregelung des Rotors. Die Lagerung ist damit verschleißfrei. Die Positionssensorik erlaubt die Errechnung vieler Betriebsparameter, u. a. der entsprechend der verbliebenen Herzaktivität pulsierenden Differenzdrucke (vor und hinter dem Rotor), des pulsierenden Momentanflusses und des Füllungszustandes der Herzens. So werden indirekt wertvolle Erkenntnisse über den Kreislaufzustand des Patienten gewonnen, die zur Therapiesteuerung beitragen können. Mögliche Fehlfunktionen wie Zuflussbehinderungen oder die Bildung thrombotischer Ablagerungen in der Pumpe können früh erkannt und entsprechende Gegenmaßnahmen eingeleitet werden. Alle Blutkontaktflächen der Pumpe sind heparinbeschichtet (CARMEDA®coating-Verfahren) (⊡ Abb. 34.10).
⊡ Abb. 34.10. Implantationsschema Berlin Heart INCOR® mit externen Komponenten
Jarvik Heart, Inc. Jarvik2000 FlowMaker® Dieses LVAD (www.jarvikheart.com) unterscheidet sich erheblich von den bisher beschriebenen Systemen bezüglich Positionierung, technischen Aufbaus und elektronischen Konzepts sowie der Leistung. Die Pumpe wurde bewusst nur als Unterstützung für einen insuffizienten, aber noch funktionellen linken Ventrikel ausgelegt. Durch Reduktion der Leistungsanforderungen konnte das Design erheblich vereinfacht werden. Der Pumpenkörper ist gleichzeitig der apikale Konnektor, die Pumpe wird intrakardial implantiert. Der Rotor wird von mechanischen Lagern getragen, ähnlich wie bei der DeBakey-Pumpe. Auf ein Monitoring und ein elektronisches komplexes Regelsystem wurde vollständig verzichtet. Die Pumpe wird über eine linkslaterale Thorakotomie direkt in der linken Herzspitze implantiert und durch eine Nahtmanschette fixiert. Über eine Gefäßprothese wird das Blut in die Aorta descendens gepumpt (⊡ Abb. 34.11).
⊡ Abb. 34.11. JarvikHeart 2000, Schema der intracardialen Implantation, Energiezufuhr über postaurikularen Stecker
Eine Besonderheit ist die Hautdurchleitung für das Antriebskabel. Eine Titansteckdose, wie sie sich langjährig als infektionsfreie Energieübertragung für kochleare Implantate bewährt hat, wird an der Schädeldecke verschraubt
34
618
Kapitel 34 · Mechanische Herzunterstützungssysteme (2010)
und mit dem subkutan von der Pumpe bis hinter das linke Ohr verlegten Antriebskabelbündel verbunden. Die externen Komponenten können dann mit einem entsprechenden Stecker angeschlossen werden. Die Patienten können duschen, selbst bei minimalem Pflegeaufwand bleibt die Hautdurchleitung infektfrei (Siegenthaler et al. 2006).
III
Implantierbare Langzeitunterstützungssysteme mit radialem Fluss Terumo DuraHeart® Left Ventricular Assist System (LVAS) Das DuraHeart (www.terumo-europe.com) ist eine implantierbare Zentrifugalpumpe aus Titan. Drei von einander hermetisch getrennte Kammern enthalten jeweils den Elektromotor, den mit ihm magnetisch gekoppelten Rotor mit den integrierten Permanentmagneten und ein geregeltes Elektromagnetsystem zu seiner berührungslosen magnetischen Lagerung. Bei Ausfall der Magnetlagerung bleiben hydrodynamische Notlaufeigenschaften erhalten, die jedoch nur für eine zeitlich begrenzte Dauer validiert sind. Wie alle Rotationsblutpumpen fördert das DuraHeart-System von einer im linken Apex implantierten Kanüle das Blut über eine Gefäßprothese in die Aorta. Die aufwändige Technik der magnetischen Lagerung macht die Pumpe voluminös (⊡ Abb. 34.12). Sie muss deshalb im Bauchraum implantiert werden.
Jede Gehäusehälfte hat einen separat angeschlossenen Statorspulensatz, der Motor ist damit redundant. Große Motorpermanentmagnete können in den breiten Schaufeln des Impellers untergebracht werden. Eine kombiniert passiv magnetische und hydrodynamische Lagerung ohne aufwändige Elektronik erhöht die Funktionssicherheit, erfordert aber höchste Herstellungspräzision. Blutkontaktmaterialien sind Titan, eine Titan-NitritBeschichtung von Rotor und Achskegel und Zirkonium-Keramik. Der Fluss wird aus der Stromaufnahme, der Drehzahl, der Blutviskosität und mit Hilfe von empirisch gewonnenen »Strom-Fluss«-Charakteristiken errechnet. Die variable Stromaufnahme und die Kurvenform des berechneten Flusses, dargestellt auf einem mobilen Monitor, erlauben eine Beurteilung des Betriebszustandes und der Füllung bzw. der Aktivität des unterstützten Herzens. Bei der Implantation wird ein Nahtring am Apex fixiert. Die Pumpe wird mit dem Zuflussstutzen dort eingeführt und liegt damit direkt am Herz, sie findet Platz im Herzbeutel (⊡ Abb. 34.13). Die Auslassgefäßprothese kann an der Aorta ascendens oder der Aorta descendens angeschlossen werden.
HeartWare HVADTM System Das HeartWare (www.heartware.com) HVADTM LVAD ist das kleinste derzeit verfügbare Linksherzunterstützungssystem, das in der Lage ist, die gesamte Pumpleistung des linken Ventrikels bei normalen physiologischen Drücken zu übernehmen. Die Pumpe hat drei Hauptkomponenten: ▬ vorderes Gehäuse mit Einlasskanüle, ▬ hinteres Gehäuse mit zentralem Achskegel, ▬ Impeller mit breiten Schaufeln.
⊡ Abb. 34.12. TerumoHeart DuraHeart LVAS, Blutpumpe mit starrer apikaler Zuflusskanüle
⊡ Abb. 34.13. HeartWare HVAD, Schema der direkten apikalen Kanülierung
619 34.4 · Heutige Systeme
34.4.3 MCS-Systeme für Neugeborene und
Kleinkinder Die anfänglich klinisch verfügbaren MCSS waren nach Leistung und anatomischer Anpassung entsprechend den Anforderungen bei Erwachsenen ausgelegt. Bald ergab sich jedoch die Notwendigkeit, MCS-Systeme zu entwickeln, die für kleine Patienten mit einem Körpergewicht von 1 bis 30 kg und für Flussraten von 1000 bis 4000 ml/ min angepasst sind. Die Anschlüsse an das Kreislaufsystem mussten miniaturisiert werden, für pulsatile Pumpen wurden neuartige Ventile benötigt.
EXCOR Pediatric®, ein extrakorporales pneumatisches System, wurde als erstes Kindersystem für BTT mit einer 50 ml Pumpe 1990 eingesetzt (DHZB), 1992 wurde am DHZB ein Säuglingssystem mit 10 ml Pumpe erstmals implantiert. Heute steht eine Variation von Pumpen (10, 25, 30, 50 ml) mit entsprechen verkleinerten Kanülen zur Verfügung. Das System ist auch für Kliniken in den USA zugelassen. Auch die Firma MEDOS bietet heute ein CE-zertifiziertes Kinder-Assist-System an. In den USA begann 2006 ein vom NHLBI (National Heart, Lung, and Blood Institute) gefördertes Entwicklungsprogramm MCSS für Patienten mit 2–25 kg Körpergewicht. Fünf Projekte wurden bewilligt, eine miniaturisierte implantierbare Zentrifugalpumpe (»PediaFlow VAD«, ⊡ Abb. 34.14), eine intravasal oder extravasal positionierbare Axialturbine (»PediPump«, ⊡ Abb. 34.15), eine verkleinerte Jarvik2000-Version (»Pediatric Jarvik 2000 FlowMaker«) und modifizierte pneumatische pVADs der Firma Thoratec. Auch ein kompaktes Herz-Lungen-Unterstützungssystem (»pCAS«) ist im Programm. Keines dieser Systeme hat 2010 die Klinikreife erreicht.
34.4.4 Zusammenfassung
⊡ Abb. 34.14. PediaFlowTM VAD – Zentrifugalpumpe. University of Pittsburgh, Children’s Hospital of Piitsburgh; Carnegie Mellon University; World Heart Corporation and LaunchPoint Technologies, Inc
⊡ Abb. 34.15. PediPump®-Axialblutpumpe, extravasale und intravasale Version. Cleveland Clinic, Foster-Miller Technologies
Waren es zunächst in den 80er Jahren pulsatile pneumatische extrakorporale Systeme, gefolgt von elektromechanischen pulsatilen implantierbaren VADs der ersten Generation, so beherrschen heute die nichtpulsatilen implantierbaren Systeme der zweiten und dritten Generation den Markt für mechanische Herzunterstützung (⊡ Tab. 34.3). Die »Kinderkrankheiten« der neuen Technologie wurden schnell überwunden, neue Konzepte und weitere Miniaturisierungen bei verbesserter Zuverlässigkeit und Bioverträglichkeit setzten sich durch. Bald wurden Rotationspumpen bevorzugt implantiert, der klinische Erfolg regte die Hersteller zu immer neueren Konzepten an. Der maßstäbliche Vergleich der Systeme gibt hier eine Übersicht für 2010 (⊡ Abb. 34.16; 4-Farbteil am Buchende). Die Einsatzzahlen der pulsatilen Verdrängerpumpen gingen zugunsten der Systeme mit kontinuierlichem Fluss rapide zurück. Beispielhaft sei hier die Einsatzstatistik des DHZB angeführt. Seit 1998 hat sich das Verhältnis der pulsatilen extra- und intrakorporalen Systeme nahezu linear von 100% auf 3% reduziert, bei einer Verdoppelung der jährlichen Gesamt-Einsatzzahlen. Nur bei der Indikation BVAD waren pulsatile extrakorporale Systeme und das temporäre TAH bis vor kurzem nahezu konkurrenzlos. Dass sich auch bestimmte Rotationspumpen mit kontinuierlichem Fluss als BVAD implantieren lassen, haben erfolgreiche erste Einsätze im DHZB gezeigt (Hetzer et al. 2010). Eine Labor-Studie, finanziert durch die »Friede Springer Stiftung«, hat hier im September 2009 erste klinische Einsätze der HVADs als BVADs ermöglicht.
34
620
Kapitel 34 · Mechanische Herzunterstützungssysteme (2010)
⊡ Tab. 34.3. Generationen der 2010 klinisch eingesetzten MCSS. Erste Implantationen: 1984 Novacor N100, 1991 HeartMate I XVE, 1998 DeBakey-VAD (jetzt: HeartAssist 5), 2002 INCOR Hersteller/Systemname Erste Generation
Gewicht
600 cc 700 cc
1200 g 1800 g
25 cc 38 cc 63 cc
90 g 115 g 180 g
150 cc 60 cc
420 g 200 g
Verdrängerpumpen Thoratec HeartMate I WorldHeart Novacor
III
Volumen
Zweite Generation: Mechanische Rotorlager
Rotationspumpen (Axial)
Dritte Generation: Berührungsfreie Rotorlager
Rotationspumpen
Jarvik 2000 MicroMed DeBakey (HeartAssist 5) Thoratec HeartMate II
Geregelte elektromagnetische Lager Terumo DuraHeart (Radial) Berlin Heart INCOR (Axial)
Axiale hydrodynamische Lagerung plus passive MagLevitation HeartWare HVAD (Radial)
45 cc
145 g
⊡ Abb. 34.17. Zirkadiane Rhythmen des linken und rechten Pumpenflusses bei einem Patienten mit HeartWare BVAD. Dargestellt sind die Flussvariationen über 7 Tage bei konstanten Drehzahlen
Da es häufig bei den Begriffen »nichtpulsatil« oder »kontinuierlicher Fluss« noch Interpretationsprobleme gibt, sei nachfolgend eine kurze Erläuterung erlaubt. Nichtpulsatil ist der Fluss der Rotationspumpen bei konstanter Drehzahl nur, wenn das Herz keine Änderungen der Zuflussdrucke zur Pumpe bewirkt, also absolut kontraktionslos oder asystol ist oder flimmert. Jede Änderung der Druckdifferenz über die Pumpe bewirkt einen mehr oder weniger pulsatilen Fluss bei konstanter Drehzahl, entsprechend der Druck-Fluss-Kennlinie des Pumpendesigns. Dabei ist in der Regel der Fluss kontinuierlich. Es kommt nicht zu den bei Verdrängerpumpen typischen diastolischen Stillständen.
Diese Flusspulsationen bewirken entsprechende Druckamplituden, der Begriff »pulslose Perfusion« ist also mit Einschränkungen zu gebrauchen, insbesondere wenn physiologische Auswirkungen der »nichtpulsatilen« VAD-Perfusion auf Organfunktionen diskutiert werden. Letztlich haben wir zu dieser Frage noch keine verlässlichen Langzeitbeobachtungen. Ein anderes Beispiel zeigt, wie sich auch ohne externe Regelung der Pumpparameter der kontinuierliche Fluss bei einem biventrikulären VAD den physiologischen Bedingungen näherungsweise anpasst (⊡ Abb. 34.17). Auch bei konstanter Drehzahl ist deutlich bei »pulsloser« Unterstützung der zirkadiane Biorhythmus des
621 34.5 · Komplikationen
Herzzeitvolumens bei einem BVAD-Patienten zu erkennen, Zeichen einer Art von Autoregulation entsprechend den erkannten Perfusionsanforderungen des Körpers und ein Beispiel für die Interaktion des biotechnischen Hybridsystems aus ungeregelter Blutpumpe und natürlich geregeltem Kreislauf. Es scheint sicher zu sein, dass die Zukunft der mechanischen Herzunterstützung den Rotationsblutpumpen gehört. Die Systeme sind geräuschlos, werden weiter verkleinert, immer weniger invasiv implantierbar sein, neue fluiddynamische Designs und optimierte Blutkontaktoberflächen werden die Biokompatibilität noch weiter verbessern. Heute noch notwendige medikamentöse Begleittherapien, wie z. B. die Gerinnungsbeeinflussung, werden dann vielleicht reduziert werden können oder gänzlich entfallen.
34.5
Komplikationen
Bei der Darstellung von Komplikationen nach dem Einsatz von MCSS muss berücksichtigt werden, dass diese Therapie auch heute noch nur bei Patienten im Endstadium einer unmittelbar lebensbedrohenden Erkrankung gewählt wird. Daraus folgen Einschränkungen der Beurteilung und Zuordnung bei den frühen postoperativen Komplikationen, da die vorliegenden Begleitumstände in sich Komplikationen darstellen bzw. ein hohes Komplikationsrisiko mit sich bringen. Oft ist Ursache und Wirkung nicht eindeutig zu trennen. Deshalb hat sich auch das BTB oder BTD (BRIDGE TO BRIDGE; BRIDGE TO DECISION) als Vorgehen angeboten, Patienten zunächst aus dem kardiogenen Schock mit weniger invasiver (und billigerer) mechanischer Kreislaufunterstützung zu stabilisieren und zu evaluieren, ehe weitere invasivere Therapien eingesetzt werden. Es sollen im Folgenden die häufigsten Probleme in den unterschiedlichen Zeiträumen nach Implantation der Systeme dargestellt werden, basierend auf den Erfahrungen am DHZB, ergänzt durch publizierte und in persönlicher Kommunikation erhaltene Daten.
34.5.1 Funktionsstörungen der Systeme
Funktionsstörungen können alle Komponenten des Systems betreffen: ▬ Blutpumpen als zentralem Teil des MCSS, ▬ Anschlüsse an das Gefäßsystem des Patienten, ▬ Pneumatikleitungen oder Kabel für den Energietransport zur Blutpumpe, ▬ Steuereinheiten, an denen die Pumpen angeschlossen sind, ▬ bei den pneumatischen Systemen die Antriebseinheiten, in denen der pneumatische Druckpuls erzeugt wird,
▬ die integrierte Systemüberwachung/das Alarmsystem, ▬ die Stromversorgung. An die Blutpumpen als wichtigstem Teil eines lebenserhaltenden VAD werden besondere Anforderungen bezüglich der Dauerfestigkeit und Zuverlässigkeit gestellt (Birks et al. 2004). Bei den pneumatisch betriebenen Systemen unterliegen die dort vorhandenen Membrane bzw. Blutsäcke einer hohen mechanischen Belastung durch die hohe Zahl der Lastwechselzyklen, die mit einer Biegung und Dehnung des Materials einhergehen (ca. 40–50 Mio. Zyklen im Jahr). Zur Erhöhung der Sicherheit sind die Membrane als Mehrfachmembrane ausgeführt. Dadurch ist das Risiko einer Ruptur mit der Folge von Blutaustritt in die Luftkammer bzw. einer Luftembolie in die Blutkammer sehr gering (Martin et al. 2006). Eine weitere mögliche Fehlerquelle sind die mechanischen Klappen. Hier können Brüche der Klappendisci oder der Haltebügel auftreten; auch ein Klemmen der Klappe im Klappenring ist beobachtet worden. Diese Defekte sind allerdings nur vereinzelt aufgetreten. Häufiger ist die Bildung von Thromben in den Blutkammern zu beobachten, entweder durch nicht ausreichende oder nichtangepasste Antikoagulationstherapie, z. B. bei Infektionen, oder aber bei mangelhafter Durchströmung der Pumpe (z. B. bei Hypovolämie). In diesen Fällen ist ein Pumpentausch möglich. Die Rotationsblutpumpen haben nur ein bewegtes Bauteil, den Impeller. Je nach Art der Lagerung ist diese verschleißfrei (Magnetlagerung, hydrodynamische Lagerung) oder extrem verschleißarm (Keramik/Juwelenlager), sodass Betriebszeiten von mehr als zehn Jahren zu erwarten sind. Bei extrakorporalen Systemen muss die Blutpumpe mit vergleichsweise langen, perkutanen blutführenden Kanülen an das Gefäßsystem des Patienten angeschlossen werden. Neben den Komplikationen, die durch Infektionen an der Hautdurchleitungsstelle auftreten können ( Abschn. 34.5.5) kann es je nach Lage der Blutpumpen zum Abknicken der Kanülen bei Bewegung des Patienten kommen. Tritt dieses Knicken häufig und an immer denselben Stellen der Kanülen auf, wird die Bildung von Rissen und damit Blutungsgefahr oder Luftembolien begünstigt. Bei den implantierbaren Systemen sind die elektrischen Zuleitungen zu den Pumpen die mechanisch am meisten belastete Komponente. Bei jeder Bewegung des Patienten, ja bei jedem Herzschlag wird bei vielen Patienten die Pumpe etwas bewegt, sodass das Kabel einer dauernden Biegebelastung unterliegt. Findet gleichzeitig eine Zugbelastung statt, entweder akzidentiell – z. B. durch Herabfallen der Tasche mit dem Kontroller und schweren Batterien – oder konstant durch eine dauernde Gewichts- und damit Umfangzunahme des Patienten, so
34
622
III
Kapitel 34 · Mechanische Herzunterstützungssysteme (2010)
treten Brüche der stromführenden Adern mit entsprechenden Betriebsstörungen oder Pumpenausfall auf. Wiederholt wurden bei verschiedenen Modellen Kabeldefekte beobachtet, sodass ein Pumpentausch notwendig wurde. Steuereinheiten und Antriebseinheiten haben üblicherweise eine redundante Konstruktion oder zumindest eine Notbetriebsfunktionalität. Zusätzlich werden die Patienten mit Ersatzkomponenten ausgerüstet und in den Wechsel eingewiesen. Auch bei dauerstabilen, leicht zu bedienenden Systemen mit ausgefeiltem Alarmsystem und ggf. Notlaufeigenschaften bzw. Redundanzen sowie gutem Tragekomfort kann es zu fatalen Zwischenfällen aufgrund von Fehlbedienungen durch den Patienten kommen. VADs werden zunehmend bei älteren Patienten eingesetzt, die – teils auch erst während der Therapie – kognitive oder manuelle Einschränkungen erleiden, die auch durch ausführliche und wiederholte Schulungen zur Systembedienung nicht ausglichen werden können.
34.5.2 Hämolyse
Beim Einsatz mechanischer Pumpen im Kreislauf besteht immer die Gefahr einer Schädigung der korpuskulären Bestandteile des Blutes. Der Kontakt des Blutes mit den Fremdoberflächen und die Belastungen der Blutkörperchen durch die beim Fördern notwendigerweise erzeugten, in der Größe druck- und flussabhängigen Scherkräfte wirken sich schädlich auf das Organ Blut aus. Dieses Trauma kann durch Wahl der Materialien, durch Oberflächenveredelungen, durch Optimierung der Fluiddynamik bezüglich Ausmaß und Expositionszeit der mechanischen Belastungen minimiert werden. Systemabhängig liegen bei unseren Patienten die Laktatdehydrogenase-Werte im Serum (LDH-Werte) zwischen 180 U/l (normal) und 400 U/l. Bei einem plötzlichen Anstieg dieses regelmäßig gemessenen Parameters muss von einer durch das VAD verursachten Hämolyse ausgegangen werden. Ursache können Behinderungen der Strömung im Zu- oder Abfluss der Pumpe sein, die lokale Geschwindigkeitserhöhungen mit entsprechend ansteigenden Scherspannungen bewirken. Auch bei einem möglichen Ansaugen der Pumpe mit partieller oder vollständiger Verlegung des Zuflusses kommt es im Rotorumfeld zu Turbulenzen und extrem ansteigenden strömungsdynamischen Belastungen des Blutes mit Zelltrauma. Festzuhalten ist, dass bei den heute verfügbaren Pumpen im Gegensatz zu denen der Pionierzeiten Hämolyse in der Regel keine Bedeutung hat. Dies wird auch dadurch belegt, dass es keinen signifikanten Unterschied macht, ob der Patient mit einer oder zwei gut funktionierenden Pumpen ausgestattet ist. Allerdings können Patienten mit
MCSS auch eine Hämolyse durch andere Einwirkungen zeigen, wie z. B. durch Infektionen oder Medikamente.
34.5.3 Thrombembolien
Auch bei sorgfältig überwachter Antikoagulation, die die unterschiedlichen Anforderungen der einzelnen Systeme berücksichtigt, kann es bei dem Kontakt des Blutes mit den verwendeten Biomaterialien (Titan, Silikon, Polyurethan u. a.) zur Bildung von Gerinnseln kommen. Unterstützt wird diese Komplikation durch ungünstige Strömungsverhältnisse in Arealen mit stagnierendem Fluss und damit schlechtem Auswaschverhalten.
34.5.4 Blutungen
Nach der Implantation eines MCSS besteht in der perioperativen Phase immer die Gefahr von chirurgischen Nachblutungen, die ggf. einen erneuten Eingriff erfordern. Die Blutungsneigung wird begünstigt durch die Tiefe des profunden Schocks, der per se Gerinnungsstörungen induziert. Im späteren Verlauf besteht Blutungsgefahr durch übermäßige Antikoagulation, Trauma und auch Infektionen.
34.5.5 Infektionen
In Verbindung mit der Implantation von VADs und TAHs kommt es gehäuft zu Infektionen. Berichtet wird von 5–20% früh auftretender Infektionen, bei Langzeiteinsätzen steigt die Infektionsrate systemabhängig auf bis zu 90%. Das Kreislaufversagen und Begleiterkrankungen begünstigen Infektionen. Die heutigen Systeme benötigen alle einen externen Zugang durch die Körperoberfläche zum Gefäßsystem (extrakorporale Pumpen: blutführende großlumige Kanülen) oder zu den Implantaten (Kabel). Die Kanülen oder Kabel sind zwar im Bereich der Hautdurchleitung mit porösem Kunststoffgewebe ummantelt, um dem verletzten Gewebe Gelegenheit zum Anwachsen zu geben und so eine Infektionssperre entlang des durchführenden Wundtunnels zu bilden. Diese Durchleitungsstellen sind i.d.R. im Wundbereich jedoch ständig leicht entzündet, können auch bei sorgfältiger Wundpflege infiziert werden und bilden dann die Pforte zum Keimeintritt in den Körper. Infektionen können bis zum Implantat vordringen und sind dann medikamentös nicht mehr zu beherrschen. Besonders schwerwiegend ist eine Infektion, die sich bis zu der Einlasskanüle an der Spitze der linken Kammer ausgebreitet hat. Hierdurch kann es zum Auswandern
623 34.6 · Technische Nachsorge
der Kanüle aus der Kammer und zur Bildung eines myokardialen Aneurysmas kommen, mit Rupturgefahr und Rezidiven auch nach chirurgischer Versorgung. Für die Energiezufuhr und die Übertragung von Daten und Regelsignalen durch die unverletzte Körperoberfläche wurden schon vor Jahren induktive »transkutane Energie-Transmissionssysteme« (TET) entwickelt. Eine implantierte Spule, elektromagnetisch gekoppelt mit einer externen Versorgungsspule, leitet die Versorgungssignale durch die unverletzte Haut zu einer ebenfalls implantierten Kontroll- und Energiespeichereinheit, die die Pumpe aktiviert. Problematisch ist auch heute noch die Dauerbelastbarkeit der notwendigen implantierten Energiespeicher, die nach einer begrenzten Anzahl von Lade- und Entladezyklen durch erneute Operation ausgetauscht werden müssen.
34.5.6 Anastomosen-Problematik
Häufig, aber nicht oft beschrieben, sind Wundheilungsstörungen an den apikalen Kanülierungen. Bei mehr als 200 Sektionen wurde diese Problematik bei Patienten des DHZB mit elf unterschiedlichen Langzeit-Systemen untersucht. Auch ohne eine Infektion kann sich nicht selten Granulationsgewebe in der Kammer um die Kanüle bilden, so ausgedehnt, dass die Kanüle verlegt wird oder dieses Gewebe in die Pumpe embolisiert. Diese Komplikation ist häufig bei Pumpen mit starrer Verbindung zur Einlasskanüle. Wenn die Pumpe über eine bewegliche Gefäßprothese mit der Kanüle verbunden ist, ist der Reiz für Infektionen bzw. Granulationen offenbar geringer. Eine mikroporöse Oberflächenstruktur erlaubt den Zellen des Myokards die Bildung einer fixierten Neointima. Bei metallischen glatten Oberflächen bilden sich in jedem Fall schon nach kurzer Zeit zunächst thrombotische »Wucherungen«, die später in Granulationsgewebe übergehen (⊡ Abb. 34.18; 4-Farbteil am Buchende). Bei den aortalen Anastomosen wurde in Einzelfällen die Bildung von Aneurysmen beobachtet.
austauschstörung der Lunge kann das RVAD mit einem Oxygenator kombiniert werden. Bei anhaltender Rechtsherzinsuffizienz oder Rechtsherzversagen ist das letzte Mittel der Wahl die zusätzliche Implantation eines Langzeit-RVADs.
34.5.8 Anatomisch bedingte
Zuflussbehinderungen Beengte anatomische Verhältnisse im Brustkorb, z. B. bei kleinen Patienten oder sehr voluminösen Blutpumpen, können zur Kompression der venösen, blutzuführenden Gefäße oder zum Verlegen der apikalen Kanüle führen. Damit wird die Funktion der Pumpen schon intraoperativ beeinträchtigt, die Pumpfunktion kann sogar völlig zum Erliegen kommen. Durch intraoperative transösophagale Echokardiographie (TEE) können Fehlpositionen erkannt und dann entsprechend chirurgisch korrigiert werden.
34.5.9 Arrhythmien
Arrhythmien treten bei Patienten mit Indikationen für eine Assistimplantation häufiger auf, viele unserer Patienten hatten schon vor der Operation einen Kardioverter/ Defibrillator (ICD) implantiert bekommen. Bei ventrikulären Arrhythmien, Kammertachykardien oder Kammerflimmern wird wegen der dann reduzierten oder fehlenden Rechtsherzleistung und der häufig bei diesen Patienten bestehenden pulmonalen Hypertonie auch die Förderleistung der linken Pumpe abfallen, es kann zum Ansaugen der apikalen Kanüle kommen, bis hin zum totalen Pumpausfall. Hier kann nur ein ICD die Situation wieder normalisieren. Patienten mit BVAD sind von derartigen schweren Rhythmusstörungen bei guten Zuflussverhältnissen nicht beeinträchtigt, einige unserer Patienten haben längere Zeiträume mit flimmerndem Herzen beschwerdefrei überlebt.
34.6
Technische Nachsorge
34.5.7 Rechtsherzinsuffizienz
Nach neueren Veröffentlichungen tritt bei 25–35% der LVAD-Patienten unmittelbar nach der Implantation eine Beeinträchtigung der Rechtherzfunktion auf. Am DHZB ist mit 15% die Rate etwas niedriger (Potapov et al. 2008). Wenn sich das Problem der mangelhaften Rechtsund damit der daraus resultierenden Linksherzleistung nicht durch vielschichtige medikamentöse Therapie beheben lässt, bleibt nur der Einsatz einer temporären extrakorporalen Rechtherzunterstützung. Bei einer Gas-
Patienten, die nach Hause entlassen sind und z.T. in Abständen von mehreren Monaten zu ambulanten Untersuchungen in die Klinik kommen, müssen auch technisch betreut bzw. überwacht werden. Hierfür ist primär eine 24-Stunden-/7-Tage-Hotline notwendig, um akuten Problemen gerecht zu werden. Erste Ansätze zur Fernüberwachung der Systemfunktion wurden gemacht, ähnlich wie bei Telemedizin-Einrichtungen können mit Hilfe der drahtlosen Telefonnetze und des Internets im Dialog Daten bei den Patienten abgerufen und analysiert werden. Eine interne Datenauf-
34
624
III
Kapitel 34 · Mechanische Herzunterstützungssysteme (2010)
zeichung der Systemparameter ist hierbei Voraussetzung, sie ermöglicht die Diagnose und ggf. die Rekonstruktion des zeitlichen Ablaufs bei auftretenden Alarmen. Beim Thoratec HeartMate II werden bestimmte Zustände mit jeweils einem Parametersatz, der alle interessierenden Momentanwerte beinhaltet, aufgezeichnet. Der Speicherplatz ist allerdings mit 120 Datensätzen begrenzt. Beim DeBakey-System werden zwei Speicherbereiche ständig mit hochaufgelösten Daten beschrieben und im Fehlerfall abgelegt, sodass der Beginn eines Ereignisses im ersten Bereich festgehalten wird. Der zweite Bereich wird jeweils durch neu auftretende Ereignisse überschreiben, sodass in der Klinik das erstmalige und letztmalige Auftreten detailliert untersucht werden kann. Beim Berlin Heart INCOR werden unbegrenzt viele Ereignisse detailliert aufgezeichnet, wenn der Patient an seinem mit zum Heim-Equipment gehörenden Monitor angeschlossen ist. In der Steuereinheit selbst werden mit 400 Parametersätzen vergleichsweise wenig Daten abgelegt. Beim HeartWare-System werden in einem festen Zeitraster Datensätze abgelegt. Beim Terumo DuraHeart sind in der Steuereinheit ein detaillierter Kurzzeitspeicher und ein Langzeitprotokoll über 30 Tage kombiniert. Die Transienten von bestimmten Signalen werden somit bei Funktionsstörungen aufgezeichnet. Es zeigt sich aus der Erfahrung, dass für ein Optimum der Überwachung eine detaillierte Datenspeicherung nötig ist, um zurückliegende Ereignisse analysieren können.
34.7
Zusammenfassung und Ausblick
Künstliche Herzunterstützungssysteme zum längerfristigen Einsatz sind seit den 80er Jahren in klinischem Gebrauch und wurden zunächst ausschließlich angewendet zur Überbrückung eines lebensbedrohlichen Zustandes bis zu einer nachfolgenden Herztransplantation, also nur für eine absehbare, begrenzte Zeit. Dann allerdings wurden auch Systeme entwickelt, die über Jahre funktionsfähig blieben, sodass sich für einige Patienten zwangsläufig eine Anwendung dieser Pumpen auf Dauer ergab, wenn sie nicht transplantiert werden konnten. Technische Verbesserungen und erhöhte System-Implantationzahlen temporärer Kunstherzen als BTT tragen grundsätzlich nicht zur Lösung der Spenderproblematik und damit der Verbesserung der Versorgung von Patienten bei, denen heute nur eine Herztransplantation mit entsprechender Lebenserwartung helfen kann. Die Anzahl der Organspender geht in Deutschland stetig zurück. Im vergangenen Jahr warteten über 1000 Patienten auf eine Transplantation, es gab aber nur ca. 350 Spenderher-
zen. Ein vermehrter Einsatz von Überbrückungssystemen (BTT) führt nur dazu, dass die Anzahl der Patienten auf der Warteliste zu- und die Wahrscheinlichkeit einer Transplantation abnimmt. Dennoch kommt dem Konzept einer Überbrückung bis zu einer späteren Herztransplantation das historische Verdienst zu, dass damit erstmals künstliche Herzunterstützungssysteme sinnvoll und akzeptabel zur Anwendung kommen konnten. Eine für die Zukunft vertretbare Lösung kann nur die Bereitstellung von langzeitimplantierbaren sicheren technischen Systemen bringen, die bei möglichst geringer Einschränkung der Lebensqualität eine deutliche Lebensverlängerung ermöglichen und damit als Alternative zu einer Transplantation angesehen werden können. Nur eine Zwischenlösung wird die von der Fa. Syncardia jetzt vorgesehene Größenreduktion des bewährten temporären Kunstherzens CardioWest™ sein. Damit soll es auch bei kleineren Patienten implantiert werden können. Wegen der begrenzten Lebensdauer der Membrane und dem externen pneumatischen Antrieb wird es ein BTT-System bleiben. Wegen der anerkannten Notwendigkeit einer langfristigen implantierbaren biventrikulären mechanischen Herzunterstützung oder dem Herzersatz haben sich Forschergruppen weltweit seit Jahrzehnten bemüht, mit unterschiedlichen Konzepten und zum Teil immensen finanziellen Aufwändungen bei Unterstützung durch staatliche Finanzierung und Hilfe der Industrie geeignete TAH-Systeme zur Einsatzreife zu entwickeln, doch bisher ohne weitergehenden klinischen Erfolg. Ein erstes implantierbares pulsatiles elektrohydraulisches Kunstherz der amerikanischen Firma ABIOMED, Inc. das AbioCor erhielt zwar die FDA-Zulassung zum begrenzten kommerziellen klinischen Einsatz, wegen erheblicher anatomischer und auch technischer Probleme sowie ausbleibender klinischer Erfolge wird die Fortführung der Entwicklung in Frage gestellt. In Europa sind in jüngster Zeit zwei neue Projekte pulsatiler implantierbarer Kunstherzen vorgestellt worden, die beide auf Entwicklungsanfängen der 80er Jahre basieren. Der französische Herzchirurg Alain Carpentier gab kürzlich bekannt, er habe zusammen mit Forschern des Luft- und Raumfahrtkonzerns EADS ein vollimplantierbares Kunstherz geschaffen. Im Tierversuch mit Kälbern habe es bereits gut funktioniert. Das Kunstherz aus Frankreich ist ein Kilogramm schwer und besteht aus tierischem Gewebe, Titan und Kunststoff. Eine spezielle Blutkontaktoberfläche aus Schweineknorpel soll die Bildung von Blutgerinnseln verhindern (⊡ Abb. 34.19). Details sind bisher nicht bekanntgegeben worden – sicher jedoch ist das System nicht klein, wie aus einem veröffentlichten Video ersichtlich wurde. Von der zur Herstellung des Systems neu gegründeten Fa. CARMAT ist die Klinikreife in 4–6 Jahren angekündigt worden.
625 34.7 · Zusammenfassung und Ausblick
⊡ Abb. 34.19. CARMAT: Projekt eines Kunstherzens (TAH) (Frankreich)
⊡ Abb. 34.20. ReinHeart: Projekt eines TAH mit Linearantrieb (Deutschland)
In diesem Jahr hat Reiner Körfer gemeinsam mit der Rheinisch Westfälischen Technischen Hochschule (RWTH) in Aachen ein Konzept eines dauerhaften Kunstherzens (»ReinHeart«) vorgestellt, das an die dortigen langjährigen Entwicklungen (MiniACcor) anknüpft. Das »ReinHeart« ist größer als das normale Herz. Es soll in den Brustkorb von 80% der Erwachsenen passen und nicht mehr als 800 Gramm wiegen. Es besteht aus zwei dem natürlichen Herzen vergleichbaren Kammern und vier Herzklappen sowie einem elektromagnetischen Linearantrieb (⊡ Abb. 34.20). Diese Elemente und weitere Komponenten sollen in den Körper implantiert werden. Die Entwicklung dieses Systems dürfte noch mehrere Jahre brauchen bis zum klinischen Einsatz. Es ist nun zu bedenken, solche das ganze Herz ersetzende Systeme durch Kombination zweier Rotationsblutpumpen und damit auf der Basis der jetzt schon bestehenden permanenten LVAD-Systeme und den damit
bei Tausenden Patienten gewonnenen klinischen Erfahrungen zu realisieren (Frazier et al. 2006). Rotationsblutpumpen der 2. oder 3. Generation einiger Hersteller mit berührungsfreier magnetischer oder magnetisch-hydrodynamischer Lagerung des rotierenden Teiles und entsprechend hoher Dauerfestigkeit haben mit teils mehrjährigen klinischen Einsatzzeiten bei vertretbarer Komplikationsrate ihre Langzeiteignung bewiesen. Mit Unterstützung durch die »Friede Springer Stiftung« wurden 2009 am DHZB im Rahmen einer Studie Untersuchungen zur Eignung klinisch bewährter LVADs zur biventrikulären Herzunterstützung oder zum Ersatz des Herzens (TAHROT) begonnen. In einem ersten Schritt werden jetzt schon solche Rotationspumpen bei Patienten im terminalen biventrikulären Herzversagen im DHZB als BVAD implantiert (⊡ Abb. 34.21 [ 4-Farbteil am Buchende] und ⊡ Abb. 34.22). Der Arbeitsbereich der als RVAD wirkende Pumpe, ursprünglich als LVAD konzipiert, wird durch Bändelung des pulmonalen Ausflusses in den Fluss-Druckbereich des Körperkreislaufs transformiert, eine Änderung des Pumpendesigns entfällt (⊡ Abb. 34.23; 4-Farbteil am Buchende). Die Entwicklung noch kleinerer Rotations-LVADs und möglicherweise auch BVADs zeigt ermutigende Fortschritte. Drei modifizierte miniaturisierte Systeme der Fa. HeartWare befinden sich bereits in der tierexperimentellen Prüfung (⊡ Abb. 34.24; 4-Farbteil am Buchende). Bei ähnlicher Leistungsfähigkeit sollen die neuen Axialpumpen weniger als 50% des HVADs wiegen und entsprechend kleiner sein. Die Implantation wird erheblich erleichtert, eine Kombination zum Totalersatz des Herzens erscheint sehr aussichtsreich. Die auf dem Weltmarkt für VADs führende Fa. Thoratec hat neue, verkleinerte Axial(HM X)- und Zentrifugal(HM III)-Rotationsblutpumpen im Entwicklungsprogramm (⊡ Abb. 34.25). Ziel ist der Langzeiteinsatz ohne oder mit nur geringer Antikoagulation. Zur Verbesserung der Lebensqualität der Patienten wurde ein transkutanes Energie-Transmissionssystem (TET) entwickelt, zur Versorgung von vollständig implantierbaren Blutpumpen (⊡ Abb. 34.26). Wechselseitig ermöglicht es den Daten- und Energietransfer durch die unverletzte Haut, damit wird das Infektionsrisiko an der Wunde »Hautdurchleitung« ausgeschlossen. Um eine umfassende Datensammlung aller MCSSEinsätze und ihre Dokumentation in Europa zu ermöglichen, wurde am 10. Dezember 2009 in Berlin der Verein Euromacs gegründet (EUROMACS VAD registry; European Registry for Mechanical Circulatory Support e.V.). Mit den damit auswertbaren Erfahrungen aus einem größeren Patientenkollektiv ist eine schnellere Übertragung von Erkenntnissen an Kliniken und Systemhersteller zu
34
626
Kapitel 34 · Mechanische Herzunterstützungssysteme (2010)
III
⊡ Abb. 34.22. Schema der Kanülierung zweier HVAD als BVAD, mit Stenosierung der Abflussprothese der rechten Blutpumpe
⊡ Abb. 34.25. Neues Projekt der Firma Thoratec. Erheblich verkleinerte Axialpumpe HeartMate-X zur direkten apikalen Kanülierung (Größenvergleich HM II)
erwarten. Für die Forschung wird diese Datensammlung ein wertvolles Werkzeug sein. Der heutige Stand der Technik und der medizinischen Erfahrungen erlaubt den Einsatz der mechanischen Herzunterstützungssysteme bei einer Vielzahl von Indikationen bis hin zum permanenten Ersatz der Herzfunktion mit vertretbaren Risiken und Einschränkungen der Lebensqualität.
⊡ Abb. 34.26. Neues Projekt der Firma Thoratec. FILVAS: vollständig implantiertes LVAD mit transkutaner Energiezuführung (TET)
627 Literatur
Von zunehmender Bedeutung wird die spätere Betreuung der Patienten durch speziell geschultes technisches und medizinisches Personal, um Komplikationen so weit wie möglich im Ansatz erkennen und vermeiden zu können und dem Patienten das Gefühl der Sicherheit beim Leben mit dem System zu vermitteln. Hilfreich wird eine telemedizinische Überwachung externer VADPatienten sein. Da jetzt die MCSS als Alternative zur Herztransplantation eingesetzt werden können, wird sich die Anzahl der Patienten, die von den implantierenden Kliniken ambulant betreut werden müssen, schnell vergrößern. Hier müssen zusätzliche Kapazitäten geschaffen werden, um die Nachsorgeverpflichtung zu erfüllen.
Literatur Barnard CN (1967) The operation. A human cardiac transplant: an interim report of a successful operation performed at Groote Schuur Hospital, Cape Town. S Afr Med J 41: 1271–4 Birks EJ, Tansley PD, Yacoub MH, Bowles CT, Hipkin M, Hardy J et al. (2004) Incidence and clinical management of lift-threatening left ventricular assist device failure. J Heart Lung Transplant 23: 964–949 Bücherl ES, Hennig E (1983) 20 Jahre Kunstherzforschung in Berlin. In: Schreiber HW, Carsten G (Hrsg) Chirurgie im Wandel der Zeit 1945–1983. Springer, Berlin Heidelberg New York: S 86–108 Cooley DA, Liotta D, Hallman GL, Bloodwell RD, Leachman RD, Milam JD (1969) Orthotopic cardiac prosthesis for twostaged cardiac replacement. Am J Cardiol 24: 723–30 Courtney J, Gemmato BS, Matthew D, Forrester BS, Timothy J, Myers BS et al. (2005) Thirty-Five Years of Mechanical Circulatory Support at theTexas Heart Institute An Updated Overview. Tex Heart Inst J 32: 168–77 DeBakey ME (1999) A miniature implantable axial flow ventricular assist device. Ann Thorac Surg 68: 637–40 Dowling RD, Gray LA Jr, Etoch SW, Laks H, Marelli D, Samuels L et al. (2003) The AbioCor implantable replacement heart. Ann Thorac Surg 75(6 Suppl): S 93–99 Frazier OH, Rose EA, Oz MC, Dembitsky W, McCarthy P, Radovancevic B (2001) Multicenter clinical evaluation of the HeartMate vented electric left ventricular assist system in patients awaiting heart transplantation. J Thorac Cardiovasc Surg 122: 1186–95 Frazier OH, Tuzun E, Cohn WE, Conger JL, Kadipasaoglu KA (2006) Total heart replacement using dual intracorporeal continuousflow pumps in a chronic bovine model: a feasibility study. Asaio J 52(2): 145–149 Hetzer R, Bücherl S (1988) Herztransplantation und Kunstherzentwicklung in Berlin. In: Fleck E (Hrsg) Koronare Herzerkrankung und dilatative Kardiomyopathie: Diagnostik und Therapie; Ergebnisse eines Symposiums am Deutschen Herzzentrum Berlin. MMV Medizin-Verlag, München: S 143–144. Hetzer R, Hennig E, Loebe M (eds) (1997) Mechanical Circulatory Support: In children, towards myocardial recovery, permanent. Steinkopff, Darmstadt; Springer, Berlin Heidelberg New York: 1–61 Hetzer R, Krabatsch T, Stepanenko A, Hennig E, Potapov EV (2010) Long-term biventricular support with the heartware implantable continuous flow pump. J Heart Lung Transplant (in press) (Epub ahead of print Apr 21) Joyce LD, DeVries WC, Hastings WL, Olsen DB, Jarvik RK, Kolff WJ (1983) Response of the human body to the first permanent implant of
the Jarvik-7 Total Artificial Heart. Trans Am Soc Artif Intern Organs 29: 81–7 Körfer R, Arusoglu L (2010). Herzunterstützungssysteme und Kunstherzimplantation. In: Ziemer G, Haverich A (Hrsg) Herzchirurgie. Die Eingriffe am Herzen und an den herznahen Gefäßen, 3. Aufl. Springer, Berlin Heidelberg New York: S 847–72 Martin J, Friesewinkel O, Benk C, Sorg S, Schulz S, Beyersdorf F (2006) Improved durability of the HeartMate XVE left ventricular assist device provides safe mechanical support up to 1 yeart but is associated with high risk of device failure in the second year. J Heart Lung Transplant 25: 384–390 Müller J, Hetzer R (2000) Left ventricular recovery during left ventricular assist device support. In: Goldstein DJ, Oz MC (eds) Cardiac Assist Devices. Armonk (NY), Futura: S 121–35 Müller J, Wallukat G, Weng YG, Dandel M, Spiegelsberger S, Semrau S et al. (1997) Weaning from mechanical cardiac support in patients with idiopathic dilated cardiomyopathy. Circulation 96(2): 542–9 Portner PM, Jansen PGM, Oyer PM, Wheeldon DR, Ramasamy N (2001) Improved outcomes with an implantable left ventricular assist system: a multicenter study. Ann Thorac Surg 71: 205–9 Potapov EV, Loforte A, Weng Y, Jurmann M, Pasic M, Drews T et al. (2008) Experience with over 1000 implanted ventricular assist devices. J Card Surg 23(3): 185–94 Siegenthaler MP, Frazier OH, Beyersdorf F, Martin J, Laks H, Elefteriades J et al. (2006) Mechanical reliability of the Jarvik 2000 Heart. The Annals of thoracic surgery 81(5): 1752–1758 (discussion: 1758–1759) Trummer G (2007) VAD-Systeme (Ventricular Assist Devices). In: Kramme R (Hrsg) Medizintechnik. Verfahren – Systeme – Informationsverarbeitung, 3. Aufl. Springer, Berlin Heidelberg New York: S 569–78 Wampler RK, Moise JC, Frazier OH, Olsen DB (1988) In vivo evaluation of a peripheral vascular access axial flow blood pump. ASAIO Trans 34: 450–454
34
35 Herzschrittmachersysteme A. Bolz
35.1 Aufbau eines Schrittmachersystems – 630
35.3.4 35.3.5 35.3.6 35.3.7 35.3.8
35.1.1 Das Programmiergerät – 630 35.1.2 Der Schrittmacher – 631 35.1.3 Die Schrittmacherelektrode – 631
35.2 Die Funktionalität eines Herzschrittmachers – 633
Frequenzadaptive Schrittmacher – 641 Antitachykarde Schrittmacher – 642 Biatriale Stimulationssysteme – 642 Biventrikuläre Stimulationssysteme – 642 Auswahlkriterien – 643
Literatur
– 644
35.2.1 Die Wahrnehmungsfunktion – 633 35.2.2 Die Stimulationsfunktion – 634
35.3 Stimulationsmodi – 636 35.3.1 Internationaler (NBG-) Schrittmachercode 35.3.2 VVI-Schrittmacher – 637 35.3.3 Zweikammer-Schrittmacher – 638
– 637
Pathologische Veränderungen der Erregungsbildung bzw. -leitung innerhalb des Herzens werden in bradykarde (verlangsamende) und tachykarde (beschleunigende) Krankheitsbilder unterteilt. Liegen bradykarde Veränderungen vor, so ist in aller Regel das Herzzeitvolumen zu gering, sodass der Patient unter Schwindelanfällen, geringer körperlicher Belastbarkeit und sogar Bewusstseinsstörungen leidet. In diesen Fällen eröffnet die Herzschrittmachertherapie die Möglichkeit, den Sinusrhythmus wiederherzustellen und so die Symptome zu lindern oder gar zu beseitigen. Die Idee, das Herz elektrisch zu stimulieren, geht auf Burns und Aldini (einen Neffen Galvanis) Anfang des letzten Jahrhunderts zurück. Aber erst Hyman baute 1927 den ersten funktionsfähigen externen Schrittmacher, einen von einem Uhrwerk betriebenen kleinen, elektrischen Generator. 1948 erfanden Shockley, Bardeen und Brattain den Transistor und ermöglichten damit eine erhebliche Verkleinerung elektrischer Schalteinheiten, die auch den Schrittmacherbau vorantrieben. Den ersten implantierbaren Schrittmacher setzte 1958 der schwedische Arzt Elmquist ein. Dieses Gerät bestand noch aus 20 diskreten Bauteilen und hatte ein Gewicht von ca. 180 g. Heutige Schrittmacher besitzen bei etwa 60 g die Funktionalität eines Kleinrechners. Die Schrittmachertherapie basiert auf der Abgabe von Strompulsen, die zu einer künstlichen Depolarisation einiger Herzzellen führen und so über das Reizleitungssystem sowie über die »Gap junctions« – interzelluläre Ionenverbindungskanäle, die der direkten Erregungsübertragung von Zelle zu Zelle dienen – eine vollständige Kontraktion
des Herzens auslösen. Aufgrund dieses Triggereffektes von künstlichen Impulsen wird hierbei auch vom »Allesoder-Nichts-Gesetz« gesprochen. Prinzipiell lassen sich die Strompulse über vier verschiedene Wege applizieren: Transkutane Stimulation. In seltenen Fällen wird das Herz über extern aufgeklebte Elektroden stimuliert. Prinzipiell ist dies zwar möglich, aufgrund des großen Abstandes zum Herzen ist dieser Weg jedoch ineffektiv, sodass hohe Stromstärken erforderlich sind, die wiederum unerwünschte Kontraktionen der Skelettmuskeln auslösen. Sinnvoll ist die externe Stimulation daher nur in Notfällen, z. B. bei Verwendung eines externen Defibrillators. Ösophagus-Stimulation. Ein minimalinvasives Verfahren
stellt die Ösophagus-Stimulation dar. Hierbei wird ein Katheter über den Mund oder die Nase in die Speiseröhre so weit vorgeschoben, dass die Elektroden in der Nähe des Herzvorhofs zu liegen kommen. Dieser Zugang wird vorwiegend für diagnostische Zwecke genutzt, da die atriale Lage eine bessere Differenzierung von Vorhof- und Kammeraktionen ermöglicht. Die Stimulation innerhalb der Speiseröhre verursacht jedoch Schmerzempfindungen, sodass die Ösophagus-Stimulation keine wesentliche Verbreitung fand. Passagere intrakardiale Stimulation. In vielen Fällen liegt
die Bradykardie nur vorübergehend vor, sodass eine temporäre Therapie ausreicht (im allg. Sprachgebrauch wird dies als passagere Stimulation bezeichnet). Sie ist z. B. indiziert bei:
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _35, © Springer-Verlag Berlin Heidelberg 2011
630
Kapitel 35 · Herzschrittmachersysteme
▬ Asystolien oder extremen Kammerbradykardien bei
▬ ▬ ▬ ▬
III
akuten sinuatrialen (SA) und atrioventrikulären (AV) Blöcken; Akuten Überleitungsstörungen bei frischem Vorderwandinfarkt; Komplizierten Schrittmacherwechseln; Als Prophylaxe bei Operationen am Herzen; Akuten Vergiftungen, vor allem mit Medikamenten, z. B. Digitalis oder Antiarrhythmika.
In diesen Fällen wird ein Katheter über einen venösen Zugang ins rechte Herz geschoben. Alternativ werden auch sog. Herzdrähte (flexible, isolierte Drähte mit jeweils einer Nadel an beiden Enden) durch die Brustwand hindurch im Herzen fixiert. Dies eignet sich insbesondere bei Operationen am offenen Herzen, da der Zugang dann ohnehin vorliegt. Die Pulsgenerierung erfolgt jeweils über einen externen Stimulator. Intrakardiale Stimulation mit Hilfe von Implantaten. Be-
sonders häufig ist jedoch eine permanente Stimulation bis ans Lebensende, z. B. bei: ▬ Erheblichen Störungen des Erregungsleitungssystems, wie sinuatriale (SA-) oder atrioventrikuläre (AV-) Blöcke 2. und 3. Grades oder fascikuläre Blöcke; ▬ Bradykardien und Arrhythmien nach Herzinfarkt; ▬ Krankem Sinusknoten (Sick-Sinus-Syndrom); ▬ Carotis-Sinus-Syndrom (dieses Krankheitsbild zeichnet sich durch eine Überempfindlichkeit der Pressorezeptoren im Carotis-Sinus aus, sodass z. B. durch Drehen des Kopfes eine akute Einschränkung der Herztätigkeit bewirkt wird). Technisch gesehen sind alle Wege sehr ähnlich. Klinisch ist jedoch die Anwendung von Implantaten von besonderer Bedeutung, sodass im Folgenden ausschließlich die Implantattechnik diskutiert werden soll.
⊡ Abb. 35.1. Aufbau eines Schrittmachersystems
35.1
Aufbau eines Schrittmachersystems
Ein Schrittmachersystem besteht aus einem externen Programmiergerät, dem eigentlichen Herzschrittmacher, der die Batterie und die elektronischen Elemente enthält, sowie der Schrittmacherelektrode (⊡ Abb. 35.1). Die Elektrode wird fast ausschließlich über einen venösen Zugang (z. B. die Vena Cava sup.) unterhalb des Schlüsselbeins in die rechte Herzhälfte vorgeschoben und dort verankert. Anschließend wird der Schrittmacher angeschlossen und subkutan in einer Hauttasche implantiert.
35.1.1 Das Programmiergerät
Durch Programmieren des Schrittmachers soll eine optimale Systemanpassung an die Bedürfnisse des Patienten erfolgen und die Lebensdauer der Batterie maximiert werden. Bei den heute erreichten langen Laufzeiten ist nicht davon auszugehen, dass die Bedingungen am Implantationstag über die gesamte Schrittmacherlebensdauer hinweg konstant bleiben. Es ist daher nötig, den Schrittmacher an wechselnde Bedingungen anpassen zu können. Zur Programmierung werden externe Geräte verwendet, die i. d. R. auf einer PC-Plattform basieren und eine herstellerabhängige kurzreichweitige Telemetrieeinrichtung betreiben. Diese meist auf einer induktiven Nahfeldkopplung im Bereich unter 100 kHz basierende Datenübertragung ermöglicht das Abfragen bzw. Neuprogrammieren des Implantates. Dazu wird zunächst der Programmierkopf auf der Haut über dem Schrittmachergehäuse platziert. Daraufhin werden die aktuellen Schrittmacherparameter sowie diagnostische Werte (Marker, Ereignishistogramme, EKG etc.) nach außen übertragen und ausgewertet. Abschließend werden die aktualisierten Parameter in das Implantat zurückgeladen. Wesentliche programmierbare Parameter sind:
631 35.1 · Aufbau eines Schrittmachersystems
▬ ▬ ▬ ▬ ▬
Stimulationsfrequenz (untere und obere Grenze); Impulsamplitude und -dauer; Eingangsempfindlichkeiten; Refraktärzeiten; Hysterese (Differenz zwischen Interventions- und Stimulationsfrequenz); ▬ AV-Zeit und -Hysterese; ▬ Schrittmachermodus. Die Zahl programmierbarer Parameter ist mittlerweile dreistellig, und die optimale Schrittmacherprogrammierung erfordert ein Spezialwissen, das auch für den Kardiologen eine zusätzliche Ausbildung nötig macht. Aus diesem Grund werden zunehmend Automatismen implementiert, die eine Selbstadaption des Implantates vornehmen. Zudem sind webbasierte Expertensysteme angedacht bzw. befinden sich bereits in der Erprobung, die eine ständige Verfügbarkeit des aktuellsten Wissens garantieren sollen. Für weiterführende Informationen muss auf die jeweiligen Handbücher der Schrittmacher sowie entsprechende Spezialliteratur (Alt 1995; Bolz u. Urbaszek 2002; Fischer u. Ritter 1997; Schaldach 1992) verwiesen werden.
35.1.2 Der Schrittmacher
Der Schrittmacher selbst besteht aus einer Batterie, der Elektronik sowie einem hermetisch schließenden TitanGehäuse und einem Epoxydharz-Konnektor zur Aufnahme der Elektroden (⊡ Abb. 35.2). Üblicherweise werden heutzutage Lithiumiodid-Batterien (Leerlaufspannung etwa 2,8 V, Kapazität etwa 1 Ah, Innenwiderstand zwischen einigen 100 Ω und 50 kΩ) als Energiequellen verwendet. Bei diesem Batterietyp besteht die Anode aus Lithium und die Kathode aus Jod. Die Lithiumiodid-Batterie bietet neben ihrer außerordentlich geringen Selbstentladung (< %/Jahr) vor allem auch eine große Stabilität des Innenwiderstandes über die Entladezeit hinweg. Erst gegen Ende der Lebensdauer fällt die Leerlaufspannung rapide ab. Lithiumiodid-Batterien bieten damit größtmögliche Sicherheit bei langer Laufzeit, geringen Abmessungen und geringem Gewicht. Auf diese Weise werden heute Laufzeiten von 5–10 Jahren erreicht (Fischer u. Ritter 1997). Der in den Anfängen der technischen Entwicklung und auch heute noch gelegentlich diskutierte Trend zu Primärzellen, also wiederaufladbaren Akkumulatoren, bietet keinen wesentlichen Vorteil. Der vermeintlichen Lebensdauerverlängerung ist ein deutlicher Anstieg der alterungsbedingten Ausfälle nach etwa 10 Jahren gegenüberzustellen, sodass sich ein Implantatwechsel nach dieser Zeit ohnehin empfiehlt. Die Elektronik ist i. d. R. als Multichipmodul in Hybridbauweise ausgeführt. Die ehemals verwendete Dickfilmtechnik wird aufgrund der zunehmenden Komple-
⊡ Abb. 35.2. Schnittbild eines DDD-Schrittmachers (Quelle Biotronik)
xität der Schaltungen zunehmend durch Mehrlagenkeramiken abgelöst. In neuerer Zeit finden auch ganz neue PCB-Technologien Interesse (z. B. Dycostrate), die dank ihrer Flexibilität eine deutliche Vereinfachung der elektrischen Verbindungstechonologie erlauben und somit die Qualität der Geräte verbessern.
35.1.3 Die Schrittmacherelektrode
Die Schrittmacherelektrode oder Sonde stellt die Verbindung zwischen Schrittmacher und Herz her. Sie besteht aus dem Konnektor, d. h. dem Stecker zum Anschluss an den Schrittmacher, dem Elektrodenleiter und der Elektrodenspitze (⊡ Abb. 35.3). Mit dem IS-1-Standard wurde eine Vereinheitlichung der Konnektorkonfiguration erreicht (Schaldach 1992), sodass sich alle Elektroden neuerer Bauart an beliebige Schrittmacher anschließen lassen. Eine der wesentlichen technischen Herausforderungen stellt die hohe Biegebelastung von etwa 40 Millionen Lastwechseln pro Jahr dar. Aus diesem Grunde werden die Elektrodenleiter heutzutage aus vier gewendelten Einzeldrähten gefertigt, wodurch größtmögliche Sicherheit bei hoher Flexibilität erzielt wird. Durch das Wendeln des Drahtes wird zudem der Biegeradius reduziert, was die Wechsellastbeanspruchung des Zuleitungsmaterials (i. d. R. Edelstahl MP35N) reduziert. Elektrodenbruch stellt daher kein nennenswertes Problem mehr dar. Die neuesten Entwicklungen im Bereich der multifokalen Stimulation ( Abschn. 35.3.6 und 35.3.7) erfordern teilweise sehr dünne Elektroden. In diesen Fällen finden sog. DFT-Seile Anwendung, die aus Spezialdrähten mit einem Mantel aus MP35N und einem Silberkern her-
35
632
III
Kapitel 35 · Herzschrittmachersysteme
gestellt werden. Diese gewährleisten geringe elektrische Widerstände bei gleichzeitiger hoher mechanischer Festigkeit. Besondere Anforderungen werden an das Isolationsmaterial gestellt. Es muss biokompatibel sein und zugleich der mechanischen und chemischen Belastung im Körper standhalten. Derzeit werden Isolationen aus Silikon und Polyurethan verwendet (Fischer u. Ritter 1997; Schaldach 1992). Polyurethan weist zwar einen wesentlich geringeren Reibungskoeffizienten auf, weshalb es insbesondere bei Implantation mehrerer Elektroden über das gleiche Gefäß bevorzugt wird. Die klinischen Erfahrungen zeigen jedoch, dass es bei geringfügigen, in der Produktion kaum kontrollierbaren Verschmutzungen zu einer Hydrolyse und damit einer Alterung bzw. Versprödung neigt, die letzten Endes zu einem lebensgefährlichen Kurzschluss führt. Aus diesem Grund mussten vor wenigen Jahren mehrere 10.000 Elektroden verschiedener Hersteller explantiert bzw. ersetzt werden, weshalb zur Zeit Silikon als Isolationsmaterial bevorzugt wird.
⊡ Abb. 35.3. Schematischer Aufbau einer Schrittmacherelektrode
Ferner werden uni- und bipolare Schrittmacherelektroden unterschieden (⊡ Abb. 35.4). Unipolar bedeutet, dass die Elektrodenspitze als Kathode und das Schrittmachergehäuse (bzw. eine andere großflächige Gegenelektrode) als Anode arbeiten. Wegen der erheblich größeren Oberfläche des Schrittmachers gegenüber der Elektrodenspitze wird das Gehäuse auch als »indifferenter Pol« bezeichnet. Bipolare Sonden arbeiten ebenfalls mit einer kathodischen Spitze. Die Anode ist jedoch zusätzlich im distalen Elektrodenbereich (ca. 2,5 cm von der Spitze entfernt) angeordnet. Bipolare Sonden sind etwas dicker und steifer als unipolare Elektroden, da sie zwei Zuleitungswendeln besitzen. Eine Reparatur bei Elektrodenbruch ist kaum möglich. Wichtige Vorteile der bipolaren Sondentechnik sind die Unempfindlichkeit gegenüber elektrischen Potentialen, deren Ursprung außerhalb des Implantationsortes der Elektrodenspitze liegt (Potentiale der Skelettmuskulatur, P-Welle bei Ventrikelsonden, R-Zacke bei Vorhofsonden) und das geringere Risiko von Muskelkontraktionen auch bei hoher Energieabgabe (Alt 1995; Fischer u. Ritter 1997). Außerdem heben sich Störungen durch elektromagnetische Einkopplungen in die Zuleitungen auf. Ein verbreiteter Kompromiss ist die Implantation bipolarer Sonden im Herzvorhof (kleineres Potential erfordert eine höhere Empfindlichkeit und die Unterdrückung von Störsignalen) und unipolarer Sonden im Herzkammerbereich. Der Elektrodenkopf steht in direktem Kontakt zum Endokard. Seine Größe, Geometrie und Oberflächenstruktur stellen wesentliche Determinanten der Stimulations- und Detektionseigenschaften dar. Eine poröse bzw.
⊡ Abb. 35.4. Elektrische Feldverteilung und EKG bei uni- und bipolarer Reizung
633 35.2 · Die Funktionalität eines Herzschrittmachers
fraktale Oberfläche hat sich als vorteilhaft erwiesen (Bolz 1994). Die Verankerung des Sondenkopfes wird über verschiedene Fixationssysteme erreicht (⊡ Abb. 35.5a,b). Man unterscheidet Elektroden mit passiver Fixierung (widerhakenähnliche Ankersysteme aus dem Isolationsmaterial der Elektrode) von solchen mit aktiver Fixierung (Schraubsystem am Elektrodenkopf). Erstere werden bevorzugt für die Elektrodenverankerung in der stark gegliederten Oberfläche der rechten Herzkammer (Trabekelstruktur), letztere für die Verankerung im glatteren rechten Herzvorhof angewandt. Einen Zwitter stellen sog. J-Elektroden dar, die dank einer J-förmigen Vorformung der Elektrodenzuleitung für einen stabilen Wandkontakt sorgen. Sie finden vorwiegend im Atrium Anwendung. Für die passagere Schrittmacherstimulation zur Überbrückung von Notfallsituationen werden Sonden ohne Fixationsmechanismus eingesetzt, die sich problemlos wieder entfernen lassen. Alle beschriebenen Elektroden werden transvenös zum rechten Herzen geführt. Sie stimulieren die Herzinnenseite und werden daher als endokardiale Elektroden bezeichnet. Epikardiale Elektroden, die außen auf dem Herzen angebracht werden, sind für die permanente Schrittmachertherapie nicht mehr von Bedeutung. Sie spielen allenfalls für pädiatrische Anwendungen noch eine geringe Rolle. Schrittmacherelektroden sind innen hohl. Dies erlaubt, während der Implantation einen Versteifungsdraht (Mandrine) einzuführen, was das Einschieben der Elektrode erleichtert. Vor dem Anschluss der Elektrode an den Schrittmacher wird der Mandrine wieder entfernt.
35.2
a
Die Funktionalität eines Herzschrittmachers
Ein Herzschrittmacher stimuliert nicht nur blind in einem festgelegten Takt, sondern versucht, sich auf den noch vorhandenen Rhythmus des Herzens zu synchronisieren und nur im Bedarfsfall einzugreifen. Sein Aufbau lässt sich somit in drei Grundmodule unterteilen, die Eingangsstufe zur Detektion intrakardialer elektrischer Signale und damit von physiologischen Ereignissen, die Ausgangsstufe zur Stimulation des Herzens und eine Steuereinheit, die die physiologischen Erfordernisse wie Herzrate, Synchronität etc. berücksichtigt (⊡ Abb. 35.6). Die Komplexität der Steuereinheit wird in besonderem Maße von der Art des Krankheitsbildes und damit dem zu verwendenden Stimulationsmodus bestimmt, sodass diesem Aspekt ein besonderer Abschnitt gewidmet ist ( Abschn. 35.3).
35.2.1 Die Wahrnehmungsfunktion
Die Eingangsempfindlichkeit eines Schrittmachersystems beschreibt seine Fähigkeit, elektrische Signale des Her-
b ⊡ Abb. 35.5a,b. a Passiv und b aktiv verankerbare Sondenköpfe von Herzschrittmacherelektroden. Die oberste der passiven Elektroden ist eine sog. J-Elektrode, darunter folgen eine bipolare sowie eine unipolare Standardelektrode. Die aktiv zu verankernde Schraubelektrode ist einmal mit ausgefahrener Spitze (bereit zum Einschrauben in das Myokard) und daneben mit zurückgezogener Spitze (zur Vermeidung von Komplikationen beim Einführen der Elektrode in das Herz) dargestellt
35
634
III
Kapitel 35 · Herzschrittmachersysteme
⊡ Abb. 35.6. Grundlegendes Blockschaltbild eines Herzschrittmachers
zens im Millivoltbereich wahrzunehmen und als Kontraktion des Vorhofes bzw. der Kammer zu interpretieren (Wahrnehmungs-, Detektions- oder Sensingfunktion). Der grundlegende Aufbau der dafür erforderlichen Eingangsstufe entspricht der eines EKG-Verstärkers (Bolz u. Urbaszek 2002) wobei die Randbedingungen eines Implantates (Baugröße, Versorgungsspannung, Energiebedarf) teilweise besondere Lösungsansätze erfordern. Zur Differenzierung von physiologischen Signalen des Herzens und Störsignalen werden in Schrittmachern Eingangsfilter benutzt. Die Filtercharakteristik ist mittlerweile standardisiert (z. B. DIN 7505, Teil 9), um verbindliche Sicherheitsstandards zu schaffen. Die größte Eingangsverstärkung eines Schrittmachers liegt danach zwischen 30 und 70 Hz (Hubmann et al. 1993). In der klinischen Praxis wird ferner ein indirektes Maß für den Frequenzgehalt des elektrischen Signals verwendet, die maximale Anstiegssteilheit (Slew rate), die durch Differenzieren leicht zu bestimmen ist. Damit ein Signal vom Schrittmacher als solches erkannt wird, muss es eine bestimmte Slew rate übersteigen. Die Grenzwerte der Slew rate liegen im Herzvorhofbereich bei 0,5 V/s und in der Herzkammer bei 1 V/s. Ein weiterer Parameter zur Definition der Wahrnehmungsfunktion ist die Amplitude des Signals. Die sog. Wahrnehmungsschwelle oder Empfindlichkeit eines Schrittmachers ist in aller Regel programmierbar. Im Herzvorhof wird eine Amplitude von 2,5 mV angestrebt, in der Herzkammer sind Werte bis zu 10 mV abzugreifen, häufig liegen die realen Signale jedoch deutlich tiefer (Alt 1995). Eine weitere Besonderheit ist das sog. »Blanking«. Der Detektionskanal hängt an der gleichen Elektrode wie die Ausgangsstufe. Durch den Stimulationsimpuls würde der Verstärker übersteuert und längere Zeit außer Funktion gesetzt werden. Aus diesem Grund werden kurz vor Abgabe eines Impulses die Eingänge über einen Transistor entkoppelt, was allgemein als »Blanking« bezeichnet wird. Wenige ms nach dem Stimulationsimpuls werden die Blanking-Schalter wieder geschlossen. An das physikalische Blanking im Sinne eines Schalters schließt sich das »logische Blanking« an. Das bedeutet, dass alle Detektionsereignisse innerhalb eines bestimm-
ten Fensters nach dem Impuls von der nachfolgenden Schaltung nicht ausgewertet werden. Dies hat mehrere Gründe. Zum einen werden Schwingungsvorgänge, wie sie beim erneuten Einschalten des Verstärkers aufgrund geringfügiger Spannungsunterschiede unvermeidlich sind, nicht als physiologische Ereignisse fehlinterpretiert. Zum anderen lassen sich auf diese Weise in Analogie zum zellulären Verhalten Refraktärzeiten einführen, in denen ein Eingangsverstärker unempfindlich geschaltet wird. Die Vorteile einer solchen Refraktärzeit werden im Abschn. 35.3 bei der Vorstellung der unterschiedlichen Schrittmachermodi näher erläutert.
35.2.2 Die Stimulationsfunktion
Das Verhalten eines Stimulationssystems wird durch den eigentlichen Impulsgenerator, die zur Ankopplung erforderlichen Elektroden und das Gewebe bestimmt, durch das der Erregungsstrom fließt. Eine sehr detaillierte Beschreibung dieses Systems findet sich in (Bolz 1994). Der Impulsgenerator. Nahezu alle Impulsgeneratoren beruhen auf dem Prinzip der Kondensatorentladung, d. h. ein sog. Reservoirkondensator Cres wird über den Schalter S1 während der passiven Phase auf eine bestimmte Spannung aufgeladen und entlädt sich in der aktiven Phase über den Schalter S2 und einen zusätzlichen Koppelkondensator Cc in das zu erregende Gewebe (⊡ Abb. 35.7). Liegt die benötigte Stimulationsspannung über der Batteriespannung Ubat, so sorgt eine nachgeschaltete Ladungspumpenschaltung für eine Spannungsvervielfachung um den Faktor n. Dieser Aufbau verhindert, dass im Falle eines einzelnen Bauteildefektes (z. B. Schalter defekt) die Batterie direkt an das Myokard angekoppelt wird, was zu einer Elektrolyse und damit einer Schädigung des umliegenden Gewebes führen würde. Dieses Prinzip erhöht die Sicherheit der Stimulatoren und wird als »single failure safety« bezeichnet. Ausgangsspannung und -strom sind damit zeitlich keineswegs konstant, sondern sinken in Abhängigkeit von der Impedanz der externen Komponenten nahezu exponentiell ab. Da sich kapazitive Komponenten (Cc sowie die Phasengrenzkapazitäten der Elektroden) durch den Stimulationsimpuls aufladen, muss zwischen den einzelnen Stimuli für eine effektive Entladung gesorgt werden. Dies erfolgt mit Hilfe eines sog. Autoshort-Schalters S3, der während der passiven Phase geschlossen wird. Die Elektroden. Vom elektrotechnischen Standpunkt aus
betrachtet stellen Schrittmacherelektroden FestkörperElektrolyt-Übergänge dar. Eine ausführliche Beschreibung derartiger Systeme findet sich in (Bolz u. Urbaszek 2002). Damit weisen sie aufgrund der Helmholtzschicht und
35
635 35.2 · Die Funktionalität eines Herzschrittmachers
⊡ Abb. 35.7. Ersatzschaltbild eines Stimulationssystems bestehend aus Impulsgenerator, Elektroden und Gewebe
eventueller oxidischer Deckschichten kapazitive Eigenschaften auf. CH beschreibt im Folgenden die spezifische Helmholtzkapazität, die erst durch Multiplikation mit der geometrischen Elektrodenoberfläche A die für das Schaltbild interessante Kapazität liefert. Auf diese Weise lassen sich Oberflächenmodifikationen, die zu einer Aufrauhung und damit einer größeren elektrochemischen Kontaktfläche führen, leicht im Modell berücksichtigen. RF beschreibt entsprechend den Faraday-Widerstand und RL steht für den Zuleitungswiderstand.
schätzungen möglich sind (⊡ Tab. 35.1). Mit Hilfe der Laplace-Transformation und den Vereinfachungen
( C1 + C1 + C
C1 =
res
c
1 1 . A + CHindiff . Ain ,
diff H
Cm . A , 2
C2 =
)
(35.1)
(35.2)
R = Rfibrotic + Rtissue,
(35.3)
indiff , R1 = Rdiff F + RF
(35.4)
R2 = Rshunt,
(35.5)
a = (R1 . R2 + R1 . R + R2 . R) . C1 . C2,
(35.6)
b = (R2 + R) . C2 + (R1 + R2) . C1,
(35.7)
Das Gewebe. Zur Elektrostimulation des Herzens ist die
Erregung mindestens einer Herzmuskelzelle (Myozyte) erforderlich, d. h. eine Depolarisation ihrer Zellmembran. Im Ruhezustand beträgt das Transmembranpotential etwa –90 mV. Wird dieser Wert um die Depolarisationsspannung Udep von etwa 30 mV erhöht, so setzt eine automatische Depolarisation und damit die Kontraktion ein. Für die Stimulation mit Hilfe extrazellulärer Elektroden ist somit ein Verschiebungsstrom über die Zellmembran hinweg notwendig. Das elektrotechnische Ersatzschaltbild für das Zielorgan besteht folglich in erster Näherung aus einer spezifischen Zellmembrankapazität Cm und einem parallel angeordneten ohmschen Widerstand Rextra, der den Extrazellularraum berücksichtigt. Hinzu kommen drei weitere annähernd ohmsche Beiträge. Rfibrotic repräsentiert den Widerstand der dünnen Schicht fibrotischen Gewebes, dass sich nach der Implantation zwischen Elektrode und Stimulationsort entwickelt. Rtissue beschreibt den Widerstand des Gewebes zwischen dem Stimulationsort und der Gegenelektrode. Rshunt steht für einen Verluststrom, der über das Blut oder andere Gewebeteile nicht in das Zielorgan eingekoppelt wird, sondern direkt in die Gegenelektrode fließt. Alle genannten Elemente sind zumindest in ihrer Größenordnung bekannt, sodass auch quantitative Ab-
und den beiden Polen p1 und p2 p1
b b 2 4a , 2a
(35.8)
p1
b b2 4a , 2a
(35.9)
ergibt sich die als Reizschwelle bezeichnete, für eine erfolgreiche Stimulation mindestens erforderliche Pulsspannung zu: U thr
2 U dep b 2 4a . C1 R 2 exp(p1 T) exp( p2 T)
(35.10)
Auf die gleiche Weise erhält man auch eine für die Berechnung der Lebensdauer wichtige Beziehung für die Ladung, die pro Stimulus der Batterie entnommen werden muss (Bolz 1994). Eine für die Entwicklung neuer Sys-
636
Kapitel 35 · Herzschrittmachersysteme
⊡ Tab. 35.1. Zusammenfassung der verwendeten Parameter und ihrer Zahlenwerte (Schmidt u. Thews 1980, Snell 1968, Vetter 1961, Zheng 1984) Parameter
Bereich
Mittelwert
Quelle
Reservoirkapazität Cres
5–20 μF
10 μF
10
Koppelkapazität Cc
5–20 μF
Spez. Helmholtz-Kapazität CH
III
Polierte Oberfläche Fraktale Oberfläche
10 μF
10
0,1–0,4
μF/mm2
0,2 μF
11
10–500
μF/mm2
40 μF
12 10
Zuleitungswiderstand R1
10–100 Ω
50 Ω
Geom. Elektrodenfläche A
1–20 mm2
10 mm2
Fläche der indifferenten Elektrode Ain
Unipolar Bipolar
Impulsdauer T
5–15 cm 20–100
2
2
10 cm
mm2
0,1–2 ms
Membrankapazität Cm
10 10
2
50 mm
10
0,5 ms
10
0,01 μF/mm2
13
Gewebewiderstand R
30–70 kΩ
40 kΩ
14
Shuntwiderstand Rshunt
0,1–2 kΩ
600 Ω
10
30 mV
15
Depolarisationsspannung Udep
teme besondere Bedeutung besitzt die spezifische Helmholtzkapazität. Mit zunehmendem CH sinken sowohl die Reizschwelle als auch der Ladungsschwellenwert. Klinisch bedeutet dies, dass Elektroden mit fraktaler Oberfläche den geringsten Energieverbrauch und damit die längste Implantatlebensdauer gewährleisten. Um zugleich die ohmschen Anteile des Gewebes zu maximieren, sollte der Elektrodenkopf möglichst klein sein. Diese Bauform, geometrisch kleiner Kopf mit hoher spezifischer Phasengrenzkapazität, ist in den letzten 5 Jahren unter dem Begriff »Hochohmelektroden« ein Standard geworden. Die ⊡ Abb. 35.8 zeigt die Abhängigkeit der Reizschwelle von der Impulsdauer. Aus dem Blickwinkel der Ausgangsspannung empfiehlt es sich, die Impulsdauer groß zu wählen, um somit das mit hohen Umwandlungsverlusten behaftete Einschalten einer Ladungspumpe zu umgehen. Zugleich zeigt sich jedoch, dass längere Impulsdauern nahezu linear den Ladungsverbrauch erhöhen. Aus klinischer Sicht ist somit die kürzeste Impulsdauer zu wählen, die ohne Ladungspumpe noch möglich ist. Um eine einfache Faustformel für die Optimierung der Impulsparameter angeben zu können, sind empirisch die beiden Begriffe Chronaxie und Rheobase eingeführt worden, die sich anhand der Reizschwellenkurve bestimmen lassen. Die Rheobase ist ein theoretischer Wert und beschreibt die minimale Spannung, die bei unendlicher Impulsdauer eine elektrische Antwort des Herzens auslöst. Die Chronaxie bezeichnet die Impulsdauer an der Reizschwelle für eine Spannung der doppelten Rheobasestärke. Das energetische Optimum liegt erfahrungsgemäß in der Nähe der Chronaxie (Alt 1995).
⊡ Abb. 35.8. Die Reizschwelle als Funktion der Impulsdauer. Bei Amplitudenwerten oberhalb der Kurve ist eine effektive Stimulation zu erreichen
35.3
Stimulationsmodi
Aus physiologischer Sicht werden die beiden Vorhöfe bzw. die beiden Kammern stets gemeinsam erregt. Aus diesem Grunde sind nur maximal zwei Stimulationsorte – einer in der atrialen und/oder einer in der ventrikulären Ebene – und entsprechend nur maximal zwei Detektionsorte erforderlich. Auf dieser Basis wurde der allgemein anerkannte NBG-Code zur Definition der Stimulationsmodi entwickelt. Die in neuerer Zeit für besondere Herzerkrankungen (interatriale Reizleitungsstörung, Herzinsuffizienz) eingeführten multifokalen Modi ermöglichen eine biatriale bzw. biventrikuläre Stimulation, sind jedoch im NBGCode noch nicht berücksichtigt.
637 35.3 · Stimulationsmodi
35.3.1 Internationaler (NBG-)
Schrittmachercode Der seit 1988 geltende NBG-Code (NASPE/BPEG Generic Pacemaker Code) beschreibt die globale Funktion eines Schrittmachers unter Angabe von maximal fünf Buchstaben, von denen die ersten drei immer, der vierte und fünfte Buchstabe wahlweise verwendet werden (Fischer u. Ritter 1997, Übersicht).
Beschreibung der globalen Funktion eines Schrittmachers nach NBG-Code 1. Der erste Buchstabe bezeichnet den Stimulationsort: V: Ventricle: Stimulation nur in der Herzkammer A: Atrium: Stimulation nur im Herzvorhof D: Dual: Stimulation in Atrium und Ventrikel S: Single: Einkammerstimulation in Atrium oder Ventrikel 0: Keine Stimulation 2. Der zweite Buchstabe kennzeichnet den Ort der Wahrnehmung: V: Ventricle: Detektion nur in der Herzkammer A: Atrium: Detektion nur im Herzvorhof D: Dual: Detektion in Atrium und Ventrikel S: Single: Einkammerwahrnehmung in Atrium oder Ventrikel 0: Keine Wahrnehmung 3. Der dritte Buchstabe definiert die Betriebsart, d. h. die Schrittmacherfunktion, die durch ein wahrgenommenes Signal ausgelöst wird: I: Inhibited: Die Schrittmacherstimulation wird unterdrückt T: Triggered: Ein wahrgenommenes Signal führt zur Impulsabgabe des Schrittmachers D: Dual: Inhibierung und Triggerung 0: Keine Inhibierung und keine Triggerung 4. Der vierte Buchstabe beschreibt Programmierbarkeit, Telemetrie und Frequenzadaption: 0: Nicht programmierbar P: Programmable: Bis zu zwei Funktionen programmierbar M: Multi programmable: Mehr als zwei Funktionen programmierbar C: Communication: Datentelemetrie möglich R: Rate modulation: Anpassung der Schrittmacherfrequenz an ein belastungsinduziertes Signal 5. Der fünfte Buchstabe bezeichnet die Multifokalebzw. Multisite-Stimulation: 0: Keine Funktion A: Atrium V: Ventrikel D: Dual (Atrium und Ventrikel)
Durch Kombination unterschiedlicher Detektions- und Stimulationskanäle in Verbindung mit verschiedenen Betriebsarten ergibt sich eine Vielzahl möglicher Schrittmachermodi. Eine umfassende Erläuterung findet sich in (Bolz u. Urbaszek 2002). Im Folgenden werden die beiden häufigsten Modi, der VVI und der DDD-Modus, detaillierter erläutert.
35.3.2 VVI-Schrittmacher
Der VVI-Schrittmacher ist ein Einkammerschrittmacher, bei dem eine einzige Elektrode im rechten Ventrikel verankert wird. Er detektiert zusätzlich zur starrfrequenten Ventrikelstimulation des V00 auch die Ventrikelaktivität und inhibiert bei Auftreten einer ventrikulären Eigenaktion seinen Ausgang. Somit stimuliert ein VVI-System nur bei Bedarf, d. h. bei Ausfall der natürlichen Erregung, weshalb er zur Gruppe der sog. »Demandschrittmacher« gezählt wird. Das Prinzipschaltbild zeigt die ⊡ Abb. 35.9. Das Flussdiagramm (⊡ Abb. 35.10) zeigt die prinzipielle Funktionsweise. Zeitgleich werden das Grundintervall
⊡ Abb. 35.9. Blockschaltbild des VVI-Schrittmachers. Die Ventrikelelektrode führt über einen Eingangsverstärker (1) und ein Monoflop zur Kontrolle der Ventrikelrefraktärzeit (2) zu einer Steuer- und Logikschaltung (ST&LS), die zugleich auch den Ausgang des Grundintervallzählers (6) auswertet. Der Stimulationskanal gleicht dem V00Schrittmacher
⊡ Abb. 35.10. Flussdiagramm eines VVI-Schrittmachers
35
638
III
Kapitel 35 · Herzschrittmachersysteme
⊡ Abb. 35.11. Funktionsdiagramm eines VVI-Schrittmachers
und die Refraktärzeit des ventrikulären Detektionskanals gestartet. Wird eine Eigenaktion innerhalb der Refraktärzeit detektiert, so wird sie als Störung interpretiert und verworfen. Wird sie außerhalb der Refraktärzeit wahrgenommen, so werden der Grundintervall- und Refraktärzeitzähler zurückgesetzt. Wird keine R-Zacke detektiert, so verhält sich der VVI-Schrittmacher wie ein V00 und stimuliert nach Ablauf des Grundintervalls. Im Funktionsdiagramm (⊡ Abb. 35.11) sind die ventrikulären Stimuli mit V gekennzeichnet. Im Vergleich zum V00-Prinzip kommen nun R-Ereignisse hinzu, die die Detektion einer R-Zacke anzeigen. Eine dritte Markierung, unterhalb der Zähleranzeige aufgetragen, zeigt das Ende der künstlichen Refraktärzeit (RFZ-V) des ventrikulären Detektionskanals an. Im EKG sind zunächst zwei stimulierte Ereignisse (V) dargestellt, die durch das Ablaufen des Grundintervalls ausgelöst wurden. Es folgt ein natürliches Ereignis (R), das außerhalb der Refraktärzeit detektiert wird und den Zähler zurücksetzt. Der Schrittmacher gibt keinen Stimulationsimpuls ab, d. h., er befindet sich im inhibierenden Modus. Danach liegt ein Ausweichintervall vor, da keine Eigenaktion detektiert wird. Es schließt sich wieder ein normales Grundintervall an. Die auf das stimulierte Ereignis (V) folgende ventrikuläre Extrasystole (VES) wird, weil außerhalb der Refraktärzeit, als herzeigene Erregung erkannt, sodass der Zähler wieder zurückgesetzt wird. Danach folgt wieder ein Ausweichund ein Grundintervall mit den zugehörigen Ventrikelstimuli.
Einsatzgebiet des VVI-Schrittmachers. Generell lassen sich mit einem VVI-Schrittmacher alle Bradykardien therapieren. Umfangreiche Studien haben jedoch in den letzten Jahren bewiesen, dass die Mortalität von Patienten mit einem VVI-Schrittmacher deutlich höher liegt als bei synchron stimulierten Patienten. Sinnvoll ist der Einsatz von VVI-Schrittmachern daher nur bei Patienten mit Vorhofflattern oder -flimmern in Verbindung mit einem AV-Block sowie Vorhof-Paralysen (nicht kontraktionsfähiger Vorhof).
35.3.3 Zweikammer-Schrittmacher
Bei Zweikammer-Herzschrittmachern werden sowohl im Vorhof als auch in der Kammer Elektroden eingebracht, um eine synchrone Stimulation gewährleisten zu können. Daraus ergeben sich zwei prinzipielle Funktionsmöglichkeiten, die vorhof- und die ventrikelbasierte Aktion. Beim vorhofgesteuerten Ablauf starten der Grundintervallzähler und der neu hinzugekommene AV-Zähler, der das natürliche PR-Intervall nachbildet, immer gleichzeitig. Der ventrikelbasierte Ablauf verwendet dagegen eine Serienschaltung der beiden Zähler, bei der zunächst der AV-Zähler ablaufen muss, bevor der Zeitzähler gestartet werden kann und umgekehrt. Der unterschiedliche Ansatz lässt sich besonders gut am Beispiel des DDDSchrittmachers erläutern.
Der vorhofgesteuerte DDD-Schrittmacher Klinische Beurteilung des VVI-Schrittmachers. Der VVI-
Schrittmacher arbeitet energiesparend, da er nur aktiv wird, wenn keine herzeigene Aktivität vorliegt (Demandschrittmacher). Ebenso führt er nicht zu Parasystolien und vermeidet die Stimulation in die vulnerable Phase. Wie der V00 Schrittmacher ist er aber nicht in der Lage, über eine Ratenadaption eine Anpassung an die körperliche Belastung vorzunehmen. Das Hauptproblem stellt jedoch die Asynchronie zum Vorhof dar, die ein Schrittmachersyndrom auslösen kann.
Die Nachteile des DVI-Schrittmachers, inbesondere die Gefahr der Stimulation in die vulnerable Phase einer atrialen Eigenaktion, behebt der DDD-Schrittmacher (⊡ Abb. 35.12), der aus Sicht der Rhythmologie gewissermaßen den »Alleskönner« unter den Herzschrittmachern darstellt. Er kombiniert die Funktionsmodi AAI, VAT und VVI. Von allen Schrittmachern kommt der DDD-Schrittmacher der physiologischen Funktion des Herzens am nächsten. DDD bedeutet, dass sowohl im Ventrikel als
639 35.3 · Stimulationsmodi
auch im Vorhof stimuliert und detektiert werden kann. Ebenso beherrscht der Schrittmacher den Trigger- und den Inhibit-Modus. Nach jeder Vorhoferregung (natürlich oder nach Ablauf des Grundintervalls künstlich hervorgerufen) wird das AV-Intervall gestartet. Wird keine ventrikuläre Herzaktivität detektiert, so wird am Ende des AV-Intervalls der Ventrikel stimuliert. Ventrikuläre Extrasystolen (VES) setzen den Grundintervallzähler zurück, ohne ein AVIntervall zu starten. Dies führt automatisch zu einer Kompensationspause. Der Grundintervallzähler wird folglich zurückgesetzt, wenn a) ein atrialer Stimulus abgegeben wird, b) eine natürliche Vorhoferregung detektiert wurde oder c) eine natürliche spontane Ventrikelerregung außerhalb des AV-Intervalls – also eine ventrikuläre Extrasystole auftritt.
⊡ Abb. 35.12. Vorhofgesteuerter DDD-Schrittmacher: Sowohl das Atrium als auch der Ventrikel verfügen über einen Detektions- und einen Stimulationskanal. Der Grundintervallzähler (6) ist an die Vorhofsteuereinheit angeschlossen, die über den AV-Zähler auf die ventrikuläre Steuereinheit wirkt
Zusätzlich werden nach jedem Ereignis die jeweiligen Refraktärzeiten gestartet. Als Besonderheit sollte an dieser Stelle eine atriale Refraktärzeit aufgeführt werden, die zusätzlich zu der bereits beschriebenen nach ventrikulären Ereignissen beginnt. Diese sog. »postventrikuläre atriale Refraktärzeit« (PVARP) hat die Aufgabe, das Detektieren von ventrikulären Stimuli bzw. deren retrograder Rückführung auf den Vorhof zu unterbinden. Ohne diese Schutzmaßnahmen käme es leicht zu einer Selbstdetektion des eigenen Ausgangssignals und damit zu einer schrittmacherinduzierten Tachykardie. Details zeigt ⊡ Abb. 35.13. In der ersten Zeile des Funktionsdiagramms (⊡ Abb. 35.14) sind Detektion und Stimulation im Vorhof (P, A) und Ventrikel (R, V) dargestellt. Die kleinen Striche nach oben geben die Endpunkte der Refraktärzeiten des Vorhofes und die nach unten die des Ventrikels an. Die zweite Zeile des Funktionsdiagramms enthält den Grundintervallzähler mit den Refraktärzeiten der Ventrikel und der Vorhöfe. Die unterste Zeile stellt den AV-Zähler dar, der über eine sog. AV-Hysterese verfügt. Das AV-Intervall lässt sich mit Hilfe eines zweiten Triggerlevels verlängern, sobald das vorangegangene atriale Ereignis stimuliert wurde und nicht physiologischer Natur war. Auf diese Weise werden Laufzeitunterschiede kompensiert, was eine gleichbleibend gute AV-Synchronisierung gewährleistet. Die dritte Zeile im Funktionsdiagramm (⊡ Abb. 35.14) enthält das Oberflächen-EKG. Das EKG zeigt zunächst eine atriale Schrittmacherstimulation (A) mit anschließender künstlicher P-Welle. Nachdem das AV-Intervall
⊡ Abb. 35.13. Flussdiagramm eines vorhofgesteuerten DDDSchrittmachers
35
640
Kapitel 35 · Herzschrittmachersysteme
III
⊡ Abb. 35.14. Funktionsdiagramm des vorhofgesteuerten DDD-Schrittmachers
⊡ Abb. 35.15. Flussdiagramm des ventrikelgesteuerten DDD-Schrittmachers
abgelaufen ist, erfolgt die Ventrikelstimulation und die PVARP wird gestartet. Nachdem der Zeitzähler abgelaufen ist, wiederholt sich der oben beschriebene Zyklus. Nun folgt eine detektierte natürliche Vorhoferregung (P). Der Grundintervallzähler wird zurückgesetzt und ein AV-Intervall gestartet. Da es sich um eine natürliche PWelle handelt, wird keine AV-Hysterese verwendet. Während des AV-Intervalls wird keine natürliche ventrikuläre Erregung detektiert und folglich nach dessen Ablauf ein ventrikulärer Schrittmacherstimulus abgegeben (V) sowie der PVARP-Timer gestartet. Anschließend läuft der Grundintervallzähler ab, woraufhin ein Schrittmacherimpuls im Vorhof erzeugt wird (A). Noch bevor das AV-Intervall abläuft, wird die R-Zacke der ventrikulären Eigenaktion detektiert. Der vorgesehene Ventrikelstimulus wird inhibiert und kein PVARP–Timer gestartet. Die nun folgende ventrikuläre Extrasystole erkennt der Schrittmacher, woraufhin er den Grundintervallzähler zurücksetzt und die Refraktärzeit startet. Nach der Kompensationspause folgen wiederum ein atrialer (P) und ein ventrikulärer Schrittmacherstimulus (V). Die P-Welle des nachfolgenden natürlichen EKGs wird vom Schrittmacher erkannt (P) und der atriale Stimulus inhibiert. Die detektierte R-Zacke (R) verhindert einen Ventrikelstimulus, da sie vor Ablauf des AVIntervalls auftritt.
DDD-Schrittmacher (ventrikelgesteuert) Der entscheidende Vorteil des DDD-Systems – die komplette Synchronität beider Kammern – lässt sich natürlich auch bei einer Zeitsteuerung durch die Ventrikelebene erzielen. Beim ventrikelbasierten Timing arbeiten die beiden Zähler AV und Grundintervall (hier auch als VorhofEscape bezeichnet) in Serie und sind niemals gleichzeitig aktiv (⊡ Abb. 35.15). Zunächst wird im Vorhof gemessen. Tritt eine atriale Eigenaktion ein, so wird der AV-Zähler gestartet und in der Kammer versucht, Signale zu detektieren. Falls keine Vorhoferregung auftritt, wird am Ende eines VorhofEscapeintervalls ein künstlicher Vorhofstimulus abgegeben und dann in der Kammer weiter gemessen. Tritt in der Kammer eine natürliche Erregung auf, so wird wieder im Vorhof gemessen und der zugehörige Zeitzähler gestartet. Ist dies nicht der Fall, so wird nach Ablauf eines AV-Intervalls wieder ein Ventrikelstimulus abgegeben, der Zähler zurückgesetzt und im Vorhof gemessen. Zur Vereinfachung wurde hier auf die Darstellung der Refraktärzeiten verzichtet. Klinische Beurteilung des DDD-Schrittmachers. Der
Schrittmacher kommt der physiologischen Funktion am nächsten. Bei ihm ist kein Schrittmachersyndrom möglich. Die Arbeitsweise ist energiesparend. Lediglich bei
641 35.3 · Stimulationsmodi
chronotroper Inkompetenz ist das System nicht in der Lage, sich der körperlichen Belastung anzupassen. Das Detektieren der atrialen elektrischen Aktion ist gefährlich, wenn die Herzvorhöfe tachykarde Rhythmusstörungen aufweisen. Um zu verhindern, dass dabei ventrikuläre Tachykardien entstehen, wird die 1:1-VorhofKammer-Überleitungsfrequenz begrenzt. Überschreitet die atriale Frequenz diese als maximale Synchronisationsfrequenz bezeichnete Grenze, so erfolgt nur noch eine teilweise Überleitung auf die Herzkammer, indem bspw. die AV-Zeit von Schlag zu Schlag ansteigt, bis ein Schlag nicht mehr übergeleitet wird und anschließend der Zyklus von neuem beginnt (Wenckebach-Modus). Eine weitere Möglichkeit besteht darin, nur noch jede zweite Vorhofaktion auf die Herzkammer überzuleiten. Unter dem Begriff »Dual Demand« wurde eine retriggerbare Vorhofrefraktärzeit eingeführt, die zu einer variablen Verlängerung bei Auftreten von Tachyarrhythmien führt und somit ebenso eine Schutzfunktion darstellt. Die meisten dieser Methoden haben jedoch den Nachteil, dass sie bei Auftreten einer atrialen Tachyarrhythmie eine abrupte Änderung der Ventrikelfrequenz zur Folge haben, was die Patienten als unangenehm empfinden. Aus diesem Grunde wurden in letzter Zeit unter dem Namen »Mode Switching« komplexere Methoden der Reaktion auf tachykarde Vorhofrhythmusstörungen eingeführt. Voraussetzung ist ein Algorithmus zum automatischen Erkennen atrialer Tachyarrhythmien. Den Stand der Technik stellt heutzutage der sog. x-aus-y-Algorithmus dar, bei dem eine programmierbare Mindestzahl x an PP-Intervallen aus einer Gesamtzahl y aufeinanderfolgender Intervalle unter einem bestimmten Grenzwert liegen müssen. Auf diese Weise werden auch unregelmäßige Vorhoftachykardien sicher erfasst. Beim Einsetzen einer solchen Rhythmusstörung schaltet der Schrittmacher auf eine von der Vorhofaktion unabhängige Stimulation der Herzkammer um (z. B. VVI). Nach Ende der atrialen Tachyarrhythmie erfolgt die weitere Stimulation wieder im DDD-Modus. Einsatzgebiet des DDD-Schrittmachers. DDD-Schrittmacher eignen sich bei a) Patienten mit normaler Sinusknotenfunktion und AVBlock, b) seltenen atrialen Arrhythmien und c) angeborenem langen QT-Syndrom und Torsade des Pointes (besondere Art der ventrikulären Tachykardie).
Eine spezielle Indikation zum Einsatz der Zweikammerstimulation ist die hypertroph obstruktive Kardiomyopathie. Durch Muskelwulstbildung im Ausflusstrakt des linken Ventrikels kommt es zur Behinderung des Blutausstromes. Durch Wahl einer sehr kurzen AV-Zeit und teilweise auch einer Stimulation im Ausflusstrakt lässt sich die muskuläre Erregung so modifizieren, dass ein deut-
liches Nachlassen der Ausflussbahnobstruktion erreicht wird (Alt 1995). Bei supraventrikulären Tachyarrhythmien sollte der Schrittmacher nicht eingesetzt werden. In diesem Fall ist ein VVI-System indiziert.
35.3.4 Frequenzadaptive Schrittmacher
Frequenzadaptive Schrittmacher ermöglichen auch bei Patienten mit gestörter Sinusknotenfunktion eine Steigerung der Herzfrequenz in Belastungssituationen. Sie sind daher bei körperlich leistungsfähigen Patienten mit unzureichendem Herzfrequenzanstieg unter Belastung (chronotrope Inkompetenz) indiziert. Die Frequenzadaption wird dabei über Sensoren erzielt, die belastungsabhängige Kenngrößen ermitteln und diese in eine Beziehung zur Stimulationsfrequenz stellen (sog. Störgrößeneinkopplung). Bislang wurde eine Vielzahl unterschiedlicher Parameter erprobt (Fischer u. Ritter 1997), z. B.: ▬ Körperliche Aktivität (Vibrations- oder Beschleunigungsmesser), ▬ Atemminutenvolumen, ▬ Bluttemperatur, ▬ Blutsauerstoffgehalt. Daneben werden weitere Parameter getestet, bisher hat jedoch nur die körperliche Aktivitätsmessung breiten Einzug in die Praxis gefunden. Sie ist dank miniaturisierter Beschleunigungssensoren technisch einfach auszuführen und spricht prompt an. Der Nachteil besteht jedoch in der unphysiologischen Sensorinformation. Darüber hinaus werden passive Bewegungen (z. B. Fahren über Kopfsteinpflaster) fehlinterpretiert. Den Stand der Technik bilden daher sog. »Zweisensorsysteme«, in denen die Bewegungsinformation mit dem auf der transthorakalen Impedanz beruhenden Signal des Atemsensors verknüpft wird. Auf diese Weise werden die Reaktionszeiten angepasst und unphysiologische Effekte durch Vergleich beider Signale vermieden. Emotionale Belastung oder Fieber, welche ebenfalls eine Herzfrequenzsteigerung erfordern, werden jedoch auch davon nicht erkannt. Der derzeit erfolgversprechendste Lösungsansatz besteht in der Entwicklung regelnder Schrittmachersysteme. Der gesunde Körper verfügt über mehrere Stellglieder zur Stabilisierung des Kreislaufs. Neben dem bei Vorliegen einer chronotropen Inkompetenz erkrankten Sinusknoten wirken auch der AV-Knoten, das Myokard sowie das Gefäßsystem regulativ. Regelnde Systeme basieren auf der Grundannahme, dass sich die Stellgrößen intakter Stellglieder nutzen lassen, um die physiologisch richtige Herzrate zu bestimmen. So zeigt z. B. eine erhöhte Inotropie an, dass ein höheres Herzzeitvolumen erforderlich ist, was zu einer Erhöhung der Stimulationsfrequenz genutzt wird. ⊡ Abb. 35.16 verdeutlicht die Zusammenhänge. Als Eingangsgrößen werden derzeit erprobt:
35
642
III
Kapitel 35 · Herzschrittmachersysteme
⊡ Abb. 35.16. Vereinfachtes Regelschema des Barorezeptorreflexes (Schmidt u. Thews 1980)
▬ ▬ ▬ ▬
AV-Zeit (Dromotropie), QT-Intervall des intrakardialen EKG-Signals, Kontraktilität des Myokards (dp/dt), Bewegungsdynamik des Myokards (Beschleunigung, Impedanz).
Der dromotrope Schrittmacher besticht zwar durch seine Eleganz, ist jedoch nur eingeschränkt verwendbar, da ein Teil der chronotrop inkompetenten Personen auch eine gestörte AV-Funktion aufweisen. Das QTIntervall zur Erfassung der myokardialen Kontraktilität hat sich bereits klinisch bewährt, weist jedoch unter gewissen Randbedingungen eine positive Rückkopplung auf, da auch noch andere Parameter das Kammeraktionspotential beeinflussen. Die beiden letztgenannten Ansätze erscheinen aus heutiger Sicht besonders vielversprechend und befinden sich auch bereits in ersten Implantaten in der klinischen Erprobung. Ihre weitere klinische Akzeptanz wird davon abhängen, inwiefern es gelingt, die Langzeitstabilität zu gewährleisten. Aufgrund des Einwachsens der Sensoren, einer myokardialen Restrukturierung bzw. einfach nur einer Alterung unterliegen diese Systeme nämlich einer Drift, die eine Nachkalibration erfordert.
35.3.5 Antitachykarde Schrittmacher
Die Beendigung einer Tachykardie lässt sich sowohl über eine bestimmte Folge von Stimulationsimpulsen als auch mittels Elektroschock versuchen. Da in der Therapie atrialer Tachykardien zunehmend Erfolg mit kathetergestützten Ablationsverfahren erzielt wird, besitzt die Schrittmacherbehandlung bei diesen Krankheitsbildern nur noch eine untergeordnete Bedeutung. Die Hauptindikation zur elektrischen Rhythmisierungsbehandlung stellen gefährliche tachykarde Rhythmusstörungen der Herzkammern dar. Die entsprechenden Systeme werden jedoch in aller Regel in Verbindung mit einer Defibrillationsmöglichkeit (sog. ICDs) angeboten.
35.3.6 Biatriale Stimulationssysteme
In neuerer Zeit wurde deutlich, dass eine pathologische Verlängerung der interatrialen Überleitungszeit zu atrialen Reentrytachykardien führen kann. Aus diesem Grunde wurden spezielle Schrittmachersysteme entwickelt, die eine in kurzem zeitlichen Abstand aufeinanderfolgende Stimulation in beiden Vorhöfen erlauben. Diese sog. biatrialen Stimulationssysteme haben sich bei Patienten mit verlängerter P-Welle mittlerweile bewährt. Technisch gesehen gleichen sie einem DDD-System, wobei die zweite Elektrode jedoch im linken Vorhof zu liegen kommt. Die Herausforderung besteht hier in der Entwicklung geeigneter Elektrodensysteme. Den Stand der Technik bei der Stimulation des linken Atriums bildet der Zugang über den Sinus Coronarius. Auf diese Weise bleibt das Implantat im Niederdrucksystem. Dies stellt jedoch hohe Anforderungen an die Flexibilität der Elektrode und die Fähigkeiten des Implanteurs.
35.3.7 Biventrikuläre Stimulationssysteme
Ziel der biventrikulären Stimulation ist die Behandlung der schweren myogenen Herzinsuffizienz unabhängig von der Ursache, die zur Schädigung des Herzmuskels geführt hat. Obwohl bereits die Optimierung der Herzfrequenz und die atrioventrikuläre Synchronisation günstige Effekte bei herzinsuffizienten Patienten bewirken (Nishimura et al. 1997), gelingt es damit häufig nicht, eine ausreichende hämodynamische Verbesserung zu erreichen. Dies trifft besonders für Patienten mit ausgeprägtem Linksschenkelblock zu, der zu einer Desynchronisation der Kontraktion von rechter und linker Herzkammer führt (Auricchio et al. 1999). Technische Grundlage der biventrikulären Stimulation ist ein vorhofgesteuerter Kammerschrittmacher (DDD-System), der zusätzlich einen zweiten ventrikulären Ausgang zur Erfassung der linken Herzkammer besitzt. Die linksventrikuläre Elektrode wird dabei in einer
643 35.3 · Stimulationsmodi
Herzvene des linken Ventrikels platziert. Zugangsweg ist – wie bei der biatrialen Stimulation – der Sinus coronarius (⊡ Abb. 35.17). Die noch sehr neue Methode hat bereits Einzug in die klinische Praxis genommen, ihren Langzeiterfolg muss sie jedoch noch in größeren Studien nachweisen (Ritter 2000). Verbesserungen der hämodynamischen Situation sind mit diesem speziellen Stimulationsverfahren zu belegen. Für die weitere Entwicklung ist einerseits eine Verbesserung der Elektrodentechnologie nötig, andererseits gilt es, geeignete Parameter zur Patientenauswahl und zur optimalen Programmierung des Schrittmachersystems auszuwählen. Die Kombination mit einem implantierbaren Kardioverter/Defibrillator ist möglich.
35.3.8 Auswahlkriterien
⊡ Abb. 35.17. Halbschematische Darstellung der biventrikulären Stimulation. Es befinden sich Stimulationselektroden im rechten Vorhof, im rechten Ventrikel und in einer Herzvene (V. cordis), welche lateral über den linken Ventrikel verläuft (LA linker Vorhof, RA rechter Vorhof, LV linker Ventrikel, RV rechter Ventrikel, V. cordis)
Die richtige Auswahl eines geeigneten Schrittmachersystems erfordert trotz aller Automatismen auch heute noch Expertenwissen, da die genaue Diagnose häufig von wesentlichen Details bestimmt wird. ⊡ Abb. 35.18 versucht dennoch, die Auswahl zu formalisieren, um wenigstens einen groben Anhaltspunkt zu geben.
⊡ Abb. 35.18. Auswahl eines geeigneten Schrittmachersystems (Schaldach 1992)
35
644
Kapitel 35 · Herzschrittmachersysteme
Literatur
III
Alt E (1995) Schrittmachertherapie und Defibrillatortherapie, Bd. 1 Schrittmachertherapie. Spitta Verlag, Balingen Auricchio A, Stellbrink C, Block M et al. (1999) For the Pacing Therapies for Congestive Heart Failure Study Group, Kramer a, Ding J, Salo R, Tockman B, Pochet T, Spinelli J for the Guidant Congestive Heart Failure Research Group. Effect of pacing chamber and atrioventricular delay on acute systolic function of paced patients with congestive heart failure. Circulation 99: 2993–3001 Bolz A (1994) Die Bedeutung der Phasengrenze zwischen alloplastischen Festkörpern und biologischen Geweben für die Elektrostimulation. Schiele & Schön, Berlin Bolz A, Urbaszek W (2002) Technik in der Kardiologie. Springer, Berlin Heidelberg New York Fischer W, Ritter P (1997) Praxis der Herzschrittmachertherapie. Springer, Berlin Heidelberg New York Hubmann M, Hardt R, Priessnitz B et al. (1993) Beeinflussbarkeit von Herzschrittmachern durch Warensicherungssysteme. In: Hubmann M, Hardt R, Lang E (Hrsg) Schrittmachertherapie und Hämodynamik. MMV Verlag, München, S 143–152 Lüderitz B (1998) Herzrhythmusstörungen: Diagnostik und Therapie. Springer, Berlin Heidelberg New York Ritter P (2000) Cardiac stimulation in heart failure. are we going too fast, are we going to far? Europace 2: 1–3 Schaldach M (1992) Electrotherapy of the Heart. Springer, Berlin Heidelberg New York Schmidt RF, Thews G (1980) Physiologie des Menschen, 20. Aufl. Springer, Berlin Heidelberg New York Snell FM, Shulman S, Spender RP, Moos C (1968) Biophysikalische Grundlagen von Struktur und Funktion. Hirzel Verlag, Stuttgart Vetter KJ (1961) Elektrochemische Kinetik. Springer, Berlin Heidelberg New York Zheng E, Shao S, Wenster JG (1984) Impedance of Sceletal Muscle from 1 Hz to 1 MHz. IEEE Transactions on Biomedical Engineering 31: 477–481
36 Einführung in die Neuroprothetik K.-P. Hoffmann
36.1 Neuroprothetik – 645 36.2 Biologisch technische Schnittstelle – 646 36.2.1 Bioverträglichkeit und Biokompatibilität – 646 36.2.2 Elektroden – 646 36.2.3 Kapselung – 646
36.3 Technologische Besonderheiten – 647 36.3.1 36.3.2 36.3.3 36.3.4
36.1
Energieversorgung – 647 Elektronik – 647 Signalverarbeitung – 647 Signalübertragung – 648
Neuroprothetik
Die Neuroprothetik ist ein vergleichsweise sehr junges, sich dynamisch entwickelndes Fachgebiet mit zweistelligen Zuwachsraten im Umsatz. Aufgrund der Anforderungen an Implantierbarkeit, Bioverträglichkeit und Miniaturisierung ist es stark an die Entwicklung der Mikrosystemtechnik, der Nanotechnik, der Informationstechnik, der Biotechnologie und an den Einsatz neuer Materialien gebunden. Das Anwendungsgebiet von Neuroprothesen sind Erkrankungen, die mit Einschränkungen myogener oder neurogener Funktionen einhergehen. Diese können bis zum Verlust der gesamten Funktionsfähigkeit führen. Neuroprothesen stimulieren mit elektrischen Reizen neuronale Strukturen, Muskeln oder Rezeptoren, um die jeweilige gestörte oder verloren gegangene Funktion zu unterstützen, zu ergänzen oder teilweise wieder herzustellen. Zu den Funktionsstörungen gehören Lähmungen nach einem Schlaganfall, die Verminderung der Hörfähigkeit, der Tremor als ein Beispiel für eine Bewegungsstörung oder der Verlust einer Extremität. Oftmals kann der Einsatz einer Neuroprothese die Lebensqualität der Betroffenen verbessern. Das Ziel ist die Unterstützung der Teilnahme des Betroffenen am täglichen Leben. Dabei sind kosmetische, ethische und soziale Aspekte immer zu berücksichtigen. Die ⊡ Abb. 36.1 gibt eine Übersicht über gebräuchliche Neuroprothesen wieder. Dabei haben sich Herzschrittmacher, Cochlea-Implantat, sowie Implantate zur Tiefenhirnstimulation in der klinischen Praxis seit Jahren bewährt. Patienten nach einem Schlaganfall, Querschnittsgelähmte
36.4 Anwendung von Neuroprothesen – 648 36.4.1 36.4.2 36.4.3 36.4.4 36.4.5 36.4.6
Herzschrittmacher – 648 Cochlea-Implantat – 648 Tiefe Hirnstimulation – 648 Blasenstimulation – 649 Human-Computer-Interfaces – 649 Extremitätenprothese – 649
33.5 Bidirektionale Handprothese
– 649
36.6 Zukünftige Entwicklungen – 651 Weiterführende Literatur
– 651
und Patienten mit einem Fallfuß kann oftmals mit einer funktionellen Elektrostimulation geholfen werden. Implantierbare Elektrostimulatoren werden immer häufiger für die Therapie von chronischen Schmerzen und der Inkontinenz mittels Neuromodulation eingesetzt. Andere Anwendungen, wie bspw. das Retina-Implantat, sind in der klinischen Prüfung. Die Neuroprothetik beschäftigt sich zusammengefasst mit der Neuromodulation und der Überbrückung bzw. dem Ersatz gestörter oder verloren gegangener neuronaler Strukturen und Funktionen. Die ⊡ Tab. 36.1 fasst die Zahl der bisher implantierten Neuroprothesen weltweit
⊡ Abb. 36.1. Beispiele für den Einsatz von Neuroprothesen
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _36, © Springer-Verlag Berlin Heidelberg 2011
646
Kapitel 36 · Einführung in die Neuroprothetik
⊡ Tab. 36.1. Zusammenfassung implantierter Neuroprothesen (>1.000 implantierte Systeme) nach [4]
III
Neuroprothese
Zahl der Implantate
Herzschrittmacher
>1.000.000
Cochlea-Implantat Unterstützung der Hörfunktion
>130.000
Rückenmarkstimulation Behandlung von Schmerzen und Bewegungsstörungen
>55.000
Tiefe Hirnstimulation Einsatz bei Tremor, Parkinson und Schmerz
>20.000
Stimulation N. vagus Behandlung von Epilepsie
>17.000
Stimulation der Sakralnerven Inkontinenz Entleerung der Blase Stimulation des N. phrenicus Steuerung der Atmung
>10.000 >2.500 >1.600
pro Jahr zusammen. Herzschrittmacher und CochleaImplantat stellen ca. 90% der gegenwärtig implantierten Neuroprothesen.
36.2
Biologisch technische Schnittstelle
36.2.1
Bioverträglichkeit und Biokompatibilität
Eine der wesentlichen Grundvoraussetzungen für den Einsatz von Neuroprothesen ist deren Bioverträglichkeit. Darunter versteht man die Ausübung einer gewünschten Funktion in einer spezifischen Anwendung bei einer angemessenen Wirtsreaktion. Oftmals ist die Auslösung biologischer Funktionen und Reaktionen erwünscht und Ziel des Einsatzes von Neuroprothesen. Diese erwünschte Verträglichkeit zwischen einem technischen System und dem biologischen Gewebe im Sinne einer Anpassung von Struktur und Oberfläche des Implantates an das Empfängergewebe wird als Biokompatibilität bezeichnet. Die Oberflächenkompatibilität beinhaltet die Anpassung der chemischen, physikalischen, biologischen und morphologischen Oberflächeneigenschaften des Implantates. Die Anpassung der Implantatstruktur an das mechanische Verhalten des Empfängergewebes ergibt die Strukturkompatibilität. Der Nachweis der Bioverträglichkeit für das Gesamtsystem erfolgt in drei Phasen: 1. In vitro-Tests mit isolierten Zellen, Zellkulturen und Organstrukturn 2. In vivo-Tests an Versuchstieren als Langzeittests 3. Klinische Studien
Implantationsort, Verweildauer, verwendete Materialien und ihre Funktionalität bestimmen den Einsatz einer Neuroprothese.
36.2.2 Elektroden
Der unmittelbare Kontakt zwischen der Neuroprothese als technisches System und dem biologischen Gewebe wird mittels implantierbarer Mikroelektroden (⊡ Abb. 36.2) hergestellt. Dabei dienen die Elektroden sowohl der Stimulation als auch der Erfassung biologischer Potentialdifferenzen. Obwohl sie meist nur eine geringe Oberfläche haben, werden ein kleiner Übergangswiderstand zwischen Elektrode und Gewebe sowie eine große reversibel übertragbare Ladungsmenge gefordert. Dies kann durch elektrolytische Behandlung der Metallelektroden, durch Oberflächenstrukturierung, Beschichtung mittels Polymerstrukturen, Einlagerung von Nanopartikeln usw. erfolgen. Traditionelle Elektrodenmaterialien sind Silber, Silber/ Silberchlorid, Platin, mikrorauhes Platin, Gold, Iridium und Iridiumoxid. Je nach Anwendung variiert ihre Bauform. Die Selektivität der Elektrode nimmt mit der Invasivität ihres Einsatzes zu. In den letzten Jahren wurden verschiedene flexible Elektrodenstrukturen entwickelt, gefertigt und eingesetzt. ⊡ Abb. 36.2 zeigt Beispiele in Abhängigkeit von der Bauform und dem Einsatzort. So umschließt beispielsweise die Cuff-Elektrode einen peripheren Nerven. Die 27-kanalige Sieb-Elektrode wird so zwischen zwei Nervenstümpfen eines peripheren Nerven gebracht, dass die aussprossenden Nervenfasern des proximalen Endes durch das Sieb wachsen. Damit werden motorische und sensorische Fasern getrennt angesprochen. Weitere Elektroden lassen sich für Stimulation der Retina oder des N. vestibularis und die Erfassung kortikaler oder myogener Potentiale einsetzen. Die dargestellten Elektrodenstrukturen werden photolithographisch unter standardisierten Bedingungen gefertigt. Eine elektrochemische Charakterisierung mittels Impedanz-Spektroskopie sowie die Prüfung der Langzeitstabilität sind vor dem Einsatz empfehlenswert. Unabdingbar ist der Nachweis der Biokompatibilität nach EN ISO 10993.
36.2.3 Kapselung
Die Kapselung der Neuroprothesen schützt zum eine das Implantat vor den Einflüssen der Körperflüssigkeiten, zum anderen den Organismus im Sinne der Biokompatibilität. Darüber hinaus sind die elektronischen Schaltungen vor Korrosion und dem möglichen Auftreten von Kurzschlüssen zu bewahren. Eine weitere Funktion ist der mechanische Schutz des Implantats vor körpereigenen
647 36.3 · Technologische Besonderheiten
⊡ Abb. 36.2. Beispiele für implantierbare Mikroelektroden
Kräften. Eine wesentliche Grundforderung ist, dass die Kapselung die Funktion des Implantats nicht beeinflussen darf. Auch muss sie so gewählt werden, dass eine Sterilisierbarkeit gewährleistet ist. Für Herzschrittmacher werden seit vielen Jahren Titangehäuse eingesetzt, wobei häufig das Metallgehäuse gleichzeitig als Gegenelektrode eingesetzt werden kann. Andere Materialien sind Keramik (z. B. beim CochleaImplantat) oder Glas (z. B. BIONsTH). Für flexible Mikroimplantate werden Kapselungen aus Silikon, Parylen oder weiteren Polymeren eingesetzt.
36.3
Technologische Besonderheiten
36.3.1 Energieversorgung
Lithium-Jodid-Batterien stellen die klassische Form der Energieversorgung implantierbarer Neuroprothesen dar. Bei hinreichend kleiner Bauform gewährleisten sie eine Laufzeit von 5–10 Jahren. Eingesetzt werden diese Batterien bspw. bei Herzschrittmachern und TiefenhirnStimulatoren. Für andere Anwendungen, z. B. RetinaImplantat oder Cochlea-Implantat müssen alternative Energiequellen gefunden werden. Oftmals wird die erforderliche Energie telemetrisch übertragen. Zukunftskonzepte gehen von einer Energiegewinnung aus der unmittelbaren Umgebung des Implantats aus. Beispiele hierfür sind biochemische, piezoelektrische, thermoelektrische, elektromagnetische, kapazitive oder thermomechanische Generatoren.
36.3.2 Elektronik
Die Anwendung von Neuroprothesen stellt hohe Anforderungen an die jeweilige Elektronik. Diese muss die Funktionalität des Implantates über einen sehr langen Zeitraum gewährleisten. Sie muss daher selbst prüfend sein und den jeweiligen Betriebszustand sowie eventuell mögliche Fehler nach außen übertragen. Das Design der Elektronik muss energiesparend sein. Eine Wechselwirkung mit anderen Diagnostik- und Therapiemethoden, wie bspw. MRT, HF-Chirurgie oder Defibrillator, sollte die Funktionalität nur wenig beeinflussen. Die rasante Entwicklung in der Mikroelektronik hat in den letzten Jahren zu immer kleineren Volumina geführt. Monolithische Schaltungen und »low voltage« Anwendungen sind Beispiele hierfür. Darüber hinaus müssen die allgemeinen Forderungen an ein Medizinprodukt und die Einhaltung der elektromagnetischen Verträglichkeit erfüllt werden.
36.3.3 Signalverarbeitung
Neuroprothesen stimulieren zum einen myogenes oder neurogenes Gewebe, zum anderen erfassen sie biologische Signale. Dabei muss das Biosignal bzw. der Reiz an das technische System bzw. das biologische Gewebe angepasst werden. Beim Cochlea-Implantat werden bspw. externe akustische Signale aufgenommen, analysiert und nach einer entsprechenden Interpretation in ein Stimulationssignal gewandelt. Dies erfordert eine unmittelbare
36
648
III
Kapitel 36 · Einführung in die Neuroprothetik
Signalverarbeitung am Implantationsort. Integrierte digitale echtzeitfähige Signalprozessoren (DSP) gestatten die Implementierung anspruchsvoller Analyseroutinen und Algorithmen. Hierzu gehören Filterungen, Detektion von bestimmten Signalmerkmalen (z. B. Spikes) und deren Klassifizierung auf der Grundlage der Fouriertransformation, Waveletanalyse, neuronaler Netze usw. Im Fall des Cochlea-Implantates wird das akustische Signal in einzelne Frequenzbänder zerlegt, deren Inhalt nach einer Signalanpassung jeweils einer Stimulationselektrode zugeordnet wird. Damit ist eine tonotope Reizung der Cochlea möglich.
36.3.4 Signalübertragung
Der Datentransfer vom und zum Implantat wird häufig über induktive Schnittstellen realisiert. Dabei kann gleichzeitig das Implantat mit Energie versorgt werden. Das Feld einer externen Sendespule wird in die Empfangsspule des Implantats eingekoppelt. Zur Datenübertragung wird die Trägerwelle des Senders moduliert. Damit wird es bspw. beim Cochlea Implantat möglich eine Leistung von 30 mW zu übertragen und gleichzeitig eine Datenrate von 400 kBit/s zu realisieren. Die Kommunikation des Implantates nach außen lässt sich prinzipiell über gleiche Wege realisieren.
36.4
Anwendung von Neuroprothesen
36.4.1 Herzschrittmacher
Die bisher am häufigsten eingesetzte Neuroprothese ist der Herzschrittmacher. Die elektrische Stimulation des Herzen dient der Kompensation von pathologischen Veränderungen der Reizbildung und Reizweiterleitung einschließlich von Störungen des Herzrhythmus. Durch entsprechende Stimulationen lassen sich die entsprechenden Symptome und damit die Auswirkungen auf den Patienten positiv beeinflussen. Klassische Herzschrittmacher sind seit vielen Jahren im Einsatz. Sie sind als Einkammersystem mit einer Stimulation im rechten Vorhof oder in der rechten Kammer oder aber als Zweikammersystem konzipiert. Letztere ermöglichen die Korrektur von Störungen in der atrioventrikulären Überleitung. Als frequenzadaptives System passen sie sich mit ihrer Stimulationsfrequenz an die jeweilige körperliche Belastung der Betroffenen an. Zum Therapiekonzept gehört die regelmäßige Nachsorge von Implantatpatienten. Diese kann zukünftig durch den Einsatz von telemedizinischen Systemen der Fernüberwachung ergänzt werden. Ereignisbezogene Daten lassen sich täglich mittels Mobilfunk- und Internettechnologien zu einem medizinischen Zentrum übertragen. Dies
kann mit einer automatischen Alarmierung des Arztes im Bedarfsfall ergänzt werden. Weiterhin sehen zukünftige Entwicklungen von Herzschrittmachern auch eine Stimulation der linken Kammern vor. Vagusgesteuerte Herzschrittmacher befinden sich bereits in der präklinischen Erprobung.
36.4.2 Cochlea-Implantat
Cochlea-Implantate ermöglichen in vielen Fällen die Wiederherstellung von Höreindrücken und das Verstehen von Sprache. Gehörlose Kinder können so häufig an das Hören und Sprechen herangeführt werden. Voraussetzung für den Einsatz eines Cochlea-Implantets ist ein intakter gesunder Hörnerv. Mit Hilfe eines Cochlea-Implantats können die ausgefallenen Funktionen des Innenohres ersetzen werden. Es wird in den Schädelknochen hinter dem Ohr eingesetzt. Die Reizelektrode wird in der Cochlea platziert. Die Zahl der getrennten Kanäle einschließlich der zugehörigen Elektroden bestimmt die erreichbare zu übertragende Bandbreite an Informationen. Ein externer Sprachsignalprozessor mit Mikrophon und Spule nimmt die akustischen Signale auf und überträgt sie an den implantierten Empfänger. Die erforderliche Energie wird gemeinsam mit den gewandelten akustischen Signalen telemetrisch übertragen. Obwohl der Sprachprozessor für jeden Patienten individuell eingestellt wird, muss das Verstehen akustischer Signale und damit das Hören und Verstehen wieder neu erlernt werden. Für viele Patienten ist nach der Operation das Ablesen vom Mund wesentlich erleichtert und sie können Gesprächen besser folgen. Eine beidseitige Versorgung des Patienten mit einem Cochlea-Implantat ist aufgrund des verbesserten räumlichen Hörens empfehlenswert. Ist die Funktion der beiden Hörnerven ausgefallen, ist der Einsatz eines Cochlea-Implantates nicht sinnvoll. Hier lassen sich durch Simulation der höheren Bahnen, z. B. im Nucleus cochlearis (im Hirnstamm), akustische Sinneseindrücke erzielen, die ein rudimentäres Hören erlauben. Vorstellbar ist auch die Stimulation des Hörzentrums.
36.4.3 Tiefe Hirnstimulation
Schwere Bewegungsstörungen lassen sich durch elektrische Stimulation in der Tiefe des Gehirns behandeln. Insbesondere für Patienten mit Morbus Parkinson ergibt sich hier ein therapeutischer Ansatz. Ladungsausgeglichene kurze rechteckförmige elektrische Reize, bspw. im Nucleus subthalamicus, hemmen die krankhaft überaktiven Kernregionen. Der Neurostimulator wird ähnlich dem Herzschrittmacher zwischen Haut und Brustmuskel implantiert.
649 36.5 · Bidirektionale Handprothese
Die bisherigen Anwendungen der tiefen Hirnstimulation gingen häufig mit einer Verbesserung der psychischen Situation einher. Erste Ergebnisse einer Stimulation im Bereich des Nucleus accumbens bei Patienten mit Zwangsneurosen ergaben Verbesserungen im Bereich der Sprache, Stimmungslage und des motorischen Verhaltens. Ein viel versprechender Ansatz liegt in der elektrischen Unterdrückung epileptischer Anfälle. Einige Studien zeigen, dass die elektrische hochfrequente Stimulation eine großräumige Synchronisation von Neuronen verhindern kann. Allerdings kommt diese Methode nur bei Patienten zur Anwendung, deren Anfallsleiden medikamentös und chirurgisch nicht therapierbar ist.
36.4.4 Blasenstimulation
Im Rahmen einer Querschnittslähmung kann es neben der Beeinträchtigung der Bewegungsfreiheit auch zu einer Verminderung der Kontrolle über innere Körperfunktionen, wie bspw. die Steuerung des Harnflusses kommen. Die Speicherfunktion der Harnblase wird durch chirurgische Begleitmaßnahmen bei Querschnittsgelähmten wieder hergestellt. Die elektrische Stimulation der Sakralwurzeln erlaubt die gezielte Entleerung der Harnblase ohne Katheter. Neben den positiven sozialen Aspekten bewirkt der Blasenstimulator auch eine Verringerung des Infektionsrisikos.
36.4.5 Human-Computer-Interfaces
Patienten mit einem »Locked-in«-Syndrom, Amyotropher Lateralsklerose (ALS) oder mit einer Querschnittslähmung fällt es häufig schwer, mit ihrer Umwelt zu kommunizieren. Mittels Human-Computer-Interfaces lassen sich technische Systeme über erfasste Biosignale des peripheren oder zentralen Nervensystems steuern. Damit wird es möglich, verloren gegangene Kommunikationskanäle wieder aufzubauen, bzw. auf die Umwelt aktiv einzuwirken. Häufig geschieht die Ableitung, Verstärkung, Analyse und Generierung der Steuer- oder Kommunikationssignale computergestützt unter Einbeziehung von integrierten Mikroprozessoren (embedded sytems). Ein Teilgebiet sind die Brain-Computer-Interfaces, die über zerebrale Aktivitätsänderungen gesteuert werden. Dabei lassen sich Systeme unterscheiden, welche die Signale mittels Oberflächenelektroden (EEG-gesteuert), auf den Kortex platzierten Plattenelekroden (ECoG-gesteuert) oder mittels implantierter Multielektroden (Elektrodenarrays) erfassen. Ziel ist bei allen genannten Systemen die Kontrolle von speziellen Ausgabegeräten (bspw. den Cursor auf einem Computermonitor) oder die Steuerung von technischen Systeme oder Aktuatoren (z. B. technische Greifarme oder Prothesen).
36.4.6 Extremitätenprothese
Handprothesen gehören zu den Prothesen der oberen Extremitäten. Eine technische Herausforderung stellt dabei die Realisierung der verschiedenen Greifbewegungen der Hand, wie z. B. Zylindergriff, Pinzettengriff, Lateralgriff, sphärischer Griff dar. Stand der Technik sind hierbei myoelektrisch gesteuerte Handprothesen. Sie nutzen die Muskelaktionspotentiale der noch verbliebenen Muskulatur des Unterarmes. Die Einhüllende der abgeleiteten Aktivität ist proportional der Anzahl der aktivierten Muskelfasern und damit der Muskelkraft. Damit lässt sie sich als Steuersignal für Prothesen verwenden. Voraussetzung für eine abgestimmte Bewegung ist, dass der Prothesenträger unterschiedliche Muskelgruppen gezielt und unabhängig anspannen kann.
33.5
Bidirektionale Handprothese
Neben der Kosmetik und der motorischen Funktionalität mit einer hohen Beweglichkeit der einzelnen Finger und der Ausführung von Kraft- und Präzisionsgriffen müssen zukünftige Handprothesen die die sensorische Komponente immer stärker berücksichtigen. Zu den ca. 17000 Sensoren der menschlichen Hand gehören sowohl propriozeptive Sensoren, z. B. für Position, Bewegung und Kraft, als auch exterozeptive Sensoren, z. B. für Druck, Kraft, Beschleunigung, Temperatur und Schmerz. Das Konzept für eine bidirektionale Handprothese (⊡ Abb. 36.3) ist ein Beispiel für einen zukünftigen Ansatz. Diese Prothese soll über die efferenten Fasern eines peripheren Nerven gesteuert werden. Hierzu wird mittels implantierbarer Mikroelektroden die für eine gewünschte Bewegung vom motorischen Kortex ausgesandte Innervationsrate im peripheren Nerv erfasst, verstärkt, analog/digital gewandelt und telemetrisch zur eigentlichen Handprothese übertragen. Alternativ kann das Steuersignal direkt vom motorischen Kortex oder über das Interferenzmuster der innervierten Muskulatur gewonnen werden. Ein der Innervationsrate entsprechendes Steuersignal wird zur Ausführung der gewünschten Handbewegung genutzt. Die Handprothese soll mit Sensoren ausgestattet sein, die beispielsweise Temperatur, Haltedruck und Oberflächenbeschaffenheit des gehaltenen Gegenstandes erfassen. Diese Messwerte können dann an einen Stimulator übertragen werden, der entweder über die implantierten Elektroden die afferenten Fasern elektrisch stimuliert oder mittels Oberflächenelektroden ausgewählte sensible Hautareale reizt. In den sensiblen kortikalen Projektionsfeldern soll dann das zugehörige Gefühl entstehen. Damit kann es möglich werden, dem Betroffenen ein Feedback über die Greif- und Haltefunktion der Handprothese einschließlich der Eigenschaften von Gegenständen zu ermöglichen.
36
650
Kapitel 36 · Einführung in die Neuroprothetik
III
⊡ Abb. 36.3. Konzept für eine bidirektionale Handprothese
⊡ Abb. 36.4. Elektrodenstruktur tf-LIFE (thin-film-Longitudinal Intrafascicular Eelctrode), bestehend aus zwei Schlaufen und einer Wolframnadel. a Gesamtansicht; b Applikation; c Linkes Filament der Elektrodenstruktur mit vier Einzelelektroden sowie Erd- und Referenzelektrode; d Einzelelektrode (100 μm x 40 μm) im Vergleich mit einem menschlichen Haar
Wesentliche technische Voraussetzungen für ein sensorisches Feedback und die Stimulation afferenter Nervenfasern sind in der Handprothese integrierte Sensoren, ein implantierter Stimulator mit telemetrischer Signal- und Energieübertragung und ein bidirektionales Interface zum peripheren Nerven. Die eingesetzten Elektroden müssen zum einen Nervensignale zur Steuerung der Prothese
ableiten und zum anderen neuronale Strukturen stimulieren können. Eine dafür gut geeignete Elektrodenstruktur ist die tf-LIFE, die wie ein Faden longitudinal durch den peripheren Nerven gezogen wird (⊡ Abb. 36.4). Die erste Schlaufe, die mit einer Wolframnadel versehen ist, dient als Implantationshilfe. Die zweite Schlaufe verfügt über acht Einzelelektroden, die den elektrischen Kontakt zum
651 Weiterführende Literatur
Gewebe herstellen. Bei Verwendung von jeweils 2 tf-LIFE im N. medianus und N. ulnaris ist eine 32-kanalige Erfassung der nervalen Aktivität und Stimulation der Nerven über dieselben Elektroden möglich. Damit wird die motorische Steuerung mit der gezielten Bewegung aller Finger einschließlich der Ausführung von Präzisionsangriffen, wie z. B. Pinzettengriff, erreicht. Elektrische Stimulationen führten zu sensorischen Eindrücken einschließlich des Spürens der amputierten Hand.
36.6
Zukünftige Entwicklungen
Zukünftige Entwicklungen auf dem Gebiet der Neuroprothetik sind gekennzeichnet von einer fortschreitenden Miniaturisierung, dem Einsatz neuer Materialien und Technologien sowie der Integration kognitiver technischer Systeme. Dabei geht es auch um die Klärung häufig noch unverstandener grundlegender Fragen der Kopplung von Neuronen mit technischen Materialien. Bioaktive Substanzen, die nach einer Implantation freigesetzt werden, können die Bioverträglichkeit verbessern. Das Forschungsgebiet der Neuroprothetik ist daher noch stark von experimentellen und präklinischen Arbeiten geprägt. Gegenwärtige Betätigungsfelder liegen auf folgenden Gebieten: ▬ Zentrale Lähmungen, z. B. Lähmungen infolge eines Schlaganfalls ▬ Lähmungen infolge Verletzungen des Spinalkanals ▬ Hypoventilation zentralen Ursprungs, Schlafapnoe ▬ Gehörlosigkeit, Blindheit ▬ Multiple Sklerose, Anfallsleiden, Depression, M. Parkinson ▬ Schmerz, Clusterkopfschmerz ▬ Blasenschwäche, Inkontinenz, Impotenz ▬ Stimmbandlähmung Neuroprothesen der Zukunft werden kleiner und intelligenter sein. Aufgrund neuer Materialien werden unerwünschte Nebenwirkungen seltener oder mit geringerer Intensität auftreten.
Weiterführende Literatur 1. Bronzino JD (Hrsg) (2006) Tissue Engineering and Artificial Organs. CRC Press 2. Carrozza M, Capiello G, Micera S, Edin, B, Beccai L, Cipriani C (2006) Design of a cybernetic hand for perception and action. Biol Cybern, Vol. 96, pp. 629–644 3. Carrozza M, Massa B, Micera S, Lazzarini R, Zecca M, Dario P (2002) The development of a Noval Prosthetic Hand - Ongoing Research and Preliminary Results. IEEE/ASME Trans on Mechatronics 7, 108–114 4. Dario P, Meldrum D (eds) (2006) Proceedings of BioRob 2006, Biomedical Robotics and Biomechatronics, Pisa 5. Eliasmith C (ed) (2002) Neural Engineering, Computation, Representation, and Dynamics in Neurobiology Systems. MIT Press
6. Hoffmann KP, Dehm J (Hrsg) (2005) VDE-Studie zum Anwendungsfeld Neuroprothetik. VDE, Frankfurt 7. Hoffmann KP, Koch KP, Dörge T, Micera S (2006) New Technologies in Manufacturing of Different Implantable Microelectrodes as an Interface to the Peripheral Nervous System BioRob 2006. Biomedical Rotobics and Biomechatronics, Proceedings, 414–419, Pisa 8. Horch KW, Dhillon GS (eds) (2004) Neuroprosthetics: Theory and Practice. World Scientific, University of Utah 9. IEEE EMBS (2005) Biomimetic Systems, Implantable, Sophisticated, and Effective. IEEE Engineering in Medicine and Biology 24(5) 10. Micera S, Rigosa J, Carpaneto J, Citi L, Raspopovic S, Guglielmelli E, Benvenuto A, Rossini L, Di Pino G, Cavallo G, Carrozza, MC, Cipriani C, Hoffmann, KP, Dario P, Rossini PM (2009) On the Control of a Robot Hand by extracting Neural Signals from the PNS Preliminary Results from a Human Implantation. IEEE EMBC, Minneapolis, Proceedings, 4586–4589 11. Micera S, Navarro X, Carpaneto J, Citi L, Rossini MP, Carrozza MC, Hoffmann KP, VIVO M, Yoshida K, Dario P (2008) On the Use of Longitudinal Intrafaxicular Peripheral Interfaces for the Control of Cybernetic Hand prostheses in Amputees. IEEE Transactions on Neural Systems and Rehabilitation Engineering, Vol 16, No. 5, 453–472 12. Navarro X, Krieger T, Lago N, Micera S, Stieglitz T, Dario P (2005) A critical review of interfaces with the peripheral nervous system for the control of neuroprostheses and hybrid bionic systems. J Periph Nervous Syst., Vol. 10, no. 3, pp. 229–258
36
37 Einführung in die Elektrotherapie W. Wenk 37.1 Einleitung – 653 37.2 Historischer Abriss der elektrotherapeutischen Entwicklung – 653 37.3 Einführung in die Elektromedizin – 655 37.3.1 Elektrodiagnostik in der Physiotherapie – 655 37.3.2 Elektrotherapie – 655 37.3.3 Stromformen der Elektrotherapie – 657
37.4 Ultraschalltherapie – 661 37.5 Lasereinsatz in der Elektrotherapie – 662 37.6 Elektrotherapeutische Elektroden – 663 37.6.1 Elektrodenapplikation – 663
Weiterführende Literatur
37.1
– 664
Einleitung
Die Elektrotherapie, ein Teilbereich der physikalischen Therapie bzw. Physiotherapie, wird der Elektromedizin zugeordnet. Mittels elektrischer, thermischer, mechanischer oder elektromechanischer Energie werden Behandlungsverfahren durchgeführt, die auf das jeweilige Krankheitsbild abgestimmt sind. Dabei steht die therapeutische Anwendung mit elektrischen Strömen wie konstanter, pulsierender und niederfrequenter Gleichstrom, mittel- und hochfrequenter Wechselstrom sowie Interferenzstrom im Vordergrund des Interesses. Im Folgenden wird eine kurze Einführung in die Elektrotherapie gegeben.
37.2
suchungen am Zitteraal wurden kurzzeitige Spannungen bis 800 V und Stromstärken bis zu 1 A gemessen. Es dauerte mehrere Jahrhunderte bis zum nächsten Versuch, Strom mittels Reibung zu erzeugen (sog. Reibungselektrizität) und für therapeutische Zwecke zu nutzen. Otto von Guericke konstruierte 1660 die erste Reibungselektrisiermaschine, der weitere in unterschiedlicher Bauweise folgten (⊡ Abb. 37.1). Der Arzt Christian Gottlieb Kratzenstein setzte 1741 erstmals eine sog. Elektrisiermaschine zur Therapie ein. Der nächste Meilenstein wurde durch die Erfindung der Gleichstrombatterie 1799 durch den Physiker Alessandro Volta gesetzt. Er ist der eigentliche Begründer der Lehre vom »Galvanismus« und konstruierte die erste galvanische Stromquelle, sodass erstmalig elektrische Ströme
Historischer Abriss der elektrotherapeutischen Entwicklung
Die ersten Aufzeichnungen zur Elektrotherapie stammen von dem römischen Arzt Scribonius Largus (14– 54 n. Chr.). Bereits in der Antike war die schmerzlindernde Wirkung elektrischer Reize bekannt. Zur Behandlung von Beschwerden des Bewegungsapparates oder Gicht wurden laut seiner Rezeptsammlung »Compositiones Medicae« Zitterrochen (Torpedinidae) zu einer Art »Elektroschocktherapie« eingesetzt. Neben den Zitterrochen besitzen auch Zitteraale (Electrophorus) und Zitterwelse (Malapterurus) elektrische Organe, die aus umgewandelten Muskelfasern, sog. elektrischen Platten, bestehen. Bei bioelektrischen Unter-
⊡ Abb. 37.1. Elektrisiermaschine, die Elektrizität durch Influenz erzeugte (um 1903)
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _37, © Springer-Verlag Berlin Heidelberg 2011
654
III
Kapitel 37 · Einführung in die Elektrotherapie
(Spannung) als Resultat chemischer Reaktionen verfügbar waren. Für die Elektrotherapie bedeutete dies, dass die Behandlung mit Gleichstrom möglich wurde (Galvanisation). Es folgte 1831 die Behandlung mit unterbrochenem Gleichstrom (sog. Wagner’sche Hammer) im Induktionsapparat nach Faraday (Faradisation, ⊡ Abb. 37.2). Auf der Grundlage der Entdeckung der elektromagnetischen Wellen 1888 durch Heinrich Hertz, wurden 1892 von D‘Arsonval hochfrequente Ströme – noch ohne ausreichende Tiefenwärmewirkung – in die Elektrotherapie eingeführt. Das erste Handbuch der Elektrotherapie wurde von Wilhelm Erb 1886 herausgegeben (Handbuch der Elektrotherapie, Bd. 3 des Ziemssen’schen Handbuchs der allgemeinen Therapie. Leipzig: Vogel, 1882, 1886). Mit dem 1891 von Tesla entwickelten Transformator konnte von Zeyneck 1894 Wärmewirkungen der Hochfrequenzströme nachweisen und mit dem 1905 von Paulsen entwickelten Funkenstreckensender thermische therapeutische Durchwärmungen bei Patienten erzielen. 1907 nannte Nagelschmidt dieses Verfahren Diathermie, welches aber infolge seiner im Langwellenbereich liegenden Wellenlänge die Luft nicht überbrücken konnte. Deshalb wurde der Hochfrequenzstrom dem Körper über Elektroden zugeführt. Nach dem Bau der Elektronenröhre 1927 durch Esau wurde 1929 durch Schliephake die Kurzwellenkondensatorfeldmethode mit dem Abstandsprinzip therapeutisch eingesetzt. Damit war es möglich, den hochfrequenten Strom auch ohne Hautkontakt in den Körper zu übertragen. Ab 1937 wurde durch Kowarschik in Wien und durch Merriman, Holmquist und Osborne in den USA die Spulenfeldmethode zu Heilzwecken genutzt. Ein weiteres Verdienst von Kowarschik war die Einführung von Exponentialstromimpulsen zur selektiven Behandlung schlaffer Lähmungen. Als Folge der Entwicklung der Radartechnik im 2. Weltkrieg konnte Krusen 1946 mit
Magnetronröhrengeräten die ersten Behandlungen mit Mikrowellen durchführen. 1938 nutzte Pohlman den Ultraschall zur Therapie von Erkrankungen des Bewegungsapparates und des peripheren Nervensystems. Nach dem 2. Weltkrieg kamen in der Reizstromtherapie neben den variabel einstellbaren Impulsströmen auch fest vorgeformte Ströme, wie z. B. die Diadynamischen Ströme (Sinusimpulse) nach Bernard, der Ultrareizstrom nach Träbert (Rechteckimpulse) oder die Impulsgalvanisation nach Jantsch zum Einsatz. Gleichzeitig wurden die Mittelfreqenzströme als Interferenzstrom durch Nemec und als amplitudenmodulierter Mittelfrequenzstrom durch Jasnogorodski in die Therapie eingeführt. Die Entwicklung der modernen Mikroelektronik ermöglichte den Bau kleiner Taschenstimulatoren zur transkutanen elektrischen Nervenstimulation (TENS) und zur Muskelstimulation (⊡ Abb. 37.3). Die 1965 veröffentlichte Gate-control-Theorie von Melzack und Wall lieferte sowohl den Anstoß als auch die physiologische Untermauerung der Entwicklung von kleinen batteriebetriebenen Geräten für den Hausgebrauch. Die technische Weiterentwicklung der Geräte in Richtung Computersteuerung gestattete sowohl die Abgabe vielfältiger Stromformen, so z. B. auch die extrem kurzer Impulse mit hohem Spannungsbedarf (Hochvolttherapie), als auch die Abspeicherung aller gewählten Parameter. In den siebziger Jahren ging die Entwicklung in Richtung Lasertherapie. Hierbei wird mit einem Laserstrahl von 632 nm bzw. 904 nm Wellenlänge ein Krankheitsherd therapiert. Neuere Verfahren wie z. B. die pulsierende Magnetfeldtherapie oder Elektromagnetmatten tauchten in den letzten Jahren auf, wobei ihre Wirksamkeit jedoch nicht allgemein anerkannt ist. Wissenschaftlich am besten belegt ist die Laser- und Ultraschalltherapie, da hierzu eine Vielzahl von Untersuchungs- und Forschungsergebnissen vorliegt.
⊡ Abb. 37.2. Elektrische Muskelgymnastik (Bergonisation) mit Hilfe eines faradischen Schwellstroms
⊡ Abb. 37.3. TENS-Gerät mit Elektroden
655 37.3 · Einführung in die Elektromedizin
37.3
Einführung in die Elektromedizin
Bei der Elektrodiagnostik können Ströme abgeleitet (Aktionspotentiale bei EKG, EEG, EMG, EDG, EcoG u. a.) oder angewendet (z. B. Reizstromdiagnostik, galvanische Erregbarkeitsprüfung, Nervleitungsprüfung, Chroaxie u. a.) werden.
Charakteristik) geprüft. Hierbei wird der ggf. vorliegende Schädigungsgrad eines Muskels bestimmt. Zuerst wird mit schnellen Impulsfolgen die faradische Erregbarkeit getestet. Ist die Kontraktion zufriedenstellend, kann mit faradischen Strömen behandelt werden. Ziel ist es, die Kontraktion des Muskels in seiner Leistungsfähigkeit zu steigern. Lässt sich der Muskel nicht mehr reizen, wird mit Einzelimpulsen weiter geprüft. In einer sog. it-Diagnostikkurve (intensity-time) wird die Erregbarkeit mit Dreieckstrom und Rechteckstrom getestet. Aus der ermittelten it-Kurve kann der Physiotherapeut charakteristische Werte ablesen, die ihm Auskunft darüber geben, ob ein Muskel schlaff oder spastisch gelähmt ist und wie stark der Lähmungsgrad ist. Bei dieser Prüfung werden auch die optimalen Reizstromparameter für eine Behandlung ermittelt. Wird in regelmäßigen Abständen eine solche itKurve erstellt, kann anhand der Wertegegenüberstellung der therapeutische Erfolg und der Zustand der Erkrankungen abgelesen werden.
Reizstromdiagnostik
Elektropalpation
Bei der Reizstromdiagnostik wird mit einem Reizstromgerät das Nerven-Muskel-System auf Erregbarkeit mittels Rechteckimpulsen (RIC-Charakteristik) und der Akkommodationsschwellenwert mittels Dreieckimpulsen (DIC-
Zur Ermittlung von Triggerpunkten, Irritationszonen und geschädigtem Gewebe wird ein Gleich- oder Reizstrom eingesetzt. Dazu wird mit einer mobilen Elektrode ein Gebiet abgetastet, während der Strom fließt. Der Patient gibt an, wo er den Strom besonders intensiv empfindet oder wo Schmerzen auftreten. An diesen Stellen zeigt sich meistens eine charakteristische Rötung, deren Zonen dann behandelt werden.
Die Elektromedizin ist ein Teilgebiet der Medizin, das sich nach Anwendungsbereichen (Elektrodiagnostik und Elektrotherapie), Frequenzbereichen (nieder-, mittel- und hochfrequente Elektromedizin) (⊡ Tab. 37.1), historischen Aspekten (z. B. Bernard’sche Ströme, Nemec’sche Ströme u. a.) sowie speziellen Bezeichnungen und Eigenschaften (galvanischer Strom, diadynamischer Strom, bipolarer Strom u. a.) gliedert.
37.3.1 Elektrodiagnostik in der Physiotherapie
⊡ Tab. 37.1. Gliederung nach Frequenzbereichen Stromart
Frequenzbereich
Konstanter Gleichstrom
0 Hz
Pulsierender Gleichstrom/ Niederfrequente Reizströme Diadynamische Ströme/ Bernard’sche Ströme Ultrareizstrom TENS Hochvolt Impulsgalvanisation neofaradischer Schwellstrom Exponentialstrom
bis 1 kHz
Mittelfrequente Wechselströme Interferenzströme Nemec’sche Ströme Stereodynamische Interferenzströme
1–300 kHz 2–11 kHz
Hochfrequente Ströme
über 300 kHz
Kurzwelle
27,12 MHz; λ~11 m
Dezimeterwelle
433,9 MHz; λ~69 cm
Mikrowelle
2450 MHz; λ~12,5 cm
37.3.2 Elektrotherapie
Die Elektrotherapie umfasst Verfahren zur Behandlung von Krankheitssymptomen sowie die Nachbehandlung und Wiederherstellung von Funktionen des Bewegungsapparates mit verschiedenen spezifischen Stromformen. Durch die elektrische Therapie sollen Sekundärsymptome einer Erkrankung oder eines Traumas so beeinflusst werden, dass der Circulus vitiosus aus Schmerz – Tonuserhöhung, Minderdurchblutung, Schmerzverstärkung – durchbrochen und eine günstige Ausgangssituation für die physiotherapeutische Behandlung geschaffen wird (⊡ Tab. 37.2).
Aufbau und Funktion eines Elektrotherapiegeräts Die meisten Elektrotherapiegeräte (⊡ Abb. 37.4) bieten heute alternativ einen strom- oder spannungskonstanten Betrieb. Kombinationsgeräte sind einsetzbar zur Stimulation, Ultraschall- und Kombinationstherapie. Einfache Geräte ermöglichen nur eine Behandlung mit konstantem Gleichstrom (Galvanisation) und faradischem Strom
37
656
Kapitel 37 · Einführung in die Elektrotherapie
⊡ Tab. 37.2. Indikationen und Kontraindikationen für elektrotherapeutische Maßnahmen
III
Indikation
Kontraindikation
alle degenerativen Erkrankungen des Stütz- und Bewegungsapparates aus dem Bereich der Orthopädie
akute fieberhafte Prozesse
alle traumatischen Erkrankungen aus dem Bereich der Chirurgie
Infektionserkrankungen
einige Erkrankungen des Nervensystems wie z. B. neurogen bedingter Schmerz oder periphere Lähmungen
Tumoren
einige Erkrankungen aus dem Bereich der Inneren Medizin wie z. B. Durchblutungsstörungen oder Obstipationen
elektron. Implantate (z. B. Herzschrittmacher)
einige Erkrankungen aus dem Bereich der Hals-Nasen-Ohrenkunde wie z. B. Mittelohrentzündung oder Kieferhöhlen- bzw. Stirnhöhlenvereiterung
Hämophilie
einige Erkrankungen aus dem Bereich der Dermatologie wie z. B. Furunkel, Karbunkel, Abszesse
Schwangerschaft
(Faradisation). Wesentliche Elemente des Bedientableaus eines Elektrotherapiegeräts sind: ▬ Taste für Strom- oder Programmwahl: Die Stromart wird gewählt. Bei neueren Geräten wird anstelle der Stromart die Indikation gewählt. ▬ Taste für Stromform: Alternativ Dreieck- oder Rechteckstrom. ▬ Taste für Impuls- und Pausenzeitwahl: Impuls- und Pausenzeit können unabhängig voneinander eingestellt werden. ▬ Taste zur Wendung der Polarität: Umkehrung der Polarität des Behandlungsstroms. ▬ Intensitätsregler: Taste oder Drehknopf zur Regelung der Stromstärke. ▬ Digitale oder analoge Anzeige der Stromstärke. ▬ Spitzenstromknopf: nur bei Analoganzeige. Ansonsten Anzeige des Effektivstroms. ▬ Zeitschalter: Vorwahl der Behandlungsdauer. Nach Beendigung schaltet das Gerät automatisch ab. Das Geräteteil enthält neben der Stromversorgung das Netzteil, den Impulserzeuger, den Impulsformer, den Schwellstromerzeuger und den Endverstärker.
Wirksamkeit elektrotherapeutischer Behandlungen Bei elektrotherapeutischen Verfahren sind folgende positive Wirkungen auf den Organismus nachgewiesen: ▬ Schmerzlinderung, ▬ Durchblutungsförderung, ▬ Detonisierung quergestreifter Skelett- und Gefäßmuskulatur, ▬ Stoffwechselsteigerung, ▬ Resorptionsförderung von Ödemen und Gelenkergüssen, ▬ Muskelkräftigung.
⊡ Abb. 37.4. Modernes Elektrotherapiegerät
Schmerzlinderung Die Schmerzlinderung erfolgt aufgrund ▬ vermehrter Durchblutung: dadurch werden Gewebshormone (Bradykinin, Serotonin, Histamin, Prostaglandine), die die Schmerzrezeptoren erregen, schneller aus dem geschädigten Gewebe eliminiert; ▬ der Anwendung von Gleichstrom, indem der Anelektrotonus unter der Anode das kritische Membranpotential der Schmerzrezeptoren und damit die Schmerzschwelle erhöht; ▬ des Verdeckungseffektes, der bei allen niederfrequenten Reizströmen auftritt und auf der »Gate-ControlTheorie« nach Melzack und Wall basiert. Durch die Anwendung von Reizströmen werden Mechano- bzw. Vibrationsrezeptoren erregt und über die schnellleitenden »AB-Fasern« zum Rückenmark weitergeleitet. Dort aktivieren sie Zwischenneurone in der Substantia gelatinosa, die die Weiterleitung der Schmerzimpulse an den Transmissionszellen hemmen. Da aber hierbei mehr oder minder schnell ein Gewöhnungseffekt eintritt, wird durch die Einführung eines Frequenzwech-
657 37.3 · Einführung in die Elektromedizin
sels (Frequenzmodulation, Impulsbreitenmodulation) versucht, den Gewöhnungseffekt zu reduzieren; ▬ des »Plateaueffektes« bei den Interferenzströmen (= mittelfrequente Wechselströme): Er kann die Zellen in einem Dauerdepolarisationszustand halten und sie daher unerregbar für Reize machen. Dieser Effekt stellt das Gegenteil der Hyperpolarisation mit der Anode bei Gleichstrom dar.
Muskelkräftigung Nach der eingangs erwähnten Elektrodiagnostik können Muskeln gezielt und angepasst an ihren Schädigungsgrad gereizt und damit einerseits vor Muskelschwund bewahrt, andererseits aber auch aufgebaut werden. Drei Möglichkeiten stehen dem Therapeuten hierfür zur Verfügung: ▬ Bipolare Methode. Hierbei werden zwei Elektroden direkt auf den Muskel gelegt. ▬ Monopolare Methode. Bei sehr kleinen Muskeln kommt eine Elektrode als Reizelektrode auf den Muskel, die andere wird etwas weiter davon entfernt platziert. ▬ Eine punktförmige Reizelektrode wird auf dem zugehörigen Nerv an einer sehr gut zu erreichenden Stelle (Nervenreizpunkt) platziert, die andere in der näheren Umgebung. Gereizt wird mit maximal erträglicher Stromstärke.
37.3.3 Stromformen der Elektrotherapie
In der Elektrotherapie kommen unterschiedliche Stromformen zur Anwendung. Im Folgenden werden die in der Elektrotherapie klassischen Anwendungen mit den jeweiligen Stromformen vorgestellt.
Gleichstrombehandlung Der Gleichstrom, der synonym auch als galvanischer Strom bezeichnet wird, ist ein Strom, der zeitlich konstant bleibt, mit gleicher Stärke fließt und die Richtung beibehält. Eingesetzt werden konstanter Gleichstrom (Galvanisation, Iontophorese, Gleichstromüberlagerung nach Bernard oder hydroelektrische Bäder wie bspw. Stangerbad oder Vierzellenbad) und pulsierender Gleichstrom (zwei diadynamische Ströme nach Bernard, drei Exponentialströme, zwei faradische Ströme und Ultrareizstrom nach Träbert). Unter Iontophorese (griech. Iontos, Gehendes; phoresis, das Tragen), synonym auch als Ionentherapie oder Kataphorese bezeichnet, wird die therapeutische Anwendung von Gleichstrom mit einer Stromstärke von 0,1–0,5 mA/cm2 zum Einschleusen von Medikamenten durch die Haut verstanden. Dazu wird vom Elektrotherapiegerät eine Gleichstromspannung von 200 bis 300 V erzeugt. Bei pulsierendem
Gleichstrom, der am häufigsten in der Elektrotherapie eingesetzt und auch als Reiz- oder Impulsstrom bezeichnet wird, werden Frequenzen von 0,1 kHz bis 1 kHz erzeugt. Da sich der menschliche Organismus wie ein Elektrolyt verhält – das Gewebe leitet elektrischen Strom, da es wässrige Salze enthält – verändert sich die lonenkonzentrationen an der Zellmembran bei Anlegung eines Gleichstroms durch wandernde Ionen zur Elektrode. Dieser Prozess bewirkt eine analgesierende und hyperämisiernde Wirkung. Die Durchblutung kann so in der Haut um ca. 500% und in der Muskulatur um ca. 300% gesteigert werden. Weitere Vorteile der Behandlung mit Gleichstrom sind: ▬ verstärkte Zellteilung des Epithels und des Bindegewebes, ▬ schnellerer Verschluss von Hautwunden, ▬ Festigung und Stärkung der Epidermis und bindegewebeartigen Strukturen (z. B. Sehnen), ▬ Erhöhung der ATP-Bildung und Proteinsynthese. Auch vasomotorisch wirksam ist die Applikation von Gleichstrom. Nachgewiesen wurde von Lissner eine ausgeprägte Wirkung an der gegenüberliegenden Extremität, die ca. 50% der Wirkung der behandelten Extremität betrug. Zudem erfolgt ▬ eine Steigerung des arteriellen Zuflusses, des venösen und lymphatischen Abflusses, ▬ eine Resorptionsförderung von Gelengergüssen, Ödemen und Hämatomen und ▬ eine schmerzstillende Wirkung, die unter der Anode stärker ausgeprägt ist.
Niederfrequente Reizströme Unter niederfrequenten Reizströmen werden in der Elektrotherapie pulsierende Gleichströme mit Frequenzen im Bereich 0,1–1 kHz verstanden, wobei anzumerken ist, dass in der Praxis nur bis maximal 200 Hz Reize gesetzt werden (⊡ Abb. 37.5 und ⊡ Abb. 37.6). Dieser Frequenzbereich wird auch als elektrotherapeutischer Niederfrequenzbereich bezeichnet. Durch das Elektrotherapiegerät bzw. Reizstromgerät wird der Gleichstrom in zeitlichen Intervallen unterbrochen, sodass ein sog. Impulsstrom, der auch als Rechteckstrom bezeichnet wird, resultiert, welcher beliebig konfigurierbar ist: Rechteckimpuls mit steilem, sprunghaften Anstieg, Dreieckimpuls mit linearem Anstieg oder Dreieckimpuls mit exponentiellem Anstieg (syn. Exponentialimpuls). Die Reizstrom-Applikation erfolgt direkt über Elektroden oder Bäder (⊡ Tab. 37.3). Bei Reizstromgeräten können die niederfrequenten Ströme mit folgenden Parametern konfiguriert werden: 1. Stromform: Rechteck, Dreieck, Sinusform 2. Impulsdauer mit Anstiegs- und Abfallzeit 3. Pausendauer 4. Schwellzeit 5. Schwellpause
37
658
Kapitel 37 · Einführung in die Elektrotherapie
Niederfrequente Reiz-/Impulsströme
Wechselstrom
Gleichstrom
frequenzkonstant
frequenzmoduliert
III konstante Impulsfolge
unterbrochene Impulsfolge
Ultrareizstrom
stochastische Impulsfolge
neofaradischer Schwellstrom
DF MF Hochvolt Continious TENS Exponentialstrom
RS Burst TENS
CP
biphasischer Nadelimpulsstrom biphasisches TENSVerfahren
Impulsgalvanisation
LP TENS
stochastisches TENS-Verfahren
⊡ Abb. 37.5. Übersicht niederfrequente Ströme
Einsatzgebiete der niederfrequenten Reizströme
Linderung von Schmerzen
diadynamische Ströme Ultrareizstrom nach Träbert Impulsgalvanisation TENS-Verfahren Hochvoltstrom
Behandlung atrophierter und geschwächter Muskeln
Behandlung peripherer Lähmungen
neofaradischer Schwellstrom andere faradische Ströme
Exponentialstrom
⊡ Abb. 37.6. Niederfrequente Reizströme und ihre Einsatzgebiete
⊡ Tab. 37.3. Wirkung niederfrequenter Reizströme Frequenzbereich (Hz)
Wirkung
0,5–10
Aktivierung des Sympathikus mit nachfolgender Gefäßkonstriktion.
5–30
Rhythmische Muskelkontraktionen, die optisch einzeln noch deutlich voneinander abgegrenzt werden (»Schüttelfrequenz«) und Schmerzlinderung.
20–25
Aktivierung des Parasympathikus vegetativer Dystonie.
50
Optimale Reizfrequenz für die quergestreifte Muskulatur. Die Kontraktionen können hierbei optisch nicht mehr voneinander abgegrenzt werden, es erscheint eine Dauerkontraktion des Muskels. Durch rhythmische Stromstärkeänderungen werden dem Muskel Erholungspausen geboten.
100
Sympathikusdämpfung. Optimale Frequenz für die Schmerzlinderung.
659 37.3 · Einführung in die Elektromedizin
Zusätzlich kann zwischen monophasischen (gleichgerichtet) oder biphasischen (Stromrichtung wechselnd) Impulsströmen gewählt werden. Biphasische Ströme werden in symmetrische und asymmetrische eingeteilt, wobei asymmetrische Ströme in balancierte und nicht balancierte unterteilt werden. Eine kontinuierliche Reizstromimpulsfolge hat den großen Nachteil, dass sich der Körper sehr schnell an diese Impulsfolge gewöhnt (Adaptation) und somit der Schmerzlinderungseffekt nicht so wirksam ist. Abhilfe schafft hier die Modulation, die am Reizstromgerät wählbar ist. Modulation ist die Veränderung einer Impulsfolge in Form von Amplituden-, Impulsbreiten- oder Frequenzmodulation. Die Veränderung der Impulsfolge betrifft die Höhe, die Breite oder den Abstand der Impulse. Am häufigsten kommt die Frequenzmodulation zum Einsatz. Die Wirkungen der niederfrequenten Impulsströme (vgl. Abb. 37.6) sind primär die Schmerzstillung und die Muskelstimulation. Die Schmerzminderung erfolgt auf segmentaler, spinaler Ebene: Aktivierung des Gate-control-Systems über die den Eingang peripherer Schmerzinformationen hemmenden Interneurone der Substantia gelatinosa im Hinterhorn des Rückenmarks (Gate-control-Modell nach Melzack und Wall). Der schmerztherapeutische Effekt beruht bei der Anwendung höherer Intensitäten (direkt unter oder gerade über der Schmerzschwelle) auf der Anregung supraspinaler antinozeptiver Systeme und auf einer Aktivierung endogener Opioidpeptide (Eriksson und Sjölund). Die Theorie des Gate-control-Systems wurde 1965 von Melzack und Wall entwickelt. Sie postuliert, dass durch eine elektrische Stimulation der rasch leitenden A-Beta-Fasern die hemmend wirkenden Interneurone der Substantia gelatinosa im Hinterhorn des Rückenmarks aktiviert werden. Damit wird die Weiterleitung von Schmerzinformationen aus den C- und A-Delta-Fasern über zentralwärts aufsteigende Bahnen blockiert. Durch die Frequenzen von 50–150 Hz wird das Gewebe über Druck- und Vibrationssensoren gereizt. Eine besondere Wirkung beruht auf dem Phänomen des Gegenreizes (sog. Gegenirritationswirkung). Durch eine Stimulation mit hoher Intensität direkt unter oder gerade über der Schmerzschwelle der Rezeptoren wird eine Schmerzhemmung über Neurone im Hirnstamm und eine Endorphinausschüttung bewirkt. Die Muskelreizung erfolgt aufgrund der Membranpotentialverschiebungen. Dabei wird die Reizschwelle der motorischen Nerven herabgesetzt: Unter der Kathode ist sie stärker ausgeprägt, als unter der Anode. Sie wird deshalb zur Vorbehandlung und als eigenständige Behandlung schlaffer Lähmungen genutzt. Nur Reizstrom ist in der Lage, eine Kontraktion des Muskels zu bewirken.
⊡ Abb. 37.7. Biphasisches TENS-Verfahren
⊡ Abb. 37.8. Stochastisches TENS-Verfahren
⊡ Abb. 37.9. TENS mit Impulsbreitenmodulation
tienten verstanden. Bei diesem Verfahren werden Rechteckimpulsströme mit Impulszeiten von 30 bis 400 μs angewendet. Die Pausen zwischen den abgegebenen Impulsen ist gerätespezifisch und liegt zwischen 5 und 100 ms. TENS-Geräte werden ausschließlich mit Batterien betrieben, am Körper getragen und zur Selbstbehandlung eingesetzt.
Diadynamische Ströme Die diadynamischen Ströme werden zu den niederfrequenten Reizströmen gezählt. Sie bestehen aus einer Folge von positiven Halbwellen eines sinusförmigen Wechselstroms und haben eine Impulsdauer von 10 ms. Es werden zwei Grundformen unterschieden: 1. DF (diphasé fixe) 100 Hz: Aus einer Impulslänge von 10 ms ergibt sich eine Anzahl von 100 Impulsen/s. 2. MF (monophasé fixe) 50 Hz: Da die negativen Halbwellen unterdrückt werden, entsteht eine Pause von 10 ms. Impuls und Pause ergeben eine Zeitspanne von 20 ms, sodass eine Anzahl von 50 Impulsen/s daraus resultieren. Aus den zwei Grundformen lassen sich noch drei modulierte Formen (CP, LP und RS) ableiten.
TENS-Verfahren
Stochastischer Reizstrom
Unter TENS (transkutane elektrische Nervenstimulation) (⊡ Abb. 37.7, ⊡ Abb. 37.8, ⊡ Abb. 37.9) wird ein Analgesieverfahren zur Heimbehandlung chronischer Schmerzpa-
Reizstrom, dessen Impulsfrequenz sich in seiner Bandbreite in zufälliger Abfolge verändert. Die Bandbreite ist gerätespezifisch vorgegeben. Dabei werden mono- oder
37
660
Kapitel 37 · Einführung in die Elektrotherapie
biphasische Dreieck- oder Rechteckimpulse mit meist sehr kurzer Impulszeit (sog. Nadelimpulse) abgegeben. Der Frequenzbereich von 5 bis 30 Hz ist hinsichtlich der Schmerzstillung besonders wirksam. Stochastischer Reizstrom wird bei der Impulsgalvanisation und TENSVerfahren eingesetzt.
III
Mittelfrequente Reizströme Der mittelfrequente Reizstrom, der sich unterscheidet in reinen und amplitudenmodulierten Reizstrom (⊡ Abb. 37.10), ist ein Wechselstrom mit einer Frequenz von 1–100 kHz und konstanter Intensität. Therapeutisch genutzt wird allerdings nur der Bereich von 2–11 kHz. Dieser Frequenzbereich dient als Trägerfrequenz für die eigentliche Amplitudenmodulationsfrequenz, die sich im Niederfrequenzbereich befindet und die Reizwirkung auf Schmerzrezeptoren und Muskeln ausübt. Die Trägerfrequenz als Wechselstrom dient nur als Mittel zum Zweck: ▬ sie macht den Strom für den Patienten verträglicher, was zu einer ▬ tieferen Wirkung führt, ▬ erlaubt Behandlung von Patienten mit Metallimplantaten und ▬ vermeidet die Entstehung von Säure und Lauge auf der Haut, die bei Gleichstrom und jedem gleichgerichteten Reizstrom mehr oder minder auftritt. Zwei Applikationsformen sind in der Praxis üblich: 1. Die vierpolige Applikationsweise. Hierbei werden zwei mittelfrequente Ströme mit unterschiedlicher Frequenz von zwei Stromkreisen dem Körper zuge-
führt. Im Körpergewebe überlagern sich die Ströme, und es entstehen durch Interferenz die niederfrequenten Schwebungen. Deswegen werden diese mittelfrequenten Ströme auch Interferenzstrom genannt (⊡ Abb. 37.11). 2. Die zweipolige Applikationsweise. Hierbei werden beide Ströme bereits im Gerät gekoppelt, und die Interferenz entsteht sowohl unter den Elektroden als auch im Gebiet dazwischen. In der Praxis ist die gebräuchlichste Form des amplitudenmodulierten Stroms der Interferenzstrom. Das elektrotherapeutische Verfahren mit Interferenzstrom wird mit einem modifizierten Elektrotherapiegerät, dem Interferenzstromgerät (⊡ Abb. 37.12), durchgeführt.
⊡ Abb. 37.11. Vierpoliger Interferenzstrom mit Verteilung im Behandlungsgebiet
Mittelfrequenz Verfahren
Stromform
unmoduliert
moduliert
Wymoton
zweipolig dreipolig (bipolar) (tripolar)
vierpolig sechspolig (tetrapolar)
Interferenz unter den Elektroden und im Körper
Interferenz nur im Körper
⊡ Abb. 37.10. Mittelfrequente Reizströme und Verfahren
Amplipuls
Interferenzverfahren n. Nemec
Stereodynamisches Verfahren
661 37.4 · Ultraschalltherapie
Hochfrequente Ströme Hochfrequente Ströme werden in der Elektrotherapie zur Hochfrequenztherapie eingesetzt. Dabei finden elektrische und magnetische Wechselfelder sowie elektro-
magnetische Wellen >100 kHz Anwendung. Ein direkter Kontakt mit der Hautoberfläche besteht nicht. Elektromagnetische Wellen werden im Körper in Wärme umgewandelt und haben eine tiefgehende Wirkung. Hierzu werden die Kurzwelle, Mikrowelle und Dezimeterwelle eingesetzt.
Kurzwelle Die Kurzwelle wird in der Elektrotherapie mit einer festen Frequenz von 27,12 MHz und einer dazugehörigen Wellenlänge von 11,06 m eingesetzt, da es ansonsten zu Störungen im Funkverkehr kommt. Sie wird entweder in einem elektrischen Wechselfeld (Kondensatorfeld, ⊡ Abb. 37.13) oder in einem magnetischen Wechselfeld (Spulenfeld) verabreicht.
Mikrowelle Für die Elektrotherapie werden Mikrowellen mit einer Frequenz von 2450 MHz und einer Wellenlänge von 12,5 cm eingesetzt. Appliziert werden die Mikrowellen mit monopolarer Technik in Form von Strahlern (z. B. Hohlfeld-, Rundfeld-, Langfeld- oder Fokusstrahler), die auf Gerätehaltearme montiert sind. ⊡ Abb. 37.12. Interferenzstromgerät (Stromkreis 1: dunkles Elektrodenkabel; Stromkreis 2: helles Elektrodenkabel)
Dezimeterwelle Die Dezimeterwelle (433,9 MHz; λ~69 cm) wird wie die Mikrowelle mit monopolarer Technik in Form von Strahlern (z. B. Pyrodor-Strahler, Rundfeld- oder Langfeldstrahler), die auf Gerätehaltearme montiert sind, appliziert.
37.4
⊡ Abb. 37.13. Gerät zur Hochfrequenztherapie mit Kondensatorelektroden
Ultraschalltherapie
Als Ultraschall wird eine mechanische Schwingung (Dichte- oder Druckwelle) mit einer Frequenz zwischen 20 kHz und einem GHz innerhalb des akustischen Spektrums bezeichnet. Für elektrotherapeutische Anwendungen werden Frequenzen von 800 KHz, 1 MHz und 3 MHz eingesetzt. Die therapeutische Wirkung des Ultraschalls beruht auf der Absorption der Schallwellen im Gewebe und deren Umwandlung in Wärme. Die Schallintensitäten liegen um 0,5 W/cm2. Da das piezoelektrische Element nicht auf seiner ganzen Fläche gleichmäßig schwingt, ist die effektiv abstrahlende Fläche (ERA = Effective Radiating Area) des Schallkopfes immer kleiner als seine geometrische Oberfläche (⊡ Abb. 37.14). Das in den Körper eindringende Ultraschallbündel lässt sich in ein Nahfeld (Fresnel Zone) und Fernfeld (Fraunhofer Zone) einteilen. Während das Nahfeld unmittelbar unter dem Schallkopf beginnt und die Ausdehnung der Schallwellen von der Schallfrequenz und der Schallkopfgröße abhängt, weist das Fernfeld keine Interferenzphänomene auf und ist deshalb für die therapeutische Anwendung nicht von Bedeutung. Als sog.
37
662
Kapitel 37 · Einführung in die Elektrotherapie
geometrisches Arreal ERA
Nahfeld = 10 cm
Fernfeld
III ⊡ Abb. 37.14. Effektives Strahlungsareal (ERA) eines Ultraschallkopfs ⊡ Abb. 37.15. Lasergerät zur elektrotherapeutischen Anwendung mit Laserstift
Beschallungsverfahren werden die dynamische, semistatische und statische Beschallung unterschieden, wobei die ersten beiden Verfahren direkt lokal oder indirekt angewendet werden können. Das Wirkungsspektrum der Ultraschalltherapie umfasst: ▬ Wärmewirkung durch mechanische Reibung, ▬ Zellstoffwechselerhöhung und Permeabilitätssteigerung, ▬ Schmerzlinderung, ▬ Anregung von Knochenwachstum nach Frakturen, ▬ Lösen von Gewebsverklebungen, Verhärtungen und Narbenadhäsionen, ▬ Reduktion von Kalkablagerungen und ▬ Stimulation der lokalen Abwehr bei der Wundheilung.
elektrotherapeutischen Methoden relativ kurz: eine bis etwa fünf Minuten. Das spezifische Wirkungsspektrum der Lasertherapie umfasst: ▬ Entzündungshemmung, ▬ Schmerzlinderung, ▬ Beschleunigung der Wachstumsgeschwindigkeit von verletzten Nerven, der Ödemresorption sowie der Regeneration von arteriellen, venösen und lymphatischen Gefäßen und ▬ Aktivierung der Bildung neuer Blutkörperchen im Knochenmark. Die Behandlungszeit kann nach der Formel
37.5
Lasereinsatz in der Elektrotherapie
Die Lasertherapie gilt neben der Hochfrequenz in der Elektrotherapie als die wirksamste Methode, um eine Tiefenwirkung zu erzielen. Der Laserstrahl kann problemlos oberflächliche Strukturen durchdringen und so in der Tiefe seine Wirkung entfalten. Für die elektrotherapeutische Anwendung kommen zwei Arten von Laser zum Einsatz: Helium-Neon-Laser (HeNE-Laser), ein Gaslaser mit einer Wellenlänge von 632 nm und der GalliumArsenidlaser (GaAs-Laser), ein Halbleiterlaser mit Galliumarsenid als aktivem Material, mit einer Wellenlänge von 904 nm. In der Physiotherapie kommen Intensitäten zwischen 10 und 500 mW zur Anwendung. Es werden zwei Applikationsformen unterschieden: 1. punktuelle statische Behandlung, bei der der Lasergriffel aufgesetzt und nicht bewegt wird; 2. lokale Strichführung, indem der Laserstift linear über das Behandlungsgebiet geführt wird, um eine größtmögliche Eindringtiefe zu erreichen. Die Anwendung erfolgt mit einem kleinen Laserstab, genannt Lasergriffel (⊡ Abb. 37.15), der über das fokussierte Gebiet in Form von Strichen geführt wird. Die Behandlungszeiten sind im Gegensatz zu den anderen
t=
benötigte Dosis (
J ) ⋅ Behandlungsfläche (cm 2 ) ⋅1000 cm 2 Laserleistung (mW )
(37.1)
berechnet werden. Die durchschnittliche Laserleistung (mW) lässt sich aus PLaser =
Spitzenleistung (W ) ⋅ Im pulsdauer ( ns) ⋅ Frequenz ( Hz ) 106
(37.2) ermitteln.
Lichttherapie Unter Lichttherapie (syn. Phototherapie) wird die Behandlung mit natürlichem oder künstlichem Licht verstanden. Folgende Lichtbehandlungen lassen sich unterscheiden: 1. Photochemotherapie mit einem lichtsensibilisierenden, langwelligen UV-A-Licht (PUVA) 2. Selektive UV-Phototherapie (SUP) mit überwiegendem UV-B-Anteil (λ = 292–335 nm) 3. UV-A1-Therapie mit langwelligen UV-A Strahlen (λ = 340–400 nm) 4. Photodynamische Therapie mit Photosensibilisatoren und Laserlicht (λ = 580–740 nm)
663 37.6 · Elektrotherapeutische Elektroden
37.6
Elektrotherapeutische Elektroden
Je nach Anwendungsgebiet und Krankheitsbild werden unterschiedliche Elektroden für elektrotherapeutische Anwendungen eingesetzt. Die ⊡ Tab. 37.4 gibt eine Übersicht über die gebräuchlichsten Elektroden. Elektrotherapeutische Elektroden, die an der zu behandelnden Körperstelle angelegt werden, werden als differente Elektrode oder Wirkelektrode bezeichnet. Hingegen fungiert die indifferente Elektrode nur als Bezugselektrode und kann prinzipiell überall am Körper angelegt werden. Bei Gleichstrom wird die differente Elektrode als Anode genutzt, da unter dieser der Anelektrotonus zur Beruhigung und Schmerzschwellenerhöhung genutzt werden soll. Dagegen ist bei niederfrequenten Reizströmen die Kathode die differente Elektrode, da unter ihr die Auslösung des »Schmerzverdeckungseffektes« besonders wirksam ist. Sind zwei Elektroden unterschiedlich groß, dient die kleinere Elektrode aufgrund der größeren Stromdichte als differente Elektrode. Bei der lontophorese können Anode oder Kathode oder beide als differente Elektroden fungieren, je nach verwendetem Medikament. Beim Wechselstrom (Interferenz, biphasischer Impulsstrom) gibt es keine differente Elektrode.
37.6.1 Elektrodenapplikation
Die zur elektrotherapeutischen Anwendung kommenden Elektroden werden unterschiedlich angebracht:
1. Querdurchströmung (transversale Applikation). Hierbei wird das Elektrodenpaar so angelegt, dass der Strom quer zur Körperlängsachse fließt. Hauptindikation ist die Behandlung von Gelenken. 2. Längsdurchströmung. Die Stromrichtung liegt parallel zur Körperlängsachse. Es ist unbedingt zu beachten, dass bei Behandlungen an der Wirbelsäule die Anode kranial und die Kathode kaudal angelegt wird (absteigende Behandlung). Diese Anordnung wirkt beruhigend auf das Nervensystem und schmerzlindernd. Bei umgekehrter Elektrodenanlage können besonders an der Halswirbelsäule unangenehme Reaktionen, z. B. Kopfschmerz oder Schwindel, hervorgerufen werden. Eine spezielle Anwendungsform sind die hydrogalvanischen Teilbäder. 3. Schmerzpunktbehandlung. Die differente Elektrode (bei Gleichstrom die Anode, bei Reizströmen die Kathode) wird auf dem Schmerzpunkt angelegt, die Bezugselektrode in einigen Zentimetern Entfernung nach den Regeln der absteigenden Behandlung: – proximal bei Reizströmen, – distal bei Gleichstrom oder – auf gleicher Höhe bei beiden Stromarten. Mobile Applikation. Hauptanwendungsgebiet ist die Behandlung eines großen Gebietes oder das Auffinden hyperalgetischer Zonen, der »Triggerpoints« (Schmerzpunktsuche). Eine oder zwei Elektroden sind ständig in Bewegung. Sind beide Elektroden mobil, z. B. bei den Handschuhelektroden, muss der Patient die Stromstärke
⊡ Tab. 37.4. Elektrotherapeutische Elektroden Elektrodenart
Eigenschaften
Plattenelektrode
Häufigste Elektrodenart, die in unterschiedlichen Größen aus Zinnblech oder graphitbeschichtetem Weichgummi hergestellt wird und selbst angefertigt werden kann. Geeignet für mittlere bis große Behandlungsflächen: Rumpf, Schulter-, Hüft-, Hand- oder Fußgelenk. Das Zinnblech lässt sich sehr gut auf eine gewünschte Größe zuschneiden. Nachteil der Zinnblechelektroden ist, dass sie mit der Zeit korrodieren und brüchig werden.
Saug- oder Vakuumelektrode
Eine im Aufbau einer Saugglocke aus Kunststoff ähnelnde Elektrode, in der ein runder Schwamm als feuchte Zwischenlage die Verbindung zur Elektrode herstellt. Sie lässt sich schnell angelegen und gut fixieren. Besonders für Hals- und Brustwirbelsäule geeignet, da hier ansonsten schlechte Fixierungsmöglichkeiten bestehen.
Klebeelektrode
Einmalelektrode mit selbstklebender Metalloberfläche, die zwar leicht anzulegen, aber auch teuer ist.
Punktelektrode
Hat die Form eines Stiftes mit einer Filzolive an einem Ende. Geeignet für Nervenreizpunkte, Schmerzpunkte und Reizung von kleinen Muskeln.
Bügelelektrode
Elektrode, die für kleine Behandlungsflächen, segmentale Behandlungen an der Wirbelsäule oder bipolare Muskelreizung geeignet ist. Nachteilig ist bei längeren Behandlungszeiten die Ermüdung der Hand.
Rollenelektrode
Elektrode, die die Form einer Rolle aufweist und einen Griff besitzt. Sie wird manuell über das Behandlungsgebiet geführt. Vorteile: Der Strom lässt sich schnell an der Körperoberfläche verteilen, ist geeignet für größere Behandlungsareale und bietet einen zusätzlichen Massageeffekt.
Handschuhelektrode
Handschuh aus Kunststoff mit Schwammunterlage. Vorteile wie Rollenelektrode.
Spangen- oder Kopfhörerelektrode
Der Aufbau ist ähnlich dem eines Kopfhörers: Ein Metallbügel mit Rundelektroden an beiden Enden. Vorteilhaft ist die leichte Fixation.
37
664
Kapitel 37 · Einführung in die Elektrotherapie
regeln. Bei einer mobilen Elektrode ist die indifferente Elektrode am Körper fixiert, während die differente Elektrode über das therapeutisch zu beeinflussende Gebiet geführt wird. Die gebräuchlichsten mobilen Elektroden sind: Rollenelektroden, Handschuhelektroden oder der Ultraschallkopf bei der Kombination von Ultraschall und Strom (= Simultanbehandlung).
III
Gangliotrope Applikation. Ein Ganglion wird direkt
durch die differente Elektrode (Kathode) mit Strom beeinflusst. Wichtigste Indikation ist die Behandlung des Ganglion stellatum bei Morbus Sudeck. Nervenstammapplikation. Das Elektrodenpaar wird im Verlauf eines peripheren Nerven angelegt, um diesen direkt zu beeinflussen. Vasotrope Applikation. Die Elektroden werden direkt im
Verlauf eines arteriellen peripheren Gefäßes angebracht. Hierdurch wird der Gefäßtonus durch Lumenerweiterung direkt beeinflusst (z. B. bei Durchblutungsstörungen). Wirbelsäulenapplikationen. Bei der Therapie der Wirbelsäule wird diese direkt oder ein dem entsprechenden Segment zugeordnetes peripheres Körpergebiet indirekt behandelt (indirekte, segmentale, radikuläre oder Nervenwurzelbehandlung).
Weiterführende Literatur Kramme R (2004) Springer Wörterbuch. Technische Medizin. Springer, Berlin Heidelberg New York Wenk W (2004) Elektrotherapie. Springer, Berlin Heidelberg New York
38 Biosignale erfassen und verarbeiten K.-P. Hoffmann
38.1 Messen in der Medizin
– 667
38.1.1 Besonderheiten des Messens in der Medizin 38.1.2 Biosignale – 668 38.1.3 Biologische Messkette – 668
– 667
38.3.1 Biostatistische Verfahren – 684 38.3.2 Biosignalanalyse – 685
38.2 Erfassung biologischer Signale – 677 38.2.1 38.2.2 38.2.3 38.2.4 38.2.5 38.2.6
38.1
Bioakustische Signale – 677 Biochemische Signale – 678 Bioelektrische und biomagnetische Signale Biomechanische Signale – 680 Biooptische Signale – 683 Biothermische Signale – 683
38.3 Messwert- und Signalanalyse aus messtechnischer Sicht – 684
– 678
Messen in der Medizin
38.1.1 Besonderheiten des Messens
in der Medizin Messen ist die experimentelle Bestimmung eines Messwertes durch quantitativen Vergleich der Messgröße mit einer Vergleichsgröße. Der so gewonnene Messwert wird als Produkt aus Zahlenwert und Maßeinheit angegeben. Er kann kontinuierlich als zeitliche Veränderung einer physikalischen Größe oder zu einzelnen Zeitpunkten diskontinuierlich erfasst werden. Die Abweichung des Messwertes von der Messgröße ist der Messfehler. Er ist vom gewählten Messverfahren, vom Messmittel oder Messgerät und den Einflüssen der Umwelt abhängig. Man unterscheidet systematische und zufällige Fehler. Die Messung selbst kann direkt oder in Abhängigkeit von gewählten Messverfahren auch indirekt erfolgen. So wird bspw. die Konzentration von Stoffen über die messbaren Größen Extinktion, Ionenaktivität, Dielektrizitätskonstante oder magnetische Suszeptibilität bestimmt. Dabei wird die Messgröße mit dem Ziel einer weiteren Signalverarbeitung in eine oder mehrere Zwischengrößen umgewandelt. Das Ergebnis einer Messung besteht aus dem Messwert selbst oder einer Verknüpfung von mehreren Messwerten. Das Messen in der Medizin dient der objektiven Beschreibung des Zustands eines ggf. auch nicht kooperationsfähigen Patienten. Es soll dem Arzt helfen, die jeweilige Therapie festzulegen bzw. den Therapiever-
38.4 Vesuchsplanung und klinische Studien – 687 Weiterführende Literatur
– 688
lauf zu beurteilen. Auch lässt sich so oftmals die Prognose des Krankheitsverlaufs abschätzen. Langzeitige Überwachungen physiologischer Größen im Rahmen eines Monitorings sind mit einer Alarmfunktion beim Über- bzw. Unterschreiten eingegebener Grenzwerte verbunden. Die Weiterentwicklung besteht in Closedloop-Systemen, die nach Analyse der Messwerte direkt auf den Zustand des Patienten einwirken, bspw. bei der Infusionstherapie durch Erhöhung oder Verminderung der Infusionsrate. Aber auch die Untersuchung von nicht kooperationsfähigen Patienten wird durch die Gewinnung von objektiven Parametern oftmals erst möglich (⊡ Abb. 38.1).
⊡ Abb. 38.1. Messen in der Medizin
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _38, © Springer-Verlag Berlin Heidelberg 2011
668
IV
Kapitel 38 · Biosignale erfassen und verarbeiten
Häufig werden in der Medizin verschiedene Verfahren kombiniert, wie z. B. in der Kopfdiagnostik beim »functional brain imaging« die Kombination von funktionellen, metabolischen und morphologischen Methoden. Hier kann die gemeinsame Auswertung von EEG, CT, MRT, PET und MEG, bspw. in der prächirurgischen Diagnostik epileptischer Anfallsleiden und der Lokalisation des epileptischen Fokus, neue Erkenntnisse bringen. Für die Messtechnik in der Medizin lassen sich damit folgende Aufgaben finden: 1. Messtechnische Erfassung, Wandlung, Verarbeitung und ggf. telemetrische Übertragung von biologischen Signalen. 2. Messung der Reaktion oder des Verhaltens des biologischen Objektes auf einen äußeren Reiz. 3. Messungen im Rahmen des Einsatzes von extra- oder intrakorporalen Assistsystemen zur Unterstützung von Organfunktionen oder als Organersatz sowie von Manipulatoren zur Durchführung therapeutischer Maßnahmen. 4. Applikation von Substanzen, Strahlungen oder Wellen und Messung von Reflexion, Absorption, Streuung, Verteilung oder Fluoreszenz zur Darstellung von Strukturen und Funktionsabläufen im Organismus. 5. Entnahme von Körperflüssigkeiten, Substanzen und Geweben sowie Test im klinisch-chemischen Labor. Vergleicht man technische Messungen mit denen am biologischen Objekt, so findet man aufgrund der biologischen Variabilität interindividuelle und intraindividuelle Abweichungen. Dies bedeutet, dass sich die gewonnenen Messwerte von Patient zu Patient unterscheiden. Aber auch bei ein und demselben Patienten treten im Tagesverlauf unterschiedliche Messwerte (z. B. Blutdruck) auf. Der Grad der Belästigung für den Patienten und die Durchführung der Methode hat einen direkten Einfluss auf die Auswertbarkeit der gewonnenen Messwerte. Beachtet werden muss auch, dass biologische Störquellen (biologische Artefakte physiologischer Herkunft) der zu messenden Größe überlagert sind. Die Messzeit und die Wiederholbarkeit einer Untersuchung sind bei den meisten Methoden limitiert. Hinzu kommt die breite Variabilität der zu untersuchenden Personen, die vom Fetus über das Kleinkind und den durchtrainierten Sportler bis hin zum Greis führt. Demgegenüber stehen die subjektiven Methoden, die auf die Mitarbeit des Patienten angewiesen sind. Hierzu zählen Audiometrie, Vibrationstests und Temperaturempfinden.
relevante Aussagen messtechnisch erfasst werden soll. Man kann die Biosignale als Phänomen zur Beschreibung des Funktionszustands und der Zustandsänderung eines lebenden Organismus bzw. Teilen davon definieren. Sie geben Auskunft über metabolische, morphologische und funktionelle Veränderungen, beschreiben physiologische und pathophysiologische Zustände sowie die Dynamik von Prozessen. Für ihre Analyse ist der Ort der Generierung und damit die räumliche und zeitliche Zuordnung bedeutungsvoll. Sie werden vom lebenden Organismus, Organen und Organteilen bis hin zu einzelnen Zellen gewonnen. Biosignale lassen sich aufgrund ihrer Eigenschaften unterscheiden. So findet man einerseits Strukturgrößen, wie z. B. Länge, Fläche, Menge, Volumen, Elastizität und Viskosität, andererseits Funktionsgrößen, wie z. B. Temperatur, Druck, Flow, elektrische Potentiale und akustische Geräusche. Beschrieben werden Biosignale durch ihre Frequenz, Amplitude, Form und den Zeitpunkt ihres Auftretens. Sie lassen sich im Zeit- und Frequenzbereich, aber auch als zwei- und dreidimensionale Bilder darstellen. Ihr Auftreten kann stochastisch, stationär, periodisch und diskret sein. ⊡ Abb. 38.2 gibt einige Beispiele für Biosignale. Entsprechend ihren physikalischen Eigenschaften lassen sich Biosignale einteilen in: 1. bioakustische Signale (Herzschall, Lungengeräusche, Sprache), 2. biochemische Signale (Stoffzusammensetzungen, Konzentrationen), 3. bioelektrische und biomagnetische Signale (elektrische Potentiale, Ionenströme), 4. biomechanische Signale (Größe, Form, Bewegungen, Beschleunigung, Flow), 5. biooptische Signale (Farbe, Lumineszenz), 6. biothermische Signale (Körpertemperatur).
38.1.3 Biologische Messkette
Die biologische Messkette dient der messtechnischen Erfassung von Biosignalen. Sie besteht aus der Erfassung (Sensor, Wandler), der Verarbeitung (Verstärkung, Filterung, Linearisierung, Übertragung), der Analyse (Biostatistik, Biosignalanalyse, Bildverarbeitung) und der Darstellung der biologischen Signale. Ziel ist es, dem Arzt für die Befundung und Diagnosestellung eine Hilfe zu geben. ⊡ Abb. 38.3 zeigt den prinzipiellen Aufbau einer biologischen Messkette.
38.1.2 Biosignale
Messfühler
Das Biosignal ist in der biologischen Messkette die eigentliche Messgröße, die als Zielgröße für diagnostik-
Ein Biosensor ist ein Messfühler zur Erfassung von Lebensvorgängen und morphologischen Strukturen. Er ist häufig unmittelbar mit einem Wandler verbunden oder selbst
669 38.1 · Messen in der Medizin
⊡ Abb. 38.2. Beispiele für messtechnisch erfassbare Biosignale
⊡ Abb. 38.3. Aufbau der biologischen Messkette
38
670
IV
Kapitel 38 · Biosignale erfassen und verarbeiten
der Wandler (z. B. Elektrode), der das primäre Messsignal in ein sekundäres wandelt. Das sekundäre Messsignal ist meistens ein elektrisches Signal, welches leicht elektronisch weiter verarbeitet werden kann. Beispiele für erfassbare Größen sind Blutdruck, Körpertemperatur, Herzfrequenz, bioelektrische Potentiale (EEG, EKG, EMG, EOG), metabolische Parameter (Glukose, pH-Wert) sowie die Größe und Lokalisation von raumfordernden Prozessen. Bei Biosensoren im engeren Sinne ist der an den Wandler gekoppelte Messfühler eine biologische Detektionskomponente. Diese hat die Aufgabe, mit der zu analysierenden Substanz spezifisch und sensitiv zu reagieren. Dabei können Wärme, Elektronen, Protonen, Licht, Ionen, Gase, Fluoreszenz und Masseänderungen entstehen. Die biologische Komponente als eigentlicher Signalgeber kann aus Enzymen, Mikroorganismen, Organellen, Zellverbänden, oder Antikörpern bestehen. Sie wird am Wandler immobilisiert. ⊡ Abb. 38.4 zeigt schematisch einen Biosensor. Die hauptsächliche Anforderung an Biosensoren ist eine rückwirkungsfreie Erfassung der Signale. Sie müssen reproduzierbare Messergebnisse liefern. Das Übertragungsverhalten muss über eine lange Zeit konstant bleiben, um Langzeitableitungen und das Monitoring zu ermöglichen. Enge Auslieferungstoleranzen, eine hohe Bioverträglichkeit, geringe Belastung für den Patienten, geringe Masse und geringes Volumen sind weitere Forderungen. Die Anwendung sollte einfach und überschaubar sein. Dies betrifft im besonderen Maße Möglichkeiten der Reinigung, Desinfektion und ggf. Sterilisation. Entwicklungsziele für Sensoren liegen in der Erhöhung der Zuverlässigkeit einschließlich der Verringerung von Artefakten, der Erhöhung der Kanalzahl (Multitransducertechnik) und der Erhöhung der Komplexität (Closedloop-Systeme). Dies wird zum einen durch die Miniaturisierung einschließlich der Verringerung von Masse, Volumen und Leistungsaufnahme, durch neue biokompatible Materialien und durch die Verbesserung der Möglichkeit
⊡ Abb. 38.4. Schematische Darstellung eines Biosensors
einer Inkorporation erreicht. Zum anderen gilt es, neue berührungslose Messverfahren zu entwickeln, die dann eine völlig rückwirkungsfreie Erfassung gestatten.
Wandler Chemoelektrische Wandler Chemoelektrische Wandler dienen der Messung einzelner chemischer Komponenten im Blut, im Körpergewebe, der Atemluft oder auf der Haut. Man unterscheidet ▬ potentiometrische Sensoren, basierend auf Messung der Zellspannung, ▬ amperometrische Sensoren, basierend auf dem Zellenstrom und ▬ konduktometrische Sensoren, basierend auf der Admittanz. Potentiometrische Wandler bestehen i. Allg. aus einer in die zu untersuchenden Elektrolyten eingetauchten Metallelektrode, die mit einer selektiv durchlässigen Membran umgeben ist. Die an der Elektrode ankommenden Ionen oder Moleküle verändern die elektrochemische Potentialdifferenz zwischen dieser Messelektrode und einer in eine definierte Referenzlösung getauchten Bezugselektrode. Die zugehörige Spannungsänderung ist proportional dem Logarithmus der Ionenkonzentration. ⊡ Abb. 38.5 veranschaulicht als Beispiel das Prinzip einer pCO2-Elektrode. Bei ionenselektiven Feldeffekttransistoren ist das Gate von einer Membran umgeben. Eine Diffusion von Ionen oder Molekülen durch die Membran bewirkt eine Änderung des Drainstroms, der als Messsignal erfasst werden kann. Elektrische und magnetische Wandler Elektrische Wandler sind Ableitelektroden, die ein elektrisches Signal (Ionenstrom) in ein elektrisches Signal (Elektronenstrom) wandeln. Sie werden nach den Eigenschaften des jeweiligen Biosignals, der Lokalisation des Entstehungsortes, der Ausdehnung des bioelektrischen Generators und den Umgebungseinflüssen ausgewählt. Man unterscheidet Mikroelektroden (Glaskapillarmikroelektroden, Metallmikroelektroden) und Makroelektroden (Oberflächenelektroden, subkutane Nadelelektroden und Tiefenelektroden). ⊡ Abb. 38.6 stellt schematisch verschiedene Nadelelektroden dar. Bei reinen Metallelektroden bzw. polarisierbaren Elektroden treten positiv geladene Metallionen in die Elektrolytlösung, wodurch es zum Aufbau der HelmholtzDoppelschicht mit molekularem Abstand kommt. Dies bewirkt, dass insbesondere im niederfrequenten Bereich höhere Elektrodenwiderstände auftreten. Damit ist das Anwendungsgebiet dieser Elektroden die Ableitung höherfrequenter Signale, wie z. B. die evozierten Potentiale. Bei unpolarisierbaren Elektroden ist das Anion der Elektrolytlösung Bestandteil der Metallelektrode (z. B.
38
671 38.1 · Messen in der Medizin
⊡ Abb. 38.5. Aufbau und Wirkungsweise einer pCO2-Elektrode
nommen wird. Diese bewirkt eine Auslenkung der Membran, die mit einer Formänderung von Dehnmessstreifen oder Halbleiterwiderständen, einer Verschiebung kleiner Eisen- oder Ferritkerne in einer Spule bzw. einer Änderung des Plattenabstands eines Kondensators verbunden ist. Für einen Dehnmessstreifen ergibt sich der Widerstand aus den geometrischen Verhältnissen. R
⊡ Abb. 38.6. Nadelelektroden für elektromyographische Untersuchungen. Von oben nach unten: konzentrische Nadelelektrode, Einzelfaserelektrode, unipolare Nadelelektrode (oben indifferent, unten different)
Ag/AgCl-Elektrode, Elektrolyt NaCl, Anion Cl–). Dies führt zur Verminderung und Stabilisierung der GalvaniSpannung und damit zu geringen Übergangswiderständen im gesamten Frequenzbereich. ⊡ Abb. 38.7 zeigt das Ersatzschaltbild einer Elektrode einschließlich der Polarisationsspannung. Biomagnetische Untersuchungen sind mittels supraleitendem Quanteninterferometer möglich. Diese enthalten 1 oder 2 Josephson-Elemente, die einen Stromfluss ohne Spannungsabfall ermöglichen. Sie sind als Gradiometer aufgebaut, um die homogenen sensorfernen Magnetfelder, insbesondere das Erdmagnetfeld, zu unterdrücken (⊡ Abb. 38.8). Mechanoelektrische Wandler Zur Messung von Längenänderungen, Dehnungen, Druckschwankungen im Gewebe, Körperflüssigkeiten und Organen, Messungen von Geräuschen, Mikrovibrationen und Blutflussmessungen werden mechanoelektrische Wandler eingesetzt. Resistive, induktive und kapazitive Wandler haben eine Membran, über die eine Kraftänderung aufge-
U
I A
(38.1)
Hier bedeuten: R Ohm’scher Widerstand, ρ spezifischer Widerstand, l Länge, A Leiterquerschnitt. Aufgrund der Veränderung des Plattenabstands eines Kondensators infolge einer Krafteinwirkung ändert sich auch dessen Kapazität. CX
H 0 HJ
A x
(38.2)
Hier bedeuten: C Kapazität, A Fläche, x Plattenabstand, ε Dielektrizitätskonstante. Über geeignete Messbrücken wird der Messwert ermittelt. Piezoelektrische Wandler bestehen aus piezoelektrischen Kristallen. Bei mechanischer Beanspruchung in Richtung einer polaren elektrischen Achse entstehen bei sehr kleinen Verformungen durch die Verschiebung der Atome elektrische Ladungen. Die induzierte Oberflächenladung ist das Produkt aus piezoelektrischer Konstante und äußerer Kraft. Δq = k · ΔF Hier bedeuten: Δq induzierte Oberflächenladung, ΔF Kraftänderung, k piezoelektrische Konstante.
(38.3)
672
IV
Kapitel 38 · Biosignale erfassen und verarbeiten
⊡ Abb. 38.7. Elektrisches Ersatzschaltbild zur Ableitung von Biopotentialen mittels Oberflächenelektroden (U Spannungsquelle für Signal und Artefakte, Ri Innenwiderstand, RG CG Gewebeimpedanz, RH CH Hautimpedanz, RÜ CÜ Elektrodenübergangswiderstand, UP Polarisationsspannung)
Hall-Sonden werden benutzt, um Magnetfelder auszumessen und somit alle Größen zu erfassen, die Magnetfelder erzeugen oder beeinflussen. Die Hall-Spannung entsteht infolge der Lorenz-Kraft und ist proportional einem Steuerstrom in Längsrichtung des von einem Magnetfeld durchsetzten Plättchens und dessen magnetischer Flussdichte. Sie nimmt mit der Elektronenkonzentration ab und mit der Elektronengeschwindigkeit bzw. der Elektronenbeweglichkeit zu. ⊡ Abb. 38.10 zeigt den Aufbau und die Kennlinie einer Hall-Sonde.
⊡ Abb. 38.8. Schematische Darstellung eines Gradiometers 1. (links) und 2. (rechts) Ordnung zur Erfassung biomagnetischer Felder in unabgeschirmter Umgebung
Daraus lässt sich die Spannungsänderung berechnen. 'U
'q 'C
k 'F
H 0 HJ A
x
(38.4)
Hier bedeuten: ΔU Spannungsänderung, ΔC Kapazitätsänderung, A Fläche, x Plattenabstand, ε Dielektrizitätskonstante. Die Änderung der Oberflächenladung ist messbar. ⊡ Abb. 38.9 zeigt schematisch den Aufbau einer Piezokeramik.
Photoelektrische Wandler Als photoelektrische Transducer sind Photowiderstand, Photodiode, Photoelement und Phototransistor zu zählen. In Abhängigkeit von der einfallenden Lichtstärke ändert sich der durch das Bauelement fließende Strom. Damit sind Lichtabsorptionen und Lichtreflexionen von Körpergewebe und biologischen Substanzen zur Messung der Durchblutung und der Sauerstoffsättigung erfassbar. Thermoelektrische Wandler Bei einem Thermoelement, das aus 2 verschiedenen Metalldrähten besteht, lässt sich bei einer Temperaturdifferenz zwischen den Kontakten eine Thermospannung messen. UT
D T T2 T1
(38.5)
Hier bedeuten: UT Thermospannung, T Temperatur, Seebeck-Koeffizient. αT Diese ist abhängig von der Temperatur und den gewählten Metallen (⊡ Abb. 38.11).
673 38.1 · Messen in der Medizin
⊡ Abb. 38.9. Grundprinzip des piezoelektrischen Effekts am Beispiel eines SiO2Quarzkristalls. Aufgrund der positiven Si-Ionen und negativen O2-Ionen kommt es zu einer Oberflächenspannung im deformierten Zustand. (A Oberfläche, F Kraft, Q+ und Q– elektrische Ladungen)
Thermistoren (NTC-Widerstände oder Heißleiter) sind gesinterte Bauelemente aus Oxidgemischen. In Abhängigkeit von der Temperatur ändert sich ihr Ohmscher Widerstand. Eine Linearisierung des exponentiellen Verlaufs der Kennlinie ist mittels Parallelschaltung eines Widerstandes möglich. Die Messung des Atemstroms und der Körpertemperatur wird routinemäßig mittels Thermistoren durchgeführt (vgl. auch ⊡ Abb. 38.27). Infrarotempfindliche Halbleitermaterialien, wie HGCdTe, InSb und PtSi, ermöglichen die Wandlung der von einem Patienten ausgehenden Infrarotstrahlung in ein elektrisch auswertbares Signal. Damit werden Temperaturverteilungen messbar. Voraussetzung ist die Kühlung der Materialien, die mittels flüssigem Stickstoff, StirlingKühler oder Peltier-Element erfolgen kann.
⊡ Abb. 38.10. Schematischer Aufbau einer Hall-Sonde (oben) und der zugehörigen Kennlinie (unten)
⊡ Abb. 38.11. Darstellung eines Thermoelements, das aus den Metallen A, B und C besteht. Die Thermospannung ist proportional der Summen der 3 Einzelspannungen an den Metallübergängen
Weitere Wandler Für eine indirekte Messung von Biosignalen werden auch Methoden eingesetzt, die nicht unmittelbar das Biosignal selbst erfassen, sondern die Beeinflussung von Strahlen und Wellen sowie die Verteilung radioaktiver Stoffe usw. messen. Hierzu zählen insbesondere die bildgebenden Verfahren mit dem Einsatz radioaktiver Isotope (PET, SPECT), Magnetfelder (MRT) und Röntgenstrahlen (CT, Angiographie). Wandler hierfür ist beim Einsatz von Isotopen die Szintillationskamera. Diese besteht aus einem NaJ-Einkristall, der eine γ-Strahlung in ein Lichtsignal wandelt. Treffen die Lichtquanten auf eine Photokatode, werden Elektronen frei, die mittels Sekundärelektronenvervielfacher verstärkt werden können. Bei Röntgenstrahlen nutzt man Leuchtschirme mit einer angrenzenden Photokatode und einem Bildverstärker. Für biochemische Untersuchungen in einem klinischchemischen Labor kommen vielfältige Wandler und Methoden zur Anwendung. Es werden chemische und biologische Reaktionen bspw. mit Antikörpern und Enzymen zum Einsatz gebracht, Zellkulturen auf Nährlösungen gezüchtet, Stoffe in ihre Bestandteile getrennt sowie die Wechselwirkung mit Licht, Magnetfeldern oder Flammen registriert. Wandler müssen eine Zählung von Teilchen, Zellen und Blutkörperchen sowie die zeitliche und räumliche Fraktionierung von Stoffen erfassen können. Hierzu
38
674
Kapitel 38 · Biosignale erfassen und verarbeiten
sind auch Veränderungen der chemischen Zusammensetzung von Stoffgemischen, Veränderungen der Färbung oder Temperatur, Absorption und Emission von Strahlung sowie die Erfassung der kernmagnetischen Resonanz und Elektronenspinresonanz zu zählen. Wandler sind bspw. Mikrophone bei einem PhotoAkustik-Spektrometer, Photodioden bei der Zählung fließender Blutkörperchen, die kurzzeitig einen Laserstrahl unterbrechen bzw. schwächen, Spulen bei der Magnetresonanzspektroskopie oder Halbleiter bei der Infrarotspektroskopie.
IV
Verstärker ⊡ Abb. 38.12 zeigt das prinzipielle Schaltbild eines Biosig-
nalverstärkers bestehend aus zwei Eingangsimpedanzwandlern und einem Differenzverstärker. Dieser zeichnet sich durch einen hohen Eingangswiderstand bei geringem Ausgangwiderstand aus. Er ist als Differenzverstärker mit einer hohen Gleichtaktunterdrückung aufgebaut, sodass die Ausgangsspannung (U3) ein Vielfaches der Differenz der beiden Eingangsspannungen (U1 und U2) ist. Die weiteren Eigenschaften des Verstärkers sind die Empfindlichkeit bzw. Verstärkung, die Linearität zwischen Eingangs- und Ausgangssignal, der Frequenzgang, der Phasengang und das Rauschen. Je nach Eigenschaften des Biosignals sind Verstärkung und Frequenzgang zu wählen. Letzterer wird mittels Hoch- und Tiefpass geregelt. Signalverarbeitung Das ideale Übertragungsverhalten einer Messkette ist linear, d. h., es besteht eine eindeutige direkte Beziehung zwischen einer Änderung der Messgröße und dem zugehörigen Messwert. Real finden sich aufgrund des gewählten Messverfahrens, der Nichtlinearität der Wandler,
des Einflusses messfehlerverursachender Störgrößen und der indirekten Erfassung der Messgröße keine linearen Zusammenhänge (⊡ Abb. 38.13). Einflussgrößen sind Veränderungen aufgrund von Temperaturschwankungen, Druckänderungen und der Alterung der Wandler. Ein Beispiel für ein nichtlineares Übertragungsverhalten eines Messsystems ist die invasive Messung des arteriellen Blutdrucks mit einem externen Wandler. Dieses setzt sich aus dem arteriellen Katheter, dem Mehrweghahn, dem Wandlerdom mit einem drucksensitiven Wandler und dem Spülsystem zusammen. Diese Koppelstrecke ist mit physiologischer Kochsalzlösung gefüllt. Infolge der Wandnachgiebigkeit der Schläuche und der Wandlermembran, des Strömungswiderstandes und des Volumens stellt es ein schwingungsfähiges Gebilde dar. Um den Einfluss auf Amplitude und Phase des Nutzsignals zu minimieren, sollten Katheter und Verbindungsschläuche möglichst steif, kurz und großlumig sein, Luftblasen vermieden werden, die Wandlermembran möglichst steif sein und die Koppelstrecke fixiert werden. Ziel der Signalverarbeitung ist daher die Korrektur des nichtlinearen Übertragungsverhaltens der Messkette. Durch eine meist mehrstufige Signalverarbeitung wird das Signal in ein vorrangig elektrisches Ausgangssignal überführt. Die Digitalisierung erlaubt dabei eine Vielzahl aufwändiger Algorithmen und Steuerungen. Zu ihnen gehören neben der Messgrößenumformung, Signalwandlung, Filterung und Verstärkung insbesondere die Linearisierung. Dies wird zum einen durch eine Stabilisierung des Nullpunktes und der Empfindlichkeit sowie die Vermeidung von Driften weitestgehend erreicht. Durch eine Kennliniennachführung ist die Steuerung des Übertragungsverhaltens der Messkette möglich. Weitere Ansätze sind die Beschreibung der Messkette als Modell und die
⊡ Abb. 38.12. Verstärkung von Biosignalen. Links: Aufbau eines Differenzverstärkers, rechts: Regelung des Frequenzgangs mit Hoch- und Tiefpass
675 38.1 · Messen in der Medizin
Identifikation der Koeffizienten sowie die Bestimmung der Parameter für eine adaptive Regelung. Voraussetzung hierfür ist eine Analog-Digital-Wandlung des Signals. Dabei wird das kontinuierliche Signal zeitlich abgetastet und in seiner Amplitude quantifiziert. Das Abtasttheorem nach Shannon besagt, dass die Abtastfrequenz dabei mindestens doppelt so groß sein muss wie die höchste im Signal enthaltene Frequenz (NyquistFrequenz). Für eine optimale Umsetzung der Kurvenform sollte die Abtastfrequenz noch höher (das 5- bis 10-Fache der maximalen Signalfrequenz) gewählt werden. Ein Verletzen des Abtasttheorems wirkt sich in einer Verfälschung des Signals im Zeitbereich und durch das Auftreten von Spiegelungen im Frequenzbereich (»aliasing«) aus, die sich als scheinbare Amplitude im Frequenzspektrum zeigen.
Speicherung und Registrierung Direktschreibverfahren Direktschreibverfahren ermöglichen die direkte und unmittelbare Ausgabe der Signale auf einem Registrierpapier. Dies wird mit einem Schreibzeiger oder Hebelschreiber erreicht, dessen Auslenkung über ein Messwerk, häufig einen Drehmagneten in einem Spulenfeld, realisiert wird. Der Schreibzeiger kann beheizt sein und hinterlässt so auf einem thermosensitiven Papier einen Ausschrieb. Er kann aber auch als Düse ausgebildet sein, bei dem durch Spannungsimpulse ein Piezoelement angeregt wird oder durch Stromimpulse in einem Heizelement eine Dampfblase entsteht. In beiden Fällen wird durch den entstehenden Druck Tinte auf das Registrierpapier gespritzt. Beim Pigmentverfahren laufen Kohlepapier und Registrierpapier entgegengesetzt über eine Schreibkante, auf die der Schreibzeiger drückt. Seine Bewegungen hinterlassen so einen orthogonalen Ausschrieb.
Weitere Verfahren sind der Laserdrucker und der Thermokammschreiber (⊡ Abb. 38.14). Bei letzterem sind auf einem Keramiksubstrat Thermoelemente angebracht, die digital ansteuerbar sind. Sie hinterlassen auf thermosensitivem Papier einen Ausschrieb. Neben den Kurven sind auch alphanumerische und graphische Ausgaben möglich. Indirektschreibverfahren Photoschreiber und UV-Schreiber, bei denen über einen Spiegel ein sich bewegender Lichtpunkt auf spezielles Photopapier projiziert wird, gehören zu den Indirektschreibverfahren. Hier liegt das Ergebnis erst nach der Entwicklung des Photopapiers vor. Monitor Messergebnisse sind ebenso auf einem Monitor oder auf digitalen und analogen Anzeigen darstellbar. Aufgrund der einfachen Ablesbarkeit kommt gerade letzteren eine große Bedeutung in der medizinischen Diagnostik und für das Monitoring intensivtherapierter Patienten zu. Speicherung Die Speicherung biologischer Signale erfolgt auf üblichen Datenträgern, wie z. B. Festplatte, DVD, CD-ROM, MOD, ZIP-Disketten und Magnetband. Dabei muss sichergestellt werden, dass die Datenträger ihre Informationen über einen Zeitraum von 10 Jahren in einem einwandfreien Zustand bewahren.
Übertragung (Telemetrie) Im Rahmen medizinischer Fragestellungen werden Signale immer häufiger telemetrisch übertragen. Dies kann Signale betreffen, die direkt im Körper des Patienten entstehen und über den Zustand des Patienten bzw. den Funkti-
⊡ Abb. 38.13. Dynamische Eigenschaften eines Sensors. Links: Eingangs- und Ausgangsbeziehung bei nichtlinearer Übertragungsfunktion, rechts: Sensor mit Zeitverzug (Totzeit) und Schwingverhalten
38
676
IV
Kapitel 38 · Biosignale erfassen und verarbeiten
onszustand eines implantierten Gerätes Auskunft geben können. Beide Signale müssen zur Auswertung außerhalb des Körpers dargestellt werden (z. B. bei Herzschrittmacherpatienten das intrakardiale EKG und der Zustand der Batterie des Herzschrittmachers). Dies wird durch magnetische Übertragungsspulen realisiert. Zusätzlich kann auch ein Herzschrittmacher über diesen Weg programmiert werden. ⊡ Abb. 38.15 zeigt als Beispiel die Telemetrie für einen programmierbaren Herzschrittmacher. Dabei können die ausgelesenen Daten auch über Internet an eine Befundungsstation weitergegeben werden. Eine weitere Anwendung der Telemetrie findet man in der Untersuchung von Patienten, die sich während der Untersuchung frei bewegen. Hier müssen die Untersuchungsergebnisse an eine Auswertstation oder ein Diagnosezentrum übertragen werden. Insbesondere für Langzeituntersuchungen von EEG, EKG, Blutdruck und Wehendruck sowie in der Sport- und Arbeitsmedizin haben solche Anwendungen Bedeutung erlangt. Voraussetzung für eine telemetrische Übertragung ist ein Sender und eine entsprechende Modulation des zu übertragenden Signals. Bei der Amplitudenmodulation
⊡ Abb. 38.14. Aufbau eines Thermokamms
⊡ Abb. 38.15. Telemetrische Übertragungsstrecken für einen programmierbaren Herzschrittmacher (A über Sendeund Empfangsspulen, B über Internet zu einem Befundrechner)
wird das niederfrequente Signal in ein höherfrequentes Signal mit konstanter Frequenz, aber mit sich ändernder Amplitude gewandelt. Bei der Frequenzmodulation ist die Amplitudenänderung des Biosignals in der Frequenzänderung, bei der Pulsbreitenmodulation in der zeitlichen Dauer von Rechtecksignalen und bei der Pulsstellenmodulation in der zeitlichen Stellung zweier Impulse zueinander kodiert. Für die Auswertung und Darstellung benötigt man auf der Empfängerseite eine Demodulation. Auch Übertragungen über Telefon und Mobiltelefon sind möglich. Die digitale Übertragung von Biosignalen hat weitere Möglichkeiten der Signalübertragung auch über das Internet erschlossen. Dabei stehen prinzipiell die parallele und die serielle Datenübertragung zur Verfügung. Es existieren standardisierte Schnittstellen, wobei Datenübertragungsprotokolle erforderlich sind. Über telemetrische Übertragungen kann aber auch direkt auf den Patienten eingewirkt werden. Beispiele sind die Anwendung von Operationsrobotern in dünn besiedelten Gebieten der Erde. Hier eröffnet die Telemedizin neue Möglichkeiten.
677 38.2 · Erfassung biologischer Signale
Applikation von Reizen, Substanzen, Strahlungen und Wellen Für medizinische Fragestellungen ist es oftmals von Bedeutung, die Reaktion des Patienten auf Reize unter diagnostischen Gesichtspunkten zu betrachten. Diese Reize können mechanisch sein, bspw. zur Auslösung von Reflexen, elektrisch oder magnetisch zur Bestimmung der Nervenleitgeschwindigkeit, akustisch, optisch und elektrisch für die Stimulation im Rahmen der Ableitung evozierter Potentiale und der Prüfung von Sinnesleistungen. Mittels Substanzen, die auch radioaktiv markiert sein können, lässt sich deren Teilnahme am Stoffwechsel untersuchen und damit die Geschwindigkeit ihres Transports, der Ort ihrer Anreicherung und die Dynamik des Ausscheidungsprozesses bestimmen. Die Reflexion von Ultraschallwellen erlaubt die Darstellung auch von sich bewegenden Grenzflächen zur Darstellung von anatomischen Strukturen, aber auch von Bewegungsabläufen, bspw. der Herzklappen, und die Messung der Geschwindigkeit des Blutflusses. Die Messung der Absorption von Röntgenstrahlen erlaubt die Vermessung anatomischer Strukturen. Physische Belastungen werden für die Ergometerie und psychische Reize bei psychologischen Untersuchungen, bei denen z. B. die sympathische Hautantwort oder die Herzfrequenz gemessen wird, eingesetzt.
Prozesssteuerung Das zeitliche Zusammenspiel innerhalb der Messkette steuert die Prozesssteuerung. Hierzu sind insbesondere die Vorgänge der Signalverarbeitung mit der Einstellung der Abtastrate für die A/D-Wandlung, die Synchronisation des Averagers und des Stimulators sowie die Wahl des jeweiligen Zeitfensters zu zählen. Die Einstellung der Parameter für Verstärkung, Signalanalyse, die Speicherung und Registrierung erfolgt ebenfalls über die Prozesssteuerung.
⊡ Abb. 38.16. Biologische Artefakte im EEG. Von oben nach unten: Augenbewegungen, Schwitzen, Muskelkontraktionen, Puls und EKG
Elektrodenposition direkt über einem pulsierenden Gefäß, starkes Schwitzen und Spontanbewegungen des Patienten. In ⊡ Abb. 38.16 sind einige biologische Artefakte dargestellt. 2. Technische Artefakte sind Fehler in der Ableit- und Registriertechnik. Man findet sie aber auch in den Kontaktstellen (ElektrodeHaut, Kabel-Elektrode, Kabel-Stecker, Stecker-Buchse), bei gleichzeitiger Verwendung unterschiedlicher Elektrodenarten und Elektrodenmaterialien, Kabeldefekten, Kabelbewegungen und fehlender Erdung. 3. Extern verursachte technische Artefakte sind galvanisch eingekoppelte Störungen über direkte, auch hochohmige Leitungswege, kapazitiv eingekoppelte Ströme infolge elektrostatischer Wechselfelder, magnetische Wechselfelder und hochfrequente elektromagnetische Wechselfelder.
38.2
Erfassung biologischer Signale
Artefakte Die erfassten Biosignale sind häufig von Störungen, den so genannten Artefakten, überlagert. Diese werden parallel mit dem Nutzsignal erfasst und erschweren die Auswertung bzw. machen sie oftmals unmöglich. Je nach Entstehungsort unterscheidet man biologische und technische Artefakte. Ursachen sind insbesondere in der Messtechnik, der verwendeten Methode und dem Patienten zu sehen. Am Beispiel der Elektroenzephalographie sollen die Artefakte kurz erläutert werden. 1. Physiologische Artefakte sind biologische Signale, die dem EEG überlagert, aber nicht zerebralen Ursprungs sind. Beispiele hierfür sind Augenbewegungen (EOG), verspannter Nacken (Muskelartefakte), EKG, Pulswelle bei einer
38.2.1 Bioakustische Signale
Viele biologische Prozesse sind mit akustischen Phänomenen (⊡ Tab. 38.1) verbunden. Hierzu zählen Geräusche der oberen Atemwege (Schnarchen, Sprache), Lungengeräusche und der Herzschall. Letzterer entsteht beim Öffnen und Schließen der Herzklappen und wird phonokardiographisch erfasst. Bei der unblutigen Messung des Blutdrucks werden Oszillationen der Gefäßwände als Signal registriert. Dieses entsteht beim Abdrücken der Gefäße und erreicht sein Maximum bei einem Manschettendruck, der zwischen dem systolischen und diastolischen Wert liegt. Mittels Mikrophon und Stethoskop sind bioakustische Signale erfassbar.
38
678
Kapitel 38 · Biosignale erfassen und verarbeiten
⊡ Tab. 38.1. Bioakustische Signale Signal
Spezifizierung
Frequenz [Hz]
Herzschall
Erwachsener
15–1000
Fetus
15–150
Lunge
0,2–10
38.2.2 Biochemische Signale
IV
Biochemische Signale lassen sich sowohl in vivo, d. h. innerhalb des Körpers eines Patienten, als auch in vitro in einem Labor bestimmen. Sie sind Ausdruck metabolischer Prozesse und durch Bestimmung der Struktur, Zusammensetzung, Konzentration der Bestandteile und Partialdruck beschreibbar. Sie können direkt oder durch Reaktion mit Enzymen, Antikörpern oder Zellen erfasst werden. Bei der Untersuchung von Gewebe oder Körperflüssigkeiten reichen die Methoden von der Elektrophorese über die Gaschromatographie, Flammenabsorptionsspektroskopie, Massenspektroskopie, Infrarotspektroskopie bis hin zur Elektronenrastermikroskopie. Die hier eingesetzten chemischen Wandler dienen der Bestimmung der Struktur, der Zusammensetzung und der jeweiligen Konzentrationen. Hierzu ist auch die Zählung von Zellen und Blutbestandteilen zu rechnen. Als Beispiel des Nachweises biochemischer Signale sei die Bestimmung der Glukose genannt. Die durch Glukoseoxidase (GOD) katalysierte Reaktion (38.6)
lässt sich amperometrisch über den O2-Verbrauch oder die Wasserstoffperoxidbildung nachweisen. Eine amperometrische Glukoseelektrode ist schematisch in ⊡ Abb. 38.17 dargestellt. Infrarotspektrometer messen die Intensitätsabschwächung der Infrarotstrahlung nach Durchgang durch eine Messküvette und vergleichen diese mit einer Referenz. Ia
I 0 e k cl
gefiltert. Der schematische Aufbau ist in ⊡ Abb. 38.18 wiedergegeben.
38.2.3 Bioelektrische und biomagnetische
GOD H 2O2 Glukose O2 o Gluconolacton H 2 O o
Glucansäure H 2 O2
⊡ Abb. 38.17. Schematischer Aufbau einer amperometrischen Glukoseelektrode
(38.7)
Hier bedeuten: Ausgangsintensität, Ia I0 Eingangsintensität, c Konzentration, l Schichtdicke, k Proportionalitätskonstante. Durch den Chopper wird der Detektor abwechselnd mit beiden Intensitäten bestrahlt. Das polychromatische Licht wird vor dem Detektor auf die Messwellenlänge
Signale Bioelektrische Signale (⊡ Tab. 38.2) sind Potentialdifferenzen, die ihren Ursprung in Vorgängen an den Membranen von Nerven und Muskelzellen haben und zu Ruhe- und Aktionspotentialen führen. Erregungen werden als Aktionspotential weitergeleitet und ziehen im Fall einer motorischen Einheit Muskelkontraktionen nach sich. Je nach Generierung lassen sich EEG, EMG, EOG, ERG, EKG usw. unterscheiden. Bioelektrische Potentiale lassen sich mittels Elektroden ableiten. Wird dabei die Potentialdifferenz zwischen zwei Elektroden, die jeweils auf elektrisch aktiven Gebieten platziert sind, erfasst, spricht man von der bipolaren Ableitung. Ist jedoch eine der beiden Elektroden auf einem elektrisch eher als inaktiv einzuschätzenden Gebiet, bspw. am Ohrläppchen bei EEG-Ableitungen, platziert, spricht man von der unipolaren Ableitung. Als Beispiel sei die Ableitung des EKG angegeben mit der bipolaren Extremitätenableitung nach Einthoven und den unipolaren Ableitungen nach Wilson und Goldberger (⊡ Abb. 38.19). Bei letzteren Ableitungen ist
38
679 38.2 · Erfassung biologischer Signale
die Referenz der Sternpunkt der Zusammenschaltung von verschiedenen Elektroden über gleich große Widerstände, sodass eine Durchschnittsreferenz mit dem mittleren Potential dieser Elektroden entsteht. Extremitäten- und Brustwandableitung stehen orthogonal zueinander. Damit ist die räumliche Potentialverteilung berechenbar. Da elektrische Phänomene immer von einem Magnetfeld begleitet werden, sind sie auch über das Magnetfeld erfassbar. Mittels supraleitender Interferometer (SQUID) lassen sich diese Magnetfelder erfassen. Der Vorteil liegt in der genaueren Lokalisierbarkeit der Quellen. Die Untersuchungen werden häufig in einer magnetisch abgeschirmten Kammer durchgeführt. Bei Verwendung eines Gradiometers 2. Ordnung ist die Messung in unabgeschirmter Umgebung möglich.
⊡ Tab. 38.2. Bioelektrische Signale Signal
Frequenz [Hz]
Amplitude [mV]
EKG (Herz)
0,2–200
0,1–10
EEG (Hirn)
0,5–100
2–100 μV
EMG (Muskel)
10–10000
0,05–1
EGG (Magen)
0,02–0,2
0,2–1
EUG (Gebärmutter)
0–200
0,1–8
ERG (Retina)
0,2–200
0,005–10
EOG (Auge)
0–100
0,01–5
FAEP (Hirnstamm)
100–3000
0,5–10 μV
SEP (somato-sensibles System)
2–3000
0,5–10 μV
VEP (visuelles System)
1–300
1–20 μV
⊡ Abb. 38.18. Prinzipieller Aufbau eines Infrarotspektrometers (I0 Eingangsintensität, Ia Ausgangsintensität, Ib Bezugs- oder Referenzintensität)
⊡ Abb. 38.19. Möglichkeiten der EKGAbleitung mittels Oberflächenelektroden (Standardableitungen)
680
Kapitel 38 · Biosignale erfassen und verarbeiten
38.2.4 Biomechanische Signale
Bewegungen sind Geschwindigkeit und Beschleunigung der Bewegung berechenbar.
Biomechanische Signale spiegeln die mechanischen Funktionen des biologischen Systems wider. Einige Beispiele sind in der ⊡ Tab. 38.3 angegeben.
Bewegung
IV
Die Messung von Bewegungen ist für diagnostische Fragestellungen, aber auch zur Optimierung von Bewegungsabläufen wichtig. So wird der Bewegungsablauf beim Gehen sowohl zur Anpassung von Prothesen der unteren Extremitäten erfasst als auch bei der Physiotherapie nach Frakturen. Hierzu können die Extremitäten mit Leuchtpunkten markiert und der Bewegungsablauf mittels Videokamera erfasst werden. Verfahren der Bildanalyse bestimmen die Stellung der Leuchtpunkte zueinander und berechnen die Bewegung. Bei Tracking-Untersuchungen der oberen Extremitäten wird ein Goniometer bspw. am Ellbogengelenk befestigt und der Winkel zwischen Ober- und Unterarm erfasst. Von diagnostischer Bedeutung ist auch die quantitative Erfassung des Tremors bspw. bei Patienten mit M. Parkinson und von spontanen periodischen Beinbewegungen im Schlaf. Die Bewegungen der Augen können elektrookulographisch, photoelektrisch und videookulographisch erfasst werden. Aus den registrierten
Druck Druck wird als Blutdruck, Hirndruck, Augeninnendruck, Wehendruck usw. gemessen. Der Blutdruck kann z. B. invasiv über einen Katheter mit angeschlossenem Druckwandler, der aus einer auslenkbaren Membran und angeschlossenen Dehnmessstreifen besteht, gemessen werden. Bei einer anderen Bauform wird der Wandler in das zu untersuchende Blutgefäß direkt eingebracht. ⊡ Abb. 38.20 zeigt zwei Druckwandler. Indirekt ist der Blutdruck über den Manschettendruck erfassbar, der eine Arterie abdrückt. Beim Einsetzen des Blutstroms entstehen messbare Geräusche, die bei einem ungehinderten Blutstrom wieder verstummen. Damit sind systolischer und diastolischer Blutdruck erfassbar.
Flow, Volumenstrom Der Nachweis des Atemflusses (Flow) ist für das Monitoring von Patienten, die vital gefährdet sind, von Bedeutung. Seine Registrierung ist indirekt mittels unter der Nase angebrachten Thermistoren möglich, welche die Temperaturdifferenz zwischen Aus- und Einatemluft erfassen. Quantitativ kann der Atemfluss mit einem Pneu-
⊡ Tab. 38.3. Biomechanische Signale Signal
Spezifizierung
Amplitude
Puls
20–200 min–1
Atmung
5–60 min–1
Blutdruck (arteriell)
Umrechnung
Systole
8–33 kPa
60–250 mmHg
Diastole
5–20 kPa
40–150 mmHg
Blutdruck (venös)
0–4 kPa
0–30 mmHg
Intaokulardruck
0–7 kPa
0–50 mmHg
Blutfluss
0,05–5 l/min
Blutströmungsgeschwindigkeit
0,05–40 cm/s
Atemströmungsgeschwindigkeit
20–120 cm/s
Herzminutenvolumen
3–8 l/min
Atemzugvolumen
200–2000 ml/Schlag
Muskelarbeit
10–500 W
Blutvolumen
Erwachsener
7000 ml
Harnmenge
Erwachsener
1500 ml/Tag
Nervenleitgeschwindigkeit
N. medianus
50–60 m/s
681 38.2 · Erfassung biologischer Signale
motachographen gemessen werden. Dabei ist neben der Bestimmung des Flows auch die Berechnung des Volumens aus dem Integral des Flows möglich (⊡ Abb. 38.21). 4 = π ⋅ r ⋅ Δp V 8⋅l⋅μ
(38.8)
Hier bedeuten: . V Volumenstrom (Flow), r Radius, l Länge, η Viskosität, Δp Druckdifferenz. t
V = ³ V ⋅ dt
(38.9)
schalldopplerverfahren gemessen werden (⊡ Abb. 38.22). Das Messsignal ist die Frequenzverschiebung zwischen Sende- und Empfangssignal aufgrund der Bewegung der Blutkörperchen. 2 . v . cosφ Δf = f1 . (38.10) 2 Hier bedeuten: Δf Frequenzänderung, Frequenz des gesendeten Ultraschalls, f1 φ Einfallswinkel, v Geschwindigkeit des Teilchens, c Schallgeschwindigkeit im Gewebe.
0
Hier bedeutet: V Volumen. Die Messung von Blutströmungen kann mittels magnetisch-induktiver Durchflussmethode und dem Ultra-
Das Volumen spielt für funktionelle Fragestellungen als Volumenstrom eine große Rolle. So wird bspw. die Urinmenge in einer bestimmten Zeit gemessen, das Einatemvolumen innerhalb 1 s (Sekundenvolumen) und das Herz-
⊡ Abb. 38.21. Funktionsprinzip eines Pneumotachographen. Das Atemvolumen ergibt sich aus dem Integral des Atemflusses über der Zeit
⊡ Abb. 38.20. Sensoren und Wandler zur invasiven Messung des Blutdrucks. Links: als externer Wandler, rechts: als interner Wandler
⊡ Abb. 38.22. Messung der Blutflussgeschwindigkeit mittels Dopplereffekt
38
682
Kapitel 38 · Biosignale erfassen und verarbeiten
minutenvolumen. Zur Bestimmung des Herzzeitvolumens werden Indikatorverdünnungsverfahren eingesetzt. Als Indikator werden Farbstoffe, radioaktive Substanzen und gekühlte NaCl-Dextrose-Lösung eingesetzt. Der Indikator wird möglichst impulsförmig injiziert, um eine homogene Vermischung mit dem vorbeiströmenden Blut zu erzielen. Stromabwärts wird eine Indikatorverdünnungskurve registriert, deren Verlauf die Geschwindigkeitsverteilung im betrachteten Strombahnabschnitt widerspiegelt und die der Übertragungsfunktion entspricht (⊡ Abb. 38.23). Das Herzzeitvolumen lässt sich hiermit bestimmen.
IV
HZV
m0 f
³ ct dt
(38.11)
t0
Hier bedeuten: HZV Herzzeitvolumen, injizierte Substanzmenge, m0 c Indikatorkonzentration.
Geschwindigkeit Geschwindigkeiten sind bei der Registrierung von Bewegungen und der Messung des Volumenstroms schon besprochen worden. Die Messung der Nervenleitgeschwindigkeit weist im Vergleich einige Besonderheiten auf. Sie wird elektroneurographisch nach Stimulation eines Nervs an zwei Orten und der Registrierung der zugehörigen motorischen Antwort für motorische Nerven bestimmt. Aus der Differenz der Latenzzeiten und dem Abstand der Reizorte lässt sich die Nervenleitgeschwindigkeit berechnen. NLG =
Δs Δt
(38.12)
Hier bedeuten: NLG Nervenleitgeschwindigkeit, Δs Abstand der Reizelektroden, Δt Latenzdifferenz der motorischen Antwortpotentiale.
⊡ Abb. 38.23. Indikatorverdünnungskurve zur Erfassung des Herzminutenvolumens (t0 Injektionszeitpunkt, t1 Beginn des Konzentrationsanstiegs, t2 Konzentrationsmaximum, t3 Beginn der Rezirkulation)
Für sensible Nerven unterscheidet man die orthodrome und antidrome Leitgeschwindigkeit.
Größe, Form, Volumen, Masse Größe und Körpergewicht sind zur Beurteilung der Entwicklung eines Menschen von großer Bedeutung. Dies trifft auch auf einzelne Organe zu. Messverfahren sind hierbei der Einsatz eines Metermaßes und einer Personenwaage. Aber auch zur Normierung von Laborwerten, wie z. B. bei der Bestimmung des Kreatininclearance, benötigt man Gewicht und Körpergröße. Aus ihnen lässt sich die Körperoberfläche bestimmen, die der Größe der Glomerulamembran entspricht. Die Lokalisation, Größe und Ausdehnung von raumfordernden Prozessen und Läsionen sowie die Veränderung dieser Parameter ist ebenfalls bedeutsam. Sie lassen sich mittels bildgebender Verfahren bestimmen. Hierzu zählt auch die Beurteilung und Ausmessung von Frakturen und die Größe und Lage von Organen. Kleine Massen mit einer Nachweisgrenze von 10–12 g werden mit der Quarzmikrowaage erfassbar (⊡ Abb. 38.24). Das Prinzip ist die Messung der Resonanzfrequenzänderung eines Schwingquarzes durch Ablagerung von Substanzen auf der Kristalloberfläche. Δf =
2,3 ⋅10 6 f 02 ΔM A
(38.13)
Hier bedeuten: Δf Frequenzänderung, f0 Resonanzfrequenz der unbelegten Fläche, A belegte Fläche, ΔM Änderung der Masse. Die Oberfläche kann aber auch chemisch aktiv sein, sodass selektiv Stoffe adsorbiert werden, die dann zu einer Erhöhung der Masse führen.
⊡ Abb. 38.24. Funktionsprinzip einer Quarzmikrowaage
683 38.2 · Erfassung biologischer Signale
Die elektrischen Eigenschaften biologischen Gewebes lassen sich über die Dielektrizitätskonstante und den spezifischen Widerstand beschreiben. In Abhängigkeit von der Durchblutung ändern sie sich. Mit der Impedanzplethysmographie werden Volumenänderungen bzw. Pulsationen über die damit verbundene Impedanzänderung registriert. Daraus ist das Schlagvolumen bestimmbar.
Kraft Kraft kann mittels mechanischer Dynamometer gemessen werden, welche eine elastische Verformung aufgrund der Kontraktion eines Muskels oder einer Muskelgruppe anzeigen. Bei der einfachsten Form erfolgt die Kraftmessung über die Dehnung einer Feder. Hydraulische Dynamometer, bei denen in einer Flüssigkeit der durch einen bewegten Kolben erzeugte Druck angezeigt wird, sowie Quarzdynamometer mit einem Piezokristall werden ebenfalls eingesetzt.
webe beim Einsatz von Laser erlaubt die Unterscheidung von gesundem Gewebe und Tumorgewebe während der Operation.
38.2.6 Biothermische Signale
Wichtiges biothermisches Signal ist die Körpertemperatur, die mittels Thermometer, Thermistor oder Infrarotthermometer gemessen werden kann (⊡ Abb. 38.26). Mittels Thermographie kann die Temperaturverteilung über einem Hautareal erfasst werden. Veränderungen findet man hier bei oberflächlichen raumfordernden Prozessen infolge einer Zunahme der Durchblutung und bei Durchblutungsstörungen. ⊡ Abb. 38.27a,b ( 4-Farbteil am Buchende) zeigt den Einfluss von Nikotin auf die Durchblutung und damit eine simulierte Durchblutungsstörung.
38.2.5 Biooptische Signale
Die Beurteilung der Farbe z. B. der Haut von Neugeborenen oder Patienten mit Schock ist ein wichtiges Kriterium zur Einschätzung der momentanen vitalen Situation. Der Einsatz fluoreszierender Farbstoffe ermöglicht die optische Messung von pH-Wert, CO2 und O2 mittels sog. Optoden. Voraussetzung sind die für die jeweilige Bestimmung erforderlichen sensitiven Reagenzien. Ein weiteres Anwendungsgebiet ist die Bestimmung der O2-Sättigung aufgrund der unterschiedlichen Absorptionscharakteristik von oxygeniertem und desoxygeniertem Hämoglobin (⊡ Abb. 38.25). Die unterschiedliche Fluoreszenz von Ge-
⊡ Abb. 38.26. Messung der Körpertemperatur mit einem Thermistor
⊡ Abb. 38.25. Absorptionsspektrum von Desoxyhämoglobin und Oxyhämoglobin. Die unterschiedlichen Absorptionen werden für die Messung der Sauerstoffsättigung mittels Pulsoxymeter benutzt
38
684
Kapitel 38 · Biosignale erfassen und verarbeiten
38.3
Messwert- und Signalanalyse aus messtechnischer Sicht
⊡ Tab. 38.4. Parameter der univariaten Statistik Parameter
38.3.1 Biostatistische Verfahren
Mittelwert
Formel
x
Univariate statistische Verfahren
IV
Die statistische Auswertung der gewonnenen Messwerte erfolgt zum einen deskriptiv als Beschreibung der Ergebnisse, die unmittelbar aus den Stichproben entnommen werden können, zum anderen analytisch, als Vergleich der Ergebnisse der konkreten Stichprobe mit der Grundgesamtheit. Hierbei liefern Schätzverfahren Näherungen für die Kennwerte der Grundgesamtheit. So gestattet der t-Test eine Aussage, ob zwei Mittelwerte einer Grundgesamtheit angehören. Weitere Testverfahren sind der χ2-Test, F-Test und U-Test. Aufschlussreich ist auch die graphische Darstellung der Messwerte in Häufigkeitsverteilungen, Diagrammen oder Zeitreihen. Die ⊡ Tab. 38.4 zeigt die Berechnung von Mittelwert, Standardabweichung, der Prüfgrößen für den t-Test, der Berechnung des Korrelationskoeffizienten und der Berechnung der Koeffizienten einer linearen Regressionsfunktion. Beim t-Test wird die Nullhypothese, dass beide Mittelwerte mit einer gewählten Irrtumswahrscheinlichkeit einer gemeinsamen Grundgesamtheit angehören, verworfen, wenn die Prüfgröße größer als das Quantil der t-Verteilung ist.
Standardabweichung
s Prüfgröße für StudentTest (t-Test)
t
SG
1 n ¦ xi ni1 1 1 ¦ xi x n 1 i 1
x1 x 2 SG
n1 n2 n1 n2
n1 1 s12 n2 1 s 22 n1 n 2 2
Freiheitsgrade
f
n1 n2 2
Regressionsgerade
y
a bx
Anstieg der Regressionsgeraden berechnet aus dem Minimum der quadratischen Abweichungen der Messwerte γi von der Geraden Linearer Korrelationskoeffizient
n
b yx
2
¦ x
x y i y
i
i 1
n
¦ x
x
i
2
i 1
a yx
y b yx x n
rxy
¦ x
i
x y i y
i 1
n
¦ x i 1
i
x
2
n
¦y
i
y
2
i 1
Multivariate statistische Verfahren Im Unterschied zu den univariaten Verfahren werden bei multivariaten Verfahren mehrere Messwerte oder gewonnene Parameter gleichzeitig in die Analyse einbezogen. Wichtige Verfahren sind die Clusteranalyse, die Diskriminanzanalyse und die Faktorenanalyse. Clusteranalyse Bei der Clusteranalyse erfolgt eine Zusammenfassung der Fälle einer Stichprobe in mehrere Cluster. Kriterium für eine Zusammenfassung ist, dass die Fälle innerhalb eines Clusters möglichst homogen sind, die Cluster sich aber untereinander deutlich unterscheiden. Die Ähnlichkeit ist das Kriterium für eine Zusammenfassung der Fälle zu Clustern. Für das Vereinigen von Clustern gibt es eine Reihe unterschiedlicher Methoden. Die Clusterzugehörigkeit gibt dem Arzt einen Hinweis darauf, zu welcher Patientengruppe ein Patient zuordenbar ist.
Diskriminanzanalyse Die Diskriminanzanalyse wird mit dem Ziel durchgeführt, für neue Beobachtungen eine Vorhersage ihrer Gruppenzugehörigkeit treffen zu können. Dies bedeutet im einfachsten Fall die Zuordnung zu einem positiven oder ne-
gativen Testergebnis, also pathologisch oder gesund. Die abhängigen Variablen repräsentieren die Zugehörigkeit zu zwei oder mehreren Teilgruppen. Die Diskriminanzanalyse wird in zwei Schritten durchgeführt: 1. der Schätzung einer Diskriminanzfunktion und 2. der Klassifizierung der Fälle aufgrund dieser Funktion. Die Diskriminanzfunktion ist dabei häufig eine Linearkombination von für die Trennung unentbehrlichen Merkmalen. n
D = b0 + ¦ bi ⋅ xi i =1
(38.14)
Hier bedeuten: D Diskriminationswert, b Koeffizienten, x Messwerte. Die Diskriminanzfunktion wird in einem mehrstufigen Verfahren gewonnen, wobei jedesmal die Unentbehrlichkeit und das Trennmaß zur Optimierung herangezogen werden. ⊡ Abb. 38.28 zeigt das Ergebnis einer Reklassifikation.
685 38.3 · Messwert- und Signalanalyse aus messtechnischer Sicht
⊡ Abb. 38.28. Reklassifikation der Fälle aufgrund der Berechnung der Werte einer Diskriminanzfunktion. Es ist die Häufigkeitsverteilung dargestellt. Die Gruppe der Gesunden und die Gruppe der Patienten lassen sich gut voneinander trennen
38.3.2 Biosignalanalyse
Moderne Verfahren der Signalverarbeitung bieten viele Möglichkeiten der Messwertanalyse im Zeit-, Frequenzund Bildbereich. Dabei werden häufig die Ergebnisse der Verfahren kombiniert und gemeinsam dargestellt. Die Verbindung mit Krankenhausinformationssystemen und der unmittelbare Zugriff auf alle Daten eines Patienten sind hierfür eine wichtige Hilfe. Dies betrifft auch die bereits erwähnten biostatistischen Verfahren.
Zeitbereich Die Biosignalanalyse im Zeitbereich hat die Aufgabe, die gewonnenen Biosignale in ihrer Auswertbarkeit zu verbessern und Merkmale sowie Parameter aus dem Signal zu gewinnen. Das Hauptanwendungsgebiet sind zeitvariate Signale, die innerhalb der Funktionsdiagnostik den Funktionszustand oder seine Änderung beschreiben. Beispiele hierfür sind Änderung der Herzfrequenz und das Auftreten epileptischer Aktivitäten im EEG. Die 1. Stufe der Signalanalyse ist das Erkennen und die Unterdrückung von biologischen und technischen Artefakten sowie dem hochfrequenten Rauschen. Letzteres kann durch eine gleitende Mittelwertbildung oder die Anwendung von Glättungsalgorithmen leicht minimiert werden.
yn =
y n −2 + 2 y n −1 + 3 y n + 2 y n+1 + y n+ 2 9
(38.15)
Hier bedeutet: y Amplitudenwert. Der Einfluss biologischer Artefakte lässt sich minimieren, indem das jeweilige biologische Signal zusätzlich selbst mit erfasst wird. Unter Berücksichtigung der Amplitudenverhältnisse und eventueller Formveränderungen lässt sich der Artefakt (z. B. EOG oder Puls im EEG) vom Nutzsignal subtrahieren. Ein häufig angewendetes Verfahren zur Verbesserung des Signal-Rausch-Abstands ist das Averaging. Voraussetzung ist, dass das Nutzsignal mit einem Ereignis, z. B.
einem Reiz, in einem festen zeitlichen Zusammenhang steht. Bei der fortwährenden Mittelwertbildung wird eine Verbesserung des Signal-Rausch-Abstands erreicht, die der Quadratwurzel aus der Anzahl der Mittelungsschritte entspricht. Das Averaging ist für die Ableitung evozierter Potentiale, die vom EEG überlagert sind, unentbehrlich. Weitere Verfahren sind Erkennung von Mustern und Ereignissen einschliesslich ihrer Vermessung hinsichtlich ihres zeitlichen Auftretens, ihrer Dauer, Amplitude, Frequenz und Form sowie der einzelnen Komponenten. Beispiele hierfür sind die Vermessung der Wellen und Zacken im EKG, die Gewinnung der Herzfrequenz aus dem Abstand der R-Zacken und die Latenz einzelner Wellen in einem evozierten Potential. Oftmals ist mit der Gewinnung von Merkmalen und Parametern eine Klassifikation verbunden. Zur Bestimmung der Ähnlichkeit zweier Signale lässt sich die Kreuzkorrelationsfunktion berechnen. Wird das Signal mit sich selbst korreliert, erhält man die Autokorrelationsfunktion. Diese gestattet Aussagen über einen im Signal vorhandenen periodischen Anteil und, aus dem exponentiellen Abfall, über den stochastischen Anteil. Ein Beispiel für die periodische Veränderung des R-Zackenabstands aufgrund der Atmung, die mittels Autokorrelation aus dem Ruhe-EKG gewonnen werden kann, zeigt ⊡ Abb. 38.29. Zur Darstellung zweidimensionaler Potentialverteilungen über eine Körperregion werden die Potentialwerte zwischen den Elektroden durch Interpolation berechnet. Anschließend werden die Punkte mit gleichen Potentialen verbunden (Isopotentiallinien) oder farblich kodiert. Die so erhaltenen Karten (Maps) ermöglichen einen schnellen Überblick über die Aktivitätsverteilung und ggf. lokalisatorische Aussagen über Ereignisse. ⊡ Abb. 38.30 zeigt als Beispiel für eine Map die kortikale Potentialverteilung während einer sakkadischen Augenbewegung. Das Mapping wird auch im Frequenzbereich angewandt. Unter Zuhilfenahme mathematischer Modelle lassen sich Berechnungen zur Lokalisation bioelektrischer Quellen durchführen und das inverse Problem lösen. Dies bedeutet, dass man die gemessene Magnetfeldverteilung
38
686
Kapitel 38 · Biosignale erfassen und verarbeiten
mit einer auf der Grundlage eines angenommenen Dipols berechneten Feldverteilung vergleicht und dabei die Dipollage optimiert.
Frequenzbereich
IV
Eine Signalanalyse im Frequenzbereich wird mit dem Ziel durchgeführt, Aussagen über die im Signal enthaltenen Frequenzen zu erhalten. Das Biosignal, dessen Amplitude eine Funktion der Zeit ist, wird in ein Signal transformiert, dessen Amplitude eine Funktion der Frequenz ist. Das häufig eingesetzte Verfahren ist die Fourier-Transformation oder auch Fast-Fourier-Transformation (FFT).
Hiermit lassen sich Amplitudenspektren und Leistungsspektren berechnen. Letztere geben an, mit welcher Leistung eine bestimmte Frequenz im Signalgemisch enthalten ist. Ist das Frequenzspektrum einer Störung bekannt und liegt es außerhalb des Spektrums des Nutzsignals, lässt es sich vom Signalgemisch subtrahieren. Nach Rücktransformation in den Zeitbereich hat man ein weitgehend ungestörtes Signal. Dieses Verfahren wird als Optimalfilterung bezeichnet. Aber auch Hochund Tiefpass können so realisiert werden. Weitere Transformationen sind die z-Transformation, die Walsh-Transformation und Wavelet-Transformation. Letztere gehen nicht von einer Reihe von Sinus- und Kosinusfunktionen aus, sondern von Rechteckfunktionen bzw. Wavelet-Funktionen.
Bildverarbeitung
⊡ Abb. 38.29. Berechnung der Autokorrelationsfunktion aus dem EKG. Der aufgrund der Atmung sich ändernde Abstand zwischen den R-Zacken spiegelt sich im periodischen Anteil der Funktion wider (HF Herzfrequenz, AKF Autokorrelationsfunktion)
⊡ Abb. 38.30. Mapping der kortikal erfassbaren bioelektrischen Potentiale während einer Blickwendung nach rechts. Es ist die Dynamik der Potentialverteilung in 1-msAbschnitten in einem Zeitbereich von 5 ms vor bis 9 ms nach dem Beginn der Sakkade dargestellt
Bilder sind zweidimensionale Darstellungen, die zum einen mittels bildgebender Verfahren (CT, MRT, PET, Thermographie) oder durch Mapping von Biopotentialen gewonnen werden. Bei der Erzeugung und Verarbeitung werden sie als Matrizen von Grau- oder Farbwerten repräsentiert. Ein Hauptziel der Auswertung von Bilddaten ist das Auffinden und die Lokalisation von Raumforderungen und anderer darstellbarer Prozesse sowie die Ausmessung von geometrischen Strukturen. Hierzu werden auf der Grundlage sehr unterschiedlicher physikalischer Verfahren Bilder erzeugt. In der Bildverarbeitung lassen sich die Stufen ▬ Bildaufbereitung, ▬ Bildverbesserung, ▬ Erkennung und ▬ Segmentierung unterscheiden.
687 38.4 · Vesuchsplanung und klinische Studien
Lineare Verfahren der Bildverbesserung betreffen den Kontrast, die Bildschärfe und die Rauschunterdrückung. Unterschiedliche Verfahren der Faltung, Filterung, Drehung und Transformation kommen hierbei zur Anwendung. Aber auch die Subtraktion von Bildern bspw. bei der digitalen Subtraktionsangiographie gehört zur Bildverarbeitung. Hierbei wird eine Maske von einem Lehrbild subtrahiert, um wichtige Bildbestandteile, die sich nur schwer gegenüber umliegenden Strukturen abgrenzen, in ihrem Kontrast anzuheben und damit die gewünschte Struktur herauszuarbeiten. Durch Bestimmung des zeitlichen Verlaufs und der Konzentration von Kontrastmitteln lassen sich in einer Region des Gefäßsystems Aussagen zur Dynamik gewinnen.
Wissensbasierte Systeme Zur Unterstützung des Arztes bei der Entscheidungsfindung werden häufig Methoden der künstlichen Intelligenz eingesetzt. So haben Expertensysteme eine Wissensbasis, auf die der Untersucher zugreifen kann und durch Erstellung von Verknüpfungen zu einer Lösung kommt. Dabei werden häufig Regeln abgearbeitet, mit denen das Spezialwissen und die Vorgehensweise von Experten simuliert werden. Wichtig ist die Erklärungskomponente, die den Lösungsweg aufzeigt. Neuronale Netze können nach einer Anlernphase bspw. zur Mustererkennung eingesetzt werden. Nachteilig ist hierbei, dass sie oftmals über keine Erklärungskomponente verfügen, sodass die Deutung der Ergebnisse mitunter problematisch erscheint.
Biologische Modelle und Simulation Die Beschreibung biologischer Systeme durch Modelle und die Identifikation ihrer Parameter ist hilfreich, um neue Erkenntnisse zu gewinnen (Systemforschung), das System zu verstehen und technische Kenntnisse anzuwenden (Systemsteuerung). Die erstellten Modelle können für PC-Simulationen herangezogen werden. Durch Experimente einschließlich der Messung von Zielgrößen lässt sich das Modell mit dem biologischen System vergleichen sowie validieren und auf dieser Grundlage weiter verbessern. Aber auch die Messung des Übertragungsverhaltens biologischer Systeme und die Identifikation der Ordnung führt zu neuen Modellen. Besondere Bedeutung hat die Beschreibung von Regelkreisen, wie z. B. die Regelung des Blutdrucks, der Körpertemperatur, der Herzaktivität, der Pupille, Augenbewegungen und Reflexe. Das Wissen der Regelung des Blutzuckerspiegels und dessen Simulation ist eine der Voraussetzungen für die Entwicklung und den Einsatz implantierbarer Insulinpumpen.
38.4
Vesuchsplanung und klinische Studien
Zur Durchführung klinischer Studien sind die erforderlichen Messungen zu planen. Dabei können die Daten retrospektiv, prospektiv oder durch ein Experiment erhoben werden. Es gilt, den Umfang der Stichproben abzuschätzen und sicherzustellen, dass die Stichproben zufällig erhoben worden sind. Diese Forderung beinhaltet die Berücksichtigung der Unabhängigkeit der Elemente einer Stichprobe, die jeweils die gleiche Chance haben, in die Stichprobe aufgenommen zu werden. Zur Vermeidung einer Einflussnahme des Patienten auf das Untersuchungsergebnis (Placeboeffekt) wird in Blindversuchen sichergestellt, dass der Patient keine Kenntnis über die Einflussfaktoren hat. Dies bedeutet, dass er bei Medikamentenstudien nicht weiß, ob er ein Placebo oder das Medikament selbst erhält. Wird dies auch dem Untersucher verschwiegen, spricht man von Doppelblindversuchen. Beobachtungseinheiten, die weitgehend homogen in Bezug auf Störgrößen sind, kann man zu Blöcken zusammenfassen. Man kommt so zu verbundenen bzw. paarigen Stichproben. Besondere Berücksichtigung ist der Pharmakokinetik und der biologischen und physikalischen Halbwertszeit zu schenken. Letztere hat speziell für den Einsatz radioaktiv markierter Substanzen Bedeutung, die am Stoffwechsel teilnehmen sollen. Für den Test von Medikamenten lassen sich 4 Phasen unterscheiden: ▬ Phase I: Klärung von Fragen der Pharmakokinetik und Dosierung an gesunden Probanden. ▬ Phase II: Prüfung der grundsätzlichen Wirksamkeit bei verschiedenen Krankheiten. ▬ Phase III: Exakter Vergleich der Wirksamkeit unter konkurrierenden Therapieverfahren und Erfassung von Nebenwirkungen an einem großen Patientenkollektiv. ▬ Phase IV: Prüfung seltener Nebenwirkungen und genaue Abgrenzung des Anwendungsbereichs mit zugelassenen Medikamenten. Für langzeitige Untersuchungen ist mit dem Ausscheiden einzelner Probanden und Patienten, der sog. »Drop-outRate« zu rechnen. Dies kann zu systematischen Verzerrungen führen. Die Güte eines Diagnoseverfahrens lässt sich aus der Kontingenztafel (⊡ Tab. 38.5) ableiten. Hierzu können Sensitivität, Spezifität und Effizienz der Methode bestimmt werden (⊡ Tab. 38.6). Wichtig ist dabei auch die sensible Festlegung der Lage des Cut-off-point, der das Verhältnis von Sensitivität und Spezifität bestimmt (vgl. hierzu auch ⊡ Abb. 38.28).
38
688
Kapitel 38 · Biosignale erfassen und verarbeiten
⊡ Tab. 38.5. Kontingenztafel zur Beurteilung diagnostischer Verfahren
IV
Patient krank K
Patient gesund K
Test positiv
Richtig-positiv
Falsch-positiv
T
TK
TK
Test negativ
Falsch-negativ
Richtig-negativ
T
TK
TK
Summe
TK + TK
TK + TK
Summe
TK + TK
TK + TK
⊡ Tab. 38.6. Parameter zur Beurteilung einer Diagnostikmethode Parameter
Beschreibung
Formel
Sensitivität
Richtig erkannte Kranke
p(T/K) =
TK TK + TK
Spezifität
Richtig erkannte Gesunde
p(T/K) =
TK TK + TK
Effizienz
Richtiges Testergebnis
p(T/K,T/K) =
Relevanz
Wahrscheinlichkeit der Erkrankung bei positivem Test
Segreganz
Wahrscheinlichkeit des Fehlens der Erkrankung bei negativem Test
TK + TK TK + TK + TK + TK
p(K/T) =
TK TK + TK
p(K/T) =
TK TK + TK
Weiterführende Literatur Akay M (1994) Biomedical signal processing. Academic Press, London Akay M (1996) Detection and estimation methods for biomedical signals. Academic Press, London New York Bronzino JD (eds) (2000) The biomedical engineering handbook. Springer, Berlin Heidelberg New York Tokio Carr JJ, Brown JM (eds) (1998) Introduction to biomedical equipment technology. Prentice Hall, Upper Saddle River New Jersey Coombs RRH, Robinson DW (eds) (1996) Nanotechnology in medicine and the biosciences. Gordon & Breach, Amsterdam Enderle J, Blanchard S, Bronzino J (2000) Introduction to biomedical engineering. Academic Press, London New York San Francisco Harten HU, Nägerl H, Schulte H-D (1994) Statistik für Mediziner. Chapman & Hall, Weinheim Hudson DL, Cohen ME (2000) Neural netsworks and artifical intelligence for biomedical engineering. IEEE Press, New York Lehmann T, Oberschelp W, Pelikan E, Repges R (1997) Bildverarbeitung für die Medizin. Springer, Berlin Heidelberg New York Tokio Mackay S (1993) Bio-medical telemetry: sensing and transmitting biological information from animals and man. IEEE Press, New York
Mornburg H (Hrsg) (1995) Bildgebende Systeme für die medizinische Diagnostik. Publicis MCD, München Orrison WW, Lewine D, Sanders JA, Hartshorne ME (1995) Functional brain imaging. Mosby, St. Louis Peters TM, Williams J (1998) The fourier transform in biomedical engineering. Birkhäuser, Boston Basel Berlin Robb RA (1998) Three-dimension biomedical imaging, principles and practice. Wiley & Son, New York Theodorescu HN, Kandel A, Jain LC (1998) Fuzzy and neurofuzzy sytems in medicine. CRC Press, Boca Raton New York Togawa T, Tamura T, Öberg PA (1997) Biomedical transducers and Instruments. CRC-Press, Boca Raton New York Webster JG (Hrsg) (1998) Medical Instrumentation application and design. Wiley, New York Werner J (1992) Biomathematik und Medizinische Statistik. Urban & Schwarzenberg, München Wien Baltimore
39 Patientenüberwachungssysteme U. Hieronymi, R. Kramme
39.1 Einsatzbereiche von Patientenüberwachungssystemen – 689 39.1.1 39.1.2 39.1.3 39.1.4 39.1.5 39.1.6 39.1.7 39.1.8
Monitorarten – 690 Monitorbild – 692 Bedienung – 693 Alarme, Ereignisse – 693 Trenddarstellung – 693 Automatische Berechnungen – 693 Erweiterte Systemeigenschaften – 694 Zentrale Überwachung und Dokumentation – 694
Der Begriff »Patientenüberwachung« (Monitoring) beschreibt die apparative Messwerterfassung von Organund Vitalfunktionen des Patienten mit automatischer Erkennung und sicherer Alarmierung von abnormen oder lebensbedrohlichen Zuständen (z. B. Über- oder Unterschreitungen von ausgewählten Grenzwerten und Auftreten von Arrhythmien). Die physiologischen Größen werden kontinuierlich, in automatischen Intervallen oder auch in Einzelmessungen erfasst, analysiert, als Kurven und/oder Zahlenwerte auf einem Display angezeigt, als Trend gespeichert und bei Bedarf ausgedruckt oder z. B. an Patientendaten-Managementsysteme weitergeleitet. Klassisch steht die Überwachungsfunktion am Bett oder im Operationssaal im Vordergrund, die über kürzere (Kurzzeitüberwachung, z. B. während einer Operation) oder längere Zeit (Langzeitüberwachung, z. B. auf Intensivstationen) durchgeführt wird und das medizinische Personal möglichst rechtzeitig und sicher auf physiologisch instabile Zustände aufmerksam machen soll. Dies setzt eine zuverlässige und reproduzierbare Messwertermittlung und -anzeige voraus und umfasst sowohl die Selbstüberwachung des Gerätes als auch die Überwachung der Wirksamkeit lebenserhaltender Systeme, an die der Patient angeschlossen ist. Aus dem konventionellen elektronischen Mess- und Überwachungsgerät oder Monitor (lat. monitor: Mahner, Warner) ist ein multifunktionales, softwaregesteuertes System geworden, das mit seiner Datenermittlung und -speicherung sowohl der Diagnostik als auch in Kombination mit anderen klinischen Beobachtungen und Erhebungen der therapeutischen Entscheidungsfindung und nicht zuletzt der Therapiekontrolle dient (⊡ Tab. 39.1). In
Normen findet man die allgemeine Bezeichnung »Programmierbares Elektronisches Medizinisches System« (PEMS). Für den Anwender stehen die Bedienfreundlichkeit von Gerät und Zubehör, deren möglichst universelle Nutzbarkeit sowie die Zuverlässigkeit der Messungen und der Alarme im Vordergrund. Es soll möglichst wenige Fehlalarme geben, und es soll vor allem niemals eine lebensbedrohliche Situation unerkannt bleiben. Von heutigen Monitoren wird erwartet, dass sie skalierbar sind, d. h., dass sie den jeweiligen Anforderungen durch einfaches Hinzufügen oder Weglassen von Zusatzmodulen oder Software-Optionen angepasst werden können. Durch Updates und Upgrades müssen sie zukunftsoffen mit neuen Entwicklungen Schritt halten und z. B. durch neue Messmethoden erweiterbar sein. Moderne Monitore zeichnen sich durch eine möglichst intuitive Bedienphilosophie aus, kommunizieren über Netzwerkverbindungen miteinander und mit Überwachungszentralen. Die Kommunikation mit anderen Geräten und mit Netzwerken des Krankenhauses gehören zu den erweiterten Systemeigenschaften (s. unten).
39.1
Einsatzbereiche von Patientenüberwachungssystemen
Domänen der Patientenüberwachungssysteme sind: ▬ Allgemeine und spezielle Operationsräume (insbesondere Herz-, Gefäß- und Neurochirurgie), ▬ Einleitungs- und Ausleitungsräume, Aufwachräume und Wachstationen sowie
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _39, © Springer-Verlag Berlin Heidelberg 2011
690
Kapitel 39 · Patientenüberwachungssysteme
⊡ Tab. 39.1. Klassifizierung von Patientenüberwachungssystemen Ausstattung
IV
Art des Monitorings
Basismonitoring mit nichtinvasiven Parametern
Basismonitoring und erweitertes Monitoring mit nichtinvasiven und invasiven Parametern
Erweitertes und hochspezialisiertes Monitoring mit nichtinvasiven, invasiven und speziellen Parametern
Messparameter
1–5 mit Trend
3–7 mit Trend und Berechnungen
> 8 mit Trend, Berechnungen und Kommunikation zu anderen Systemen
Simultan dargestellte Kurven
1–4, (Farb-)LCD
3–8, ggf. auch 12-Kanal-EKG, FarbLCD/TFT
6–32, Farb-LCD/TFT
Kommunikation
Stand-alone oder vernetzbar
Vernetzbar (fest verdrahtet oder wireless), Geräteanbindung am Arbeitsplatz
Vernetzt, ggf. mit Webbrowser und erweiterter Kommunikation und diversen Anbindungen
Einsatzbereiche
Einleitung/Ausleitung, Aufwachräume, Notfallräume, Ambulanzen, Step-Down Unit, Transport
Einleitung/Ausleitung, OP, Aufwachräume, Notfallräume; Intensivtherapie, Intermediate Care, Transport
Allgemeine und spezielle Intensivtherapie, spezielle OP-Einheiten, Forschungsbereiche
▬ allgemeine und spezielle Intensivstationen (z. B. auch neonatologische Stationen und Stroke Units), ▬ Notfall- und Eingriffsräume sowie Ambulanzen, ▬ Rettungswesen und Patiententransport.
UHF und VHF mit proprietären Antennen- und Empfangssystemen, sondern WiFi-Funknetzwerke (WLAN) mit zertifizierten allgemein verfügbaren Komponenten nach Industriestandard.
Darüber hinaus werden Monitore regelmäßig in Stationen und Einrichtungen verwendet, die Patienten möglichst frühzeitig aus Intensivstationen übernehmen (StepDown Units).
Vorkonfigurierter oder Kompaktmonitor. Gerät mit integriertem Display und einer begrenzten Anzahl von Messparametern, die fest vorgegeben sind. Semi-modulare (Kompakt-)Monitore lassen sich darüber hinaus um ein Modul für zusätzliche Messungen erweitern. Ein Registrierer kann integriert sein. Eine Einbindung in Netzwerke ist heute meist möglich. Bei Ausstattung mit Akkumulatoren gibt es keine strenge Trennung zur Verwendung als Transportmonitor. Mit Einbindung in ein WLAN kann der Monitor im selben Funknetz wie eine WLAN-Telemetrie-Anlage arbeiten. Bei weiterer Miniaturisierung des Monitors können sicherlich zukünftig die Grenzen zwischen Telemetrie-Gerät und Monitor nicht mehr streng gezogen werden.
39.1.1 Monitorarten Stand-alone-Monitor. Ein Monitor, der nicht mit anderen Monitoren oder einer Zentrale kommuniziert und oft nur zur punktuellen Messung oder kurzzeitigen Überwachung weniger Parameter am Patienten eingesetzt wird. Transportmonitor (⊡ Abb. 39.1c). Portables, möglichst
leichtes Gerät mit integriertem Display, das am Bett oder an der Transportliege befestigt werden kann und im Akku-Betrieb zur Überwachung des Patienten während eines Transportes dient. Telemetrie-Sender oder -Monitor. Tragbarer Sender (oft
ohne Display) zur drahtlosen Überwachung von Patienten in einem umschriebenen, mit einer Antennenanlage versehenen Empfangsbereich der klinischen Einrichtung. Wird im Gegensatz zum Transportmonitor vom gehfähigen Patienten selbst getragen und dient der Überwachung des EKGs und ggf. der Sauerstoffsättigung und des Blutdrucks an einer Zentralstation. Moderne TelemetrieGeräte nutzen nicht mehr die früher üblichen Funkbäder
Modularer Monitor. Die Leistungsfähigkeit des Monitors ist durch Auswechseln oder Hinzufügen von Modulen (Einschübe oder externe Erweiterungen) für die Erfassung weiterer Parameter sowie durch Software-Optionen (z. B. für erweiterte Arrhythmie-Überwachung) beliebig skalierbar und kann jeweils den konkreten Erfordernissen angepasst werden. Diese Monitore mit integriertem oder separatem Bildschirm sind oft nur stationär am Patientenbett oder im OP einsetzbar und in aller Regel zu Monitorsystemen in einem Netzwerk zusammengeschlossen. Informationsmonitor mit integriertem Transport (⊡ Abb. 39.1a). Kombination eines zum krankenhauswei-
691 39.1 · Einsatzbereiche von Patientenüberwachungssystemen
a
b
c
⊡ Abb. 39.1. Komponenten eines modernen Monitoring-Systems. a: Breitbild-Informationsmonitor (Vordergrund) mit integriertem Transportmonitor (im Hintergrund auf Dockingstation); b: Zentrale für 16 Patienten; c: Monitor wird zum Transport auf Betthalterung gesetzt. (© Dräger Medical AG & Co. KG, Lübeck. Alle Rechte vorbehalten)
ten Transport geeigneten modularen Monitors mit einem logisch zugeordneten medical-grade Panel-PC. Der Monitor steht am Bett sicher verriegelt auf einer so genannten Docking Station, die alle Verbindungen zu Spannungsversorgung, Netzwerk, ggf. Fremdgeräten und weiteren Sichtgeräten enthält. Durch nur einen Hebeldruck werden die mechanische und alle diese elektrischen Verbindungen gelöst, und der Monitor wird völlig ohne Unterbrechung der Überwachung als Transportmonitor verwendet (Pick&Go-Prinzip). Bei Rückkehr vom Transport wird der Monitor einfach auf die Docking Station gestellt, und alle zuvor getrennten Verbindungen werden durch das Umlegen des Hebels wieder hergestellt. Jegliches Umstecken von Kabeln und/oder Modulen zwischen Bett- und Transportmonitor entfällt, und es ist eine absolut nahtlose Überwachung des Patienten ohne Einschränkung der Pa-
rameter gewährleistet. Der dedizierte Panel-PC am Krankenbett wird erstens zum erweiterten Monitoring genutzt, um die Fülle von Monitor-Informationen in verschiedenen Bildschirm-Layouts groß, klar und übersichtlich darzubieten. Zweitens ist er ein IT-Portal für Ärzte und Pfleger und dient dem Zugriff auf alle im Krankenhaus-Intranet über ihren Patienten elektronisch verfügbare Informationen (Bilder z. B. von Röntgen, MRT und Ultraschall, Laborwerte, Anamnesen und Vorerkrankungen) und auf Datenbanken (Rote Liste, Pflegerichtlinien). Damit stehen wesentliche Informationen dort, wo sie gebraucht werden – am Krankenbett, dem »Point of Care« –, ohne zeitraubende Suche für die Entscheidungsfindung über die weitere Therapie zur Verfügung. Drittens kann der PC gleichzeitig zur papierlosen Dokumentation in einem Patientendaten-Managementsystem genutzt werden.
39
692
IV
Kapitel 39 · Patientenüberwachungssysteme
⊡ Abb. 39.2a,b. Monitor-Komponenten des Infinity® Acute Care SystemsTM von Dräger Medical. a Medical CockpitTM mit angedocktem Transportmonitor; b Einhand-Transportmonitor M540. (© Dräger Medical AG & Co. KG, Lübeck. Alle Rechte vorbehalten)
a
Integriertes akutmedizinisches System (⊡ Abb. 39.2a).
Weiterentwicklung des o.g. Informationsmonitors und des Pick&Go-Prinzips. Ein handlicher, leichter, aber sehr leistungsfähiger Monitor mit Touchscreen (⊡ Abb. 39.2b) erfasst alle Vitalwerte und verbleibt immer am Patienten (auch während eines Transports). Am Bett ist er mit einer Hand in die automatisch verriegelnde Docking Station einsetzbar und dadurch mit dem Informationsmonitor verbunden, über den die umfassende Bedienung erfolgt. Der Informationsmonitor ist gleichzeitig IT-Portal für alle möglichen webbasierten Applikationen oder Citrix-Anwendungen des Krankenhauses. Die standardisierte Hardware stellt nicht nur für das Monitoring, sondern auch z. B. für Beatmungstherapie- und Anästhesiegeräte eine grundsätzlich gleich strukturierte Bedienoberfläche bereit. Ziel ist, dem Nutzer stets dieselbe Bedienphilosophie in einem integrierten System zu bieten, durch diese Standardisierung abteilungsübergreifend von Notaufnahme zum OP über Aufwachraum bis zur Intensivstation sowohl Trainingsaufwand als auch Bedienfehler-Quellen zu minimieren. Das System ist skalierbar entsprechend den unterschiedlichen Anforderungen in den Abteilungen, ermöglicht intelligente Datenübernahme und gewährleistet effektiven Transport ohne Zeitverlust.
39.1.2 Monitorbild
Display. Bis auf ganz einfache Blutdruck- und Temperatur-Messgeräte, die nur Zahlenwerte anzeigen, haben praktisch alle Monitore einen Bildschirm zur Darstellung der Kurven von kontinuierlich gemessenen Parameter
b
(meist EKG, Pulskurve, Atmung, invasive Blutdrücke) und der zugehörigen Bezeichnungen, Messwerte und Grenzwerte sowie von Trenddarstellungen und weiteren Informationen. Farb-Flachbildschirme in LCD(Liquid Crystal Display)- und TFT(Thin Film Transistor)-Technologie in Größen von 6'' (15 cm) bis 17'' (43 cm) Bildschirmdiagonale und größer mit Auflösungen von 640 x 480 bis 1024 x 768 Pixel haben sich generell durchgesetzt. Der Trend geht zum Breitbildschirm mit 20'' (51 cm) und 1680 x 1050 Pixeln. Monochrome LCD- oder EL(Elektrolumineszenz)-Bildschirme findet man fast nur noch bei kleinen Stand-alone-Monitoren und Transportmonitoren. Gute Bildschirme sind flimmerfrei, kontrastreich, entspiegelt und haben einen ausreichend großen Betrachtungswinkel (>160°), sodass sie auch bei Fremdlicht und aus ungünstigen Blickwinkeln eine gute Erkennbarkeit gewährleisten. Kanäle. Neben der Größe und Güte des Bildschirms beschreibt die Anzahl der möglichen Bildschirmkanäle die Leistungsfähigkeit eines Monitors. Das ist die maximale Anzahl der zur Überwachung wählbaren Kurven und ihrer zugehörigen Parameter, die in Parameterfenstern (Parameterboxen) dargestellt werden. Transport- und Kompaktmonitore haben meist 3 oder 4 Kanäle. Modulare Monitore klassisch 5, 6 oder 8 Kanäle. Moderne Monitore mit 17''- oder 20''-Bildschirm bieten schon bis zu 32 Kanäle. Kurvendarstellung. Entweder bewegen sich die Kurven vom rechten zum linken Bildrand (Quell- oder Papiermodus), oder sie werden immer aufs Neue von links
693 39.1 · Einsatzbereiche von Patientenüberwachungssystemen
nach rechts auf den Bildschirm geschrieben, wobei ein Löschbalken die Kurve aus dem vorherigen Durchgang löscht (Löschbalkenmodus). Die Ablenkgeschwindigkeit ist zumindest bei modularen Monitoren wählbar. Übliche Geschwindigkeiten sind 25 oder 50 mm/s für EKG und Blutdruckkurven und 12,5 oder 6,25 mm/s für Atemkurven. Viele Monitore haben eine Freeze-Funktion, die ein Einfrieren des Bildschirminhaltes zur genaueren Betrachtung ermöglicht. Kurven, die physikalische Messwerte präsentieren (EKG, Blutdruck), haben eine Skalenangabe. Bildschirmkonfiguration. Die Anordnung der Kurven und Parameter auf dem Bildschirm (Positionierung, Layout) ist in aller Regel vom Nutzer einstellbar. Mindestens eine solche Konfiguration kann gespeichert werden und dient als Standard beim Einschalten des Monitors. Bei modularen Monitoren sind meist fünf oder zehn Layouts speicherbar.
39.1.3 Bedienung
Bedienelemente. Fixtasten am Monitor, Drehknopf und Touchscreen sind allein oder in jeder erdenklichen Kombination die Bedienelemente am Monitor. Manche Monitoren bieten zusätzlich eine drahtgebundene oder eine Infrarotfernbedienung. Monitore mit integrierten Webbrowsern können Tastatur und Maus haben. Bedienerführung, Bedienphilosophie. Einfache, logische und möglichst intuitive Bedienbarkeit sind Voraussetzung für eine gute Akzeptanz durch die Nutzer und für die Vermeidung von Fehlbedienungen. Direkter Zugriff auf wichtige Funktionstasten (Alle Alarme aus, Standby, Standardbild und als wichtigste Taste möglichst farbig hervorgehoben: Alarmquittierung) und logische, gut überschaubare Menüführung in nicht mehr als 2–3 Ebenen sind bedienerfreundlich. Einige Monitore bieten Hilfsfunktionen und eingebaute Simulationsprogramme zum Erlernen der Bedienung.
39.1.4 Alarme, Ereignisse
Wesentliche Funktion des Monitors ist die akustische und optische Alarmgebung auf mindestens drei verschiedenen Stufen. Höchste Priorität hat die Alarmierung lebensbedrohlicher Situationen (wie Herzstillstand, Kammerflimmern), die sich akustisch und optisch als rote Alarme deutlich dringend bemerkbar machen müssen. Ernste Warnungen, z. B. bei Grenzwertverletzungen, werden gelb dargestellt. Technische und oder hinweisende Alarme erscheinen weiß. Die akustischen Alarme sollen aufmerksam machen. Die Alarmstufen müssen deutlich
verschieden klingen und vom Personal gut von den Alarmen anderer medizinischer Geräte unterschieden werden können. Die optischen Alarme dienen dem schnellen Erkennen dessen, ▬ welcher Monitor alarmiert (Alarmleuchte am Monitor), ▬ was die Alarmursache ist (farbig blinkender Messwert). Ein Alarm kann auf einem (Laser-)Drucker oder einem speziellen Alarmrekorder automatisch ausgedruckt und im Monitor und/oder einer Zentrale als »Ereignis« gespeichert werden. Die Speicherung erlaubt eine spätere Bewertung und ggf. gezielte Dokumentation. Sie kann ein Ausdrucken aller Ereignisse ersparen. In einem Monitorsystem kann die Anzeige des Alarms von einem Patientenbett auch an allen anderen Monitoren gefordert werden, damit das medizinische Personal sofort Art und Ort des Alarms erkennen kann. Im einfachsten Fall ist dies eine kurze Angabe von Bett und alarmierendem Parameter in einer Informationszeile der anderen Monitoren (einfache Bettzu-Bett-Kommunikation). Auf Wunsch kann aber auch die Bildinformation des alarmgebenden Monitors auf den anderen Monitoren automatisch erscheinen (volle Bett-zu-Bett-Kommunikation). In jedem Fall ertönt und erscheint ein Alarm auf einer angeschlossenen Zentrale. Insbesondere bei sehr unübersichtlich gebauten Stationen kann es erforderlich sein, wichtige Alarme auch an eine vorhandene Schwesternrufanlage zu leiten und auf weit erkennbaren Informationsdisplays auf dem Gang sichtbar zu machen.
39.1.5 Trenddarstellung
Alle gemessenen Werte werden vom Monitor im Trendspeicher abgelegt. Von kontinuierlich gemessenen Parametern werden meist Minutenmittelwerte (oder Medianwerte) der letzten 24 Stunden oder mehr gespeichert (96 Stunden sind bereits üblich). Die Darstellung der Trends erfolgt als Tabelle oder als Grafik und kann von 24 Stunden bis zu wenigen Minuten vom Nutzer gewählt werden (Zoom).
39.1.6 Automatische Berechnungen
Physiologische Berechnungen von abgeleiteten Größen aus den kontinuierlich und diskontinuierlich gemessenen Parametern sind für Hämodynamik, Beatmungsgrößen und Sauerstoffversorgung üblich. Auch diese Ergebnisse stehen dann als Trend zur Verfügung. Viele Monitoren erlauben auch Dosisberechnungen für diverse Medikamente und Infusionen.
39
694
Kapitel 39 · Patientenüberwachungssysteme
39.1.7 Erweiterte Systemeigenschaften
Datenintegration am Arbeitsplatz. Durch Einbindung der Daten aus Fremdgeräten (z. B. spezialisierten Monitoren von anderen Herstellern) und/oder Beatmungsoder Narkosebeatmungsgeräten gelingt es, zusätzliche Kurven und Parameter gemeinsam mit den Monitordaten anzuzeigen. So wird eine gemeinsame Datenbasis (Trendspeicherung) geschaffen. Die Daten werden z. B. via MIB (Medical Information Bus) oder seriell übertragen.
IV
Monitornetzwerk. Die Vernetzung (LAN = Local Area Network) ist der Schritt vom Einzelmonitor zum Monitorsystem. Nach Industriestandards fest verdrahtet oder drahtlos per Funk (Wireless LAN = WLAN) kommunizieren die Monitore miteinander von Bett zu Bett und mit Überwachungszentralen sowie z. B. mit gemeinsam genutzten Druckern. Via Netzwerk und spezielle Übertragungsrechner (Gateways) können Daten vom Monitoringsystem importiert (z. B. demographische Daten aus dem Krankenhausinformationssystem oder Laborwerte) und exportiert werden (z. B. in ein Patientendaten-Managementsystem). Mit dem Medical-grade-Rechner der o.g. Informationsmonitore können z. B. die im Krankenhaus elektronisch verfügbaren patientenbezogenen Informationen mittels Webbrowser oder mit speziellen Applikationen am Krankenbett dargestellt und in das Monitoring integriert werden. Es wird weniger Zeit für Informationssuche verschwendet und es gehen keine Daten für eine Dokumentation verloren. Gateway-Server können die Bild- und Trendinformationen der Monitoren im Intranet des Krankenhauses webbasiert zur Verfügung stellen, sodass sie durch berechtigte Ärzte von jedem beliebigen PC im Krankenhausnetzwerk mittels Standard-Browser abgerufen werden können. Konsultationen oder Befundungen sind dadurch krankenhausweit möglich. Außerdem ist die Ansteuerung von Pager-Systemen möglich, um Ärzten oder Pflegepersonal z. B. Alarminformationen auch außerhalb einer Station und unabhängig von fest installierten Monitoren und Zentralen zur Verfügung zu stellen. Da in einem Monitoringnetzwerk lebenswichtige Alarme nicht verzögert werden dürfen und Lücken in übertragenen Kurven nicht akzeptabel sind, wurde in der Vergangenheit stets eine strikte physikalische Trennung zwischen Krankenhausnetzwerk und Monitornetzwerk gefordert. Moderne Techniken zur Sicherung der Priorität der zeitkritischen Daten erlauben inzwischen auch das Betreiben eines Monitornetzwerkes innerhalb der Netzinstallation eines Krankenhauses durch logische Trennung der Netzwerksegmente mittels virtueller LANs (VLAN) mit entsprechender Ausfallsicherheit und Gewährleistung einer Mindestbandbreite für die priorisierte Anwendung als Quality of Service (QoS). Erst dadurch
wird möglich, dass Monitoren und z. B. Visiten-Rechner in einem Funknetz über dieselben Zugriffspunkte (Access Points) kommunizieren, ohne sich gegenseitig zu stören.
39.1.8 Zentrale Überwachung und
Dokumentation Monitoring-Zentralen bieten an zentralen Arbeitsplätzen via Netzwerk alle Alarme optisch und akustisch sowie einen Überblick über den Zustand der angeschlossenen Patienten auf einem oder mehreren Bildschirmen. Grenzwerte der Bettmonitoren bzw. ggf. Telemetrie-Geräte können von der Zentrale aus verändert werden. Auch Zentralen müssen skalierbar sein und sich in ihrer Leistung den Erfordernissen durch Hard- und/oder SoftwareOptionen anpassen lassen: ▬ Anzahl der darzustellenden bzw. zu überwachenden Patienten (meist zwischen 4 und 32) mit oder ohne Telemetrie, ▬ Anzahl der Kurven pro Patient, ▬ Langzeitspeicherung für Kurven (z. B. 1–3 Tage Full Disclosure von 4–16 Kurven) und Ereignisse (z. B. 1000 pro Patient als Event Disclosure), ▬ weitere Funktionalitäten, z. B. Ansicht von Betten anderer Abteilungen oder von in anderen Zentralen gespeicherten Kurven, ▬ Export der Langzeit-Kurven und Ereignisse in das Intranet zur Betrachtung an Arzt-PCs (dort, wo sie zur Befundung benötigt werden). Eine weitere wichtige Funktion ist die Dokumentation, also die Möglichkeit, Berichte in variablen Formaten und Zeiträumen, Trends und Ereignisse auszudrucken. Standard ist heute ein Laserdrucker mit normalem DIN-A4Papier. Netzwerkdrucker können auch ohne Zentralen von den Monitoren direkt angesteuert werden.
40 Kardiovaskuläres Monitoring U. Hieronymi, R. Kramme
40.1 Monitoring der Herzfunktion – 695 40.1.1 Elektrokardiogramm (EKG) und Herzfrequenz (HF) – 695 40.1.2 Arrhythmieüberwachung – 696
40.2 Monitoring der Kreislauffunktion (hämodynamisches Monitoring) – 697
40.2.4 Invasive Druckmessung im Hoch- und Niederdrucksystem – 701 40.2.5 Bestimmung des Herzzeitvolumens (HZV) – 705 40.2.6 Berechnung hämodynamischer Größen – 707
Weiterführende Literatur
– 707
40.2.1 Puls – 698 40.2.2 Diskontinuierlich gemessener nichtinvasiver Blutdruck (NIBD) – 698 40.2.3 Kontinuierliche nichtinvasive arterielle Blutdruckmessung (CNAP) – 701
Unter dem Oberbegriff »Kardiovaskuläres Monitoring« wird die Überwachung von Herz- und Kreislauffunktionen zusammengefasst. Bei kardiologischen Erkrankungen, instabilen Kreislaufzuständen und Schock sowie für die prä-, intra- und postoperative Überwachung des Herz-KreislaufSystems ist das kardiovaskuläre Monitoring unerlässlich und von ausschlaggebender Bedeutung. Zum einen müssen bei Beeinträchtigungen rechtzeitig Interventionen eingeleitet werden können, zum anderen dienen die Messungen der Statusbeurteilung, Diagnosefindung, Therapieentscheidung und Therapiekontrolle. Die Überwachung umfasst die Herzfunktion als elektrische Erscheinung (das EKG) und deren mechanische Auswirkung, d. h. den Druckaufbau und die von Herzfrequenz, Kontraktilität, Vorlast und Nachlast abhängende Volumenförderung. Insbesondere bei Schockzuständen kommt es darauf an, die Hauptfunktion des Kreislaufes, eine ausreichende Sauerstoffversorgung des Körpers, aufrechtzuerhalten bzw. wiederherzustellen. Dazu steht dem Arzt neben Beatmung und Volumenmanagement eine Vielzahl unterschiedlich auf Herz und Gefäßsystem wirkender Mittel zur Verfügung, die nur mit aussagekräftigen Messungen gezielt eingesetzt und auf ihre Wirksamkeit überprüft werden können.
40.1
Monitoring der Herzfunktion
40.1.1 Elektrokardiogramm (EKG) und
Herzfrequenz (HF) In der Notfall- und Intensivmedizin, in operativen Bereichen und im Rettungswesen gehört die kontinuierliche EKG-Überwachung zum Basismonitoring. Das EKG liefert
Informationen über Herzfrequenz und -rhythmus, Erregungsbildung, -leitung und -rückbildung und deren Störungen, jedoch keine direkte Aussage über die Pumpleistung des Herzens (d. h. die mechanische Herzfunktion). Das EKG ist die Aufzeichnung von Summenpotentialen der elektrischen Herzaktivität und lässt sich sehr einfach mit Elektroden direkt von der Körperoberfläche ableiten (⊡ Abb. 40.1). Üblich ist die Verwendung von 3, 5, 6 oder (z. B. zur Überwachung in der Kardiologie) 10 Elektroden. Mit einem 3-adrigen Elektrodenkabel lässt sich nur eine EKG-Ableitung anzeigen. Aus 5, 6 und 10 Elektroden werden 7, 8 und 12 EKG-Ableitungen gewonnen, von denen auf herkömmlichen 5- bis 8-KanalMonitoren i. d. R. bis zu drei zur dauernden Darstellung auf den Bildschirmkanälen ausgewählt werden können. Zur Ermittlung der Herzfrequenz (HF) reicht ein 3-adriges Elektrodenkabel aus, das oft zur Grundüberwachung, z. B. im Normal-OP, genutzt wird. In der Neonatologie findet man ausschließlich drei besonders kleine NeonatalElektroden. Für eine bessere Artefaktunterdrückung, zum sicheren Erfassen von Herzrhythmusstörungen (Arrhythmien) und zur Schrittmachererkennung ist die simultane Überwachung mehrerer Ableitungen angezeigt. Zusätzlich kann eine EKG-Vermessung durchgeführt werden. Die automatische Analyse und Überwachung der ST-Strecken im EKG hat eine besondere Bedeutung bei ischämischen Herzerkrankungen und Infarktpatienten. Dabei kommt es darauf an, das Herz möglichst von allen Seiten zu »betrachten«, d. h. bis zu 12 Ableitungen auszunutzen, damit lokale Ischämien nicht übersehen werden. Zu diesem Zweck sind auch Methoden entwickelt worden, die mit nur 6 Elektroden (reduced lead set), die ganz normal platziert werden, eine sehr zuverlässige ST-Überwachung
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _40, © Springer-Verlag Berlin Heidelberg 2011
696
IV
Kapitel 40 · Kardiovaskuläres Monitoring
⊡ Abb. 40.1. Standard-Elektrodenpositionen für EKG-Überwachung mit 3, 5 und 6 Elektroden. Farben und Bezeichnungen nach IEC1: R: rot, L: gelb, F: grün, N: schwarz, V: weiß, V+: grau-weiß
aus 8 echten und 4 errechneten Ableitungen ermöglichen (TruST-Algorithmus). Mit 10 Elektrodenleitungen können moderne Monitore ein 12-Kanal-Ruhe-EKG in diagnostischer Qualität anzeigen und ggf. automatisch auswerten. Dabei ist unbedingt zu beachten, dass eine korrekte Elektrodenapplikation Grundlage für die diagnostische Qualität des EKGs ist. Die in der Überwachung praktizierte Elektrodenplatzierung auf dem Thorax kann die echten, zur Diagnose erforderlichen Extremitätenableitungen nicht vollständig ersetzen. Sie kann scheinbar pathologische Abweichungen der Herzachse vorspiegeln, die bei korrekter Elektrodenplatzierung an den Extremitäten gar nicht vorhanden sind. Die Herzfrequenz (typischer Messbereich: 15–300 Schläge/min) wird als gleitendes Mittel über eine bestimmte Zeit (z. B. 10 s) oder eine bestimmte Anzahl von QRS-Komplexen gebildet und numerisch angezeigt. Alternativ zum EKG kann sie (automatisch vom Monitor bei Störungen des EKGs umgeschaltet, z. B. während Kautern im OP) als Pulsfrequenz aus dem arteriellen Blutdruck oder der Pulskurve aus dem SpO2-Signal gewonnen werden. Grundlage der Herzfrequenzmessung sind die sichere Erkennung der QRS-Komplexe im EKG und die Ermittlung ihrer Abstände (R-R-Abstände) mit digitalen Filtern und Detektionstechniken. So ist es möglich, dass Störimpulse oder Bewegungsartefakte eliminiert und nicht für die Ermittlung der Herzfrequenz gezählt werden. Impulse von Herzschrittmachern werden aufgrund ihrer besonderen Charakteristika (sehr kurz und sehr steil) bereits vor der eigentlichen QRS-Erkennung ermittelt und können als Marker in das EKG eingeblendet werden. Die Über- oder Unterschreitung einstellbarer Grenzwerte kann alarmiert und als kurze EKG-Episode in einem Ereignisspeicher des Monitors oder einer Zentrale abgelegt werden. Zahlreiche Faktoren können die EKG-Überwachung beeinträchtigen: Patientenbezogene Störungen sind in erster Linie ▬ abgefallene EKG-Elektroden oder -Leitungen, ▬ unzureichender Elektrodenkontakt zur Haut (schlechte Hautvorbereitung, eingetrocknetes Elektroden-Gel),
▬ schweißnasse oder fettige Haut sowie ▬ Muskelzittern und Bewegungsartefakte. Bei stark überhöhten Bewegungsartefakten muss z. B. auch an eine zu geringe Kontaktkraft an den Elektrodenanschlüssen gedacht werden. Technische Störungen, die das EKG überlagern, können v.a. durch Hochfrequenz (z. B. HF-Chirurgiegeräte, insbesondere auch deren niederfrequent modulierte Abstrahlungen), eingekoppelte Wechselspannung oder durch Impulse transkutaner elektrischer Nervenstimulation (TENS) hervorgerufen werden. In Operationssälen wird die Verwendung von speziellen Leitungen und/oder Filtern zum Reduzieren der Störungen empfohlen oder vom Hersteller vorgeschrieben.
40.1.2 Arrhythmieüberwachung
Die kontinuierliche Arrhythmieüberwachung dient dem Erkennen von Herzrhythmusstörungen und deren Vorstufen und Anzeichen in Echtzeit. Eine erkannte Arrhythmie kann alarmiert, als EKG-Strip im Ereignisspeicher abgelegt und/oder automatisch ausgedruckt werden. Lebensbedrohliche Zustände wie Asystolie, Kammerflimmern oder ventrikuläre Tachykardie müssen sicher erkannt sowie akustisch und optisch deutlich alarmiert werden (roter Alarm). Diese drei Formen gehören zur Basis- oder Letalarrhythmie, die jeder moderne Monitor grundsätzlich erkennen und alarmieren sollte. Der Asystoliealarm erfolgt, wenn innerhalb eines bestimmten Zeitraums (i. d. R. 4 s) kein QRS-Komplex identifiziert wird. Liegt der Grund in abgelösten Elektroden, wird ein entsprechender technischer Hinweis erzeugt und der Asystoliealarm nicht gegeben. In der Neonatologie gehört die Bradykardie (zu niedrige Herzfrequenz) zu den Letalalarmen und sollte von jedem Monitor im Neonatalmodus grundsätzlich als lebensbedrohlich erkannt werden. Grundlage für die Arrhythmieanalyse sind die überwachten EKG-Ableitungen. Herzrhythmusstörungen sind häufig mit Herzkrankheiten verbunden und können ver-
697 40.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
einzelt auch bei Herzgesunden auftreten. Art und Anzahl von Ereignissen sind von besonderem klinischen Interesse. Monitorsysteme bieten oft die Möglichkeit, kontinuierlich die EKGs mehrerer Patienten über Tage hinweg zu speichern und zu analysieren. Die Arrhythmieüberwachung startet mit einer Lernphase, um den für den Patienten derzeit typischen normalen Kammerkomplex zu ermitteln, der als individueller Normalschlag gelernt und als Muster oder Referenzkomplex gespeichert wird. In der Folge werden alle eingehenden QRS-Komplexe mit dem Muster verglichen (template matching). Es geht dabei um die Online-Entscheidung, ob es sich um einen Normalschlag, einen ventrikulären Schlag oder einen Artefakt handelt. Dazu werden verschiedene Merkmale bzw. Erkennungskriterien des EKG-Zyklus herangezogen (feature extraction), z. B. Polarität, Breite und Form (Morphologie) des QRS-Komplexes, Steigung und Fläche der ST-Strecke sowie zeitliches Intervall (RRAbstand) der Komplexe. Die Entscheidung (normal oder ventrikulär) wird dabei nicht mehr nach einem Regelwerk fester Messwertkriterien getroffen (rule based system). Stattdessen imitieren die Monitoren menschliche Herangehensweisen beim Mustervergleich, z. B. mittels Wahrscheinlichkeitskriterien oder Fuzzy-Logik. Parallel werden eine Frequenzanalyse (Erkennen von Flattern und Flimmern) und eine Artefaktanalyse (Bewegung, Muskelzittern u. a.) durchgeführt. Nach der Klassifikation der einzelnen QRS-Komplexe erfolgt mit der Rhythmus-Logik die Unterscheidung, ob es sich um eine isolierte ventrikuläre Extrasystole (VES) handelt oder um gekoppelte Ereignisse (Paare, Salven, ventrikuläre Tachykardie, Bigeminie u. a.). Wenn ein Schrittmacherimpuls detektiert wurde, ist nur noch die Entscheidung wichtig, ob eine physiologische Antwort des Herzens vorliegt oder nicht. Da durch Schrittmacherimpulse elektrische Ausgleichsvorgänge am Herzen hervorgerufen werden, die einer natürlichen Herzaktion sehr ähnlich sein können, ist diese Entscheidung durchaus nicht trivial. Deshalb sollten Schrittmacherpatienten immer eine zusätzliche Überwachung der Kreislauffunktion haben, z. B. die Pulsfrequenz aus der SpO2-Überwachung oder den kontinuierlich gemessenen arteriellen Blutdruck. Die Analysequalität der Monitore wird u. a. durch Test mit Referenz-EKG-Aufzeichnungen von internationalen Gesellschaften (American Heart Association AHA) oder anerkannten Institutionen ermittelt.
40.2
Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
Hämodynamik ist die Lehre von den Bewegungen des Blutes im Kreislauf. Diese Bewegung wird durch den vom Herzen aufgebrachten Druck angetrieben. Da der Druck im Gefäßsystem stark von Aktivität und Körperlage (hydrostatischer Druck) abhängt, werden Blutdruckmessun-
gen immer in Ruhe vorgenommen und auf die Höhe des Herzens (rechte Vorkammer) bezogen. Das Gefäßsystem ist funktionell unterteilt in Niederdrucksystem (kleiner, pulmonaler oder Lungenkreislauf) und Hochdrucksystem (großer, systemischer oder Körperkreislauf), die miteinander durch das zentrale Antriebselement – das Herz – verbunden sind. Das Herz baut in seiner Anspannungsphase (Systole) einen Druck auf, durch den das Schlagvolumen (SV) aus dem Ventrikel in das arterielle Gefäßsystem ausgestoßen wird. Jedes geförderte Schlagvolumen erzeugt eine Pulswelle. Der Spitzendruck während der Austreibung des Schlagvolumens aus dem Ventrikel ist der systolische Blutdruck (höchster Punkt der Druckkurve). Der Druck am Ende der Entspannungsphase (Diastole) wird als diastolischer Blutdruck bezeichnet (niedrigster Punkt der Druckkurve). Die Differenz zwischen Systolen- und Diastolendruck ist die Blutdruckamplitude. Der Druck, der den Blutstrom im Gefäßsystem aufrechterhält, also die treibende Kraft der Perfusion, ist der Mitteldruck (im Körperkreislauf der arterielle Mitteldruck APm (auch MAD oder MAP), im Lungenkreislauf der pulmonalarterielle Mitteldruck (PAPm). Das Schlagvolumen ist abhängig von der Vorlast (Preload), der Kontraktionsfähigkeit des Herzmuskels (Kontraktilität) und der Nachlast (Afterload). Preload ist die durch die passive Füllung der Herzkammer am Ende der Diastole hervorgerufene Dehnung (= Vorbelastung) des Herzmuskels und wird am besten durch das enddiastolische Volumen beschrieben. Afterload ist der Kraftaufwand der Herzmuskulatur zur Überwindung der Widerstände in der Ausstrombahn des linken Ventrikels und des peripheren Kreislaufs. Arterieller Mitteldruck und Gefäßwiderstand werden als Maße für die Nachlast genutzt. Faktoren, die das Blutdruckverhalten bestimmen, sind neben der Druck-Volumenarbeit des Herzens auch die Elastizität des Gefäßsystems, das zirkulierende Blutvolumen und insbesondere der periphere Gefäßwiderstand, der durch die vom sympathischen Nervensystem gesteuerte Wandspannung der Gefäße (den Gefäßtonus) beeinflusst wird. Die Fördermenge Blut pro Minute wird Herzzeitvolumen (HZV) oder auch Herzminutenvolumen (HMV; engl. CO = Cardiac Output) genannt und ist das Produkt aus Schlagvolumen und Herzfrequenz. Regelmechanismen des Körpers regulieren den Kreislauf mit dem Ziel, das Herzzeitvolumen dem Durchblutungsbedarf zur Sauerstoffversorgung und CO2-Elimination des Organismus anzupassen, den Blutdruck weitgehend konstant zu halten und die Durchblutung in den einzelnen Organen und Geweben auf den jeweiligen Funktionszustand einzustellen. Da dem Arzt Mittel zur Verfügung stehen, die einzelnen Determinanten des Herzzeitvolumens gezielt zu therapieren (Chronotropika für die Herzfrequenz, Inotropika für die Kontraktilität,
40
698
Kapitel 40 · Kardiovaskuläres Monitoring
IV
⊡ Abb. 40.2. Übersicht Kreislaufmonitoring
Vasodilatatoren und -konstriktoren für den Gefäßtonus und Diuretika bzw. Volumengaben für die Vorlast), ist es so wichtig, im Monitoring diese Informationen als Entscheidungsbasis und Therapiekontrolle auf möglichst zuverlässige Weise zu erhalten. Zum Monitoring der Kreislauffunktion gehören nichtinvasive und invasive Messungen von Vitalwerten mit indirekten und direkten Verfahren, die im Hochdruck- oder Niederdrucksystem ihre Anwendung finden (⊡ Abb. 40.2).
ein Messmodul oder enthalten den Messparameter NIBD (synonyme Abkürzungen: NBD, NIBP, NBP) in der Basiskonfiguration. Monitoren und Einzelgeräte arbeiten diskontinuierlich (nach manuellem Start oder in wählbaren Intervallen automatisch) nach dem oszillometrischen Messprinzip. Die auskultatorische Methode wird heute praktisch ausschließlich »per Hand« durchgeführt und gehört nur mittelbar zum Monitoring. Sie soll aber wegen ihrer großen Verbreitung und historischen Bedeutung hier kurz erläutert werden.
40.2.1 Puls
Eine Pulsüberwachung erfolgt entweder invasiv aus der arteriellen Druckkurve oder nichtinvasiv aus dem Plethysmogramm der Pulsoxymetrie ( Kap. 41 »Respiratorisches Monitoring und Pulsoxymetrie«). Die Pulsüberwachung hat eine besondere Bedeutung als Sicherheitsmaßnahme bei der Überwachung von Schrittmacherpatienten.
40.2.2 Diskontinuierlich gemessener
nichtinvasiver Blutdruck (NIBD) Nichtinvasive Blutdruckmessungen gehören zu den Minimalanforderungen in der prä-, peri- und postoperativen Patientenüberwachung, aber auch im intensivmedizinischen Bereich. Patientenüberwachungsmonitore haben
Sphygmomanometer Der italienische Arzt Riva-Rocci entwickelte 1896 ein einfach handhabbares Sphygmomanometer (Pulsdruckmessgerät; eine aufblasbare Manschette mit angeschlossenem Quecksilber-Manometer) zur nichtinvasiven Bestimmung des Blutdrucks am Oberarm. Der Manschettendruck wurde deutlich über den Punkt erhöht, an dem am Handgelenk kein Puls mehr tastbar war (palpatorische Methode). Wenn beim langsamen Ablassen der Manschette die ersten Pulse wahrnehmbar wurden, galt der abgelesene Manometerdruck als systolischer Blutdruck. Erst eine weitere Entdeckung ermöglichte, nichtinvasiv auch den diastolischen Blutdruck zu ermitteln. Der russische Arzt Korotkoff entdeckte 1905 charakteristische Turbulenzgeräusche, die bei Entlastung einer kompri-
699 40.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
⊡ Tab. 40.1. Korotkoff-Geräusche (Eckert 2006) Phasen
Ereignisse
Phase 1
Einsetzen eines scharfen Klopfgeräusches, dessen Intensität im Laufe der Phase zunimmt.
Phase 2
Das Klopfgeräusch der 1. Phase wird von einem zusätzlichen Murmelgeräusch begleitet.
Phase 3
Es sind wieder reine Klopfgeräusche zu hören, die nun besonders stark und scharf sind.
Phase 4
Plötzliche Änderung: Die Töne klingen gedämpft und leiser, es fehlt ihnen jetzt die typische Klopfqualität.
Phase 5
Die Geräusche verschwinden völlig.
mierten Arterie auskultiert (mit dem Stethoskop abgehorcht) werden konnten. Die heute noch übliche Bezeichnung der so gemessenen Blutdruckwerte als RR (nach Riva-Rocci) ist historisch falsch, da nach Riva-Rocci weder ein diastolischer Wert ermittelt werden konnte noch ein Stethoskop verwendet wurde.
Funktionsprinzip der auskultatorischen Messmethode Die Manschette muss am freien Oberarm auf Herzhöhe platziert werden, sodass die Mitte der Gummiblase über der Brachialarterie liegt. Nach Palpieren der Brachialarterie wird die Manschette ca. 30 mmHg über den Druck aufgepumpt, bei dem der Puls nicht mehr tastbar ist. Das Stethoskop wird auf die Brachialarterie gelegt und der Manschettendruck langsam abgelassen. Die einsetzende Pulsation verursacht Klopfgeräusche (KorotkoffTöne Phase 1). An dieser Stelle liest man am Manometer den systolischen Blutdruck ab. In den weiteren Phasen verändern sich die Töne (⊡ Tab. 40.1), bis kein Ton mehr zu hören ist. Dies ist die fünfte Phase und kommt dem diastolischen Druck am nächsten.
Oszillometrische Methode Der französische Arzt Pachon entdeckte 1909 die oszillometrische Messmethode. Er erkannte, dass beim Ablassen des Manschettendrucks nach dem Erreichen des systolischen Drucks die Gefäßwände zu schwingen (oszillieren) beginnen und dieses Verhalten beibehalten, bis das Gefäß nicht mehr okkludiert wird. Diese Oszillationen werden auf die Luft in der Manschette übertragen und sind am Manometer abzulesen. Heute werden diese Schwingungen mit Druckaufnehmern elektronisch gemessen.
Funktionsprinzip der oszillometrischen Methode Bei der oszillometrischen Methode wird die Manschette zu Beginn der Messung ca. 25–30 mmHg über den Punkt aufgepumpt, an dem praktisch keine Oszillationen mehr
gemessen werden (ganz geringe Oszillationen können vom proximal der Manschette liegenden Teil der Arterie kommen). Der Druck wird automatisch mit 2–3 mmHg/s aus der Manschette abgelassen (Mieke 1991). Sinkt der Manschettendruck unter den Wert des systolischen Blutdrucks, beginnt die Arterie sich zu öffnen, und die Schwingungen werden stärker. Sie erreichen ihr Maximum, wenn der Manschettendruck dem mittleren arteriellen Druck entspricht. Dies ist der eigentliche Messwert der oszillometrischen Methode. Mit weiter sinkendem Manschettendruck werden die Oszillationsamplituden wieder kleiner und bleiben schließlich konstant, wenn der Manschettendruck den diastolischen Wert erreicht hat (⊡ Abb. 40.3). Die Werte für Diastole und Systole werden aus dem Verlauf von Hüllkurven um die erfassten Oszillationen ermittelt und sind demzufolge berechnete Werte.
Ein- und Zwei-Schlauchsysteme Es sind Manschetten mit Ein- oder Zwei-Schlauchsystemen gebräuchlich. Um zu vermeiden, dass das Druckablassen die Messergebnisse beeinflusst, kann ein Druckschlauch aus zwei Lumen bestehen. Eines führt direkt von der Manschette zum Druckaufnehmer, das andere ist nur zum Aufpumpen und Druckablassen bestimmt. Einschlauchsysteme sind wegen ihres geringeren Gesamtquerschnitts flexibler und lassen sich daher in der Praxis besser handhaben.
Plausibilitätskontrolle bei oszillometrischen Blutdruckmessgeräten Die Artefakterkennung ist die wichtigste Voraussetzung für eine zuverlässige oszillometrische Messung. Mechanische Einwirkungen auf Manschette oder Blutdruckschlauch während der Messung dürfen vom Gerät nicht als gültige Oszillationen registriert werden, da sonst falsche Blutdruckwerte angezeigt werden können. Moderne Geräte eliminieren solche Artefakte dadurch, dass der Druck in Stufen abgelassen wird. Nur wenn auf jeder Stufe mindestens zwei aufeinander folgende Pulse gleicher Amplitude gefunden werden, wird der Druck auf die nächste Stufe abgelassen. Treten Artefakte auf, so verharrt das Gerät auf einer Druckstufe, bis zwei gleiche Pulse identifiziert sind. Dadurch können auch kleinste Artefakte erkannt werden, z. B. bei Neonaten. Verfahren, die dagegen mit einem kontinuierlich-linearen Druckablass arbeiten, kommen zwar schneller zu einem Ergebnis, geben aber bei Störungen häufig falsche Werte an. Bei mangelnder Plausibilität zeigt ein solides Gerät dem Anwender, dass keine exakte Messung möglich war. Bei Schockpatienten mit extrem niedrigen Druckwerten in peripheren Gefäßen können aufgrund des flachen Verlaufes der Oszillationskurven der systolische und der diastolische Wert nur sehr ungenau ermittelt werden. Das Oszillationsmaximum wird jedoch oft noch erkannt, und
40
700
Kapitel 40 · Kardiovaskuläres Monitoring
IV
⊡ Abb. 40.3. Prinzip der oszillometrischen Methode
somit kann der mittlere arterielle Druck gemessen und angezeigt werden. Systole und Diastole würden als nicht messbar (z. B. als Striche) angezeigt.
Methodische Hinweise Manschettengröße Eine der häufigsten Fehlerquellen bei der Blutdruckbestimmung ist die falsche Wahl der Manschettengröße. Die Manschettenbreite sollte ca. 40% des Umfangs der Extremität betragen, die Gummiblase sollte ca. 80% des Umfangs umschließen (Pickering et al. 2005). Stimmt die Breite nicht, kommt es zu erheblichen Fehlmessungen. Mit zu schmalen Manschetten wird zu hoch und mit zu breiten Manschetten wird zu niedrig gemessen. Deshalb ist es unbedingt erforderlich, besonders bei adipösen Patienten, Kindern und Neonaten, jeweils die richtige Manschettengröße zu nutzen.
Berücksichtigung des hydrostatischen Drucks Die Blutdruckmessung bezieht sich stets auf Herzhöhe. Die Messung am Oberarm ist daher sowohl beim sitzenden als auch beim Patienten in Rückenlage problemlos. Am Ober- oder Unterschenkel kann gemessen werden, wenn der Oberarm als Messort nicht zur Verfügung steht und der Patient flach liegt. Weicht der Messort von der
Herzhöhe ab, so ergibt sich durch den hydrostatischen Druckunterschied unterhalb der Herzebene ein höherer und oberhalb der Herzebene ein niedrigerer Messwert für den Blutdruck. Pro 10 cm Höhenunterschied entstehen ca. 7,5 mmHg Messfehler. Weitere Fehlerquellen bei der nichtinvasiven Blutdruckmessung: ▬ Anwendungsfehler: Zu lockeres Anlegen der Manschetten, Berührung der Manschette während der Messung, Schlauchbewegungen (auch z. B. durch direkte Berührung von Beatmungsschläuchen) ▬ Technische Fehler: Undichtigkeiten im Schlauchoder Manschettensystem ▬ Bewegungsartefakte: Patientenbewegungen als Fehlerquelle sind hauptsächlich bei Kindern oder bei postoperativer Überwachung zu berücksichtigen
Grenzen der NIBD-Messung Während des Messvorgangs wird das unter der Manschette liegende Gewebe der Messextremität komprimiert. Die Gefahr von nervalen Druckläsionen ist besonders bei kachektischen Patienten, unreifen Neugeborenen und Patienten mit neuromuskulären Erkrankungen gegeben, da das die Nerven schützende Muskel- und Fettgewebe reduziert ist. Deshalb sollten bei diesen Patienten nichtinvasive Druckmessungen in möglichst großen Zeitinterval-
701 40.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
len durchgeführt werden. Ansonsten wird empfohlen, die Zeitintervalle von nichtinvasiven Blutdruckmessungen nicht kleiner als 5–10 min zu wählen, um Druckschäden im Bereich der Manschette sowie im Versorgungsbereich der Arterie zu vermeiden (List 1989).
40.2.3 Kontinuierliche nichtinvasive arterielle
Blutdruckmessung (CNAP) Der Blutdruck ist nicht immer konstant, sondern kann sich innerhalb von Sekunden ändern. Insbesondere während einer Anästhesie und ihrer Einleitung können Blutdruckschwankungen auftreten und eine unmittelbare ärztliche Reaktion erfordern. Solche Episoden sind jedoch mit der normalen NIBD-Messung nur ungenügend oder gar nicht erfassbar (Dueck u. Jameson 2006). Die als Penaz-Verfahren (nach Penaz 1973) bekannt gewordene nichtinvasive Technik der entspannten Arterienwand (»vascular unloading technique« oder »volume clamp«) misst mittels eines optischen Sensors in einer kleinen Manschette um den Finger die Volumenpulse, die mit jedem Herzschlag auftreten. Über eine Rückkopplung wird der Druck in der Manschette nun so geregelt, dass der optische Messpfad stets konstant bleibt. Beim Auftreten eines Pulses wird also der Manschettendruck entsprechend erhöht, bei Abklingen des Pulses wird er erniedrigt. Somit spiegelt der Manschettendruck sehr exakt den in der umschlossenen Fingerarterie auftretenden Druck wider. Nach verschiedenen technischen Entwicklungen auf diesem Gebiet (z. B. Finapres) entstand CNAP (Continuous Non-invasive Arterial Pressure von CNSystems, Graz), das als erstes System dieser Art als Modul Eingang in ein Patientenüberwachungssystem gefunden hat (CNAP Pod von Dräger Medical, Lübeck; ⊡ Abb. 40.4). CNAP verwendet paarige Sensormanschetten, die auf benachbarte Finger aufgesteckt werden. Auf passende Größe ist zu achten. Es wird stets nur eine Manschette zur Messung benutzt und spätestens nach einer halben Stunde kontinuierlicher Messung automatisch gewechselt. Die bei der Messung am Finger naturgemäß auftretende venöse Stauung bildet sich nach dem Wechsel sehr schnell zurück. Der große Vorteil des Verfahrens ist die Kalibrierung der kontinuierlichen Messung mit der normalen NIBD-Messung, sodass korrekte Werte angezeigt werden, auch wenn die Finger sich nicht auf Herzhöhe befinden. Damit ist diese Technik ein Brückenschlag zwischen der diskontinuierlichen NIBDMessung, die die Gefahr des Übersehens von schnellen Blutdruckabfällen beinhaltet, und der kontinuierlichen invasiven Messung, deren Anwendung nicht für jeden wünschenswerten Fall indiziert ist und einen nur vom Arzt zu legenden arteriellen Katheter voraussetzt. CNAP genügt dem Bedürfnis nach korrekten, kontinuierlich gemessenen Blutdruckwerten inklusive einer Druckkurve,
a
b ⊡ Abb. 40.4a,b. a: CNAPTM Pod (rechts) mit Controller; b: applizierte Sensormanschette und am Unterarm fixierter Controller. © Dräger Medical GmbH, Lübeck. Alle Rechte vorbehalten
zeigt auftretende Druckänderungen momentan an, kann von jeder eingewiesenen Pflegekraft appliziert werden und bringt für den Patienten kaum die Gefahr von Läsionen. Damit ist CNAP geeignet, die Patientensicherheit zu erhöhen – vor allem bei Eingriffen, die eine Sedierung erfordern (Siebig et al. 2009).
40.2.4 Invasive Druckmessung im Hoch- und
Niederdrucksystem Die invasive Blutdruckmessung ist ein direktes Verfahren zur Ermittlung der Druckverhältnisse im Hoch- oder Niederdrucksystem. Der wesentliche Vorteil gegenüber der konventionellen nichtinvasiven Blutdruckmessung ist die kontinuierliche Verfügbarkeit des Messsignals (Druckkurve) und der Druckwerte. Damit ist die Möglichkeit der Alarmierung bei Unter- oder Überschreiten von vorgegebenen Grenzwerten sowie einer weiteren Signalverarbeitung der gewonnenen Messdaten gegeben.
40
702
Kapitel 40 · Kardiovaskuläres Monitoring
Druckmessung im Hochdrucksystem: Invasiver arterieller Blutdruck
IV
Über einen intraarteriellen Katheter wird eine Verbindung zwischen intravasaler Blutsäule und einem flüssigkeitsgekoppelten Druckwandler hergestellt, der die mechanische Größe Druck in ein elektrisches Signal umsetzt. Der arterielle Druck ist vom Schlagvolumen des linken Herzventrikels und vom Gefäßwiderstand abhängig. Glieder der direkten Druckmesskette (⊡ Abb. 40.5) sind im Wesentlichen: ▬ Kanüle oder arterieller Katheter, ▬ flüssigkeitsgefülltes Schlauchsystem mit Dreiwegehahn,
⊡ Abb. 40.5. Messkette für die invasive Druckmessung
a
b
▬ Druckwandler (wiederverwendbar: mit Druckdom, ohne oder mit abschließender Membran sowie mit separatem oder integriertem Spülsystem; Einmalwandler stets inklusive Spülsystem) mit Monitorkabel, ▬ Monitor.
Druckaufnehmer und Druckübertragung Wiederverwendbare Druckaufnehmer (⊡ Abb. 40.6) bestehen aus einem mechano-elektrischen Druckwandler (Transducer) und einem austauschbaren, flüssigkeitsgefüllten Hohlraum (Druckdom). Der Druckdom (Einmalgebrauch pro Patient) ist über eine integrierte dünne Kunststoffmembran mechanisch direkt mit der Messfläche (Druckwandlermembran) gekoppelt. Über das flüssige Medium (Kochsalzlösung) in der Druckmessleitung und dem Katheter wird die arterielle Druckwelle auf den Druckdom übertragen und bewirkt eine entsprechende Auslenkung der Druckwandlermembran. Die Umwandlung der mechanischen Membranauslenkung erfolgt bei wiederverwendbaren und Einmaldruckwandlern über druckempfindliche Chips, deren elektrische Eigenschaften sich proportional zum Druck verändern. Eine angelegte Spannung bewirkt ein linear druckproportionales elektrisches Signal, das zum Monitor weitergeleitet und dort nach Verstärkung am Bildschirm angezeigt wird. Je größer der Abstand der Katheterspitze zum Herzen ist, umso höhere Druckamplituden werden registriert.
c
⊡ Abb. 40.6a–c. a Wiederverwendbarer Druckwandler; b Schema Einmaldruckwandler; c Wheatstoneschone’sche Brücke (Quelle: BD Deutschland GmbH, Heidelberg)
703 40.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
Eine zeitliche Verzögerung der Registrierung ist bedingt durch die Laufzeit. Aus den jeweiligen Druckverläufen werden elektronisch die systolischen, diastolischen und Mittelwerte errechnet und angezeigt.
Anschlüsse Der Druckdom hat meist zwei Luer-Lock-Anschlüsse, denen jeweils ein Dreiwegehahn aufgesetzt ist. Sie dienen der Druckzuleitung, der Systementlüftung bei der Füllung und der Spülung der Druckmessleitung. Die Druckwandler werden i. d. R. in Halteplatten eingesetzt, die der Befestigung z. B. an einem Infusionsständer in der richtigen Höhe relativ zum Herzen dienen. Für die unterschiedlichen invasiven Druckmessungen sind die Zugangsschläuche und/oder die Steckplätze der Halteplatten oft farblich kodiert: ▬ Rot: arterielle Druckmessung, ▬ Blau: venöse Druckmessung, ▬ Gelb: pulmonalarterielle Druckmessung, ▬ Weiß: sonstige Druckmessung (z. B. intrakranielle Druckmessung).
Anforderungen an ein ideales Drucksystem Ein idealisiertes invasives Druckmesssystem hat folgende Charakteristika, die den heutigen klinischen Anforderungen entgegenkommen: ▬ einfacher und schneller Aufbau des Systems, ▬ leichte Füllbarkeit bei einfacher und sicherer Entlüftung sowie Sichtkontrolle auf Luftblasen, ▬ integriertes Dauerspülsystem mit »Einhandbedienung«, zuverlässige Spülrate auch bei Schnellspülung, ▬ geschlossenes Überdrucksicherheitsventil, ▬ hohe Zuverlässigkeit aller Einzelkomponenten der Druckmesskette, ▬ gute Resonanzfrequenz, ▬ hohe Langzeitstabilität, ▬ Möglichkeiten der Negativkalibrierung, ▬ Arm- und Halterungsmontage, ▬ niedriger Eingangswiderstand (Impedanz).
Messtechnische Anforderungen Die Messung des invasiven Blutdrucks ist, technisch gesehen, eine Differenzdruckmessung zwischen Blutgefäß und Umgebungsdruck (atmosphärischem Druck). Daher muss der Druckwandler vor jeder Messung abgeglichen werden (Nullabgleich, Wandler auf Herzhöhe zur Vermeidung von Messfehlern durch hydrostatische Drücke aus dem Schlauchsystem). Druckwandler sind temperaturabhängig, d. h., bei Temperaturänderung kann der Nullpunkt von seinem eigentlichen Wert abweichen (Nullpunktdrift). Schwächstes Glied in der Messkette ist die mechanische Druckübertragung. Der Druck kann nur exakt
bestimmt werden, wenn alle Komponenten des Systems bestimmte Voraussetzungen erfüllen, wie z. B. hohe statische und dynamische Genauigkeit des Messsystems (Übertragungsverhalten, Eigenfrequenz, Dämpfung u. a.). Die Übertragungseigenschaften hängen von Länge und Dehnbarkeit (Compliance) sowie dem Innendurchmesser des Druckschlauchs ab. Es gilt, möglichst kurze, druckfeste Schlauchverbindungen ohne zusätzliche Steckverbindungen zu verwenden. Alle Komponenten sollten vor jeder Messung auf ihre Funktionalität überprüft werden (blasenfreies Messsystem, sichere Konnektion der einzelnen Systemkomponenten, keine Leckagen). Bei der Verwendung von wiederverwendbaren Druckwandlern ist eine Kalibrierung zur Überprüfung der Funktionsfähigkeit vor jeder Messung empfehlenswert. Das Drucksystem enthält einen schwingungsfähigen Anteil (hydraulisches System: Kanülenspitze bis zur Membran des Druckwandlers) und kann zu Eigenschwingungen angeregt werden, die das Drucksignal verändern. Messtechnisches Ziel ist, die Druckkurve mit Frequenzen bis zu 12 Hz unverfälscht zur Darstellung zu bringen. Unterhalb 20 Hz – hier hat das Drucksignal Frequenzanteile – macht sich die Eigen- bzw. Resonanzfrequenz des Messsystems besonders bemerkbar, d. h., es kommt zu unerwünschten Überlagerungen und Verformungen des eigentlichen Drucksignals. Durch Luftblasen im Messsystem, Koagel an der Katheterspitze oder im Schlauchsystem, diskonnektierten oder losen Druckdom des Druckwandlers, Bewegungsartefakte seitens des Patienten oder eine veränderte Katheterposition wird die Druckkurve gedämpft oder verändert und die Messinformation beeinträchtigt.
Druckmessungen im Niederdrucksystem Ziel von Druckmessungen im Niederdrucksystem ist es, anhand der gewonnenen Messergebnisse Informationen über die Rechtsherzfunktion, den Lungenkreislauf und den Füllungszustand des Gefäßsystems zu erhalten.
Zentralvenöser Druck (ZVD) Über einen zentralvenösen Katheter (ZVK), der am Eingang zum rechten Vorhof des Herzens in der V. cava superior platziert wird, erfolgt über ein Flüssigkeitsmanometer oder einen Druckaufnehmer die Messung des zentralen Venendrucks. Druckwandler haben im Gegensatz zur Wassersäulenmanometrie den Vorteil, dass die Messinformationen kontinuierlich und bestimmte Signalcharakteristika der ZVD-Kurve zusätzlich verfügbar sind. Wegen der kleinen Druckwerte ist es besonders wichtig, dass sich das Druckmesssystem auf Herzhöhe (korrekte Nullpunktpositionierung) befindet, um die Messwertermittlung durch hydrostatische Druckdifferenzen nicht zu verfälschen.
40
704
Kapitel 40 · Kardiovaskuläres Monitoring
des Gefäßsystems, dem Herzzeit- und Blutvolumen, der Compliance des Myokards sowie der Nachlast der rechten Herzkammer.
Die ZVD-Kurve zeigt in ihrem Verlauf die Vorhofkontraktion (a-Welle), den Beginn der Kammerkontraktion (c-Welle) und die Erschlaffungsphase (v-Welle). Der ZVD (engl. CVP) wird nur als Mittelwert angezeigt (ZVD-Kurve und andere Drücke ⊡ Abb. 40.7) und wird im Wesentlichen beeinflusst von der Kapazität
Pulmonalarteriendruck (PAP) und Pulmonalkapillärer Wedge-Druck (PCWP)
⊡ Abb. 40.7. Unterschiedliche Druckkurven und Minitrends im Monitorbild
Zur Überwachung und Messung der Hämodynamik des rechten Herzens wird ein Ballonkatheter durch das Venensystem in den rechten Vorhof, die rechte Herzkammer und von dort durch die Pulmonalklappe in die A. pulmonalis vorgeschoben. Anhand der typischen unterschiedlichen Druckverläufe kann der Weg des Katheters verfolgt werden (⊡ Abb. 40.8). Die richtige Katheterlage ist erreicht, wenn die sog. Wedge-Position (⊡ Abb. 40.9) eingenommen wird, d. h. der aufgeblähte Ballon des Katheters den Pulmonalarterienast verschließt. Liegt die Katheterspitze an der Pulmonalarterienwand (sog. Pseudo-Wedge-Position), kommt es zur Druckkurvendämpfung beim Füllen des Ballons und zum kontinuierlichen Druckanstieg. Obwohl der Katheter im rechten Herzen liegt, kann in Wedge-Position über das distale Lumen auf den Druck des linken Vorhofs geschlossen werden: Der PCWP-Wert entspricht in erster Näherung dem linken Vorhofdruck LAP (linksatrialer Druck)
IV
⊡ Abb. 40.8. Messorte und typische Druckverlaufskurven in verschiedenen Herz- und Gefäßabschnitten
40
705 40.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
und damit dem enddiastolischen Füllungsdruck des linken Ventrikels, da linker Vorhof, Lungenkapillaren und Pulmonalarterie unter normalen Bedingungen während der Diastole eine gemeinsame Druckverbindung bilden.
▬ Lungeninfarkt (durch Katheterokklusion einer peripheren Lungenarterie), ▬ Pulmonalarterienruptur (durch Balloninflation oder die Katheterspitze).
Ballonkatheter Mit unterschiedlichen Ballonkathetern (sog. Einschwemmkatheter, Pulmonaliskatheter oder Swan-Ganz-Katheter), die sich in Länge und Stärke, Anzahl der Lumina, Lage der Lumenaustrittstellen und anderen Charakteristika unterscheiden, können gleichzeitig ZVD, PAP und Körperkerntemperatur sowie intermittierend PCWP und HZV gemessen werden. Darüber hinaus bieten spezielle Ballonkatheter zusätzliche Möglichkeiten wie intrakardiale EKG-Ableitung (z. B. HIS-Bündel-EKG), supraventrikuläre und ventrikuläre Stimulation, Messen der gemischtvenösen Sauerstoffsättigung S vO2 durch Integration einer Fiberoptik, Einführen einer transluminalen Stimulationssonde oder zusätzliche Infusionslumina. Ballonkatheter, die neu gelegt werden oder bereits seit Stunden oder Tagen intravasal verweilen, sind nicht risikofrei und können Komplikationen hervorrufen, die teilweise vom Ort des Katheterzugangs abhängig sind: ▬ supraventrikuläre und ventrikuläre Arrhythmien, ▬ ventrikuläre Tachykardien oder Kammerflimmern (selten), ▬ venöse Thrombosen (besonders bei niedrigem HZV), ▬ Sepsis (mit zunehmender Liegedauer erhöht sich das Risiko),
⊡ Abb. 40.9. PA-Katheter in Wegde-Position
40.2.5 Bestimmung des Herzzeitvolumens
(HZV) Das Herzzeitvolumen, das pro Minute geförderte Blutvolumen, wird in l/min angegeben. Als klassisch gilt die Bestimmung des HZV nach Adolf Fick (Fick’sches Prinzip), dessen Berechnung ganz einfach auf dem Masseerhaltungssatz beruht: HZV ist der Quotient aus Sauerstoffverbrauch (VO2) des Körpers und Sauerstoffgehaltsdifferenz (avDO2) zwischen zum Körper fließendem, arteriellem und vom Körper zurückkommendem, gemischtvenösem Blut: HZV = VO2/avDO2
(40.1)
In der Klinik lässt sich jedoch unter Routinebedingungen eine Sauerstoffverbrauchsmessung nicht mit hinreichender Genauigkeit durchführen.
Dilutionsmethoden In den 1920er Jahren entstanden die grundlegenden Arbeiten von Stewart und Hamilton zur Bestimmung des HZV mittels Farbstoffdilution. Mit der Einführung des Thermistorkatheters durch Swan und Ganz in den 1970er Jahren hat sich von allen bekannten Indikatorverdünnungsmethoden (Farbstoff [dye dilution], Kälte, Ionen, Radioisotope) die Thermodilution mittels Pulmonaliskatheter als sehr praktikabel in der Klinik durchgesetzt. Eine definierte Menge physiologischer Kochsalzlösung (mit einer Temperatur von 0–25°C; je kälter, desto genauer die Messung) wird über den proximalen Port des mehrlumigen Pulmonaliskatheters in den rechten Vorhof eingespritzt. Da das Injektat mit dem strömenden warmen Blut (37°C) vermischt und somit verdünnt wird, kann die Temperaturänderung im Blutstrom mit dem nahe der Katheterspitze liegenden Thermistor gemessen werden. Die Form und die Fläche der Dilutionskurve ändern sich mit dem Herzzeitvolumen. Bei bekannter Temperatur von Injektat und Blut sowie bekanntem Injektatvolumen ermittelt das Messsystem das Herzzeitvolumen aus der Fläche der Thermodilutionskurve (⊡ Abb. 40.10). Die Nachteile dieser Methode sind die Diskontinuität und die Notwendigkeit des Pulmonaliskatheters, dessen Indikation spätestens seit der Studie von Connors et al. (1996) besonders kritisch betrachtet wird. Der Nachteil der Diskontinuität wurde überwunden, indem mit einem speziellen Pulmonaliskatheter Wärmeimpulse an das Blut abgegeben werden und deren Dilutionskurve ausgewertet wird. Da
706
Kapitel 40 · Kardiovaskuläres Monitoring
▬ der Parameter EVLW als Maß für das extravaskuläre Lungenwasser und ▬ (bei beatmeten Patienten ohne Arrhythmie) die Schlagvolumenvariation SVV.
IV
⊡ Abb. 40.10. Monitorfenster zur HZV-Messung: Aus einer Reihe von Messungen werden Fehlmessungen gestrichen und ein Mittelwert gebildet
Wärmeimpulse in recht kurzen Abständen (30–60 s) applizierbar sind, entsteht praktisch eine kontinuierliche Messung.
Die letzten Parameter dienen einem optimalen Flüssigkeitsmanagement, insbesondere bei Schockpatienten, wo es wichtig ist, den Kreislauf und damit die Sauerstoffversorgung zu stabilisieren und ein Lungenödem zu vermeiden bzw. rechtzeitig zu erkennen. Weitere invasive Verfahren nutzen die Pulskonturmethode bzw. Pulswellenanalyse allein (Vigileo, Fa. Edwards Lifesciences) oder in Kombination mit der Lithiumionen-Dilution (LiDCO, Fa. LiDCO). Weiterhin wird die kontinuierliche Messung der gemischt venösen Sättigung SvO2 mittels Fiberoptik in einem Pulmonaliskatheter zur Abschätzung von Veränderungen des HZV verwendet.
Die PiCCO-Technologie Die Thermodilution lässt sich prinzipiell auch transpulmonal durchführen: Der Kältebolus durchläuft die Lunge und ein Thermistor im arteriellen System nimmt die Verdünnungskurve auf. Der Kältebolus wird wie bei normaler Thermodilution, jedoch mit einem normalen, bei Intensivpatienten üblichen zentralvenösen Katheter in den rechten Vorhof injiziert, der Temperaturverlauf aber (vorzugsweise) in der A. femoralis gemessen. Vorteilhaft bei dieser Methode ist, dass sie weniger invasiv ist (Wegfall des Pulmonaliskatheters und damit der o.g. Gefährdungen) und dass respiratorische Einflüsse auf die Messung reduziert werden. Die PiCCO-Technologie (1997 von Pulsion Medical Systems in den Markt eingeführt; von PCCO = Pulse Contour Cardiac Output) ist eine Kombination von transpulmonaler Thermodilution (als HZV-Messung) und Pulskonturanalyse (als kontinuierliche Bestimmung der Änderungen des HZV). Dabei wird aus der invasiv gemessenen arteriellen Druckkurve Schlag für Schlag auf das HZV geschlossen. Zuvor ist die Kalibration mittels der Thermodilution erforderlich, die spätestens alle acht Stunden wiederholt werden sollte. Der große Wert der PiCCO-Methode liegt nicht allein in der weniger invasiven und kontinuierlichen HZV-Messung, sondern in den außerordentlich wertvollen Parametern für die Beurteilung des Kreislaufes und der Volumensituation des Patienten, die völlig ohne weiteren Aufwand vom Monitor ermittelt werden. Dies sind v.a. ▬ die Vorlastindikatoren GEDV (Global enddiastolisches Volumen) und Intrathorakales Blutvolumen (ITBV), die wesentlich sensitiver und spezifischer sind als die Füllungsdrücke ZVD und Wedge-Druck, ▬ die Kontraktilitätsmaße dP/dtmax (maximaler Druckanstieg) und GEF (Globale Ejektionsfraktion), ▬ der systemische Gefäßwiderstand SVR als Maß für die Nachlast,
Impedanzkardiographie Es ist schon lange bekannt, dass das mit jedem Herzschlag ausgestoßene Blutvolumen (Schlagvolumen) zu messbaren Schwankungen der Thoraximpedanz führt. Und es gab Versuche, Schlagvolumen und HZV aus den mit vier Elektrodenanordnungen erfassten Schwankungen der thorakalen elektrischen Bioimpedanz (TEB) zu bestimmen (Nyboer 1950). Über die äußeren, an Hals und Thorax angeordneten Ringelektroden (oder spezielle Doppelelektroden, ⊡ Abb. 40.11) wird ein schwacher hochfrequenter Konstantstrom (z. B. 2,5 mA, 70 kHz) durch den Thorax geleitet. Der Strom sucht sich den Pfad des geringsten Widerstands, nämlich im Wesentlichen die blutführende Aorta. Über die inneren Messelektroden wird der Spannungsabfall stromlos gemessen, sodass die thorakale Impedanz weitgehend unabhängig vom Übergangswiderstand ermittelt werden kann. Die Basisimpedanz Z0 beträgt etwa 35 Ω. Ihr sind Schwankungen überlagert, die von der Atmung und vom pulsierenden Blutfluss in der Aorta stammen. Die Atemsignale interessieren hier nicht und werden ausgefiltert. Die höherfrequenten Impedanzschwankungen ΔZ(t) (Amplitude ca. 0,15 Ω) stellen das Impedanzkardiogramm (IKG) dar, aus dem mittels bestimmter Modellannahmen und verfeinerten Methoden das Schlagvolumen und das HZV ermittelt werden können (Osypka u. Bernstein 1999). In den 90er Jahren wurde der Impedanzkardiograph »BioZ.com« (Bio-Impedanz[Z] cardiac output monitor) der kalifornischen Firma CardioDynamics entwickelt, dessen Messgenauigkeit und Reproduzierbarkeit durch klinische Studien belegt wurde (Yung et al. 1999). Dieser ist bis heute der einzige, der als Spezialmodul Eingang ein Patientenüberwachungssystem (Solar von GE Medical Systems) gefunden hat.
40
707 Weiterführende Literatur
nalvaskuläre Widerstand (Pulmonary Vascular Resistance): PVR = (PAPm–PCWP)/HZV
(40.3)
Als Maßeinheit hat sich hier international dyn*s/cm5 gehalten (entstanden aus der alten Druckeinheit dyn/cm2, dividiert durch den Volumenfluss cm3/s). Monitore bieten i. d. R. Berechnungsprogramme an, mit denen auch weitere zirkulatorische Kenngrößen (z. B. Herzarbeit) und – wenn zusätzlich Blutgase und Atemgase gemessen werden – auch Sauerstoffangebot (DO2) und Sauerstoffaufnahme (VO2) berechnet werden können ( Anhang B: Organprofile und Tabellen).
⊡ Abb. 40.11. Je zwei Doppelelektroden werden seitlich an Hals und Thorax appliziert. Aus dem Spannungsabfall zwischen den Messelektroden wird die Impedanz ermittelt
Die Impedanzkardiographie hat folgende Vorteile: ▬ völlig nichtinvasiv, ▬ kein Patientenrisiko, ▬ kontinuierliche Schlag-zu-Schlag-Messung, ▬ leicht applizierbar. Die Methode ist nicht indiziert bei septischem Schock, Aortenklappendefekt mit Regurgitation, Patientengröße <1,20 m, Patientengewicht <30 kg oder >155 kg, Einsatz einer aortalen Ballonpumpe oder Operationen am offenen Thorax. Bei allen Vorteilen hat vermutlich v.a. die Nichteinsetzbarkeit z. B. bei septischem Schock, wo es gerade auf genaue Beobachtung der hämodynamischen und volumetrischen Parameter ankommt, dazu geführt, dass sich das IKG bis heute nicht in der Patientenüberwachung etabliert hat. Hier ist die PiCCO-Technologie eindeutig führend.
40.2.6 Berechnung hämodynamischer
Größen Aus den Messgrößen Druck und Fluss lassen sich die Gefäßwiderstände errechnen. Der totale periphere Gefäßwiderstand (TPR; engl. auch: Systemic Vascular Resistance, SVR) ist der Widerstand des Körperkreislaufes und mathematisch einfach der Quotient aus treibender Druckdifferenz (arterieller Mitteldruck APm minus zentralvenöser Druck ZVD) und dem Fluss (HZV): SVR = (APm–ZVD)/HZV
(40.2)
Im kleinen Kreislauf ist die Druckdifferenz der pulmonale Mitteldruck minus Wedgedruck PCWP (als Maß für den linken Vorhofdruck). Damit ist der pulmo-
Weiterführende Literatur Buchwalsky R (1996) Einschwemmkatheter, 4. Aufl. Perimed-spitta, Balingen Connors AF et al. (1996) The Effectiveness of Right Heart Catheterization in the Initial Care of Critically Ill Patients, JAMA 276: 889–897 Della Rocca G et al. (2002) Continuous and Intermittent Cardiac Output Measurement: Pulmonary Artery Catheter versus Aortic Transpulmonary Technique, Br J Anaesth 88(3): 350–356 Dueck R, Jameson LC (2006) Reliability of Hypotension Detection with Noninvasive Radial Artery Beat-to-Beat versus Upper Arm Cuff BP Monitoring, Presented at the Society for Technology in Anesthesia, Annual Meeting San Diego, CA, January 17–21 Eckert S (2006) 100 Jahre Blutdruckmessung nach Riva-Rocci und Korotkoff: Rückblick und Ausblick. Journal für Hypertonie 10(3), 7–13 Haufe G et al. (1998) Medizintechnik in der Intensivmedizin. ExpertVerlag, Renningen-Malmsheim (Kontakt & Studium Bd. 546) Lake CL, Hines RL, Blitt CD (2001) Clinical Monitoring: Practical Applications for Anesthesia and Critical Care, 1st ed. W.B. Saunders Company, Philadelphia Lawin P (Hrsg) (1994) Praxis der Intensivbehandlung, 6. Aufl. Thieme, Stuttgart List WF (1989) Kardiovaskuläres Monitoring. In: List WF, Oswald PM (Hrsg) Intensivmedizinische Praxis. Springer, Berlin Heidelberg New York Tokyo, S 41–62 Mieke S (1991) Non-Invasive Blood Pressure Measurement. In: Bulletin OIML-N° 125/12: 18–28 Nyboer J (1950) Electrical Impedance Plethysmography. A Physical and Physiologic Approach to Peripheral Vascular Study. Circulation 2: 811821 Osypka MJ, Bernstein DP (1999) Electrophysiological Principles and Theory of Stroke Volume Determination by Thoracic Electrical Bioimpedance. AACN Clin Issues 10/3: 385399 Penaz J (1973) Photoelectric Measurement of Blood Pressure, Volume and Flow in Finger; Digest of the 10th Int. Conf. on Medical and Biological Engineering, 104 Pickering GT, Hall JE, Appel LJ, Falkner BE, Graves J, Hill MN, Jones DW, Kurtz T, Sheps SG, Rocella EJ (2005) Recommendations for Blood Pressure Measurement in Humans and Experimental Animals: Part 1: Blood Pressure Measurement in Humans: A Statement for Professionals From the Subcommittee of Professional and Public Education of the American Heart Association Council on High Blood Pressure Research: Hypertension 45; 142–161 Shoemaker WC, Velmahos GC, Demetriades D (2002) Procedures and Monitoring for the Critically Ill. W.B. Saunders Company, Philadelphia
708
Kapitel 40 · Kardiovaskuläres Monitoring
Siebig S, Rockmann F, Sabel K, Zuber-Jerger I, Dierkes C, Brünnler T, Wrede CE (2009) Continuous Non-Invasive Arterial Pressure Technique Improves Patient Monitoring during Interventional Endoscopy. Int J Med Sci 6, 37–42 Yung GL, Fletcher CC, Fedullo PF et al. (1999) Noninvasive Cardiac Index Using Bioimpedance in Comparison to Direct Fick and Thermodilution Methods in Patients with Pulmonary Hypertension. Chest 116: 4 (Suppl 2), 281
IV
41 Respiratorisches Monitoring und Pulsoxymetrie U. Hieronymi, R. Kramme, H. Kronberg
41.1 Atemmechanik
– 709
41.1.1 Überwachung der Atemfrequenz (AF) 41.1.2 Druck und Strömung – 710
41.2 Gasaustausch 41.2.1 41.2.2 41.2.3 41.2.4
– 709
– 711
Vorbemerkungen zum Gasmonitoring Pulsoxymetrie – 713 Transkutane Blutgasmessung – 717 Messung der Atemgase – 718
– 711
41.3 Kapnographie – 721 Literatur
– 724
Weiterführende Literatur
– 724
Das respiratorische Monitoring beinhaltet die Messung, Beurteilung und Überwachung von Messgrößen des respiratorischen Systems, die sich gliedern in ▬ Messgrößen der Atemmechanik und der maschinellen Beatmung (Atemfrequenz, -volumen und -druck) sowie ▬ Messgrößen des Gasaustauschs (Atemgase, Blutgase und Anästhesiegase). Ventilation und Oxygenation stehen im Mittelpunkt der Überwachung bei der maschinellen Beatmung im OP oder auf Intensivstationen ( Kap. 25 »Langzeitbeatmungsgeräte« und Kap. 28 »Anästhesiegeräte«). Das Monitoring der Beatmungsparameter und der inspiratorischen Sauerstoffkonzentration erfolgt über das Beatmungsgerät (syn. Respirator, engl.: ventilator). Kardiovaskuläre Parameter, Blutgase sowie ggf. Narkosegase (soweit nicht vom Anästhesiegerät selbst gemessen) werden i. d. R. mittels eines separaten Patientenmonitors überwacht.
41.1
pliance (Dehnbarkeit) der Lunge und den Atemwegswiderständen abhängt. Die Aspekte der Lungenfunktionsdiagnostik ( Kap. 11) stehen im Monitoring nicht im Vordergrund, sind jedoch eng verwandt.
41.1.1 Überwachung der Atemfrequenz (AF)
Die Atemfrequenz ist ein Vitalparameter, der insbesondere bei spontan atmenden Patienten im neonatologischen Monitoring eine große Rolle spielt ( Kap. 45). Sie lässt sich vorzugsweise ermitteln ▬ aus der Impedanzpneumographie (indirektes Verfahren), ▬ aus der Kapnographie (indirektes Verfahren). Die so genannte akustische Atemfrequenz wird mit einem ganz neuen Verfahren und Sensor gemessen (Masimo Corporation 2010), dessen Bedeutung hier noch nicht abgeschätzt werden kann.
Atemmechanik Prinzip der Impedanzpneumographie U. Hieronymi, R. Kramme
Atemmechanik im Monitoring ist in erster Linie die Beschreibung der für die Ventilation notwendigen mechanischen Vorgänge des Thorax in Form von DruckVolumen-Beziehungen. Insbesondere interessieren beim beatmeten Patienten der Atemwegsdruck und die Atemvolumina, deren Größe und Verhalten v.a. von der Com-
Mit der Ein- und Ausatmung ist eine Zu- bzw. Abnahme des Thoraxvolumens verbunden. Durch die Volumenzunahme während der Inspirationsphase erhöht sich der Wechselstromwiderstand (die Impedanz) des Thorax, Volumenabnahme bedeutet Verringerung der Thoraximpedanz. Um dies zu erfassen, wird ein sehr geringer, hochfrequenter Konstantstrom (unter 10 μA bei ca. 40 kHz) durch zwei Thoraxelektroden geleitet. Es werden dafür
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _41, © Springer-Verlag Berlin Heidelberg 2011
710
Kapitel 41 · Respiratorisches Monitoring und Pulsoxymetrie
die EKG-Elektroden genutzt, i. d. R. die der Ableitung II oder ggf. wählbar die der Ableitung I. Eine Impedanzänderung bewirkt bei Konstantstrom eine synchrone Änderung des Spannungsabfalls. Diese Schwankungen werden als Impedanzpneumogramm (oder Atemkurve) auf dem Monitor dargestellt, und die Atemfrequenz wird daraus ermittelt. Das Signal ist sehr anfällig für Bewegungsartefakte, da jede Bewegung des Körpers die Thoraximpedanz beeinflusst.
IV
Frequenzermittlung Angezeigt wird ein gleitendes Mittel der gezählten Atemzüge pro Minute. Bei manchen Monitoren muss die Atemkurve nur eine einfache einstellbare Triggerschwelle überschreiten, und dies wird bereits als gültiger Atemzug gewertet. Selbst kleine Artefakte können so leicht zu einer Falschzählung führen. Besser und sicherer als nur die Zählung der positiven Durchgänge der Impedanzkurve durch die einfache Triggerschwelle ist die Kombination einer oberen und einer unteren Schwelle, deren Abstand einstellbar ist. Damit das Impedanzsignal beide Schwellen nach oben und nach unten schneidet, muss die so aufgespannte Mindestamplitude überschritten werden. Die Tiefe der Atemaktion – und nicht nur ihr einfacher Triggerdurchgang – entscheidet also, ob sie als gültiger Atemzug gewertet und für die Frequenzermittlung gezählt wird.
Apnoeüberwachung Die Zählung der Atemaktionen macht es auch möglich, auftretende Atempausen bzw. Apnoen zu überwachen. Wird innerhalb des Zeitfensters, das durch die einstellbare Überwachungsgrenze »Apnoezeit« festgelegt wird, kein Atemzug erkannt, erfolgt ein Apnoealarm. Zu beachten ist, dass auch jeder Herzschlag eine messbare Impedanzänderung im Thorax verursacht, die im Impedanzpneumogramm sichtbar sein kann. Wird die Triggerschwelle bzw. die Mindestamplitude in solchen Fällen zu klein eingestellt, so wird nicht die Atemfrequenz, sondern eher die Herzfrequenz gezählt (Kardifakt). Apnoen können dann übersehen werden. Monitore sind insbesondere im Modus für neonatologische Überwachung in der Lage zu ermitteln, ob sich Atemfrequenz und Herzfrequenz stark annähern oder gleichen und derartige Kardifakte zu alarmieren. (Zur Bedeutung der Atemüberwachung auch Kap. 45 »Neonatologisches Monitoring«.)
41.1.2 Druck und Strömung
Atemvolumen, Atemwegsdruck und deren zeitlicher Verlauf (Anstiege und Atemfrequenz) werden bei beatmeten Patienten durch Einstellungen am Beatmungs- bzw. Anästhesiegerät vorgegeben ( Kap. 25 und 28). Für die
Fälle, in denen die Anzeigen der Geräte nicht genügend diagnostischen Informationen bereitstellen, gibt es im Monitoring Module für die Überwachung der Atemmechanik. Ein spezieller Flowsensor misst im Hauptstrom die inspiratorischen und exspiratorischen Gasströmungen und Volumina sowie den Atemwegsdruck. Auf dem Monitor können sowohl die zeitlichen Verlaufskurven von Flow, Druck und Volumen als auch Flow-Volumen- und Druck-Volumen-Loops (F/V- und P/V-Loops) angezeigt werden. Als Parameter werden z. B. inspiratorische und exspiratorische Atemzugvolumina, Minutenvolumina, Maximalflows und Atemwegswiderstände, maximaler und mittlerer Atemwegsdruck, PEEP (positiver endexspiratorischer Druck), Atemfrequenz und Inspirations-Exspirations-Verhältnis (I:E) sowie die Lungen-Compliance angezeigt und stehen im Trend zur Verfügung. Wenn diese Messungen mit der Kapnographie kombiniert werden, können zusätzlich die CO2-Produktion, die alveoläre Ventilation sowie anatomische und physiologische Totraumverhältnisse ermittelt werden. All diese Parameter dienen der Diagnose und Therapiekontrolle bei beatmeten Patienten.
Strömungssensor mit fixierter Öffnung Wenn patientennah direkt zwischen Tubus und Y-Stück des Beatmungsschlauches im Hauptstrom gemessen wird, kommt es darauf an, einen robusten, leicht applizierbaren Sensor zu haben, der geringen Totraum und Strömungswiderstand hat und ohne Kalibrationsprozeduren trotz der dauerfeuchten Gase zuverlässig Messergebnisse liefert. Der in der Funktionsdiagnostik zur Strömungsmessung meist angewendete Pneumotachograph ( Kap. 11 »Lungenfunktionsdiagnostik«) ist dazu nicht geeignet, da er zu schnell verstopfen würde. Beim Einsatz in der Langzeitbeatmung hat sich ein spezieller Sensor bewährt, der mittels Differenzdruckmessung an einem Strömungswiderstand in Form einer fixierten Öffnung die Gasströmungen in beiden Richtungen misst. Diese Anordnung wird durch Kondensat weniger schnell beeinträchtigt und kann mit so geringem Totraum konstruiert werden, dass sie selbst bei Neonaten zum Einsatz kommen kann. Die nichtlineare Beziehung zwischen Druckdifferenz und Flow wird durch Mikroprozessor-Einsatz kompensiert.
Unterschiedliche Messwerte von Modul und Beatmungsgerät Beatmungsgeräte messen Druck und Volumen i.d.R. patientenfern im Gerät, während das Atemmechanikmodul patientennah misst. Neben der Compliance der Atemschläuche spielt insbesondere die Messtemperatur eine große Rolle für die angezeigten Volumina. Patientennah wird praktisch bei Körperkerntemperatur (ca.
41
711 41.2 · Gasaustausch
37°C) gemessen. Diese Gasbedingungen werden als BTPS bezeichnet (Body Temperature and Pressure, Saturated = Körpertemperatur und -druck, wasserdampfgesättigt). Im Gerät herrscht für die Exspiration die Bedingung ATPS (Ambient Temperature Pressure, Saturated = Umgebungstemperatur und -druck, wasserdampfgesättigt) und genau genommen ATPD (Ambient Temperature and Pressure, Dry) für die Inspiration, da trockene Gase vorliegen, die erst auf dem Weg zum Patienten angefeuchtet werden. Es herrscht also ein erheblicher Temperaturunterschied zwischen den beiden Messstellen, der zu merklichen Volumendifferenzen führt. Aus den Gasgesetzen ergibt sich für 22°C Umgebungstemperatur: V(BTPS) = V(ATPS) × (273,15 + 37)/(273,15 + 22) = 1,05 × V(ATPS) (41.1) Der Volumenmesswert bei Körpertemperatur ist also etwa 5% höher als bei 22°C Umgebungstemperatur. Als Ergänzung sei die Bedingung STPD genannt (Standard Temperature and Pressure, Dry) genannt, die auf die Standardtemperatur 0°C, den Standarddruck 760 mmHg und trocken (Wasserdampfpartialdruck = 0 mmHg) festgelegt wurde.
Als Stoffwechselprodukt entsteht im Körper ständig Kohlendioxid CO2, das teilweise ebenfalls im Blutplasma gelöst ist, im Wesentlichen jedoch als Bikarbonat und durch Anlagerung an eine NH2-Gruppe des Hämoglobins chemisch gebunden zurück zu den Alveolen transportiert wird. Während bei Blutgasanalyse (BGA) immer nur die Gase Sauerstoff und Kohlendioxid gemessen werden, ist in den Atemgasen erforderlichenfalls zusätzlich die Konzentration von Lachgas und volatilen Anästhetika zu überwachen. Man misst die Atemgase oft als Konzentration in Volumenprozent (Vol%), die Blutgase aber als Partialdrücke in mmHg (= Torr) oder kPa. Beide Größen lassen sich ineinander umrechnen. Es wäre zwar grundsätzlich physiologisch sinnvoll, nur Partialdrücke unter den Körperbedingungen BTPS zu betrachten, doch hat die Gasmischtechnik historisch dazu geführt, insbesondere eingeatmete Gase als Volumenkonzentration eines trockenen Gasgemisches unter Standardbedingungen STPD anzugeben. In einem Gemisch aus idealen Gasen mit den Konzentrationen Ci (Vol%) ist der Partialdruck Pi eine Komponente des konzentrationsproportionalen Anteils am Gesamtdruck (hier stets der Luftdruck Pbaro): Pi = Ci × Pbaro
41.2
(41.2)
Gasaustausch
Entsprechend ist der Gesamtdruck die Summe der Partialdrücke jeder einzelnen Gaskomponente:
H. Kronberg, U. Hieronymi
P1 + P2 + ... + Pn = C1 × Pbaro + C2 × Pbaro + ... + Cn × Pbaro = Pbaro (41.3)
Unter dem Oberbegriff »Gasaustausch« lassen sich Messmethoden und Messgrößen der Atemgase, Blutgase und Anästhesiegase als sog. Gasmonitoring zusammenfassen.
41.2.1 Vorbemerkungen zum Gasmonitoring
Es gibt sehr unterschiedliche Bedingungen, unter denen Atemgase oder Blutgase eines Patienten überwacht werden müssen: Spontanatmung oder Beatmung mit oder ohne Sauerstoffanreicherung. Bei Narkosebeatmung kommen z. B. Lachgas N2O oder volatile Anästhetika hinzu. In den Lungenalveolen haben die Atemgase über eine kurze Diffusionsstrecke durch die Alveolar- und Kapillarwände Kontakt mit dem Blut. Sauerstoff (O2) löst sich zunächst im Blutplasma und diffundiert dann weiter in die roten Blutkörperchen (Erythrozyten), die den roten Blutfarbstoff Hämoglobin (Hb) als Sauerstofftransportmittel enthalten. Sauerstoff wird nicht direkt an Hb gebunden, sondern nur jeweils an das Eisenatom der vier Hämgruppen angelagert. Damit kann ein Molekül Hb bis zu vier Moleküle Sauerstoff transportieren und wiederum leicht abgeben, wenn es durch die Blutbahn in umgebende Gewebestrukturen gelangt ist, die einen geringeren Sauerstoffpartialdruck aufweisen. Hb wird also nicht oxidiert, sondern oxygeniert und wieder desoxygeniert.
Normale Atemluft mit der bekannten Zusammensetzung (⊡ Tab. 41.1) wird beim Einatmen auf 37°C angewärmt und durch die Anfeuchtung in den Atemwegen mit einem neu hinzutretenden Gas vermischt: dem Wasserdampf. Der Wasserdampf-Partialdruck PH2O ist bei voller Wasserdampfsättigung ausschließlich temperaturabhängig und beträgt 47 mmHg bei 37°C. Das sind 6,2 Vol% (= (47/760) × 100 Vol%) bei Standardumgebungsdruck Pbaro = 760 mmHg. Die Atemluft nimmt nun – in ihrer sonst unveränderten Zusammensetzung – nur noch 93,8% des Volumens ein, Sauerstoff hat also in diesem feuchten Gas nur noch eine Konzentration von 19,7% (= 0,938 × 21%) oder einen Partialdruck von 19,7% × 760 mmHg = 150 mmHg. In den Alveolen mischt sich verbliebenes Exspirationsgas mit diesem Frischgas, sodass sich ein spürbar
⊡ Tab. 41.1. Zusammensetzung von Luft Bestandteil
Abkürzung
Anteil (Vol%)
Sauerstoff
O2
ca. 21
Stickstoff
N2
ca. 78
Argon
Ar
ca. 1
Kohlendioxid
CO2
ca. 0,03
712
IV
Kapitel 41 · Respiratorisches Monitoring und Pulsoxymetrie
niedrigerer alveolärer O2-Partialdruck PAO2 mit einem Normalwert von ca. 100 mmHg (= 13,33 kPa) ergibt (Umrechnung: 1 kPa = 1 kN/m2; 100 kPa = 750 mmHg; 1 mmHg = 0,133 kPa). Die Differenz zwischen den Partialdrücken eines Gases ist die treibende Kraft für die Diffusion. In der Lunge ankommendes venöses Blut hat den geringeren venösen Sauerstoffpartialdruck PvO2, der sich in den Kapillaren durch den Gasaustausch bei idealer Ventilation dem alveolären Partialdruck praktisch angleicht. Da nicht alles Blut am Gasaustausch teilnimmt, ergibt sich in der Praxis eine alveolo-arterielle Sauerstoffdifferenz AaDO2 von 10–20 mmHg beim gesunden Menschen. Venöses Blut transportiert CO2 zur Lunge, die eingeatmete Luft enthält fast kein CO2. Der Gasaustausch führt zu einem normalen alveolären CO2-Partialdruck PACO2 von ca. 40 mmHg (= 5,3 kPa). Die Spontanatmung ist primär auf eine Stabilisierung des CO2-Partialdrucks und pH-Werts im Blut gerichtet, während große Schwankungen im O2-Partialdruck toleriert werden. Es ist sinnvoll, auch im Atemgas Kohlendioxid als Partialdruck und nicht als Volumenkonzentration zu messen, da Letztere luftdruckabhängig ist. Wie oben erwähnt, wird der Sauerstoff im Wesentlichen von den Erythrozyten transportiert. Hämoglobin bindet etwa 70-mal mehr O2, als das Blutplasma lösen kann. Die Menge Sauerstoff im Blut wird Sauerstoffgehalt (Content) genannt und in ml O2 pro dl Blut gemessen. Zusammen mit dem Herzminutenvolumen bestimmt sie entscheidend den Sauerstofftransport im Blutkreislauf. Wie viel Hämoglobin mit Sauerstoff beladen wird, hängt vom O2-Partialdruck im Blut ab und wird als Sauerstoffsättigung angegeben, dem prozentualen Verhältnis von oxygeniertem Hämoglobin zur Gesamthämoglobinmenge. Ein Gramm Hämoglobin (Hb) kann ca. 1,34 ml Sauerstoff transportieren, der Löslichkeitsfaktor für 1 ml Sauerstoff in 1 dl Blut beträgt etwa 0,003 pro mmHg. Arterieller und venöser Sauerstoffgehalt ergeben sich demzufolge als: CaO2 = 1,34 × Hb × SaO2/100 + PaO2 × 0,003
(41.4)
und entsprechend CvO2 = 1,34 × Hb × SvO2/100 + PvO2 × 0,003
(41.5)
Dabei sind SaO2 und SvO2 die arterielle bzw. venöse Sauerstoffsättigung in Prozent, Hb der Hämoglobingehalt des Blutes in g/dl sowie PaO2 und PvO2 der arterielle bzw. venöse Sauerstoffpartialdruck in mmHg. Die arterio-venöse Sauerstoffdifferenz avDO2 ist also im Gegensatz zur AaDO2 keine Partialdruckdifferenz, sondern eine Content-Differenz, die etwas über den Sauerstoffverbrauch des Organismus aussagt. Eine Zusammenfassung von Begriffen und Maßeinheiten zum Sauerstofftransport zeigt ⊡ Tabelle 41.2. Neben dem funktionellen Hämoglobin Hb (Desoxyhämoglobin), das zur Sauerstoffaufnahme zur Verfügung
steht, und O2Hb (Oxyhämoglobin), das bereits mit Sauerstoff gesättigt ist, gibt es eine Reihe dysfunktioneller HbDerivate, deren häufigste Vertreter COHb (Carboxy-Hb, das durch Kohlenmonoxid vergiftete Hb) und MetHb (Methämoglobin) meist in Anteilen von unter 5% bzw. 1% im Blut enthalten sind. Während die Menge physikalisch im Blut gelösten Sauerstoffs einfach proportional zum Sauerstoffpartialdruck ist (zweiter Summand der obigen Content-Berechnung), wird der wesentlich komplexere Zusammenhang zwischen dem PO2 und dem Grad der Hämoglobinoxygenation, d. h. der Sauerstoffsättigung, durch die Sauerstoffbindungskurve (Synonyme: O2-Dissoziationskurve, O2-Sättigungskurve) des Hämoglobins dargestellt (⊡ Abb. 41.1). Lage und Form der O2-Bindungskurve hängen von verschiedenen Faktoren im Blut ab, wie z. B.: ▬ pH-Wert und PCO2, ▬ Temperatur, ▬ Hämoglobintyp (fetal oder adult), ▬ Anteil dysfunktioneller Hb-Derivate (COHb, MetHb), ▬ Enzymgehalt (2,3 DPG). Einige Abweichungen vom Normalwert führen zu einer verbesserten O2-Versorgung. Bei Fieber oder erhöhtem PCO2 ist z. B. die Bindungskurve rechtsverschoben, sodass Sauerstoff leichter an die Zellen abgegeben wird. Gebirgsbewohner haben einen erhöhten 2,3-DPG-Gehalt, der ebenfalls eine Rechtsverschiebung zur Folge hat. Eine Kohlenmonoxidvergiftung mit der Bildung hoher Konzentrationen von COHb ist hingegen begleitet von einer Linksverschiebung der Bindungskurve, sodass das ohnehin verminderte verbliebene funktionelle Hämoglobin den Sauerstoff obendrein schwerer wieder abgibt. Gefährdungen durch verminderte O2-Versorgung können im arteriellen Blut sowohl durch Überwachung des arteriellen O2-Partialdrucks PaO2 als auch der Sauerstoffsättigung SaO2 rechtzeitig erkannt werden. Während früher zu diesem Zweck arterielle Blutproben im Laboranalysator nur in größeren Zeitabständen untersucht werden konnten, stehen inzwischen für beide Messgrößen nichtinvasive kontinuierliche Überwachungsverfahren zur Verfügung: die Pulsoxymetrie ( Abschn. 41.2.2) zur Bestimmung des SpO2 als Maß der arteriellen O2-Sättigung sowie die transkutane Blutgasmessung ( Abschn. 41.2.3) von PtcO2 (und PtcCO2) als Korrelate der arteriellen Gaspartialdrücke PaO2 (und PaCO2). Wichtige Begriffe zu physiologischen O2-Mangelzuständen sind: ▬ Hypoxie = geringer Sauerstoffpartialdruck (PaO2), ▬ Hypoxygenation = geringe Sauerstoffsättigung des Hämoglobins (SaO2), ▬ Hypoxämie = geringer Sauerstoffgehalt im Blut (CaO2), ▬ Anämie = geringer Hämoglobingehalt im Blut (Hb).
713 41.2 · Gasaustausch
⊡ Tab. 41.2. Begriffe und Maßeinheiten im Zusammenhang mit dem Sauerstofftransport Messgröße
Abkürzung
Einheit
Hämoglobingehalt
Hb
g/dl
Sauerstoffpartialdruck (engl. oxygen tension)
mmHg oder kPa
– arteriell
PaO2
– alveolär
PAO2
– venös
PvO2
– transkutan gemessen
PtcO2
Alveolo-arterielle Sauerstoffdifferenz
AaDO2 = PAO2 – PaO2
Sauerstoffsättigung
mmHg oder kPa %
– arteriell
SaO2
– gemischtvenös
SvO2
– zentralvenös
ScvO2
– pulsoxymetrisch ermittelt
SpO2
Sauerstoffgehalt (content)
ml/dl
– arteriell
CaO2
– gemischtvenös
CvO2
Arteriovenöse Sauerstoffdifferenz
avDO2 = CaO2 – CvO2
ml/dl
Sauerstoffverfügbarkeit (availability)
DO2 = HZV * CaO2 * 10
ml/min (HZV = Herzzeitvolumen in l/min)
Sauerstoffverbrauch (consumption)
VO2 = HZV * avDO2 * 10
ml/min
ders zur Überwachung des O2-Mangels. Andererseits ist bereits bei einem normalen PaO2 von ca. 90–95 mmHg fast das gesamte Hämoglobin oxygeniert. Die pulsoxymetrische Überwachung einer Obergrenze hat insbesondere bei Sauerstoffgaben keine Aussagekraft mehr, und die transkutane Blutgasmessung ist vorzuziehen. Am häufigsten wird deshalb die transkutane Blutgasüberwachung zur Vermeidung von Hyperoxien bei Frühgeborenen eingesetzt; längerwährende Hyperoxien führen bei ihnen zu irreversibler Erblindung.
41.2.2 Pulsoxymetrie
⊡ Abb. 41.1. Sauerstoffbindungskurve des Hämoglobins unter Normalbedingungen (Temperatur 37°C; pH 7,4).
Die O2-Bindungskurve in ⊡ Abb. 41.1 lässt erkennen, dass bei Sauerstoffmangel schon geringe Änderungen des PaO2 große SaO2-Änderungen bedeuten, die O2-Sättigung ist also eine sehr empfindlich reagierende Größe bei O2Mangel und deshalb eignet sich die Pulsoxymetrie beson-
Die Pulsoxymetrie ist ein nichtinvasives Verfahren zur kontinuierlichen Messung der Sauerstoffsättigung im arteriellen Blut. Der Parameter wird nicht SaO2, sondern SpO2 genannt, um zu kennzeichnen, dass die Sauerstoffsättigung pulsoxymetrisch ermittelt wird, und auf den prinzipiellen Unterschied hinzuweisen.
Funktionelle und fraktionelle Sättigung Der Wert SpO2 aus der Pulsoxymetrie ist stets die so genannte funktionelle Sättigung – das Oxyhämoglobin als Prozentsatz des gesamten funktionellen Hämoglobins, das Sauerstoff transportieren kann:
41
714
Kapitel 41 · Respiratorisches Monitoring und Pulsoxymetrie
SpO2 = O2Hb/(O2Hb + Hb) × 100%
(41.6)
Mit Labor-CO-Oxymetern wird jedoch die fraktionelle Sättigung bestimmt – das Oxyhämoglobin als Prozentsatz des gesamten gemessenen Hämoglobins, einschließlich der dysfunktionalen Hämoglobin-Derivate, z. B. Carboxyhämoglobin oder Methämoglobin: SaO2 = O2Hb/(O2Hb + Hb + COHb + MetHb) × 100% (41.7)
IV
Dieser fundamentale Unterschied zwischen SpO2 aus der Pulsoxymetrie und SaO2 aus dem Labor-CO-Oxymeter führt bei Vorhandensein von signifikanten Anteilen MetHb (bei Methämoglobinämie) naturgemäß zu unterschiedlichen Ergebnissen, deren Ursache nicht jedem Anwender bewusst ist. Schlimmer ist der Fall bei Anwesenheit von COHb (z. B. bei Rauchvergiftung): Die Pulsoxymetrie kann O2Hb und COHb nicht unterscheiden und liefert in diesem Fall falsch hohe SpO2-Werte.
Iir des durchdringenden roten und infraroten Lichts (⊡ Abb. 41.3). Konventionelle Pulsoxymetrie beruht auf der Annahme, dass ausschließlich arterielles Blut einen pulsierenden Anteil AC an der Lichtabsorption hat, während Gewebe, venöses Blut und nichtpulsierendes arterielles Blut stets einen konstanten Anteil DC an der Lichtabsorption an der Messstelle bilden (⊡ Abb. 41.3). Die vom Detektor erfassten Intensitäten Ird und Iir enthalten also jeweils einen Wechsel- und einen Gleichanteil. Diese werden zueinander ins Verhältnis gesetzt, und aus dem Quotienten r = (IrdAC/IrdDC)/(IirAC/IirDC)
(41.8)
dieser beiden Verhältnisse wird der Prozentwert der Sauerstoffsättigung SpO2 empirisch ermittelt. Dieser Quotient aus zwei Quotienten hat den Vorteil, dass für die pulsoxymetrische Messung keine Kalibrationsprozedur
Konventionelle Pulsoxymetrie Die konventionelle Pulsoxymetrie wurde 1974 von dem Japaner Takuo Aoyagi entwickelt und ist seit 1981 kommerziell verfügbar. Pulsoxymetrisches Monitoring ist inzwischen zu einem unverzichtbaren Überwachungsstandard geworden. Mit einem einfach applizierbaren Sensor (Fingersensor für Erwachsene und Kinder oder bei Neugeborenen z. B. Klebesensor an Hand oder Fuß) werden die Sauerstoffsättigung SpO2 und die Pulsfrequenz ermittelt und wird eine plethysmographische Kurve auf dem Monitor angezeigt. Die Pulsoxymetrie nutzt die unterschiedlichen Absorptionseigenschaften von Oxyhämoglobin (O2Hb) und Desoxyhämoglobin (Hb) bei unterschiedlichen Lichtwellenlängen (⊡ Abb. 41.2). Zwei LEDs senden Rot- und Infrarotlicht durch die Messstelle. Ein Detektor erfasst die Intensitäten Ird und
⊡ Abb. 41.2. Absorptionsspektren der funktionellen Hb-Formen Hb (Desoxyhämoglobin) und O2Hb (Oxyhämoglobin) sowie der dysfunktionellen Hb-Derivate COHb und MetHb, die nicht fähig sind, Sauerstoff zu binden
⊡ Abb. 41.3. Konventionelle Pulsoxymetrie: Zwei LEDs senden rotes (rd) und infrarotes (ir) Licht durch die Messstelle, das eine pulsierende Absorption (AC) durch arterielles Blut sowie konstante Absorption durch Gewebe (DC1), venöses Blut (DC2) und nichtpulsierendes arterielles Blutes (DC3) erfährt. Der Detektor misst die Intensitäten Ird und Iir des transmittierten Lichts in Abhängigkeit von der Zeit (Transmissionsfotometrie)
41
715 41.2 · Gasaustausch
erforderlich und das Verfahren daher besonders nutzerfreundlich ist.
Bewegung bei konventioneller Pulsoxymetrie Bewegt sich der Patient, so wird auch das venöse Blut an der Messstelle bewegt. Dadurch ergeben sich durchaus erhebliche Störanteile im untersuchten Signal, da pulsatile Elemente nicht mehr allein vom arteriellen Blut ausgehen. Die AC-Anteile werden verfälscht und ein ungenauer Sättigungswert entsteht. Schon bei normaler Patientenbewegung oder geringer Perfusion können die Störkomponenten in den ermittelten Signalen weit höher als die erwünschten Signale sein. In diesen Fällen werden die Quotienten hauptsächlich durch die Störanteile bestimmt, und r hat einen Wert nahe 1. Viele Systeme zeigen dann einen Sättigungswert von ca. 85% an. Als Gegenmaßnahme wird in konventionellen Pulsoxymetriesystemen z. B. die Zeit zur Mittelwertbildung vergrößert oder die Anzeige »eingefroren«, wenn Bewegung erkannt wird. Dies bietet dem Kliniker aber keine kontinuierliche Information und kann im Erstfall zu Fehleinschätzungen führen.
Masimo SET Pulsoxymetrie 1989 entwickelten Mohamed Diab und Joe E. Kiani, die Gründer der Masimo Corporation, die Signal-Extraktions-Pulsoxymetrie, die es erstmals erlaubte, das arterielle Signal von nichtarteriellen Störungen zu unterscheiden. Seit 1998 wird diese bahnbrechende Technologie in der Klinik eingesetzt. Die Masimo Signal Extraction Technology (SET) verwirft die konventionelle Annahme, dass pulsatile Signalanteile allein aus dem arteriellen Blut kommen. Mittels adaptiver Störunterdrückung kann die venösen Komponente separiert werden. Die Grundlagen dazu sind in Masimo Corporation (2008) näher erläutert. Wichtige Merkmale und Vorteile der Masimo SET Pulsoxymetrie sind: ▬ Der Sättigungsalgorithmus ist unabhängig vom Pulsfrequenzalgorithmus (während bei konventionellen Pulsoxymetriesystemen die Erkennung eines sauberen Pulses Voraussetzung für die Berechnung der exakten arteriellen Sauerstoffsättigung ist). ▬ Mit Masimo SET können arterielle Sauerstoffsättigung und Pulsfrequenz selbst dann überwacht werden, wenn die Bewegung bereits vor dem Einschalten des Pulsoxymeters beginnt (während konventionelle Technologie auf »saubere« Daten bei Überwachungsbeginn angewiesen ist). ▬ Als Hilfsmittel zur optimalen Sensorplatzierung wird ein zusätzlicher Parameter geliefert: der Perfusionsindex. Die Anzeige des Signal IQ dient der Signalqualitätskontrolle.
Perfusionsindex (PI) Für die Berechnung des PI wird das von der Sauerstoffsättigung weniger beeinflusste Infrarot-Signal benutzt. Aus dem pulsatilen (IirAC) und dem nichtpulsatilen IRSignal (IirDC) wird der Index ermittelt und in Prozent angegeben: PI = IirAC/IirDC × 100%
(41.9)
Der Wert des PI bezieht sich auf die jeweilige Messstelle am Patienten. Entsprechend den physiologischen Bedingungen ist er von Messstelle zu Messstelle und von Patient zu Patient unterschiedlich. Der PI eignet sich zur Einschätzung der Eignung der Messstelle. Ein großer PI bedeutet optimale Messung der Pulsoxymetrie. Die PIAnzeige umfasst Werte von 0,02% bis 20%. Ein PI über 1% ist wünschenswert.
SpO2-Signalqualitätskontrolle (Signal IQ) Die Masimo Pulsoxymetrie bietet eine visuelle Anzeige für die Qualität des plethysmographischen Signals. Sie wird als Signal IQ (Signal Identification and Quality Indicator) bezeichnet. Mit dem Signal IQ können das Auftreten eines Pulses sowie die zugehörige Signalqualität der Messung identifiziert werden. Bei Patientenbewegung wird die plethysmographische Pulskurve häufig durch Artefakte verfälscht. Der als vertikale Linie (Pulsbalken) dargestellte Signal IQ zeigt sicher den Zeitpunkt der arteriellen Pulsation, seine Höhe zeigt die Qualität des gemessenen Signals an. Wenn stark verminderte Signalqualität die Genauigkeit der SpO2-Messung negativ beeinflussen kann, wird eine Warnmeldung (»Signal IQ niedrig«) im Display angezeigt.
Empfindlichkeitsmodi Die Masimo Pulsoxymetrie erlaubt die Einstellung der Messempfindlichkeit auf drei Stufen: ▬ Normal: Empfohlener Modus für typische Überwachung, wie z. B. auf Intensivstationen. ▬ Adaptive Probe Off Detection (APOD = adaptive Erkennung abgelöster Sensoren): Empfohlener Modus, wenn aufgrund des Personalschlüssels wahrscheinlich nicht sofort bemerkt werden kann, dass sich ein Sensor löst. Dieser Modus schützt besser dagegen, dass fälschlich Messwerte angezeigt werden, obwohl sich der Sensor von der Messstelle gelöst hat (z. B. durch Bewegung des Patienten). ▬ Maximal: Dieser Modus dient der Gewinnung und Anzeige von Daten, selbst wenn das Signal wegen verminderter Durchblutung sehr schwach ist (anwendbar z. B. während einer Therapie oder Untersuchung, also, wenn jemand am Patienten ist). Wenn sich der Sensor vom Patienten lösen sollte, ist in diesem Modus praktisch keine Vorsorge gegen fälschlich angezeigte Messwerte gegeben.
716
Kapitel 41 · Respiratorisches Monitoring und Pulsoxymetrie
Puls-CO-Oxymetrie
IV
Die Masimo Rainbow SET Puls-CO-Oxymetrie ist eine 2005 erstmals eingeführte Weiterentwicklung der 2-Wellenlängen-Pulsoxymetrie und basiert auf der Masimo Signal Extraktions-Technologie. Sie ist eine kontinuierliche nichtinvasive Methode, mit der zusätzlich zu Sauerstoffsättigung, Pulsfrequenz und Perfusionsindex folgende klinisch hochinteressante Parameter gemessen werden: ▬ das Gesamthämoglobin (SpHb), ▬ der Sauerstoffgehalt (Oxygen Content, SpOC), ▬ der Carboxyhämoglobingehalt (SpCO), ▬ der Methämoglobingehalt (SpMet) sowie ▬ der Pulskurven-Variabilitätsindex (PVI). Die Masimo Puls-CO-Oxymetrie verwendet Multiwellenlängen-Sensoren, mit denen mehr als sieben unterschiedliche Wellenlängen von sichtbarem Licht und Infrarotlicht aus LEDs durch die Messstelle gesendet werden und die jeweilige Absorption entsprechend detektiert wird.
Arterieller Sauerstoffgehalt (SpOC) Bei typischen PaO2-Werten um 100 mmHg beträgt der im Plasma gelöste Sauerstoffgehalt nur ca. 0,3 ml/dl und kann praktisch als Konstante angenommen werden. Für normale Carboxyhämoglobin- und Methämoglobinkonzentrationen ist die mit einem Pulsoxymeter bestimmte funktionelle Sättigung etwa 2% höher als die fraktionelle Sättigung: SpO2 = 1,02 × SaO2.
(41.10)
Mit dieser Näherung ergibt sich aus der unter 41.2.1 angegebenen Berechnungsformel (41.4) für den arteriellen O2-Content eine vereinfachte Berechnung für SpOC aus SpHb und SpO2: SpOC = 1,31 × SpHb × SpO2/100 + 0,3
(41.11)
Die Messwerte aus der Puls-CO-Oxymetrie werden gerne mit Labormessungen aus Blutproben verglichen. Die Interpretation solcher Vergleiche erfordert große Sorgfalt, da die aus der Blutgasprobe ermittelten Werte sich u.U. von den SpO2-, SpCO- und SpMet-Messungen unterscheiden können. Für SpO2 treten Unterschiede zur arteriellen Blutgasprobe auf, wenn die Auswirkungen der Einflussgrößen auf die Sauerstoffbindungskurve ( Abschn. 41.2.1) nicht korrigiert wurden. Im Fall von SpCO und SpMet können neben Temperatur und pH-Wert auch abnorme Werte der Sauerstoffsättigung (SaO2 < 90%) und/oder der Konzentration von Methämoglobin (MetHb > 2%) in der Blutgasprobe die Ergebnisse beeinflussen.
Pulskurven-Variabilitätsindex (PVI) Herz und Lunge interagieren physiologisch auf verschiedene Weise. Intrathorakale Druckveränderungen durch
die Atmung haben direkten Einfluss auf die Blutfüllung des Herzens und dessen Pumpkapazität. Diese werden als zyklische Veränderungen im arteriellen Blutdruck sichtbar. Ein zuverlässiger, kontinuierlich nichtinvasiv messbarer Indikator von solchen zyklischen Veränderungen wäre von großem klinischen Wert. Masimo hat den Pulskurven-Variabilitätsindex entwickelt, der die zyklischen Veränderungen der Pulskurve als Folge von Veränderungen der physiologischen Verhältnisse anzeigt. Hierzu wird der bereits erläuterte Perfusionsindex (PI) verwendet. Der Pulskurven-Variabilitätsindex (PVI) ist ein Maß für die dynamischen Veränderungen des PI während des Atemzyklus und wird aus den PI-Veränderungen während eines Atemzyklus oder mehreren vollständigen Atemzyklen als Prozentwert berechnet: PVI = (PImax – PImin)/PImax × 100%
(41.12)
Je niedriger der PVI, desto geringer ist die PI-Variabilität im Verlauf eines Atemzyklus. Der PVI kann potentiell nützliche Informationen über die Balance zwischen Intrathorakalem Atemwegsdruck und intravaskulärem Flüssigkeitsvolumen liefern. Sein Trend kann hilfreich bei der Einschätzung des Hydratationsstatus sein. Ein Ansteigen kann auf eine Hypovolämie hindeuten (Masimo Corporation 2007). Insgesamt haben die in den letzten Jahren eingeführten Parametern aus der Puls-CO-Oxymetrie die nichtinvasiven Überwachungsmöglichkeiten von Patienten bedeutend erweitert und erfahren zunehmendes Interesse bei den Anwendern.
Gemischt-venöse Sauerstoffsättigung SvO2 und zentralvenöse Sauerstoffsättigung ScvO2 In der Pulsoxymetrie wird die Messstelle durchleuchtet. Dies ist in großen Gefäßen nicht möglich, z. B. in der Pulmonalarterie, wo das venöse Blut aller Organe gut durchmischt anlangt. Ein hier platzierter Katheter mit Fiberoptik kann die gemischt-venöse Sauerstoffsättigung SvO2 jedoch mittels Reflexionsfotometrie erfassen. Wenn ein Pulmonaliskatheter vermieden werden soll, kann in erster Näherung die zentralvenöse Sättigung ScvO2 mit einem kurz vor dem rechten Vorhof liegenden zentralvenösen Katheter und Fiberoptik gemessen werden. Beide Werte können sich unterscheiden, reagieren jedoch in gleichem Maße auf Änderungen der Hämodynamik (Bloos u. Reinhart 2008). Beide Parameter können im Monitoring also als unmittelbare Indikatoren für hämodynamische Änderungen dienen. Unter Berücksichtigung der arteriellen Sauerstoffsättigung SaO2 und des Herzminutenvolumens können wichtige Informationen zur O2-Ausschöpfung des Organismus gewonnen werden.
41
717 41.2 · Gasaustausch
41.2.3 Transkutane Blutgasmessung
Miniaturisierte chemoelektrische Sensoren vom ClarkTyp, wie sie aus Blutgasanalysatoren im Prinzip bekannt sind, werden direkt auf die Haut gesetzt. Eine Messmembran umschließt ein sehr kleines Elektrolytvolumen, in das Sauerstoff oder/und Kohlendioxid aus dem kutanen Kapillarbett diffundieren kann. Da nur arterielle Werte interessieren, wird das Kapillarbett mittels Heizung im Sensor auf 42–45°C temperiert und damit arterialisiert: Die hohe Temperatur vermindert den Gefäßtonus, die Arteriolen erschlaffen, und arterielles Blut dringt bis in das Kapillarbett vor. Der transkutane Sauerstoffpartialdruck PtcO2 wird nach dem polarographischen Verfahren gemessen (⊡ Abb. 41.4). Mikroelektroden aus Platin oder Gold stehen im Elektrolyt und werden gegenüber einer Silberanode mit einem festen Plateau-Potential vorgespannt (typisch 0,8
V). Dann fließt ein kleiner PtcO2-proportionaler Messstrom, I ~ PtcO2,
(41.13)
der durch die Reduktion von O2-Molekülen an den Mikroelektroden entsteht: O2 + 2H2O -> 4OH- – 4e-.
(41.14)
Gleichzeitig setzt sich Silber an der Anode zu Silberchlorid um: 4Ag + 4Cl- -> 4AgCl- + 4e-.
(41.15)
Die Ansprechzeit (T90, bezogen auf Partialdrucksprünge von 10–90%) liegt bei etwa 8 s und ist deshalb nicht träger als die Pulsoxymetrie, die zur Stabilisierung der Messwerte ähnliche Mittelungszeiten einsetzt. Der transkutane Kohlendioxidpartialdruck PtcCO2 wird nach dem potentiometrischen Verfahren mit einer pH-Elektrode gemessen. Als Beispiel ist in ⊡ Abb. 41.5 das Schema einer Transkapnode mit Iridium/IridiumoxidpH-Elektrode wiedergegeben. Dieser Elektrodentyp ist mechanisch wesentlich stabiler und hat eine deutlich störsicherere, niedrigere Ausgangsimpedanz als die früher üblichen Glaselektroden. Das in die Messzelle eindiffundierende CO2 verschiebt den pH-Wert durch Bildung von Kohlensäure: CO2 + H2O <-> H2CO3 <-> H+ + HCO3- <-> 2H+ + CO32(41.16) Im Gleichgewicht der Teilreaktionen besteht ein logarithmischer Zusammenhang zwischen CO2-Partialdruck und pH-Wert, sodass das an der pH-Elektrode liegende Potential ebenfalls logarithmisch vom PtcCO2 abhängt: U ~ log (PtcCO2).
⊡ Abb. 41.4. Polargramm eines chomoelektrischen O2-Wandlers
(41.17)
Die Ansprechzeit (T90) für die PtcCO2-Messung wurde in den Jahren deutlich verkürzt und ist jetzt typisch 40 s. Die transkutane O2-Überwachung erfordert eine Mindestheiztemperatur von 43°C, die CO2-Überwachung
⊡ Abb. 41.5. Schnittzeichnung durch eine Transkapnode
718
Kapitel 41 · Respiratorisches Monitoring und Pulsoxymetrie
kommt bereits mit 42°C aus. Als guter Kompromiss zwischen gewünschter hoher Korrelation mit arteriellen Messwerten und Risiko einer lokalen Hautverbrennung gelten 43,5°C. 45°C dürfen nicht überschritten werden und erfordern ein etwa stündliches Umsetzen des Sensors, während Säuglinge eine Heiztemperatur von 42°C schon über 24 h ohne Verbrennung vertragen haben.
Messgenauigkeit und Fehlereinflüsse bei der transkutanen Blutgasmessung
IV
Transkutane Blutgassensoren sollen möglichst schnell auf Partialdruckänderungen reagieren und enthalten deshalb eine nur sehr dünne Elektrolytschicht. Die Heizung der Sensoren führt zu Austrocknung und Schwitzen des Patienten zu Verdünnung des Elektrolyts, mit der Folge instabiler Messwerte. Deshalb sind solche Sensoren wenigstens einmal täglich an Luft (PO2 = 0,21 × Pbaro) und erforderlichenfalls an mindestens einem definierten CO2-Gemisch (5% oder 10% CO2) zu kalibrieren. Erfahrungsgemäß müssen auch mindestens einmal wöchentlich Elektrolyt und Messmembran ausgetauscht werden. Man klebt die Sensoren ähnlich EKG-Elektroden mit Kleberingen auf die Haut. Ein Tropfen wässriges Kontaktmittel wird auf die Applikationsstelle gegeben. Dies vermittelt eine bessere Diffusion und verhindert den Einschluss von Umgebungsatmosphäre, die trotz des geringen Volumens ein schnelles Angleichen an echte transkutane Messwerte behindern würde. Grundsätzlich stimmen transkutane und arterielle Blutgaswerte nicht überein, ein gutes Messsystem garantiert aber eine hohe Korrelation (r > 0,8) der PtcO2- und PtcCO2-Werte mit den PaO2- bzw. PaCO2-Werten. Die Erhitzung des Kapillarblutes führt zu deutlichen temperaturabhängigen Erhöhungen sowohl des O2- als auch des CO2-Partialdrucks (kapillar-arterielle Anhaltswerte: PcapO2 + 6%/°C, PcapCO2 + 4,8%/°C). Denn eine Temperaturerhöhung verschiebt sowohl die Sauerstoffbindungskurve des Hämoglobins als auch das chemische Gleichgewicht zwischen gelöstem Kohlendioxid und gebundenem CO2 (Bikarbonat oder an Hämoglobin gebunden). Während der Diffusion der Blutgase durch die Epidermis wird aufgrund des gesteigerten zellulären Metabolismus einerseits Sauerstoff verbraucht und andererseits zusätzlich Kohlendioxid abgegeben. Der kompensatorische Sauerstoffeffekt liefert deshalb bei Neugeborenen PtcO2-Werte, die sich wenig vom PaO2 unterscheiden (und bei älteren Patienten immer unter dem PaO2 liegen), während die PtcCO2-Werte etwa um 50% erhöht sind. Die PtcCO2-Werte werden deshalb meist als korrigierte Werte angegeben, da hier der individuelle Hauteffekt gegenüber dem systematischen Temperatureffekt relativ klein ist. Einige Hersteller erlauben zusätzlich eine In-vivo-Korrektur, mit der die transkutanen Messwerte den Ergebnissen einer Blutgasanalyse angepasst werden. Dann gibt es bei
stabilen peripheren Perfusionsverhältnissen keinen Unterschied mehr zwischen den angezeigten transkutanen und den zentralarteriellen Messwerten. Bei Mangelperfusion – z. B. infolge einsetzender Zentralisation – liefert die transkutane O2-Messung irreführend niedrige Werte. Dann kann es gefährlich sein, den Neugeborenen zur Kompensation mit erhöhter O2Konzentration zu beatmen. Doch liefert die transkutane Messmethode selbst einen ausgezeichneten Schlüssel zur Abklärung dieser Situation, was leider immer wieder in Vergessenheit geraten ist: Ein plötzliches Absinken der elektrischen Heizleistung deutet auf eine Minderperfusion hin. Denn der Sensor wird auf eine vorgegebene stabile Temperatur geheizt, die stets über der Temperatur des anströmenden Bluts liegt (z. B. 43,5°C). Bei starker Perfusion wird der Sensor also deutlicher vom Blut gekühlt als bei minderer Perfusion. Um die Temperatur zu halten, ist demnach bei starker Perfusion eine höhere Heizleistung erforderlich. Der Trend der Heizleistung läuft also parallel mit dem Trend der Perfusion. Wenn also der PtcO2-Trend und der Trend der Heizleistung gleichzeitig abfallen, weist dies darauf hin, dass der PtcO2Abfall messtechnisch bedingt auf eine verringerte Perfusion zurückzuführen ist. Die transkutane Blutgasmessung ist in speziellen Fällen auch bei Erwachsenen möglich, wenn es darauf ankommt, Veränderungen zu erkennen. Für eine Überwachung von Trends hat sie sich nicht als geeignet erwiesen, weil vermutlich die Hautdurchblutung eine noch größere Rolle spielt. Bekannte Anwendungen sind Überwachung bei hyperbarer Sauerstofftherapie und Messungen in der Angiologie, insbesondere bei peripherer arterieller Verschlusskrankheit, und Kontrolle der Wirksamkeit von Maßnahmen zur Behebung von Gefäßstenosen in den Extremitäten.
41.2.4 Messung der Atemgase
Unter Atemgas sollen hier neben Sauerstoff und Kohlendioxid zusätzlich Lachgas und volatile Anästhetika (Halothan, Enfluran, Isofluran, Desfluran, Sevofluran) verstanden werden. Sie werden entweder im Atemstrom des intubierten Patienten gemessen (Hauptstromverfahren) oder im Nebenstromverfahren, bei dem das Atemgasgemisch mittels Probenschlauch aus dem Beatmungsschlauch des Patienten mit einem Gasfluss zwischen 50 und 250 ml/min abgezogen und ggf. über eine Wasserfalle und Trocknungsstufe (Nafion-Schlauch) den Messzellen im Monitor zugeführt wird. Zur isolierten Überwachung des Kohlendioxids ( Abschn. 41.3 »Kapnographie«) setzt sich immer häufiger das Hauptstromverfahren durch, bei dem der Sensor direkt auf einem speziellen Atemwegadapter sitzt. Vorteil des Hauptstromverfahrens ist die schnellere Reaktion auf Än-
719 41.2 · Gasaustausch
derungen in der Zusammensetzung des Atemgases, Vorteil des Nebenstromverfahrens sind der robustere Aufbau und der geringere zusätzliche Totraum im Atemschlauch.
Messzellen Sauerstoff wird entweder mit preiswerten, aber trägen Brennstoffzellen gemessen (z. B. im inspiratorischen Atemgas bei Beatmung) oder atemzugsynchron mit paramagnetischen Messzellen. ⊡ Abb. 41.6 zeigt als Beispiel eine paramagnetische Messzelle mit hantelförmigem Aufbau in stoßgeschützter Konstruktion. Zwei dünnwandige stickstoffgefüllte Glaskugeln sind in dem stark inhomogenen Magnetfeld eines Permanentmagneten aufgehängt. Sauerstoff in der Umgebung der Magnetspalte verdrängt die Glaskugeln. Das daraus resultierende Torsionsmoment wird mit einem Regelstrom durch Spulen auf den Glaskugeln kompensiert und die Hantel in fester Position gehalten. Damit ist das schwingfähige System einerseits stark gedämpft, andererseits ist der Regelstrom proportional zum O2-Partialdruck im Atemgas. O2-Konzentration: %O2 = PO2/Pbaro
(41.18)
Kohlendioxid, Lachgas (N2O) und Anästhesiegase haben im Unterschied zu Sauerstoff polare Moleküle, die durch infrarote Bestrahlung im Wellenlängenbereich zwischen 2,5 μm und 15 μm zu mechanischen Schwingungen angeregt werden können und dabei Strahlung charakteristischer Wellenlängen absorbieren. ⊡ Abb. 41.7 zeigt die Absorptionsbanden der interessierenden Atemgase einschließlich Wasserdampf. Diese sehr spezifischen Absorptionsbanden werden zur Messung ausgenutzt. Eine Strahlungsquelle sendet ein ganzes Spektrum an Infrarotlicht aus. Bei der nichtdispersiven Infrarotmessung oder -spektroskopie (NDIR) wurde ursprünglich ein Detektor verwendet, der nur für die spezifischen, vom untersuchten Gas absorbierten Wellenlängen sensitiv ist. Heute wird meist durch Filterung diejenige Wellenlänge ausgewählt, bei der die größte Absorption des zu messenden Gases vorliegt. In der dispersiven Infrarotmesstechnik wird durch Dispersion des Lichtes (z. B. durch Brechung an einem Prisma) eine Messwellenlänge erzeugt, die für das gesuchte Gas geeignet ist. Entsprechend dem Grundgesetz der Fotometrie nach Lambert-Beer ist die Absorption A proportional zur Menge c (häufig unsauber als »Konzentration« bezeichnet) der im Strahlengang wechselwirkungsfähigen Moleküle: A = log (I0 / I) = ε × L × c.
⊡ Abb. 41.6. Paramagnetische O2-Messzelle
(41.19)
Hier gilt: ▬ I0, I = eingestrahlte bzw. gemessene Strahlintensität, ▬ ε = molarer Extinktionskoeffizient, ▬ L = Länge des wechselwirkenden Strahlengangs.
⊡ Abb. 41.7. Absorptionsspektren der Atemgase (vereinfacht, ohne Angabe der Feinstruktur)
Je höher der Partialdruck der gemessenen Gaskomponente im Gemisch, desto häufiger treffen Photonen auf solche Moleküle. Mit der Infrarotfotometrie werden deshalb primär die absoluten Partialdrücke der Gaskomponenten bestimmt und wieder erst unter Berücksichtigung des wirksamen Gesamtdrucks die prozentuale Gaskonzentration bestimmt. Wenn das angesaugte Gasgemisch nicht getrocknet werden würde, läge eine starke Wasserdampfbande (2,7– 3,6 μm) gerade über den Anästhesiegasbanden (A-Gase), die dann verschwänden. Auch überlagern sich die Absorptionsbanden der Anästhesiegase derart, dass bei einfacheren Analysatoren angegeben werden muss, welches Gas verwendet wird. Messgeräte mit automatischer Identifikation ziehen deshalb weitere Spektralbereiche mit Wellenlängen oberhalb der dargestellten heran. Die Absorptionsbanden von CO2 (4,26 μm) und N2O (4,55 μm) liegen in einer Lücke des Wasserdampfspek-
41
720
Kapitel 41 · Respiratorisches Monitoring und Pulsoxymetrie
IV ⊡ Abb. 41.8. Eintrahlinfrarotmesszelle mit Filterscheibe
trums und können mit entsprechenden Filtern in der Filterscheibe der Messanordnung sicher getrennt werden. Die Filterscheibe enthält in einer zusätzlichen Position einen Filter, der Strahlung in einer Lücke des Gesamtabsorptionsspektrums durch die Durchflussküvette schickt. Dies dient einer Referenzmessung zur Stabilisierung der Messwerte, verhindert also eine Messwertdrift bei allmählicher Kontamination der Messküvette oder Veränderung der Strahlungsquelle. ⊡ Abb. 41.8 zeigt den Aufbau einer Infrarotmesszelle mit rotierender Filterscheibe (engl.: chopper wheel), mit deren Hilfe Filter für die Messwellenlänge und Referenzfilter abwechselnd in den Strahlengang gelangen. Heute werden insbesondere im Monitoring Festkörpersensoren ohne bewegliche Teile eingesetzt.
Messgenauigkeit und Fehlereinflüsse bei der Atemgasmessung Größere Anästhesiegasmessfehler treten bei Nebenstrommesssystemen auf, wenn Probenschläuche aus falschem Material verwendet werden. So kann z. B. ein Probenschlauch aus Polyethylen durch Oberflächenadsorption von Halothan die sprunghaften atemsynchronen Konzentrationsänderungen völlig verschleifen und falsche inspiratorische und exspiratorische Messwerte liefern. Es ist also unbedingt zu beachten, nur die vom Hersteller des Messsystems empfohlenen bzw. zugelassenen Probenschläuche zu verwenden! Ähnliche Effekte entstehen auch in Bezug auf die Messung der übrigen Gase, wenn ein Probenschlauch aus Sparsamkeit wiederholt desinfiziert wird: Die inneren Oberflächen werden sehr rau, es gibt keine laminare Strömung mehr im Probenschlauch, sodass Konzentrationsstufen auf dem Weg zum Analysator verschliffen werden. In der klinischen Routine treten immer wieder Fragen nach der Messgenauigkeit der endexspiratorischen CO2-Messwerte (etCO2) auf. Abweichungen der Mess-
ergebnisse aus dem Atemgas von den Blutgaswerten sind der Grund: Der PetCO2 ist i.d.R. um 2–13 mmHg niedriger als der PaCO2. Auch verunsichern Messwertunterschiede der Geräte verschiedener Hersteller. Dafür gibt es technische und physiologische Erklärungen. Es gibt eine Kreuzempfindlichkeit der CO2-Messung mit den übrigen Gasen, teils aufgrund spektraler Überlappung (mit N2O), teils wegen eines indirekten Einflusses von O2 auf die CO2-Absorptionsbande (collision broadening effect). Wenn ein Kapnograph nicht gleichzeitig auch die übrigen Gase misst, muss zur Korrektur angegeben werden, ob O2 und/oder N2O in größerer Konzentration im Gasgemisch enthalten sind. Bei Nichtbeachtung können Fehler um etwa 2 mmHg entstehen. Spezifische NDIR-Messzellen sind genau für das CO2Feinstrukturspektrum empfindlich und erfordern keine Korrektur. Und es existieren Infrarotanalysatoren, deren CO2-Messwerte mit den Anästhesiegaskonzentrationen automatisch korrigiert werden. Wenn das Anästhesiegas nicht automatisch erkannt wird, hat die Angabe eines falschen Anästhesiegases dann nicht nur beim Anästhesiegas, sondern auch beim PCO2 größere Fehler zur Folge. Beispiel: Wird Isofluran angegeben, aber Halothan benutzt, ist der PCO2 um bis zu 7 mmHg zu tief! Heute wird die Angabe des CO2-Partialdrucks als Lungenwert entsprechend dem BTPS-Standard verlangt, denn nur CO2-Lungenwerte können mit Blutgaswerten verglichen werden. Da die Infrarotmesszellen aber im trockenen Gas messen, muss der Lungen-CO2-Wert noch um etwa 2,5 mmHg reduziert werden: PCO2 (Lunge) ≈ PCO2 (IR-Zelle) × (Pbaro – 47)/Pbaro. (41.20) (Tatsächlich ist diese Korrektur bereits etwas zu scharf, da das Gas in der IR-Zelle nicht völlig getrocknet ist.) Unterschätzt wird häufig der Einfluss der Totraumventilation infolge eines Ventilations-Perfusions-Missverhältnisses, die direkt in die Diskrepanz zwischen PetCO2 und PaCO2 eingeht. Auch alveoläre Shunts tragen dazu bei, dass endexspiratorische Werte niedriger als arterielle Werte sein können. Bei plötzlichen Änderungen des PetCO2 ist daher durch Blutgasanalyse zu untersuchen, ob sich auch der PaCO2 in gleichem Maße geändert hat oder ob eine Änderung des Ventilations-PerfusionsVerhältnisses dafür (mit-)verantwortlich ist. Nicht immer ist bewusst, dass bei größeren Operationen das Blut des Patienten spürbar unterkühlt ist, die Blutgasanalyse aber stets bei 37°C durchgeführt wird. Damit sind die Blutgasanalysewerte um ca. 4,8% pro °C gegenüber den Lungenwerten überhöht! Ist also der Patient z. B. auf 34°C abgekühlt, würde der unkorrigierte Blutgasanalysewert um etwa 4,3 mmHg über dem tatsächlichen Partialdruck im Blut des Patienten liegen.
721 41.3 · Kapnographie
41.3
Kapnographie R. Kramme, U. Hieronymi
Unter Kapnographie ist die Messung und graphische Darstellung des CO2 im Atemgas zu verstehen. Die Spontanatmung ist primär auf eine Stabilisierung des arteriellen CO2-Partialdrucks auf Werte um etwa 40 mmHg gerichtet ( Abschn. 41.2) und stellt den wesentlichen Atemantrieb dar. Stärkere Abweichungen des PaCO2 haben erhebliche physiologische Folgen, wie z. B. eine Gefäßerweiterung bei Hyperkapnie mit der möglichen Folge von Hirndrucksteigerungen. Hypokapnien führen dagegen zu Gefäßverengungen mit der Gefahr von Organmangeldurchblutungen, die in erster Line das Gehirn gefährden. Daraus ergibt sich, dass die Kapnographie als nichtinvasives und kontinuierliches Überwachungsverfahren der Ventilation einen hohen Stellenwert für die Sicherheit des Patienten während der Allgemeinanästhesie und in der Intensivmedizin hat. Im Kapnogramm wird der CO2Partialdruck über die Zeit aufgezeichnet. Der endexspiratorische CO2 (PetCO2) ist der Spitzenwert am Ende des Alveolarplateaus, der mit dem PaCO2 korreliert. Durch unterschiedliche Aufzeichnungsgeschwindigkeiten lassen sich CO2-Kurven in hoher Auflösung (12,5 mm/s) oder trendartig (25 mm/min) darstellen (⊡ Abb. 41.9). Im Monitoring sind 6,25 mm/s üblich, und Trends werden i.d.R. als Werteverlauf (1 Wert pro Minute) angezeigt. Beim Hauptstromverfahren befindet sich der Messsensor patientennah auf einem Atemwegadapter zwischen Tubus und Beatmungsschläuchen. Es wird bei intubierten Patienten aufgrund der sehr genauen Ergebnisse und fehlenden zeitlichen Latenz bevorzugt. Im Seitenstromverfahren (= Nebenstromverfahren) wird das Atemgas über eine feine Schlauchleitung mit einem Messgasstrom (engl.: sampling rate) zwischen 50 und 250 ml/min abgesaugt. Die Messkammer befindet sich im Patientenmonitor. Dies führt zu einer verzögerten Darstellung des Kapnogramms.
⊡ Abb. 41.9. Normales Kapnogramm. E–F Beginn der Ausatmung (exspiratorische Phase). Aus dem anatomischen Totraum wird Gas ausgeatmet. F–G Steiler Anstieg der CO2-Konzentration vornehmlich aus den unteren Atemwegen. G–H Alveolarplateau, bestehend aus der
Das Nebenstromverfahren gestattet jedoch auch die Überwachung nichtintubierter Patienten, die eine »Atembrille« tragen, die aus feinen Schläuchen aufgebaut ist und Atemgas aus den Nasenöffnungen abzieht. Mit der Microstream-Technologie hat sich ein Nebenstromverfahren etabliert, das ebenfalls sehr genau arbeitet. Die Methode verwendet eine Laserlichtquelle mit exakt der Wellenlänge, die von CO2 am meisten absorbiert wird. Dadurch tritt keine Störung durch andere Gase mit benachbarten Absorptionsbanden auf. Die besondere Gestaltung der Messschläuche hat das Verfahren in der Handhabung sehr sicher gegen Eindringen von Feuchtigkeit oder Sekret in die Messkammer gemacht. Durch seinen geringen Messgasstrom (50 ml/min) kann es auch bei Neugeborenen eingesetzt werden. Indikationen zur Kapnographie sind: ▬ Monitoring der Ventilation während der maschinellen Beatmung in Anästhesie und Intensivtherapie; ▬ Monitoring während der kardiopulmonalen Wiederbelebung. Nutzen der Kapnographie sind: ▬ Früherkennung einer intraoperativen Luftembolie, malignen Hyperthermie, Diskonnektion des Schlauchsystems und Stenose; ▬ Erkennung von Obstruktion, Totraumventilation, Rückatmung, Dysfunktion im Absorber- oder Ventilsystem, Tubusdislokation während der Narkose und hämodynamischen Veränderungen (z. B. Blutdruckabfall, Herz-Kreislauf-Stillstand); ▬ indirekte Informationen über die Muskelrelaxation. Grenzen und Fehlerquellen der Kapnographie sind im Wesentlichen: ▬ Störungen der Atemphysiologie: Ventilations-Perfusions-Missverhältnis, Totraumventilation, Shuntzunahme; ▬ Störungen technischer Art: Kalibrationsfehler, Kondensat oder Sekret im Ansaugschlauch, Stenosierung oder Abknicken des Ansaugschlauchs;
CO2-Konzentration bzw. dem CO2-Partialdruck des Alveolargases. H Endexspiratorischer oder endtidaler PCO2 (PetCO2). H–I Absteigende Kurve; die inspiratorische Phase zeigt eine rasche Abnahme der CO2Konzentration durch das aufgenommene Frischgas
41
722
Kapitel 41 · Respiratorisches Monitoring und Pulsoxymetrie
▬ methodische Grenzen: hohe Atemfrequenz, Mischgasanalyse, Interferenz von Fremdgasen (z. B. Lachgas, Wasserdampf); ▬ anwenderbedingte Fehler: Interpretationsfehler. ⊡ Abb. 41.10 zeigt, wie sich Einflüsse der Anästhesie und
des Patienten in den jeweiligen Kapnogrammen widerspiegeln.
IV
Patient A – Respiratorische Effekte 1 – Behinderter Gasaustausch
3 – Kardiopulmonale Wiederbelebung
2 – Fortbestehen einer Relaxanzwirkung
4 – Pulmonalembolie
3 – Bronchospasmus, vergrößerter Atemweg
C – ZNS-Effekte 1 – ZNS-bedingte Veränderung des Atemmusters nach Drogenkonsum
4 – Atemstillstand 2 – Krämpfe
5 – Restriktive Lungenerkrankung 3 – Cheyne-Stokes-Atmung
B – Kreislaufeffekte
D – Metablische Effekte
1 – Mangelhafte Blutzirkulation
1 – Maligne Hyperthermie
2 – Herzstillstand
2 – Hypothermie
⊡ Abb. 41.10. Die Kapnogramme zeigen, wie sich Einflüsse der Anästhesie und des Patienten widerspiegeln (Nachdruck mit freundlicher Genehmigung von HP und Agilent Technologies)
723 41.3 · Kapnographie
Gasversorgung A – Frischgas der Anästhesiemaschine: Bedingungen, die zur Abgabe eines hypoxischen Gemisches führen*
5 – Endotrachealtubus im Ösophagus
B – Gasversorgung des Patienten
6 – Endotrachealtubus ist verschoben
1 – Diskonnektierung im Beatmungskreis
7 – Endotrachealtubus ist abgeknickt 2 – Fehlkonnektierung im Beatmungskreis
8 – Endotrachealtubus blockiert 3 – Obstruktion im Beatmungskreis oder Atemweg
9 – Endotrachealtubus im rechten Bronchus* 4 – Defekte im Beatmungskreis – Leckage in der Tubenblockung
10 – Chirurg lehnt sich auf Patientenbrust – Defektes Inspirationsventil
11 – CO2-Absorber fast verbraucht
– Defektes Exspirationsventil
12 – Verbrauchter CO2-Absorber
* Im besten Fall bemerkt vom Beatmungsmonitoring
Ventilation A – Hyperventilation
B – Hypoventilation
C – Bradypnoe mit kardiogenen Oszillationen D – Patient atmet gegen den Ventilator
⊡ Abb. 41.10.
41
724
Kapitel 41 · Respiratorisches Monitoring und Pulsoxymetrie
Literatur Bloos F, Reinhart K (2008) Sauerstoffangebot und Sauerstoffverbrauch. In: Hoeft A, Metzler H, Pasch T. Monitoring in Anästhesie und Intensivmedizin. Springer, Berlin Heidelberg New York Tokio, S 185 ff Masimo Corporation (2007) Technical Bulletin 3: Pleth Variability Index (PVI) 7577-4583A-0607 (www.masimo.com) Masimo Corporation (2008) Technical Bulletin: Signal Extraction Technology® 7005-1035R-0808 (www.masimo.com) Masimo Corporation (2010) Acoustic Respiration Rate 7961-6132A1209 (www.masimo.com)
IV
Weiterführende Literatur Baumbach P (1988) Verständnis transkutaner pO2- und pCO2-Messungen. Radiometer A/S, Kopenhagen Jaffe MB (2008) Infrared Measurement of Carbon Dioxide in the Human Breath: »Breathe-Through« Devices from Tyndall to the Present Day. Anesth Analg 107: 890–904 Moyle JTB (2002) Pulse Oximetry, 2nd ed. BMJ Books, London Stücker M, Memmel U, Altmeyer P (2000) Transkutane Sauerstoffpartialdruck- und Kohlendioxidpartialdruckmessung – Verfahrenstechnik und Anwendungsgebiete. Phlebologie 29: 81–91
42 Metabolisches Monitoring R. Kramme
42.1 Hyperthermie und Hypothermie – 725 42.2
Messorte für die Temperaturmessung – 725
42.3 Temperaturaufnehmer und -sonden – 725 42.4 Methodische Hinweise – 727 Weiterführende Literatur
– 727
Temperaturmessungen sind in der Intensiv- und Notfallmedizin sowie der Narkoseführung als Standardmonitoring unverzichtbar. Die Überwachung der Körpertemperatur (sog. metabolisches Monitoring) ist in der Intensivmedizin von besonderer Bedeutung, da Fieber – Erhöhung der Körperkerntemperatur über 38°C – ein frühes Zeichen einer Sepsis ist; eine der häufigsten Todesursachen auf Intensivstationen. Folgende Fiebertypen sind für die Überwachung von Intensivpatienten wichtig: ▬ Fieberkontinua (Temperaturschwankungen >1°C), ▬ remittierendes Fieber (Temperaturschwankungen >2°C), ▬ intermittierendes Fieber (Temperaturschwankungen >2°C im Tagesverlauf, wobei sie auch unter Normaltemperatur sinken kann), ▬ undulierendes Fieber (ständig veränderte Körpertemperatur ohne Tendenz).
42.1
Hyperthermie und Hypothermie
Übersteigt die Wärmezufuhr die Wärmeabgabe des Körpers (z. B. bei Hitzschlag, Alkohol- oder Medikamentenentzug, Hyperthyreose, malignem neuroleptischem Syndrom oder maligner Hyperthermie), so wird dieser Zustand als Hyperthermie bezeichnet. Infolge erhöhter Wärmeabgabe wird die Körperkerntemperatur unter 35,5°C als Hypothermie bezeichnet (z. B. nach operativen Eingriffen, bei extrakorporaler Blutzirkulation und Blutreinigungsverfahren, zu Beginn einer Sepsis).
42.2
Messorte für die Temperaturmessung
Ausschlaggebend für die Bewertung der Körpertemperatur ist der Messort (⊡ Tab. 42.1), denn zwischen den verschiedenen Körperbereichen kann eine Temperaturdifferenz bis zu 5°C bestehen. Ein Temperaturgefälle kann auch zwischen der Körperkerntemperatur und der Temperatur an der Peripherie vorhanden sein (z. B. Schockzustand).
42.3
Temperaturaufnehmer und -sonden
Zur Ermittlung der Temperatur als thermische Messgröße stehen unterschiedliche Temperaturaufnehmer und -sonden zur Verfügung (typischer Messbereich: 24–42°C, optimaler Messbereich 10–45°C, um auch körperextreme Temperaturen, wie z. B. tiefe Unterkühlungen oder Hyperthermie, messen zu können), die technisch kaum Probleme bereiten: Thermistoren (sog. Heißleiter) sind thermosensitive Halbleiterelemente, deren elektrischer Widerstand mit steigender Temperatur abnimmt. Ändert sich der Widerstand – auch sehr geringe Temperaturänderungen bewirken Änderungen aufgrund hoher Ansprechempfindlichkeit des Aufnehmers –, so ändert sich die Stromspannung an der Brückenschaltung proportional zur Temperaturänderung. Diese Spannung wird verstärkt und über ein kalibriertes (°C) elektrisches Temperaturmessgerät angezeigt. Thermistoren sind die in der Praxis am meisten verwendeten Temperaturaufnehmer.
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _42, © Springer-Verlag Berlin Heidelberg 2011
726
Kapitel 42 · Metabolisches Monitoring
⊡ Tab. 42.1. Übersicht der Temperaturaufnehmer/-sonden und Messorte für die Ermittlung der Körpertemperatur (s. auch ⊡ Abb. 42.1–4) Lokalisation
Bemerkungen
1. Körperoberflächentemperaturaufnehmer Axilla
Um ~1°C niedriger als im Rektum, weniger geeignet für Temperaturmessungen auf Intensivstationen und im OP.
Haut
Applikation an unterschiedlichen Körperstellen (z. B. Stirn, Fußsohle u. a.), Temperaturwerte sind abhängig von der Durchblutungsqualität der Haut.
2. Temperaturaufnehmer und -sonden für Körperöffnungen
IV
Sublingual
Weniger geeignet für Temperaturmessungen auf Intensivstationen und im OP.
Rektum
Einfachste Annäherung an die Körperkerntemperatur (aber nicht repräsentativ), da Temperaturabhängigkeit von der Durchblutung der Darmschleimhaut, räumlicher Temperaturgradient, Fäzes kommt als Temperaturisolator in Betracht.
Nasopharynx
Applikation: Mukosa des Nasopharyngealraums, gute Verhältnisse für die Temperaturmessung durch räumliche Nähe zur A. carotis interna.
Äußerer Gehörgang
Applikation in Nähe des Trommelfells, Messresultate vergleichbar mit der Ösophagustemperatur.
3. Intrakorporale Temperatursonden Ösophagus
Applikation im unteren Drittel mittels Ösophagusstethoskop mit integrierter Temperatursonde, Temperaturverhältnisse vergleichbar denen des Gehirns (entspricht annähernd der Körperkerntemperatur).
Pulmonalarterie
Über Swan-Ganz-Katheter Online-Messung der Temperatur, Messwertbeeinflussung durch kalte Infusionslösungen möglich.
Harnblase
Über Foley-Katheter, Temperaturverhältnis entspricht annähernd der Körperkerntemperatur.
⊡ Abb. 42.2. Einmalsonden für Rektal- oder Ösophagustemperaturmessungen
⊡ Abb. 42.1. Einmalsonde für Hautoberflächenmessungen
⊡ Abb. 42.3. Foley-Katheter für Temperaturmessungen in der Harnblase
727 Weiterführende Literatur
Methodische Hinweise
Thermoelemente werden aus zwei miteinander verbundenen Metallen gebildet. Eine Verbindungsstelle wird auf konstanter Temperatur gehalten, während die zweite den eigentlichen Temperaturaufnehmer bildet. Zwischen den Metallverbindungen kommt es bei Erwärmung zu einer Temperaturdifferenz, die der elektrischen Spannung proportional ist. Thermomessstreifen sind mit Cholesterinkristallen imprägniert, deren molekulare Anordnung sich in Abhängigkeit von der Temperatur verändert. Weitere Aufnehmer und Sonden zur Temperaturermittlung sind: ▬ Wärmestrahlungsaufnehmer, ▬ Nadelthermometer, ▬ Deep-body-temperature-Sensoren.
42.4
In der klinischen Praxis ist es weitgehend üblich, die Temperaturdifferenz der Körperkerntemperatur zu einer peripheren Temperatur (Oberflächentemperatur) zu überwachen. Die Temperaturdifferenz ist ein wesentliches Kriterium zur Früherkennung beginnender Schockzustände, da die Temperatur an der Körperperipherie schneller absinkt als die Körperkerntemperatur.
Briegel J et al. (1994) Fieber als Leitsymptom in der Intensivmedizin. Intensivmedizin im Dialog 1: 1–4 Negri L, Weber W (1989) Körpertemperatur. In: Negri L, Schelling G, Jänicke U (Hrsg) Monitoring in Anästhesie und operativer Intensivmedizin. Wissenschaftliche Verlagsabteilung Abbott GmbH, Wiesbaden, 7.1–7.8 Zander JF (1994) Fiebersenkende Maßnahmen in der Intensivtherapie. Intensivmedizin im Dialog 1: 5–7
⊡ Abb. 42.4. Temperaturmessgerät (äußerer Gehörgang)
Wiederverwendbare Temperaturaufnehmer und -sonden dürfen nicht autoklaviert oder heißluftsterilisiert werden. Dagegen ist eine Gas-(Ethylenoxid) oder Plasmasterilisation möglich. Temperaturaufnehmer und -sonden müssen das CEZeichen tragen. Sie unterliegen gemäß MedizinprodukteBetreiberverordnung (MPBetreibV Anhang 2 zu §11) der Pflicht zu messtechnischen Kontrollen in einem Rhythmus von zwei Jahren (für Infrarot-Strahlungsthermometer beträgt die Frist ein Jahr).
Weiterführende Literatur
42
43 Zerebrales Monitoring B. Schultz, A. Schultz, H. Kronberg 43.1
EEG-Monitoring im Operationssaal und auf der Intensivstation – 729
43.1.1 43.1.2 43.1.3 43.1.4
Indikationen – 729 EEG-Bilder – 729 Spektralanalyse – 729 Weitere gebräuchliche Parameter zur Analyse und Beschreibung des EEG – 730 43.1.5 EEG-Stadien der Narkose bzw. der Sedierung – 730 43.1.6 EEG-Narkoseverlauf – 731 43.1.7 Technische Voraussetzungen – 732 43.1.8 Benefit des EEG-Monitorings im OP – 732 43.1.9 Benefit des EEG-Monitorings auf der Intensivstation – 733 43.1.10 Zusammenfassung – 733
43.1
EEG-Monitoring im Operationssaal und auf der Intensivstation B. Schultz, A. Schultz
Die Registrierung der Hirnströme (Elektroenzephalogramm, EEG) eignet sich zur Patientenüberwachung im Operationssaal und auf der Intensivstation (Freye u. Levy 2005).
43.1.1 Indikationen
Indikationen für den Einsatz des EEG-Monitorings im Operationssaal sind die Beurteilung der Effekte hypnotisch wirkender Substanzen, die frühzeitige Erkennung von Hypoxieeffekten und die Darstellung der zerebralen Auswirkungen von induzierter Hypothermie. Auf der Intensivstation ergeben sich als Anwendungsgebiete die Sedierungssteuerung, die Therapiesteuerung, z. B. im Status epilepticus, die Zustands- und Verlaufsbeurteilung bei komatösen Patienten sowie die orientierende diagnostische Nutzung im Hinblick auf epilepsietypische Aktivität und umschriebene zerebrale Funktionsstörungen.
43.1.2 EEG-Bilder
Eine Dämpfung der Hirnfunktion geht meist mit einer Verlangsamung des EEG einher. Die Frequenzzusammensetzung des EEG bietet daher einen Anhalt zur Einschätzung der Schwere einer zerebralen Funktionsveränderung bzw. Funktionsstörung. Für ein EEG-Monitoring sind
43.2
Intrakranieller Druck (ICP) – 733
43.2.1 43.2.2 43.2.3
Einleitung – 733 Physiologie des Hirndrucks – 734 Hirndruckmessung als Therapiekontrolle – 736
Literatur zum Abschn. »EEG-Monitoring im Operationssaal und auf der Intensivstation« – 738 Literatur zum Abschn. »Intrakranieller Druck (ICP)« – 738
auch spezielle Potentialformen von Interesse, wie z. B. epilepsietypische Potentiale. Grundsätzlich ist zwischen generalisierten und fokalen EEG-Veränderungen zu unterscheiden. Generalisierte EEG-Veränderungen zeichnen sich dadurch aus, dass sie über allen Regionen des Schädels sehr ähnlich ausgeprägt sind. Typische Beispiele sind EEG-Effekte durch hypnotisch wirksame Substanzen, Hypothermie, Hypoglykämie und globale Hypoxie. Fokale EEG-Veränderungen beschränken sich auf Teilbereiche des Schädels und können z. B. durch Tumoren, Blutungen oder lokal begrenzte Hypoxien bedingt sein. Konventionelle EEG-Ableitungen mit einer Vielzahl von Kanälen sind mit einem hohen praktischen Aufwand verknüpft. Generalisierte EEG-Veränderungen lassen sich aber mit hoher Zuverlässigkeit anhand einer einzigen EEGAbleitung beurteilen. Dies ist eine wesentliche Voraussetzung für den Einsatz des EEG als Monitoringmethode.
43.1.3 Spektralanalyse
Die herkömmliche visuelle Beurteilung des EEG-Signals erfordert spezielle Kenntnisse und Erfahrung. Daher stellt es für den Anwender eine wesentliche Vereinfachung dar, wenn das EEG für die Nutzung im OP und auf der Intensivstation mit Hilfe von computergestützten Verfahren analysiert wird und Interpretationshilfen gegeben werden. Eine Methode zur EEG-Auswertung ist die Spektralanalyse. Hierbei wird das EEG-Signal in definierten Zeitabschnitten in seine zugrundeliegenden Frequenzanteile zerlegt. Als Ergebnis erhält man ein EEG-Powerspektrum, das
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _43, © Springer-Verlag Berlin Heidelberg 2011
730
IV
Kapitel 43 · Zerebrales Monitoring
grafisch dargestellt werden und als Grundlage für weitere Auswertungen dienen kann. Es lassen sich einzelne Spektralparameter extrahieren, wie z. B. das 50%- und das 90%bzw. 95%-Quantil des Powerspektrums, die auch als Median bzw. als spektrale Eckfrequenz bezeichnet werden. Andere gebräuchliche Spektralparameter sind die Gesamtleistung (Power) sowie die Leistung in einzelnen Frequenzbereichen. Man unterscheidet die Frequenzbänder Delta (δ : 0,5– 3,5 Hz), Theta (ϑ : 3,5–7,5 Hz), Alpha (α : 7,5–12,5 Hz) und Beta (β: >12,5 Hz). Derartige Monoparameter erlauben es zwar häufig, generelle Trends im EEG darzustellen, die komplexe Information eines EEG lässt sich durch Monoparameter aber nicht umfassend beschreiben.
43.1.4 Weitere gebräuchliche Parameter zur
Analyse und Beschreibung des EEG Für das Monitoring des Narkose- und des Intensiv-EEG werden auch andere mathematische bzw. statistische Parameter eingesetzt. Beispielsweise geht in den Wert des Bispektrums neben Informationen aus dem Powerspektrum auch die Phasenkopplung ein. Die Bispektralanalyse ist ein Bestandteil der Funktionen, die für die Geräte der Firma Aspect (Aspect Medical Systems, Natick, MA, USA) verwendet werden (Bruhn 2006b; Johansen 2006). Entropie bezeichnet das Maß der Ordnung bzw. Unordnung, somit Zufälligkeit oder Vorhersagbarkeit eines Systems. Die spektrale Entropie bildet die Grundlage des in Überwachungseinheiten der Firma GE Healthcare, Helsinki, Finnland) genutzten Algorithmus (Bein 2006; Bruhn 2006a, 2006c). Mit Hilfe autoregressiver Parameter lässt sich der Verlauf der Roh-EEG-Kurve beschreiben. Es handelt sich hierbei um ein Regressionsmodell, bei dem der aktuelle Zeitreihenwert als gewichtete Summe eines oder mehrerer Vergangenheitswerte und eines Zufallsterms modelliert wird. Autoregressive und andere Parameter werden im Narcotrend (MT MonitorTechnik, Bad Bramstedt, Deutschland) verwendet (Kreuer et al. 2003; Schultz et al. 2003b). Eine Übersicht über unterschiedliche Verfahren und Monitore für die EEG-Überwachung geben Jameson und Sloan (2006).
Eine Stadieneinteilung von A bis F, die im Hinblick auf das EEG-Monitoring modifiziert worden war, diente als Grundlage für die Entwicklung einer automatischen EEG-Klassifikation. Diese wurde mit Hilfe eines multivariaten Ansatzes unter Einbeziehung spezieller Mustererkennungsalgorithmen realisiert und ist Bestandteil des EEG-Monitors Narcotrend, der für den Einsatz im Operationssaal und auf der Intensivstation entwickelt wurde (Schultz et al. 2003b). Zur Beurteilung der hypnotischen Komponente von Narkose und Sedierung mit Hilfe dieses Gerätes wird standardmäßig ein EEG-Kanal verwendet, wofür üblicherweise drei Einmal-EKG-Elektroden auf der Stirn des Patienten befestigt werden. In Abhängigkeit von der Art des operativen Eingriffs oder bei Kopfverletzungen können auch andere Elektrodenarten (z. B. Nadelelektroden) und Elektrodenpositionen zum Einsatz kommen. Zwei-Kanal-Registrierungen sind ebenfalls möglich. Der Narcotrend wertet das EEG zeitnah aus, wobei die Bewertung sekündlich aktualisiert wird. Insgesamt werden 15 Unterstadien im Bereich A–F unterschieden, und als Verfeinerung wird zusätzlich der Narcotrend-Index (100-0) angezeigt. Ein Ausschnitt aus dem Messbildschirm des Narcotrend ist in ⊡ Abb. 43.2 dargestellt.
43.1.5 EEG-Stadien der Narkose
bzw. der Sedierung Unter dem Einfluss von hypnotisch wirksamen Substanzen kommt es dosisabhängig zu einer fortschreitenden Verlangsamung des EEG. Vorschläge für Kriterien einer visuellen Klassifikation dieser EEG-Veränderungen in die Stadien A (wach) bis F (sehr tiefe Narkose/Sedierung) (⊡ Abb. 43.1) stammen von Kugler (1981).
⊡ Abb. 43.1. Typische Beispiele für das EEG in den Stadien A–F
731 43.1 · EEG-Monitoring im Operationssaal und auf der Intensivstation
43.1.6 EEG-Narkoseverlauf
Als Beispiel für die Anwendung der automatischen EEGBewertung zeigt ⊡ Abb. 43.3 einen EEG-Stadienverlauf aus einer Narkose mit dem Hypnotikum Propofol und dem Opioid Remifentanil. Beide Substanzen sind wegen ihrer kurzen Halbwertszeiten sehr gut steuerbar und wurden mittels Spritzenpumpen kontinuierlich intravenös appliziert. Nach der Narkoseeinleitung vom A- bis in den E/F-Bereich erfolgte die Narkoseaufrechterhaltung in tiefer Narkose im D/E-Bereich. Ca. um 10.00 Uhr wurde im EEG ein plötzliches Wacherwerden bis in den
B-Bereich entdeckt. Ursache war eine kurzfristige, technisch bedingte Unterbrechung der Narkosemittelzufuhr. Bei Narkoseführung in derartig flachen Stadien ist die Wahrscheinlichkeit von akustischen Wahrnehmungen erhöht. Durch einen Bolus des Hypnotikums Propofol wurde die Narkose bis in den F-Bereich vertieft. Die weitere Narkoseaufrechterhaltung erfolgte im E-Bereich. Gegen 11.30 Uhr begann die Narkoseausleitung mit einem kontinuierlichen Flacherwerden der Narkose vom E-Bereich bis zum Erwachen im A/B-Bereich. Die Patientin hatte postoperativ keine Erinnerung an intraoperative Ereignisse.
⊡ Abb. 43.2. Ausschnitt aus dem Messbildschirm des Narcotrend. Oben: Original-EEG, unten links: aktuelle Werte für Stadium (E0) und Index (29), darunter der EMG-Index (0), der ein Maß für die Überlagerung durch Muskelartefakte ist, sowie die aktuellen Elektrodenimpedanzen, unten rechts: EEG-Stadienverlauf (Cerebrogramm). Nach Gabe des Einleitungshypnotikums Propofol erreichte die Patientin vom Wachzustand (Stadium A) schnell ein tiefes Schlafstadium (Stadi-
um E/D, ca. 8.35 Uhr) und wurde nach Gabe eines Relaxans intubiert. Aufgrund der kurzen Halbwertszeit des Hypnotikums flachte die Narkose innerhalb weniger Minuten bis in den B-Bereich ab (ca. 8.40 Uhr). Durch einen Propofolbolus (ca. 8.43 Uhr) erfolgte eine Vertiefung der Narkose in den D/E-Bereich, in dem sie dann weitergeführt wurde. Das bei der Narkoseeinleitung und -aufrechterhaltung verwendete Opioid war Remifentanil
⊡ Abb. 43.3. Cerebrogramm einer Narkose mit einem nicht beabsichtigten kurzfristigen Wacherwerden der Patientin durch eine technisch bedingte Unterbrechung der Narkosemittelzufuhr (ca. 10.00 Uhr)
43
732
IV
Kapitel 43 · Zerebrales Monitoring
Die zur Aufrechterhaltung der Narkose erforderliche Dosis des Hypnotikums wurde für diese Patientin individuell anhand des Hirnstrombildes eingestellt, daher ließen sich länger dauernde Über- und Unterdosierungen vermeiden. Die kurzfristige unerwünschte Abflachung der Narkose konnte anhand des EEG schnell erkannt und sofort korrigiert werden. In der Klinik gebräuchliche Parameter zur Patientenüberwachung während der Narkose sind u. a. Blutdruck und Herzfrequenz. Kreislaufparameter stellen, insbesondere bei intravenösen Narkosen, keine verlässliche Grundlage zur Beurteilung der hypnotischen Komponente der Narkose dar. Das EEG erfasst die Effekte hypnotisch wirksamer Substanzen direkt am Wirkorgan, dem Gehirn, und ist für den Anästhesisten eine wertvolle Hilfe zur Dosisfindung. Bei der Anwendung und Interpretation des EEG in der Praxis ist die klinische Gesamtsituation zu beachten, da auch andere Einflussgrößen wie Hypoxie, Hypoglykämie und Hypothermie das EEG in ähnlicher Weise wie Narkotika/Sedativa beeinflussen können. Visuell klassifizierte EEG-Epochen stellen eine sichere und eindeutige Grundlage für die Entwicklung von automatischen Klassifikationsalgorithmen dar und erlauben eine einfache Validierung. Für den Anwender bedeutet die Verwendung der visuellen EEG-Bewertung als Basis methodische Transparenz, denn es besteht eine eindeutige Beziehung zwischen den Charakteristika des Original-EEG und der automatischen Bewertung. Dies kann als ein wesentlicher Vorteil des Narcotrend gegenüber anderen Ansätzen zur automatischen EEG-Bewertung angesehen werden, bei denen darauf verzichtet wird, eine eindeutige Beziehung zwischen EEG-Bildern und mathematisch-statistisch ermittelten Parametern, wie z. B. Indizes, festzulegen.
43.1.7 Technische Voraussetzungen
Bei der praktischen Durchführung des EEG-Monitorings mit dem Narcotrend haben sich die folgenden Gerätemerkmale als wichtig herausgestellt. Da die Signalqualität des EEG und damit auch die Zuverlässigkeit automatischer Folgeauswertungen in hohem Maße von einem konstant guten Elektroden-HautKontakt abhängig sind, ist es erforderlich, engmaschige Impedanzkontrollen durchzuführen. Das EEG-Signal ist sehr störanfällig, daher stellt eine automatische Artefakterkennung eine unverzichtbare Voraussetzung für eine Weiterverarbeitung des Signals dar. Die visuelle Auswertung war jahrzehntelang das Standardverfahren zur EEG-Analyse und ist auch heute noch in der klinischen Praxis unverzichtbar (z. B. Kontrolle des Signals im Hinblick auf Störungen, Erkennung spezieller EEG-Bilder und Potentialformen wie epilepsietypischer Potentiale). Daher ist eine sehr deutliche Darstellung des
Roh-EEG mit unterschiedlichen Skalierungsmöglichkeiten und zuschaltbaren Filtern erforderlich. Veränderungen des EEG mit dem Lebensalter sind sowohl bei der automatischen Bewertung als auch bei der EEG-Darstellung zu berücksichtigen. Unterschiedliche Operationsgebiete, Lagerungen und Verletzungsmuster der Patienten bedingen, dass neben möglichst variablen Elektrodenpositionen auch verschiedene Elektrodenarten gebraucht werden. Für eine orientierende Untersuchung zum Seitenvergleich des EEG-Bildes sollten mindestens zwei Kanäle zur Verfügung stehen. Zur Dokumentation sollten sowohl Momentaufnahmen des Original-EEG als auch Verläufe von EEG-Parametern bzw. -Bewertungen ausgedruckt werden können. Ebenso sollte eine Archivierung der vollständigen Original-EEG-Daten möglich sein.
43.1.8 Benefit des EEG-Monitorings im OP
Eine Verbesserung der Narkosequalität durch das EEGMonitoring, z. B. hinsichtlich individuell angepasster Dosierung, Vermeidung von Awareness-Situationen und einer zügigen postoperativen Erholung, konnte in klinischen Untersuchungen nachgewiesen werden. Dies soll durch einige Beispiele illustriert werden. Die große interindividuelle Variabilität hinsichtlich des Bedarfs an hypnotisch wirksamen Substanzen wurde in einer Multicenterstudie mit 4630 Patienten deutlich (Wilhelm et al. 2002), es zeigte sich auch, dass das EEGMonitoring eine altersgerechte Dosierung unterstützt (Schultz et al. 2004). Bei einem Teil der Narkosen in dieser Studie wurde das EEG verblindet registriert, d. h. die EEG-Bewertungen waren für den Anästhesisten nicht zugänglich. Nur 68,6 % der Patienten mit verblindeter EEGRegistrierung hatten im Steady state der Narkose ein EEG im mittleren bis tiefen Narcotrend-Stadienbereich D/E. Die übrigen Narkosen waren entweder sehr flach, sehr tief oder unruhig im Verlauf. Zwei von 603 Patienten, deren EEGs verblindet registriert wurden, berichteten postoperativ über intraoperative Wahrnehmungen (Schultz et al. 2006). Wurde hingegen die Narkose anhand des EEG im Stadienbereich D/E-Bereich gesteuert, gab es in keinem Fall intra- oder postoperativ Hinweise für eine intraoperative Awareness. Bei der Auswertung von Daten aus 32 Studienzentren zeigte sich, dass durch das EEG-Monitoring in den Zentren Änderungen der Propofoldosierungen um –28,4 bis +86,2 % auftraten (Willig et al. 2010). In Studien mit EEG-gesteuerten Propofol/Remifentanil-Narkosen wurde deutlich, dass das EEG-Monitoring eine geschlechtsadaptierte Dosierung unterstützt. Es zeigte sich, dass Frauen einen erhöhten Propofol-Bedarf haben, aber trotzdem schneller aus der Narkose aufwachen (Haensch et al. 2009; Willig et al. 2010).
733 43.2 · Intrakranieller Druck (ICP)
Das EEG-Monitoring unterstützt die Dosierung bei der Target-controlled infusion (TCI). TCI-Perfusoren zur intravenösen Gabe von Medikamenten beinhalten Dosierungsalgorithmen, die auf pharmakokinetischen Modellen beruhen. Allerdings wurden Abweichungen zwischen errechneten Medikamentenzielspiegeln und gemessenen Medikamentenspiegeln beschrieben (Fechner et al. 1998). Mit Hilfe des EEG lässt sich die Propofol-Dosis bei TCINarkosen auch unter Berücksichtigung der Opiatdosierung individuell anpassen (Büttner et al. 2010). In einer weiteren Studie wurden neurochirurgische Patienten mit Operationen von Hirntumoren intraoperativ mit dem Narcotrend überwacht. Diese Patienten, deren Narkosen im Steady state in tiefen EEG-Stadien gesteuert wurden, erhielten nur etwa die Hälfte der Propofoldosis, die Patienten aus einer Vergleichsgruppe ohne EEG-Monitoring bekamen. Die meisten der EEG-überwachten Patienten konnten schon im Operationssaal extubiert werden. Das erleichterte unmittelbar postoperativ die neurologische Beurteilung. Der Pflegeaufwand auf der Intensivstation war vermindert (Schultz et al. 2008). Mit Hilfe des EEG konnten bei Patienten mit Thoraxeingriffen sehr kurze Aufwachzeiten erzielt werden. Hierdurch wurde eine effektivere Kapazitätsausnutzung im Operationsbereich erreicht (Schulze et al. 2004). In einer Untersuchung von Rundshagen et al. (2004) erholten sich Patienten hinsichtlich ihrer psychomotorischen Funktionen nach Narkosen mit EEG-Monitoring schneller als nach Narkosen ohne EEG-Überwachung. Die Autoren interpretieren die Ergebnisse so, dass es mittels EEG besser möglich ist, die Narkose adäquat zu steuern, was zu einer Verminderung des Anästhetikaüberhangs in der frühen postoperativen Phase und zu verbesserten psychomotorischen Funktionen führt. Studien von Weber et al. (2005a, 2005b) zeigten, dass sich auch bei Kindern mit dem EEG-Monitoring die Dosierung der Hypnotika individuell vornehmen ließ. Bei Kindern mit Cochlea-Implantation half das EEG zuverlässig, kurzfristig in der Implantattestphase sehr flache Narkose-EEG-Stadien anzusteuern. Eine möglichst geringe Beeinflussung der Hirnfunktion – und damit auch der Hörverarbeitung – durch hypnotisch wirksame Substanzen ist in dieser Phase wichtig, damit die bei der Implantattestung gewonnenen Messergebnisse als Grundlage für die postoperative individuelle Anpassung des Sprachprozessors genutzt werden können (Schultz et al. 2003a).
Untersuchung und Beurteilung eingeschränkt sind. Dies gilt für relaxierte Patienten und Personen in tiefen Sedierungs- oder Komastadien mit nur noch spärlichen Reaktionen auf externe Reize. Ein Zweijahresvergleich hinsichtlich der Liegezeit von beatmeten Patienten auf einer anästhesiologisch-chirurgischen Intensivstation ergab, dass in einem Jahr mit regelmäßigen EEG-Kontrollen zur Sedierungssteuerung die Liegezeit im Mittel etwa 24,4% kürzer war als in einem Jahr ohne EEG-Überwachung (Schultz et al. 2007). Die Erfahrung zeigt, dass geriatrische Patienten, bei denen häufig Vorerkrankungen und eine eingeschränkte Kompensationsfähigkeit bestehen, besonders von einem EEG-Monitoring der Sedierung profitieren. Die Gefahr von Sekundärkomplikationen durch unnötig lange Beatmungszeiten bei Intensivpatienten wird verringert. Die Sedierungssteuerung ist eine wichtige Indikation für das EEG-Monitoring bei Intensivpatienten. Daneben gibt es zahlreiche Diagnostik und Therapie unterstützende Anwendungen, z. B. in der Hirndrucktherapie, bei der Diagnose und Behandlung zerebraler Erregbarkeitssteigerungen, bei der Zustands- und Verlaufsbeurteilung komatöser Patienten und der orientierenden Untersuchung im Hinblick auf umschriebene zerebrale Funktionsstörungen (Hirsch 2004; Rijsdijk et al. 2008; Schultz 2006; Stöhr u. Kraus 2002; Zschocke 2002).
43.1.10 Zusammenfassung
Zusammenfassend lässt sich feststellen, dass das EEGMonitoring durch die moderne technische Umsetzung und insbesondere durch die automatische Interpretation heute mit geringem Aufwand als Routinemethode in der Praxis anwendbar ist. Es stellt eine sinnvolle und wichtige Ergänzung der bislang üblichen Patientenüberwachungsverfahren dar. Durch die Nutzung des EEG-Monitorings lässt sich eine erhebliche Qualitätsverbesserung von Narkose und Intensivtherapie erreichen.
43.2
Intrakranieller Druck (ICP) H. Kronberg
43.2.1 Einleitung 43.1.9 Benefit des EEG-Monitorings
auf der Intensivstation Die Einbeziehung des EEG als Monitoringverfahren erlaubt nicht nur im OP, sondern auch auf der Intensivstation eine differenziertere Beurteilung des Patienten in Situationen, in denen die Möglichkeiten der klinischen
Raumfordernde Prozesse im Gehirn können zu gefährlichen Anstiegen des Hirndrucks (ICP; »intracranial pressure«) führen, wenn die Kompensationskapazität der betroffenen homöostatischen Regelmechanismen ausgeschöpft ist. Überhöhter Hirndruck verursacht zerebrale Sauerstoffmängel infolge mangelhafter Blutperfusion, da das Druckgefälle zwischen systemischem arteriellen Druck
43
734
IV
Kapitel 43 · Zerebrales Monitoring
SAP und dem ICP (CPP; »cerebral perfusion pressure«) vermindert ist. Schließlich bergen die zugrundeliegenden raumfordernden Prozesse die Gefahr einer lebensgefährlichen Hirnstammeinklemmung mit Atemlähmung. Raumfordernde Prozesse können langsam ablaufen (Tumor), sich in Stunden bis Tagen entwickeln (Hirnödem) oder auch plötzlich auftreten (Massenblutung). Es gibt auch wellenartige pathologische ICP-Anstiege, die wahrscheinlich mit Schwankungen des zerebralen Blutvolumens zusammenhängen. Häufigste Indikation zur ICP-Überwachung ist das Schädel-Hirn-Trauma (SHT). Denn die übliche Notfallbehandlung des Patienten mit Beatmung, Sedierung und Relaxierung verdeckt die klinische Symptomatik von ICPAnstiegen. Eine prophylaktische Therapie gegen erhöhten Hirndruck ohne Langzeitnebenwirkungen gibt es nicht. Deshalb müssen solche Patienten unter kontinuierlicher Kontrolle des Hirndrucks – Dauer meist 3 bis 6 Tage – behandelt werden. Zur ICP-Messung wurden verschiedene Methoden eingeführt, die sich im Wesentlichen in 2 Gruppen unterschiedlicher Invasivität einteilen lassen. Als invasive Methoden mit erhöhter Infektionsgefahr bei längerer Überwachungsnotwendigkeit: die direkte Kathetermessung des intraventrikulären Drucks (»Goldstandard«), des intraparenchymalen oder des subduralen Drucks, und als »geringinvasive« Methode, deren Infektionsrisiko gut beherrschbar ist, aber unter häufigen Messartefakten leidet: die epidurale Hirndruckmessung. Die früher mitunter bevorzugte Lumbaldruckmessung mit der Möglichkeit einer Liquorentnahme wird wegen der Gefahr einer Hirnstammeinklemmung nicht mehr empfohlen. Dass Bedeutung und Indikation der Hirndruckmessung kaum mehr umstritten sind, zeigt sich an der großen Zahl von Veröffentlichungen in den vergangenen 35 Jahren. Obwohl die Hirndruckmessung schon seit etwa 100 Jahren mit Einführung der Lumbalpunktion durch Quincke in der klinischen Forschung praktiziert wurde, ist die ICP-Überwachung erst mit der klassischen Studie von Lundberg (1960) und der von ihm eingeführten Definition von Hirndruckwellen endgültig in die klinische Routine des zerebralen Monitorings eingeführt worden. – Als Beitrag, der eine Übersicht zur Physiologie und Messtechnik bietet, sei der Artikel von Allen (1986) empfohlen, eine umfangreiche Darstellung einschließlich Messbeispielen findet sich bei Gaab und Heissler (1984), während Steinbereithner et al. (1985) eine kurze Übersicht über die Therapie des Schädel-Hirn-Traumas mit Würdigung der Hirndruckmessung bringen. Betsch (1993) hat sich in seiner Dissertation speziell mit den technischen Problemen der für die klinische Routine in Deutschland bevorzugten epiduralen ICP-Messung befasst. Die aufgeführten Arbeiten enthalten umfangreiche weiterführende Literaturhinweise, sodass im Folgenden auf Zitate verzichtet wird.
43.2.2 Physiologie des Hirndrucks
Das Zentralnervensystem (ZNS) schwimmt im Liquor cerebrospinalis (CSF; »cerebrospinal fluid«) und ist von der harten Hirnhaut (Dura mater) umschlossen. Dabei bildet der Schädel nach Schließen der Fontanellen eine feste Hülle des Hirns, während der Lumbalsack, der das Rückenmark schützt, eine begrenzte Ausdehnungsmöglichkeit besitzt. Das Erwachsenenhirn enthält etwa 1500 ml Parenchym und je 120 ml Blut und Liquor. Die interstitielle Flüssigkeit trägt zu 10–15% des Hirngewichts bei. Ständig wird in den Ventrikeln Liquor als »Blutfiltrat« gebildet (ca. 500 ml/Tag) und fließt in den Subarachnoidalraum, eine wenige Millimeter dicke Schicht zwischen ZNS und Dura. Schließlich wird der Liquor wieder über druckempfindliche ventilartige Zotten (Pacchioni-Granulationen) vom venösen Kreislauf resorbiert. Das Resultat von Produktion und Resorption ist ein normaler Hirndruck von 5–15 mmHg. Da die Liquorproduktion weitgehend unabhängig vom ICP ist, bestimmt der Venendruck wesentlich den mittleren Hirndruck. Hirndruckbereiche (ICP) beim Erwachsenen: normal
5–15 mmHg
leicht erhöht
15–20 mmHg
therapiepflichtig
20–40 mmHg
schwerste Erhöhung
> 40 mmHg
Raumfordernde Prozesse einer Hirnkomponente – z. B. beim Ödem – bedingen eine reziproke Volumenänderung wenigstens einer der übrigen Komponenten, wenn der Hirndruck konstant bleiben soll. Bis zu einem ICP von etwa 15 mmHg verhindern dabei homöostatische Regelmechanismen eine Mangeldurchblutung des Gehirns. Zunächst kann Liquor in den dehnbaren Lumbalsack getrieben werden, bei weiterer Raumforderung wird auch mehr Liquor venös resorbiert. Schließlich kann noch das venöse System komprimiert und damit das Blutvolumen im Hirn reduziert werden. Sind diese Kompensationswege ausgeschöpft, droht eine Einklemmung des Hirngewebes im Tentorialspalt mit schnell wachsendem ICP. ⊡ Abb. 43.4 zeigt schematisch diese Druck-Volumen-Beziehung. Ist die homöostatische Autoregulation erschöpft (ICP>15 mmHg) oder defekt, so folgt die zerebrale Blutperfusion und damit die Sauerstoffversorgung des Gehirns der Druckdifferenz zwischen arteriellem Zufluss und venösem Abfluss. Diese Druckdifferenz entspricht weitgehend dem zerebralen Perfusionsdruck CPP=SAP– ICP als mittlere Differenz aus systemischem arteriellen Druck und Hirndruck. Perfusionsdruckbereiche (CPP): normal
50–150 mmHG, typ. 80 mmHg
Mangelperfusion
< 50 mmHg
735 43.2 · Intrakranieller Druck (ICP)
Therapeutische Maßnahmen zur Hirndrucksenkung dürfen den CPP nicht unter 50 mmHg absenken; neben dem ICP ist daher immer auch der CPP zu überwachen! Der normale Hirndruck ist nicht statisch, sondern von dynamischen Komponenten überlagert, die von arteriellen Blutdruckwellen und venös übertragenen Atemdruckschwankungen herrühren. Während der spontanen Inspiration fällt der ICP und steigt wieder bei der Exspiration (⊡ Abb. 43.5). Der Druckverlauf einzelner ICP-Pulse zeigt noch eine ausgeprägte Feinstruktur bei normalem Hirndruck, die sich mit wachsendem ICP verändert und allmählich verschwindet (⊡ Abb. 43.6). Die Klärung der klinischen Relevanz dieses Phänomens ist jedoch noch Gegenstand der Forschung. Pathologische Werte des Hirndrucks treten häufig in Wellen auf. Plateau- oder A-Wellen sind ICP-Anstiege auf
ein Niveau von 50–100 mmHg für Dauern von 5–20 min. Offenbar hängen A-Wellen mit Phasen zerebraler Vasodilatation und damit vermehrter Blutfülle zusammen. BWellen sind plötzliche ICP-Sprünge von normalen Werten in den Bereich von 30–60 mmHg mit einer Häufigkeit von etwa einem Sprung pro Minute. Die Wellen werden häufig beim SHT beobachtet und sind durch Störungen der Liquorzirkulation und ebenfalls Schwankungen der zerebralen Blutfülle bedingt. C-Wellen sind Druckoszillationen mit geringerer Amplitude bis zu 20 mmHg und Frequenzen von etwa 6 pro Minute. Sie korrelieren mit Traube-HeringMayer-Oszillationen des arteriellen Blutdrucks. Intrakranielle Raumforderungen führen leicht zu Zirkulationsbehinderungen oder gar Gewebeeinklemmungen im Bereich der Foramina der Septen, insbesondere bei schnellen Prozessen. Dann treten Druckgradienten zwischen den kraniospinalen Kompartimenten auf, die eine Indikation zur ICP-Überwachung an mehreren Orten sein können; jedenfalls ist der ICP im Bereich der Läsion zu überwachen!
⊡ Abb. 43.4. Intrakranielle Druck-Volumen-Charakteristik (schematisch)
⊡ Abb. 43.5. Dynamische Komponenten des Hirndrucks eines Säuglings mit Hydrozephalus
⊡ Abb. 43.6. Feinstruktur der ICP-Pulskurve, druckabhängig
43
736
Kapitel 43 · Zerebrales Monitoring
43.2.3 Hirndruckmessung als
Therapiekontrolle
IV
Ziel der Therapie des überhöhten Hirndrucks ist es, Sekundärschäden des ZNS zu vermeiden. Kopf- und Nackenlage sind kritisch zu beachten, da sie das zerebrale venöse Blutvolumen und damit den ICP deutlich beeinflussen können. Eine leichte Kopfhochlage senkt den zerebralen Venendruck und ICP. Hyperventilation führt über die begleitende Hypokapnie zu einer Vasokonstriktion mit Minderung der intrakraniellen Blutfülle. Bei längerer Hyperventilation birgt die verminderte Blutperfusion jedoch die Gefahr einer Hypoxie, in deren Folge ein ICP-steigerndes Hirnödem entstehen kann. Dehydrierende und diuretische Medikamente zur Osmotherapie sind nur zur akuten Senkung eines erhöhten ICP geeignet, wegen unerwünschter Nebenwirkungen nicht aber zur Therapie des Hirnödems. Eine Barbituratbehandlung mit Herabsetzung des Hirnstoffwechsels senkt den zellulären Sauerstoffverbrauch und schützt vor Dauerfolgen einer Hypoxie. Längerfristige hohe Barbituratdosierungen senken jedoch den arteriellen Blutdruck mit der Gefahr eines zu geringen Perfusionsdrucks CPP. Es gibt also keine prophylaktische Dauertherapie gegen überhöhten Hirndruck. Die verschiedenen Therapieformen sollten immer unter Hirndruck-Kontrolle geführt werden. Beim SHT gelten die ersten 48 h nach der Verletzung als besonders kritisch, in den meisten Fällen muss der ICP nicht länger als eine Woche überwacht werden. Verschiedene Studien haben gezeigt, dass mit Einführung der Hirndrucküberwachung die Letalität um etwa 40% gesenkt wurde, ohne Steigerung der Morbidität. Die Methoden der Hirndruckmessung sind nach dem heutigen
⊡ Abb. 43.7. Technische Möglichkeiten zur klinischen Hirndruckmessung
Stand der Technik immer noch invasiv, unterscheiden sich jedoch in ihrem Infektionsrisiko (⊡ Abb. 43.7): 1. Messung des intraventrikulären, intraparenchymalen oder subduralen Drucks über Katheter, 2. Messung des epiduralen Drucks mit Miniaturdruckwandlern oder über pneumatische Sensoren. Ungewöhnlich hohe Anforderungen sind an die Nullpunktstabilität der Sensoren (Drift ≤ 2 mmHg/Tag) zu richten, da der ICP selber ein Niederdrucksignal ist. Viele Sensoren sind jedoch nach Applikation v. a. wegen Feuchtigkeitsdrift weniger stabil und erfordern daher einen regelmäßigen Nullpunktabgleich. Wenn die Feinstruktur der Pulswellen interessiert, muss das Messsystem eine Bandbreite von etwa 20 Hz (bei Säuglingen 40 Hz) haben, allerdings genügt eine Bandbreite von etwa 3 Hz, um die ICPPulsamplitude mit ausreichender Dynamik zu erfassen. Alle Methoden erfordern ein Schädelbohrloch für die Sensorapplikation. Zur intraventrikulären ICP-Messung wird ein Katheter durch die geschlitzten Hirnhäute und das Parenchym bis in die Seitenventrikel geschoben und der Druck extern wie bei der Blutdruckmessung üblich erfasst. Der externe Drucksensor muss dabei genau auf Höhe der Seitenventrikel liegen, um hydrostatische Fehler zu vemeiden (1 mmHg = 13 mm Liquorsäule). Diese Methode gilt als »golden standard« und hat den Vorzug, dass akute Hirndruckanstiege häufig per Liquordrainage therapiert werden können. Probleme: bei fortgeschrittener Raumforderung und daher engem Ventrikel ist die Katheterapplikation schwierig bis unmöglich, ein wohlapplizierter Katheter kann verstopfen – und v. a. steigt das Infektionsrisiko im immunschwachen intrazerebralen Raum erheblich nach etwa 2 Tagen. Infektionen schleichen
737 43.2 · Intrakranieller Druck (ICP)
sich über die oszillierende Flüssigkeitssäule im Katheter ein (Puls- und Atmungswellen), in der Bakterien gegen Spülfluss und Schwerkraft mit etwa 1,5 m/24 h wandern. Deshalb hat sich in der klinischen Routine die epidurale Hirndruckmessung 2) auf der geschlossenen Dura mater gegenüber den Methoden 1) weitgehend durchgesetzt. Wenn trotzdem Infektionen auftreten (selten), sind sie meist leicht zu beherrschen. Obwohl auch dieses Verfahren ein Bohrloch in der Schädelkalotte erfordert, gilt es daher als vergleichsweise geringinvasiv. Problem: Die epidurale Sensorapplikation erfordert erhöhte »handwerkliche« Sorgfalt, um Duraartefakte zu vermeiden. Dies wird in der Routine häufig vernachlässigt, mit der Folge fehlerhaft überhöhter epiduraler ICP-Werte. Die Druckmessung auf der geschlossenen Dura basiert auf dem Prinzip der Applanationstonometrie, das auch die Augeninnendruckmessung ermöglicht. Der Drucksensor selbst ebnet die Dura an der Applikationsstelle, sodass die Duraspannung keinen Einfluss mehr auf das Messergebnis
haben kann. ⊡ Abb. 43.8 stellt dieses Prinzip schematisch dar, einschließlich Fehlereinflüssen durch Knochenreste oder Blutkoagel auf der Dura, die sich als »Wilhelm-TellEffekt« messwerterhöhend auswirken, indem sie Komponenten der Duraspannung dem reinen Drucksignal überlagern. Voraussetzungen für eine korrekte epidurale ICP-Messung sind demnach: Bohrloch auf der Seite der Läsion anlegen; Dura mit stumpfem Haken in einem Bereich von ca. 10 mm von der Tabula interna lösen, damit sie sich ohne Randspannung an die Messmembran anlegen kann; sorgfältige Blutstillung im Bereich der Applikationsstelle (Knochenwachs etc.) und Spülung der Dura. Es ist daher vorteilhaft, wenn der Operateur die Applikationsstelle direkt betrachten kann (gegenüber einer Sensorapplikation zwischen Dura und Tabula interna). ⊡ Abb. 43.9a gibt als Beispiel die Technik der epiduralen Hirndruckmessung mit einem pneumatischen System an. Die Sensoren sind Einmalsensoren, die über einen
⊡ Abb. 43.8a–c. Prinzip der Applanationstonometrie. a Freier »Duraballon«, der ein Überdruckvolumen umschließt. Membran im Gleichgewicht der austreibenden Kraft F(ICP) und der resultierenden Gegenkraft aus der Duraspannung F(Dura), b steife Sensormessmembran applaniert die Dura, die Duraspannungskräfte kompen-
sieren sich [F(Dura)=0], sodass nur die dem ICP entsprechende Kraft F(ICP) messwirksam bleibt, c Durainhomogenitäten, Knochenreste oder Blutkoagel führen eine Duraspannungskomponente F(Dura) ein, die sich der Hirndruckkraft F(ICP) mit messwerterhöhender Wirkung überlagert
⊡ Abb. 43.9a,b. a Epidurale Applikation eines pneumatischen Einmalsensors, b intraventrikuläre Druckmessung
43
738
Kapitel 43 · Zerebrales Monitoring
katheterähnlichen Schlauch den Druck im Sensorkopf pneumatisch übertragen. Für dieses Hirndruckmesssystem gibt es drei Sensortypen: zur Applikation konzentrisch im Bohrloch, zum Einschieben zwischen Tabula interna und abgelöster Dura sowie zur intraventrikulären ICP-Messung (⊡ Abb. 43.9b) mit der Möglichkeit der Liquordrainage über ein zweites Lumen.
Literatur zum Abschn. »EEG-Monitoring im Operationssaal und auf der Intensivstation«
IV
Bein B (2006) Entropy. Best Pract Res Clin Anaesthesiol 20: 101–109 Bruhn J (2006a) Entropie. In: Wilhelm W, Bruhn J, Kreuer S (Hrsg) Überwachung der Narkosetiefe, 2. Aufl. Deutscher Ärzte-Verlag Köln, S 53–63 Bruhn J (2006b) BIS-Monitor. In: Wilhelm W, Bruhn J, Kreuer S (Hrsg) Überwachung der Narkosetiefe, 2. Aufl. Deutscher Ärzte-Verlag Köln, S 89–107 Bruhn J (2006c) Datex-Ohmeda Entropie-Monitor. In: Wilhelm W, Bruhn J, Kreuer S (Hrsg) Überwachung der Narkosetiefe, 2. Aufl. Deutscher Ärzte-Verlag Köln, S 133–145 Fechner J, Albrecht S, Ihmsen H et al. (1998) Prädiktivität und Präzision einer »target-controlled infusion« (TCI) von Propofol mit dem System »Disoprifusor TCI®«. Anaesthesist 47: 663–668 Freye E, Levy JV (2005). Cerebral monitoring in the operating room and the intensive care unit: an introductory for the clinician and a guide for the novice wanting to open a window to the brain. Part I: The electroencephalogram. J Clin Monit Comput 19: 1–76 Haensch K, Schultz A, Krauß T et al. (2009) Women need more propofol than men during EEG-monitored total intravenous anaesthesia. Biomed Tech 54: 76–82 Hirsch LJ (2004) Continuous EEG monitoring in the intensive care unit: an overview. J Clin Neurophysiol 21: 332–340 Jameson LC, Sloan TB (2006) Using EEG to monitor anesthesia drug effects during surgery. J Clin Monit Comput 20: 445–472 Johansen JW (2006) Update on Bispectral Index monitoring. Best Pract Res Clin Anaesthesiol 20: 81–99 Kreuer S, Biedler A, Larsen R et al. (2003) Narcotrend monitoring allows faster emergence and a reduction of drug consumption in propofol-remifentanil anesthesia. Anesthesiology 99: 34–41 Kugler J (1981) Elektroenzephalographie in Klinik und Praxis. Thieme, Stuttgart New York Rijsdijk M, Lijten FSS, Slooter AJC (2008) Continuous EEG monitoring in the intensive care unit. Neth J Crit Care 12: 157–162 Rundshagen I, Dressler I, Thattamanil N et al. (2004) Hat die EEG-gestützte Narkoseführung einen Einfluss auf die Erholung der psychomotorischen Funktionen in der frühen postoperativen Phase? Abstractband DAC: 140 Schultz A, Grouven U, Beger FA et al. (2004) Age-related effects in the EEG during propofol anaesthesia, Acta Anaesthesiol Scand 48: 27–34 Schultz A, Kneif T, Grouven U, Schultz B (2007) EEG-Monitoring zur Sedierungsüberwachung: Verkürzung der intensivstationären Behandlungsdauer. Klin Neurophysiol 38: 198–202 Schultz B (2006) EEG-Monitoring auf der Intensivstation. In: Wilhelm W, Bruhn J, Kreuer S (Hrsg) Überwachung der Narkosetiefe. 2. Aufl., Deutscher Ärzte-Verlag Köln, S 300–317 Schultz B, Beger FA, Weber BP et al. (2003a) Influence of EEG monitoring on intraoperative stapedius threshold values in cochlear implantation in children. Paediatr Anaesth 13: 790–796 Schultz B, Büttner NA, Schönberg G et al. (2006) EEG-gestützte Narkoseüberwachung: Untersuchung hinsichtlich einer EEG-adaptierten Propofoldosierung. Klin Neurophysiol 37: 1–5
Schultz B, Kreuer S, Wilhelm W et al. (2003b) Der Narcotrend-Monitor – Entwicklung und Interpretationsalgorithmus. Anaesthesist 52: 1143–1148 Schultz B, Schleppers A, Kneif T et al. (2008) Einfluss von EEG-Monitoring, Alter und Geschlecht auf den Propofolbedarf während neurochirurgischer Eingriffe. Klin Neurophysiol 39: 189–193 Schulze K, Kraus G, Nordhausen R et al. (2004) DRGs: Fast-TrackAnästhesie in der Thoraxchirurgie – total intravenöse Anästhesie (TIVA) mit EEG-Monitoring. Anästhesiol Intensivmed 45: 746–747 Stöhr M, Kraus R (2002) Einführung in die klinische Neurophysiologie. Steinkopff, Darmstadt Weber F, Hollnberger H, Gruber M et al. (2005a) The correlation of the Narcotrend Index with endtidal sevoflurane concentrations and hemodynamic parameters in children. Paediatr Anaesth 15: 727–732 Weber F, Pohl F, Hollnberger H, Taeger K (2005b) Impact of the Narcotrend Index on propofol consumption and emergence times during total intravenous anaesthesia with propofol and remifentanil: a clinical utility study. Eur J Anaesthesiol 22: 741–747 Willig M, Schultz B, Kneif T, Schultz A (2010) Einfluss des EEG-Monitorings auf das Dosierverhalten bei intravenöser Anästhesie – Eine multizentrische Analyse. Klin Neurophysiol 41: 28–32 Wilhelm W, Kreuer S, Larsen R und die Narcotrend-Studiengruppe (2002) Narcotrend-EEG-Monitoring bei total intravenöser Anästhesie. Anaesthesist 51: 980–988 Zschocke S (2002) Klinische Elektroenzephalographie, 2. Aufl. Springer, Berlin Heidelberg New York Barcelona Hongkong London Mailand Paris Tokyo
Literatur zum Abschn. »Intrakranieller Druck (ICP)« Allen R (1986) Intracranial pressure: a review of clinical problems, measurement techniques and monitoring methods. J Med Eng Technol 10: 299–320 Betsch HM (1993) Experimentelle und klinische Untersuchungen über Fehler und Artefakte der epiduralen Hirndruckmessung. Inauguraldiss., Universität Heidelberg Gaab MR, Heissler HE (1984) ICP Monitoring. Crit Rev Biomed Eng 11/3: 189–250 Lundberg N (1960) Continuous recording and control of ventricular fluid pressure in neurosurgical practice. Acta Psychiatr 36 (Suppl. 149) Steinbereithner K, Mauritz W, Sporn P (1985) Therapie des SchädelHirn-Traumas – aktueller Stand. Notfallmedizin 11: 1002–1013
44 Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme B. Wacker, M. Maier 44.2.5 44.2.6 44.2.7
44.1
Kardiotokographie (CTG) – 739
44.1.1 44.1.2 44.1.3 44.1.4 44.1.5 44.1.6 44.1.7
Einsatzbereiche – 739 Messverfahren – 739 Direkt-EKG-Messverfahren – 740 Toco-Messverfahren – 740 Intrauterine Druckmessung – 741 Zusatzfunktionen und Optionen – 741 Auswahlkriterien für CTG – 742
44.2
Geburtenüberwachungssysteme
44.2.1 44.2.2 44.2.3
Einsatzbereiche – 742 Systemaufbau – 742 Datenerfassung und -aufbereitung der angeschlossenen CTG – 743 Auswertung der CTG-Daten und Alarmierung – 744
44.2.4
44.1
44.2.8 44.2.9
– 742
Kardiotokographie (CTG)
44.1.1 Einsatzbereiche
Die Kardiotokographie dient zur Überwachung der fetalen Herzfrequenz und Wehentätigkeit. Sie findet sowohl Einsatz bei der Geburtsvorsorge (antepartal, vorgeburtlich) als auch »unter der Geburt« (intrapartal) im Kreissaal. Die Geräte werden von Hebammen und Schwestern bedient. Die Auswertung der Kurven erfolgt ebenfalls durch Hebammen und Schwestern sowie durch die behandelnden Ärzte. Kardiotokographen erlauben in erster Linie die Überwachung der kindlichen Herzfrequenz und Wehentätigkeit mit externen und internen Messmethoden über sog. Aufnehmer (Transducer, ⊡ Abb. 44.1). Darüber hinaus erlauben einige Geräte auch die Messung der
44.2.10 44.2.11 44.2.12 44.2.13
Präsentation der CTG-Daten – 745 Patientendatenmanagement – 745 Archivierung und Datenabruf auf Langzeitspeichermedien – 747 Rechner-Kommunikation im geburtshilflichen Umfeld – 748 Rechner-Kommunikation und Datenzugriff auf andere Krankenhaussysteme – 748 Kommunikation mit dem Krankenhausverwaltungsrechner – 748 Export der Patientendaten zu anderen Krankenhaussystemen – 748 Laborrechneranbindung – 748 Zugriff auf krankenhausinterne Rechnersysteme – 748
mütterlichen Herzfrequenz, sowie des Blutdruckes und der Sauerstoffsättigung der Gebärenden. ⊡ Tab. 44.1 stellt die verschiedenen Messverfahren gegenüber.
44.1.2 Messverfahren
Ultraschallmessverfahren Bei diesem Verfahren senden im Aufnehmer angebrachte Quarze hochfrequente Schallsignale aus. Diese Schallwellen werden durch das Körpergewebe unterschiedlich stark reflektiert und vom Aufnehmer wieder empfangen und verstärkt. Durch die Frequenzverschiebung der reflektierten Schallsignale (Dopplereffekt) werden Bewegungen erkannt. Eine Optimierung auf die Bewegungsmuster des fetalen Herzens und zusätzliche Signal-
⊡ Abb. 44.1. Beispiel für ein CTG mit Aufnehmer und Zubehör. Von links nach rechts: Patientenmodul mit Adapterkabel für die Skalpelektrode und Beinelektrode, ein Ultraschall-Aufnehmer, ein TocoAufnehmer mit eingestecktem Kabel für maternales EKG, ein Patientenmodul mit Adapterkabel für den Katheter zur intrauterinen Druckmessung, ein Sensor zur Messung der Sauerstoffsättigung und des Pulses der Mutter; im Vordergrund liegen ein Katheter zur intrauterinen Druckmessung und eine Skalpelektrode, im Hintergrund rechts liegen CTG-Papier mit vorgedruckter Skala, Gurte zur Befestigung der Aufnehmer auf dem Bauch der Mutter und eine Blutdruckmanschette
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _44, © Springer-Verlag Berlin Heidelberg 2011
740
Kapitel 44 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
⊡ Tab. 44.1. Externe und interne Messmethoden mit Kardiotokographen Patient
Fetus
Mutter
IV
Parameter
Externe Messmethode
Interne Messmethode
Aufnehmertyp
Einsatzbereich
Einheit
Aufnehmertyp
Einsatzbereich
Einheit
Herzfrequenz
Ultraschallsensor
Antepartal, intrapartal
1/min
Skalpelektrode
Intrapartal, Risikoschwangerschaft
1/min
Kineto-CTG
Ultraschallsensor
Antepartal, intrapartal
%
–
–
–
Herzfrequenz/ Puls
Hautelektrode, indirekt auch über Blutdruckmanschette oder Lichtsensor
Antepartal, intrapartal
1/min
–
–
–
Wehentätigkeit
Drucksensor (TocoTransducer)
Antepartal, intrapartal
Relativer Druck
Katheter mit Drucksensor
Intrapartal, Risikoschwangerschaft
mmHg oder kPa
Blutdruck
Druckmanschette
Bei Anästhesien
mmHg
–
–
–
Sauerstoffsättigung
Lichtsensor
Bei Anästhesien
%
–
–
–
aufbereitungsverfahren (Autokorrelation) ermöglichen es die Schlagfrequenz des fetalen Herzens sehr genau zu bestimmen. Zusätzliche Verfahren wie z. B. eine Tiefenselektion (entsprechend der Laufzeit der Ultraschallwellen im Gewebe) kommen zum Einsatz, um Störsignale von Bewegungen, die nicht vom fetalen Herzen kommen, auszublenden.
Kineto-CTG Mit Hilfe des oben beschriebenen Ultraschallmessverfahrens lassen sich auch die kindlichen Bewegungen im Mutterleib erfassen. Die für die Ableitung der fetalen Herzfrequenz erst mal ausgeblendeten Signale können separat untersucht werden und liefern wertvolle Informationen über das fetale Bewegungsmuster. Bei diesem Verfahren werden die Bewegungen des Körpers und der Gliedmaßen des Feten ausgewertet. Neben der reinen Markierung von vorhandenen Aktivphasen kann von den Geräten auch eine prozentuale Angabe erfolgen, was die manuelle Auszählung der Bewegungsmuster einspart. Dieser zusätzliche Parameter gibt Auskunft über die Vitalität des Feten.
⊡ Abb. 44.2. Direkt-EKG-Verfahren
deten Ultraschallaufnehmer keine verlässliche Beurteilung der Herzfrequenzkurve zulässt. Dies kann insbesondere in der späten Austreibungsperiode, z. B. durch heftigere Bewegungen der Patientin erforderlich sein. Gleichzeitig erlaubt die direkte fetale EKG-Messung die qualitative Analyse des fetalen EKGs, wobei insbesondere die Analyse der ST-Strecke im fetalen EKG (STAN) an Bedeutung gewinnt.
44.1.3 Direkt-EKG-Messverfahren
Bei diesem Verfahren wird eine sog. Skalpelektrode am Kopfe des Kindes befestigt. Über diese Elektrode wird das fetale EKG ermittelt und daraus die Herzfrequenz abgeleitet (⊡ Abb. 44.2). Es handelt sich hier um eine so genannte interne Messung, die nur unter der Geburt durchgeführt werden kann, und zwar erst nach Sprung der Fruchtblase und wenn der Muttermund wenigstens bereits 2–3 cm geöffnet ist. Sie wird hauptsächlich dann eingesetzt, wenn Signalverlust der üblicherweise verwen-
44.1.4 Toco-Messverfahren
Dieses Verfahren dient dazu, die Wehentätigkeit über druckempfindliche Sensoren aufzunehmen, wobei die Sensoren die Verhärtung (Anspannung) des Uterusmuskels abtasten. Der gemessene Wert ist nur relativ und abhängig von vielen Faktoren, wie z. B. der Position des Aufnehmers. Darum muss die Anzeige nach Anlegen der Aufnehmer am Gerät zunächst auf einen Basiswert ein-
741 44.1 · Kardiotokographie (CTG)
⊡ Abb. 44.3. Intrauterine Druckmessung ⊡ Abb. 44.4. Schnurloses Aufnehmersystem
gestellt werden. Ein absoluter Wert lässt sich bei diesem Verfahren jedoch nicht ermitteln – dazu ist eine Methode erforderlich, die im folgenden Abschnitt näher erläutert wird.
44.1.5 Intrauterine Druckmessung
Hierzu wird ein Katheter in den Uterus über die Vagina eingeführt. Der Katheter wird mit einer neutralen Lösung gefüllt und an einen Drucksensor angeschlossen. Mit diesem Verfahren wird der Druck absolut gemessen. Dieses Verfahren ist relativ aufwändig und wird immer weniger praktiziert. Bei heute immer stärker verbreiteten Formen von Aufnehmern befindet sich der Drucksensor direkt auf der Spitze eines flexiblen Stabes oder am Ende einer Luftsäule, der ebenfalls über die Vagina in den Uterus eingeführt wird (⊡ Abb. 44.3), dies erspart die umständliche und trainingsintensive Prozedur des Kathetersystemabgleichs.
44.1.6 Zusatzfunktionen und Optionen
Zu den oben genannten Verfahren bieten die Gerätehersteller eine Fülle zusätzlicher Funktionen und Optionen an, die die tägliche Arbeit vereinfachen oder deren Qualität erhöhen. Dazu gehören z. B.: ▬ Automatische kanalübergreifende Herzfrequenzüberwachung. Das CTG überprüft dabei ständig, ob nicht auf dem fetalen Kanal versehentlich die mütterliche Herzfrequenz oder die des anderen Feten (bei Mehrlingsüberwachung) überwacht wird (Cross-Channel-Verification, Coincidence Detection). Bei neuen Entwicklungen ist die mütterliche Pulsmessung zur vereinfachten Anwendung in den Toco-Aufnehmer integriert. ▬ Batteriebetriebene, wasserdichte Aufnehmer ermöglichen auch den Einsatz in der Badewanne zur Fortsetzung einer kontinuierlichen Überwachung bei der
⊡ Abb. 44.5. Unterwasserüberwachung mit Hilfe eines schnurlosen Aufnehmersystems
▬
▬ ▬
▬
▬
rein entspannenden Anwendung eines Bades bis hin zu Unterwassergeburten. Anschlussmöglichkeit an ein Telemetriesystem oder schnurlose Aufnehmer (⊡ Abb. 44.4) zur Überwachung ambulierender Patienten sowie zur Unterwasserüberwachung (⊡ Abb. 44.5) Integrierte maternale Messungen (Fetaler/Maternaler Monitor). Anschlussmöglichkeiten an Geburtenüberwachungssysteme zur zentralen Darstellung mehrerer Betten mit intelligenter Alarmierung und automatischer Archivierung der Überwachungsprotokolle und Patientenakten. Speicherung der Kurven mit der Möglichkeit der Fernübertragung. Einsatzmöglichkeiten finden sich bei Entbindungen zu Hause oder zur Beratung kleinerer angeschlossener Kliniken. Integrierter Akku in ein CTG mit Drucker zur Unterstützung von Transportszenarien, Nutzung in der zunehmenden Heimanwendung und zur Überbrückung von Stromausfällen.
44
742
Kapitel 44 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
44.1.7 Auswahlkriterien für CTG
44.2
Geburtenüberwachungssysteme
CTGs sollten folgende Anforderungen erfüllen:
44.2.1 Einsatzbereiche
1. Anforderungen im antepartalen Bereich
IV
▬ Ein bis drei Ultraschallkanäle (zwei/drei Kanäle, falls Zwillings- bzw. Drillingsüberwachung notwendig); ▬ ein Toco-Kanal; ▬ Kineto-CTG; ▬ Schreiber mit wählbarer Papiergeschwindigkeit (1,2,3 cm/min); ▬ Digitalanzeige für Herzraten und Toco; ▬ Lautstärkeregelung für die Herztöne; ▬ geringe Energie des Ultraschallsignals; ▬ Autokorrelation des Ultraschallsignals; ▬ kanalübergreifender Signalvergleich (zwischen allen verfügbaren fetalen und maternalen Herz- und Pulsfrequenzen); ▬ Verfahren zur Verringerung von Artefakten (z. B. Tiefenselektion); ▬ montierbar auf Wagen oder an die Wand; ▬ Erweiterbarkeit auf Systemschnittstelle für Systemanbindung; ▬ Anschlussmöglichkeit einer Telemetrie; ▬ kodierte Stecker oder automatische Erkennung der angeschlossenen Aufnehmer; ▬ latexfreie Aufnehmer und Zubehör; ▬ wasserdichte Aufnehmer für Reinigungszwecke; ▬ Möglichkeit der Integration von mütterlicher Herzfrequenz und Blutdruckmessung; ▬ einfache Bedienbarkeit (z. B. durch »Touch-Screen«Bedienung); ▬ automatisierte CTG-Auswertung. 2. Anforderungen im intrapartalen Bereich
Die hier aufgeführten Eigenschaften sind abweichend bzw. zusätzlich zu den unter 1. aufgeführten Eigenschaften im intrapartalen Anwendungsbereich erforderlich: ▬ ein bis drei Ultraschallkanäle (zwei/drei Kanäle, falls Zwillings- bzw. Drillingsüberwachung notwendig); ▬ Direkt-EKG-Messung, ▬ Kanal zur intrauterinen Druckmessung, ▬ Kanal für mütterliches EKG (MECG), ▬ Möglichkeit der Integration von mütterlichen Vitalparametern (Blutdruck, SpO2, MEKG). 3. Optionale Funktionen
▬ Alarmierungsfunktionen für Tachykardie und Bradykardie sowie vorhandener mütterlicher Vitalparameter, ▬ Systemschnittstelle, ▬ zusätzliche Eingabemöglichkeiten (Strichcodeleser, Maus, Tastatur etc.).
Geburtenüberwachungssysteme finden Einsatz in antepartalen, intrapartalen und postpartalen Bereichen von Krankenhäusern mit 500 und mehr Geburten pro Jahr. Je nach Anforderung sind eine oder auch mehrere der folgenden Funktionen gefordert: ▬ zentrale CTG-Überwachung mit Bettenübersicht, ▬ automatische Alarmierungsfunktion, ▬ Patientendatenmanagementfunktionen, wie z. B. Erstellen und Verwalten einer elektronischen Patientenakte, ▬ Datenarchivierungs- und -abruffunktion auf Langzeitspeichermedien, ▬ Rechner-Kommunikation im geburtshilflichen Umfeld, ▬ Rechner-Kommunikation und Datenzugriff auf andere Krankenhaussysteme.
44.2.2 Systemaufbau
Das hier zur Illustration herangezogene kommerzielle System dient nur zur Erläuterung bestimmter aufgeführter Systemeigenschaften. Es ist nicht Sinn und Zweck diese Kapitels ein einzelnes System zu beschreiben. Grundlegendes Arbeitsgerät für den Benutzer ist eine Arbeitsstation, wobei es sich heute üblicherweise um einen in ein vernetztes System eingebundenen Personal Computer handelt. Je nach Arbeitsbereich und augenblicklichem Benutzer des PC werden unterschiedliche Funktionen angewendet und evtl. unterschiedliche Konfigurationen gefordert. Beispielsweise benötigt eine Hebamme die Möglichkeit, bei der Patientin vor Ort Untersuchungsergebnisse einzugeben, wohingegen der Arzt gern von seinem Zimmer aus auf alle Daten zugreifen möchte. Beispiele für die verschiedenen Arbeitsbereiche oder Einsatzgebiete für PC sind (⊡ Abb. 44.6): ▬ Zentralstation, ▬ Kreißsaal, ▬ Ambulanz, ▬ Arztzimmer, ▬ Schwesternaufenthaltsraum, ▬ Hebammenzimmer, ▬ Postpartaler Bereich, ▬ Neugeborenenkrippe. Entsprechend den oben genannten Einsatzgebieten übernimmt ein Rechner je nach Anforderung und Konfiguration eine oder mehrere Aufgaben, z. B. ▬ Datenerfassung und -aufbereitung der angeschlossenen CTGs, ▬ Auswertung der CTG-Daten und Alarmierung, ▬ Präsentation der CTG-Daten,
743 44.2 · Geburtenüberwachungssysteme
▬ Patientendatenmanagement erlaubt das Erstellen, Verwalten und Ausgeben der elektronischen Patientenakte und unterstützt den Arbeitsablauf in der Abteilung, ▬ Archivierung und Abruf aller Daten auf Langzeitspeichermedien, ▬ Rechner-Kommunikation im geburtshilflichen Umfeld, ▬ Rechner-Kommunikation und Datenzugriff auf andere Krankenhaussysteme. Bei allen Funktionen des Geburtenüberwachungssystems ist der Patientendatenschutz oberstes Gebot. Dies wird erreicht durch ▬ Einschränkung von Zugriffsberechtigungen im Rahmen eines Rollenmodells, ▬ Protokollierung aller Zugriffe und Transaktionen insbesondere Patientendatenänderungen und Konfigurationsänderungen, ▬ verschlüsselte Patientenidentifikation und Patientendaten in der Datenbank, ▬ verschlüsselte Kommunikation in Verbindung mit VPN, ▬ kein physikalischer Zugriff auf zentrale Systemkomponenten (Datenbankserver, WEB/Terminal Service Server, Netzwerkkomponenten wie Switches and Routers). In den folgenden Abschnitten wird näher auf die einzelnen oben genannten Funktionen und Funktionsweisen eingegangen.
44.2.3 Datenerfassung und -aufbereitung
der angeschlossenen CTG Eine der wichtigsten Aspekte der Geburtenüberwachungssysteme ist die zentrale Überwachung der CTG-Daten der Schwangeren. Zu diesem Zweck werden die CTG an das System angebunden. Praktisch alle CTG bieten heutzutage Schnittstellen an, die eine Übertragung von Daten an ein Überwachungssystem erlauben. Folgende Arten kommen zum Einsatz: ▬ Digitale Anbindung – serielle Datenübertragungsprotokolle (standardisierte RS232-, RS422-, RS485-Schnittstellen mit proprietären Datenformaten), – Local Area Network (LAN) (standardisiertee Netzwerkprotokolle mit proprietären Datenformaten) ▬ Analoge Anbindung – Signalübertragung erfolgt über mehrere Leitungen entsprechend den – unterstützten Parametern. Die Signalpegel sind proprietär. Die digitale Anbindung zeigt sich der analogen aus folgenden Gründen überlegen: 1. umfangreichere Daten, 2. höhere Störsicherheit in der Übertragung, 3. flexibel bezüglich Änderungen im Funktionsumfang der CTG sowie 4. niedrigere Material-, Installations- und Wartungskosten.
⊡ Abb. 44.6. Arbeitsbereich in der Geburtenüberwachung
44
744
IV
Kapitel 44 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
Die analoge Anbindung findet heute nur noch bei älteren CTG-Geräten Verwendung. Bei der Wahl des Systems bezüglich der Anbindung an das CTG sind die zu übertragenen Parameter von zentraler Bedeutung: ▬ Folgende Parameter sollten mindestens übertragen werden: – fetale Herzfrequenz, – zusätzliche zweite fetale Herzfrequenz (Zwillingsüberwachung), – mütterliche Herzfrequenz, – TOCO, – automatische Zeitsynchronisation der CTG mit dem System, – CTG-Zustandsänderungen, z. B. Änderung des Aufnehmers, – Schreiberstatus. ▬ Die folgenden zusätzlichen Parameter oder Daten sind wünschenswert: – zusätzliche dritte fetale Herzfrequenz (Drillingsüberwachung), – zusätzliche maternale Parameter (z. B. SpO2, nichtinvasiver Blutdruck, Herzfrequenz), – fetale Sauerstoffsättigung, – am CTG eingegebene Notizen (⊡ Abb. 44.7, 4-Farbteil am Buchende) (z. B. Vaginaluntersuchungen), – Kineto-CTG, – Ergebnis des kanalübergreifenden Signalvergleichs zur Vermeidung von Verwechslungen (Mutter/Fetus, Fetus/Fetus), – ST-Segment-Analyse des mütterlichen EKGs (STAN),
– Messung der auftretenden Kräfte bei der Saugglocken-Extraktion, – automatische Übertragung von Muttermundsweite und Höhenstand des Kindes, – Fehler/Störungen am CTG.
44.2.4 Auswertung der CTG-Daten
und Alarmierung Eine wichtige Funktion von Geburtenüberwachungssystemen ist die Auswertung der CTG-Daten, um den Benutzer ggf. auf Probleme beim Patienten aufmerksam zu machen. Die einfachste Methode besteht in einer Alarmierung bei Grenzwertüberschreitungen, d. h. übersteigt oder unterschreitet die fetale Herzfrequenz für einen gewissen Zeitraum einen bestimmten Grenzwert, so alarmiert das System den Nutzer. Eine »Schwäche« des Verfahrens liegt darin begründet, dass der Nutzer häufiger alarmiert wird als notwendig, z. B. durch Fehlalarme oder Signalverluste. Verbesserte Verfahren, sog. intelligente Alarme, sind heutzutage in der Lage, den Signalverlauf der Herzfrequenz zu überwachen und sie auf gewisse verdächtige, gefährliche oder sogar pathologische Muster hin zu untersuchen und den Anwender darauf aufmerksam zu machen. Dies geht sogar so weit, dass Abhängigkeiten zwischen unterschiedlichen Parametern einbezogen werden, z. B. der Verlauf der fetalen Herzfrequenz in Relation zur Wehentätigkeit. ⊡ Abb. 44.8 erläutert die beiden Alarmierungsprinzipien, und ⊡ Abb. 44.9 ( 4-Farbteil
Regelbasierende Alarmierung Kurven Parameter Extraktion Kontraktionen Dezelerationen Akzelerationen
Basislinie
Variabilität Bradykardie/ Tachykardie
Signal Verlust
Validierung der einzelnen Muster (Menge von Musterregeln)
Validierung kombinierter Muster (Menge von Klassifizierungsregeln)
Muster-Analyse ⊡ Abb. 44.8. Schematische Darstellung der Alarmierung am Beispiel eines regelbasierten Algorithmus
Erweiterte Alarmierung
Schnelle Analyse
Einfache Alarmierung
745 44.2 · Geburtenüberwachungssysteme
am Buchende) zeigt ein Beispiel eines intelligenten Alarms. Die folgende Liste ist eine Zusammenstellung der Mindestanforderungen, die an die verschiedenen Verfahren gestellt werden sollten: 1. Alarmierung bei Grenzwertüberschreitung: – Alarmierung bei Tachykardie (einstellbarer Schwellwert und Zeitverzögerung), – Alarmierung bei Bradykardie (einstellbarer Schwellwert und Zeitverzögerung), – Signalverlust für einen zu definierenden Zeitraum. 2. Intelligente Alarmierung: – Erkennung von Akzelerationen und Dezelerationen sowie die Typen (z. B. frühe Dezeleration, späte Dezeleration etc.), – Erkennung von Wehen, – Bestimmung der Basislinie, – Erkennung der Variabilität.
Von besonderer Bedeutung bei der Alarmierung ist auch das Bedienkonzept und die Art der Alarmierung. Prinzipiell kann ein Alarm optisch oder akustisch erfolgen. Im ersten Fall beginnt gewöhnlich ein Teil des Bildschirms, z. B. eine Alarmglocke, auffällig zu blinken. Im zweiten Fall erfolgt die Alarmierung durch ein akustisches Signal. Die Lautstärke des akustischen Alarms sollte einstellbar sein. Manche Systeme ermöglichen es auch, die Alarme mit der zentralen Rufanlage zu verbinden. Ein anstehender Alarm sollte (falls nicht anders konfiguriert) immer zum Benutzer durchdringen, unabhängig davon, an welcher Arbeitsstation er gerade angemeldet ist oder bei welcher Bildschirmmaske er sich augenblicklich aufhält. Die Art der Alarmierung sollte von der Verantwortlichkeit des Benutzers abhängig und konfigurierbar sein, z. B. nur optische Alarme oder nur akustische. Alarme sollten immer bestätigt werden. Die Bestätigung sollte automatisch dokumentiert werden und eventuell mit Kommentar versehen werden können.
44.2.5 Präsentation der CTG-Daten
Wie bereits erläutert, stellt die zentrale Überwachung der Schwangeren eine der wichtigsten Aufgaben des Systems dar. Zu diesem Zweck sollte das System über eine Reihe von verschiedenen Darstellungsmöglichkeiten der CTG-Kurven verfügen, wie z. B. Übersichtsdarstellung in verschiedenen Konfigurationen (2-, 4-, 6-, 9-, 12-, 16Betten-Übersichten), Einzelbettdarstellung und komprimierte Einzelbettdarstellung (⊡ Abb. 44.10, 4-Farbteil am Buchende). Jeder PC sollte individuell einstellbar sein, um ein Maximum an Flexibilität zu garantieren. Zumindest in der Einzelbettdarstellung sollte eine schnelle Durchsicht der Kurven (»schnelles Rollen«) möglich sein.
Bei der Wahl des Systems ist auf Folgendes zu achten: ▬ Das Verhältnis von Zeitachse zu Herzfrequenz sollte gewahrt bleiben (1:1-Abbild des CTG-Schriebes) und sich der jeweiligen Bildschirmauflösung anpassen. Dies gilt sowohl für die Präsentation auf dem Bildschirm also als auch beim Drucken; ▬ die Übersichtsbildschirme sollten in verschiedenen Darstellungsformen konfigurierbar sein, z. B. 2-, 4-, 6-, 9-, 12, 16-Betten-Übersichtsdarstellung unter Wahrung des Seitenverhältnisses (CTG-Schrieb); ▬ zumindest in der normalen und komprimierten Einzelbettdarstellung sollte ein Blättern bzw. »Scrollen« möglich sein. Es ist darauf zu achten, dass das Blättern bis an den Anfang, d. h. zur ersten CTG-Kurve nach der Aufnahme möglich ist und nicht in den CTGKurven nur der letzten 12 oder 24 h; ▬ zumindest in der normalen Einzelbettdarstellung sollte es möglich sein, Notizen direkt zu annotieren.
44.2.6 Patientendatenmanagement
Die Anforderungen an ein heutiges Patientendatenmanagement umfassen einen sehr weiten Rahmen, der mit dem ersten Patientenbesuch beginnt, sich über den gesamten Schwangerschafts- und Geburtsverlauf sowie den Geburtsausgang erstreckt und für die Mutter im postpartalen Nachfolgebereich und für den Neugeborenen in der Krippe endet. Natürlich kann auf vorhergehende Schwangerschaften und Geburten zugegriffen werden (⊡ Abb. 44.11, ⊡ Abb. 44.12). Das Patientendatenmanagement in der Geburtshilfe ist dadurch gekennzeichnet, dass wir es mit mehreren »Patienten« zu tun haben (⊡ Abb. 44.13): Der Mutter, dem Fetus und später dem oder den Neugeborenen. Der Fetus wird typischerweise bei der Mutter mitverwaltet, das oder die Neugeborenen erhalten eine eigene Patientenakte bzw. eine eigene Identität. Generell kann der Aufgabenbereich des Patientendatenmanagements in drei Klassen eingeteilt werden: Organisation, Dokumentation und Qualitätssicherung. Die lückenlose Führung der Patientenakte durch Speicherung aller eingegebenen und automatisch erfassten Patientendaten sichert ein verbessertes Patientenmanagement durch ständige Verfügbarkeit aller aktuellen und früheren Daten einer Patientin. Natürlich sollten die Daten auf der ganzen Abteilung schnell und einfach verfügbar sein. Die lückenlose Führung der Patientenakte ermöglicht auch die statistische Auswertung und Berichterstellung für Verwaltung, Forschung und zur Qualitätssicherung. Die Dateneingabe sollte problemlos an die Anforderungen der jeweiligen Patientin angepasst werden und einen krankenblatt-basierenden Patientenbericht erstellen können, der i. d. R. folgende Informationen enthalten sollte:
44
746
Kapitel 44 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
Continuum of Care: Patient Flow for Obstetrics See Hospital L&D or Birth Center Patient Flow
Private OB-Gynand/or Clinic Pre-Pregnancy Fertility, sterility and genetic counseling
IV
Weeks 7 20/25 of Pregnancy
Weeks 26 33 of Pregnancy
Weeks 34 36 of Pregnancy
Multipara ? via ultrasound IUGR? via ultrasound Hb re-ve check Rh-ve antibody check Blood pressure Weight Abdominal circumference Fetal movement activity Vaginal bleeding Antepartum FHR monitoring (NST) AFP levels (nervous system anomalies) Pre-term labor? Possible home uterine activity monitoring
Fetal Lie? Breech? Pelvic assessment Placenta Praevia? Blood pressure Weight Abdominal circumferance Antenatal fetal monitoring (NST) US imaging (Amniotic fluid volume, BPD, CRL...) Pre-term labor
Weeks 1-6 of Pregnancy
EDT/History Pregnancy testing and diagnosis Date of conception Examination Protein & glucose levels Infection present? Blood group (R-ve test) Rubella test Hb and red cell test Syphilis test HIV test Blood pressure Ultrasound scan Risk assessment
Bi-manual uterine exam hCG tests Chorionic villus sampling (9-11 weeks when appropriate) Cervical smear Ultrasound for CRL, BPD, etc.(16-18 weeks) Iron deficiency Blood pressure Weight Abdominal circumferance Pre-term labor? Fetal movement activity > 16 weeks Vaginal bleeding? hPL test? Doptone FHR sounds Amniocentesis from 35 years onwards 16 weeks gest.
Weeks 37 40 of Pregnancy
Head engagement Blood pressure Weight Abdominal circum. Antenatal FHR monitoring (FHS) Amniotic fluid volume assessment (US imaging)
> 42 Weeks of Pregnancy
> 40 Weeks of Pregnancy
Post maturity 1/2 weekly visits to obstetrician Possible induction of labor
Imminence of labor? Cervical ripening? Effacement/station Onset of labor
HOSPITAL L&D or Birthing Center ⊡ Abb. 44.11. Continuum of Care – Die Schwangerschaft
Continuum of Care: Patient Flow for OB & Newborn Hospital L&D or Birth Center Labor & Delivery (Hospital/Birth Center) Admission CTG in L&D department Full and detailed clinical history Full examination including: fetal lie presenting part estimated size PROM
First Stage of Labor
Onset of labor Cervix dilates up to 10 cm. Fetal heart rate monitoring Possible rupture of membranes (ROM) Meconium present? Analgesia/Anesthesia * Maternal monitoring O2 saturation NIBP EKG Epidural or possible general anesthetic with C-section
Second Stage of Labor
Third Stage of Labor and Delivery
Full dilation of cervix FHR monitoring Delivery of baby Possible episiotomy Possible forceps vacuum extraction Possible C-section Baby cleaned of mucus Cord clamped and divided Weigh & measure baby, plus preliminary exam APGAR score Blood gas values (cord)
Expulsion of the placenta and membranes Examination of complete placenta
Mother Recovery
Post Partum
Third Stage of Labor and Delivery Fetal outcome?
NICU
Post Delivery Well baby nursery or »rooming-in« concept First full exam at 24 hours Urine passage Meconium passage Eyes Fontanelle eflexes (CNS) Hearing Hips Abdomen Genitalia Heart (murmur?) Possible phototherapy
⊡ Abb. 44.12. Continuum of Care – Geburtsvorgang, Postpartum und Neugeborenenkrippe
Discharge
Discharge examination Blood tests Jaundice Heart murmur
HOME
747 44.2 · Geburtenüberwachungssysteme
▬ Datenerhebung/Dateneingabe: – vordefinierte/konfigurierbare Eingabemasken, die alle Belange der erforderlichen Patientendokumentation abdecken, – Partogramm (⊡ Abb. 44.14, 4-Farbteil am Buchende), – Plausibilitätsprüfungen bei der Eingabe. ▬ Patientenverwaltung: – Aufnahme, Verlegung und Entlassung, – Leistungserfassung, – Zustimmung zum Kaiserschnitt, – Übergabe des Kindes an die Eltern. ▬ Berichtsschreibung: – Arztbrieferstellung mit vordefinierten/konfigurierbaren Masken und Texten, – Auftrag an Transportdienst, – Verlegungsbericht, – Geburtsbericht, – Entlassungsmitteilung der Mutter an Krankenhausverwaltung, – Entlassungsbericht des Neugeborenen an die Krankenhausverwaltung, – Entlassungsbericht der Mutter/Kindes an den niedergelassenen Arzt, – Geburtenanzeige beim Standesamt. ▬ Routinedokumentation: – Etikettenerstellung, – Mutterpass, – Geburtenbuch, – Ausdruck der vollständigen Patientenakte. ▬ Statistiken, Trendanalyse und Reports: – Ad-hoc-Datenbankabfragen, – wöchentliche, monatliche oder jährliche Geburtenstatistiken, – spezielle Statistiken: z. B. Kaiserschnitt pro Arzt, durchschnittliche Verweildauer der Patienten, auffällige Ereignisse, – spezielle QA-Statistiken.
Patient Model: Mother and Newborn Mother
Pregnancy 1
Pregnancy 2
Baby 1
Episode 1
Episode 2
Pregnancy 3
Baby 2
Episode 3
⊡ Abb. 44.13. Die drei Patienten (Mutter, Fetus, Neugeborenes)
44.2.7 Archivierung und Datenabruf
auf Langzeitspeichermedien Für viele Krankenhäuser haben in den letzten Jahren die elektronische Datenarchivierung und der elektronische Datenabruf an Bedeutung gewonnen. Dies ist insbesondere auf die erhöhte Anzahl von Rechtsstreitigkeiten von Eltern geschädigter Kinder zurückzuführen, aber auch auf medizinisches Interesse an der nachträglichen Analyse von Geburten. Die heute übliche Methode der Archivierung erfolgt auf zugriffsgeschützen, von der Klinik-IT-Abteilung verwalteten Netzwerklaufwerken, z. B. auf NAS-Geräten (Network Attached Storage) oder SAN (Storage Area Network). Die IT-Abteilung managt die Zugriffsrechte, sodass keine unbefugten Benutzer auf das Archiv zugreifen oder es gar löschen können. Die Langzeitspeicherung ermöglicht die vollständige Archivierung von Patientenakten (ambulant und stationär) und minimiert das Risiko unauffindbarer Patientenakten oder CTG-Aufzeichnungen. Papierakten können verloren gehen, thermisch gedruckte Papier-CTGs können nach Jahren unleserlich sein. Dies hat schon des Öfteren dazu geführt, dass Gerichtsverhandlungen verloren wurden, da die entlastenden Papiere nicht beizubringen waren. Ein einfacher Zugriff auf die gespeicherten Informationen zur Überprüfung, Forschung oder zum Aufrufen eines abgeschlossenen Falls sollte gewährleistet sein. Unerlässlich für die Archivierung ist ein gutes Sicherheitskonzept. Für ein System, in dem nur die CTGKurven überwacht werden sollen, ist dies weniger von Bedeutung. Folgende Punkte sollten aber unbedingt erfüllt sein: 1. Sicherung der Stromversorgung über eine nichtunterbrechbare Stromversorgung (USV), an der die Server und die Netzwerkkomponenten angeschlossen sein sollten. 2. Sicherung der Daten auf dem Server entweder über a) Hochverfügbarkeitskonzept: Ein zweiter Server arbeitet parallel zum ersten. Im Falle eines Defekts übernimmt der intakte Server vollständig die Aufgaben, bis der andere wieder funktionsfähig ist; b) RAID-Technologie: Dies ist ein Verbund aus Festplatten, die die Daten selbsttätig redundant speichern. Fällt eine Festplatte wegen eines Defekts aus, kann sie während des Betriebs ausgetauscht werden. Das System sorgt automatisch dafür, dass die reparierte Platte wieder auf den aktuellen Stand kommt; 3. Erstellung eines Sicherheitskonzepts zum Schutz des Langzeitarchivs. Durch regelmäßige Backups wird die Wiederherstellung des Archivs im Desaster-Fall sichergestellt. Solche Sicherungen können sich an anderen Orten befinden, sodass auch ein Schutz vor z. B. Feuer gewährleistet ist.
44
748
Kapitel 44 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
44.2.8 Rechner-Kommunikation
im geburtshilflichen Umfeld
IV
Hier reden wir von der Kommunikation zwischen geburtshilflichen Abteilungen in verschiedenen Krankenhäusern einer Stadt, der Kommunikation mit kleineren ambulanten Kliniken, die mit einem Krankenhaus kooperieren, der Hebamme, die vor Ort CTGs erfasst, oder dem Arzt, der von zu Hause, von unterwegs oder von seiner Paxis aus Patientendaten beurteilen muss (⊡ Abb. 44.15). Geburtenüberwachungssysteme sollten die Patientenverlegung nicht nur von Bett-zu-Bett im eigenen Krankenhaus, sondern auch die Patientenverlegung in andere Krankenhäuser ermöglichen. Dadurch ist die Patientenakte auch im direkten Zugriff. Dies kommt besonders dann vor, wenn die Frau mit ihrer früheren Entbindung nicht zufrieden war oder der Entbindungsort aus Dringlichkeitsgründen nicht mehr angesteuert werden kann (Verkehrsstau). In der Kommunikation des Arztes zu Hause oder in seiner Praxis spielt der WEB-Zugriff auf die Patientenakte eine große Rolle, vorausgesetzt das Krankenhaus besitzt die notwendige Infrastruktur gerade was die Sicherheit der Kommunikation anbelangt. Ist der Arzt gerade unterwegs und wird seine Interpretation des CTGs dringend benötigt, können die relevanten Teile des CTGs auf mobilen Telekommunikationsgeräten wie einem iphone dem Arzt zur Konsultation gesendet werden.
bindung mit anderen Rechnersystemen. Die Einbindung kann sowohl als direkte Datenübertragung realisiert werden als auch durch Arbeitsplatzzugriff auf andere Systeme (⊡ Abb. 44.16).
44.2.10
Kommunikation mit dem Krankenhausverwaltungsrechner
Die bidirektional Verbindung erlaubt hier die einfache Patientenaufnahme durch automatisiertes Einlesen von Personalien und ermöglicht die Meldung von Entlassungen und Verlegungen an den Krankenhausverwaltungsrechner.
44.2.11
Export der Patientendaten zu anderen Krankenhaussystemen
Durch Datenexporte an ein Datenarchiv stehen Daten auch für andere Anwendungen zur Verfügung, z. B. für die krankenhausweite Patientenakte.
44.2.12
Laborrechneranbindung
Durch Datenimport von einem Laborrechner werden automatisch die Laborwerte in der Patientenakte dokumentiert.
44.2.9 Rechner-Kommunikation
und Datenzugriff auf andere Krankenhaussysteme
44.2.13
Das Geburtsüberwachungssystem ist nur eines von vielen Systemen in einem Klinikum. Eine Einbindung in das Gesamtnetz ist von größter Wichtigkeit, sodass Insellösungen in den Hintergrund treten. Normalerweise verwendet man eine HL-7-basierte Schnittstelle zur Ver-
Zugriff auf krankenhausinterne Rechnersysteme
Hier haben sich mehrere Verfahren herauskristallisiert: ▬ der direkte Zugriff mittels einer Client-Applikation, die auf der geburtshilflichen Arbeitsstation installiert wurde;
OB Trace Vue Beyond the Hospital Satellite hospital & clinics
Private MD offices Link between OB systems
Web access
Hospital Fetal trace Transmission ⊡ Abb. 44.15. Geburtshilfe außerhalb des Krankenhauses
Patients & home care
Web access Private MD homes
749 44.2 · Geburtenüberwachungssysteme
▬ der direkte Zugriff via Internet Explorer auf eine WEB basierende Applikation; ▬ der indirekte Zugriff via WEB-basierenden Krankenhaus-Portalen. Eine visuelle Integration von geburtshilflicher Applikation und anderen Applikationen ist möglich, sofern die Applikationen ihren Kontext austauschen können (Benutzerkontext und/oder Patientenkontext). Wechselt ein Benutzer innerhalb des Programms von einer Patientin zur nächsten, so erkennt dies das andere System und wechselt dann ebenfalls zur entsprechenden Patientin.
Hospital Information System
Administrative Financial Applications Billing / Accts Rec Accounts Payable General Ledger Staffing / Scheduling Fixed Asset Mgmt Material Management Managed Care Contracts Abstracting Credentialing Cost Accounting Budget / Forecasting Utilization Review Time Keeping Patient Care Management Medical Records Registration Scheduling
EMR / CPR / CDR / Portal
Point of Care
Clinical IS
Clinical Applications Order Entry Pharmacy Radiology IS Physicians Practice Management Patient Care
Cardiac/Critical Care Monitoring Telemetry Central Stations Clinical Information Systems
Radiology X-Ray MRI CAT Ultrasound PACS
Lab Laboratory Pathology Blood Bank Microbiology
Labor & Delivery Fetal Monitoring Surveillance OB Info Systems
Cardiology ECG Holter Stress Cath Lab Electrophysiology Echocardiography Nuclear CHF Clinic MI/Chest Pain Clinic Cardiac Rehab PACS
Ancillary Dietary Respiratory Therapy Dictation Home Health Speech Department Admin
Surgery Monitoring Anes Charting Tracking OR Info Systems Emergency Dept Monitoring ED Info Systems
Middleware Interface Engine, EDI, paging, dictation, email, ad hoc reporting, asset management,
⊡ Abb. 44.16. Geburtshilfe und Krankenhaus
44
45 Neonatologisches Monitoring R. Hentschel
45.1 EKG – 752 45.2 Impedanzpneumographie – 753 45.3 Kombinierte kardiorespiratorische Analyse – 754 45.4 Pulsoxymetrie – 754 45.5 Transkutane Messung des Partialdrucks – 757
45.8 Überwachung der Oxygenierung – welche Methode? – 758 45.9 Festlegung von Alarmgrenzen und Grenzwerten – 759 Literatur
– 760
Weiterführende Literatur
– 760
45.6 Messung des ptcCO2 (Transkapnode) – 757 45.7 Die Messung des ptcO2 (Transoxode) – 758
Kranke Neugeborene sind wegen ihrer im Vergleich zum Erwachsenen naturbedingten Hilflosigkeit auf sorgfältige Beobachtung angewiesen, wegen ihrer pathophysiologischen Besonderheiten unterscheidet sich das Monitoring z. T. erheblich von dem erwachsenener Patienten. Um dies zu verstehen, ist es erforderlich, einige Besonderheiten der Neonatologie voranzustellen. Die wichtigsten Diagnosen neonatologischer Patienten sind: ▬ Frühgeburtlichkeit, ▬ Anpassungsstörungen von Atmung und Kreislaufsystem, ▬ Sepsis, ▬ angeborene Fehlbildungen, insbesondere des HerzKreislauf-Systems. Allen Neugeborenen gemeinsam ist eine Instabilität der Atmung und des Herz-Kreislauf-Systems. Je unreifer ein Frühgeborenes ist, desto eher bedarf es einer Beatmung oder Atemunterstützung wegen Lungenunreife (Surfactantmangel) oder ausgeprägter zentraler Atemregulationsstörungen. Als Folge von Atempausen (»zentrale Apnoen«), Verlegung der oberen Atemwege (»obstruktive Apnoen«) oder durch das typische Atemmuster des Frühgeborenen (»periodisches Atmen«) kommt es zum Abfall der O2-Sättigung mit nachfolgender Bradykardie. Die Untersättigung des Bluts tritt im Unterschied zum Erwachsenen extrem schnell ein, da die O2-Speicher, gemessen am O2-Bedarf, sehr gering sind. Bradykardien können andererseits auch durch Aktivierung von Vagusreflexen im Bereich des Rachens (Sekretansammlung) spontan entste-
hen. Zentrale, obstruktive oder gemischte Apnoen sind ein zentrales Problem des Monitorings bei Frühgeborenen. Neugeborene weisen hinsichtlich ihrer Atmung zwei Besonderheiten auf: Sie sind obligate Nasenatmer, und sie atmen im Unterschied zum Erwachsenen überwiegend mit dem Zwerchfell. Da der Thorax des Frühgeborenen mechanisch sehr instabil ist, kommt es häufig zu einer »paradoxen« oder Schaukelatmung: Das Lungenvolumen, welches durch Tiefertreten des Zwerchfells in der Inspiration »gewonnen« wird, geht größtenteils durch Einwärtsbewegungen von Sternum und oberem Thorax wieder verloren. Vielfältige pathophysiologische Störungen, wie ▬ zerebrale Unreife, ▬ Hirnblutungen, ▬ Surfactantmangel, ▬ Infektionen, ▬ angeborene Stoffwechselstörungen, ▬ Elektrolytimbalancen, ▬ Krampfanfälle, ▬ Hypo- oder Hyperthermie, ▬ Hypoglykämien oder ▬ Anämie, äußern sich in kardiorespiratorischen Störungen des Früh- und Neugeborenen. Aus dem Gesagten ist zu entnehmen, dass die folgenden Parameter im Zentrum des neonatologischen Monitorings stehen: ▬ 1-Kanal-EKG, ▬ Atmung, ▬ O2-Sättigung,
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _45, © Springer-Verlag Berlin Heidelberg 2011
752
Kapitel 45 · Neonatologisches Monitoring
▬ transkutane Blutgaswerte, ▬ Blutdruck.
IV
Darüber hinaus spielt wegen der besonderen Thermolabilität von Früh- und Neugeborenen aber auch die Temperaturüberwachung eine große Rolle. Frühgeborene werden deshalb in Inkubatoren gepflegt. Frühgeborene sind hinsichtlich ihres O2-Status im Unterschied zum Erwachsenen besonders gefährdet. Eine toxische (zu hohe) inspiratorische O2-Konzentration kann, wie beim Erwachsenen, eine sterile Entzündungsreaktion der Lunge in Gang setzen und zu chronischen Lungenschäden führen. Darüber hinaus kann bei Frühgeborenen aber auch die gefürchtete Retinopathie der Netzhaut (eine Gefäßwucherung, die zur Erblindung führen kann) durch eine zu hohe inspiratorische O2-Konzentration mit nachfolgender Hyperoxie ausgelöst werden; diese Gefahr besteht bis zu dem Zeitpunkt, an dem ein Frühgeborenes seinen ursprünglich erwarteten Geburtstermin erreicht hat. Eine engmaschige Überwachung des O2-Status ist deshalb unumgänglich. Die inspiratorische O2-Konzentration wird bei beatmeten Patienten über das Beatmungsgerät eingestellt und auch überwacht. Auch bei Frühgeborenen, die spontan atmen oder an ein CPAP-Gerät angeschlossen sind, ist in jedem Falle ein O2-Überwachungsgerät anzubringen. Wird über eine Nasenbrille ein bestimmter Gasflow mit einer bestimmten O2-Konzentration gegeben, so erlaubt die Kenntnis dieser Größen nicht, die inspiratorische O2-Konzentration abzuschätzen, da das Kind »Nebenluft« atmen kann. Günstiger ist es, in dem »Mikroklima« des Inkubators eine bestimmte O2-Konzentration einzustellen und mit einem geeigneten Mess- und Alarmsystem zu überwachen. Wie beim Erwachsenen werden auch in der Neonatologie zumeist modulare Universalmonitoren eingesetzt, bei denen unterschiedliche Parameter mit jeweils einem eigenen Messmodul erfasst und an einem multichromen Mehrkanalmonitor sichtbar gemacht werden. Alarmsysteme für die Überwachung der Sauerstoffkonzentration sind in Beatmungs- und CPAP-Geräte sowie in Inkubatoren zumeist ab Werk integriert.
45.1
EKG
Das EKG registriert die elektrische Aktivität des Herzens in ihrer wechselnden Amplitude und wechselnden Richtung der elektrischen Hauptachse. Das 1-Kanal-EKG wird in herkömmlicher Weise, wie beim Erwachsenen, mittels EKG-Elektroden von den typischen Stellen am Brustkorb abgeleitet. Es empfiehlt sich gelegentlich eine Platzierung aller Elektroden am seitlichen Thorax, um bei den häufig durchzuführenden Röntgenbildern möglichst wenig Überdeckung der Lunge zu haben, sodass die Elektroden nicht zum Röntgen entfernt werden müssen. Elektroden
können zu diesem Zweck auch auf Oberarme und Abdomen geklebt werden. Da das 1-Kanal-EKG üblicherweise nicht der kardiologischen Diagnostik dient, sind Standardplatzierungen unnötig, die rote und gelbe Elektrode wird ansonsten in der elektrischen Herzachse angeordnet. Die Elektroden für Neugeborene sind kleiner als die des Erwachsenen, sie sind üblicherweise rückseitig mit einem Haftmittel beschichtet, das zugleich wie ein Kontaktgel den Übergangswiderstand herabsetzt. Bei Frühgeborenen ist auf Hautverträglichkeit des verwendeten Materials und auf Röntgentransparenz zu achten. Probleme treten bei reifen Neugeborenen kurz nach der Geburt besonders dann auf, wenn diese viel »Käseschmiere« besitzen; häufig ist es erst nach entfettenden Maßnahmen mit gut klebenden Elektroden möglich, eine EKG-Ableitung zu bekommen. Durch heftige (Atem-)Bewegungen kommt es häufig zum »Verwackeln« des EKG; für die Registrierung der Herzfrequenz ist dies unkritisch, nicht jedoch für die gelegentlich erwünschte Registrierung von Rhythmusstörungen. Durch wechselseitiges Verschalten zwischen den 3 Brustwandelektroden ist es möglich, 3 unterschiedliche Ableitungen zu erhalten, vorausgesetzt, alle Elektroden haften gut. Die gewählte Verstärkung soll stets dazu führen, dass die Amplitude des kompletten EKG-Signals die gesamte Bandbreite des Monitorkanals ausfüllt; nur so lassen sich zuverlässig Störungen der normalen Erregungsausbreitung und ihrer Rückbildung (z. B. bei Hyperkaliämie) erkennen. Sicher lassen sich aus dem 1-Kanal-EKG aber nur folgende Diagnosen stellen: Bradykardie, Tachykardie, Asystolie, supraventrikuläre und ventrikuläre Extrasystolen, ektoper Rhythmus, Vorhof- und Kammerflattern oder -flimmern. Automatische Auswertungen, wie Arrhythmiediagnostik, Vermessungen der EKG-Anteile u. Ä. sind in der Neonatologie nicht gebräuchlich. Die Positionierung der Elektroden ist, wie bereits erwähnt, hinsichtlich der Ableitung des EKG meist unkritisch, für die Ableitung der Thoraximpedanzkurve ist sie jedoch entscheidend und muss deshalb in dieser Hinsicht mit großer Sorgfalt ausgewählt werden (s. unten). Das 1-Kanal-EKG dient in erster Linie der Erkennung von Tachykardien und (häufiger) von Bradykardien. Zu diesem Zweck sind die Alarmgrenzen der Herzfrequenz entsprechend den Altersnormwerten einzustellen (⊡ Tab. 45.1). Die meisten Monitore bieten heute die Speicherregistrierung der Herzfrequenz und weiterer Parameter über wenigstens 24 h. Über einer unterschiedlich weit zu spreizenden Zeitachse lässt sich dann die Dauer einer Herzfrequenzabweichung exakt retrospektiv verfolgen. Wünschenswert ist darüber hinaus ein »Event-Recording«, das beim Auslösen eines herzfrequenzbezogenen Alarms eine Registrierung von 5–6 elektrischen Herzzyklen automatisch vornimmt, sodass eine spätere Analyse des Ereignisses in originalgetreuer Abbildung möglich ist.
45
753 45.2 · Impedanzpneumographie
⊡ Tab. 45.1. Normalwerte der Herzfrequenz (Mittelwert und einfache Standardabweichung). (Nach Stopfkuchen 1991)
⊡ Tab. 45.2. Normalwerte der Atemfrequenz (Mittelwert und einfache Standardabweichung). (Nach Stopfkuchen 1991)
Alter
Mittelwert+1SD (Schläge/min)
Alter
Mittelwert+1 SD (Schläge/min)
0–24 h
133
22
Frühgeborenes
50
10
1. Lebenswoche
119
16
Neugeborenes
40
10
2.–4. Woche
163
20
Säugling
31
8
1.–3. Monat
154
19
1.–4. Jahr
24
4
3.–6. Monat
140
21
5.–9. Jahr
20
2
6.–12. Monat
140
19
10.–14. Jahr
19
3
1.–3. Jahr
126
20
14.–16. Jahr
17
3
3.–5. Jahr
98
18
5.–8. Jahr
96
16
8.–12. Jahr
79
15
12.–16. Jahr
75
13
Leider stellen die meisten Monitore diese Ereignisse nur mit einer Kompression der Zeitachse dar, die eine genauere Rhythmusanalyse unmöglich macht. Wenigstens 20 Ereignisse sollten gespeichert werden können.
45.2
Impedanzpneumographie
Diese Methode erfasst Änderungen eines elektrischen Wechselstromwiderstands, der während eines Atemzyklus zwischen 2 Elektroden, wahrscheinlich durch Änderungen der Gefäßfüllung, auftritt. Durch die Anfälligkeit des Früh- und Neugeborenen für respiratorische Störungen gewinnt dieser Teil des Monitorings eine wesentliche Bedeutung in der Neonatologie. Die Methode kann über die vorhandenen EKG-Elektroden Atemfrequenz, Atemmuster, Amplitude und Atempausen sichtbar machen. Bei instabiler Atmung von Frühgeborenen sollte eine möglichst langsame Ableitegeschwindigkeit (z. B. 6 mm/s) gewählt werden, da diese am ehesten Auskunft gibt über das Atemmuster (z. B. periodisches Atmen). Die Platzierung der Elektroden sollte im Bereich der größten Umfangsänderung während eines Atemzyklus erfolgen. Dieser liegt zwischen 2 Elektroden in der vorderen rechten und linken Axillarlinie im Bereich des Rippenbogens. Problematisch ist die große Variabilität des Atemmusters bei Früh- und Neugeborenen. Durch Unreife auf verschiedenen Ebenen der Atemregulation ist die Atmung nicht so autonom (»maschinenartig«) wie beim Erwachsenen. Es resultieren nicht nur ausgeprägte Atempausen, sondern auch Variationen der Amplitude und der Atemausgangslage. Die Registrierung und Verarbeitung der Thoraximpedanzkurve stellt deshalb erhebliche Anforderungen an die Software eines Monitors. Überwacht wird mittels altersangepasst einstellbarer Grenzen die Atemfrequenz (⊡ Tab. 45.2), die Häufigkeit
von Apnoen, gelegentlich auch die Dauer der einzelnen Apnoen. Unterschwellige Atempausen, die die gewählte Dauer einer definierten Apnoe nicht erreichen, können bei einigen Monitoren zu »Atemdefiziten« mittels einstellbarer Grenzwerte aufaddiert werden, um so periodisches Atmen erkennbar zu machen. Definitionsgemäß liegt eine Apnoe bei einem Atemstillstand von wenigstens 20 s Dauer vor. Es sollten aber auch andere Intervalle für die Überwachung frei gewählt werden können. Durch das im Vergleich zum Erwachsenen volumenmäßig stark überdimensionierte Herz (im Vergleich zum Thoraxvolumen) bilden sich Schwankungen der Herzgröße während eines normalen Herzzyklus bei entsprechender Verstärkung in der Impedanzpneumographie gelegentlich wie normale Atemzyklen ab. Dies gilt insbesondere bei der im Rahmen von kardialen Problemen (z. B. Ductus arteriosus) sehr häufig zu beobachtenden kardialen Hyperaktivität. In dieser Situation kann der Monitor u. U. die Herzaktion, die auch bei komplettem Sistieren der Atmung noch für eine Weile fortbesteht, fälschlicherweise für eine fortbestehende Atemtätigkeit halten. Durch Aktivierung eines Erkennungsmodus, der die registrierte Herzfrequenz mit der fälschlicherweise registrierten »Atemfrequenz« vergleicht, kann dieses Signalproblem erkannt werden, sodass Alarm ausgelöst wird. Zur Interpretation von kausalen Zusammenhängen ist es erforderlich, eine retrospektive Auswertung mit Bezug zu aktuellen Maßnahmen wie Nahrungssondierung, Versorgungszeiten oder Medikamentengaben zu bekommen. Nur dann ist es möglich, Aussagen über die mögliche Ätiologie einer Atemstörung zu machen. Die Registrierung eines kompletten Atemzyklus setzt einen Kurvenverlauf in jeweils gegengesetzte Richtungen (Inspiration und Exspiration) voraus, bei dem jeweils eine bestimmte Mindestamplitude, ausgehend von einem Minimal- bzw. Maximalwert, erreicht wurde. Die Amplitude kann entweder fest eingegeben werden, oder sie passt sich nach einem meist sehr komplizierten Algorithmus den wechselnden Atemtiefen an.
754
IV
Kapitel 45 · Neonatologisches Monitoring
Eine Verschiebung der Atemmittellage ist für die Erkennung eines Atemzuges meistens kein Problem. Dennoch wird gelegentlich fälschlicherweise eine Apnoe registriert. Moderne Monitoren sind in der Lage, die Größe der abgebildeten Amplitude und den Nulldurchgang innerhalb gewisser Grenzen so zu variieren bzw. automatisch anzupassen, dass eine einigermaßen realistische Abbildung des Atemmusters und damit eine optische Registrierung von Apnoen möglich wird. Nach jeder Änderung der Position von Elektroden, aber auch nach dem Umlagern des Patienten, muss die Monitoreinstellung für die Impedanzpneumographie neu justiert werden (Einstellung der Atemtiefe und der Amplitudengröße oder Anwahl der automatischen Einstellfunktion). Für die ungestörte Überwachung der Atmung werden die Elektroden üblicherweise bei Säuglingen sehr stark seitlich und tief (bezogen auf das gesamte Projektionsfeld Thorax-Abdomen) angebracht. Auch in dieser Position sollte eine ungestörte Ableitung des 1-Kanal-EKG möglich sein. Wünschenswert ist die Möglichkeit, in zwei übereinander liegenden Kanälen die thorakale und die abdominelle Impedanzpneumographie auf der Zeitachse zu registrieren. Idealerweise liegen die Amplitudenmaxima bei gleicher Ausrichtung der Ableitung exakt übereinander. Jede Phasenverschiebung zwischen beiden Ableitungen bedeutet eine Verminderung der Atemökonomie, im Extremfall liegt bei einer gegensätzlichen Auslenkung eine »paradoxe Atmung« mit völlig ineffektiver Atemarbeit vor (»thorakoabdominale Asynchronie«). Dieses teilweise zyklisch auftretende Phänomen findet sich bei bestimmten chronischen Lungenerkrankungen des Frühgeborenen (»bronchopulmonale Dysplasie«). Da es durch verschiedene Maßnahmen (Medikamente, Inhalationen, Blähmanöver, CPAP) u. U. gebessert werden kann, ist diese diagnostische Möglichkeit von großer Bedeutung. Leider ist diese Diagnostik mit Standardmonitoren bisher nicht möglich, es gibt jedoch spezielle Geräte, die zusätzlich zur Darstellung des Phänomens auch noch den Winkel der Phasenverschiebung exakt berechnen können.
glöst hat (⊡ Abb. 45.1). Zusätzlich wäre es wünschenswert, neben der retrospektiven Anlyse der O2-Sättigung auch die Kurvendarstellung zu sehen. Für einen derart großen Datenumfang sind die vorhandenen Speicherkapazitäten von Standardmonitoren leider zumeist nicht ausreichend. Die kardiorespiratorische Überwachunng oder Analyse hat ihre Bedeutung insbesondere im Bereich des Heimmonitorings von Säuglingen, die ein Risiko für den plötzlichen Kindstod (»SIDS«) aufweisen. Dieses sind insbesondere Geschwisterkinder von Säuglingen, die einen plötzlichen Kindstod erlitten haben, Kinder mit schweren neurologischen Störungen und Säuglinge, die fortwährende Atemstörungen aufweisen. Die alleinige Überwachung der Atmung geschieht z. B. mit einem mechanischen Applanationssensor (Graseby-Kapsel). Dieser Sensor registriert Druckänderungen innerhalb eines geschlossenen luftgefüllten Systems, wenn durch eine Atembewegung ein konvex gewölbter Ballon, der im Bereich des Abdomens auf die Haut geklebt wird, leicht komprimiert wird. Da er frustrane Atembewegungen und auch eine finale Schnappatmung mit begleitender Bradykardie nicht von einer effektiven Atmung unterscheiden kann, ist eine alleinige Überwachung des Säuglings nach dieser Methode heute nicht mehr der gültige Standard. Nach neuesten Empfehlungen soll die Überwachung von Apnoen bevorzugt durch ein Pulsoxymetriegerät (s. unten) erfolgen, welches die Pulsfrequenz mit erfasst; eine zusätzliche Überwachung der Atmung ist dann nicht erforderlich. Geräte, die im freien Handel zur Überwachung des SIDS angeboten werden, beruhen auf unterschiedlichen Messprinzipien; sie sind generell wegen hoher Störanfälligkeit oder nicht nachgewiesener Wirksamkeit abzulehnen. Die meisten SIDS-Monitore haben die Möglichkeit, Alarmsequenzen und Trendkurven der überwachten Parameter aufzuzeichnen und mit einer speziellen Auswertesoftware offline auszuwerten.
45.4 45.3
Kombinierte kardiorespiratorische Analyse
Für die Erkennung der Ätiologie einer kardiorespiratorischen Störung des Frühgeborenen ist es wichtig, die genaue zeitliche Reihenfolge von Atmung (Atemmuster), Herzfrequenz und Sättigungsverlauf retrospektiv analysieren zu können. Nur dann ist es möglich, zu unterscheiden, ob eine primäre O2-Untersättigung zu einer Apnoe und dann zu einer Bradykardie geführt hat, ob eine primäre Reflexbradykardie zu einer Untersättigung mit nachfolgender Apnoe geführt hat oder ob eine primäre Apnoe eine Untersättigung mit anschließender Bradykardie aus-
Pulsoxymetrie
Die Pulsoxymetrie hat sich als kontinuierliches, nichtinvasives indirektes Messverfahren zur Standardmethode der Überwachung des O2-Status entwickelt. Es handelt sich um ein transmissionsphotometrisches Verfahren, bei dem nach dem Lambert-Beer-Gesetz die Konzentration von oxygeniertem und desoxygeniertem Hämoglobin gemessen wird. Diese beiden Hämoglobinformen weisen unterschiedliche spektrale Eigenschaften auf. 2 Leuchtdioden leiten im Bereich der Extinktionsmaxima beider Substanzen (sichtbarer Bereich ca. 660 nm und Infrarotbereich ca. 940 nm) Licht durch ein peripheres Körperteil, an der gegenüberliegenden Austrittsstelle befindet sich eine Photodiode. Aus der Schwächung beider
755 45.4 · Pulsoxymetrie
⊡ Abb. 45.1. Impedanzpneumotachographie. Nasen-Flow, Abdomenbewegung, Herzfrequenz, Sauerstoffsättigung (von oben nach unten). Ausgeprägte, langdauernde, obstruktive Apnoe mit einem Fehlen des
Lichtstrahlen wird der prozentuale Anteil des gesättigten Hämoglobins errechnet. Entscheidend ist dabei, dass das Messsystem eine Pulswelle registriert und damit nur den pulsatilen Anteil des Messsignals auswertet. Erkannt wird der pulsatile Anteil durch eine Verlängerung der Strecke, die die Lichtstrahlen in der arteriellen Füllungsphase im Gewebe zurücklegen. Ist keine Pulswelle erkennbar, zeigt das Gerät keine zuverlässigen Werte an; die Registrierung der Pulskurve (Plethysmogramm) ist deshalb elementarer Bestandteil jeder Pulsoxymetrie, wobei der Darstellung einer echten Pulskurve auf einer Zeitachse (x-Achse) der Vorzug zu geben ist gegenüber einem einfachen Leuchtdiodendisplay mit ansteigenden und abfallenden »Stufenwerten«. Aus der Pulskurve wird i. d. R. auch eine Pulsfrequenz errechnet. Die Pulskurve eignet sich auch als diagnostisches Mittel, um die Qualität der peripheren Pulswelle, z. B. bei einer Reanimation, darzustellen. In der Neonatologie werden keine Clipsensoren, sondern ausschließlich Klebesensoren oder weiche Kunststoffsensoren verwendet, die locker um die bevorzugten Ableitestellen gelegt und mit einem Klettbändchen fixiert werden (⊡ Abb. 45.2).
Nasen-Flows bei guter Eigenatmung. Beachte die artefakt-bedingten Sättigungsabfälle!
⊡ Abb. 45.2. Pulsoxymetrie beim Frühgeborenen
Bevorzugte Lokalisationen sind: Handwurzel, Vorfuß, Arm und Bein. Bei schlechter peripherer Mikrozirkulation (z. B. auch im Rahmen von Katecholamingaben) ist die Anbringung des Sensors schwierig; häufig wird keine Pulswelle registriert, da allein der leichte Druck des Sensors auf der Haut und dem darunter liegenden Gewebe ausreicht,
45
756
IV
Kapitel 45 · Neonatologisches Monitoring
um die Durchblutung in diesem Messbereich zu stoppen. Erkennbar wird dies durch eine unphysiologische Plethysmographiekurve oder eine Diskrepanz zwischen gemessener Pulsfrequenz und der Herzfrequenz anhand der EKG-Ableitung. Auch in ödematösem Gewebe ist eine zuverlässige Messung häufig nicht möglich. Um Drucknekrosen zu vermeiden, sind bei sehr kleinen Frühgeborenen die Ableitestellen u. U. sogar in Abständen von 3–4 h zu wechseln. Durch die Sensoren kann es zu Verbrennungen der Haut kommen, und zwar dann, wenn die Oberfläche beschädigt ist oder wenn Sensor und Gerät nicht optimal aufeinander abgestimmt sind. Im Fall von einfallendem Streulicht werden fälschlicherweise meist zu niedrige Sättigungswerte vorgetäuscht. Allerdings kann u. U. auch bei einem vollständigen Verlust des Hautkontakts ein normaler Sättigungswert angezeigt werden. Hier fehlt dann allerdings die Registrierung einer Pulskurve. Liegen beide Dioden nicht exakt der Haut an, kann es gleichfalls zu falsch-hohen oder falsch-niedrigen Sättigungswerten kommen. Bei Blutdruckwerten unter 30 mmHg arbeiten manche Geräte nicht mehr zuverlässig. Leider zeigen die meisten Pulsoxymetriegeräte trotz einer erkennbaren Störung der Ableitung durch Bewegungsartefakte o. Ä. im Display Messwerte an. Es muss gefordert werden, dass alle Pulsoxymetriewerte, die nicht aus einer artefaktfreien Ableitung stammen, vom Gerät unterdrückt werden und jedenfalls nicht als numerischer Wert angezeigt werden. Alle Geräte errechnen Durchschnittswerte aus einer bestimmten, z. T. wählbaren Anzahl von Herzaktionen, oder sie mitteln über einen bestimmten Zeitraum. Je länger die Dauer der Mittelung, desto träger reagiert das Gerät auf akute Änderungen, desto niedriger ist aber auch die Rate von (falschen) Alarmen. Es gibt Verbesserungen der Software, die es gestatten, Bewegungsartefakte besser zu erkennen und für die rechnerische Analyse auszuschalten. Diese Geräte filtern die durch Bewegungsartefakte entstehenden venösen Pulswellen aus der Analyse heraus. Zeigt das Pulsoxymeter keine Pulskurve an oder sind die Werte unzuverlässig, so ist zunächst auszuschließen, dass Streulicht (insbesondere von Wärmelampen) in den Sensor einstrahlt. Als nächster Schritt sollte versuchsweise die Fixierung gelockert werden. Löst auch dies das Problem nicht, sollte eine andere Ableitestelle gewählt werden, bei der weniger Gewebe durchstrahlt wird. Auch pulsoxymetrische Werte müssen wegen der aufgezeigten Fehlerquellen regelmäßig mit arteriellen oder hyperämisierten kapillären Blutgasen gegenkontrolliert werden. Dabei sollten Abnahmestelle der Blutprobe und Ableitung der Pulsoxymetrie identisch in Bezug auf die Lagebeziehung zum Ductus sein (s. unten). Die Kennlinie der Messtechnik ist nicht linear: Im Bereich unter 75% zeigt der Sensor unzuverlässige Werte an, im oberen Bereich ist die Aussagekraft des gemessenen
Wertes durch den physiologischerweise flachen Verlauf eingeschränkt. Die Geräte berücksichtigen zumeist pauschale Durchschnittswerte von Hämoglobinmolekülen, die nicht als Sauerstoffträger dienen (COHb und MetHb), deren Anteil liegt jedoch zusammengenommen meist unter 3%. Durch kooxymetrische Bestimmung in modernen Blutgasanalysesystemen kann deren Anteil exakt bestimmt werden. Erhöhte COHb- und MetHb-Werte können zu fehlerhaften pulsoxymetrischen Messwerten führen. Der MetHb-Wert kann unter der Anwendung von NO-Gas ansteigen. Bedingt durch die asymptotische Beziehung zwischen O2-Partialdruck und zugehöriger Sättigung eignet sich die Pulsoxymetrie zur Überwachung von Frühgeborenen nur bedingt: Eine Hyperoxie kann nicht sicher erkannt werden, während ein O2-Abfall recht gut registriert wird. Da bei Frühgeborenen eine Hyperoxie unbedingt vermieden werden muss, ist die Pulsoxymetrie keine geeignete Methode zur Überwachung von Frühgeborenen mit O2-Bedarf. Bei Frühgeborenen ohne zusätzlichen O2-Bedarf (Raumluft) ist die Pulsoxymetrie zur Registrierung von Sättigungsabfällen eine gute Methode, der obere Grenzwert kann nämlich in dieser Situation auf 100% eingestellt werden, da unter Raumluft eine Hyperoxie praktisch ausgeschlossen, in jedem Fall aber auch gar nicht verhindert werden kann. Einen guten Kompromiss als einfaches Überwachungsgerät bietet die Pulsoxymetrie insofern, als mit einem einzigen Kabel und dem zugehörigen Sensor sowohl die Herzfrequenz als auch die Sättigung als zentrale kardiorespiratorische Größen erfasst werden können, sodass das Anbringen von EKG-Kabeln entfallen kann. Dies ist insbesondere bei sehr unreifen Frühgeborenen von Vorteil, wenn deren sehr empfindliche Haut das Anbringen von EKG-Klebeelektroden nicht toleriert. Allerdings ist die Pulsregistrierung wegen der Anfälligkeit für Bewegungsartefakte nicht sehr zuverlässig. Wesentliche Bedeutung hat die Pulsoxymetrie auch in der Erkennung von pathophysiologischen Durchblutungsstörungen, bei denen obere und untere Körperhälfte unterschiedlich gesättigtes Blut erhalten. Bei seltenen komplexen Herzfehlern kann die untere Körperhälfte besser oxygeniert sein als die obere, häufiger ist jedoch die gegenteilige Situation: Bei der Persistenz fetaler Zirkulationsverhältnisse (»PFC-Syndrom«) wird durch einen hohen Druck im Lungenkreislauf nichtoxygeniertes Blut aus der Pulmonalarterie über den Ductus arteriosus in die untere Körperhälfte geleitet und führt so zu einer Untersättigung in diesem Bereich, wohingegen die obere Körperhälfte über den Aortenanteil vor der Einmündung des Ductus mit sauerstoffreichem Blut versorgt wird. Diese häufig stark wechselnde pathophysiologische Situation ist von großer Bedeutung und wird deshalb mit Hilfe von jeweils einem Pulsoxymetriesensor an der rechten Hand und an einem Fuß überwacht. Leider bieten die meisten Universalmonitore nicht die Möglichkeit der Registrierung von zwei Pulsoxymetriewerten.
757 45.6 · Messung des ptcCO2 (Transkapnode)
⊡ Tab. 45.3. Empfohlene Grenzwerte für die Überwachung des Sauerstoffstatus in der Neonatologie Parameter
Empfohlene Grenzwerte
Pulsoxymetrie Frühgeborene
83–93%
Kranke Neugeborene
92–98%
Transoxode Frühgeborene
45–65 mmHg
Kranke Neugeborene
40–60 mmHg
Die Standardisierung von Pulsoxymetriegeräten ist sehr schwierig, sie variiert von Hersteller zu Hersteller und von Gerät zu Gerät. Auch der Rechenalgorithmus variiert zwischen verschiedenen Herstellern, je nachdem, ob die fraktionelle oder die funktionelle O2-Sättigung angegeben wird. Für die gängigsten Geräte gibt es jedoch inzwischen in der wissenschaftlichen Literatur gute Daten zur Korrelation von O2-Sättigungen und O2-Partialdrücken. Empfohlene Alarmgrenzen für die Überwachung von Früh- und Neugeborenen sind in ⊡ Tab. 45.3 wiedergegeben.
45.5
Transkutane Messung des Partialdrucks
Die Methode der transkutanen Partialdruckmessung für Kohlendioxid (ptcCO2) und Sauerstoff (ptcO2) ist eine Besonderheit der Pädiatrie, da die größere Hautdicke des Erwachsenen eine korrekte Messung meist verhindert. Unter der lokalen Hyperthermie der Messsonde kommt es zu einer Arterialisierung der Messstelle. Die Blutgase, die unter diesen Bedingungen mit den Partialdruckwerten im peripheren Gewebe in einem Äquilibrium stehen, können so nichtinvasiv überwacht werden. Allerdings müssen die Werte regelmäßig mit (bevorzugt arteriellen) Blutproben kalibriert werden. Beide Gase (ptcCO2 und ptcO2) werden häufig in einer Kombielektrode zusammen gemessen. Um Verbrennungen der Haut auszuschließen, überwachen die Monitore die Dauer der Sensorapplikation an einer Messstelle, fordern zum Wechsel des Applikationsortes und zur Neukalibrierung auf und schalten u. U. sogar die Heizung des Sensors bei Überschreiten einer bestimmten Zeitspanne automatisch ab. Die für eine konstante Sensortemperatur benötigte Heizleistung wird meistens angezeigt, ihr Verlauf gibt wertvolle Hinweise auf eine Zentralisierung des Kreislaufs, vorausgesetzt, die Umgebungstemperatur wird konstant gehalten.
⊡ Abb. 45.3. Transkutane Messsonde für den ptcCO2 beim Frühgeborenen
Bei einem starken Anstieg der Heizleistung sollte die Applikationsstelle besonders engmaschig auf Zeichen eines thermischen Schadens überprüft werden. Bei einer Heiztemperatur von 45°C muss z. B. bei sehr kleinen Frühgeborenen in 2- bis 3-stündlichem Abstand die Platzierung der Sonde gewechselt werden. Durch die lokale Überwärmung kommt es zu einer Verschiebung der Hämoglobinbindungskurve, aus der eine Erhöhung sowohl des ptcO2 als auch des ptcCO2 resultiert. Dem wirkt der O2-Verbrauch im diffundierten Gewebe rechnerisch entgegen, sodass es zu einer realistischen O2-Messung kommt, die nahe den arteriellen Werten liegt. Durch die Produktion von CO2 im erwärmten Gewebe liegen die ptcCO2-Werte jedoch meist zu hoch. Diese Effekte können durch eine In-vivo-Korrektur rechnerisch kompensiert werden. Bei stark schwankender Heizleistung müssen engmaschig arterielle Blutgaswerte zur Überprüfung der angezeigten Messwerte abgenommen werden. Die Sensoren werden mit Kleberingen und einem Tropfen Kontaktlösung unter Vermeidung von Lufteinschluss auf die Haut geklebt (⊡ Abb. 45.3). In etwa wöchentlichen Abständen sind die Sensoren mit einer neuen Membran zu bespannen. Eine Kalibrierung sollte wenigstens einmal pro Tag erfolgen.
45.6
Messung des ptcCO2 (Transkapnode)
Mit dem auf die Haut aufgeklebten Sensor wird eine lokale Hauttemperatur von 43°C erzeugt. CO2 diffundiert dann aus der Haut, in der es die gleiche Konzentration aufweist wie in der kapillären Endstrombahn des Blutes, über eine Membran mit hydrophoben Eigenschaften (Silikon oder Teflon) in eine Elektrolytlösung. Dort werden aus den CO2-Molekülen H+-Ionen, die den pH-Wert verändern. Diese Änderung wird von einer pH-Elektrode registriert
45
758
IV
Kapitel 45 · Neonatologisches Monitoring
und mit einer Referenzelektrode verglichen, das Spannungspotential ist dem pCO2 proportional. Als Fehlerquelle gilt das in der Haut selbst gebildete CO2, das von metabolischen Prozessen abhängig ist. Da die Partialdruckdifferenz zwischen arteriellem und gemischt-venösem Blut sehr viel kleiner ist und CO2 wegen des unterschiedlichen Löslichkeitskoeffizienten besser diffundiert als O2, ist der Grad der (arteriellen) Gewebeperfusion weniger kritisch als bei der Messung des ptcO2 (Transoxode). Aus den genannten Gründen liegt der ptcCO2 häufig über dem arteriellen pCO2. Eine 2-Punkt-Kalibrierung erfolgt in festgelegten Abständen mit einem speziellen Eichgas, das Konzentrationen von 5 und 10% liefert. Die Transkapnode ist weniger abhängig von Messort, Blutdruck, pH-Wert, Körpertemperatur und Hämatokrit, eine Sondentemperatur von 42°C ist oft ausreichend. Die Responsezeit ist mit 30–50 s länger als die von Transoxoden.
45.7
Die Messung des ptcO2 (Transoxode)
Die Zuverlässigkeit der Methode ist abhängig von der Hautdicke, dem Messort und der peripheren Durchblutung an dieser Stelle. Beeinflusst wird sie außerdem durch die gewählte Sondentemperatur und die Fixierung der Sonde. Sie ist darüber hinaus aber auch bei pH-Werten von 7,0 und tiefer sowie bei starker Anämie (Hämatokrit < 28%) unzuverlässig. Diese Bedingungen sind selten zu finden, im Gegensatz zu systolischen Blutdruckwerten unter 32 mmHg, die bei sehr kleinen, kranken Frühgeborenen durchaus vorkommen und dann die Zuverlässigkeit der ptcO2-Messung stark einschränken. Dies kann jedoch auch anders interpretiert werden: Die Diskrepanz zwischen einer arteriellen Blutgasanalyse mit normalen Werten und einer unzuverlässigen ptcO2-Messung mit erniedrigten Werten weist u. U. auf einen beginnenden Zusammenbruch des peripheren Kreislaufs hin. Bei Frühgeborenen mit chronischen Lungenerkrankungen (»bronchopulmonale Dysplasie«) ist die Messung des ptcO2 häufig unzuverlässig, wahrscheinlich wegen starker Schwankungen der Hautperfusion. Für eine optimale Korrelation mit dem arteriellen pO2 ist eine Sondentemperatur von 44°C zu empfehlen, bei kleinen Frühgeborenen sind 43°C ein brauchbarer Kompromiss zwischen der Zuverlässigkeit der Messwerte und der Gefahr der thermischen Schädigung. Eine Kalibrierung erfolgt mit der Umgebungsluft unter Berücksichtigung des aktuellen Luftdrucks. Bis zu stabilen Steady-state-Bedingungen bedarf es einer Zeitspanne von 10–15 min nach jeder Neupositionierung des Sensors. Die Responsezeit auf akute Änderungen des pO2 schwankt je nach Bedingungen zwischen 20 und 60 s.
45.8
Überwachung der Oxygenierung – welche Methode?
Die Philosophie, wie der Sauerstoffstatus überwacht werden sollte, variiert von Klinik zu Klinik sehr stark. Es gibt für verschiedene Standards gute Begründungen. Es gilt zunächst, die Schwankungen der Sauerstoffsättigung bei Früh- und Neugeborenen, die ohnehin sehr viel größer sind als beim Erwachsenen, in engen Grenzen konstant zu halten. Eine Hyperoxie ist bei Frühgeborenen zunächst im Hinblick auf die Entwicklung der gefürchteten Retinopathie gefährlich. Aber auch chronische Lungenschäden können durch unnötig hohe inspiratorische O2-Konzentrationen entstehen. Schließlich ist die Bildung von Sauerstoffradikalen auch für andere pathophysiologische Prozesse von Bedeutung. Eine Hypoxie ist natürlich gleichermaßen unerwünscht; schließlich sind alle Körperzellen, insbesondere aber das sich entwickelnde Gehirn, hochgradig O2-abhängig. Das Dilemma der engen O2-Grenzen wird vergrößert durch den Umstand, dass ein optimaler Zielbereich für die Oxygenierung von Früh- und Neugeborenen bisher nicht schlüssig definiert wurde und auch methodisch nur sehr schwer erfasst werden kann. Bekannt ist, dass der Fetus intrauterin einen paO2-Wert von nur etwa 30 mmHg im arteriellen Blut aufweist und damit problemlos gedeiht. Für das extrauterine Leben wird ein zusätzlicher O2-Bedarf rein pragmatisch definiert, da zusätzliche Funktionen von Organen (z. B. Atmung), Stoffwechselaktivitäten und auch die Wärmeproduktion »anlaufen«. Für kleine Frühgeborene mit der Gefahr der Retinopathie sollte nach gegenwärtig vorherrschender wissenschaftlicher Auffassung der arterielle pO2 nicht über 60 mmHg und nicht unter 40 mmHg liegen. Es ist sinnvoll, die Grenzen anhand des pO2 zu setzen, da aufgrund von Besonderheiten der O2-Bindungskurve eine obere Grenze mittels Sättigung (Pulsoxymetrie) nicht exakt überwacht werden kann (⊡ Abb. 45.4). Außer der Tatsache, dass eine Komplettsättigung des Hämoglobins von 100% für Frühgeborene bereits gefährlich sein kann, muss der zusätzlich im Blut gelöste Sauerstoff als toxisch berücksichtigt werden. Die nichtinvasive Überwachung des O2-Status sollte deshalb bei kleinen Frühgeborenen, die eine erhöhte inspiratorische O2-Konzentration benötigen, mittels Transoxode erfolgen. Besteht der Verdacht auf kurzfristige Unter- bzw. Übersättigungen, sollte zusätzlich das schneller reagierende Pulsoxymeter eingesetzt werden. Bei Frühgeborenen ohne zusätzlichen O2-Bedarf und bei reifen Neugeborenen ist ein Pulsoxymeter ausreichend. Bei sehr empfindlicher Haut von sehr kleinen Frühgeborenen mit schlechter Perfusion kann es nötig sein, auf transkutane Gassensoren (und evtl. EKG-Elektroden)
759 45.9 · Festlegung von Alarmgrenzen und Grenzwerten
zu verzichten und ausschließlich mit der Pulsoxymetrie zu überwachen. Bei reiferen Patienten kann es durch Bewegungsartefakte zu Fehlalarmen der Pulsoxymetrie kommen, sodass sich eine Transoxodenüberwachung anbietet. Andererseits wirken bei Patienten, die zunehmend mobil werden, die starren Kabel der Transoxoden bzw. Transkapnoden sehr hinderlich.
Wenn bei einem akuten Notfall eine Sauerstoffüberwachung erforderlich wird, ist grundsätzlich in jedem Reifealter zunächst der Pulsoxymetrie wegen ihrer schnellen Einsatzfähigkeit der Vorzug zu geben. Auch bei schwerer bronchopulmonaler Dysplasie des Frühgeborenen sollte die Pulsoxymetrie wegen ihrer größeren Zuverlässigkeit in dieser Patientengruppe bevorzugt angewendet werden. Bestehen Zweifel über die Relevanz von Messwerten mit einer der beiden Methoden bei einem individuellen Patienten, sollte die alternative Methode zusätzlich angewendet werden. Eine Zusammenstellung von Vor- und Nachteilen der beiden Alternativen für die Überwachung der Oxygenierung findet sich in ⊡ Tab. 45.4.
45.9
⊡ Abb. 45.4. Sauerstoffbindungskurve (aus Obladen u. Maier 2006)
Festlegung von Alarmgrenzen und Grenzwerten
Bei der Festlegung von Grenzwerten ist zwischen Zielbereich und Alarmwerten (Alarmgrenzen) zu unterscheiden. Der Zielbereich umfasst die Werte, die angestrebt werden, d. h., innerhalb dieser Spannbreite sollen sich die kontinuierlich registrierten Werte überwiegend befinden. Im Gegensatz dazu geben die Alarmwerte die Werte an, deren Überschreiten oder Unterschreiten durch Alarmierung eine Reaktion des Personals in Gang setzen soll (Stimulierung des Kindes bei einer Apnoe, Anpassen der inspiratorischen O2-Konzentration usw.). Wird der Alarmbereich zu »großzügig« gewählt und zeigen die registrierten Werte nur geringfügige Schwankungen, kann es sein, dass über lange Perioden kein Alarm registriert wird, obwohl das Kind während dieser Zeit überwiegend nicht in dem enger zu definierenden, medizinisch begründeten Zielbereich liegt. Die
⊡ Tab. 45.4. Vor- und Nachteile der Überwachungssysteme für den O2-Status Pulsoxymetrie
Transoxode
Vorteile:
Schnelle Einsatzbereitschaft Keine Kalibrierung nötig Kurze Responsezeit Kaum lokale Irritationen Geringe Abhängigkeit vom Kreislauf Geeignet für alle Altersstufen
Messung der relevanten Größe (pO2) Gute Korrelation zum arteriellen pO2 Wenig Artefakte
Nachteile:
Ungeeignet für Hyperoxieüberwachung Ungenauigkeit <75% Sättigung Bewegungsartefakte häufig Empfindlich für Streulicht Häufige Alarme
Vorlaufphase bis 10 min Lange Responsezeit Unsensibel für kurzzeitige Schwankung der Oxygenierung Zuverlässigkeit eingeschränkt bei bestimmten pathophysiologischen Zuständen Lokale Verbrennung Arbeitsaufwändig durch häufige Kalibration Störanfällig seitens der Membran Starre Kabel
45
760
IV
Kapitel 45 · Neonatologisches Monitoring
Festsetzung von Alarm- und Grenzwerten ist bei neonatologischen Patienten eine wichtige ärztliche Aufgabe, die teilweise normiert werden kann, teilweise aber auch individuell erfolgen muss. Es gibt eine Vielzahl von Studien, in denen Sensitivität und Spezifität verschiedener Alarmgrenzen für die Diagnose einer Hyperoxie bzw. Hypoxie bei verschiedenen Pulsoxymetriegeräten getestet wurden. Diese seien für ein vertiefendes Studium und für die Erstellung von Leitlinien empfohlen. Jede neonatologische Abteilung sollte jedoch die eigenen Geräte am Patienten standardisieren und individuelle Grenzen festlegen. Eine solche Standardisierung für O2Sättigung und Partialdrücke für O2 und CO2 sollte anhand einer arteriellen Blutprobe erfolgen. Am besten geschieht dies über eine liegende arterielle Gefäßkanüle, da das Kind bei einer aktuellen Gefäßpunktion, insbesondere, wenn diese schwierig ist, wegen der mit der Schmerzreaktion verbundenen Schreiattacke selbst im intubierten Zustand rasche Veränderungen der Blutgase bietet. Die dann akut erhöhten pCO2-Werte und die erniedrigten pO2-Werte werden wegen der Latenzzeiten durch die nichtinvasiven Verfahren (insbesondere Transoxode und Transkapnode) dann noch nicht korrekt erfasst (⊡ Tab. 45.3).
Literatur Obladen M (1995) Neugeborenen-Intensivpflege. Springer, Berlin Heidelberg New York Tokio Obladen M, Maier RF (2006) Neugeborenenintensivmedizin. Springer, Berlin Heidelberg New York Tokio Stopfkuchen H (1991) Pädiatrische Intensivpflege. Wiss Verlagsges, Stuttgart
Weiterführende Literatur Hentschel R et al. (1995) Apnoen bei Neugeborenen. In: Pädiatrische Praxis 49, S 203–211. H. Marseille, München Stocks J et al. (1996) Infant respiratory function testing. Wiley-Liss, New York Chichester Brisbane Toronto Singapur
46 Fusion von Medizintechnik und Informationstechnologie Struktur, Integration und Prozessoptimierung H. Tanck, M. Heinlein
46.3.7 IHE
46.1 Einleitung – 763 46.2 Schnittstellenstandards 46.2.1 46.2.2 46.2.3 46.2.4 46.2.5
– 764
Health Level 7 – 764 DICOM – 764 GDT – 764 xDT – 764 XML – 765
46.3 Datenstruktur – 765
– 766
46.4 Integration der medizintechnischen Geräte – 766 46.4.1 Exkurs: HL7-Kommunikationsserver – 766 46.4.2 Schnittstellen – 767 46.4.3 Anbindung des Medizingerätes – 767
46.5 Organisatorische Anforderungen an die Anbindung – 768
46.3.1 46.3.2 46.3.3 46.3.4 46.3.5 46.3.6
HL7 CDA – 765 SNOMED – 765 LOINC – 765 Alpha-ID – 765 OID – 765 UCUM – 765
46.5.1 Verantwortlichkeiten – 769 46.5.2 Integration am Beispiel »Vom Befund zur medizinischen Dokumentation« – 770
46.1
Einleitung
und administrativen Inhalte der Dokumentation sichert diese Anforderung. In Zeiten des Budget- und Personalmangels müssen die vorhandenen Ressourcen in den Krankenhäusern möglichst effektiv eingesetzt werden, durch die Integration von IT und Medizintechnik werden nicht nur die Workflows effizienter gestaltet, es können auch zeitliche und monetäre Einsparungspotentiale realisiert werden. Ein typischer Fall ist die umfassende und vollständige Bereitstellung der medizinischen Dokumentation in die administrativen IT-Systeme und damit die zeitnahe krankenhausweite Bereitstellung von Informationen zur effizienten Behandlung der Patienten. Voraussetzung für die vollständige Integration ist die semantische Interoperabilität der verschiedenen medizinund informationstechnischen Systeme; hierzu kommen verschiedene Standards zum Einsatz. Die Standards für eine vollständige Integration werden in zwei Bereiche unterteilt: ▬ die Kommunikation zwischen zwei Systemen (Schnittstellenstandards) und ▬ die Standards zu Struktur der zu übertragenden Daten (Datenstruktur).
Die Kombination von Informationstechnologie (IT) und Medizintechnik (MT) gewinnt gerade in der heutigen Zeit immer mehr an Bedeutung. Waren vor Jahren nur PCs an Medizingeräte angeschlossen, so werden heute Systeme, bestehend aus Medizingerät und PC, Medizingeräte mit komplexer IT-Infrastruktur und/oder Medizingeräte mit integrierter Netzwerkschnittstelle, direkt an IT-Netzwerke angeschlossen. Neben der medizinischen Befunderstellung bieten viele Systeme dem ärztlichen und pflegerischen Personal eine Unterstützung bei der medizinischen Dokumentation sowie in der Behandlungs-, Therapie- und Pflegeplanung. Die erfassten Daten stehen in fachabteilungsspezifischen Experten-Systemen für verschiedenste fachbezogene Auswertungen und für wissenschaftliche Fragestellungen zur Verfügung. Die Integration der Medizintechnik in die Informationstechnik des Krankenhauses steht im Einklang mit der Aufgabe der deutschen Krankenhäuser, bei stetig steigendem Kostendruck eine immer höhere Qualität der Behandlung und Dokumentation des Behandlungsprozesses zu liefern. Die Zusammenführung der medizinischen
46.6 Zusammenfassung – 770
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _46, © Springer-Verlag Berlin Heidelberg 2011
764
Kapitel 46 · Fusion von Medizintechnik und Informationstechnologie
46.2
Schnittstellenstandards
Eine Schnittstelle, die einen Standard unterstützt, wird per Definition durch eine Menge von Regeln beschrieben. Standardisierte Schnittstellen sind zueinander kompatibel, d. h., die Komponenten oder Module, die die gleiche Schnittstelle unterstützen, können untereinander standardisiert Daten austauschen. Die wesentlichen Standards, die im Gesundheitswesen eingesetzt werden, finden Sie nachfolgend.
46.2.1 Health Level 7
V
Health Level 7 (HL7) ist ein internationaler Standard für den Austausch von Daten im Gesundheitswesen. HL7 wurde von der gleichnamigen Organisation entwickelt, zurzeit werden die Versionen 2.x und die Version 3 unterstützt. Die Zahl 7 des Namens HL7 bezieht sich auf die Schicht 7 des ISO/OSI-Referenzmodelles für die Kommunikation (ISO7498-1) und drückt damit aus, dass hier die Kommunikation auf Applikationsebene beschrieben wird. So werden in der HL7-Version-2.x die Nachrichtentypen unterstützt, die in Segmente und Felder gegliedert sind: ▬ ADT (Admission, Discharge and Transfer): PatientenStammdaten und Aufenthaltsdaten, ▬ ORM (Order Message): Anforderung einer Untersuchung, ▬ ORU (Observation Results Unsolicited): Befundübermittlung, ▬ DFT (Detail financial transactions): Übermittlung von Leistungsdaten zur Abrechnung, ▬ BAR (Billing and Accounting Request): Übermittlung von Leistungsdaten nach dem Operations- und Prozeduren-Schlüssel-Standard (OPS-Standard), ▬ MDM (Manage Document Message): Dokumenten Management Nachrichten.
46.2.2 DICOM
Digital Imaging and Communications in Medicine (DICOM) ist ein offener Standard zum Austausch digitaler Bilder und deren Zusatzinformationen. Über den DICOM-Standard wird sowohl das Format zur Speicherung als auch das Kommunikationsprotokoll zum Austausch der Daten standardisiert. Der DICOM-Standard wird permanent von mehreren Arbeitsgruppen des DICOM STANDARDS COMMITEE weiterentwickelt. Immer mehr Hersteller bildgebender Systeme in der Medizin implementieren den DICOM-Standard in ihren Produkten, z. B. beim Digitale Röntgen, der Magnetresonanztomographie, der Computertomographie, der Endoskopie oder der Sonographie. Hieraus resultiert eine hohe Interoperabilität zwischen den bildgebenden Systemen und Systemen für die Bildverarbeitung und die digitale
Bildarchivierung, Picture Archiving and Communication System (PACS). Wichtige DICOM-Services sind: ▬ Verify – die Überprüfung, ob ein Netzwerkknoten DICOM unterstützt ▬ Storage – die Speicherung von Datenobjekte ▬ Query/Retrieve – das Durchsuchen eines DICOM Gerätes nach Objekten (Query) und die Übertragung auf ein anderes DICOM-Gerät (Retrieve) ▬ Procedure Step-Informationen über den Status der Untersuchung ▬ Storage Commitment – Anfrage, ob die übermittelten Daten gespeichert wurden ▬ Worklist Management – Datenübergabe des planenden Systems an das DICOM-Gerät, an dem die Untersuchung durchgeführt werden soll ▬ Presentation State Storage – Übermittlung der Information, wie das Bildmaterial dargestellt wurde oder dargestellt werden soll ▬ Structured Reporting Storage – Kodierte Übermittlung eines medizinischen Befundes ▬ Hanging Protocols Storage – Speicherung der Darstellung der Bilderserien und Studien
46.2.3 GDT
Die Geräte-Daten-Träger-Schnittstelle (GDT) wurde vom Qualitätsring Medizinische Software (QMS) erarbeitet und wird als standardisierte Schnittstelle zwischen IT-Systemen und medizintechnischen Geräten eingesetzt. Bei vielen medizintechnischen Geräten ist die GDT-Schnittstelle im Standardlieferumfang implementiert. Die auszutauschenden Daten werden in einem vorher festgelegten Verzeichnis abgelegt. Der Dateiname dient zur eindeutigen Identifizierung der Kommunikationspartner und ist wie folgt aufgebaut: <Empfänger-Kürzel><Sender-Kürzel>
. Die laufende Nummer wird für jede neue Nachricht hochgezählt. Dadurch wird verhindert, dass ältere Nachrichten vor der Verarbeitung durch das lesende Gerät (Client) überschrieben werden. Nach dem ordnungsgemäßen Verarbeiten der Nachricht durch den Client wird die Datei im Austauschverzeichnis des Clients gelöscht. 46.2.4 xDT
Die xDT-Schnittstelle wurde im Auftrag der Kassenärztlichen Bundesvereinigung erstellt und enthält eine Gruppe von Datenaustauschformaten, die überwiegend im »niedergelassenen Bereich« Anwendung findet. Die Formate haben eine gemeinsame, textorientierte Syntax, in der jedes Feld als eine Zeile in die Datei geschrieben wird und ein gemeinsames Feldverzeichnis, dass auf XML basiert (Extensible Markup Language; Markup Language steht für »erweiterbare Auszeichnungssprache«).
765 46.3 · Datenstruktur
46.2.5 XML
XML wurde vom World Wide Web Consortium (W3C) herausgegeben. Die aktuelle Version ist die fünfte Ausgabe. Es wird mit XML eine Metasprache definiert, auf deren Basis durch strukturelle und inhaltliche Einschränkungen anwendungsspezifische Sprachen definiert werden, wie etwa xDT. Ein XML-Dokument besteht aus Textzeichen, im einfachsten Fall ASCII, und ist damit menschenlesbar. Die Definition beinhaltet keine Binärdaten, welche für Menschen unlesbare Texte enthalten.
46.3
Datenstruktur
Der zweite wesentliche Aspekt bei der Integration von Medizintechnik und IT ist in der Frage nach der Struktur der Inhalte der medizinischen Dokumente zu sehen.
46.3.1 HL7 CDA
Die HL7 Clinical Document Architecture (CDA) ist ein von der Health-Level-7-Gruppe erarbeiteter, auf XML basierender Standard für den Austausch und die Speicherung klinischer Inhalte. Ein CDA-Dokument entspricht einem klinischen Dokument (z. B. Arztbrief, Befundbericht). Mit CDA-Dokumenten können standardisierte und strukturierte Datenübermittlungen zwischen verschiedenen Systemen sichergestellt werden.
46.3.2 SNOMED
Die systematisierte Nomenklatur der Medizin (SNOMED) (engl.: Systematized Nomenclature of Human and Veterinary Medicine) hat zum Ziel, medizinische Aussagen so zu indizieren, dass die inhaltlichen Elemente der Aussage vollständig erfasst sind. SNOMED CT enthält 18 Achsen mit 800000 Begriffen (Terms), die ca. 300000 Konzepte beschreiben (mehrere Terms pro Konzept). Die deutsche Übersetzung von SNOMED CT stammt aus dem Jahr 2003 und wurde seither nicht mehr gepflegt.
stitut für Medizinische Dokumentation und Information) die Einführung von LOINC aktiv und übernimmt die Funktion der zentralen Datenhaltung und des Informationsaustausches mit den zuständigen nationalen und internationalen Instituten, Projektgruppen und der Industrie. Die Logical Observation Identifiers Names and Codes sind eine Zusammenstellung allgemeingültiger Namen und Identifikatoren zur Bezeichnung von Untersuchungs- und Testergebnissen aus Labor und Klinik. LOINC wird sowohl von HL7 als auch von DICOM für den strukturierten Austausch medizinischer Untersuchungsergebnisse und Befunddaten (strukturierter Dokumente, CDA) empfohlen.
46.3.4 Alpha-ID
Die Identifikationsnummer für Diagnosen ist eine fortlaufende Nummer, über die die Einträge des alphabetischen Verzeichnisses der ICD-10-GM (Internationale Klassifikation der Krankheiten 10. Revision) identifiziert werden. Mit Hilfe der Alpha-ID können medizinische Begriffe elektronisch weiterverarbeitet werden; die Unveränderlichkeit des Kodes, durch die Pflege im DIMDI, sichert die Interoperabilität dieser Kodierung. Werden die prognostizierten zu erwartenden Erweiterungen der Alpha-ID über den Bereich der Diagnosen hinaus umgesetzt, wird sich die Alpha-ID zu einer zukunftsträchtigen Terminologie entwickeln.
46.3.5 OID
Eine effiziente Softwarekommunikation in der Gesundheits-Telematik erfordert für den standardisierten Austausch von Gesundheitsinformationen eindeutige Datenobjekte, d. h., dass alle Objekte und Nachrichten eindeutig bezeichnet sind. Hierfür werden Objekt-Identifikatoren (OID), die aus Zahlenketten bestehen, zur Kennzeichnung der Objekte und Nachrichten verwendet. Objekte sind dabei Informationseinheiten wie Institutionen, Klassifikationen, Nachrichten, Dokumente oder Tabellen. Wenn OID für den standardisierten Datenaustausch zwischen Software-Systemen genutzt wird, ist damit die Integration der Daten zwischen den Systemen sichergestellt.
46.3.6 UCUM 46.3.3 LOINC
LOINC (Logical Observation Identifiers Names and Codes) ist ein international anerkanntes System zur eindeutigen Verschlüsselung und Entschlüsselung von Untersuchungen. Die Pflege und Dokumentation der LOINCDatenbank liegt beim Regenstrief Institute (Indianapolis, USA). In Deutschland fördert das DIMDI (Deutsches In-
Über das Kodiersystem Unified Code for Units of Measure (UCUM) werden Maßeinheiten in standardisierter Form abgebildet. Wenn die Anwendungen zur medizinischen Dokumentation den SI-Einheitenstandard (Internationales Einheitensystem) abbilden, ist die Übermittlung – z. B. die Medikation bei einer Behandlung – mit eindeutigen Messwerten möglich.
46
766
Kapitel 46 · Fusion von Medizintechnik und Informationstechnologie
46.3.7 IHE
V
Letztlich schafft Integrating the Healthcare Enterprise (IHE) als Brücke zwischen verschiedenen Standards das technische Rahmenwerk für die Implementierung und Prüfung der Praktikabilität der Standards. IHE formuliert dazu Anforderungen aus der Praxis in so genannte Use Cases, identifiziert relevante Standards und entwickelt technische Leitfäden im so genannten Technical Framework. Diese Leitfäden ermöglichen den Herstellern ihre Schnittstellen IHE-konform zu gestalten. Auf dem internationalen »Connectathon« testen die Hersteller die Interoperabilität ihre Systeme untereinander und können diese so auf den Praxiseinsatz vorbereiten.
46.4
Integration der medizintechnischen Geräte
Wie sieht die Integration der Geräte der Medizintechnik heute aus? In vielen Krankenhäusern sind Medizingeräte im Bereich des Labors, der Radiologie und einzelne Geräte aus dem Bereich Ultraschall, Endoskopie an die Krankenhausinformationssysteme angebunden. Die
⊡ Abb. 46.1. Integration von medizinischen Geräten – Stand 2010
Anbindung der Geräte erfolgt häufig über eine Geräteschnittstelle und über eine Schnittstelle auf der Seite des datenaufnehmenden Informationssystems; d. h., dass für jeden Anbieter eines Medizingerätes eine separate Schnittstelle eingerichtet werden muss. Häufig ist dieses Vorgehen darin begründet, dass die eingesetzten Geräte z. B. lediglich über eine GDT-Schnittstelle verfügen. Die Graphik (⊡ Abb. 46.1) verdeutlicht die heutzutage überwiegenden Schnittstellenstrukturen in Krankenhäusern.
46.4.1 Exkurs: HL7-Kommunikationsserver
Die Kommunikation von Subsystemen in Krankenhäusern kann durch HL7-Kommunikationsserver optimiert werden. Diese Komponenten sorgen dafür, dass nicht zu jedem einzelnen Subsystem eine separate Schnittstelle geschaffen werden muss. Die aus dem Einsatz eines Kommunikationsservers resultierenden Vorteile sind, dass sich die Anzahl der Schnittstellen reduziert, da nicht jedes System über eine separate Schnittstelle direkt an ein Krankenhausinformationssystem eingebunden werden muss. Dies wiederum impliziert neben einem einheitlicheren und einfacheren Kommunikationsfluss auch eine
767 46.4 · Integration der medizintechnischen Geräte
Kosteneinsparung, da jede separate Schnittstelle einen monetären Gegenwert fordert. Das Datenformat oder die HL7-Version, in dem die einzelnen Systeme ihre Nachrichten schicken, ist absolut beliebig. Der HL7-Server konvertiert diese Formate über Mapping-Tabellen automatisch in das Format, das das empfangende System benötigt. Diese Tabellen werden bei der Einrichtung des Kommunikationsservers einmalig angelegt, und die Wartung der Schnittstellen erfolgt anschließend zentral an dem Kommunikationsserver. Projiziert man die Technik der HL7-Kommunikationsserver auf die Anbindung von Medizingeräten, resultiert daraus die in ⊡ Abb. 46.2 dargestellte Systemlandschaft.
46.4.2 Schnittstellen
Während bei der technischen Umsetzung der Schnittstelle eines Medizingerätes und dem IT- Netzwerk die Fachbereiche Informationstechnik und Medizintechnik betroffen sind, fließt bei der organisatorischen Betrachtung das inhaltliche Ergebnis in den Behandlungsprozess des Krankenhauses ein und betrifft den gesamten Organismus Krankenhaus.
46.4.3 Anbindung des Medizingerätes
Im Unterschied zur Anbindung von zwei Software-Systemen auf Basis einer HL7-Kommunikation kommt bei der Anbindung von Medizingeräten als Besonderheit hinzu, dass jedes Medizingerät bzw. jedes Untersuchungsergebnis angebunden bzw. dokumentiert werden muss. Bei Systemen, deren Daten nur lokal auf einem Gerät vorgehalten werden, muss zu jedem einzelnen Gerät bzw. Arbeitsplatz des Gerätes eine physikalische Schnittstelle geschaffen werden. Werden noch unterschiedliche Anwendungen durch den Anbieter des Gerätes zur Verfügung gestellt, erhöht sich die Komplexität der Schnittstellen nochmals. In der Regel handelt es sich bei den aufgezeichneten Daten um fachabteilungsspezifische Daten und Anwendungen zur medizinischen Befundung. Der Umfang der benötigten physikalischen Schnittstellen bei Einzelanbindungen wird in ⊡ Abb. 46.3 beispielhaft graphisch dargestellt. Die Anbindung eines Gerätes kann durch proprietäre Schnittstellen oder durch die in Abschnitt 46.2 beschriebenen Standardsschnittstellen (wie HL7 und DICOM) erfolgen. Wesentliche zu beachtende Aspekte hierbei sind, dass ▬ es zu keiner Abhängigkeit durch den Einsatz von proprietären Schnittstellen kommt,
⊡ Abb. 46.2. Integration von medizintechnischen Geräten mit Schnittstellenserver
46
768
V
Kapitel 46 · Fusion von Medizintechnik und Informationstechnologie
⊡ Abb. 46.3. Medizinische Fachbereiche inklusive möglicher dazugehöriger Medizingeräte
▬ IT-Technik und Medizintechnik gemeinsam Betriebsund Änderungsprozesse vereinbaren müssen, ▬ die Vernetzung von Medizinprodukten entsprechend der Vorgaben und entsprechend der Zweckbestimmung der im MPG festgehaltenen Kriterien erfolgen und ▬ eine Festlegung einheitlicher Schnittstellen zur Anbindung an vorhandene Systeme abgestimmt wird.
▬ Anpassung des Storagekonzeptes/Langzeitarchivierung, ▬ Erweiterung an dem System-Monitoring und ▬ Abbildung der Datenkonsistenz und Arbeitsprozesse (IHE).
Wesentlich ist weiterhin, dass es keinen Zwang zum Betrieb von Medizintechnik aus Eigenherstellung geben darf und dass die Umsetzung des IT-Sicherheitskonzeptes für die Vernetzung von Medizinprodukten berücksichtigt wird. Wobei der abschließende Abnahmeprozess und die damit einhergehende Risikoanalyse nicht außer Acht gelassen werden dürfen. Im zweiten Schritt werden die von den Medizingeräten gesendeten Daten an die diversen Informationssysteme gemäß der vorab festgelegten Zweckbestimmung weitergeleitet. Bei diesen Daten kann es sich um Messwerte, Befundtexte, strukturierte medizinische Dokumente, Bilder, PDF-Dateien etc. handeln. Auch die Übermittlung der Daten des Medizingerätes an das Informationssystem kann durch properitäre Schnittstellen oder durch die in Abschn. 46.2 beschriebenen Standardschnittstellen erfolgen. Eine gemeinsame Aufgabe für die Verantwortlichen aus Medizin, Medizintechnik, Informationstechnologie und Verwaltung ist die Definition der zu übermittelnden Inhalte. Häufig ergeben sich hieraus – wieder für die verschiedenen Abteilungen – weitere Anforderungen an die durch sie betreuten Fachbereiche, hier beispielhaft aufgezeigt für den Bereich der Informationstechnologie: ▬ Anpassungen an die Netzwerktopologie (IT/MT), ▬ Anpassungsbedarf an die individuelle IT/MT-Infrastruktur, ▬ zu berücksichtigenden Hard-/Softwarevoraussetzungen (Betriebssysteme etc.),
Betrachtet man die Anbindung von medizintechnischen Geräten, wird deutlich, dass sich auch organisatorisch mehrere Berufsgruppen des Krankenhauses mit überschneidenden Verantwortlichkeiten an diesem Prozess beteiligen müssen. Während sich der Ärztliche Dienst ausführlich mit den Möglichkeiten der medizinischen Befunderstellung beschäftigen muss, wird die Medizintechnik ihr Augenmerk auf die Anschaffung und den anschließenden störungsfreien Betrieb des medizintechnischen Gerätes legen. Die Informationstechnik des Hauses beschäftigt sich i. d. R. mit den Integrationsmöglichkeiten der Untersuchungsergebnisse in das Krankenhausinformationssystem. Und für die Verwaltung des Krankenhauses werden die Anschaffungskosten und die Folgekosten während des Lebenszyklus des Medizingerätes von Interesse sein, aber auch die Möglichkeiten der Dokumentation werden zukünftig an Bedeutung gewinnen, um z. B. gegenüber Kostenträgern Behandlungsprozesse zu begründen. Gerade diese Gesamtsicht und der Bedarf der Zusammenarbeit erfordern von den vorab aufgeführten Berufsgruppen eine enge Zusammenarbeit. Es sollten im Vorfeld, vor der Anschaffung des Gerätes, folgende exemplarisch aufgeführte Fragestellungen beantwortet werden bzw. sein, um dem aus der Radiologie stammenden Grundsatz von der »Einheit von Bild und Befund« gerecht zu werden. ▬ Wer trägt inhaltlich die Verantwortung für den Integrationsprozess?
46.5
Organisatorische Anforderungen an die Anbindung
769 46.5 · Organisatorische Anforderungen an die Anbindung
⊡ Abb. 46.4. Verwaltungszuständigkeiten im Krankenhaus
▬ Wer trägt technisch die Verantwortung für den Integrationsprozess? ▬ Welche Daten sollten aus medizinischer Sicht übermittelt werden? ▬ Welche Daten sollten aus verwaltungstechnischer Sicht übermittelt werden? ▬ Wer ist für die Abstimmung zwischen den Fachbereichen zuständig? ▬ Welche Schnittstellen sind seitens des Gerätes für die Integration gegeben? ▬ Welche Schnittstellen unterstützen die administrativen Informationssysteme? ▬ Werden Standards werden von den zu vernetzenden Systemen gemeinsam unterstützt? Weiterhin ist es für die Verantwortlichen im Krankenhaus unabdingbar, sich mit dem Arbeitsablauf der medizinischen Abteilung zu beschäftigen. Die aus der Anbindung von Medizingeräten resultierende Konvergenz führt auch während der Nutzung des medizintechnischen Gerätes zu einer Überschneidung bei den nachfolgend aufgeführten Punkten:
▬ ▬ ▬ ▬ ▬
Verantwortlichkeit, Technik, Organisation, Arbeitsabläufe/Betrieb, Sicherheit.
46.5.1 Verantwortlichkeiten
Die Verantwortlichkeiten bei der Einbindung von Medizingeräten überschneiden sich während des gesamten Betriebszyklus des Medizinproduktes. Gerade während des Betriebs des Medizingerätes hängt der Erfolg der Integration von der kooperativen Zusammenarbeit zwischen Ärzten, Medizintechnik und Informationstechnik ab. Die Verantwortung für den sicheren Betrieb des Medizingerätes liegt bei der Geschäftsführung, die mit klaren Anweisungen dafür Sorge zu tragen hat, dass die Verantwortungsbereiche eindeutig abgegrenzt und den handelnden Personen bekannt sind (⊡ Abb. 46.4). Ausführlich beschäftigt sich das Kapitel 47 mit diesem Thema.
46
770
Kapitel 46 · Fusion von Medizintechnik und Informationstechnologie
46.5.2 Integration am Beispiel »Vom Befund
zur medizinischen Dokumentation«
V
Die bisher zwischen den Systemen proprietär festgelegten Informations- und Dokumentenstrukturen mit den freisprachlichen Benennungen für Messdaten, Dokumentenabschnitte, Merkmalen und/oder Werten sind in der Regel nicht durch alle zu integrierenden Systeme interpretierbar. Für den Austausch von Daten sollten die in Abschn. 46.3 aufgeführten Klassifikationen und Terminologien eingesetzt werden. Der Einsatz dieser Standards stellt sicher, dass die übertragenen Inhalte für alle zu integrierenden Systeme einheitlich lesbar sind bzw. zukünftig lesbar werden. Der Weg von der strukturierten medizinischen Dokumentation zur europa- und weltweit standardisierten medizinischen Dokumentation setzt die Integration von Medizintechnik und Informationstechnik voraus und wird in naher Zukunft unumgänglich werden, z. B. im Hinblick auf die Telemedizin. Diese Anforderungen werden dazu führen, dass schrittweise eine Abnahme der freitextlichen Dokumentation zugunsten einer strukturierten Dokumentation in den Krankenhäusern erfolgt. Tendenzen in diese Richtung sind die von den medizinischen Fachgesellschaften herausgegebenen Nomenklaturen zur strukturierten medizinischen Dokumentation. Um zu vermeiden, dass ein Datensatz für die informatische Umsetzung der strukturierten Dokumentation auf x-beliebige Weise übertragen wird, steht schon heute mit dem HL7 CDA (Clinical Document Architecture) ein weiteres standardisiertes Format zur Verfügung, das international und in Deutschland in zahlreichen Projekten erfolgreich für den einrichtungsübergreifenden Austausch strukturierter Dokumente eingesetzt wird. Der Erfolg basiert im Wesentlichen auf folgenden Aspekten: ▬ Für maschinelle Verarbeitung werden die strukturierten Dokumentinhalte im verbreiteten XML-Format repräsentiert. Mit so genannten Style-Sheets werden menschenlesbare Formate erzeugt. ▬ Das XML-Format, d. h. die oben genannte Struktur der verwendeten Merkmale mit ihren Beziehungen und Datentypen, wird aus einem standardisierten Informationsmodell abgeleitet, dem HL7 RIM (Reference Information Model). Dieses gewährleistet, dass Inhalte einheitlich repräsentiert und damit verarbeitet werden. ▬ Für sämtliche Inhalte wie Dokumentabschnitte, Merkmale und Wertebereiche werden konsequent HL7-interne und HL7-externe Klassifikationen und Terminologien verwendet. Über die HL7-Benutzergruppe kann der Implementierungsfaden für einen elektronischen Arztbrief im HL7 CDA-Format exemplarisch eingesehen werden. Damit
können Systeme mit proprietären Datenformaten strukturierte Daten rechnerverarbeitbar austauschen, indem sie ihre Inhalte in dem HL7 CDA-Standard abbilden.
46.6
Zusammenfassung
Zusammenfassend lässt sich feststellen, dass die Anforderungen, die an die Integration der Medizintechnik in die Informationstechnik des Krankenhauses gestellt werden, nicht nur die Technik und Organisation des Krankenhauses betreffen. Wird die Integration richtig angegangen, so ist dies für eine umfassende Vernetzung aus IT und Medizintechnik ein zukunftsorientierter und mittelfristig unumgänglicher Schritt in Richtung Zukunft, um Ressourcen richtig einzusetzen und konkurrenzfähig zu bleiben. Daten, die bisher nicht oder nur in geringem Umfang zwischen den Systemen austauschbar waren, werden zukünftig nicht mehr in einem proprietären Format, sondern als standardisiertes Format vorliegen. Die organisatorischen und technischen Aufgabenstellungen werden dazu führen, dass Sicherheitskonzepte und Ausfallszenarien an die neuen Gegebenheiten angepasst werden, sodass Sicherheitslücken aufgedeckt und Risiken minimiert werden. Mit der Anbindung der Medizingeräte wird es zu einer Verlagerung der Ressourcen und zu einer Kostenreduktion kommen. Gründe hierfür sind beispielsweise ▬ die effizienteren Prozesse durch die Vermeidung von Medienbrüchen, ▬ die Reduzierung der Prozessdauer durch schnellere Datenübermittlung, ▬ die synergetische Nutzung der Medizintechnik und ▬ die Erweiterung der Einsatzmöglichkeiten auf Basis bestehender Medizinprodukte. Damit wird eine Verbesserung der Behandlungsqualität erreicht, z. B. durch eine schnellere Diagnostik, kürzere Behandlungsdauern sowie eine hohe Verfügbarkeit der Behandlungsdokumentation. Die höhere Zufriedenheit der Ärzte und Patienten mit der Behandlung, die Verbesserung der Patientensicherheit (etwa durch eindeutige Zuordnung von Patient und patientenbezogenen Daten), die Vermeidung von Fehlern bei der Datenübertragung und die bessere Information des Patienten und seines Umfelds sprechen für sich. So konnte im Rahmen einer Wirtschaftlichkeitsanalyse nach der Fusion von Medizintechnik und IT im Bereich der Endoskopie mit drei Arbeitsplätzen ein Einsparpotential von 14000,– € pro Jahr ermittelt werden (⊡ Tab. 46.1). Diese Analyse bewertet den Einführungsstatus, die erreichte Effizienzsteigerung der Anwender entlang des Behandlungsprozesses und das Verbesserungspotential des Endoskopieprozesses insgesamt. Die folgende Tabelle
6316
6701
6316
385
6316
385
385
250
Laufende Koordination/Patiententransport
Ausdruck Bilder (Sachkosen)
Ausdruck/Ablage stationärer Befund
Ausdruck/Ablage ambulanter Befund
Unterschrift stationärer Befund
Unterschrift ambulanter Befund
Erstellung ambulanter Arztbrief (Anschreiben)
Kommunikation Befund (Papier/KIS)
Summe Prozessvorteile
4
1895
Terminabstimmung/Prioritätendiskussion Station mit Endo/Sono
20
5
1
1
3
3
1
2
Bearbeitungszeit (1– n Mitarbeiter)
Häufigkeit/ Anzahl/ Frequenz
Ist
Endoskopie und Sonographie
⊡ Tab. 46.1. Prozessvorteile
0,28
0,80
0,80
0,80
0,41
0,41
0,40
0,41
0,41
Preis in €
250
385
385
6316
385
6316
6701
6316
632
Häufigkeit/ Anzahl/ Frequenz
Soll
TAG
UNT
UNT
UNT
UNT
UNT
UNT
UNT
UNT
Bezugsgröße (z. B. pro Anforderung, Fall, Tag)
40
1
0,5
0,5
0
1,5
0
1
4
Bearbeitungszeit (1–n Mitarbeiter)
HIP
ASS
ASS
ASS
PFL
PFL
STCK
PFL
PFL
Qualifikation/ Rolle
0,28
0,80
0,80
0,80
0,41
0,41
0,40
0,41
0,41
Preis in €
–83
26
3
53
19
158
105
84
Differenz Prozesszeiten (in Std. p.a.)
Ist-Soll
14212
–1400
1232
154
2526
474
3884
2680
2590
2072
Differenz Prozesskosten
46.6 · Zusammenfassung 771
46
772
Kapitel 46 · Fusion von Medizintechnik und Informationstechnologie
beschreibt sowohl die Prozess-Optimierung als auch die erreichte Kapazitätsumlagerung und -einsparung durch die Vernetzung von Medizintechnik, der Software zur strukturierten medizinischen Dokumentation und dem Krankenhausinformationssystem. Die optimale Vernetzung von Medizintechnik und IT ermöglicht es, statt zahlreicher Insellösungen ein Gesamtkonzept zu schaffen. Dieses Konzept wird den Alltag in Kliniken effizient und effektiv unterstützen und die Zukunftsvisionen der globalen Datenverfügbarkeit im Krankenhaus Realität werden lassen.
V
47 Kommunizierende medizinische Systeme und Netzwerke A. Gärtner 47.1 Einleitung
– 773
47.2 Medizinische Netzwerke – 773 47.3 Anforderungen an medizinische Netzwerke – 774 47.3.1 Bilddaten in der Radiologie – 774 47.3.2 Intensivmedizinisches Netzwerk – 774 47.3.3 Übertragung von Alarmierungsdaten – 774
47.4 Vernetzte medizinische Netzwerke – 775 47.5
47.1
47.7 Sicherheitsaspekte medizinischer Netzwerke aus regulatorischer Sicht – 779 47.7.1 Welche Sicherheitsanforderungen bestehen bezüglich des Schutzes vor Malware? – 779
47.8 E DIN EN 80001 – 779 Literatur
– 780
Weiterführende Literatur
– 780
Risikomanagement DIN EN ISO 14971 – 776
Einleitung
In den letzten zehn Jahren sind Medizinprodukte und IT-Technologie technisch und funktionell untrennbar zusammengewachsen. Medizinprodukte werden nicht mehr nur an PC angeschlossen, um Daten auszuwerten, sondern verfügen selbst über eine Netzwerkkarte, sodass sie direkt mit einem IT-Netzwerk verbunden werden können, um Daten über das Netzwerk auf einen Server zur Archivierung und/oder weiteren Bearbeitung schicken zu können. Der Nutzer kann zu jeder Zeit an jedem Ort in jeder Form auf diese medizinischen Daten eines Patienten zugreifen. Dies bedeutet, dass das IT-Netzwerk im Krankenhaus eine immer größer werdende Bedeutung für die Behandlungsprozesse von Patienten erhält und somit die Anforderungen an Verfügbarkeit, Sicherheit und Effizienz des Netzwerkes permanent steigen.
47.2
47.6 Shared Network – 777
Medizinische Netzwerke
IT-Netzwerke im Gesundheitswesen wandeln sich zu medizinischen Netzwerken, indem sie Medizinprodukte integrieren (⊡ Abb. 47.1), ohne dass die IT-Netzwerke selbst damit zum Medizinprodukt werden. E DIN EN 80001 definiert den Begriff »Medizinische Netzwerke«, die sowohl aktive Medizinprodukte (Modalitäten, PEMS = programmierbare elektrische medizinische Systeme) als auch Netzwerkkomponenten und PC enthalten. Ein medizinisches Netzwerk integriert Medizinprodukte.
⊡ Abb. 47.1. Medizinprodukte mit Netzwerkanbindung
Die Kombination bzw. Integration von Medizinprodukten in IT-Netzwerke gemäß ⊡ Abb. 47.1 im Krankenhaus (und auch anderen Bereichen des Gesundheitswesens) führt dazu, dass IT-Netzwerke integraler und damit wichtiger, aber auch immer stärker kritischer Bestandteil medizinischer Diagnostik und Therapie werden. Sie stellen somit einen integralen Bestandteil heutiger Patientenversorgung dar. Ein medizinisches Netzwerk übernimmt dabei die Aufgabe der Übermittlung von: ▬ Leistungserfassung und Abrechnungsdaten, ▬ Bild- und Befunddaten sowie ▬ Vitalparameter und Alarmierungsdaten von Medizinprodukten.
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _47, © Springer-Verlag Berlin Heidelberg 2011
774
Kapitel 47 · Kommunizierende medizinische Systeme und Netzwerke
Medizinprodukte stellen für eine Datenübertragung unterschiedliche Anforderungen an ein Netzwerk, die sich in drei Klassen einteilen lassen: ▬ Übertragung großer Datenvolumina (z. B. CT-Serien, Videoschleifen) = Übertragungsrate (Bandbreite), ▬ Übertragung zeitkritischer Vitalparameter und Alarmdaten (Intensivmedizin) = Zuverlässigkeit, ▬ Übertragung sensibler Patientendaten = Sicherheit (Safety und Security).
V
Medizinische Daten unterliegen besonderen Anforderungen an: ▬ Unversehrtheit (Authentizität), ▬ Schutz (Datenschutz), ▬ Sicherheit (Datentransport), ▬ Vollständigkeit. Ein medizinisches Netzwerk muss also sicherstellen, dass die vorgenannten Anforderungen erfüllt werden.
47.3
Anforderungen an medizinische Netzwerke
Medizinische Diagnostik und Therapie sind heute auf die rechtzeitige und jederzeitige Verfügbarkeit von Bildern, Befunden und sonstigen Daten angewiesen. Es können sich daher erhebliche Probleme und Risiken für die Diagnose und Therapie von Patienten ergeben, z. B. wenn ▬ Daten nicht oder nur unvollständig zur Verfügung stehen, ▬ Daten nicht rechtzeitig zur Verfügung stehen, ▬ Daten wie Bilder während einer Operation plötzlich nicht mehr zur Verfügung stehen, ▬ der Transfer von Vitalparametern und/oder Alarmen nicht möglich ist oder unterbrochen wird. Verfügbarkeit stellt für den Nutzer/Anwender einen wesentlichen Aspekt medizinischer Netzwerke dar. Unter Verfügbarkeit versteht man nach Kappes (2007) den Quotienten aus der Zeit, in der die betrachtete Applikation oder die Daten zur Verfügung standen und der Größe eines Zeitintervalls. Wenn die Verfügbarkeit eines Dienstes oder von Daten bekannt ist, gibt dieser Wert also die Wahrscheinlichkeit an, mit der eine Applikation und/oder Daten zu einem bestimmten Zeitpunkt eines Zeitintervalls zur Verfügung standen. Im Krankenhaus sind immer mehr Anwendungen für Patienten und das Unternehmen kritisch. Unter einer kritischen Anwendung bzw. Datentransfer definiert man eine Anwendung, deren Ausfall für den Patienten und das Krankenhaus mit weit reichenden Folgen verbunden sein kann.
47.3.1 Bilddaten in der Radiologie
Der Ausfall der Übertragung der Bilddaten von einer Modalität an ein Bilddokumentationssystem wie einem PACS (Picture Archiving and Communication System) zu Speicherzwecken hat normalerweise keine kritischen Konsequenzen für die Patientenversorgung, da die Modalitäten wie CT, Ultraschallgeräte usw. die Bilder zwischenspeichern können. Fällt z. B. der Switch eines radiologischen Teil-IT-Netzwerkes (LAN) aus, so können die Bilder üblicherweise auf der Modalität zwischengespeichert und nach Wiederherstellen der Netzwerkverbindung erneut an das PACS gesendet werden. Ist allerdings die interne WEB-Bildverteilung ebenfalls von einem Ausfall oder einer Störung des klinikweiten Netzwerkes betroffen, sollte bei Notfällen wie der Versorgung von Unfällen ein Ausfallsicherungskonzept greifen, damit ggf. Röntgenbilder über einen Filmprinter ausgedruckt und dem Unfallchirurgen zur Verfügung gestellt werden können.
47.3.2 Intensivmedizinisches Netzwerk
Intensivmedizinische Netzwerke sind klassischerweise als proprietäre Netzwerke mit einem definierten Übergang in das allgemeine IT-Netzwerk aufgebaut. DIN EN 60601-1 3rd definiert in Anhang H.7.3 drei Sicherheitsklassen für IT-Netzwerke im Krankenhaus. Der Ausfall eines intensivmedizinischen Netzwerkes bzw. Netzwerkkomponenten ist räumlich auf eine Station beschränkt und muss daher personalmäßig bis zur Wiederherstellung der Netzwerkfunktionalität mit Anzeige und Darstellung der Vitalparameter auf dem Zentralmonitor der Anlage kompensiert werden. Patientenüberwachungsmonitore sollten das Prinzip der Erstfehlersicherheit einhalten. Das bedeutet, dass sie bei einem Ausfall der Netzwerkverbindung zur Monitorzentrale automatisch in einen hundertprozentigen akustischen und optischen Alarm übergehen.
47.3.3 Übertragung von Alarmierungsdaten
Aus verschiedenen Gründen werden mittlerweile technologisch orientierte Lösungen angeboten, mit denen eine Patientenüberwachung über das IT-Netzwerk eines Krankenhauses durchgeführt werden kann, indem Überwachungsgeräte über das Netzwerk an so genannte Alarmierungsserver bzw. spezielle Alarmierungssoftware auf Servern angeschlossen werden. Die Server bzw. die Alarmierungssoftware ermöglicht die Konfigurierung von Alarmierungsfunktionen und Parametern, mit denen Vitalparameter und/oder Alarme (Bradykardie usw.) auf räumlich entfernte Anzeige-Monitore oder aber mobile Kommunikationsgeräte geleitet werden können.
775 47.4 · Vernetzte medizinische Netzwerke
Der (Teil-)Ausfall oder die Störung eines solchen vernetzten medizinischen Systems kann für einen Patienten (z. B. bei einem Bradykardie-Alarm) kritische Konsequenzen haben.
47.4
Vernetzte medizinische Netzwerke
IT-Netzwerke werden in Krankenhäusern zunehmend genutzt, um auch zeitkritische Vitalparameter und Alarme von Patienten-Überwachungsmonitoren und anderen Geräten zu übertragen. Dabei wird ein IT-Netzwerk zentraler Bestandteil eines vernetzten medizinischen Systems. Solche Systeme bestehen aus einer Anzahl von heterogenen, autonomen Einzelgeräten (Medizinprodukte und Nichtmedizinprodukte), die erst durch eine Vernetzung ihre Aufgabe als medizinisches System übernehmen können. Innerhalb eines medizinischen Netzwerkes lassen sich vernetzte medizinische Systeme identifizieren, die als Teilmenge eines medizinischen Netzwerkes anzusehen sind. Die Funktionalität solcher vernetzter medizinischer Systeme analog den medizinischen elektrischen Systemen nach DIN EN 60601-1 3rd, Kapitel 16, lässt sich beschreiben und im medizinischen Netzwerk als Teilmenge abgrenzen. Der Betreiber muss bestimmte Anforderungen an die Zuverlässigkeit, die Sicherheit gegen Störungen und andere Einflüsse des Systems definieren, bewerten und sicherstellen. Zentraler Bestandteil derartiger Systeme sind Softwarelösungen, die als Medizinprodukt in Verkehr gebracht und auf Serverlösungen im Krankenhaus implementiert werden. Die Server bzw. die Alarmierungssoftware ermöglicht generell die Konfigurierung von Alarmierungsfunktionen und Parametern, mit denen Vitalparameter und/oder Alarme (Bradykardie usw.) auf räumlich entfernte An-
zeige-Monitore oder aber mobile Kommunikationsgeräte geleitet werden können. Werden EKG-Alarme wie ein Bradykardie-Alarm über ein solches vernetztes medizinisches System geleitet, kann eine Störung bzw. ein Ausfall erhebliche Konsequenzen für den Patienten haben, wenn diese nicht rechtzeitig erkannt werden und darauf nicht reagiert wird. ⊡ Abb. 47.2 zeigt beispielhaft ein vernetztes medizinisches System in der Kardiologie zur Ergänzung (Sekundärüberwachung) der Überwachung ambulanter Patienten nach einem Eingriff. Die Patienten sollen nach einem Eingriff mit Patientenmonitoren überwacht werden, die Vitalparameteralarme über WLAN-Anbindung an einen zentralen Alarmierungsserver schicken. Dieser Server bzw. eine spezielle Software leitet die konfigurierbaren Alarmmeldungen weiter an eine Telefonanlage, die im Alarmfall eine Nachricht auf Pager, Mobiltelefon oder DECT-Telefon der Ärzte bzw. des Pflegepersonals schickt. Der Patienten-Überwachungsmonitor und die Software sind als einzelne Medizinprodukte nach der Medizinprodukterichtlinie, die anderen Komponenten (wie das WLAN, die Hardware des Alarmierungsservers, die Kommunikationsanlage und die mobilen Endgeräte) sind als nichtmedizinische Geräte nach anderen Richtlinien (Niederspannungsrichtlinie, EMV- und R&TTE-Richtlinie) in Verkehr gebracht worden. Die Kombination der verschiedenen Komponenten – Patientenmonitor als Medizinprodukt, WLAN als Übertragungskanal, PC als Nichtmedizinprodukt – mit dem Medizinprodukt Alarmierungssoftware und der Kommunikationsanlage stellt ein vernetztes medizinisches elektrisches System dar. Die Kombination entspricht der Legaldefinition eines Medizinproduktesystems gemäß § 3 MPG, weil es diagnostische Alarmdaten überträgt. Keiner der Lieferanten übernimmt die Verantwortung für
⊡ Abb. 47.2. Vernetztes medizinisches System zur ergänzenden Überwachung in der Kardiologie
47
776
Kapitel 47 · Kommunizierende medizinische Systeme und Netzwerke
die Zusammenstellung des Systems, bzw. keiner erklärt die Konformität mit der Richtlinie Medical Devices Directive MDD 93/42/EWG.
47.5
V
Risikomanagement DIN EN ISO 14971
Da der Betreiber diese Kombination eines Medizinproduktesystems zusammenstellt, muss er das Verfahren der Eigenherstellung nach § 12 MPG durchführen. Immer dann, wenn ein Betreiber ▬ Geräte und Systeme selbst erstellt, ohne sie in Verkehr zu bringen, ▬ Geräte und Systeme in einer Weise ändert, die der Hersteller nicht vorgesehen hat, ▬ Geräte und Systeme außerhalb der vom Hersteller festgelegten Zweckbestimmung betreibt, ▬ Medizinprodukte und Nichtmedizinprodukte kombiniert, ohne dass der bzw. die Hersteller diese Kombination in der Zweckbestimmung vorgesehen haben, erstellt er ein Gerät/System in Eigenherstellung nach § 12 MPG. Der Betreiber muss die Zusammenstellung und Komponenten des Systems definieren und in Form einer Risikoanalyse nach DIN EN 14971 bewerten. Die Lieferanten der Einzelkomponenten tun dies nicht, da sie nur ihre Teilkomponenten als Medizinprodukt (Patientenmonitor, Alarmierungssoftware) oder als technisches Produkt in Verkehr bringen und keine Verantwortung für die erstellte Signalkette übernehmen (können und wollen). Was muss der Betreiber tun? Er muss ▬ eine Zweckbestimmung erstellen, ▬ zutreffende grundlegende Anforderungen der Richtlinie MDD 93/42/EWG erfüllen, ▬ eine Risikomanagementakte nach DIN EN ISO 14971 erstellen und ggf. bereits E IEC 80001 berücksichtigen, ▬ eine Risikoanalyse durchführen (Bewertungskriterien aufstellen, Risiken analysieren, Risiken reduzieren und erneut bewerten, z. B. Verfügbarkeit des Servers, Verfügbarkeit und Störfestigkeit des WLANStandards usw.), ▬ das Restrisiko bewerten, ▬ Erfahrungen und Beobachten bei Einsatz des Systems in die Risikomanagementakte einfließen lassen. Das in ⊡ Abb. 47.2 beispielhaft gezeigte vernetzte medizinische System kann sowohl ergänzend, also parallel zur Überwachung von Patienten durch einen Mitarbeiter, aber auch zur Einsparung von Überwachungspersonal vor Ort eingesetzt werden. Was immer der Betreiber bezweckt, er muss in jedem Fall gemäß der Zielsetzung der Richtlinie MDD 93/42/EWG sicherstellen, dass kein Patient durch einen Ausfall, eine Störung oder sonstige Ereignisse bei der Signalübertragung zu Schaden kommt.
Dazu setzt man die Risikoanalyse ein, mit der man feststellen kann, ob das Risiko der Überwachung mit einem solchen vernetzten medizinischen System akzeptabel ist oder nicht. Die Risikoanalyse nach DIN EN ISO 14971 hilft also, nicht sofort erkennbare Gefährdungen und Risiken zu erkennen und möglichst im Vorfeld zu verhindern oder zumindest zu reduzieren. Für jedes vernetzte medizinische System muss der Betreiber die Eigenherstellung dokumentieren, da er formalrechtlich ein neues System erstellt. Dabei geht es nicht nur um die formalrechtlichen Aspekte, sondern auch um das Verständnis eines komplexen vernetzten medizinischen Systems für alle Beteiligte wie Nutzer (Arzt, Hebamme), Medizintechnik und IT. Mit dem Risikomanagement nach DIN EN ISO 14971 können Risiken und Risikopotentiale vor Anwendung des Systems erkannt und reduziert werden. Der Betreiber (Geschäftsführung) muss dafür sorgen, dass dieser Prozess gemeinsam von Medizinern, Pflege, Medizintechnik und IT erstellt und fortgeführt wird. Kommt es zu einem Schadensfall, bei dem ein Patient durch einen nicht weitergeleiteten oder nicht empfangenen Bradykardie-Alarm zu Schaden kommt, muss der Betreiber immer darlegen, was er unternommen hat, um den Patienten vor Risiken zu bewahren. Kann er das in Form der Dokumentation der Eigenherstellung nachweisen, kann er sich zumindest vom Vorwurf der groben Fahrlässigkeit entlasten. Der Betreiber muss auch mit den Nutzern festlegen, welches Risiko bei einem solchen vernetzten medizinischen System bestehen kann bzw. akzeptiert werden soll. Die Unterbrechung der Signalübertragung bzw. die Nichterreichbarkeit bzw. das Nichtempfangen eines Alarms durch das Mobilgerät des Nutzers kann beispielsweise bedeuten, dass auf einen Bradykardie-Alarm nicht reagiert wird bzw. nicht reagiert werden kann. Die Konsequenz kann den Tod eines Patienten bedeuten, wenn der Anwender nicht vor Ort ist und aus den genannten Gründen nicht benachrichtigt wird. Die Fragen lauten z. B., ob Betreiber/Anwender ein Restrisiko von einem Toten pro Jahr akzeptieren können/wollen und wie man durch die Risikoanalyse und Maßnahmen das Risiko eines solchen Ereignisses deutlich und drastisch verringert. Entscheidend ist, dass die beteiligten Mediziner diesen Prozess mitgestalten und das verbleibende Restrisiko akzeptieren. Dies kann natürlich auch bedeuten, dass ein Krankenhaus zu dem Ergebnis kommt, eine derartige beispielhafte Installation eines vernetzten medizinischen Systems nicht durchzuführen, weil das Restrisiko aus Sicht der Beteiligten als zu hoch bzw. nicht akzeptabel angesehen wird. Bei der Durchführung der Risikoanalyse müssen sich die beteiligten Personen fragen, welche Risiken und Risikopotentiale bestehen und wie diese bewertet werden ( Übersicht).
777 47.6 · Shared Network
Fragen für die Risikoanalyse
▬ Kann die Signalübertragung unterbrochen werden? Wo und wie?
▬ Wie und wann wird eine Unterbrechung der Sig▬ ▬ ▬ ▬ ▬ ▬
▬ ▬ ▬ ▬
▬
47.6
nalkette festgestellt? Wie sehen die notwendigen Reaktionen aus? Kommt es zu Laufzeitverzögerungen bei der Signalübertragung? Wenn ja, in welcher Höhe? Und sind diese akzeptabel oder nicht? Reicht die Eindimensionalität bzw. Unidirektionalität der Signalübertragung aus? Ist sichergestellt, dass ein Alarm den Empfänger nachweislich erreicht? Beherrscht die IT-Abteilung die korrekte Installation und Administration des WLAN? Wie ist sichergestellt, dass Alarmierungsdaten mit Priorität (Quality of Service) über das Netzwerk geschickt werden? Kann ein übermäßiger Datenverkehr in Spitzenzeiten die Übertragung von Alarmierungsdaten beinträchtigen? Wie wird das geprüft und nachweislich verhindert? Kann Malware die Funktionsfähigkeit des Alarmierungsservers beeinträchtigen? Was passiert beim Patchen des Alarmierungsservers auf der Betriebssystemebene bzw. beim Virenschutz? Wie kann das System regelmäßig auf Funktionsfähigkeit und nach Änderungen nachweislich getestet werden? Sind bzw. werden die Mitarbeiter, die auf die Alarmübertragung reagieren müssen, gründlich und umfassend über die Übertragung und die Komplexität des Systems unterwiesen? Was ist im Vertretungsfall (Urlaub, Krankheit)? Sind Akkus der mobilen Endgeräte immer geladen? Wird dies sichergestellt und wie?
Shared Network
Das klassische intensivmedizinische Patientenmonitoring mit Netzwerk und Zentrale/Zentralen-Server wurde bisher als abgeschlossenes, proprietäres Netzwerk installiert (⊡ Abb. 47.3). Zunehmend bieten Hersteller Lösungen an, unter bestimmten Voraussetzungen das vorhandene ITNetzwerk (wired oder wireless) im Krankenhaus für das Patientenmonitoring und den Datentransfer zur Überwachungszentrale zu nutzen. Derartige Lösungen werden als virtualisierte Systeme oder als die Betriebsform »Shared Network« bezeichnet und realisiert. So kann eine intensivmedizinische Überwachungsanlage das betreibereigene IT-Netzwerk nutzen, also unter bestimmten Vor-
aussetzungen mit anderen Applikationen teilen (engl.: to share). In diesem Zusammenhang spricht man auch von CSCN (= Customer Support Clinical Network), das der Betreiber für die Applikation zur Verfügung stellt. ⊡ Abb. 47.3 zeigt ein abgeschlossenes intensivmedizinisches Netzwerk mit kabelgestützter Vernetzung der Bettseit-Monitore und der Zentrale als so genanntes proprietäres System, da es häufig von Herstellern autark mit einer eigenen Vernetzung installiert wird. Diese vielfach zu findende Lösung entspricht dem abgeschlossenen Netzwerk/Datenverbund der Klasse C der DIN EN 60601-1 3rd (Anhang H7) für lebenswichtige, zeitkritische Patientendaten. Die Norm empfiehlt, dieses Netzwerk für alle zeitkritischen Anwendungen/Prozesse zu verwenden. Ein solches Netzwerk ist mit keinem anderen Netzwerk verbunden, weil aus Sicht der Norm eine Verbindung zu einem anderen Netzwerk unkontrollierbare Risiken hervorrufen könnte. Weiterhin fordert die Norm, dass die Verfügbarkeit 100% betragen muss, Unterbrechungen vermieden werden müssen und nur wenige Minuten pro Jahr dauern dürfen. Insbesondere definiert die Norm, dass die Verantwortung nur einem einzigen Hersteller/Systemauftragnehmer zugeordnet sein muss, d. h., dass ein Hersteller die Konformität für das intensivmedizinische System erklärt, die technische Verantwortung für die Installation trägt und bei einem Wartungsvertrag auch die Betreuung übernimmt. Es lassen sich drei Formen der Betriebsform von Shared Network am Beispiel intensivmedizinischer Netzwerke unterscheiden: ▬ offenes System mit kabelgestützter Vernetzung der Bettseit-Monitore und der Zentrale über ein betreibereigenes Netzwerk, ▬ offenes System mit WLAN-Vernetzung der BettseitMonitore und der Zentrale über ein betreibereigenes WLAN, ▬ offenes System mit kabelgestützter und WLAN-Vernetzung der Bettseit-Monitore und der Zentrale über ein betreibereigenes Netzwerk. ⊡ Abb. 47.4 zeigt, in welcher Form die Betriebsform Shared Network am Beispiel einer intensivmedizinischen Überwachungsanlage realisiert werden kann. ⊡ Abb. 47.4 zeigt prinzipiell, wie ein Patientenmonitoring in ein vorhandenes IT-Netzwerk eines Krankenhauses integriert werden kann. Dies bedeutet, dass der Betreiber das Netzwerk, die Verkabelung und die Infrastrukturkomponenten wie Switches gemäß den Vorgaben des Herstellers des Patientenmonitorings installiert oder aber installieren lässt. Dazu werden die Überwachungsmonitore und die Zentrale in einem VLAN (Virtuell Local Area Network) betrieben. Das intensivmedizinische Netzwerk teilt sich (Shared Network) das allgemeine Netzwerk mit anderen Applikationen, um
47
778
Kapitel 47 · Kommunizierende medizinische Systeme und Netzwerke
V ⊡ Abb. 47.3. Proprietäres Netzwerk in der Intensivmedizin
⊡ Abb. 47.4. Intensivmedizinisches Netzwerk in der Betriebsform Shared Network
seine Patientendaten an die Zentrale bzw. einen Server zu schicken. Shared Network bedeutet: Alle Anwender/Teilnehmer teilen sich eine installierte IT-Infrastruktur mit einer normalerweise feststehenden verfügbaren Bandbreite (Datenübertragungsrate) in einem kabelgestützten (wired) oder kabellosen (wireless) Netzwerk. Dies ist normalerweise das Betreibernetzwerk. Die Betriebsform führt also dazu, dass der Betreiber des IT-Netzwerkes gemäß ⊡ Abb. 47.4 die Verantwortung für die Zuverlässigkeit und Übertragungssicherheit der medizinischen Daten, also auch der zeitkritische Vitalparameter und Alarmdaten, übernimmt. Hersteller von intensivmedizinischem Patientenmonitoring nehmen IT-Netzwerke des Betreibers nicht in
ihr Konformitätsbewertungsverfahren auf, es werden nur Anforderungen für das Netzwerk vorgegeben. Die Konformität für ein integriertes Patientenmonitoring (Shared Network) wird seitens eines Herstellers nur dann erklärt, wenn ▬ der Hersteller das vorhandene IT-Netzwerk überprüft und auf seine Anforderungen für den Datentransfer zwischen Patientenmonitor und Zentrale validiert hat und ▬ jede Änderung des validierten Netzwerkes mit dem Hersteller vorher besprochen und abgestimmt wird, damit dieser wiederum prüfen und validieren kann, ob die Änderung keine Auswirkung auf den sicheren und zeitnahen Datentransfer hat.
779 47.8 · E DIN EN 80001
47.7
Sicherheitsaspekte medizinischer Netzwerke aus regulatorischer Sicht
Weder die Richtlinie Medical Devices Directive MDD 93/42/EWG noch das Medizinproduktegesetz (MPG) enthalten Anforderungen an die Eigenschaften medizinischer Netzwerke in Krankenhäusern. Die Richtlinie fordert aber, dass Medizinprodukte und Medizinproduktesysteme für Patienten, Anwender und Dritte einen hochgradigen Schutz bieten und die vom Hersteller angegebenen Leistungen erreichen müssen. Die Medizinproduktebetreiberverordnung verpflichtet den Betreiber über Paragraphen 2 für die Sicherheit vernetzter medizinischer Systeme und damit medizinischer Netzwerke zu sorgen. Medizinische Netzwerke sind mittlerweile Realität im Gesundheitswesen. Die allermeisten IT-Netzwerke in Krankenhäusern sind historisch bedingt als kabelgestützte Infrastruktur ausgeführt. Zunehmend werden Teile von Netzwerken oder komplette Netzwerke als Funknetzwerke in Form von WLAN auf Basis des Standards 802.11 ausgeführt. Der Betreiber eines Netzwerkes muss die Anforderungen an sein IT-Netzwerk bzw. an sein medizinisches Netzwerk für den Einsatz vernetzter medizinischer Systeme definieren und im Hinblick auf Risiken bewerten. Folgende Fragestellungen aus medizintechnischer Sicht sollen bei der Planung und Erweiterung medizinischer Netzwerke helfen: 1. Wie sollte idealerweise ein medizinisches Netzwerk aufgebaut sein? Und warum? 2. Welche medizinischen Applikationen laufen über ein Netzwerk? Wie können diese Applikationen nach Prioritätskriterien eingeteilt werden? – Ungesicherte Anwendung und Übertragung, keine Bestätigung – Gesicherte Anwendung und Übertragung, nicht zeitkritisch – Zeitkritische Anwendung und Übertragung von Vitalparametern, Alarmen usw. 3. Wie verhält sich die Topologie bei Erweiterung bzw. Ausbau eines Netzwerkes? 4. Wie berechnet man die Belastung (durchschnittliche Belastung/Spitzenlast) bzw. den Datentransfer eines Netzes? Kann es bei Spitzenlast zu Laufzeitverzögerungen zeitkritischer Daten kommen? 5. Für welche Applikationen bestehen hohe Anforderungen an die Verfügbarkeit des Datenaustausches? Mit welchen Techniken (Redundanz, Absicherung von Netzwerkkomponenten mit USV usw.) kann man die Verfügbarkeit eines Netzes oder eines Teilnetzes erhöhen? Um die Verfügbarkeit eines medizinischen Netzwerkes mit Datenaustausch zu erhöhen, kann z. B. die Zuverläs-
sigkeit durch redundante Hard- und Softwarekomponenten erhöht und eine stärkere Beachtung der Zuverlässigkeitsanforderungen aus Sicht des Nutzers beim Aufbau berücksichtigt werden. Redundanz wird generell als eine wesentliche Maßnahme angesehen, um die Verfügbarkeit von Netzwerken zu erhöhen. Im medizinischen Bereich verwendet man daher auch den Begriff »Höchstzuverlässigkeit«. Der Betreiber sollte daher definieren, welche Dienste, Applikationen und Netzwerkkomponenten hinsichtlich der Verfügbarkeit als kritisch angesehen werden, um diese redundant für den Fall eines Ausfalls einsetzen zu können.
47.7.1 Welche Sicherheitsanforderungen
bestehen bezüglich des Schutzes vor Malware? Da auch Medizinprodukte bzw. Medizinproduktesysteme im Netzwerk von Malware befallen werden, muss der Betreiber, vertreten durch die Medizintechnik und IT, Medizinprodukte mit Software gegen Malware (auch als Virenschutz bezeichnet) betreiben und das Patchmanagement zur permanenten Aktualisierung sowohl der AntiMalsoftware als auch des Betriebssystems einrichten. Dabei müssen Hersteller von Medizinprodukten, die in ein medizinisches Netzwerk integriert werden, Hilfestellung leisten, indem sie im Rahmen ihres Konformitätsbewertungsverfahrens den Schutz ihrer Produkte vor Malware bewerten und Angaben über einzusetzende Anti-Malsoftware und laufende Upgrades dem Betreiber zur Verfügung stellen.
47.8
E DIN EN 80001
E DIN EN 80001-1 beschäftigt sich mit dem gesamten medizinischen Netzwerk und den darin integrierten Medizinprodukten. Die zukünftige Norm beschreibt ein Risikomanagement unter Verwendung der Verfahrenstechniken der DIN EN ISO 14971, um die Risiken und Risikopotentiale der Integration von Medizinprodukten in ein IT-Netzwerk und des medizinischen Datenaustausches über dieses Netzwerk zu analysieren, zu bewerten und ggf. zu reduzieren. Die zukünftige Norm strebt folgende Ziele an: ▬ Sicherheit im Netzwerk, ▬ effektives Netzwerk, ▬ Daten- und Systemsicherheit, ▬ Vertraulichkeit, ▬ Integrität der Daten, ▬ Verfügbarkeit der Daten, ▬ sicheres Zusammenschalten von Medizinprodukten und Geräten, die keine Medizinprodukte sind, in demselben Netzwerk.
47
780
Kapitel 47 · Kommunizierende medizinische Systeme und Netzwerke
Unabhängig vom Termin des Inkrafttretens der zukünftigen Norm (voraussichtlich Mai 2011) ist der Betreiber bereits heute verpflichtet und gut beraten, vernetzte medizinische Systeme und das medizinische Netzwerk im Hinblick auf Risiken und Risikopotentiale (z. B. Malsoftware im Netzwerk) zu analysieren und vorbeugende Maßnahmen zu ergreifen, um den Schutz vor Malsoftware zu erhöhen bzw. die daraus resultierenden Gefahren zu reduzieren. Malsoftware in Form von Computerviren und Würmern (wie dem Conficker-Wurm) machen vor Krankenhaus-Netzwerken und darin befindlichen PC und Medizinprodukten mit Netzwerk-Anbindung nicht halt.
V
Literatur DIN EN 60601-1; VDE 0750-1:2007-07 Medizinische elektrische Geräte – Teil 1: Allgemeine Festlegungen für die Sicherheit einschließlich der wesentlichen Leistungsmerkmale (IEC 60601-1:2005); Deutsche Fassung EN 60601-1:2006 DIN EN ISO 14971:2009:10 Medizinprodukte – Anwendung des Risikomanagements auf Medizinprodukte E DIN EN 80001-1(VDE 0756-1):2009-10 Anwendung des Risikomanagements für IT-Netzwerke mit Medizinprodukten – Teil 1: Aufgaben, Verantwortlichkeiten und Aktivitäten Kappes M (2007) Netzwerk- und Datensicherheit – Eine praktische Einführung. Teubner Verlag, Leipzig
Weiterführende Literatur Gärtner A (2009) Medizinische Netzwerke und vernetzte medizinische Systeme. In: Medizintechnik 2009, S 213–218, mt-Medizintechnik. TUEV Media GmbH Verlag
48 Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl P. Haas, K. Kuhn 48.1 Einleitung – 781 48.2 Notwendigkeit, Ziele und Nutzen umfassender Krankenhausinformationssysteme – 782 48.2.1 Notwendigkeit – 782 48.2.2 Ziele des Informationstechnologieeinsatzes im Krankenhaus – 782 48.2.3 Nutzenpotentiale – 783
48.3 Unterstützung des Krankenhausbetriebes durch ein KIS – 784 48.4 Unterstützung am Fallbeispiel – 784 48.5 Architektur und Komponenten eines Krankenhausinformationssystems – 790 48.5.1 Logisches Architekturmodell – 790 48.5.2 Implementierungsalternativen: holistisch vs. heterogen – 792
48.1
Einleitung
Das Gesundheitswesen in vielen Industrienationen steht vor großen Herausforderungen. Steigendes Durchschnittsalter mit einhergehender Zunahme chronischer Erkrankungen und damit steigende Ausgaben, arbeitsmarktbedingte Beitragsausfälle und der durchgängige Anspruch aller Bürger, ungeachtet ihrer Finanzkraft, nach hochwertiger zeitgemäßer medizinischer Versorgung führen zu wesentlichen Fragestellungen: ▬ Wie kann die Balancierung von beschränkten Geldmitteln und der Anspruch auf Versorgungsleistungen erreicht werden? ▬ Wie können der medizinischen Fortschritt und die damit verbundenen neuesten Erkenntnisse schnell und effizient flächendeckend umgesetzt werden? ▬ Wie kann die Versorgung effektiv und koordiniert gestaltet werden? ▬ Welche Instrumente der Gesundheitsberichtserstattung braucht die Politik, um schnell und adäquat handeln zu können? Stichworte von Lösungsansätzen sind hier »managed care«, »evidence-based medicine« und bessere Verzahnung der Versorgungssektoren. Von diesen Lösungsansätzen sind die Krankenhäuser in besonderem Maße betroffen bzw. werden zur Umsetzung wesentlich beitragen müssen.
48.5.3 Integrationsaspekte heterogener Krankenhausinformationssysteme – 793
48.6 Aktuelle Trends und Perspektiven – 795 48.6.1 48.6.2 48.6.3 48.6.4 48.6.5 48.6.6
Medizinische Dokumentation – 795 Integration Medizintechnik – 795 Vernetzung mit externen Einrichtungen – 795 Entscheidungsunterstützung für Ärzte – 796 Unterstützung der Patientensicherheit – 796 Genetische Daten – 797
48.7 Auswahl und Einführung von Krankenhausinformationssystemen – 797 48.7.1 Vorbemerkungen – 797 48.7.2 Projektphasen und kritische Faktoren
– 798
48.8 Zusammenfassung – 804 Literatur
– 805
»Keine Netze ohne Kliniken« (Henke 1999) – dieser These ist voll zuzustimmen. Ein Großteil der medizinischen Information zu einer Person wird in Krankenhäusern erhoben und dokumentiert. Dies umso mehr für die eingangs erwähnten Gruppen der chronisch Kranken und der Menschen im fortgeschrittenen Lebensalter. Wesentliche medizinische Maßnahmen sowohl diagnostischer als auch therapeutischer Art – welche bedeutsam auch im weiteren Lebensverlauf sind – finden im Krankenhaus statt. Was davon in den ambulanten Sektor diffundiert, ist i. d. R. eine sehr knapp gefasste und oftmals zu spät kommende Epikrise, die sicher hilft, schnell einen Überblick zu verschaffen, aber Detailfragen nicht transparent beantworten kann. Politik, Selbstverwaltungsorgane, Fachgesellschaften und auch die Bürger sind sich zunehmend bewusst, dass diese Herausforderungen nur mittels einer informationstechnologischen Vernetzung zum Zweck der Verzahnung aller Versorgungssektoren des Gesundheitswesens – v. a. aber der ambulanten, stationären und rehabilitativen – bewältigt werden können. Schlagwort für einen solchen Lösungsansatz ist die »Gesundheitstelematik«. Eine funktionierende und leistungsfähige Vernetzung macht jedoch nur Sinn, wenn die Knoten dieses Netzes (= die beteiligten betrieblichen Informationssysteme) vorhanden und geeignet sind, dieses Netz tatsächlich zu knüpfen und mit Leben zu füllen. Damit wird deutlich, dass die Ausstattung von Gesundheitsversorgungsinstitutionen mit
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _48, © Springer-Verlag Berlin Heidelberg 2011
782
V
Kapitel 48 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
geeigneten einrichtungsbezogenen Informationssystemen (sog. betriebliche Informationssysteme wie Krankenhausinformationssysteme, Arztpraxissysteme, Informationssysteme im Rettungswesen etc.) sowie der adäquaten personellen Kompetenz ein kritischer Erfolgsfaktor für die weitere Entwicklung des deutschen Gesundheitswesens ist. Die Konsequenz dieser Überlegung ist, dass Gesundheitstelematik ohne eingebundene Krankenhausinformationssysteme undenkbar ist, es kann gar argumentiert werden, dass Krankenhausinformationssysteme das Rückgrat der Gesundheitstelematik sind. Dies auch, da viele Problemstellungen und Lösungsansätze sowie semantische Bezugssysteme aus dem »Mikrokosmos« Krankenhaus sehr wohl ihre Entsprechungen im »Makrokosmos« der gesundheitstelematischen Netze haben. Die Chance, hier einschlägige positive wie negative Erfahrungen mit dem IT-Einsatz im Krankenhaus zu nutzen, ist groß. Darüber hinaus können Krankenhäuser mit ihren IT-Abteilungen den Betrieb aktiver Netzknoten für ganze Subregionen übernehmen. Dazu bedarf es in Krankenhäusern umfassender Informationssysteme und einer mittel- und langfristigen strategischen Informationssystemplanung.
48.2
Notwendigkeit, Ziele und Nutzen umfassender Krankenhausinformationssysteme
48.2.1 Notwendigkeit
Die Notwendigkeit des Einsatzes umfassender Krankenhausinformationssysteme (KIS) ergibt sich aus vier wesentlichen Aspekten: 1. Die Krankenhäuser sind einem hohen Druck hinsichtlich ihrer Effektivität und Effizienz ausgesetzt. Weitreichende Nachweis- und Datenübermittlungspflichten sind u. a. Ausdruck dieser Situation, aber auch das neue Vergütungssystem mittels »DiagnosisRelated Groups« (DRG). Ein betriebliches Management ist nur noch auf Basis einer medizinökonomisch ausgerichteten Deckungsbeitragsrechnung mit allen notwendigen vor- und nachgelagerten Komponenten möglich. Hierzu werden detaillierte Angaben zu individuellen Behandlungen benötigt, die nur über ein flächendeckend eingesetztes Krankenhausinformationssystem (KIS) gewonnen werden können. 2. Die rasche Umsetzung neuester medizinischer Erkenntnisse – welche schneller als bisher bekannt mittels elektronischer Medien und Internet verfügbar sind – in den klinischen Arbeitsalltag ist ohne entsprechende Unterstützung mittels der Informationstechnologie kaum zu leisten. Hier werden, u. a. bezogen auf die individuelle Behandlungssituation, kontextsensitive Rechercheinstrumente benötigt, die dem Arzt entsprechende im KIS oder in entsprechenden
medizinischen Daten- und Wissensbasen vorhandene und zugreifbare Informationen direkt und unaufwändig zur Verfügung stellen. 3. Die Umsetzung von Leitlinien sowie die organisatorische Koordination und Straffung ist ohne entsprechende unterstützende IT-Funktionen nicht wirtschaftlich leistbar. 4. Aus dem eingangs Gesagten wird deutlich, dass Krankenhausinformationssysteme eine ganz wesentliche Rolle beim Aufbau einer Gesundheitstelematik spielen. Kein effizientes und vernetztes Gesundheitswesen kommt ohne leistungsfähige Krankenhausinformationssysteme aus. Vor diesem Hintergrund ist die Frage, wie die Krankenhäuser – die letztendlich immaterielle Güter wie »Gesundheit«, »Besserung« oder »Linderung« produzieren bzw. produzieren sollen – mit der für die Produktion dieser Güter wichtigsten Produktionsressource »Information« umgehen, von höchster strategischer Bedeutung. Dies v. a. auch, weil kritischer Erfolgsfaktor für effizientes ärztliches Handeln – und damit für ein hohes Maß an Effizienz, Wirtschaftlichkeit und Qualität – die schnelle und umfassende Verfügbarkeit aktueller Informationen über Untersuchungen, deren Befunde, spezifische Ereignisse und mögliche Handlungsalternativen bezogen auf eine spezielle Patientenbehandlung ist. Zusammenfassend kann also festgestellt werden, dass die Verfügbarkeit eines leistungsfähigen Krankenhausinformationssystems und eines entsprechenden strategischen Informationsmanagements (Pietsch et al. 2004; Heinrich u. Lehner 2005) für jedes Krankenhaus ein entscheidender Faktor für den Unternehmenserfolg ist.
48.2.2 Ziele des Informationstechnologie-
einsatzes im Krankenhaus Die Ziele des Einsatzes von IT im Krankenhaus müssen – wie in allen Einsatzbereichen (Bullinger 1991) – sich prinzipiell den Unternehmenszielen unterordnen bzw. von diesen abgeleitet sein. Insofern hat jedes Krankenhaus im Speziellen diese Ziele festzulegen, ein Beispiel einer solchen zielorientierten Strategie findet sich bei Kuhn und Haas (1997). Allgemeingültig können jedoch folgende strategische Ziele angegeben werden: Der IT-Einsatz im Krankenhaus muss ▬ das Handeln des Managements umfassend unterstützen, ▬ die Optimierung der Erlössituation ermöglichen, ▬ Kosten- und Leistungstransparenz schaffen, ▬ die Rationalisierung von administrativen Vorgängen ermöglichen, ▬ zur Effektivierung medizinischer Organisations- und Entscheidungsprozesse beitragen,
783 48.2 · Notwendigkeit, Ziele und Nutzen umfassender Krankenhausinformationssysteme
▬ die Durchlaufzeiten (Untersuchungsaufträge, Operationen, stationäre Aufenthaltsdauer etc.) verkürzen, ▬ die Transparenz medizinischer Organisations- und Entscheidungsprozesse herstellen, ▬ die Patientensicherheit gewährleisten, ▬ ein kontinuierliches Qualitätsmonitoring sicherstellen, ▬ die diagnosegruppenbezogene Standardisierung medizinischer Kernbehandlungsprozesse unterstützen, ▬ ein Informationsangebot für Patienten, Personal und Bürger ermöglichen, ▬ die Koordination/Kooperation mit externen Partnern verbessern, ▬ eine vollständige elektronische Krankenakte zur Verfügung stellen. Wesentliche – diesen strategischen Zielen folgende – operative Ziele sind dabei: ▬ Sicherstellung der aktuellen Abrechnungsformen und Nachweispflichten, Liquidität verbessern: → Einnahmentransparenz, ▬ Einführung einer (erweiterten) Basisdokumentation, einheitliche Verschlüsselungssoftware: → Transparenz des Krankengutes, ▬ Einführung einer elektronischen Patientenakte → Transparenz des individuellen Behandlungsgeschehens zu einem Patienten, Verbesserung der Patientensicherheit ▬ operative Systeme in Materialwirtschaft, Personalwirtschaft, Technik, Küche etc.: → Kostentransparenz, ▬ flächendeckende »optimale« Leistungserfassung: → Leistungstransparenz, Handlungstransparenz, ▬ Deckungsbeitragsrechnung/Prozesskostenrechnung ermöglichen: → Transparenz der Ressourcenverwendung (Personal, Sachmittel etc. für Fallgruppen), ▬ medizinische Organisations- und Dokumentationssysteme für die Fachabteilungen: → Organisationstransparenz, Dokumentationstransparenz, ▬ Informationsmedium Intra-/Internet für die verschiedenen Zielgruppen: → Transparenz des Krankenhauses (z. B. für Mitarbeiter, Patienten und Bürger).
48.2.3 Nutzenpotentiale
Das Nutzenpotential der Informationsverarbeitung im Krankenhaus ist breit gefächert und ergibt sich z. T. aus den bereits genannten Zielen. Zieht man einmal die Analogie, dass ein Krankenhausinformationssystem Gehirn (in diesem Sinne das Gedächtnis) und Nervensystem (Informationsübermittlung, Steuerung, Überwachung, Statusinformationen) des Krankenhauses darstellt, wird die enorme Be-
deutung und das Nutzenpotential eines KIS deutlich. Die Vorteile eines KIS sind in der Übersicht zusammengefasst.
Nutzenpotential eines KIS Ein Krankenhausinformationssystem ▬ ermöglicht eine gesamtheitliche Sicht auf die Patientenbehandlung, ▬ trägt zur Integration der verschiedenen Berufsgruppen bei, ▬ entlastet das medizinische Personal von Doppelarbeiten und administrativem Overhead, ▬ ermöglicht den schnellen Zugriff auf frühere Behandlungsfälle/-dokumentationen, ▬ ermöglicht den schnellen Zugriff auf aktuelles medizinisches Wissen, ▬ ermöglicht eine bessere Koordination und Abstimmung z. B. durch ein Terminplanungsmodul und somit eine zeitnahe Steuerung und Regelung der betrieblichen Prozesse, ▬ ermöglicht ein kontinuierliches Qualitätsmonitoring, ▬ trägt selbst zur erhöhten Behandlungsqualität bei, ▬ unterstützt die Patientensicherheit, ▬ hilft, unnötige Untersuchungen zu vermeiden, ▬ gibt Auskunft über die entstandenen Kosten und wofür diese angefallen sind, ▬ schafft betriebliche Transparenz, ▬ hilft, Kosten zu sparen, ▬ trägt zur Patientenzufriedenheit bei, ▬ steigert die Attraktivität des Krankenhauses für zuweisende Ärzte, für Patienten und für Bürger, ▬ schafft Wettbewerbsvorteile durch adäquates Leistungsangebot sowie schnellere Reaktion auf Marktveränderungen, ▬ schafft eine Informationsbasis für die Forschung im Bereich der klinischen Epidemiologie, aber auch für die Gesundheitsökonomie.
Das Potential für bessere Behandlungsqualität, weniger Behandlungsfehler und Liegezeitverkürzungen als Folgeeffekte des Einsatzes von KIS wurde belegt (Bates et al. 1994; Clayton et al. 1992; Kohn et al. 2000; Leape 1997). Auch der positive Effekt von IT-generierten Erinnerungs- und Warnhinweisen ist hervorzuheben (McDonald et al. 1999). Es gibt aber daneben auch kritische Stimmen (Bates 2005). Die Informationsverarbeitung mit ihrem Charakter einer Querschnittstechnologie eröffnet jedoch diesen Nutzen nur bei einer ausgewogenen und abgestimmten Durchdringung aller betrieblichen Bereiche – was also eine gesamtbetriebliche IT-Strategie voraussetzt. Gerade in einer Situation beschränkter Finanzmittel kommt daher einem strategisch gesteuerten und koordinierten stufenweisen Ausbau des KIS in einem Krankenhaus besondere Bedeutung zu.
48
784
Kapitel 48 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
48.3
Unterstützung des Krankenhausbetriebes durch ein KIS
Die zuvor dargestellten Ziele und Nutzenpotentiale können insgesamt nur erreicht werden, wenn innerhalb eines Krankenhausinformationssystems – unabhängig vom Grad der Verteilung bzw. der integrierten Komponentensysteme – alle Aspekte der IT-Unterstützung im Krankenhaus berücksichtigt sind. Wesentliche Unterstützungsdimensionen von IT-Systemen im Krankenhaus werden im Folgenden erläutert (Bates u. Gawande 2003; Haas 2005).
V
Verarbeitungsunterstützung. Die Unterstützung bei der Verarbeitung von Daten im Sinne der Durchführung von komplexen Berechnungen, Transformationen und Datenkonvertierungen. Beispiel: Ermittlung der abrechenbaren DRG (Diagnosis Related Group) aus dokumentierten vorliegenden klinischen Sachverhalten. Ein stärker klinisch orientiertes Beispiel ist die Dosisberechnung, etwa von Infusionsraten. Auch Monitoringsysteme fallen in diese Kategorie. Dokumentationsunterstützung. Die Unterstützung bei der Dokumentation durch Zurverfügungstellung entsprechender elektronischer Formulare und Textsysteme zur Erstellung von Dokumenten sowie deren Archivierung in elektronischen Akten. Im Bereich der abrechnungsrelevanten Dokumentation von Diagnosen und Maßnahmen werden auch komplexere IT-Module mit Thesaurusfunktionalität und Überprüfungen eingesetzt. Das derzeit wichtigste Problem ist hier, dass in Deutschland zwar vergröbernde Klassifikationen, aber noch keine auch Detailbeschreibungen ermöglichenden Terminologien eingesetzt werden. Dies schränkt auch die Möglichkeit der Entscheidungsunterstützung, etwa durch Generierung von Hinweisen aufgrund einer Überprüfung gesammelter Daten, ein. Ebenso wird die semantische Interoperabilität zwischen Informationssystemen erschwert. Organisationsunterstützung. Die Unterstützung der Organisation, speziell im Krankenhaus die Unterstützung der Ressourcenbelegungsplanung (Terminpläne in den Leistungsstellen, Bettenbelegungsplanung auf Station), der Prozessabwicklung durch ein Workflowmanagementsystem und der Behandlungsunterstützung durch den Einsatz klinischer Pfade. Kommunikationsunterstützung. Die Unterstützung der innerbetrieblichen Kommunikation in Form der Befundkommunikation sowie eine Unterstützung bei Übergabe/ Schichtwechsel, zunehmend auch die Kommunikation mit externen Partnern. Eine Kommunikationsunterstützung ist eng an eine funktionierende Dokumentationsun-
terstützung sowie an einen verbesserten Zugang zu Information gekoppelt. So kann die Integration von Befunden und Diagnosen in Arztbriefe die Brieferstellung beschleunigen und die wichtige Kommunikation zwischen stationärem und ambulantem Sektor verbessern. Die Auftragskommunikation gewinnt zunehmend an Bedeutung im Krankenhaus. Bei der Erstellung von Aufträgen können durch Überprüfung der Daten Erinnerungs- und Warnhinweise generiert werden. Entscheidungsunterstützung. Die Unterstützung von Entscheidungsvorgängen durch ein betriebliches Wissensmanagement zur kontextsensitiven Zurverfügungstellung von aktuellem Wissen (Beispiel Zugriff auf Medline, Leitlinien etc.) und zur automatisierten Bewertung gegebener Faktenlagen (z. B. Interpretation von Laborergebnissen, EKG-Kurven, Symptomatologie usw.). Die o. g. Erinnerungs- und Warnhinweise sind wohl die wichtigste Form der Entscheidungsunterstützung; ihr Nutzen ist nachgewiesen, ihre Verbreitung ist derzeit v. a. durch das Fehlen einer Standardterminologie eingeschränkt. Die wesentlichsten Funktionen eines KIS bezüglich dieser Unterstützungsdimensionen im Krankenhaus zeigt die nachfolgende ⊡ Tab. 48.1.
48.4
Unterstützung am Fallbeispiel
Anhand eines beispielhaften kurzen fiktiven Behandlungsverlaufes der ersten beiden Tage eines Krankenhausaufenthaltes einer Patientin – also eines stationären Falles – sollen hier die wesentlichen Aspekte der Unterstützung des Krankenhausbetriebes durch ein KIS deutlich gemacht werden. Frau Maier – eine ältere Dame – soll eine künstliche Hüfte erhalten. Hierzu wurde ein Termin für die Krankenhausaufnahme am 16. Januar 2006 mit ihr bzw. ihrem Hausarzt vereinbart. Die IT-Unterstützung der Organisation greift bereits vor dem aktuellen Krankenhausaufenthalt durch eine vorausschauende Betten- und Ressourcenbelegungsplanung – im Beispielfall ist also für Frau Maier bereits ein Bett für die voraussichtliche Dauer des Aufenthaltes gebucht. Erscheint die Patientin dann am geplanten Aufnahmetag, kann sie nach kurzer Ergänzung der bereits vorhandenen Informationen in der zentralen Aufnahme – wo die für die Abrechnung notwendigen Falldaten erfasst werden – direkt auf die Station gehen, wo ihr real aber auch innerhalb des Krankenhausinformationssystems ein Bett zugewiesen wird (⊡ Abb. 48.1). Entsprechende Funktionen mit einer grafischen Bettenbelegungsübersicht sind heute praktisch in allen KIS realisiert. Des Weiteren werden nun auf Station weitere Daten ergänzt: Die Bezugspersonen der Patientin und aktuelle Mitbehandler sowie bereits bekannte Risikofaktoren (⊡ Abb. 48.2).
785 48.4 · Unterstützung am Fallbeispiel
⊡ Tab. 48.1. IT-Unterstützungsdimensionen und beispielhafte KIS-Funktionalitäten Dimension
Beispiel
Verarbeitungsunterstützung
Ermittlung der abrechenbaren DRG Ermittlung fallbezogener Prozesskosten Kalkulation von Deckungsbeiträgen (Fortwährende) Berechnung wesentlicher statistischer Maßzahlen wie mittlere Verweildauer, Auslastung usw. Erstellung von (gesetzlich vorgeschriebenen) Statistiken und Nachweisen. Dosisberechnungen z. B. für Bestrahlungen, Medikationen, Chemotherapien
Dokumentationsunterstützung
abrechnungsorientierte Diagnosen- und Prozedurdokumentation klinische Diagnosendokumentation Dokumentation durchgeführter Maßnahmen mit zugehörigen Befunden so z. B. auch die Operationsdokumentation, Anästhesiedokumentation, Laborwertdokumentation u.v.a.m. Symptomdokumentation Dokumentation wesentlicher Vorfälle und Vorkommnisse Medikationsdokumentation Arztbriefschreibung, Epikrisendokumentation, integriert in einer elektronischen Krankenakte
Organisationsunterstützung
Terminpläne/Ressourcenbelegungsplanung in Ambulanzen und Funktionsbereichen Bettenbelegungsplanung auf Station Workflowmanagement zur Unterstützung der Abwicklung von Untersuchungsaufträgen und der Dokumenten-/ Befunderstellung Anwendung von klinischen Pfaden und Behandlungsstandards Überwachung der Vollständigkeit und Zeitnähe der Abrechnungsdokumentation
Kommunikationsunterstützung
gebundene betriebliche Kommunikation in Form der Leistungsanforderung und Ergebnisrückmeldung (Leistungskommunikation, »order entry/result reporting«) Übermittlung von Falldaten an Krankenkassen gemäß § 301 SGB Übermittlung von Entlassbriefen an die einweisenden Ärzte interne betriebliche E-Mail-Kommunikation
Entscheidungsunterstützung
kontextsensitiver Zugriff auf Fakten- und Wissensbasen klinische Erinnerungsfunktionen (»Reminder«) und Warnhinweise kontextsensitive Laborwertwertüberwachung Kontraindikations- und Wechselwirkungsprüfung
Für die weitere Unterstützung des Behandlungsablaufes arbeiten viele Krankenhäuser an der Einführung so genannter Klinischer Pfade, die diagnosen- bzw. behandlungsspezifisch festlegen, welche Maßnahmen im Ablauf durchzuführen sind. In unserem Beispielfall wird also der entsprechende Pfad zur Hüft-TEP (⊡ Abb. 48.3) angewandt. In der Elektronischen Krankenakte der Patientin sind nach Zuweisung des Bettes dann bereits alle notwendigen durchzuführenden Maßnahmen automatisch im Zeitverlauf eingetragen (⊡ Abb. 48.4). Dass diese noch »offen« also zu erledigen sind, ist am Statuskürzel (»a« für »angefordert« oder »gepl« für geplant) zu erkennen. Ebenso ist die stationäre Aufnahme bereits dokumentiert, über die Dokument-Icons ist für autorisierte Benutzer der direkte Zugriff auf die Aufnahmedaten und den Einweisungsschein möglich.
Im nächsten Schritt führt nun der diensthabende Arzt die Anamnese und die klinische Untersuchung (⊡ Abb. 48.5) durch und dokumentiert die Ergebnisse elektronisch. Während oder nach der Durchführung dieser Maßnahmen ergänzt er die Diagnosendokumentation (⊡ Abb. 48.6), die auch wichtig ist für die spätere DRG-Abrechnung und die elektronische Übermittlung der Abrechnungsdaten an die Krankenkasse. Da Frau Maier auch über Atembeschwerden klagt, ordnet der Arzt mittels der elektronischen Auftragsfunktion (⊡ Abb. 48.7) abweichend vom Standardbehandlungspfad noch eine zusätzliche Thorax-Röntgenaufnahme an. Am gleichen Nachmittag wird daher neben den anderen geplanten Maßnahmen im Labor und in der Röntgenabteilung auch noch eine entsprechende Thorax-Aufnahme durchgeführt. Die Abarbeitung in der Röntgenabteilung erfolgt anhand
48
786
Kapitel 48 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
V
⊡ Abb. 48.1. Beispielmaske Stationsübersicht
⊡ Abb. 48.2. Beispielmaske Patientenstammdaten
787 48.4 · Unterstützung am Fallbeispiel
⊡ Abb. 48.3. Klinischer Pfad Hüft-TEP
⊡ Abb. 48.4. Aktenübersicht mit Hüft-TEP-Pfad
so genannter elektronischer Arbeitslisten, in denen je Röntgenarbeitsplatz die geplanten Untersuchungen angezeigt werden und von denen aus dann die Leistungserfassung erfolgt. So stehen direkt nach der Untersuchung Leistungsdaten, Bilder und kurze Zeit später auch der Befund zeitnah auf Station zur Verfügung. Am nächsten Morgen stellt sich nun die elektronische Krankenakte wie in ⊡ Abb. 48.8 gezeigt dar: Alle geplanten Maßnahmen des Vortages sind durchgeführt (Status »le« = Leistung erfasst oder »bg« = Befund geschrieben), die Befunde und Formulare können nun über die grünen Icons direkt eingesehen werden und für die Patientin hat am Vorabend auch der OP-Organisator die Operation für 11 Uhr
angesetzt (»t« = Termin vergeben). Ebenfalls ersichtlich wird, dass am Vortag um 12:38 Uhr eine Pflegeanamnese durchgeführt wurde. Auf eine weitere Schilderung des Fallverlaufes und dessen Steuerung und Dokumentation durch das KIS soll an dieser Stelle verzichtet werden. Insgesamt ist deutlich geworden, dass mittels eines modernen KIS behandlungsbegleitend eine zeitnahe Prozessdokumentation entsteht, die sowohl eine hohe organisatorische wie auch dokumentatorische Transparenz schafft – jeder am Behandlungsprozess Beteiligte hat Zugriff auf die für seine Aufgabenerfüllung wichtigen Informationen und ist zeitnah über den Stand des Behandlungsablaufes
48
788
Kapitel 48 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
informiert. Wichtig ist auch, dass am Ende der stationären Behandlung alle Informationen in die Epikrise, die zusammenfassende Bewertung, einmünden und die Angaben hierzu (teil)automatisch aus der Elektronischen Krankenakte übernommen werden können. Damit ist sowohl ein zeitnaher Versand des Arztbriefes – eventuell
V
⊡ Abb. 48.5. Beispielmaske für Dokumentation
⊡ Abb. 48.6. Beispielmaske Diagnosendokumentation
auch in elektronischer Form an den einweisenden Arzt – als auch eine zeitnahe elektronische Übermittlung der Abrechnungsdaten an die Krankenkasse gegeben. Für interne Zwecke kann auf Basis des im KIS gespeicherten Behandlungsverlaufes auch eine Prozesskostenrechnung erfolgen, mittels der der Kostendeckungsbeitrag einzel-
789 48.4 · Unterstützung am Fallbeispiel
ner Patienten bzw. diagnosebezogener Patientenkollektive ermittelt werden kann. Insgesamt zeigt das Beispiel, wie ein KIS durch die Unterstützung von Verarbeitung, Dokumentation, Organisation und Kommunikation die Behandlung im Krankenhaus effektiver macht und die klinische und administrative
Transparenz für alle Beteiligten ganz wesentlich erhöht. Aufwändige Telefonanrufe wie »Ist Frau Maier schon geröntgt? Wo ist der OP-Bericht, ist der schon geschrieben? Welche Leistungen können abgerechnet werden?« gehören damit genauso der Vergangenheit an, wie die ökonomische Intransparenz des Krankenhausgeschehens.
⊡ Abb. 48.7. Beispielmaske Auftragsvergabe
⊡ Abb. 48.8. Aktenübersicht nach erstem Behandlungstag
48
790
Kapitel 48 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
48.5
Architektur und Komponenten eines Krankenhausinformationssystems
48.5.1 Logisches Architekturmodell
V
Architekturmodelle dienen als Bezugssystem und schaffen somit eine gemeinsame Diskussions- und Verständnisbasis für alle an einem Gestaltungs- und Diskussionsprozess Beteiligten. Im Wesentlichen müssen Modelle aus Sicht des Benutzers (»owner’s representation«) und aus Sicht des Informatikers (»designer’s representation«, Seibt 1991) unterschieden werden. Eine Reihe von technisch orientierten Modellen für Krankenhausinformationssysteme sind in Boese und Karasch (1994) zu finden. Ein logisches Architekturmodell eines KIS – also nicht orientiert an technischen Netzwerken, Protokollen und Rechnerebenen, sondern orientiert an Organisationseinheiten und spezifischen Anwendungslösungen und somit an der Sicht der Nutzer (»owner’s representation«) – zeigt ⊡ Abb. 48.9.
Dabei sind die folgenden »Teilinformationssysteme« mit ihren jeweiligen Systemen zu unterscheiden.
⊡ Abb. 48.9. Logisches Architekturmodell eines KIS
Administratives Informationssystem Hierunter subsumieren sich alle Anwendungen der Verwaltung und der Logistik. Zählte bisher hierzu auch immer das Patientendatenverwaltungssystem, so wird gerade vor dem Hintergrund des neuen Abrechnungsrechts immer deutlicher, dass dieses als eigenständige Komponente zu betrachten ist, da es Funktionalitäten enthält, die für alle anderen – also auch die medizinischen – Informationssysteme unabdingbar sind.
Patientendatenverwaltungssystem Hierunter fallen alle Funktionen für die Verwaltung der Patientendaten, die zur Abrechnung und zur Erfüllung der gesetzlichen Nachweispflichten notwendig sind. Hierzu gehören z. B. die Funktionen für die Aufnahme, Verlegung und Entlassung von Patienten. Durch die aktuelle Entwicklung im gesetzlichen Umfeld und die damit verbundenen Nachweispflichten ist der ehemals reine administrative Datenumfang stark um medizinische Angaben (Diagnosen, Begründungen, Pflegekategorien, diagnostisch-therapeutische Maßnahmen) erweitert
791 48.5 · Architektur und Komponenten eines Krankenhausinformationssystems
worden. In dieser »Zwitterfunktion« – d. h. administrative und rudimentäre, aber auch wichtige medizinische Daten umfassend – kommt dem Patientendatenverwaltungssystem besondere Bedeutung zu. Auch ein Bettenbelegungsplanungsmodul kann hierunter subsumiert werden.
spezieller medizintechnischer Komponenten an, wie z. B. die Online-Anbindung von Laboranalysegeräten an das Laborinformationssystem oder der bildgebendenden Modalitäten an das Radiologieinformationssystem etc. Wie bei den Ambulanzen benötigen Leistungsstellen, in denen direkt Patienten untersucht werden, auch ein effektives Terminmanagement.
Medizinisches Informationssystem
Leistungskommunikationssystem. Dieses System dient der Leistungsanforderung und Befundrückmeldung (auch als Auftrags- und Leistungskommunikation oder »order-entry-result reporting« bezeichnet) zwischen den stationären oder ambulanten Einheiten und den Leistungsstellen/Funktionsbereichen. Dabei wird mit diesem System der klassische Anforderungsbeleg durch OnlineAnforderungen am Bildschirm ersetzt und eine direkte Einbuchung von Aufträgen im Leistungsstellensystem ermöglicht. Der Anforderer hat jederzeit die Möglichkeit, den Status seines Auftrags abzurufen, und erhält das Untersuchungsergebnis rasch in elektronischer Form zum frühestmöglichsten Zeitpunkt.
Zum medizinischen Informationssystem gehören alle Anwendungen/Informationssysteme zur Unterstützung der Dokumentation und Organisation der medizinischen Organisationseinheiten. Das medizinische Informationssystem selbst kann aufgrund der verschiedenen Ausrichtungen und der notwendigen spezifischen Funktionalitäten der Einzelmodule je Anwendungsbereich in die nachfolgend aufgeführten Systeme unterteilt werden. Fachabteilungssysteme. Hierzu zählen z. B. Chirurgieinformationssystem, Anästhesieinformationssystem, gynäkologisches Informationssystem etc. Sie unterstützen die fachärztliche Dokumentation sowie die dieser nachgeordneten Verwendungszwecke wie Qualitätsmanagement, Nachweispflichten, Abrechnung usw. innerhalb der Fachabteilung in spezialisierter Weise. Neben der Dokumentation unterstützen sie den ärztlichen Entscheidungsprozess nicht nur durch die schnelle Verfügbarmachung neuester Befunde mittels des Leistungskommunikationssystems, sondern erlauben auch den Zugriff auf an das KIS angekoppelte Wissensbasen und elektronische Lehrbücher. Mittels eines Behandlungsplanungsmoduls erlauben sie fachabteilungsspezifisch, problem- oder diagnosebezogene Behandlungsstandards zu hinterlegen und bei konkreten Behandlungen als Planungsgrundlage zu nutzen. System zur Unterstützung der Ambulanzen. Spezifisch zu unterstützende Aufgaben in den Ambulanzen sind v. a. in der effektiven Unterstützung des Einbestellwesens und des Terminmanagements zu sehen, die effektive Unterstützung des ambulanten Behandlungsprozesses im Sinne eines berufsgruppenübergreifenden Work-Flows sowie in der spezifischen Leistungsdokumentation und ambulanten Abrechung, welche in der Bundesrepublik besonders differenziert und komplex ist. Leistungsstelleninformationssysteme. Hierzu zählen bspw. Laborinformationssystem, Radiologieinformationssystem, Pathologiesystem, Operationsdokumentationssystem etc. Sie unterstützen in spezialisierter Weise integriert die Organisation, Dokumentation und Kommunikation für spezielle Leistungsstellen (Funktionsabteilungen). Neben der sehr speziellen Dokumentation und speziellen Work-Flows, deren effektive Abarbeitung den Durchsatz erhöht, fällt hier auch die Einbindung
Pflegeinformationssystem. Es wird verwendet zur Unterstützung der Pflegeplanung, Pflegedokumentation inkl. der Kurvenführung sowie des pflegerischen Qualitätsmanagements. Im Idealfall wird durch das Zusammenspiel dieser verschiedenen medizinischen Informationssysteme und deren Komponenten eine vollständige elektronische Krankenakte – also eine papierlose digitale Sammlung aller Behandlungsdokumente – möglich (⊡ Abb. 48.10).
Kommunikationssystem Aus Anwendersicht wird hierunter das oben angeführte Leistungskommunikationssystem verstanden, auf technischer Ebene und bezogen auf das Topologiemodell in ⊡ Abb. 48.10 ist darunter jedoch ein Informationsvermittlungssystem zur software-technologischen Kopplung unterschiedlichster Anwendungssysteme zur Ermöglichung einer Datenkommunikation zwischen diesen (z. B. Fachabteilungssysteme mit Labor- und Radiologiesystem etc.) zu verstehen. Dieses Vermittlungssystem wird i. Allg. als Kommunikationsserver bezeichnet.
Querschnittsanwendungen (Nicht in Abb. 48.10 repräsentiert.) Hierunter fallen Anwendungen, die für viele Abteilungen/ Nutzer von Interesse sind, wie z. B. Befundschreibung und -verwaltung, Diagnoseverschlüsselung, Wissensserver mit diversen Datenbanken wie Rote Liste, MEDLINE etc., Bürokommunikation, Tabellenkalkulation etc.; im weitesten Sinne hat auch ein Pflegedokumentationssystem sowie ein Terminplanungsmodul Querschnittscharakter.
48
792
Kapitel 48 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
V
⊡ Abb. 48.10. Aktenübersicht einer elektronischen Krankenakte und zugeordnete Informationsquellen
48.5.2 Implementierungsalternativen:
holistisch vs. heterogen Ein weiteres wichtiges Merkmal von gesamtbetrieblichen Informationssystemen ist neben der logischen Architektur die Software- und Hardware-technologische Implementierung und die ggf. damit auch determinierte Verteilbarkeit der Lösung auf verschiedene Hardware-Infrastrukturkomponenten. Grundsätzliche Alternativen im Hinblick auf die Anwendungs-Software sind:
Holistisches Informationssystem Die Software für alle im logischen Architekturmodell vorkommenden Systemkomponenten stammt von einem Hersteller und basiert auf einem gesamtkonzeptuellen Datenmodell, das gesamte KIS ist also aus »einem Guss«, dabei kann die Software auch zur besseren Wartungs- und Verteilbarkeit modularisiert in einzeln betreibbare Komponenten zerlegt sein (⊡ Abb. 48.11).
⊡ Abb. 48.11. Beispiel für ein holistisches KIS
Heterogenes Informationssystem Die Software für die im logischen Architekturmodell aufgeführten Komponenten stammt von verschiedenen Herstellern, die alle mit eigenen Datenmodellen und Datenhaltungen arbeiten. Durch entsprechende Kopplungssoftware – z. B. einen Kommunikationsserver – erfolgt die Kommunikation und der Datenabgleich zwischen diesen Systemen (⊡ Abb. 48.12). Die Wahl der technischen Ausprägung des KIS determiniert v. a. den notwendigen Betreuungsaufwand, je
⊡ Abb. 48.12. Beispiel für ein heterogenes KIS
793 48.5 · Architektur und Komponenten eines Krankenhausinformationssystems
⊡ Tab. 48.2. Vor- und Nachteile der beiden Lösungsansätze holistisches und heterogenes Informationssystem Holistisch = Alle Anwendungen eines Herstellers
Heterogen = Anwendungen verschiedener Hersteller
+ Ggf. ein konzeptionelles Modell + Alles aus einer Hand, ein Vertragspartner * Weniger Betreuungsaufwand + Konsistente Oberfläche + Keine doppelte Datenhaltung – Geringe medizinische Einzelfunktionalität – Abhängig von einem Hersteller
– Verschiedene konzeptionelle Modelle – Schnittstellenprobleme – Verschiedene Oberflächen – Verschiedene Datenhaltungssysteme – Hoher Betreuungsaufwand + Hohes Maß der Anpassung der Einzelsysteme an Terminologie, Semantik und Work-Flow des Einsatzbereichs
inhomogener ein betriebliches System, desto betreuungsaufwändiger wird es. Sowohl der holistische als auch der heterogene Lösungsansatz haben Vor- und Nachteile, die jeweils invers zueinander sind. ⊡ Tab. 48.2 zeigt eine Gegenüberstellung. Entsprechend der Komplexität und Differenziertheit von Krankenhausinformationssystemen haben sich verschiedene Typen von Anbietern entwickelt, die im Wesentlichen in die folgenden 3 Klassen eingeteilt werden können: ▬ Gesamtanbieter, die alle Problemlösungen (also auch z. B. OP-System, RIS, PACS, Pflegeinformationssystem etc.) in einer integrierten Lösung anbieten. Das macht den Einsatz weiterer Systeme anderer Hersteller unnötig. Diese Lösungen sind i. d. R. sehr breit angelegt, gehen aber nur wenig in die spezifische funktionale Tiefe. Kundenspezifische Individualisierung der medizinischen Inhalte ist kaum erreichbar bzw. wird zunehmend über »Formulargeneratoren« zur Implementierung medizinischer Formulare durch den Kunden selbst versucht zu implementieren. Das wesentliche Vertriebsargument ist hier die integrierte Lösung – hier als holistisches KIS bezeichnet (⊡ Abb. 48.11). Schaut man hinter die Kulissen, wird jedoch oftmals deutlich, dass manch eine Gesamtlösung keinesfalls aus einer Software mit einem einheitlichen darunterliegenden Unternehmensdatenmodell besteht, sondern auch aus zusammengekauften Systemen assembliert ist, welche über mehr oder weniger triviale Kopplungsmechanismen miteinander kommunizieren. Dies entspricht dann in etwa dem Lösungsangebot der 2. Klasse von Anbietern. ▬ Gesamtanbieter, die z. B. über eine administrative Gesamtsoftware verfügen, ggf. noch über ein zentrales Order-/Entry-System, und daran mehr oder weniger aufwändig beliebige medizinische Subsysteme anbinden (hier als heterogenes KIS – ⊡ Abb. 48.12 – bezeichnet). Aufgrund des monolithischen Charakters dieser einzelnen Subsysteme und des Zentralsystems müssen die gemeinsamen Inhalte wie Patientendaten, Untersuchungsergebnisse etc. mehrfach gehalten und über den Austausch von Datensätzen (sog. Kommu-
nikationssätzen) zwischen den beteiligten Systemen abgeglichen werden, was zunehmend durch einen Kommunikationsserver geschieht. ▬ Spezialanbieter, die – zumeist – hochkompetente und in sich abgeschlossene Lösungen für Teilbereiche anbieten (Labor, Radiologie, Hygiene etc.) und sich über Datenkommunikation in heterogene KIS integrieren lassen. In der Praxis hat sich gezeigt, dass, je größer ein Krankenhaus ist, desto weniger bedarfsgerecht der Einsatz eines einzigen Informationssystems ist. An einem Beispiel sei dies verdeutlicht: Während in einem 200-Betten-Krankenhaus die Radiologieabteilung 2 Röntgengeräte besitzt und die Unterstützung dieser Leistungsstelle mit dem Querschnittsmodul »Leistungskommunikation« des holistischen KIS abgedeckt werden kann, hat eine radiologische Abteilung in einem 1200-Betten-Haus 16 und mehr Untersuchungsgeräte und eine komplexe Organisation. Hier erfolgt die IT-Unterstützung zweckmäßigerweise mit einem speziellen Radiologieinformationssystem mit angebundenem »picture archiving system« (PACS) und Online-Einbindung der einzelnen bildgebenden Modalitäten.
48.5.3 Integrationsaspekte heterogener
Krankenhausinformationssysteme Die Integration verschiedener Informationssysteme zu einem konstruktiven Ganzen ist komplex und wird als »Enterprise Application Integration« (EAI) bezeichnet (Conrad et al. 2006). Beim heterogen Lösungsansatz erfolgt die Kommunikation zwischen den einzelnen Systemen generell nur durch den Austausch von Datensätzen (sog. Nachrichten). Daher müssen die einzelnen in das KIS integrierten Systeme über folgende Funktionalitäten verfügen: ▬ Importmodul zum Empfangen von Datensätzen, ▬ Exportmodul zum Senden von Datensätzen, ▬ geeignete interne Datenbankstrukturen zum Speichern der empfangenen Daten, ▬ eigene Funktionen (Programme) zum Anzeigen/Weiterverarbeiten der empfangenen Daten aus anderen Systemen.
48
794
Kapitel 48 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
V
⊡ Abb. 48.13. Situation bei datensatzorientierter Kommunikation
Die resultierende komplexe Situation je Anwendungssystem zeigt ⊡ Abb. 48.13. Damit wird deutlich, dass es zu erheblichen Mehraufwendungen – sowohl entwicklungs- als auch betreuungstechnisch – kommt, wenn Gesamtsysteme mittels Kopplung verschiedener Systeme entstehen. Es wird daher oftmals ein Kommunikationsserver eingesetzt, der die Koordination und Abwicklung der Kommunikation zwischen den verschiedenen Systemen übernimmt und auch die Funktionalität besitzt, Nachrichten eines sendenden Systems in ein für das empfangende System verarbeitbares Format zu konvertieren. Aufgrund der Komplexität des Vorgangs der Kopplung heterogener Systeme in der Medizin sowie der Notwendigkeit eines solchen Lösungsansatzes in fast allen Gesundheitsversorgungssystemen wurde, beginnend in den 1980er Jahren, der Kommunikationsstandard HL7 (»health level seven«) entwickelt, der eine Standardisierung von Nachrichtentypen – also eine Festlegung von Syntax und Semantik der zu übermittelnden Datensätze – darstellt und mittlerweile in der Version 3 (HL7 standards 2000) vorliegt. Unterstützen medizinische Systeme diesen Standard (sowohl importierend als auch exportierend), können diese ohne wesentlichen zusätzlichen Programmieraufwand und somit ohne zusätzliche Kosten miteinander gekoppelt werden. ⊡ Abb. 48.14 zeigt beispielhaft die Zusammensetzung eines solchen Nachrichtentyps.
⊡ Abb. 48.14. Beispiel für HL-7-Nachrichtentyp, ADT-Message (Admission-Transfer-Discharge)
795 48.6 · Aktuelle Trends und Perspektiven
Die Umstellung dieses HL7-Standards zur Nutzung von XML steht mit der Version 3 von HL7 heute zur Verfügung (www.hl7.org). Die »HL7-patient-record-architecture« (Dolin et al. 1999), welche zum Ziel hat, ein allgemeingültiges Datenstrukturschema für den Austausch von Patientendokumenten aus elektronischen Patientenakten auf Basis von XML zu ermöglichen, steht heute in der Version 2.0 zur Verfügung. Auf Basis dieses Standards – der auch eine Methodologie zum Entwurf spezieller CDADokumente enthält – können heute klinische Dokumente jeglicher Art gut standardisiert – d. h. strukturiert und formalisiert und damit für Rechner les- und -auswertbar – werden. So trägt dieser Standard zu einem Austausch von Dokumenten zwischen Informationssystemen bei. Aufgrund dieser Bemühungen ist absehbar, dass vor dem Hintergrund internationaler Standards die Integration von medizinischen Anwendungssystemen verschiedener Hersteller zunehmend einfacher werden wird, wenngleich dies nicht ersetzen kann, dass eine zentrale Instanz innerhalb des KIS zur Führung und v. a. auch zur Langzeitarchivierung der elektronischen Krankenakten notwendig ist.
48.6
Aktuelle Trends und Perspektiven
Wie in den voranstehenden Darstellungen gezeigt werden konnte, sind Krankenhausinformationssysteme inzwischen umfassende betriebliche Informationssysteme für Krankenhäuser, die alle Aspekte des operativen, taktischen und strategischen Handelns im Unternehmen Krankenhaus unterstützen. Für solche Informationssysteme ist es besonders wichtig, dass die Funktionalitäten entsprechend den sich verändernden Rahmenbedingungen für Krankenhäuser in gegebenem Maße angepasst und weiterentwickelt werden. Dabei finden vor allem die nachgenannten Aspekte besondere Beachtung: ▬ Ausbau der medizinischen Dokumentation, ▬ Integration der Medizintechnik, ▬ Vernetzung mit externen Einrichtungen, ▬ Unterstützung der Patientensicherheit, ▬ Entscheidungsunterstützung für Ärzte, ▬ Integration genetischer Daten. 48.6.1 Medizinische Dokumentation
Während in der Vergangenheit v.a. die im Rahmen der Auftragskommunikation entstehende Dokumentation im Vordergrund stand – z. B. die Laborwertdokumentation, die Dokumentation radiologischer Befunde, die Dokumentation von Untersuchungsergebnissen wie die EKG-, EEG- und Sonographie-Dokumentation – sowie die wichtige Anästhesie- und Operationsdokumentation, rücken nun auf dem Weg zum papierlosen Kranken-
haus die Fachabteilungsdokumentationen in den Mittelpunkt. Diese unterscheiden sich zwischen den einzelnen Fachabteilungen erheblich und müssen daher auf Basis des existierenden Formularwesens überarbeitet und in eine elektronisch erfassbare Form gebracht werden. Auch Spezialdokumentationen, wie z. B. die Tumordokumentation, finden ein hohes Interesse. Die Implementierung solcher Dokumentationen erfolgt i. d. R. mittels eines vom Hersteller des Krankenhausinformationssystems mitgelieferten Werkzeuges – meist in Form eines so genannten Formulargenerators –, das den Krankenhäusern die Implementierung und Integration spezifischer Dokumentationsfunktionen außerhalb des Standardfunktionsumfanges des gelieferten Systems ermöglicht. Dabei ist auch der Trend zu erkennen, besonders wichtige Dokumentationen, z. B. die Tumordokumentation, generell auf nationaler Ebene zu standardisieren.
48.6.2 Integration Medizintechnik
Die zuvor geschilderte Entwicklung des Aufbaus umfassender papierloser Dokumentationen fördert den Wunsch nach der Integration von Informationen, die eigentlich mittels medizintechnischer Systeme akquiriert werden. Während diese Entwicklung z. B. im radiologischen Bereich durch die Integration der Modalitäten mit PACS und Radiologieinformationssystem weitgehend abgeschlossen ist, gibt es eine Vielzahl medizintechnischer Geräte wie z. B. EKG-Geräte, EEG-Geräte, Lungenfunktionsdiagnostikgeräte, Herzkathetermessplätze usw., die heute zwar weitgehend ebenfalls Informationen in digitaler Form aufnehmen, verarbeiten und speichern, aber eben noch nicht so interoperabel ausgestattet sind, dass sie über Standardschnittstellen problemlos mit anderen Systemen bzw. dem KIS (Krankenhausinformationssystem) kommunizieren können. Hier sind z. T. noch erhebliche Individualentwicklungen notwendig, aber eine Konvergenz zwischen Medizintechnik und Informationstechnik ist eingeläutet. Mit dieser Integration ist es absehbar, dass die heute bestehenden Medienbrüche und verteilt gehaltenen medizinischen Patienteninformationen zunehmend der Vergangenheit angehören und eine papierlose integrierte elektronische Patientenakte unter Einschluss von Daten und Dokumenten aus medizintechnischen Geräten zentral im Krankenhausinformationssystem verfügbar wird.
48.6.3 Vernetzung mit externen Einrichtungen
Krankenhausinformationssysteme waren in der Vergangenheit im Wesentlichen konzentriert auf die Unterstützung aller Aspekte der eingangs erläuterten Unterstützungsdimensionen innerhalb des Krankenhauses. Die zunehmend intensivere Integration der Versorgungssek-
48
796
V
Kapitel 48 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
toren und die damit einhergehende Notwendigkeit einer effektiven Kooperation und Koordination zwischen Krankenhaus, zuweisenden Ärzten, Medizinischen Versorgungszentren, Pflegeeinrichtungen und ambulanten Pflegediensten führen jedoch zu einem erheblichen Bedarf auch der elektronischen Vernetzung der einzelnen Informationssysteme dieser verschiedenen Leistungserbringer. Während eine nationale Gesundheitstelematik-Plattform, mittels derer alle Akteure auf Basis von sicheren und vereinbarten zentralen Diensten kooperieren können, noch nicht in Sicht ist, haben viele Krankenhäuser zusammen mit ihren Herstellern Wege gesucht und beschritten, um die informationstechnologische Vernetzung mit anderen Einrichtungen voranzutreiben. An erster Stelle stehen hier so genannte Krankenhausportale, die den Zuweisern die Möglichkeit bietet, über sichere Internetverbindungen auf extra bereitgestellte ausgewählte medizinische Informationen der von ihnen eingewiesenen Patienten zuzugreifen und diese – meist in Form von Dokumenten vorliegenden Informationen wie OP-Berichte, Befunde und Entlassbriefe – nicht nur per Webbrowser einzusehen, sondern auch auf ihr lokales Arztpraxisinformationssystem herunterzuladen und manuell in ihre elektronische Karteikartenführung zu integrieren. Dies geschieht auf Basis eines differenzierten Zugriffsrechtesystems, sodass jeder Zuweiser nur Zugriff auf die Informationen seiner Patienten und auch nur auf Basis einer Einwilligung jedes Patienten hat. Diese Portale haben jedoch den Nachteil, dass niedergelassene Ärzte, die mit mehreren Krankenhäusern kooperieren, evtl. verschieden zu bedienende Portale nutzen müssen. Daher scheint es als Konsequenz aus dieser Entwicklung angebracht, dass eine automatisierte Kommunikation solcher Informationen auf Basis einer transparenten Interoperabilität zwischen Krankenhausinformationssystemen und Arztpraxissystemen implementiert wird. Erste Spezifikationen zum elektronischen Arztbrief sowie Projekte zum Austausch solcher elektronischer Arztbriefe sind inzwischen angestoßen. Eine wesentliche Hürde dafür ist jedoch die fehlende nationale Sicherheitsinfrastruktur, sodass bei allen Projekten eine für eigene oder eine für andere Zwecke implementierte Infrastruktur genutzt werden muss. Im Rahmen von zwei größeren kooperierenden nationalen Projektinitiativen (eFA = elektronische Fallakte, EPA 2015 = elektronische Patientenakte) werden aktuelle Standards für die technische und semantische Interoperabilität zwischen Krankenhausinformationssystem und anderen Informationssystemen von Leistungserbringern mit einer physisch oder nur logisch-zentralen Patientenakten-Infrastruktur entwickelt. Ziel ist es, dass wichtige im Rahmen der Versorgung entstehende Dokumente oder aber auch feingranulare Informationen wie Diagnosen, Symptome und Maßnahmen von allen Leistungserbringern in eine solche einrichtungsübergreifende elektronische Patientenakte ohne großen Aufwand eingestellt werden können und
damit eine einrichtungsübergreifende Transparenz des Behandlungsprozesses und der spezifischen Patientensituation entsteht, die jedem Behandler effektiv und vollständig die wichtigen Informationen zur Verfügung stellt. Dabei muss auch die informationelle Selbstbestimmung des Patienten sowie die besten denkbaren Sicherheitsmechanismen berücksichtigt werden. Für die Zusammenarbeit mit den externen Systemen benötigen die Krankenhausinformationssysteme zum einen ein Interoperabilitätsmodul, das die technische Kommunikation mit den externen Systemen bzw. Telematikplattform-Komponenten übernimmt, und zum anderen eine Ergänzung der internen Funktionalität um integrierte elektronische Posteingangs- und -ausgangskörbe, die es dem Anwender ermöglicht, eingegangene Dokumente und Informationen abzurufen und manuell oder automatisch in die entsprechenden internen elektronischen Patientenakten einsortieren zu können. Darüber hinaus ist es notwendig, dass innerhalb der Patientendokumentationen ersichtlich ist, welche Dokumente und Informationen von außerhalb stammen bzw. nach außerhalb versandt wurden.
48.6.4 Entscheidungsunterstützung für Ärzte
Da die Krankenhausinformationssysteme (KIS) immer mehr klinische Daten beinhalten, bietet sich auf Basis dieser eine Entscheidungsunterstützung an. Prominentestes Beispiel hierfür ist die Arzneimitteltherapiesicherheit. Wird im KIS eine Verordnungsdokumentation bzw. Medikationsdokumentation geführt, kann auf Basis einer hinterlegten Wissensbasis und hinterlegter Detailangaben zu Arzneimitteln die Überprüfung von Wechselwirkungen vorgenommen werden. Bei Verordnungen können aber auch auf Basis der dokumentierten Diagnosen und sonstiger medizinischer Daten Kontraindikationen überprüft und auf diese hingewiesen werden. Basiert die Dokumentation auf Vokabularen und Ontologien, kann auch eine weitergehende Unterstützung erfolgen. So ist es dann möglich, zu bestimmten Diagnosen mögliche Behandlungsverfahren anzugeben oder aber auf das Vorhandensein von klinischen Pfaden oder Leitlinien hinzuweisen.
48.6.5 Unterstützung der Patientensicherheit
Die Entwicklung im Gesundheitswesen und speziell im Krankenhausbereich hat die Leistungsverdichtung auch für die Ärzte immer größer werden lassen. Oftmals ist nur wenig Zeit für die Kommunikation über den Patienten bei Schichtwechsel etc. Mehr denn je sind die Ärzte darauf angewiesen, eine optimale Unterstützung ihrer patientenbezogenen Zusammenarbeit durch das Krankenhausinformationssystem zu erhalten.
797 48.7 · Auswahl und Einführung von Krankenhausinformationssystemen
Insgesamt geht es also darum, die Patientensicherheit im Rahmen von Krankenhausbehandlungen zu erhalten bzw. zu erhöhen. > Definition Patientensicherheit bedeutet, dass ein Patient während einer Behandlung nicht zu Schaden kommt und keinerlei potentiellen Gesundheitsgefahren ausgesetzt wird. Patientensicherheit wird in der Europäischen Union sehr ernst genommen.
Die jüngsten Studien zeigen, dass in immer mehr Ländern bei ungefähr 10% der Krankenhausaufenthalte Fehler auftreten (Quelle: http://ec.europa.eu/health-eu/ care_for_me/patient_safety/io_de.htm). Es kann davon ausgegangen werden, dass mit Zunahme der Durchdringungen des medizinischen Bereichs der Krankenhäuser mit IT auch die Forderungen nach Unterstützung der Patientensicherheit durch (pro)aktive intelligente Mechanismen im KIS zunehmend intensiver werden. Dabei können verschiedene Facetten bzw. Aspekte aufgeführt werden, wie z. B.: ▬ strukturierte Risikoerfassung und Darstellung, auch fortwährend und kontextsensitives Hinweisen auf bestehende Risiken bei Verordnungen und der Planung von Maßnahmen, ▬ Dokumentationsübersicht im Sinne einer patientenbezogenen Schnellübersicht zu allen wesentlichen und neuen Informationen, ▬ Unterstützung bei der Durchführung von Maßnahmen oder bei der Reaktion auf ungeplante Ereignisse durch Anzeigen von Checklisten, ▬ integriertes Meldungssystem, auch aktives Messaging durch das KIS an den diensthabenden oder zugeordneten Arzt bei Eintreffen neuer Befunde, ggf. befundtypanhängig bzw. parametrierbar je Patient, ▬ Unterstützung der Medikation bis hin zu intelligenten Funktionen wie AMTS etc., ▬ integriertes CIRS, ▬ Generierung übersichtlicher Überleitungsberichte. 48.6.6 Genetische Daten
Die Medizin steht am Beginn einer Entwicklung, auch genetische Daten zu verarbeiten – oftmals unter dem Stichwort »personalisierte Medizin« diskutiert. Dies zwingt zu erheblichen Sicherheitsmaßnahmen und ethischen Überlegungen bezüglich des Einsatzes unterstützender Informationssysteme, denn genetische Daten und Dispositionen betreffen nicht nur den Patienten, sondern auch seine Angehörigen. Der zunehmende Einsatz von genetischen Untersuchungen und die Identifikation von Biomarkern mit dem Ziel einer personalisierten Medizin führen zu einer Ergänzung der medizinischen Dokumentationsfunktionen, die besonderem Schutz bedürfen.
48.7
Auswahl und Einführung von Krankenhausinformationssystemen
48.7.1 Vorbemerkungen
Die Einführung von Informationssystemen in den klinischen Bereichen eines Krankenhauses führt zu hochkomplexen und sensiblen betrieblichen soziotechnischen Systemen, deren Funktionsfähigkeit nur dann die gewünschten operativen und strategischen Ergebnisse bringt, wenn alle Beteiligten sich nach Einführung in einer zumindest gleichbleibenden, eher jedoch verbesserten Arbeitssituation wiederfinden. Es ist daher von hoher Bedeutung, dass bei Vorbereitung, Auswahl und Einführung von klinischen Informationssystemen die vielfältigen Gestaltungsdimensionen betrieblicher Informationssysteme wie Aufbau- und Ablauforganisation, Dokumentation, technische Infrastruktur, Benutzerakzeptanz etc. frühzeitig Berücksichtigung finden (Ammenwerth u. Haux 2005). Je stärker ein Informationssystem in menschliche Handlungsfelder hinein implementiert wird, desto mehr müssen alle diese Gestaltungsdimensionen beachtet werden. Ohne genaue Kenntnisse der gegebenen makro- und mikroskopischen Organisation, ohne Reflexion der Ziele eines Informationssystems an den Zielen und Aufgaben einer Organisation, ohne Kenntnisse und Berücksichtigung der Bedürfnisse von Benutzern und Betroffenen sollten daher keine Beschaffungsprozesse und Implementierungen von Informationssystemen vorgenommen werden. Die Auswahl eines Krankenhausinformationssystems muss als eigenständiges Projekt begriffen werden (Winter et al. 1998). Nur so wird sichergestellt, dass eine solide und abgesicherte Entscheidung getroffen wird. Dafür müssen bis zu 10% des Gesamtinvestitionsvolumens zur Finanzierung des Auswahlprozesses eingesetzt werden. Um eine Kauf- oder Entwicklungsentscheidung solide und basierend auf den eigenen Belangen und dem Stand der Technik methodisch herbeiführen zu können, sind folgende Phasen zu durchlaufen (⊡ Abb. 48.15): ▬ Vorbereitungsphase (allgemeine und projektspezifische Vorarbeiten), ▬ Projektierung, ▬ Systemanalyse, ▬ Erstellung Ausschreibung, ▬ Auswahl, ▬ Vertragsgestaltung, ▬ Abnahme und Einführung, ▬ frühe Betriebsphase. Diese Phasen gelten sowohl für größere Projekte zur Einführung ganzer Krankenhausinformationssysteme als auch bei kleineren Projekten, z. B. der Einführung von Abteilungsinformationssystemen wie Radiologie- oder Laborinformationssystemen.
48
798
Kapitel 48 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
⊡ Abb. 48.15. Phasenmodell für die Systemauswahl
V Wichtige Meilensteine sind im engeren Sinne die Fertigstellung der Systemanalyse, die Aussendung der Ausschreibung, der Vertragsabschluss und die Inbetriebnahme. In der Folge werden in Form von Checklisten jene Aktivitäten und Sachverhalte aufgeführt, deren Durchführung als kritische Erfolgsfaktoren des gesamten Prozesses verstanden werden und deren Nichtberücksichtigung den Erfolg von IT-Projekten gefährdet oder aber zu suboptimalen Lösungen führt.
▬ ggf. generelle Standards und Vereinbarungen aus den Richtlinien der IT ableiten, ▬ Projektidee bzw. Projektziel grob definieren. Während es sich bis auf die letzte Aktivität um allgemeine Vorgaben und Standards handelt, die im Idealfall schon definiert sind, muss als letztes zumindest das konkret geplante Projekt und seine Initialgründe beschrieben werden.
Projektierung 48.7.2 Projektphasen und kritische Faktoren
Vorbereitungsphase Am Beginn eines IT-Projekts steht i. d. R. der Anstoß zu diesem Projekt: Erkannte Schwachstellen sollen beseitigt werden, gesetzliche Änderungen erfordern den IT-Einsatz, Effektivierungsressourcen sollen genutzt werden, ein veraltetes System kann nicht mehr weiter betrieben werden usw. Dabei wird oftmals zu kurz gezielt, wenn sich Systemauswahl und -einsatz nur an diesem Initialgrund orientieren, und es wird die Chance der Neugestaltung einer informationstechnologieadäquaten betrieblichen Organisation vertan! Im Gegensatz dazu sollte sich der Einsatz der Informationstechnologie ausrichten an den betrieblichen Zielen – sowohl auf Unternehmens- als auch auf Abteilungsebene. Ein Beispiel für ein solches Vorgehen wird in (Kuhn u. Haas 1997) gegeben. Im Allgemeinen wird vorausgesetzt, dass innerhalb des Krankenhauses bereits Richtlinien für den Einsatz und die Beschaffung von IT-Verfahren existieren. Ist dies nicht der Fall, sollten diese umgehend definiert werden. Sie können neben technischen Standards und Vereinbarungen auch Festlegungen in Bezug auf Bedienung und Ergonomie beinhalten. Wichtige Aktivitäten in dieser Phase sind demnach: ▬ ggf. Unternehmensziele definieren/ergänzen, ▬ Zielformulierung für IT-Einsatz (abgeleitet aus den Unternehmenszielen), ▬ ggf. Richtlinien der IT definieren/ergänzen,
Im Rahmen der Projektierung werden alle notwendigen Voraussetzungen geschaffen, um die operative Projektarbeit aufzunehmen. Orientiert an den durch die allgemeinen Vorarbeiten gesetzten Rahmenbedingungen müssen am Ende dieser Phase klare Entscheidungs-, Berichts- und Dokumentationsstrukturen sowie die Projektverantwortlichkeiten und Kompetenzen definiert sein. Unabhängig von der Größe des Projekts sollte eine Trennung zwischen strategisch/taktischer Planung/Überwachung (durch einen Projektlenkungsausschuss) und der operativen Durchführung (durch eine Projektarbeitsgruppe) vorgenommen werden. Dadurch kann die Einbeziehung von Entscheidungsträgern, Vertretern der verschiedenen Betroffenen und der einzelnen Benutzergruppen in angemessener Weise realisiert werden (⊡ Abb. 48.16). Die Besetzung der Projektarbeitgruppe sollte aus ausgewählten Vertretern der einzelnen Berufsgruppen bestehen, ihre zeitliche anteilige Mitarbeit sollte geklärt sein. An Aktivitäten sind bei der Projektierung zu berücksichtigen: ▬ Bilden und Einsetzen des Projektlenkungsausschusses unter – Einbindung des Managements, – Einbindung von Leitungsfunktionen der betroffenen Organisationseinheiten, – Beteiligung der Personalvertretung; ▬ Bilden und Einsetzen der Projektarbeitsgruppe unter – Beteiligung ausgewählter Vertreter des Projektlenkungsausschusses,
799 48.7 · Auswahl und Einführung von Krankenhausinformationssystemen
⊡ Abb. 48.16. Beispiele für Projektlenkungsausschuss und Projektarbeitsgruppe
– Beteiligung von Vertretern aller späteren Anwendergruppen, – Beteiligung der IT- und Organisationsabteilung, – Beteiligung des betrieblichen Datenschutzbeauftragten; ▬ Definition der Projektziele: – strategische Ziele durch den Projektlenkungsausschuss, – operative Ziele durch die Projektarbeitsgruppe. Nachdem die beiden wesentlichen Zirkel installiert sind und auch die Ziele des Projekts feststehen, müssen die projektbezogenen Kompetenzen und Verantwortlichkeiten definiert und allen Beteiligten und Betroffenen zur Kenntnis gebracht werden. Es sind also zu berücksichtigen: ▬ Definition der projektbezogenen Kompetenzen und Verantwortlichkeiten, ▬ Rahmenbedingungen abklären (Personal, Räume, Ausstattung etc.), ▬ Finanzierungsrahmen abklären, ▬ interne Ressourcen klären, ▬ externe Ressourcen klären/Angebote einholen, ▬ Projektdokumentation initialisieren und einrichten, ▬ Projektgrobzeitplanung, ▬ erste Information der Betroffenen und Kommunikation der projektbezogenen Kompetenzen und Verantwortlichkeiten, ▬ Erstellen/Fortschreiben des betrieblichen IT-Rahmenkonzepts. Nach Abschluss dieser Phase sollten alle für die Projektdurchführung notwendigen Festlegungen getroffen sein. Dabei kommt v. a. der initialen und danach kontinuierlichen Information aller Beteiligten eine besondere Bedeutung zu. Wenn möglich, sollten hierfür die neuen Medien selbst (E-Mail mit Verteilern, Intranet mit entsprechenden Projektseiten etc.) genutzt werden.
Systemanalyse Auswahl und Einführung von Informationssystemen erfordern ein hohes Maß an betrieblicher Transparenz. Letztendlich handelt es sich bei allen Projekten zur Einführung klinischer IT-Systeme um hochgradige Migra-
⊡ Abb. 48.17. Verwendungszwecke der Ergebnisse der Systemanalyse
tionsprojekte, in deren Mittelpunkt eine komplexe und differenzierte medizinische Dokumentation steht. Eine der wesentlichsten kritischen Erfolgsfaktoren von IT-Projekten gerade in der Medizin ist daher die Durchführung einer hinsichtlich des Ziel- und Erkenntnisinteresses ausreichend detaillierten Systemanalyse. Erst deren Ergebnis schafft i. d. R. die Basis für eine Anforderungsdefinition und entsprechende organisatorische Betrachtungen. Die verschiedenen Verwendungszwecke der Ergebnisse der Systemanalyse zeigt ⊡ Abb. 48.17. In der Vergangenheit hat es sich jedoch gezeigt, dass viele Krankenhäuser in dieser Phase – im Grunde also beim Fundament eines Projektes – die Kosten am meisten scheuen, ja oftmals sogar eine Systemanalyse und eine auf die eigenen Bedürfnisse bezogene Anforderungsdefinition ganz auslassen! Bei der Durchführung der Systemanalyse können je nach Erkenntnisinteresse und Projektziel verschiedene Vorgehensansätze angewandt werden: ▬ Horizontales Vorgehen: Bezüglich eines bestimmten Aspektes (z. B. Formularwesen) werden alle betroffenen betrieblichen Einheiten untersucht. ▬ Vertikales Vorgehen: Einige interessierende/alle betroffenen betrieblichen Einheiten werden gesamtheitlich detailliert untersucht.
48
800
Kapitel 48 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
▬ Prozessorientiertes Vorgehen: Alle Aspekte werden entlang definierter betrieblicher (Haupt-)Prozesse – auch organisationseinheitsübergreifend – erhoben.
V
An Aktivitäten sind hier in Anlehnung an Haas (1989) durchzuführen: ▬ Einflussgrößenanalyse, ▬ Ausstattungsanalyse (Personal, eingesetzte IT-Systeme und Datenhaltungssysteme, Hardware und Betriebssysteme, sonstige Geräte), ▬ Strukturanalyse (Räume, Netzinfrastruktur etc.), ▬ Mengengerüste (Fallzahlen, Leistungszahlen etc.), ▬ Kommunikationsanalyse, ▬ Dokumentationsanalyse, ▬ Organisationsanalyse, ▬ Abrechnungsanalyse, ▬ Schwachstellenanalyse. Dabei liegen die Schwerpunkte bzw. der Hauptaufwand aufgrund der differenzierten und komplexen medizinischen Dokumentation und der stark arbeitsteiligen Organisation meist auf: ▬ der Dokumentationsanalyse – medizinisch/abrechnungs- und controllingbezogen/ gesetzlich; ▬ der Organisationsanalyse, u. a. der Analyse von Hauptprozessen – Aufnahme, Entlassung, Verlegung, Notaufnahme, – Auftragskommunikation (Organisationsmittel?, Koordination?), – Befundkommunikation, – Befundschreibung, – interne übergreifende Abläufe (medizinisch – admininistrativ). Die aufgeführten Analysen sind mit Ausnahme von abteilungsübergreifenden Prozessanalysen i. d. R. fachabteilungsbezogen durchzuführen bzw. bezogen auf isoliert betrachtbare Leistungsstellen. Oftmals wird aus Zeit- oder Finanzgründen oder aus politischen Gründen auf eine Schwachstellenanalyse verzichtet. Gerade aus der Schwachstellenanalyse können die möglichen Effektivierungs- und Verbesserungspotentiale durch eine IT-Lösung sowie die Anforderungen an ein zu beschaffendes System besonders gut abgeleitet werden. Schwachstellenanalyse bedeutet aber, offen und ehrlich diese zu erarbeiten, zu benennen und zu kommunizieren – was im Grunde die Schaffung eines »Organisationsqualitätszirkels« bedeutet und daher gern umgangen wird. Am Ende der Systemanalyse steht eine entsprechend strukturierte Analysedokumentation, die als Basis für alle nachfolgenden Phasen dient.
Pflichtenhefterstellung Diese Phase kann in die Teilphasen eingeteilt werden: ▬ Erstellung der Sollkonzeption, ▬ Erstellung der fachlichen Anforderungsdefinition und ▬ Erstellung des Pflichtenhefts. Die Sollkonzeption (⊡ Abb. 48.18) dient dazu, auf Basis der Ergebnisse der Systemanalyse das organisatorische, technische und IT-verfahrenstechnische Soll zu erarbeiten und zu definieren. Dies sollte möglichst unter Berücksichtigung der Gestaltungsdimensionen betrieblicher Informationssysteme geschehen. Dabei muss es v. a. darum gehen, orientiert an den betrieblichen Zielen und an den gefundenen Schwachstellen eine klare Projektion des Projektendzustands (also welche betrieblichen Tätigkeiten bzw. Prozessketten sollen unterstützt werden, welche Informationsobjekte sind zu verwalten etc.) zu entwickeln. Darüber hinaus ist es zu diesem Zeitpunkt möglich, unter Berücksichtigung der verschiedenen zur Verfügung stehenden Informationsquellen sowohl eine Überprüfung der strategischen Ziele als auch eine differenzierte Ableitung der operativen Ziele des Einsatzes des IT-Systems vorzunehmen. Die Erarbeitung einer Sollkonzeption unter Berücksichtigung der oben angeführten Faktoren lässt sich in idealer Weise durch moderierte Workshops durchführen. Diese können einerseits auf Leitungsebene als auch auf operativer Ebene durchgeführt werden, der Moderator hat dabei die Ergebnisse der Systemanalyse als Hintergrund und kann so die interaktive Erarbeitung steuern. Am Ende steht ein von allen Beteiligten mit erarbeitetes und akzeptiertes Sollkonzept, was erheblich zur Akzeptanz des weiteren Projektverlaufs beiträgt. Dieses Sollkonzept wird danach weiter zu einer Anforderungsdefinition ausgebaut, die alle funktionalen, bedienungs- und organisationsbezogenen Anforderungen an das System enthält und zentraler Bestandteil des Pflichtenhefts ist. Die Formalisierung und Operationalisierung der Anforderungen sowie Ergänzung um allgemeine Prinzipien für Informationssysteme steht dabei im Mittelpunkt. Dabei sollten alle für die Entscheidung und den Kaufvertrag wichtigen Anforderungen in struk-
⊡ Abb. 48.18. Einflussfaktoren auf und Quellen für die IT-Sollkonzeption
801 48.7 · Auswahl und Einführung von Krankenhausinformationssystemen
turierter und eindeutig beantwortbarer Form enthalten sein. Zur Beantwortung notwendiger Zusatzinformationen sind entsprechend beizufügen. Die Ausschreibung sowie die darauf basierenden Angebote sollten sich in die in ⊡ Abb. 48.19 gezeigten Teile gliedern. Für den allgemeinen Teil der Ausschreibung (Einleitung, Bedingungen, Rahmenbedingungen) gelten: ▬ klare Vorgaben zum Ausfüllen bzw. Beantworten der Anforderungen, ▬ eindeutige Teilnahmebedingungen (z. B. Mindestanforderungen), ▬ Abgabetermin festlegen, ▬ Ansprechpartner benennen für Rückfragen, ▬ zeitlich beschränktes Gespräch anbieten (Alternative: Anhörung), ▬ zeitliche Vorstellungen zum Gesamtverlauf, ▬ wichtige Rahmenbedingungen darstellen: – qualitativ: z. B. IT-Umfeld, Schnittstellen, bauliche Struktur, vorhandene Verkabelung etc., – quantitativ: Mengengerüste für Fallzahlen, Untersuchungshäufigkeiten, Anzahl Benutzer etc. Wichtige einzelne Aktivitäten sind in dieser Phase: ▬ Zieldefinition erweitern unter Einbeziehung der Unternehmensziele und IT-Richtlinien. ▬ Erarbeiten einer Sollkonzeption z. B. unter Zugrundelegung von Fragen wie – Welche erkannten Schwachstellen sollen beseitigt werden? – Wo liegen Effektivierungspotentiale? – Wo und wie kann die Qualität des ärztlichen/medizinischen Handelns unterstützend verbessert werden? – usw. ▬ Stufenplan zur Zielerreichung definieren.
▬ Entscheidende Rahmen-/Randbedingung festlegen. ▬ Machbarkeits- und Finanzierbarkeitsanalyse. ▬ Bildung einer repräsentativen Definitions- und Auswahlgruppe. ▬ Markterkundung. ▬ Funktionale Anforderungsdefinition erstellen unter – breiter Einbeziehung der Anwender, – Berücksichtigung von Standards hinsichtlich Gliederung, IT-Standards etc. (Goldschmidt 1999; Haas u. Pietrzyk 1996; Teich et al. 1999), – Berücksichtigung des Mach- und Finanzierbaren, – notwendiger sich aus Sollkonzeption und Anforderungsdefinition ergebender Variabilität der Lösung, – Definition der möglichen Stufen und Zeitpläne. ▬ Fortschreibung der Anforderungsdefinition zum Pflichtenheft. ▬ Erstellung der Ausschreibung auf Basis des Pflichtenheftes. ▬ Durchführung der formalen Ausschreibung. Wichtig ist, hier darauf zu achten, dass das Pflichtenheft nicht zu grob und andererseits auch nicht zu fein gegliedert ist. Die Forderung bestimmter Feldlängen erscheint z. B. als wenig hilfreich, wenn nicht sogar kontraproduktiv. Der Teil »Anforderungskatalog« ist weiter untergliedert nach verschiedenen funktionalen, technischen und strategischen Gesichtspunkten. Eine beispielhafte Aufgliederung, von der aus weiter detailliert werden kann, zeigt ⊡ Abb. 48.20. Den größten Schwachpunkt stellt oftmals der Anforderungskatalog mit nicht genügend präzise formulierten Fragen/Anforderungen oder im Gegensatz dazu zu vielen Antwortmöglichkeiten dar.
⊡ Abb. 48.19. Gliederung von Ausschreibung und Angeboten
48
802
Kapitel 48 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
V
⊡ Abb. 48.20. Beispielhafte Aufgliederung des Anforderungskataloges mit einigen beispielhaften Gewichtungen
Im Wesentlichen sind folgende Beantwortungsmöglichkeiten denkbar: ▬ Freitext Auf Fragen kann mit umfangreichen Erläuterungen geantwortet werden (Beispiel: »Stellen Sie dar, wie die Aufnahme von Patienten erfolgt.«). Von solchen Fragentypen ist strikt abzuraten! Ein Vergleich der Angebote bzw. der Antworten ist – wenn überhaupt – nur mit sehr viel Aufwand möglich und immer interpretationsabhängig. ▬ Kategorien und Erläuterungen Sie erzwingen zwar eine definitive Antwort (z. B. »Ist die KV-Abrechnung vorhanden?« »Ja« – »nein« – »Erläuterungen: ...«), aber oftmals kann die kategorisierte Antwort versteckt in den Erläuterungen relativiert werden. Spätestens bei Streitigkeiten im Rahmen der Vertragserfüllung werden diese Fragentypen zu kritischen Punkten. ▬ Kategorien Eine Antwort ist nur auf Basis definierter Kategorien (»vorhanden« – »teilweise vorhanden« – »nicht vorhanden« oder »ja«/«nein« etc.) möglich. Dadurch werden die Bewertung der Angebote und deren Vergleich zum formalen Akt immer nachvollziehbar (keine Interpretationsunschärfen). Darüber hinaus ist es manchmal sinnvoll und auch zulässig, als Antwort eine Maßzahl zuzulassen (z. B. Anzahl maximal anschließbarer Geräte, Mindestspeicherplatz, Häufigkeit des Maskenwechsels für gewisse Arbeiten etc.).
Auswahl Nach Eingang der Angebote sind diese auszuwerten. Die Angebotsauswertung betrifft einerseits den formalen Angebotsteil, andererseits die außerhalb von diesem gegebenen Rahmenbedingungen. Der formale Anforderungsteil sollte vor Eingang der Angebote gewichtet werden. Dabei werden pro Ebene in der Anforderungshierarchie z. B. je 100 Punkte vergeben (⊡ Tab. 48.1). Anhand der Antworten der Anbieter kann dann für den gesamten Anforderungsteil eine Gesamtpunktzahl errechnet werden, die ein Maß für die Anforderungserfüllung ist. Es wird auf das gängige Verfahren der Nutzwertanalyse verwiesen. Ein wichtiger Schritt ist nach Eingang der Angebote als erstes eine Filterung dieser, sodass die unvollständigen oder die die Ausschlusskriterien nicht erfüllenden Angebote nicht in den weiteren – arbeitsaufwändigeren – Auswahlprozess einbezogen werden. Des Weiteren sind folgende Hauptschritte zu durchlaufen: ▬ Bewertung entsprechend der festgelegten Gewichtungen, ▬ Ermittlung der Gesamtkosten (Einmalkosten/laufende Kosten), ▬ Ermittlung der Kosten je Punkt, ▬ Ermittlung der Rangfolgen (nach absoluter Punktzahl/nach Kosten pro Punkt). Die beiden Rangfolgen können recht aufschlussreich sein. Während erstere angibt, wer funktional »am meisten«
803 48.7 · Auswahl und Einführung von Krankenhausinformationssystemen
bietet, gibt die zweite Rangfolge an, wer »das günstigste« Produkt liefert – jedoch unabhängig vom Zielerreichungsgrad. Je nach dem, ob beide Folgen übereinstimmen oder stark voneinander abweichen, muss eine strategische Bewertung hinsichtlich verfügbarer Funktionalität und verfügbarer Mittel vorgenommen werden. Am Ende des Auswahlprozesses sollten 2 bis maximal 3 Anbieter verbleiben, für deren Lösung dann Vor-OrtBesichtigungen (d. h. Einsatz im Echtbetrieb) erfolgen bzw. vorgeschaltete Inhouse-Präsentationen unter Beteiligung aller Mitglieder der Projektgruppe. Hilfreich ist es auch, für Präsentationen im Hause des Anbieters (also nicht bei Vor-Ort-Besichtigungen) eigene Fallstudien oder Fälle vorzugeben und diese im Rahmen der Präsentation abarbeiten zu lassen. Wichtige einzelne Aktivitäten sind in dieser Phase sind: ▬ Fortsetzung und Intensivierung der informellen Markterkundung; ▬ Definition von typischen betrieblichen Geschäftsvorfällen, sprich medizinischen Handlungsketten als Fallstudien für die Lösungsbegutachtung; ▬ Angebotsauswertung ggf. unter – Nachfragen, Präzisieren, – Formalbewertung und Priorisierung, – Lösungsbegutachtung, – Referenzkundenbesuche, ▬ informelle Nacherkundung/Validierung; ▬ Entscheidungsfindung und Entscheidung; ▬ Fixierung notwendiger produktbezogener Ergänzungen/Änderungen: – Abklären von Unklarheiten bei existierenden Modulen, – Definition der gemäß Pflichtenheft notwendigen Anpassungen/Erweiterungen.
Vertragsgestaltung Die Vertragsgestaltung auf Basis der Ausschreibung sollte fachmännisch begleitet werden. In der Vergangenheit allzu oft strapaziertes »Glauben« von Zusicherungen sollte vertraglich in geschuldete Leistungen umgemünzt werden. Die Hinzuziehung von Rechtsexperten des Software-Rechts kann hier frühzeitige Klärungen bringen und Enttäuschungen vorbeugen. Die Vertragsgestaltung umfasst nicht nur den Erwerb von Nutzungsrechten, sondern auch die Vereinbarung notwendiger Dienstleistungen, um das Informationssystem zu installieren und einzuführen. Damit kommt auch einer klaren Definition der Aufgabenteilung und Verantwortlichkeiten besondere Bedeutung zu. Wichtige einzelne Aktivitäten sind in dieser Phase: ▬ Spezifikation/Fixierung von Änderungen/Ergänzungen, ▬ Definition des externen Dienstleistungsangebots,
▬ Definition der vertraglichen Leistung: Nutzungsrechte und Pflege und Dienstleistungen, ▬ Definition des Einführungsprojekts, ▬ Definition der Aufgabentrennung Lieferant/Kunde, ▬ Definition der Verantwortlichkeiten. Hinsichtlich der kritischen Faktoren bei der Vertragsgestaltung wird auf Zahrnt (1999) verwiesen.
Abnahme und Einführung Nach Balzert (1998) erfolgt im Rahmen der Abnahmephase die Übergabe des Gesamtprodukts an den Auftraggeber, der dann mittels geeigneter funktionaler und mengenorientierter Abnahmetests das Produkt auf die Erfüllung der vertraglich zugesicherten Leistungen überprüft. Im Krankenhaus sind dazu eine ganze Reihe von Vorarbeiten notwendig, die der Systembereitstellung für den produktiven Betrieb gleichkommen. Insofern sind die für die Einführung notwendigen Arbeiten schon vor der Abnahmephase notwendig, oftmals kann die Abnahme aufgrund der Unmöglichkeit, die reale Betriebssituation zu testen, erst nach einer Testphase im Echtbetrieb erfolgen. Die Einführung selbst kann eingeteilt werden in Vorbereitung, Systembereitstellung, Systemadaption und -einrichtung, Schulung, Vorbereitung der Inbetriebnahme und Inbetriebnahme. Wichtige einzelne Aktivitäten sind: ▬ Rechtzeitige Schaffung der technischen Voraussetzungen. – Lokalisation und räumliche Gegebenheiten für Endgeräte geklärt? – Verkabelung technisch und zeitlich geklärt? – Aufstellungsort für Server geklärt? ▬ Hardware-Beschaffung, falls nicht integraler Teil der geschuldeten Leistung. ▬ Installation einer Projektierungs- (Test-) und Schulungsumgebung. ▬ Schulungs- und Betreuungskonzept (z. B. Multiplikatorenprinzip) festlegen. ▬ Stammdatenerhebung, Sammlung notwendiger Unterlagen. ▬ Schulung Systembetrieb und Projektierungsgruppe für: – Betriebssystem, – Datenbanksystem, – Anwendungsfunktionen. ▬ Stammdatenerfassung (Leistungskataloge, Organisation, Mitarbeiter etc.). ▬ Eventuell Datenübernahme aus Altsystem in Testumgebung, Bereinigung und Restrukturierung. ▬ Parameterisierung von funktionalen Aspekten (WorkFlow, dynamische Masken etc.). ▬ Schnittstellenimplementierung/-test.
48
804
V
Kapitel 48 · Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl
▬ Schulungsplan für zeitgerechte Schulung aller Mitarbeiter. ▬ Information aller betroffenen Mitarbeiter. ▬ Organisation Systembetrieb. ▬ Organisation First-/Second-Level-Support, Störungsdienst, Rufbereitschaft. ▬ Installation des gesamten Anwendungssystems (Poduktivumgebung). ▬ Mengen- und Belastungstests. ▬ Schnittstellenimplementierung/Integrationstest. ▬ Einrichten der Produktionsumgebung. ▬ Altdatenübernahme in die Produktionsumgebung. ▬ Überprüfung aller Voraussetzungen: – Sind alle notwendigen Schnittstellen implementiert? – Sind alle Schnittstellen funktionsfähig? – Sind alle Stammdaten erfasst/Altdaten eingespielt etc.? ▬ Anwenderdokumentationen verteilen.
Frühe Betriebsphase In der frühen Betriebsphase kommt es v. a. darauf an, den Anwender nicht allein und den Betrieb »laufen« zu lassen. Orientiert am Sollkonzept müssen nun die angestrebten Effekte überprüft und ggf. weitere betriebliche oder systemtechnische Optimierungen vorgenommen werden. Darüber hinaus sollte auch die Benutzerakzeptanz in den ersten Wochen kontinuierlich überprüft werden, um hieraus Rückschlüsse auf notwendige organisatorische Änderungen oder die Notwendigkeit für Nachschulungen zu ziehen. ▬ Organisation überprüfen/optimieren ▬ Performance-Evaluation und systemtechnische Optimierung ▬ Überprüfung der korrekten Nutzung ▬ Evaluation der Benutzerakzeptanz ▬ Gegebenenfalls Nachschulungen durchführen ▬ Überprüfung der Systemfunktionalität (Pflichtenheft vs. Istzustand), ggf. Nachspezifikation bzw. Nachforderungen auf Nachbesserungen
Weitere, nicht phasenbezogene Einflussfaktoren ▬ Kontinuierliche Information und Identifikation des Managements ▬ Kontinuierliche Einbeziehung und Information der Mitarbeiter ▬ Lösungsanbieter/Hersteller ▬ Anwendungssystem – Benutzeroberfläche/Aufgabenangemessenheit – Betreuungsaufwand – Flexibilität/Adaptibilität – Anwenderdokumentation – Systemdokumentation – Auslegung der Hardware ▬ Konzepte des Herstellers
48.8
Zusammenfassung
Krankenhausinformationssysteme sind ein entscheidender Faktor für ein erfolgreiches Management von Krankenhäusern. Das Nutzenpotential ist hoch, erschließt sich aber nur bei einem flächendeckenden Einsatz in allen Bereichen und an allen Arbeitsplätzen. Hinsichtlich der technischen Architektur besteht die Wahl zwischen dem Einsatz eines holistischen oder aber eines heterogenen, aus mehreren Systemen zusammengesetzten Gesamtsystems. Die Einführung von Informationssystemen in Krankenhäusern bedarf weit mehr eines behutsamen Vorgehens, als dies in vielen anderen Branchen der Fall ist. Zum einen, da die Kernaufgaben – nämlich die direkte Behandlung und Betreuung von kranken Menschen, die Zuwendung zu diesen, das richtige Eingehen auf sie, der persönliche Kontakt und Bezug – nicht durch den IT-Systemeinsatz gestört werden dürfen. Das System als Werkzeug, muss im Hintergrund bleiben. Zum anderen, weil im sensiblen Umfeld Ängste bei Personal und Patienten abzubauen bzw. zu verhindern sind. Dies ist ein gravierender Unterschied zum IT-Einsatz in den meisten anderen Branchen, wo Kernaufgaben (z. B. das Umgehen mit Buchungssätzen, das Verwalten von Materialien, deren Ausgabe etc.) direkt durch den Einsatz von IT-Systemen modifiziert und verändert werden. Damit aber kommt einer adäquaten Beteiligung der betroffenen Anwender am gesamten Prozess der Systemauswahl besondere Bedeutung zu (Buchauer 1999). Kritische Erfolgsfaktoren für die Einführung von Krankenhausinformationssystemen sind vielfältig, und alle aufgeführten Aktivitäten der vorangehend beschriebenen Projektphasen können insofern in sich schon als kritischer Erfolgsfaktor gesehen werden. Welche Fragen jedoch im Kern als besonders kritisch angesehen werden, sind in der Übersicht formuliert.
Fragestellungen bzgl. kritischer Erfolgsfaktoren für die Einführung von Krankenhausinformationssystemen
▬ Ist das Projektziel klar genug definiert (nicht IT um der IT willen)?
▬ Sind die Rahmenbedingungen (finanziell/ organisatorisch/innenpolitisch) geklärt?
▬ Ist eine klare Projektorganisation festgelegt? ▬ Sind alle Verantwortlichkeiten und Konsequenzen ▬ ▬ ▬ ▬ ▼
ausreichend festgelegt, damit das Ziel auch erreicht werden kann? Steht das Management hinter dem Projekt? Ist das Projekt personell adäquat ausgestattet? Gibt es einen klaren Projektzeitplan? Sind die Mitarbeiter frühzeitig und ausreichend informiert?
805 Literatur
▬ Ist eine Systemanalyse Basis für ein Sollkonzept, ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
welches selbst wieder als Basis für die Anforderungsdefinition dient? Ist eine ausreichende Mitarbeiterbeteiligung bei der Anforderungsdefinition und dem Auswahlprozess sichergestellt? Ist das Pflichtenheft adäquat differenziert und realistisch angelegt? Ist der Auswahlprozess transparent? Ist das Vertragswerk ausreichend ausgearbeitet, und gibt es Regelungen bei (teilweiser) Nichterfüllung zugesicherter Leistungen? Gibt es einen klaren realistischen Einführungsplan? Wird ausreichend Schulung angeboten? Ist die Implantation des Systems in den betrieblichen Alltag hinein ausreichend durchdacht? Sind alle betriebsnotwendigen Schnittstellen ausreichend getestet? Gibt es eine geeignete Strategie und Werkzeuge für die Anwenderbetreuung? Erfolgt eine kontinuierliche Überprüfung der richtigen Nutzung nach der Einführung? Genügt die Lösung den Standards hinsichtlich der Ergonomiekriterien?
Werden die dort aufgeführten Aspekte ausreichend berücksichtigt, kann das so erfolgreich eingeführte Krankenhausinformationssystem einen wesentlichen Beitrag zum Unternehmenserfolg des Krankenhauses leisten.
Literatur Ammenwerth E, Haux R (2005) IT-Projektmanagement in Krankenhaus und Gesundheitswesen. Schattauer, Stuttgart Balzert H (1998) Lehrbuch der Software-Technik: Software-Management. Spektrum, Heidelberg Bates DW (2005) Computerized physician order entry and medication errors: finding a balance. In: J Biomed Inform Aug; 38(4): 259–61 Bates DW, O’Neil AC, Boyle D et al. (1994) Potential identifiability and preventability of adverse events using information systems. J Am Med Inform Assoc 1/5: 404–411 Bates DW, Gawande AA (2003) Improving safety with information technology. In: Engl J Med 2003, 348: 2526–34 Boese J, Karasch W (1994) Krankenhausinformatik, Schriften der Gesundheitsökonomie. Blackwell (Wissenschafts-Verlag), Berlin Buchauer R (1999) Einführung von Pflegeinformationssystemen – Erfahrungen und Konsequenzen. In: Forum der Medizin_Dokumentation und Medizin_Informatik 1: 12 ff Bullinger H-J (1991) Unternehmensstrategie, Organisation und Informationstechnik im Büro. In: Müller-Böling et al. (Hrsg) Innovations- und Technologiemanagement. Poeschl, S 323–344 Clayton PD et al. (1992) Costs and cost justification for integrated information systems in medicine. In: Bakker et al. (eds) Hospital information systems – scope – design – architecture. North Holland, Amsterdam, p 133–140
Conrad, S., Hasselbring W., Koschel A., Tritsch R. (2006): Enterprise Application Integration. Grundlagen – Konzepte – Entwurfsmuster – Praxisbeispiele. Elsevier, München. Dolin RH et al. (1999) HL7 document patient record architecture: an XML document architecture based on a shared information model. In: Lorenzi NM (ed) Proceedings AMIA Symposium: 52–56 Goldschmidt AW (1999) Pflichtenheft – Einführung und Überblick. In: Ohmann et al. Herausforderungen in der Informationsverarbeitung an den Universitätskliniken des Landes NRW. Shaker: 147ff. Haas P (1989) Standardsystemanalyse im Krankenhaus. Praktischer Leitfaden. Universität Heidelberg, Abt. Med.-Informatik Haas P, Pietrzyk P (1996) Generelle Projektphasen und Vorgehensweisen bei der Systemauswahl. In: Haas et al. (Hrsg) Praxis der Informationsverarbeitung im Krankenhaus. Ecomed, Erlangen, S 113 ff Haas, P (2005) Medizinische Informationssysteme und Elektronische Krankenakten. Springer, Berlin, Heidelberg, New York Heinrich LJ, Lehner F (2005) Informationsmanagement – Planung, Überwachnung und Steuerung der Informationsinfrastruktur. Oldenbourg, München Wien Henke R (1999) Keine Netze ohne Kliniken. In: Führen und Wirtschaften 2: 98 ff. HL7 standards: HL7 version 3. Health Level Seven Inc., Ann Arbor/MI, http:/www.hl7.org/library/standards.cfm, letzer Zugriff 18. Oktober 2000 Kuhn K, Haas P (1997) Informationsverarbeitung im Krankenhaus. In: Das Krankenhaus 2: 65 ff Kohn LT, Corrigan JM, Donaldson MS (eds) (2000) To err is human: Building a safer health system. Institute of Medicine, Committee on Quality of Health Care in America. National Academy Press, Washington Leape LL (1997) A systems analysis approach to medical error. J Eval Clin Pract 3/3: 213–322 McDonald CJ, Overhage JM, Tierney WM et al. (1999) The Regenstrief Medical Record System: a quarter century experience. Int J Med Inf 54/3: 225–253 Pietsch Th, Martiny L, Klotz M(2004) Strategisches Informationsmanagement, 4. Aufl. Erich Schmidt, Berlin Seibt D (1991) Informationssystem-Architekturen – Überlegungen zur Gestaltung von technikgestützten Informationssystemen für Unternehmungen. In: Müller-Böling et al. (Hrsg) Innovations- und Technologiemanagement. Schäffer-Poeschl, Stuttgart: 251–280 Teich JM, Glaser JP, Beckley RF et al. (1999) The Brigham integrated computing system (BICS): advanced clinical systems in an academic hospital environment. Int J Med Inf 54/3:197–208 Winter A et al. (1998) Systematische Auswahl von Anwendungssoftware. In: Herrmann et al. (Hrsg) Praxis der Informationsverarbeitung im Krankenhaus. Ecomed, Erlangen: 61 ff. Zahrnt C (1999) Empfehlungen zum Erwerb und zur Wartung/Pflege von DV-Systemen. Tagungsdokumentation der 4. Fachtagung »Praxis der Informationsverarbeitung im Krankenhaus«, 07.–08.05.99 Mai in Dortmund
48
49 Stand, Möglichkeiten und Grenzen der Telemedizin in Deutschland* R. Klar, E. Pelikan 49.1 Besonderheiten der deutschen Telemedizin – 808 49.1.1 Förderung von Einzelprojekten – 808 49.1.2 Rechtliche Maßnahmen zur Überwindung der Nachteile des fragmentierten Gesundheitswesens – 808 49.1.3 Elektronische Gesundheitskarte, Heilberufeausweis und amtliche Gesundheitstelematik – 809 49.1.4 Ärztliche Schweigepflicht, Datenschutz und Persönlichkeitsrecht – 810 49.1.5 Technische Standards – 810
Unter Telemedizin versteht man die Nutzung von Telekommunikation und Informatik für medizinische Anwendungen. Sie soll die Qualität, Wirtschaftlichkeit und Transparenz der medizinischen Versorgung verbessern. Telemedizin nutzt die Instrumente der Telematik, um die Kommunikation und Interaktion zwischen Arzt und Patient und zwischen Ärzten im Rahmen einer ärztlichen Versorgung über räumliche Distanzen hinweg zu unterstützen. In stark wachsendem Umfang sind weltweit, z. B. 10-mal pro Jahr im eJournal »Telemedicine and eHealth« [1] oder für Deutschland im jährlichen Sammelband »Telemedizinführer Deutschland« [2], unzählige telemedizinische Einzelprojekte mit oft eindrucksvollen Lösungen beschrieben. Wichtige telemedizinische Konzepte und Lösungen werden von diversen wissenschaftlichen oder praxisorientierten Fachgesellschaften, Institutionen oder der Industrie entwickelt, wie von der Deutschen Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie [3], der Deutschen Gesellschaft für Gesundheitstelematik [4] oder der Deutschen Gesellschaft für Telemedizin [5] sowie von vielen IT-Firmen, vereint im Verband der IT-Hersteller im Gesundheitswesen [6], und von diversen Institutionen wie dem Zentrum für Telematik im Gesundheitswesen [7], der Gesellschaft für Telematikanwendungen der Gesundheitskarte (gematik) [8] und dem Deutschen Institut für Medizinische Dokumentation und Information (DIMDI) [9] (besonders erwähnt seien hier seine Anstrengungen zur semantischen Interoperabilität). Es sind auch europä-
* Dieser Beitrag ist zuerst erschienen im Bundesgesundheitsblatt (2009; Heft 3: 263–269)
49.1.6 Akzeptanz und Nutzen bei verschiedenen Akteuren der Telemedizin – 811 49.1.7 Konsequenzen aus den deutschen Besonderheiten für die Telemedizin – 812
Literatur
– 812
ische Institutionen involviert wie die European Medicine Agency (EMEA) mit ihren Funktionen zum regulatorischen Datenverkehr für Pharmazeutika [10]. Dabei wird auch versucht, den Nutzen der Telemedizin für den Patienten und Bürger, für die beteiligten Ärzte sowie für sonstige Stellen des Gesundheitswesens zu evaluieren. Wenn auch der qualitative Nutzen manchmal schwer zu messen ist, steht er doch im Vordergrund der telemedizinischen Ziele. Bei häufigen Erkrankungen wie Diabetes mellitus (VDE: »Telemedizin spart Milliarden ein bei Behandlung von Diabetes«) [11] oder Herzinsuffizienz [12, 13] werden besonders hohe Ziele angestrebt, aber noch kaum erreicht. Für eine Fülle anderer Krankheiten mit geringerer Prävalenz ist der Nutzen der Telemedizin aber bereits klar erkennbar. Der quantitative Nutzen der Telemedizin wird ebenfalls gerne angegeben und soll z. B. für das Gesundheitswesen in den USA bei elektronischen Verschreibungen – bei uns eRezepte genannt – bei unglaublichen 27 Milliarden $ pro Jahr liegen und zusätzlich jährlich 130000 schwere Medikationsfehler vermeiden [14].Typisch für solche Erfolgsschätzungen ist aber auch, dass wie in diesem Beispiel der Aufwand und die Akzeptanzprobleme für das eRezept in den USA nicht erwähnt werden. Immerhin gibt es aber zum eRezept in Deutschland durchaus auch kritische Darstellungen, die diese Probleme diskutieren [15]. Es fällt bei den vielen telemedizinischen Einzelprojekten auf, dass sie doch in der Regel zumindest in Deutschland isoliert nebeneinander stehen und eher Projekte und noch keine Produkte sind. Großvorhaben für das ganze Gesundheitswesen sind nötig, um die Interaktion zwischen einem Telemedizinprojekt und den konventionellen
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _49, © Springer-Verlag Berlin Heidelberg 2011
808
V
Kapitel 49 · Stand, Möglichkeiten und Grenzen der Telemedizin in Deutschland
Informationssystemen sowie anderen Telemedizinprojekten zu erleichtern. Fehlerträchtige und aufwändig zu lösende Diskrepanzen und Systemunterschiede zwischen verschiedensten Dokumentationsformen sind zu vermeiden, eine harmonisierte Interoperabilität (technisches, inhaltliches sowie organisatorisches und prozessorientiertes Zusammenspiel) zwischen verschiedenen Techniken der Kommunikation und Speicherung ist notwendig, die Betriebsabläufe im medizinischen und administrativen Versorgungsgeschehen sind zu berücksichtigen, und vor allem sind die Schnittgrenzen besonders zwischen ambulanter und stationärer Versorgung und den weiteren Sektoren unseres Gesundheitswesens zu überwinden. Zur Lösung dieser Probleme der Telemedizin kann die 2006 begonnene Einführung der elektronischen Gesundheitskarte (eGK) und die damit verbundene Gesetzgebung zur Gesundheitstelematik wesentlich beitragen. Die diesbezüglichen Fortschritte sind allerdings gegenüber der ursprünglichen Planung erheblich verzögert, für Außenstehende kaum nachvollziehbare Entscheidungen erschweren dies Vorhaben, und generell wird eine »zunehmende Müdigkeit« sogar von führenden Protagonisten der Telemedizin (Semler) festgestellt [16]. Wir möchten daher im vorliegenden Beitrag die Vorteile der Telemedizin für Deutschland, ihren derzeitigen Status, aber auch ihre Grenzen kritisch darstellen. Wir werden dabei auch kurz auf eigene Erfahrungen mit Telemedizinprojekten am Universitätsklinikum Freiburg eingehen, um unsere Einschätzungen exemplarisch zu verdeutlichen. Über die Einbettung der Telemedizin in die Gesundheitstelematik insgesamt in Deutschland haben wir an anderer Stelle ausführlicher berichtet [17].
49.1
Besonderheiten der deutschen Telemedizin
Die deutsche Telemedizin weicht in einigen Aspekten deutlich von der in anderen Ländern ab und zeigt daher andere, leider meist weniger suffiziente Ausprägungen, zumindest, wenn es um sektorübergreifende Projekte geht, wie z. B. um die Übertragung von Diagnosecodes vom Krankenhaus zur KV/Krankenkasse mal mit, mal ohne Zusatzkennzeichen und natürlich in unterschiedlicher Syntax. Es sollen daher hier die wichtigsten Eigenarten der deutschen Telemedizin und ihre Rahmenbedingungen aufgeführt werden, sodass auch die Gründe für diese Abweichungen deutlich werden.
49.1.1 Förderung von Einzelprojekten
Die Einführung neuer Technologien in das Gesundheitswesen beginnt durchaus sinnvoll und zweckmäßig mit überschaubaren kleinen Pilotvorhaben. So wurde auch
in den Vorstufen für eine deutsche Telemedizin schon in den 1980er-Jahren z. B. die radiologische Bildspeicherung und Bildübertragung (PACS) [18] innerhalb eines Krankenhausinformationssystems (KIS) [19] erfolgreich erprobt. Viele Erfahrungen zur Technik, DV-Organisation, zu Standards der Bildkompression, der Vernetzung, Bild- und Textübertragung etc. konnten somit gewonnen werden, die auch für eine Ausweitung zur echten Telemedizin, hier Teleradiologie, die über die einzelne Versorgungseinheit hinausreicht, äußerst nützlich sind. Solche Vorhaben wurden und werden immer noch relativ großzügig gefördert, und die Fachliteratur, z. B. der »Telemedizinführer Deutschland« [2], beschreibt jedes Jahr nun in der 9. Ausgabe Dutzende solcher meist eindrucksvoller Projekte. Diese Vorhaben kranken aber regelmäßig an zwei Grundproblemen: ▬ Sie sind meist nur für kleine überschaubare Sonderanwendungen geeignet, da ihnen für die Massenanwendung in der Routineversorgung die einfach zu handhabenden Schnittstellen zur Datenübernahme/ Datenübergabe zu den vorhandenen IT-Systemen fehlen. Nur bei medizinischen Spezialaufgaben wird die Zusatzarbeit der redundanten Datenverarbeitung und Datenkontrolle und der zusätzlichen Abläufe geduldet. In Ländern mit weitgehend einheitlicher IT-Struktur für das Gesundheitswesen (wie in Großbritannien) ist dieses Problem einfacher lösbar, da die Schnittstellenvielfalt erheblich kleiner ist. ▬ Die Einzelprojekte der Telemedizin wachsen kaum einmal über die Versorgungseinheit hinaus. Das deutsche Gesundheitswesen ist im Gegensatz zu den mehr staatlich oder zentral organisierten Versorgungsformen von Ländern wie den Niederlanden, Dänemark, Schweden oder Norwegen zersplittert, hochkomplex und mit vielfältigen heterogenen Zuständigkeiten konstruiert (haben Sie einmal versucht, einem Ausländer zu erklären, wie z. B. eine KV oder die Selbstverwaltung funktionieren?). Für unsere Telemedizin bedeutet das, dass die schönen Erfolge solcher Einzelprojekte nicht einfach für das ganze Gesundheitswesen fortgeschrieben werden können. Es ist eine ganz erhebliche Zusatzförderung speziell zur Ausweitung über Sektorgrenzen hinweg und zur Integration von Einzelprojekten erforderlich.
49.1.2 Rechtliche Maßnahmen zur
Überwindung der Nachteile des fragmentierten Gesundheitswesens Auch wenn eine solche großzügige Förderung zur Integration der Einzel- und Inselprojekte der Telemedizin gewährt würde, kann sie nicht allein die Grenzen des sektoralen Gesundheitswesens in Deutschland überwinden. Hierzu sind gesetzliche und andere rechtliche Aktivitäten
809 49.1 · Besonderheiten der deutschen Telemedizin
nötig, die eine telematische Kommunikation im Gesundheitswesen erleichtern und verbessern sollen, und es ist für alle Beteiligte der gute Wille gefordert, im Interesse des Patienten per Telemedizin am gemeinsamen Ziel der besseren und effizienteren Versorgung mit Engagement und Geduld mitzuwirken. Erste, wichtige Schritte sind ja bereits gemacht worden und sind fortzusetzen: Zur Überwindung der höchsten Barriere im Gesundheitswesen, nämlich der zwischen ambulantem und stationärem Sektor, sind in den letzten Jahren mit dem GKV-Modernisierungsgesetz (GKVGMG), dem GKV-Wettbewerbsstärkungsgesetz (GKV-WSG) oder dem Vertragsarztrechtsänderungsgesetz (VÄndG) Medizinische Versorgungszentren oder die Integrierte Versorgung ermöglicht worden [20]. Quer über die Sektoren hinweg können nun medizinische Leistungen des Arztes, der Pflege und Reha, zentralisiert auf spezialisierte Einrichtungen erbracht und abgerechnet werden. Damit wird es erleichtert, telemedizinische Dienste sektorübergreifend zu nutzen. Erste Erfolge zeigen trotz einiger Probleme und handwerklicher Mängel, dass dieser Weg richtig begonnen wurde. Eine weitere Besonderheit in Deutschland ist das komplexe und unübersichtliche Zusammenwirken zwischen der Selbstverwaltung im Gesundheitswesen und den Regierungen in Bund und Ländern. Oft sollen gesetzeskonform zunächst die Selbstverwaltung mit ihren allerdings höchst heterogenen Verbänden der Ärzteschaft, Kassen, Krankenhäuser, Apotheken, Reha etc. gemeinschaftlich Konzepte entwickeln, aber wenn das termingerecht nicht gelingt, müssen die Ministerien kurzfristig per Ersatzvornahme einspringen. Dadurch geht viel Zeit verloren, fehlerträchtige Schnellschüsse passieren, und die harmonische Kooperation leidet.
49.1.3 Elektronische Gesundheitskarte,
Heilberufeausweis und amtliche Gesundheitstelematik Anwendungen der Telemedizin fokussieren auf die medizinische Versorgung, also auf Diagnose- und Therapieunterstützung über räumliche Distanzen hinweg. Insofern ist Telemedizin als ein Teilbereich der Gesundheitstelematik zu sehen. Die geplante Telematikinfrastruktur wird Basisdienste zur Verfügung stellen, die eine Interoperabilität telemedizinischer Verfahren begünstigen werden. Sie stellt insofern eine harmonisierende Infrastruktur dar, die sich mausern könnte, eine integrierende Plattform für weitere eHealth-Anwendungen zu werden. Eine ganz entscheidende Rolle bei den Besonderheiten des Deutschen Gesundheitswesens bezüglich der gesetzlichen Rahmenbedingungen für die Telemedizin spielen daher die amtlich einzuführende elektronische Gesundheitskarte (eGK), der elektronische Heilberufausweis und die
zugehörigen Regelungen für die Gesundheitstelematik [8]. Es handelt sich hier um eines der größten IT-Projekte weltweit, Kostenschätzungen liegen im Bereich einiger Milliarden Euro (zum Vergleich: für die USA werden die Kosten zur Einführung einer eGK auf 150 Milliarden $ geschätzt); 120000 niedergelassene Ärzte, 65000 Zahnärzte, 21000 Apotheker, 2200 Krankenhäuser und viele weitere Beschäftigte im Gesundheitswesen sind involviert und natürlich alle rund 81 Millionen gesetzlich krankenversicherte und privat versicherte Bürger. Die 2003 hierzu beschlossenen Gesetze sahen vor, die eGK bis zum Jahr 2006 als Chipkarte bundesweit einzuführen, was natürlich unmöglich zu erreichen war. Als eine der ersten telemedizinischen Anwendungen soll mit der eGK die elektronische Übermittlung ärztlicher Verordnungen und davon besonders das Rezept verwirklicht werden. Mit diesem eRezept soll für den Patienten die Arzneimittelsicherheit (Kontrolle von Indikation und Kontraindikation, Arzneimittelwechselwirkungen, Dosierungsfragen, Compliance etc.) verbessert werden, und für alle Beteiligte (Arzt, Arzthelferin, Apotheker, Abrechnungsfachkraft etc.) soll das Medikationsgeschehen effizienter ablaufen. Weitere telemedizinische Nutzungen der eGK sind in der elektronischen Patientenakte zu sehen. Leider haben sich inzwischen in nahezu allen Punkten der Gesundheitstelematik und der eGK erhebliche Probleme und große Verzögerungen in Deutschland ergeben, und es scheint sich eine »unerträgliche Geschichte der Gesundheitskarte in Deutschland« [15] zu entwickeln. Bescheidenere Ansätze – wie z. B. der Österreichs – scheinen besser zu gelingen [21]. Leider ist auch das Grundkonzept für die deutsche eGK nicht mit den EU-Nachbarländern oder den EU-Standards [21, 22] vorab abgestimmt und auch die Erfahrungen anderer Länder etwa zur fehlerträchtigen Speicherung der eRezepte auf der eGK (eine der »Sackgassen« der Patientenkarten laut P. Waegemann) [23] statt auf Servern im Netz der Gesundheitstelematik. Dennoch muss anerkannt werden, dass die eGK erstmals ein für die Telemedizin entscheidendes Kriterium erfüllt, nämlich eine Institutionen übergreifende eindeutige Patientenidentifikation einschließlich Möglichkeit zur Authentifizierung und Signatur. Hiermit wird es möglich, alle medizinisch relevanten Daten eines Patienten, die zu unterschiedlichen Zeiten an verschiedenen Stellen im Versorgungsprozess anfallen, patientenbezogen zusammenzuführen und diese den Berechtigten adäquat aufbereitet schnellstens zur Verfügung zu stellen. Übrigens wird in den USA das dortige Fehlen eines »universal patient identifiers« von einer weltweit bedeutenden klinischen Zeitschrift als eine der fünf wichtigsten Hürden zur Einführung einer elektronischen Patientenakte und damit der Telemedizin gesehen [24]. Ohne die eGK, auch wenn sie in einigen technischen und funktionalen Aspekten geändert und ergänzt werden muss, ist in Deutschland eine umfassende Telemedizin nicht erfolgreich auszubauen.
49
810
Kapitel 49 · Stand, Möglichkeiten und Grenzen der Telemedizin in Deutschland
49.1.4 Ärztliche Schweigepflicht,
Datenschutz und Persönlichkeitsrecht
V
Die Beachtung gesetzlicher und ethischer Regeln zur Verschwiegenheit in der Medizin, zur Verhinderung von Missbrauch personenbezogener Daten und generell zur Wahrung der informationellen Selbstbestimmung sind essentielle Anliegen der Telemedizin, die notwendigerweise ein erhöhtes Gefährdungspotential aufweist, da Patientendaten aus dem klassischen Arzt-Patient-Verhältnis auch woanders potentiell verfügbar werden [25, 26]. Dieses Datenschutzthema hat in Deutschland hohe Brisanz gewonnen. So hat der Ärztetag 2007 die eGK als »sozialpolitische Atombombe« hauptsächlich aus Datenschutzbedenken mit deutlicher Mehrheit abgelehnt [27], obwohl die für die Einführung der eGK verantwortliche Betriebsgesellschaft Gematik [8] ein hochdifferenziertes technisches Konzept dafür entwickelt hat. Aber vielleicht ist die Komplexität dieses Konzepts und selbst das daraus konstruierte, laienverständliche White Paper ein wesentlicher Grund für dessen Ablehnung [28]. Hier sind also Aufklärungsarbeit und Gefährdungsanalysen in den Pilotprojekten besonders aus Sicht der enorm wichtigen Zielgruppe Ärzteschaft zu leisten. Aber auch für die Patienten scheint der Umgang mit den bisher einzusetzenden Sicherheitstechniken zur Wahrung des Datenschutzes manchmal schwierig, umständlich und wenig überzeugend. Noch sind die meisten Patienten nicht mit dem PC aufgewachsen, viele sind hoch betagt, dement oder so schwer leidend, dass z. B. die Handhabung der eGK mit PIN, Wirk-PIN oder PUK oder der Nachtrag eines rezeptfreien Medikaments auf die eGK kaum geleistet werden kann. Auch hier sind die Prozesse für den Zugang zur Telemedizin benutzergerecht zu gestalten, Schulungen sind durchzuführen, Überzeugung ist zu vermitteln, und viel Geduld ist gefordert. Natürlich sind einige rechtliche Vorschriften und deren Interpretation zu überdenken. So dürfen laut der Landesbeauftragten für den Datenschutz in NordrheinWestfalen die Notfalldaten auf der eGK nicht in der Aufnahmesituation im Krankenhaus benutzt werden. Sie sind ausschließlich der Behandlung des akuten Notfalls vorbehalten. Damit verliert die als Herzstück der eGK geplante Speicherung der Notfalldaten stark an Relevanz [29].
49.1.5 Technische Standards
Voraussetzung für eine erfolgreiche Anwendung der Telemedizin sind die Interoperabilität der zugrunde liegenden Komponenten auf Basis von Daten- und Kommunikationsstandards. Medizinische Dokumente und strukturierte medizinische Daten bedürfen einer standardisierten Repräsentation. In Verbindung mit Terminologiestandards wird auch eine semantische Erschließung möglich. Für
den Austausch von Daten zwischen Computersystemen stellt die eXtensible Markup Language (XML) eine allgemeine technische Basis dar, die auch zur standardisierten Beschreibung medizinischer Dokumente geeignet ist. Verschiedene Standardspezifikationen im Gesundheitswesen setzen bereits darauf. Dazu zählt die HL7 basierte Clinical Document Architecture (CDA) [30], auf deren Grundlage in vielen internationalen Projekten Standards für die Darstellung patientenbezogener Dokumente entstanden sind. In Deutschland hat die AG Sciphox/HL7 Definitionen für den Arztbrief, die Überweisung und Krankenhauseinweisung erarbeitet. Auch die Vorarbeiten zur Spezifikation für das elektronische Rezept sind auf dieser Grundlage entstanden. Schon früher sind in Deutschland sektorspezifische Austauschformate für die medizinische Kommunikation entstanden. Im Bereich der Kassenärztlichen Versorgung sind die xDT-Datenträger-Austauschformate zu einem De-facto-Standard geworden. Es entstand im Laufe der Zeit eine ganze Palette von Standards, die durch verschiedene Organisationseinheiten initiiert worden waren. Eine Interoperabilität über die Sektorengrenzen hinaus ist aber nur durch eine Harmonisierung der bisherigen Standardisierungsinitiativen möglich. In diese Richtung geht auch die aktuelle Entwicklung in Deutschland. Die Kassenärztlichen Vereinigungen (KVen) von Baden-Württemberg, Bayern und Nordrhein bieten ihren D2D(Doctor to Doctor-)Anwendern die Unterstützung der Arztbriefkommunikation auf Basis von HL7 CDA Release 2 an. Die technische Grundlage dazu geht auf die VHitG-Initiative »Intersektorale Kommunikation« zurück, in der Unternehmen der Softwarebranche im Gesundheitswesen einen Implementierungsleitfaden beschrieben haben. Die Initiative stellt eine Weiterentwicklung der bestehenden Spezifikation nach HL7 CDA Release 1 dar, die bereits in D2D unterstützt wird [31]. Die medizinische Dokumentation im Rahmen von Behandlungsprozessen wird heute mehr und mehr in elektronischer Ausprägung in Form von elektronischen Patientenakten (ePA) oder elektronischen Fallakten (eFA) ausgeführt. Um eine sektorübergreifende Kommunikation in telemedizinischen Szenarien zu unterstützen, spielt eine standardisierte Architektur für einrichtungsübergreifende elektronische Patientenakten eine Schlüsselrolle. Neben HL7 CDA als elektronischem Dokumentenstandard existieren dazu mehrere Standardinitiativen, wie z. B. CEN/ISO 13606 Electronic Health Record Communication [32], die »Standard Specification for Continuity of Care Record« (CCR) durch die »American Society for Testing and Materials« (ASTM) und das Integrationsprofil »Cross-Enterprise Document Sharing« (XDS) der »Integrating the Healthcare Enterprise« (IHE-Initiative) [33]. Eine Übersicht über diese und weitere Ansätze zu Electronic Health Record (EHR) Architekturen findet sich bei B. Blobel [34]. Es gilt, hier eine Entscheidung herbeizuführen, auf welche grundlegende Rahmenarchi-
811 49.1 · Besonderheiten der deutschen Telemedizin
tektur gesetzt werden soll, wobei neben den nationalen Belangen mindestens die Perspektive zur Interoperabilität zu den europäischen Nachbarländern beachtet werden muss. Österreich hat sich mit dem Projekt zur Einführung der Elektronischen Gesundheitsakte (ELGA) für das XDS-Profil und HL7 CDA als elektronischer Dokumentenstandard für die Befundübertragung entschieden [21]. Da die Standardisierungsbemühungen für konkrete Implementierungen einen unterschiedlichen Reifegrad aufweisen, sind auch pragmatische Initiativen für eine Interimszeit durchaus hilfreich. Um z. B. für Anwendungen der Teleradiologie eine Harmonisierung für projektübergreifende interoperable Implementierungen zu bewerkstelligen, hat die Arbeitsgemeinschaft Informationstechnik (AGIT) innerhalb der Deutschen Röntgengesellschaft eine Spezifikation (http://www.telex-standard.de) für eine sichere DICOM-E-Mail-Kommunikation ausgearbeitet, der sich einige Hersteller angeschlossen haben. Heute existierende Projektlösungen zu Anwendungen der Telemedizin integrieren sich kaum in die vorhandene IT-Infrastruktur der Primärsysteme der jeweiligen Leistungserbringer, sie gesellen sich überwiegend daneben. Dies hat nachteilige Konsequenzen für die Integration in die organisatorischen Standardprozesse. Es ist daher sehr wünschenswert, wenn eine Softwarearchitektur angestrebt wird, die eine abstrahierende Verknüpfung zu den Primärsystemen über die Bereitstellung standardisierter Dienste nach außen herstellt. Hierzu müsste eine Zwischenschicht (Middleware) eingezogen werden, die im Sinne einer serviceorientierten Architektur (SOA) Web-Services für die typischen Anforderungen der Telemedizin zur Verfügung stellt. In dieser Weise kann ein standardisierter Baukasten für Telemedizinanwendungen entstehen, mit dem eine serviceorientierte Interoperabilität erreicht werden und eine Integration in die Primärsysteme erfolgen kann, ohne dass deren spezifische Implementierungen bekannt sein müssen. Dieses Konzept wird genau im technologischen Ansatz für die Telematikinfrastruktur unterstützt. Hier wünschte man sich, dass entsprechende Services definiert und koordiniert bereitgestellt werden.
49.1.6 Akzeptanz und Nutzen bei verschiedenen
Akteuren der Telemedizin Wie immer bei hoch komplexen, großen IT-Projekten mit höchst heterogenen Nutzergruppen und anderen involvierten Akteuren, können die Vorteile eines IT-Systems kaum einmal gleichmäßig über alle Beteiligte verteilt liegen. So fällt z. B. beim eRezept im Rahmen des Telematikprojekts mit der Handhabung von eGK und HBA beim Arzt wesentlich mehr Zusatzaufwand (laut H.G. Schweim 24 Sekunden statt 2) [15] als im konventionellen Rezeptschreiben an. Ein sofortiger ökonomischer oder sonstiger Nutzen für den Arzt ist kaum zu erkennen, aber wichtige
Vorteile – besonders zur Arzneimittelsicherheit – werden beim Patienten erwartet. Weitere Verbesserungen werden sich sicherlich aus den Testphasen zur eGK-Einführung in verschiedenen Regionen ergeben. Auch z. B. in der Telepathologie werden für die Gewinnung einer Zweitmeinung per digitaler Bildanfertigung und telepathologischer Anfrage 22 Minuten gegenüber 10 Minuten bei konventioneller Konsilanfrage benötigt [35]. Aber als eines der wesentlichen Hemmnisse für die Durchsetzung der Telepathologie bezeichnet der Berufsverband der Pathologen 2007 die Abrechnungsfrage [36]. Hier sind die Radiologen schon etwas weitergekommen, teleradiologische Leistungen können grundsätzlich für die Notfallversorgung erbracht werden, ohne in das Fernbehandlungsverbot zu fallen, aber sie sind immer noch nicht im Katalog der GKV für Regelleistungen aufgenommen [37]. Unsere eigenen Erfahrungen mit einem Teleradiologieprojekt [38] zeigen, dass organisatorische Integration, technische Stabilität und einfache Handhabung wichtige Akzeptanzkriterien darstellen. Eine nachhaltige Nutzung bedarf aber weiterer Vereinbarungen, die die Rahmenbedingungen für die Leistungserbringung und deren Honorierung regeln. Wünschenswert wäre es aber auch, dass z. B. Erweiterungen in der Sicherheitsarchitektur bis hin zur Einführung elektronischer Signaturen für Fragestellung und Therapieempfehlung im Rahmen einer Telekonsultation nicht mehr projektspezifisch und damit kostspielig umgesetzt werden müssen, sondern auf Basisdienste der Telematikinfrastruktur zurückgegriffen werden könnte. Der immer noch fehlende Heilberufeausweis oder bestimmte Formen der elektronischen Signatur erschweren die praktische Nutzung [39]. In diesem Zusammenhang ist auch das grundsätzliche Problem anzusprechen, dass nämlich die Telemedizin potentiell das Arzt-Patient-Verhältnis beeinträchtigt. Es besteht die Gefahr, dass in diese sehr persönliche und in der Regel dringend gewünschte Beziehung der Computer distanzierend einwirkt, die Face-to-face-Interaktion, der aufmunternde Händedruck und generell die psychosoziale Komponente der ärztlichen Betreuung leidet. P. Haas [39] sieht hierin eine der beiden wesentlichen Ursachen, weshalb »teilweise die Lust auf Einsatz moderner IT dem Frust gewichen ist«. Technisch schöne Lösungen und künftig größte Märkte für die IT reichen nicht aus, um die Telemedizin dauerhaft erfolgreich und nutzbringend einzuführen. Auch aus Sicht des Arztes kann das ArztPatient-Verhältnis gestört werden, da der Patient z. B. auf der eGK gespeicherte medizinische Daten verstecken darf. Wird der Patient das dem Arzt mitteilen? Der Arzt wird also weiterhin mit Zusatzaufwand eine parallele Krankengeschichte führen müssen, um seiner Dokumentationspflicht (Musterberufsordnung der Ärzte) zu genügen. Er kann aber die in der elektronischen Krankengeschichte geführten Informationen deutlich besser recherchieren,
49
812
V
Kapitel 49 · Stand, Möglichkeiten und Grenzen der Telemedizin in Deutschland
nutzen und z. B. auch dem Patienten Kopien mitgeben. Aus all den Einzelprojekten zur Telemedizin in Deutschland wird deutlich, dass schon jetzt beträchtlicher Nutzen besonders für den Patienten erzielt wird. Das betrifft vor allem die Telekonsultation einschließlich Einholung einer Zweitmeinung, die Versorgungskooperation einschließlich Über-und Einweisungen, das Telemonitoring per Biosignalverarbeitung, das Behandlungsmanagement komplexer Volkskrankheiten und die Information zur Versorgung seltener oder hoch riskanter Krankheiten und Notfälle. Experteninterviews und eine Umfrage im Rahmen der Evaluation der Teleradiologieprojekte in BadenWürttemberg [40] bestätigen diese Einschätzung. Es geht in diesen Projekten überwiegend um Telekonsultationen im Rahmen der Schlaganfallversorgung und der Versorgung von Unfallverletzten mit Schädel-/Hirntrauma [41]. Die befragten Teilnehmer bejahen mehrheitlich, dass die teleradiologischen Konsile die Güte der Entscheidung der behandelnden Ärzte erhöhen. Der Nutzen für Patienten wird hauptsächlich in einer schnelleren und adäquateren Versorgung gesehen. Im Vordergrund stehen hierbei die Vermeidung nicht notwendiger Transporte sowie die schnelle Versorgung während des Nachtdienstes. Die Umfrage bestätigt einen geringeren Zeitaufwand für Diagnose und Behandlungsprozesse. Nicht alle Beteiligte können in gleichem Maße von der Telemedizin profitieren. Es gilt daher, eine Win-WinKonstellation für möglichst alle Akteure der Telemedizin aufzubauen. Was sind dafür die wichtigsten Maßnahmen?
49.1.7 Konsequenzen aus den deutschen
2.
3.
4.
5.
– die Klärung diverser Bedenken besonders der Ärzteschaft zum Datenschutz, – die Harmonisierung mit Vorschriften der EU und anderer Stellen der internationalen – Normung. Die technische Integration von eGK und Gesundheitstelematik ist auf Basis einer adäquaten und zuverlässigen Technik für die Telemedizin auszugestalten. Eine telemedizinische Regelversorgung in Deutschland ist ohne eGK und Gesundheitstelematik nicht sinnvoll, bedarf aber noch einer hinreichend ausgestatteten wohl konzipierten Telematikplattform. Diese Telematikinfrastruktur muss für die bereits z. T. seit Jahrzehnten vorhandene und bewährte ITStruktur besonders der Krankenhäuser und der niedergelassenen Ärzte offen sein. Dafür sind technische Integrationsund Migrationshilfen wie middle ware, SOA oder EHR und CDA zu nutzen. Organisatorische Änderungen, z. B. Stapelverarbeitung für eRezepte, sind bereits geplant. Notwendig sind mehr Prozessorientierung statt institutionsorientiertes Denken, Schulungen zur Nutzung der Telemedizin, Aufklärungsarbeit für alle Beteiligten über den Nutzen und die Risiken der Telemedizin sowie eine wissenschaftliche Begleitung zur Evaluierung der Telemedizin insbesondere in der Regelversorgung. Die Aufklärung über den Nutzen der Telemedizin muss überzeugend vermittelt werden, und die Risiken besonders im psychosozialen Bereich für Patient und Arzt sind konsequent zu reduzieren. Die Telemedizin darf das persönliche Arzt-Patient-Verhältnis nicht negativ tangieren, sondern muss dazu beitragen, die Distanz zwischen Arzt und Patient zu reduzieren.
Besonderheiten für die Telemedizin Wir haben in einer früheren Darstellung [17] schon auf einige Bedingungen für eine erfolgreiche Telemedizin hingewiesen. Jetzt können wir unter Berücksichtigung der o.g. Besonderheiten des deutschen Gesundheitswesens, aber auch auf Basis der Erfahrungen mit telemedizinischen Einzelprojekten und mit der nun im Aufbau befindlichen Gesundheitstelematik und eGK für die Telemedizin folgende Schlüsse ziehen: 1. Zunächst sind auf Basis der vielfältigen und langjährigen Erfahrungen mit telemedizinischen Einzelprojekten, aber auch mit den beginnenden Großprojekten der Gesundheitstelematik die derzeitigen rechtlichen Rahmenbedingungen zu verbessern. Dies betrifft besonders – die weitgehende Auflösung der Sektorgrenzen im Gesundheitswesen, – die Abrechnungsmöglichkeit telemedizinischer Leistungen für den Leistungserbringer, – die solide Finanzierung der Telemedizin als Regelleistung,
Insgesamt ist der Nutzen der Telemedizin nicht mehr abzustreiten, auch wenn ihre Einführung in die Regelversorgung in Deutschland noch erheblichen Aufwand, Zeit und Geduld benötigt. Da aber unter den hier aufgeführten Voraussetzungen noch mindestens fünf weitere Jahre erforderlich sind, um die wichtigsten telemedizinischen Anwendungen zu erstellen und flächendeckend einzuführen, sollte nun auch besonders engagiert fortgefahren werden.
Literatur 1. http://www.liebertpub.com/tmj 2. Jäckel A (2008) Telemedizinführer Deutschland. Deutsches Medizinforum, Bad Nauheim 3. http://www.gmds.de 4. http://www. dgg-info.de 5. http://www.dgtelemed.de 6. http://www.vhitg.de 7. http://www.ztg-nrw.de 8. http://www.gematik.de 9. http://www.dimdi.de
813 Literatur
10. http://www.emea.europa.eu 11. http://www.diabeticus.com/pressemitteilungen/2008/03_07. html 12. Wachs E et al. (2008) Telemedizinische Betreuungskonzepte bei chronischer Herzinsuffizienz. In: Jäckel A (Hrsg) Telemedizinführer Deutschland. Deutsches Medizinform, Bad Nauheim, S 136–138 13. Köhler F, Lücke S (2008) Partnership for the Heart. In: Jäckel A (Hrsg) Telemedizinführer Deutschland. Deutsches Medizinforum, Bad Nauheim, S 132–135 14. http://healthit.ahrq.gov/images/apr07 norcerxreport/erxinterimevaluationreport.html 15. Schweim HG (2007) Die unerträgliche Geschichte der Gesundheitskarte in Deutschland. GMS e-journal Medizinische Informatik, Biometrie und Epidemiologie: 1/5–5/5 16. Semler SC (2008) (TMF eV): Elektronische Patientenakte – Stand, Perspektive und outcome. In: Jäckel A (Hrsg) Telemedizinführer Deutschland. Deutsches Medizinforum, Bad Nauheim, S 3–4 17. Boeker M, Pelikan E (2001) Gesundheits-Telematik – Anwendungsspektrum und Sicherheitsstruktur. In: Hurrelmann K, Leppin A (Hrsg) Moderne Gesundheitskommunikation. Vom Aufklärungsgespräch zur E-Health. Hans Huber, Bern, S 259–276 18. Kotter E, Schrader U, Pelikan E et al. (1997) The Freiburg large scale PACS. Computer Assisted Radiology and Surgery. Elsevier Science B.V., Berlin, p 1007 19. Klar R et al. (2002) Funktionalität der medizinischen Arbeitsplätze im KIS und PACS des Universitätsklinikums Freiburg. http://www. uniklinikum-giessen.de/kis-ris-pacs/archiv/2002/di1150.pdf 20. Meyer M, Ehlers A (2008) eHealth-Lösungen als Basis für eine integrierte Gesundheitsversorgung. In: Jäckel A (Hrsg) Telemedizinführer Deutschland. Deutsches Medizinforum, Bad Nauheim, S 156–162 21. Pfeiffer KP (2009) Herausforderungen bei der Umsetzung der elektronischen Patientenakte und Gesundheitskarte in Österreich. Bundesgesundheitsbl Gesundheitsforsch Gesundheitsschutz 52: 297–302 22. Heidenreich G, Blobel B (2009) IT-Standards für telemedizinische Anwendungen. Der Weg zum effizienten Datenaustausch in der Medizin. Bundesgesundheitsbl Gesundheitsforsch Gesundheitsschutz 52: 270–277 23. Waegemann P (2008) eHealth und elektronische Patientenakten. In: Jäckel A (Hrsg) Telemedizinführer Deutschland. Deutsches Medizinforum, Bad Nauheim, S 56–59 24. Mandl KD et al. (2008) Tectonic shift in health information economy. N Engl J Med 358: 1732–1737 25. Groß C (2006) Gesundheitstelematik: Folgen für die Arzt-PatientBeziehung. Dtsch Ärztebl 103: A3469 Entscheidend ist die Nutzung 26. Boeker M (WS2006/2007) Telematik im Gesundheitswesen, Datenschutz u. Datensicherheit. http://www.medicip.uni-freiburg. de/material/ materialien/telematik_datenschutz_informationssicherheit_skript.pdf 27. http://www.heise.de/newsticker/Aerztetag lehnt-elektronischeGesundheitskarte-ab-/meldung/89908 28. http://www.aerzteblatt.de/v4/archiv/artikel. asp?id=60215 29. Groß C, Hein-Rusinek U (2008) Notfalldaten auf der Gesundheitskarte: Nutzen unklar. Rheinisches Ärzteblatt 1:16–17 30. Health Level Seven Inc.: http://www.hl7.org 31. http://www.vhitg.de/vhitg/koordinatoren/AG_ Initiative/ag_dokumente.php?PHPSESSID=cfdd35 9d3df5011adf5b118d6cc59e4a 32. EN/ISO 13606 »Health informatics – EHR Communications«: http:// www.centc251.org 33. Integrating the Healthcare Enterprise: http://www. ihe.net 34. Blobel B (2008) EHR Architectures-comparison and trends. In: Blobel B, Pharow PM (eds) eHealth. IOS Press, Amsterdam, pp 59–73 35. Schrader T et al. (2008) T. Konsult Pathologie Zweite Meinung im Rahmen des Mamma-Screenings. In: Jäckel A (Hrsg) Telemedizin-
36. 37. 38.
39.
40.
41.
führer Deutschland. Deutsches Medizinforum, Bad Nauheim, S 109–115 http://www.bv-pathologie.de/html/body_ nachrichten.html Krüger-Brand H (2008) Telemedizin: Vom Projektstatus in die Routine. Dtsch Ärztebl 105: A-1319 Pelikan E et al. (2006) Teleradiologieprojekt Südbaden. http:// www.telemed-berlin.de/tele-med2006/Beitraege/S06 – PELIKAN, ERNST – Teleradiologie-Projekt.pdf Haas P (2008) Die Lust und Last mit der MI aus verschiedenen Perspektiven. mdi Forum der Medizin_Dokumentation und Medizin. Informatik 3:142–143 Kirn S (2007) Teleradiologieprojekte Baden-Württemberg, Begutachtung und Studentische Evaluation, Teilbericht Südbaden. Universität Hohenheim, Wirtschaftsinformatik II (unveröffentlicht) Eytner A (2006) Teleradiologienetzwerk Baden-Württemberg. In: Jäckel A (Hrsg) Telemedizinführer Deutschland. Deutsches Medizinform, Bad Nauheim, S 302–308
49
50 Telemedizin am Beispiel aktiver Implantate K. P. Koch, O. Scholz
50.1 Einleitung
– 815
50.2 Telemedizin in Operationssaal – 815
50.5 Einbeziehung von aktiven medizinischen Implantaten in Telemedizinsystemen – 822
50.3 Telemedizin in der häuslichen Pflege – 816
Literatur
– 822
50.4 Implantat-Telemetrie – 816 50.4.1 Implantat-Telemetrie mittels induktiver Kopplung – 817 50.4.2 Implantattelemetrie mittels Funk – 819 50.4.3 Optische transkutane Übertragung – 819 50.4.4 Energieversorgung für Implantate – 820 50.4.5 Leitungscodes – 821
50.1
Einleitung
Die Telemedizin ist ein Bereich der Telematik, mit der es ermöglicht wird, diagnostische oder therapeutische Daten zwischen zwei Orten (räumliche Distanz) oder zeitlich versetzt (zeitliche Distanz) zu übertragen. Dies beinhaltet sowohl die bidirektionale Übertragungsstrecke zwischen Patient und Arzt als auch die Übertragungsstrecke zwischen zwei Ärzten. Hierzu werden die Informationen ohne materiellen Transport übertragen. In der technischen Umsetzung werden sowohl drahtgebundene als auch drahtlose Kommunikationskanäle genutzt. Die Möglichkeiten, medizinisch relevante Daten zu versenden, eröffnen weitere Anwendungsfelder. Beispiele hierfür sind das Hinzuziehen von externen Experten während chirurgischer Eingriffe, die Übertragung von physiologischen Daten/Signalen, die vom Patient im häuslichen Umfeld gewonnen werden, und die Verteilung der Daten innerhalb eines Krankenhauses. In entgegengesetzter Richtung sollen auch Daten zu Therapiegeräten versendet werden können, um etwa die Behandlung anzupassen oder die Funktion der Geräte zu überwachen. Die Anwendungsfelder reichen hierbei von der Übertragung von Röntgenaufnahmen bis zur Weiterleitung von Temperaturwerten. Moderne aktive Implantate verfügen i. d. R. ebenfalls über eine drahtlose informationstechnische Anbindung an die Außenwelt. Insbesondere in dem zuletzt genannten Bereich spielt auch die Energieversorgung der einzelnen Komponenten eine wichtige Rolle. Diese kann teilweise mit der gewünschten Datenübertragung kombiniert werden. In den folgenden Abschnitten werden nach einem kurzen Überblick über
den Einsatz der Telemedizin bei Operationen und Homecare-Anwendungen die Möglichkeiten der Telemedizin zur Ansteuerung aktiver Implantate betrachtet.
50.2
Telemedizin in Operationssaal
Das Hinzuziehen weiterer Experten während einer Operation ist oft nur in großen Kliniken möglich. Bei hoher Spezialisierung gestaltet sich dies immer schwieriger, da die Experten meist an unterschiedlichen Zentren tätig sind. Der Einsatz der Datenfernübertragung bietet daher eine gute, multimodale Möglichkeit, kurzfristig weitere Experten zu konsultieren (⊡ Abb. 50.1). Auch für die Lehre und den wissenschaftlichen Austausch sind solche Systeme sinnvoll, beispielsweise als Liveschaltungen zum Hör- oder Konferenzsaal. In modernen OP-Systemen werden unterschiedliche bildgebende Instrumente wie etwa Endoskope und Ultraschall eingesetzt (Skupin 2005). Zusätzlich zu diesen direkten diagnostischen Geräten sind Kameras zur Erfassung des Operationsfeldes und des Operationsraums für eine Darstellung des Operationsablaufs sinnvoll. Zur Steuerung der bildgebenden Systeme, aber auch der Kommunikations- und Videokonferenzeinrichtungen sind Bedienelemente für den behandelnden Arzt im Sterilbereich erforderlich. Dies betrifft insbesondere die Kamerasteuerung, um den Blickwinkel der Kamera an die aktuelle Operationssituation anpassen zu können. Ferner sind der interoperative Wechsel zwischen Kameras und der Verbindungsaufbau vom Operationssaal aus zu bedienen. Mit dieser Technologie lassen sich selbst bei
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _50, © Springer-Verlag Berlin Heidelberg 2011
816
Kapitel 50 · Telemedizin am Beispiel aktiver Implantate
Operationssaal Kamera
Fachklinik Kamera
Patient
V
Behandelnder Arzt
Bedienelemente zur Systemsteuerung
Konsultierter Arzt
Bildgebende Diagnose ⊡ Abb. 50.1. Systemübersicht eines telemedizinisch genutzten Operationssaals
komplexen Operationen weitere Experten konsultieren, ohne den Patienten verlegen zu müssen (⊡ Abb. 50.1).
50.3
Telemedizin in der häuslichen Pflege
Für die Gewinnung medizinisch relevanter Daten in der häuslichen Umgebung ist mittlerweile ein breites Spektrum an Geräten auf dem Markt. Dies reicht von Geräten zur Körpertemperatur- und Gewichtsmessung bis hin zu Geräten zur Erfassung des EKGs oder des Blutdrucks. Viele dieser Geräte besitzen auch Schnittstellen zum Auslesen der Daten. Koppelt man diese an eine so genannte Hausbasisstation an, können die Daten von dort bei Bedarf an einen medizinischen Dienst übermittelt werden. Die direkte Punkt-zu-Punkt-Verbindung zwischen Arzt und Patient ist eine Möglichkeit, die jedoch rückläufig ist. Servergestützte Systeme bieten den Vorteil einer höheren Verfügbarkeit (Bolz 2005). Auch kann die erste Entgegennahme der Daten von medizinisch geschultem nichtärztlichen Personal erfolgen. Hierdurch kann der Arzt entlastet und damit die Kosten reduziert werden. Als Schnittstellen zwischen den Messgeräten und der Hausbasisstation werden sowohl drahtgebundene Schnittstellen wie RS-232 oder USB als auch drahtlose Schnittstellen wie Bluetooth eingesetzt. Die Hausbasisstation selbst kann im Prinzip ein Mobiltelefon oder PDA als Plattform nutzen. Für viele Patientengruppen empfiehlt sich jedoch eine einfachere Bedienung, was eher durch
eine speziell zugeschnittene Geräteentwicklung erreicht wird (Kiefer 2004). Diese kommen zum Teil nur mit einem Bedienelement, welches die Übertragung der Daten einleitet, aus. Darüber hinaus ist der Anschluss von kabelgebundenen Messgeräten bei Mobiltelefonen oder PDAs nur über einen Adapter möglich. Für die Schnittstelle zwischen der Hausbasisstation und dem Server bzw. dem medizinischen Empfänger unterscheiden sich die Möglichkeiten im Wesentlichen durch die im jeweiligen häuslichen Umfeld zur Verfügung stehenden Schnittstellen. Dies reicht von analogen Telefonanschlüssen, ISDNLeistungen, Verbindungen über ADSL bis zu drahtlosen GSM-Verbindungen. Neben den technischen Problemen der Bereitstellung einer Vielzahl von Schnittstellen und der Nutzung von Übertragungsprotokollen mit ausreichender Datensicherheit sind auch rechtliche Randbedingungen bezüglich des Datenschutzes mit zu berücksichtigen. Neben dem Aspekt der Kostenreduzierung ist die Unterbringung des Patienten in häuslicher Umgebung in vielen Fällen angenehmer (⊡ Abb. 50.2).
50.4
Implantat-Telemetrie
In diesem Subkapitel wird am Beispiel implantierbarer Systeme der Einsatz unterschiedlicher telemetrischer Ansätze beschrieben. Dies reicht von der Problematik der Energieversorgung der einzelnen Komponenten bis hin zu den verschiedenen Möglichkeiten der Datenübertragung.
817 50.4 · Implantat-Telemetrie
Analog ISDN TCP/IP GSM
Bluetooth RS-232 USB
Patient
Messsystem
Basisstation
Server
Arzt oder Patientenbetreuung
⊡ Abb. 50.2. Kommunikationsstruktur von Homecare-Systemen
Unter Telemetrie versteht man, streng genommen, das Gewinnen von Messwerten weit entfernter oder unzugänglicher Messstellen, was die Übertragung der Werte über eine Distanz erforderlich macht. Im Sprachgebrauch der Medizintechnik wird Telemetrie oft für die Übertragung von Messdaten und auch von Steuerdaten verwendet. Dies kann drahtgebunden erfolgen, aber eben auch drahtlos. Eine einfachere Form der Kontaktierung besteht darin, implantierte Systeme drahtgebunden durch die Haut (perkutan) anzuschließen. Für den chronischen Einsatz ergibt sich jedoch ein höheres Komplikationsrisiko, weil das damit verbundene Infektions- und Verletzungsrisiko groß ist. Auch aus kosmetischer Sicht spricht Einiges gegen Kabel, die aus der Haut treten. Aus diesem Grund sind die allermeisten aktiven Implantate drahtlos, d. h. die Haut überwindend (transkutan), mit der Außenwelt verbunden. Bei speziellen Anwendungen ist dennoch der perkutane Ansatz von Vorteil, da es praktisch keine Beschränkungen der Signal- und Energieübertragung gibt. Hierdurch können Weiterentwicklungen eingesetzt werden, ohne den Patienten einem erneuten chirurgischen Eingriff auszusetzen. Dies ist insbesondere in der Entwicklungsphase neuer Implantate von Vorteil (Zrenner et al. 2008; Normann 1990). Zur Stimulation des visuellen Kortex wurden beispielsweise 68 Elektroden implantiert, die mit einer Kamera und einer Elektronik zur Stimulation einer einfachen visuellen Wahrnehmung eingesetzt werden (Dobelle 2000) (⊡ Abb. 50.3). Auch temporär implantierte Systeme können effizient mit solchen Verbindungen betrieben werden. Meist befindet sich der Patient während der Anwendungszeit in klinischer Betreuung, wodurch die fachgerechte Versorgung der perkutanen Kabeldurchführung gewährleistet ist.
50.4.1 Implantat-Telemetrie mittels induktiver
Kopplung Um sowohl die Energieversorgung des Implantats zu gewährleisten als auch eine bidirektionale Schnittstelle zum Datentransfer zur Verfügung zu stellen, werden induktive Schnittstellen eingesetzt. Hierbei wird das Feld einer externen Senderspule in die Empfangsspule des Implantates
⊡ Abb. 50.3. Perkutane Kabelverbindung zur Stimulation des virtuellen Kortex (Dobelle 2000)
eingekoppelt, wodurch nach dem Transformatorprinzip Energie zum Implantat übertragen wird. Um zusätzlich Daten zum Implantat zu senden, wird die Trägerwelle des Senders moduliert. Zur Kommunikation vom Implantat nach außen moduliert man meistens die resistive Last der Implantatspule, wodurch sich die übertragene Impedanz in der externen Spule und somit der Sendestrom ändert. Das gleiche Prinzip lässt sich beim klassischen Transformator beobachten, bei dem der Strom im Primärkreis auch von der Belastung im Sekundärkreis abhängt. Bei Cochlea-Implantaten wird diese Technik eingesetzt, da, neben der hohen Datenrate von einigen 100 kBit/s, das Implantat mit rund 30 mW Leistung zu versorgen ist (Zierhofer u. Hochmair 1994; Zierhofer et al. 1995). Hierbei wird – wie beim Freehand-System zur Stimulation der Armmuskulatur – eine Trägerfrequenz von 10 MHz eingesetzt, wobei im Freehand-System sogar 90 mW übertragen werden (Smith et al. 1987). Durch den Einsatz optimierter Systeme bei Cochlea-Implantaten (Medical Electronics) erreicht man einen Gesamtwirkungsgrad von bis zu 67% bei Übertragungsleistungen von 250 mW (Kendir et al. 2005). Für Implantate mit noch höherer Leistung, wie beispielsweise Herzunterstützungssysteme, wurden von Dualis spezielle induktive Schnittstellen entwickelt, die Leistungen von bis zu 50 W übertragen können (Vodermayer et al. 2005). Besonders in solchen Fällen, in denen
50
eine hohe Miniaturisierung erwünscht ist und nur sehr kurze Distanzen überbrückt werden müssen, weicht man auf Dünnfilmspulen aus, die auf einem eigenen Substrat aufgebracht sind (Kim et al. 2009). Oder man versucht gar, wie bei einem System zur Hirndruckmessung, die Spule des Implantats direkt auf dem Kommunikationschip zu integrieren. Wegen der geringen Abmessungen der Empfangsspule werden hier jedoch nur Abstände von wenigen Millimetern erreicht (Flick u. Orglmeister 2000). Beispielhaft für die kombinierte Daten- und Energieübertragung mit der Hilfe einer induktiven Schnittstelle wird im Folgenden ein System beschrieben, welches bei einer Trägerfrequenz von 4 MHz arbeitet (Scholz et al. 1997). Die Kommunikation von der externen Einheit zum Implantat wird mit Hilfe der Modulation der Amplitude dieses Trägers durchgeführt. Zur Datenübermittlung vom Implantat zur extrakorporalen Steuereinheit wird die Last des Implantats moduliert. Hierbei sind der Sendeschwingkreis als Serienschaltung (C1, L1) und der Empfangsschwingkreis als Parallelschaltung (L2, C2) realisiert. Der vereinfachten Beschreibung der induktiven Übertragungsstrecke liegt ein einfaches Modell eines Übertragens zugrunde, bei dem die Kopplung der Spulen durch einen reellen Kopplungsfaktor k bestimmt ist (⊡ Abb. 50.4). Als Modell des Senders dient eine lineare Spannungsquelle mit Leerlaufspannung U0 und Innenwiderstand R1. Die Belastung des Empfangskreises durch die ImplantatElektronik wird durch einen ohmschen Widerstand R2 simuliert. Je nach Lastmodulation werden diesem Widerstand unterschiedliche Werte zugeordnet. Als wichtiger Index für die Übertragung in Richtung Implantat gilt die Spannungsverstärkung Af von der externen Spannungsquelle zum Lastwiderstand im Implantat (Hochmair 1984; Scholz 2000). Diese beschreibt sowohl die zu erwartende Versorgungsspannung des Implantats U2 als auch die Übertragung der Amplitudenmodulation des Trägersignals zum Implantat. Im verwendeten linearen Modell ergibt sich diese in Abhängigkeit der Kreisfrequenz ω des Trägers ( Gleichung 50.1). Af =
R2 jω k L1 L2 U2 1 + jω C 2 R2 = U0 § R2 1 ·§ ¨¨ R1 + jω L1 + ¸ ¨ j ω L2 + jω C1 ¸¹¨© 1 + jω C 2 R2 ©
· 2 ¸¸ − ω k L1 L2 ¹
( )
(50.1)
k=
I
M L1 L2 U2
U0 R1
C1
L1 L2
C2
⊡ Abb. 50.4. Modell der induktiven Übertragungsstrecke
R2
Da die externe Einheit transportabel sein soll, wird sie mit Batterien betrieben und hat dementsprechend nur eine begrenzte Energiereserve. Aus diesem Grund ist auch der Wirkungsgrad η bei einer Konstruktion des Systems zu berücksichtigen, der durch den Quotienten aus der sekundärseitig aufgenommenen Wirkleistung P2 zu der von der Spannungsquelle abgegebenen Wirkleistung Pges definiert ist. Besonders ist hierbei, dass die Kapazität im Sendekreis auf den Wirkungsgrad keine Auswirkungen hat ( Gleichung 50.2). L 3 1 - (50.2) ʈ 1HFT ¥ ¥ - ¢ ʙ $ 3 3 ¦ 3 ¦ L §ʙ § - ¥ ¦ §
V
Kapitel 50 · Telemedizin am Beispiel aktiver Implantate
¥ ¦ §
818
Als letzte Größe wird die Änderung des Primärstromes ΔI durch die Modulation der Last untersucht. Dieser Primärstrom ergibt sich wiederum aus dem Quotienten aus Leerlaufspannung U0 und dem Betrag der Gesamtimpedanz Zges ( Gleichung 50.3).
Ȅ*
6 ;HFT NJU -BTU
¢
6
mit
;HFT PIOF -BTU
Lʙ -- 3 Kʙ $ Kʙ - Kʙ $ 3
;HFT 3 Kʙ -
(50.3) Zur Gewährleistung eines sicheren Betriebs der Übertragungsstrecke sowohl zur Energieübertragung als auch zur bidirektionalen Datenübertragung ist eine Optimierung der Übertragungsstrecke erforderlich. Diese Aufgabe sollte im Hinblick auf die vielfältigen Systemeigenschaften und der damit verbundenen Definition der zulässigen Extrema der Eigenschaften und Wertigkeiten untereinander nicht unterschätzt werden. Eine weitere Schwierigkeit der Optimierung liegt in der Schwankungsbreite der Parameter der Übertragungsstrecke. So schwankt die Kopplung der Spulen in Abhängigkeit von der Positionierung. Durch intelligente Positionierungssysteme, die dem Patienten die Güte der Übertragung anzeigen, lässt sich diese Problematik entschärfen. Eine weitere Vereinfachung der Positionierung kann durch Permanentmagnete erzielt werden, die in die primäre und sekundäre Spule integriert sind. Hierdurch ergeben sich Vorteile durch die automatische Positionierung aufgrund der magnetischen Kräfte und der eigenständigen Fixierung der externen Spule. Bei allen Systemen bleiben immer Toleranzen, welche durch Bewegungsartefakte und sich verändernde Gewebeschichten (Fettanlagerung) verstärkt werden können. Zusätzlich unterliegen die Bauteile selbst Herstellungstoleranzen und Alterungen. Insbesondere die Alterung und die Veränderung parasitärer Komponenten sind bei implantierten Komponenten durch den Kontakt
819 50.4 · Implantat-Telemetrie
des Systems mit Körperflüssigkeiten besonders kritisch zu betrachten. Obwohl sich die induktive Übertragung hervorragend zur kombinierten Übertragung von Daten und Energie eignet, wird sie manchmal ausschließlich zur Datenübertragung verwendet, insbesondere bei Implantaten mit vollständiger Titankapselung, welche nämlich nur niederfrequente Felder passieren lässt. Dies bietet sich vor allem an, wenn, wie bei manchen einfachen Herzschrittmachern, nur eine geringe Datenrate erforderlich ist.
50.4.2 Implantattelemetrie mittels Funk
Es ist bemerkenswert, wie sich die Implantattelemetrie vor allem bei Herzschrittmachern verändert hat. Standen anfangs nur wenige Parameter zur Abfrage oder Programmierung zur Verfügung, so reichte eine langsame induktive Übertragung, bei welcher jedoch eine Lesespule unmittelbar über dem Implantationsort gehalten werden musste. Um auch bei fettleibigen Patienten die »Suche« nach dem Schrittmacher zu vereinfachen, statteten die Hersteller ihre Geräte mit entsprechenden Funktionen aus. Heute bieten die Implantate deutlich mehr Funktionalität. So können beispielsweise nicht nur Daten wie die Pulsfrequenz oder Restenergiemenge abgefragt werden. Moderne Schrittmacher oder Defibrillatoren zeichnen gar Abschnitte des IEGM (intrakardiales Elektrogramm) auf und speichern sie intern ab. Um diese Daten komfortabel abrufen zu können, sind die Geräte mit einer Funkschnittstelle ausgerüstet, die es ermöglicht, auch über größere Distanzen (2–3 m) die große Datenmenge in akzeptabler Zeit abzurufen. Weil das Titangehäuse die elektromagnetischen Wellen viel zu stark dämpfen würde, sind die Funk-Antennen der Implantate außerhalb des Gehäuses angebracht. Bei Herzschrittmachern sind sie meist im Anschlussblock der Elektrodenkabel eingegossen, der aus einem Polymer besteht. Problematisch an der Übertragung per Funk ist die Tatsache, dass der Körper durch seine Ionenleitfähigkeit die Ausbreitung von Funkwellen dämpft. Wie stark diese Dämpfung ist, ist zum einen von der Art des zu überwindenden Körpergewebes und zum anderen von der Frequenz abhängig. In erster Näherung steigt die Dämpfung mit wachsender Frequenz. Bestimmte Frequenzen sind im Besonderen betroffen, nämlich solche, bei denen eine Resonanz der Wassermoleküle vorliegt, wie etwa bei 2,4 GHz. Dieses Frequenzband ist daher nicht für medizinische Implantate geeignet. Weil sich Funkwellen im Gegensatz zu Licht ansonsten fast ungehindert ausbreiten, ist eine strikte Regulierung des Funkverkehrs und der belegten Kanäle erforderlich, um einer gegenseitigen Störung oder gar Blockierung vorzubeugen. Da sich aber in den einzelnen Ländern die Regeln unterscheiden, kann es passieren, dass das Implan-
tat eines Patienten im Ausland nicht ausgelesen werden kann. Beispielsweise ist das in Europa gängige ISM-Band um 868 MHz in den USA nicht zugelassen. Dort wird stattdessen das 915-MHz-Band verwendet. Da aber auch andere Geräte dieses Funkband benutzen dürfen, war man bestrebt, für Implantate einen eigenen Kanalraum zu schaffen, der zudem weltweit verfügbar war. Dies ist mit der Einführung des MICS-Bandes (Medical Implant Communication Service) zur drahtlosen Steuerung und für die Telemetrie von medizinischen Implantaten durch die ITU (International Telecommunication Union) zum größten Teil gelungen. Das Frequenzband, das hierfür vorgesehen ist, muss sich der Dienst zwar mit Funkanwendungen der Meteorologie teilen (ECC 2006). Dennoch wird nicht erwartet, dass es hierdurch zu Problemen kommen wird. Probleme, wie sie im 2,4-GHz- oder 433MHz-Band durch ihre hohe Popularität und damit hohen Belegung (WLAN, drahtlose Kopfhörer etc.) zu erwarten wären, sind damit so gut wie auszuschließen. Das zur Verfügung gestellte Frequenzband liegt zwischen 402 und 405 MHz. Die maximal erlaubte Bandbreite einer MICS-Verbindung beträgt 300 kHz. Beispielsweise ist hierbei mit einem Chipsatz von Zarlink® nach Herstellerangaben eine Datenrate von bis zu 528 kBit/s (4FSK) möglich. Ein Implantat darf nur im Notfall eine Übertragung initiieren, muss dazu aber nicht darauf achten, ob der verwendete Kanal frei ist (listen before talk). Im Normalfall muss eine Übertragung von der externen Basis gestartet werden, die nur dann eine Verbindung aufbauen darf, wenn der gewünschte Kanal nicht belegt ist – etwa durch einen zweiten Implantatfunk. Es sind bereits einige Geräte auf dem Markt, welche dieses Band nutzen. Das MICS-Band wird beispielsweise im CareLink®-Programmiergerät und Implantaten von Medtronic eingesetzt, genauso wie in Implantaten der Fa. Biotronik® oder St. Jude®. Neben Herzschrittmachern oder implantierbaren Defibrillatoren gibt es natürlich eine Reihe weiterer implantierbarer Geräte, die auf die Funk-Telemetrie zurückgreifen, wie beispielsweise Tiefenhirnstimulatoren oder implantierte Blutzuckermonitore. Ebenfalls das MICS-Band nutzend, überträgt die Kamerapille von Given Imaging® Bilder des Verdauungstraktes, auch wenn dies im eigentlichen Sinne kein Implantat darstellt (Iddan et al. 2000).
50.4.3 Optische transkutane Übertragung
In den Fällen, in denen die Übertragungsbandbreite bei induktiver Übertragung zu gering wäre oder man Interferenzen mit anderen Funkübertragungssystemen fürchtet, bietet sich die optische transkutane Übertragung an – dies aber nur, sofern die Gewebsstrecke nicht zu groß ist. Beispiele, in denen diese Technik von Interesse sein könnte, sind z. B. Hirn-Computer-Schnittstellen, in
50
820
V
Kapitel 50 · Telemedizin am Beispiel aktiver Implantate
denen überproportional viele Daten (vielkanalige, unmittelbare EEG-Ableitungen) übermittelt werden müssen (Ackermann et al. 2008; Guillory et al. 2004). In voll implantierbaren Herzunterstützungssystemen wurden ebenfalls optische Übertragungsstrecken verwandt, weil man durch die hohe elektrische Leistung, die das Implantat erforderte, auf niederfrequente Magnetfelder zur drahtlosen Energieübertragung zurückgegriffen hat. Außerdem fürchtete man sich vor zu großen Störungen auf dem Übertragungskanal durch den Betrieb der Pumpen (Mitamura et al. 1990; Ahn et al. 1998; Okamoto et al. 2005). In den 1980ern wurden bereits Studien durchgeführt, um zu untersuchen, wie sich die optische Übertragung für die Implantat-Telemetrie eignet (Kudo et al. 1988). Anfangs waren die Übertragungsraten allerdings eher gering. Eine hohe Absorption und vor allem die große Streuung des Körpergewebes schränken die Möglichkeiten ein. Dennoch ist die transkutane optische Übermittlung von Daten durch die Haut mit bis zu 40 Mbit/s gelungen, wenn auch unter hohem Leistungsbedarf (120 mW) bei vergleichsweise dünner Hautschicht (5 mm) (Guillory et al. 2004). Ein noch nicht aufgeführter Vorteil der optischen Übertragung besteht darin, dass man die dafür notwendigen Komponenten sehr klein realisieren kann. Zwar werben die Hersteller von Funk-Chips häufig damit, dass ihre ICs sehr kompakt sind und sich mit ihnen »EinChip«-Lösungen realisieren ließen. In der Praxis erweist sich dies oft als Trugbild, da zusätzliche Komponenten wie Quarze, Filter und Antennen benötigt werden. Für eine optische Übertragung ist das nicht notwendig. Statt einer Antenne kommen hier deutlich kleinere Sendedioden oder Photodetektoren zum Einsatz. Dies war der Hauptgrund dafür, weshalb in einem elektrischen Stimulator zur Anregung der Speichelproduktion bei Patienten mit Hyposalivation, der in einem Kunstzahn untergebracht war, eine optische Übertragung zur Steuerung verwendet wurde (Strietzel et al. 2006). Noch musste der Patient für eine erfolgreiche Datenkommunikation den Mund öffnen. In einem Medikamentendosiersystem, das ebenfalls in einer Art zahntechnischen Vorrichtung integriert wurde, war dies nicht mehr notwendig: Hier wurden die Telemetrie-Werte durch die Wange übertragen (Scholz et al. 2008). Dazu musste der Patient das Lesegerät, ähnlich wie bei einem Mobiltelefon, lediglich an die Wange halten.
50.4.4 Energieversorgung für Implantate
Die wesentlichen Kriterien zur Auswahl der Energieversorgung von Implantaten sind deren Energieverbrauch, das zur Verfügung stehende Implanationsvolumen und die Möglichkeit, die Komponente des Implantats, welche die Energiequelle enthält, zu ersetzen. Bei Herzschrittma-
chern ist die klassische Form der Energieversorgung der Einsatz von Batterien. Insbesondere seit dem Gebrauch von Lithium-Jodid-Batterien ist es gelungen, bei einem relativ kleinen Volumen des Implantats eine Laufzeit von 5 bis 10 Jahren zur gewährleisten. Da bei dieser Art von Geräten der aktive Teil, in dem die Batterie integriert ist, in einer subkutanen Tasche im Brustbereich implantiert ist und eine Schraubverbindung zur Elektrode einen Austausch der aktiven Komponente bei Verbleib der distal eingewachsenen Elektrode ermöglicht, stellt ein Austausch nur eine verhältnismäßig geringe Belastung für den Patienten dar. Wesentliche Voraussetzung ist der geringe Energieverbrauch von Herzschrittmachern, der durch die niedrige Stimulationsrate, die geringe Anzahl an Elektroden und die gute Ankopplung zum Gewebe bedingt ist. Eine weitere wesentliche Eigenschaft von Herzschrittmachern oder Tiefenhirnstimulatoren, deren Energieversorgung ebenfalls mit Batterien sichergestellt wird, ist ihr autonomer Betrieb. Beide Systeme arbeiten im Normalfall ohne externe Ansteuerung. Nur zur Aktivierung oder Deaktivierung und zur Therapieanpassung sind temporäre Datenübertragungen erforderlich. Die Versorgung mit Batterien ist jedoch bei Systemen mit hoher Elektrodenanzahl und hoher Stimulationsrate nicht möglich. Beispiele sind Implantate zur Stimulation der oberen Extremitäten zur Steuerung von Greifbewegungen bei Querschnittgelähmten. Für Implantate, die keine lebenswichtigen Funktionen beeinflussen, werden bereits wiederaufladbare Akkumulatoren eingesetzt. Beispielsweise bietet die Firma Medtronic® einen Neurostimulator an, der im Vergleich zur Batterievariante etwa eine doppelte Lebensdauer aufweist. Die Laderhythmen liegen bei ungefähr 4–6 Wochen. Eine alternative Speicherung von Energie wird bei implantierbaren Medikamentenpumpen eingesetzt. Hierbei ist die Energie zur Abgabe der Medikamente über elastische Komponenten mechanisch gespeichert (Medizintechnik Promedt GmbH). Um die Energieversorgung ohne künstliche Energiezuführung von außen zu ermöglichen, gibt es Forschungsansätze, Energie aus der natürlichen Umgebung zu nutzen und damit ein energieautarkes System zu realisieren. Diese Ansätze lassen sich nach der Art der primären Energiequelle und dem Wandlerprinzip unterscheiden. Zu den Wandlern, die mechanische Energie des Körpers in elektrische Energie umwandeln, gehören piezoelektrische, kapazitive und elektromagnetische Generatoren. Aufgrund der vielseitigen Einsatzorte im Körper ergeben sich unterschiedliche Ankopplungsmöglichkeiten. An Sehnen oder Muskeln treten longitudinale Kräfte auf. Über Gelenke kann man Biegeverformungen des Generators nutzen, und an Druckstellen, die unterhalb des Fußes oder im Muskel liegen, treten Druckschwankungen auf, die genutzt werden können. Die wesentliche Herausforderung bei mechanischen Wandlern besteht in
821 50.4 · Implantat-Telemetrie
der flexiblen Kapselung der elektrischen Komponenten wie beispielsweise einer Piezokeramik. Weiterhin sind die durch die mechanische Belastung hervorgerufenen Gewebereaktionen sorgfältig zu analysieren. Bei den thermoelektrischen Wandlern erwartet man durch die kontinuierliche Produktion thermischer Energie des Körpers gute Potentiale. Betrachtet man jedoch die Temperaturgradienten an den möglichen Implantationsorten und die Beeinflussung der Gradienten durch Umgebungstemperatur und Kleidung, sind nur geringe Werte erreichbar. Forschungsansätze der Firma Biophan® versuchten thermoelektrische Wandler auf Temperaturdifferenzen von 1°C–5°C zu optimieren, um hierdurch Leistungen von bis zu 100 μW bei 4 V Generatorspannung zu erzielen. Hierzu ist eine Wandlerfläche von 2,5 cm2 geplant. Diese Systeme konnten sich jedoch bis heute nicht durchsetzen. Photovoltaische Wandler haben ihre Einschränkung im Wesentlichen durch die wenigen Körperstellen, die nicht, auch wenn nur gelegentlich, durch Bekleidung beschattet werden. Die Implantation von photovoltaischen Wandlern dicht unterhalb der Haut gestaltet sich bei Menschen allerdings schon aus kosmetischer Sicht als schwierig. Der Einsatz von Brennstoffzellen zur Umwandlung von Stoffwechselprodukten in elektrische Energie ist eine weitere Möglichkeit, körpereigene Energien zur Energieversorgung von Implantaten zu nutzen. Die wesentlichen Herausforderungen bei diesen Entwicklungen sind der Schutz der Brennstoffzelle vor Katalysatorgiften und die Gewährleistung der kontinuierlichen Versorgung mit Brennstoffen sowie der Abtransport der Reaktionsprodukte. Zum Teil kann diese Aufgabe durch die Entwicklung geeigneter Membranen gelöst werden. Hierdurch konnten Systeme entwickelt werden, die erfolgreich die Energie umwandeln können. Jedoch lagert sich nach und nach Bindegewebe an den Membranen an, wodurch der Transport der erforderlichen Substanzen gebremst wird. Hierdurch reduziert sich auch die Leistung des Wandlers. Aufgrund der geringen Leistung der Wandler ist in jedem Fall ein Energiespeicher erforderlich, der Verbrauchsspitzen des Implantats, z. B. zur Übertragung von
Daten oder Lücken in der Energieversorgung, etwa durch fehlende Bewegung ausgleichen kann. Auch ist eine spezielle Schaltung zum Energiemanagement erforderlich, die Spannungspegel des Wandlers und die Elektronik aufeinander anpasst. In den 1980er Jahren wurden als Energiequelle für Herzschrittmacher sogar Isotopenbatterien mit radioaktivem Plutonium-238 eingesetzt. Diese wurden jedoch aufgrund der Materialproblematik vom Markt genommen. Nach Angaben des Bundesamts für Strahlenschutz wurden in Deutschland 284 Patienten mit solchen Implantaten versorgt, von denen 2010 noch zwei lebten.
50.4.5 Leitungscodes
Um einen seriellen Datenstrom über eine Leitung oder eine Funkstrecke zu übertragen, werden verschiedene Codierungsmethoden eingesetzt. Diese unterscheiden sich in ihrem Übertragungsverhalten wie Gleichspannungsfreiheit oder durch die Integration des Taktsignals. Gleichspannungsfreiheit ist dann erforderlich, wenn die Signale z. B. über eine induktive gekoppelte Schnittstelle zur galvanischen Entkopplung übertragen werden sollen. Eine Rückgewinnung des Taktes ist insbesondere dann sinnvoll, wenn beide Systeme nicht synchron arbeiten, da sonst kein gemeinsames Taktsignal zur Verfügung steht. Im Folgenden werden exemplarisch einige der Codes aufgeführt. Bei dem NRZ-Code (No Return to Zero) werden die logische »1« und »0« durch unterschiedliche Spannungspegel dargestellt (⊡ Abb. 50.5). Bei einer Folge von Einsen oder Nullen tritt jedoch ein Gleichspannungsanteil auf. Weiterhin besteht nicht die Möglichkeit, aus diesem Signal den Takt auf der Empfängerseite zurückzugewinnen. Der AMI-Code (Alternate Mark Inversion) zeichnet sich durch drei unterschiedliche Spannungspegel aus (⊡ Abb. 50.6). Die logische Null wird durch 0 V gekennzeichnet, und bei einer logischen Eins wird der Signalspannungspegel angelegt. Die Polarität der Signalspannung alterniert von einer Eins zur nächsten. Aus diesem
NRZ-Code Ta k t Daten
1
0
1
0
1
1
0
0
1
1
1
0
0
0
Signal UH 0V UL
t
⊡ Abb. 50.5. Beispiel NRZ-Code (No Return to Zero)
50
822
Kapitel 50 · Telemedizin am Beispiel aktiver Implantate
AMI-Code Takt Daten
1
0
1
0
1
1
0
0
1
1
1
0
0
0
Signal US 0V ⊡ Abb. 50.6. Beispiel AMI-Code (Alternate Mark Inversion)
t
-US
V
Manchester-Code Takt Daten
1
0
1
0
1
1
0
0
1
1
1
0
0
0
Signal US 0V ⊡ Abb. 50.7. Beispiel Manchester-Code
t
-US
Signal lässt sich nur bei einer Abfolge von Einsen ein Taktsignal auf der Empfängerseite extrahieren, bei einer Folge von Nullen kann kein Taktsignal extrahiert werden. Jedoch ist die Gleichspannungsfreiheit gewährleistet. Beim Manchester-Code werden die digitalen Zustände Eins und Null durch Polaritätswechsel zur Taktmitte gekennzeichnet (⊡ Abb. 50.7). Fallende Flanken symbolisieren eine Eins, und steigende Flanken symbolisieren eine Null. In diesem Fall kann man stets den Takt aus dem Signal ermitteln, das darüber hinaus keinen Gleichspannungsanteil enthält. Nachteil dieser Codes ist die höhere erforderliche Bandbreite, da die Taktfrequenz doppelt so hoch ist wie die Bitrate.
eine Körperwaage oder ein Blutdruckmessgerät – hier unter Verwendung der Bluetooth-Technologie – mit eingebunden. Der Hersteller verspricht sich davon, dass den behandelnden Ärzten so ein umfassenderes Gesundheitsbild des Patienten zur Verfügung steht, ohne dass dieser in der Praxis oder Klinik erscheinen muss. Untermauert wird die These, dass eine regelmäßige Übermittlung von umfangreichen Herzschrittmacher-Daten an Kliniken zu einer Verringerung des Komplikationsrisikos führt, durch eine Studie, welche durch die Industrie gesponsert wurde (Chen et al. 2008).
Literatur 50.5
Einbeziehung von aktiven medizinischen Implantaten in Telemedizinsystemen
Alle namhaften Hersteller aktiver Implantate zur Therapie von Herzerkrankungen bieten inzwischen telemedizinische Dienste für ihre Produkte an: Merlin.net von St. Jude®, Biotronik Homemonitoring, Carelink von Medtronic® etc. Das Latitude-System von Boston Scientific® überwacht dabei nicht nur die Funktionen des Herzschrittmachers. Vielmehr werden ausdrücklich andere Geräte, wie
Ackermann DM, Smith B, Xiao-Feng W, Kilgore KL, Hunter Peckham P (2008) Designing the Optical Interface of a Transcutaneous Optical Telemetry Link. IEEE Transactions on Biomedical Engineering 55(4): 1365–1373 Ahn JM, Lee JH, Choi SW, Kim WU, Omn KS, Park SK et al. (1998) Implantable Control, Telemetry, and Solar Energy System in the Moving Actuator Type Total Artificial Heart. Artificial Organs 22(3) 250–259 Bolz A (2005) Schlüsselkomponenten für die Integration existierender TeleHomeCare-Komponenten. Kongressband 6. Würzburger Medizintechnik Kongress: 262–269 Chen J, Wilkoff B, Choucair W, Cohen T, Crossley G, Johnson WB et al. (2008) Design of the Pacemaker REmote Follow-up Evaluation
823 Literatur
and Review (PREFER) trial to assess the clinical value of the remote pacemaker interrogation in the management of pacemaker patients. Trials 9(1): 18 Dobelle WH (2000) Artifical Vision for the Blind by Connecting a Television Camera to the Visual Cortex. Journal of the American Society for Artificial Internal Organs 46: 3–9 Electronic Communications Committee (ECC) within CEPT (2006) Coexistance between Ultra-Low Power Active Medical Implants (ULPAMI) and existing Radiocommunication Systems and Services in the Frequency Bands 401–402 MHz and 405–406 MHz, ECC Report 92, Lübeck Flick B, Orglmeister R (2000) A Portable Microsystem-Based Telemetric Pressure and Temperature Measurement Unit. IEEE Transactions on Biomedical Engineering 47: 12–16 Guillory KS, Misener AK, Pungor A (2004) Hybrid RF/IR Transcutaneous Telemetry for Power and High-Bandwidth Data. Proceedings of the 26th Annual International Conference of the IEEE EMBS, 4338–4340 Hochmair ES (1984) System Optimization for Improved Accuracy in Transcutaneous Signal and Power Transmission. IEEE Transactions on Biomedical Engineering 31: 177–186 Iddan G, Meron G, Glukhovsky A, Swain P (2000) Wireless Capsule Endoscopy. Nature 405: 417 Kendir GA, Liu W, Wang G, Sivaprakasam M, Bashirullah R, Humayun MS, Weiland JD (2005) An Optimal Design Methodology for Inductive Power Link With Class-E Amplifier. IEEE Transactions on Circuits and Systems 52(5): 857–866 Kiefer S, Schäfer M, Schera F, Kruse K (2004) TOPCARE – A Telematic Homecare Platform for Cooperative Healthcare Provider Networks. Biomedizinische Technik, Bd. 49, Ergänzungsband 2: 246–247 Kim S, Bhandari R, Klein M, Negi S, Rieth L, Tathireddy P et al. (2009) Integrated wireless neural interface based on the Utah electrode array. Biomedical Microdevices 11(2): 453–466 Kudo N, Shimizo K, Matsumoto G (1988) Fundamental Study on Transcutaneous Biotelemetry using Diffused Light. Frontiers in Medical and Biological Engineering 1(1): 19–28 Normann RA (1990) Towards an Artificial Eye. Medical Device Technology 8: 14–20 Mitamura Y, Okamoto E, Mikami T (1990) A Transcutaneous Optical Information Transmission System for Implantable Motor-Driven Artificial Hearts. American Society for Artificial Internal Organs Transactions 36(3): M278–M280 Okamoto E, Yamamoto Y, Inoue Y, Makino T, Mitamura Y (2005) Development of a bidirectional transcutaneous optical data transmission system for artificial hearts allowing long-distance data communication with low electric power consumption. Journal of Artificial Organs 8(3): 149–153 Scholz O (2000) Konzeption und Entwicklung eines Datenübertragungssystems für den Einsatz in der Neuroprothetik. Dissertation an der Universität des Saarlandes, Saarbrücken Scholz O, Parramon J, Meyer J-U, Valderrama E (1997) The Design of an Implantable Telemetric Device for the Use in Neural Prostheses. Proceedings of the 14th International Symposium on Biotelemetry: 265–269 Scholz O, Wolff A, Schumacher A, Giannola LI, Campisi G, Ciach T, Velten T (2008) Drug delivery from the oral cavity: focus on a novel mechatronic delivery device. Drug Discovery Today 13(5–6): 247–253 Skupin H (2005) Telemedizin in der täglichen Routine. Kongressband 6. Würzburger Medizintechnik Kongress: 262–269 Smith B, Peckham PH, Keith MW, Roscoe DD (1987) An Externally Powered, Multichannel, Implantable Stimulator for Versatile Control of Paralyzed Muscle. IEEE Transactions on Biomedical Engineering 34: 499–508 Strietzel FP, Martín-Granizo R, Fedele S, Lo Russo L, Mignogna M, Reichart PA, Wolff A (2006) Electrostimulating device in the management of xerostomia. Oral Diseases 13(2): 206–213
Vodermayer B, Gruber R, Schmid T, Schiller W, Hirzinger G, Liepsch D, Welz A (2005) Adaptive Transcoutanous Energy Transfer System (TET) for Implantable Devices. Int J Artif Organs 28(9): 885 Zierhofer CM, Hochmair-Desoyer IJ, Hochmair ES (1995) Electronic Design of a Cochlear Implant for Multichannel High Rate Pulsatile Stimulation Strategies. IEEE Transactions on Rehabilitation Engineering 3: 112–116 Zierhofer CM, Hochmair ES (1994) Implementation of a Telemetric Monitoring System in a Cochlear Implant. Proceedings of the 16th Annual International Conference of the IEEE Engineering in Medicine and Biology Society: 910–911 Zierhofer CM, Hochmair ES (1990) High-efficiency coupling-insensitive transcutaneous power and data transmission via an inductive link. IEEE Transactions on Biomedical Engineering 37(7): 716–722 Zrenner E, Wilke R, Sachs H, Bartz-Schmidt K, Gekeler F, Besch D, Greppmaier U, Harscher A, Peters T, Wrobel G, Wilhelm B, Bruckmann A, Stett A, SUBRET Study Group (2008) Visual Sensations Mediated By Subretinal Microelectrode Arrays Implanted Into Blind Retinitis Pigmentosa Patients. Proceedings of the 13th Annual Conference of the IFESS: 218–22
50
51 Medizinische Bildverarbeitung T. M. Deserno, geb. Lehmann
51.1 Einleitung – 825
51.8 Interpretation – 839
51.2 Vorbemerkungen zur Terminologie – 826
51.9 Bilddarstellung – 840
51.3 Bildbearbeitung – 827
51.10 Bildspeicherung – 842
51.4 Merkmalsextraktion – 831
51.11 Resümee und Ausblick – 845
51.5 Segmentierung – 832 51.5.1 51.5.2 51.5.3 51.5.4
Pixelorientierte Segmentierung – 832 Kantenorientierte Segmentierung – 834 Regionenorientierte Segmentierung – 834 Hybride Segmentierungsverfahren – 835
51.6 Klassifikation – 837 51.7 Vermessung – 838
51.1
Einleitung
Durch die zunehmende Digitalisierung bildgebender Systeme für die medizinische Diagnostik gewinnt die digitale Bildverarbeitung eine immer stärkere Bedeutung für die Medizin. Neben den ohnehin digitalen Verfahren wie der Computertomographie (CT) oder Magnetresonanztomographie (MR) werden heute auch bislang analoge Verfahren wie die Endoskopie oder das Filmröntgen durch digitale Sensoraufnahmen ersetzt. Digitale Bilder bestehen aus einzelnen Bildpunkten (engl. picture element, pixel), denen diskrete Helligkeits- oder Farbwerte zugeordnet sind. Sie können effizient aufbereitet, objektiv ausgewertet und über Kommunikationsnetze (Picture Archieving and Communication Systems, PACS) an vielen Orten gleichzeitig verfügbar gemacht werden. Damit eröffnet sich das gesamte Methodenspektrum der digitalen Bildverarbeitung für die Medizin. Der geläufige Terminus »Medizinische Bildverarbeitung« bedeutet also die Verfügbarmachung der digitalen Bildverarbeitung für die Medizin. Auch die Medizinische Bildverarbeitung umfasst somit vier große Bereiche (⊡ Abb. 51.1). Die Bilderzeugung enthält alle Schritte von der Aufnahme bis hin zur digitalen Bildmatrix. Mit Bilddarstellung werden alle Manipulationen an dieser Matrix bezeichnet, die der optimierten Ausgabe des Bildes dienen. Unter Bildspeicherung können alle Techniken summiert werden, die der effizienten Übertragung (Kommunikation), Archivierung und dem Zugriff (Retrieval) der Daten dienen. Bereits eine einzelne Röntgenaufnahme kann in ihrem Ursprungszustand mehrere Megabyte Speicher-
Literatur
– 845
Allgemeine Literatur zur digitalen Bildverarbeitung – 845 Grundlegende Literatur zur medizinischen Bildverarbeitung – 845 Spezielle Literatur
– 846
kapazität erforderlich machen ( Abschn. 51.10). In den Bereich der Bildspeicherung gehören auch die Methoden der Telemedizin. Die Bildauswertung (Mustererkennung, Bildanalyse) umfasst schließlich alle Schritte, die sowohl zur quantitativen Vermessung als auch zur abstrakten Interpretation medizinischer Bilder eingesetzt werden. Hierzu muss umfangreiches A-priori-Wissen über Art und Inhalt des Bildes auf einem abstrakten Niveau in den Algorithmus integriert werden ( Abschn. 51.2). Damit werden die Verfahren der Bildauswertung sehr spezifisch und können nur selten direkt auf andere Fragestellungen übertragen werden. Im Gegensatz zur Bildauswertung, die oft auch selbst als Bildverarbeitung bezeichnet wird, umfasst die Bildbearbeitung solche manuellen oder automatischen Techniken, die ohne A-priori-Wissen über den konkreten Inhalt der einzelnen Bilder realisiert werden. Hierunter fallen also alle Algorithmen, die auf jedem Bild einen ähnlichen Effekt bewirken. Bspw. führt eine Spreizung des Histogramms in einer Röntgenaufnahme wie in jedem beliebigen Urlaubsfoto gleichermaßen zu einer Kontrastverbesserung ( Abschn. 51.3). Daher stehen Methoden zur Bildbearbeitung schon in einfachen Programmen zur Bilddarstellung zur Verfügung. Vor diesem Hintergrund gibt das vorliegende Kapitel eine Einführung in die Methoden der Medizinischen Bildverarbeitung. Nach grundlegenden Vorbemerkungen zur Terminologie behandelt Abschn. 51.3 die Bildbearbeitung insoweit dies zum Verständnis dieses Kapitels nötig ist. Anschließend werden die Kernschritte der Bildauswertung: Merkmalsextraktion, Segmentierung, Klassi-
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _51, © Springer-Verlag Berlin Heidelberg 2011
826
V
Kapitel 51 · Medizinische Bildverarbeitung
⊡ Abb. 51.1. Stufen der Medizinischen Bildverarbeitung. Die Medizinische Bildverarbeitung umfasst vier Hauptbereiche: die Bilderzeugung, -auswertung, -darstellung und -speicherung; die Module der Bildbearbeitung können als Vor- bzw. Nachbearbeitung allen Bereichen zugeordnet werden (Lehmann et al. 2005)
fikation, Vermessung und Interpretation (⊡ Abb. 51.1) in eigenen Abschnitten vorgestellt. Der Schwerpunkt liegt dabei auf der Segmentierung medizinischer Bilder, denn diese ist von hoher Relevanz und hat daher spezielle Methoden und Techniken hervorgebracht. In Abschn. 51.9 skizzieren wir ergänzend die wichtigsten Aspekte medizinischer Datenvisualisierung. Auch hier haben sich spezifische Methoden entwickelt, die hauptsächlich in der Medizin Anwendung finden. Abschn. 51.10 gibt einen kurzen Abriss der Bildspeicherung, denn die elektronische Kommunikation medizinischer Bilder wird künftig innerhalb einer multimedialen, elektronischen Patientenakte eine immer stärkere Bedeutung bekommen. Abschn. 51.11 rundet das Kapitel mit einer Übersicht vergangener, gegenwärtiger und künftiger Herausforderungen an die Medizinische Bildverarbeitung ab.
51.2
Vorbemerkungen zur Terminologie
Für die Unterscheidung zwischen Bildbe- und verarbeitung spielt die Komplexität oder implementatorische Schwierigkeit des Verfahrens sowie dessen Rechenzeit nur eine untergeordnete Rolle. Vielmehr ist der Abstraktionsgrad des A-priori-Wissens von entscheidender Bedeutung (⊡ Abb. 51.2). Die im Folgenden gegebenen Definitionen sind in der Literatur leider nicht einheitlich. Sie werden jedoch in diesem Kapitel konsistent verwendet: ▬ Die Rohdatenebene erfasst ein Bild als Ganzes, also in der datenbasierten Gesamtheit aller Pixel. ▬ Die Pixelebene hingegen betrachtet das Bild als Ansammlung einzelner diskreter Pixel. ▬ Die Kantenebene repräsentiert eindimensionale Strukturen.
⊡ Abb. 51.2. Abstraktionsgrade der Bildverarbeitung. Die linke Seite der Pyramide benennt die einzelnen Abstraktionsgrade der Bildverarbeitung. Rechts werden diese exemplarisch auf eine Panoramaschichtaufnahme des Kiefers (Orthopantomogramm, OPG) übertragen. Der Zahnstatus, der nur noch standardisierte Information zu den Zahnpositionen (Vorhandensein und Zustand) enthält, entspricht damit einer abstrakten Szenenanalyse (Lehmann 2000b)
▬ Die Texturebene repräsentiert zweidimensionale Strukturen, ohne dass eine Umrandung der Struktur bekannt sein muss. ▬ Die Regionenebene beschreibt zweidimensionale Strukturen mit definierter Umrandung. ▬ Die Objektebene benennt die dargestellten Objekte im Bild explizit mit einem Namen, d. h. hier wird eine Bedeutung (Semantik) für einzelne Bildregionen ermittelt. ▬ Die Szenenebene betrachtet das Ensemble von Bildobjekten im räumlichen und/oder zeitlichen Bezug.
827 51.3 · Bildbearbeitung
Auf dem Weg von der ikonischen (konkreten) zur symbolischen (abstrakten) Bildbeschreibung wird schrittweise Information verdichtet. Methoden der Bildbearbeitung operieren auf den Rohdaten sowie der Pixel- oder Kantenebene und damit auf niedrigem Abstraktionsniveau. Methoden der Bildverarbeitung schließen auch die Regionen-, Objekt- und Szenenebene mit ein. Die hierfür notwendige Abstraktion kann durch zunehmende Modellierung von A-priori-Wissen erreicht werden. Aus diesen Definitionen wird die besondere Problematik bei der Verarbeitung medizinischer Bilder direkt ersichtlich. Sie liegt in der Schwierigkeit, das medizinische A-priori-Wissen so zu formulieren, dass es in einen automatischen Bildverarbeitungsalgorithmus integriert werden kann. In der Literatur spricht man von der Semantic Gap, also der Diskrepanz zwischen der kognitiven Interpretation eines Bildes durch den menschlichen Betrachter (high level) und den pixelbasierten Merkmalen, mit denen Computerprogramme ein Bild repräsentieren (low level). Beim Schließen dieser Gap ergeben sich in der Medizin drei Hauptprobleme: 1. Heterogenität des Bildmaterials Medizinische Bilder stellen Organe oder Körperteile dar, die nicht nur von Patient zu Patient, sondern auch bei verschiedenen Ansichten eines Patienten und bei gleichartigen Ansichten desselben Patienten zu verschiedenen Zeitpunkten stark variieren können. Beinahe alle dargestellten morphologischen Strukturen unterliegen sowohl einer inter- als auch intraindividuellen Variabilität des Erscheinungsbildes. Damit wird die allgemeingültige Formulierung des A-prioriWissens erschwert. 2. Unscharfe Gewebegrenzen Oft kann in medizinischen Bildern keine Trennung zwischen Objekt und Hintergrund vorgenommen werden, denn das diagnostisch oder therapeutisch relevante Objekt wird durch das gesamte Bild repräsentiert. Doch auch wenn in den betrachteten Bildern definierbare Objekte enthalten sind, ist deren Segmentierung problematisch, da sich die Gewebegrenzen biologischer Objekte oft nur undeutlich oder stellenweise darstellen. Medizinisch relevante Objekte müssen also aus der Texturebene abstrahiert werden. 3. Robustheit der Algorithmen Neben diesen die Bildverarbeitung erschwerenden Eigenschaften des Bildmaterials gelten im medizinischen Umfeld besondere Anforderungen an die Zuverlässigkeit und Robustheit der eingesetzten Verfahren und Algorithmen. Automatische Bildanalyse in der Medizin darf i. d. R. keine falschen Messwerte liefern. Das heißt, dass nicht auswertbare Bilder als solche klassifiziert und zurückgewiesen werden müssen. Alle akzeptierten Bilder müssen dann auch richtig ausgewertet werden.
51.3
Bildbearbeitung
Methoden der Bildbearbeitung, d. h. Verfahren und Algorithmen, die ohne spezielles Vorwissen über den Inhalt eines Bildes eingesetzt werden können, werden in der Medizinischen Bildverarbeitung meist zur Vor- bzw. Nachbearbeitung eingesetzt (⊡ Abb. 51.1). Auf die grundlegenden Algorithmen zur Grauwertmodifikation, Faltung und (morphologischen) Filterung wird daher nur insoweit eingegangen, wie dies zum Verständnis des weiteren Textes notwendig ist. Als spezielle Vorverarbeitungsschritte der Medizinischen Bildverarbeitung werden wir darüber hinaus Techniken zur Kalibrierung und Registrierung vorstellen. Grauwertmodifikationen. Grauwertmodifikationen (Pixel-Transformationen) basieren auf dem Histogramm des Bildes. Das Histogramm gibt die Häufigkeitsverteilung der Pixelwerte wieder, wobei in dieser Statistik die örtliche Pixelposition unberücksichtigt bleibt. Mit Hilfe des Histogramms können einfache Pixel-Transformationen definiert werden. Zum Beispiel wird durch die Spreizung der Grauwerte eine Verbesserung des Kontrastes erreicht, wenn das Histogramm des initialen Bildes nicht alle Grauwerte enthält, d. h. nur schmal besetzt ist (⊡ Abb. 51.3). Zur Spreizung wird die obere und untere Schranke der Grauwerte aus dem Histogramm abgelesen und auf 0 bzw. den maximal verfügbaren Wert abgebildet. Alle Zwischenwerte werden linear verschoben. Technisch werden solche Grauwertmodifikationen durch Look-Up-Tabellen realisiert. Für alle Pixelwerte enthält die Look-Up-Tabelle einen neuen Wert, der auch aus einem anderen Wertebereich stammen kann. Das Beispiel in ⊡ Tab. 51.1 ordnet jedem Grauwert ein Farbtripel für Rot, Grün und Blau (RGB) zu. Durch diese Look-Up-Tabelle wird das Eingabe-Grauwertbild als pseudocoloriertes Farbbild dargestellt. Für die Pseudocolorierung im medizinischen Kontext wurden spezielle Algorithmen vorgeschlagen (Lehmann et al. 1997b). Bei Modifikationen des Grauwertes werden alle Pixel unabhängig von ihrer Position im Bild und unabhängig von den Pixelwerten in ihrer direkten Umgebung transformiert. Grauwertmodifikationen werden deshalb auch als Punktoperationen bezeichnet. Faltung. Im Gegensatz zu den Punktoperationen wird bei der diskreten Faltung das betrachtete Pixel zusammen mit den Werten seiner direkten Umgebung zu einem neuen Wert verknüpft. Die zugrunde liegende mathematische Operation, die Faltung, kann mit Hilfe sog. Templates charakterisiert werden. Ein Template ist eine meist kleine, quadratische Maske mit ungerader Seitenlänge (⊡ Abb. 51.4). Dieses Template wird entlang beider Achsen gespiegelt (daher der Name »Faltung«) und in einer Ecke des Eingabebildes positioniert. Die Bildpixel unter der Maske werden dann Kernel genannt. Alle überein-
51
828
V
Kapitel 51 · Medizinische Bildverarbeitung
ander liegenden Pixel von Kernel und Template werden jeweils multipliziert und anschließend addiert. Das Ergebnis wird an der Position des mittleren Maskenpixels in das Ausgabebild eingetragen. Das Template wird anschließend zeilen- oder spaltenweise auf dem Eingabebild verschoben, bis alle Positionen einmal erreicht wurden und das Ausgabebild somit vollständig berechnet ist. Die Pixelwerte des Templates bestimmen dabei die Wirkung der Filterung. Werden nur positive Werte im Template verwendet, so wird im Wesentlichen eine (gewichtete) Mittelung in der lokalen Umgebung jedes Pixels berechnet (⊡ Abb. 51.4a,b). Das Ergebnisbild ist geglättet und erscheint mit reduziertem Rauschen. Allerdings wird auch die Kantenschärfe reduziert. Werden positive und a
negative Koeffizienten gleichzeitig verwendet, so können auch Kontraste im Bild verstärkt und Kanten hervorgehoben werden (⊡ Abb. 51.4c-f ). Anisotrope (nicht rotationssymmetrische) Templates haben darüber hinaus eine Vorzugsrichtung (⊡ Abb. 51.4e,f ). Hiermit können Kontraste richtungsselektiv verstärkt werden. Morphologische Filterung. Ein weiteres Konzept zur Filterung wurde aus der mathematischen Morphologie adaptiert. Obwohl morphologische Operatoren auch auf Grauwertbilder definiert werden können, steht bei der morphologischen Filterung die Anwendung auf binäre (zweiwertige) Eingangsbilder im Vordergrund, die zu binären Templates (Strukturelementen) mit logischen Opeb
c
⊡ Abb. 51.3a–c. Grauwertspreizung. a Der Ausschnitt einer Röntgenaufnahme zeigt die spongiöse Knochenstruktur aus dem Bereich des Kiefergelenkes nur mangelhaft, da die Röntgenaufnahme stark unterbelichtet wurde, b das zugehörige rot dargestellte Histogramm ist nur schmal besetzt. Durch Histogrammspreizung werden die Säulen im blauen Histogramm linear auseinandergezogen und das zugehörige Röntgenbild in c erscheint kontrastverstärkt
⊡ Tab. 51.1. Look-Up-Tabelle zur Pseudocolorierung. Eine Look-Up-Tabelle enthält für jeden Wert aus dem Wertebereich des Eingabebildes einen Wert aus dem Wertebereich des Ausgabebildes. Die hier dargestellte Farbpalette dient der helligkeitserhaltenden Pseudocolorierung des Eingabebildes. Die Pseudocolorierung ermöglicht die Darstellung von Daten, deren Wertebereich die Kantenlänge des RGB-Würfels überschreitet, ohne eine informationsreduzierende Fensterung (Lehmann et al. 1997b) alt
Pixelwert neu
alt
Pixelwert neu
Grau
Rot
Grün
Blau
Grau
Rot
Grün
Blau
0
0
0
0
–
–
–
–
1
1
0
2
246
254
244
239
2
2
0
3
247
255
245
243
3
3
0
5
248
255
245
244
4
4
1
7
249
255
246
246
5
5
1
9
250
255
247
248
6
5
2
12
251
255
249
250
7
5
2
14
252
255
251
252
8
5
3
16
253
255
251
253
9
5
4
18
254
255
253
254
–
–
–
–
255
255
255
255
829 51.3 · Bildbearbeitung
rationen verknüpft werden. Nach einer allgemeinen Konvention bezeichnen weiße Pixel im Binärbild das Objekt und schwarze den Hintergrund. Für die morphologischen Operationen können mathematisch eindeutige Formulierungen und Gesetze notiert werden (Soille 1998). Die wichtigsten Operationen, ▬ Erosion (basiert auf logischem AND von Template und Binärbild), ▬ Dilatation (basiert auf logischem OR von Template und Binärbild), ▬ Opening (Erosion gefolgt von Dilatation), ▬ Closing (Dilatation gefolgt von Erosion) und ▬ Skelettierung (z. B. durch Erosion mit verschiedenen Strukturelementen), werden hier qualitativ beschrieben. Die Erosion führt zu einer Verkleinerung des Objektes und die Dilatation zu dessen Vergrößerung. Das Opening entfernt kleine Details am Objektrand oder aus dem Hintergrund, ohne das Objekt insgesamt nennenswert zu verkleinern. Das Closing vermag Löcher in Inneren eines Objektes zu schließen und dessen Kontur zu glätten, wobei auch hier die Größe des Objektes in etwa erhalten bleibt. Bei der Skelettierung wird ein in der Mitte des Objektes liegender Pfad der Dicke Eins bestimmt (»Skelett«). Kalibrierung. Sollen Messungen in digitalen Bildern vorgenommen werden, so muss das Aufnahmesystem kalibriert werden. Die Kalibrierung von Geometrie (Pixelposition) und Wertebereich (Helligkeits- oder Farbintensitäten) hängt in erster Linie von der Aufnahmemodalität ab. Sie ist gerätespezifisch, aber unabhängig vom Inhalt der Aufnahme und somit Bestandteil der Bildbearbeitung. Während bei der manuellen Befundung einer Untersuchungsaufnahme die Kalibrierung vom Arzt oder Radiologen unbewusst vorgenommen wird, muss sie bei der rechnergestützten Bildauswertung explizit implementiert werden. Geometrische Abbildungsfehler (Verzeichnung) haben zur Folge, dass die medizinisch relevanten Struktu-
a
b
c
d
e
f
⊡ Abb. 51.4a–f. Einfache Templates zur diskreten Faltung. a Die gleitende Mittelwertbildung sowie b das Binomial-Tiefpassfilter bewirken eine Glättung des Bildes, c das Binomial-Hochpassfilter hingegen verstärkt Kontraste und Kanten, aber auch das Rauschen im Bild. Die Templates a–c müssen geeignet normiert werden, damit der Wertebereich nicht verlassen wird. d der Kontrastfilter basiert auf ganzzahligen Pixelwerten. Die Faltung mit d ist daher besonders einfach zu berechnen. Die anisotropen Templates e und f gehören zur Familie der Sobel-Operatoren. Durch Drehung und Spiegelung können insgesamt acht Sobel-Masken zur richtungsselektiven Kantenfilterung erzeugt werden (⊡ Abb. 51.8)
ren unterschiedlich groß dargestellt werden, je nachdem an welcher Bildpositionen sie abgebildet werden, bzw. je nachdem wie das Aufnahmegerät positioniert wurde. Beispielsweise entstehen bei lupenendoskopischen Aufnahmen tonnenförmige Verzeichnungen (⊡ Abb. 51.5). Aber auch bei der einfachen planaren Röntgenaufnahme werden Objekte, die weit von der Bildebene entfernt sind, durch die Zentralstrahl-Projektion stärker vergrößert als solche, die nahe an der Bildebene liegen. Dies muss bei geometrischen Messungen im digitalen Röntgenbild unbedingt beachtet werden, damit Punktabstände im Bild unter der Annahme eines festen Maßstabes in Längenmaße umgerechnet werden können. In gleicher Weise ist die absolute Zuordnung der Werte einzelner Pixel zu physikalischen Messgrößen problematisch. Zum Beispiel ist bei der Röntgenuntersuchung die Zuordnung der Helligkeitswerte zu den summierten Schwächungskoeffizienten der Materie (Helligkeitsnormierung) nur dann möglich, wenn Aluminiumkeile oder -treppen mit bekannten Schwächungseigenschaften in das Bild eingebracht werden. Bei digitalen Videoaufnahmen muss vorab ein Weißabgleich gemacht werden, damit die aufgenommenen Farbwerte möglichst gut der Realität entsprechen. Dennoch kann es bei der Bildaufnahme zu unterschiedlicher Ausleuchtung der Szene kommen, die dann die Grau- bzw. Farbwerte wiederum verfälscht. Registrierung. Oftmals ist also die absolute Kalibrierung von Untersuchungsaufnahmen nicht oder nur eingeschränkt möglich. Dann kann versucht werden, durch Registrierung einen Angleich zweier oder mehrerer Aufnahmen untereinander zu bewerkstelligen, um zumindest relative Maßangaben bestimmen zu können (Mai 1998). Zum Beispiel ist bei einer akuten Entzündung die absolute Rötung des Gewebes weniger interessant als deren relative Änderung zum Vortagsbefund. Bei der unimodalen Registrierung werden Bilder derselben Modalität einander angeglichen, die i. d. R. vom gleichen Patienten, aber zu unterschiedlichen Zeiten aufgenommen wurden, um so Aussagen über einen Krankheitsverlauf zu ermöglichen (Lehmann et al. 2000b). Wie bereits bei der Kalibrierung wird zwischen der geometrischen Registrierung (Registrierung im Definitionsbereich des Bildes) und dem Farb- oder Kontrastangleich (Registrierung des Wertebereiches) unterschieden. ⊡ Abb. 51.6 veranschaulicht das diagnostische Potential der Registrierung am Beispiel der dentalen Implantologie. Die Befundung der Recall-Aufnahme hinsichtlich des periimplantären Knochenstatus wird durch das Subtraktionsbild nach der Registrierung erheblich vereinfacht. Bei der multimodalen Registrierung werden Datensätze, die mit verschiedenen Modalitäten vom selben Patienten erzeugt wurden, zueinander in Bezug gesetzt. Zum Beispiel kann die starre Registrierung zweier 3D-
51
830
Kapitel 51 · Medizinische Bildverarbeitung
Datensätze als Verschiebung eines Hutes auf dem Kopf veranschaulicht werden (Hat-and-Head-Verfahren, Pelizzari et al. 1989). Insbesondere in der Neurologie sind diese Methoden von entscheidender Bedeutung. Tumorresektionen im Gehirn müssen mit besonderer Vorsicht durchgeführt werden, um den Verlust funktionswichtiger Hirnareale zu vermeiden. Während die morphologische Information in CT- oder MR-Daten ausreichend darge-
stellt werden kann, können Funktionsbereiche im Gehirn oft nur mit der nuklearmedizinischen Positronen-Emissions-Tomographie (PET) oder der Single-Photon-Emission-Computed-Tomographie (SPECT) lokalisiert werden. Die multimodale Registrierung funktioneller und morphologischer Datensätze bietet somit wertvolle Zusatzinformation für die Diagnostik und Therapie (⊡ Abb. 51.7, 4-Farbteil am Buchende).
⊡ Abb. 51.5. Geometrische Verzeichnung und Helligkeitsunterschiede bei der Endoskopie. Bei endoskopischen Untersuchungen entstehen oftmals Tonnenverzeichnungen, die vor der digitalen Bildanalyse korrigiert werden müssen. Darüber hinaus werden die Randbereiche im Bild sichtbar dunkler und unschärfer dargestellt. Bild a entstand
mit einem starren Laryngoskop, das zur Untersuchung des Kehlkopfes eingesetzt wird. Bild b wurde mit einem flexiblen Endoskop zur nasalen Laryngoskopie aufgenommen. Beide Endoskope werden in der klinischen Routine eingesetzt. Mikroskopie und andere optische Modalitäten erzeugen ähnliche Artefakte (Lehmann et al. 2005)
V
Referenzbild
Registrierung
Kontrastangleich
Recall- Untersuchung Subtraktion ⊡ Abb. 51.6. Unimodale Registrierung. In der dentalen Implantologie werden Referenzbild und Recall-Untersuchung zu verschiedenen Zeiten aufgenommen. Die geometrische Registrierung mit nachfolgen-
Segmentierung dem Kontrastangleich ermöglicht die digitale Subtraktion der Bilder. Die Knochenresorption ist im segmentierten Bild dunkelgrau dargestellt (Lehmann et al. 2005)
831 51.4 · Merkmalsextraktion
51.4
Merkmalsextraktion
In ⊡ Abb. 51.1 wurde die Merkmalsextraktion als erste Stufe intelligenter Bildauswertung definiert. Ihr folgen die Segmentierung und Klassifikation, die oftmals nicht auf dem Bild selbst, also auf Daten- oder Pixelebene, sondern auf höheren abstrakten Ebenen operieren (⊡ Abb. 51.2). Die Aufgabe der Merkmalsextraktion ist es somit, die Bildinformation derjenigen Ebene zu betonen, auf der die nachfolgenden Algorithmen arbeiten. Informationen anderer Ebenen müssen hingegen unterdrückt werden. Insgesamt wird also eine Datenreduktion durchgeführt, die die charakteristischen Eigenschaften erhält. Das Schema in ⊡ Abb. 51.1 ist dabei stark vereinfacht, denn viele Querverbindungen zwischen den Modulen wurden der Übersicht halber weggelassen. So können z. B. Kaskaden von Merkmalsextraktion und Segmentierung auf verschiedenen Abstraktionsebenen sukzessive realisiert werden, bevor die Klassifikation schließlich auf hohem Abstraktionsniveau erfolgt. Ebenso wird vor der Klassifikation oft ein regionenbasierter Merkmalsextraktionsschritt durchgeführt.
Auch die Hough-, Wavelet- oder Karhunen-Loève-Transformation bieten Möglichkeiten der datenbasierten Merkmalsextraktion (Lehmann et al. 1997a). Die Erforschung solcher Methoden ist jedoch keine Hauptaufgabe der Medizinischen Bildverarbeitung. Vielmehr werden solche Verfahren aus vielen Bereichen der Technik in die medizinische Anwendung adaptiert. Pixelbasierte Merkmale. Pixelbasierte Merkmale beruhen auf den Werten der einzelnen Pixel – in der Medizinischen Bildverarbeitung also meist auf Grau- bzw. Farbwerten. Damit können alle in Abschn. 51.4 beschriebenen Punktoperationen als Beispiel der pixelbasierten Merkmalsextraktion angeführt werden. Ein weiteres Beispiel wurde bereits in ⊡ Abb. 51.6 vorgestellt, nämlich die arithmetische Verknüpfung zweier Bilder. Die Subtraktion von Referenz- und Recall-Aufnahme nach deren Registrierung verstärkt als pixelbasiertes Merkmal lokale Änderungen im Bild.
Datenbasierte Merkmale. Datenbasierte Merkmale beruhen auf der gemeinsamen Pixelinformation aller Pixel. Damit können alle Bildtransformationen, die die gesamte Bildmatrix auf einmal manipulieren, als datenbasierte Merkmalsextraktion verstanden werden. Das prominenteste Beispiel eines datenbasierten Merkmales ist die Fourier-Transformierte des Bildes, die als Merkmal Bildfrequenzen nach Amplitude und Phasenlage erzeugt.
Kantenbasierte Merkmale. Kantenbasierte Merkmale werden durch lokalen Kontrast definiert, also einen starken Unterschied der Grauwerte direkt benachbarter Pixel. Damit kann die in Abschn. 51.3 bereits eingeführte diskrete Faltung mit geeigneten Templates zur Kantenextraktion eingesetzt werden. Alle Masken zur Hochpassfilterung verstärken Kanten im Bild. Besonders geeignet sind die Templates des Sobel-Operators (⊡ Abb. 51.4e,f ). ⊡ Abb. 51.8 zeigt das Ergebnis der richtungsselektiven Sobel-Filterung einer Röntgenaufnahme. Die Ränder der
⊡ Abb. 51.8. Kantenextraktion mit dem Sobel-Operator. Die Röntgenaufnahme wurde mit den acht richtungsselektiven Sobel-Templates gefaltet. Die starken Kontraste an den Rändern der metallischen Implan-
tate werden durch Binarisierung der richtungsselektiven Kantenbilder weiter verstärkt. Ein isotropes Kantenbild ergibt sich, wenn z. B. zu jeder Pixelposition das Maximum aus den acht Teilbildern gewählt wird
51
832
V
Kapitel 51 · Medizinische Bildverarbeitung
metallischen Implantate werden deutlich hervorgehoben. Ein isotropes Sobel-Kantenbild kann durch Kombination aus den acht Teilbildern erzeugt werden.
Segmentierungsverfahren, die sich aus Kombination einzelner Ansätze ergeben.
Texturbasierte Merkmale. Texturbasierte Merkmale sind in der Medizin seit langem bekannt. In Pathologiebüchern liest man von »kopfsteinartigem« Schleimhautrelief, von »zwiebelschalenartiger« Schichtung der Subintima, von einer »Bauernwurst-Milz«, von einem »Sägeblattaspekt« des Darmephitels oder von einer »Honigwaben-Lunge« (Riede u. Schaefer 1993). So intuitiv diese Analogien für den Menschen sind, desto schwieriger gestaltet sich die Texturerfassung und -verarbeitung mit dem Computer (Semantic Gap), was zu einer Fülle von Verfahren und Ansätzen geführt hat. Die Texturanalyse versucht, die Homogenität einer zwar inhomogenen aber zumindest subjektiv regelmäßigen Struktur (siehe z. B. die Spongiosa in ⊡ Abb. 51.3c) objektiv zu quantifizieren. Man unterscheidet strukturelle Ansätze, bei denen vom Vorhandensein von Texturprimitiven (Textone, Texel) und deren Anordnungsregeln ausgegangen wird, und statistische Ansätze, die die Textur durch einen Satz empirischer Parameter beschreiben.
51.5.1 Pixelorientierte Segmentierung
Regionenbasierte Merkmale. Regionenbasierte Merkmale
dienen hauptsächlich der Klassifikation. Sie werden i. d. R. nach der Segmentierung für jedes Segment berechnet. Hier sind v. a. beschreibende Maßzahlen wie die Größe, Lage und Formparameter zu nennen. Da auf dem Abstraktionsgrad der Region bereits in hohem Maße A-priori-Wissen in den Algorithmus integriert wurde, können keine allgemeingültigen Beispiele angegeben werden. Vielmehr hängt die Ausgestaltung regionenbasierter Merkmalsextraktion stark von der jeweiligen Applikation und der Gestalt des zu beschreibenden Objektes ab ( Abschn. 51.6).
51.5
Pixelorientierte Verfahren zur Segmentierung berücksichtigen nur den Grauwert des momentanen Pixels, ohne dessen Umgebung zu analysieren. Die meisten pixelorientierten Verfahren basieren auf Schwellwerten im Histogramm des Bildes, die mit mehr oder weniger komplexen Methoden bestimmt werden, oder auf statistischen Verfahren zur Pixelclusterung. Pixelorientierte Verfahren sind keine Segmentierungsverfahren im strengen Sinne unserer Definition. Da jedes Pixel nur isoliert von seiner Umgebung betrachtet wird, kann a-priori nicht gewährleistet werden, dass tatsächlich immer nur zusammenhängende Segmente entstehen. Aus diesem Grunde ist eine Nachbearbeitung erforderlich, z. B. durch morphologische Filterung ( Abschn. 51.3). Statische Schwellwerte. Sie können dann verwendet wer-
den, wenn die Zuordnung der Pixelhelligkeiten zum Gewebetyp konstant und bekannt ist. Ein statischer Schwellwert ist unabhängig von der jeweiligen Aufnahme. Zum Beispiel werden Knochen- oder Weichteilfenster im CT mit statischen Schwellwerten auf den Hounsfield-Einheiten realisiert (⊡ Abb. 51.9). Dynamische Schwellwerte. Sie werden aus einer Analyse des jeweiligen Bildes und nur für dieses individuell bestimmt. Das bekannte Verfahren von Otsu basiert auf einer einfachen Objekt/Hintergrund-Annahme. Der Schwellwert im Histogramm wird so bestimmt, dass die resultierenden zwei Klassen eine möglichst geringe Intraklassenvarianz der Grauwerte aufweisen, während die Interklassenvarianz maximiert wird (Otsu 1979).
Segmentierung
Segmentierung bedeutet allgemein die Einteilung eines Bildes in örtlich zusammenhängende Bereiche (Lehmann et al. 1997a). Bei dieser Definition wird die Erzeugung von Regionen als Vorstufe der Klassifikation betont. In Handels (2009) wird als Segmentierung die Abgrenzung verschiedener, diagnostisch oder therapeutisch relevanter Bildbereiche bezeichnet und damit die häufigste Anwendung der Medizinischen Bildverarbeitung in den Vordergrund gestellt, nämlich die Diskriminierung gesunder anatomischer Strukturen von pathologischem Gewebe. Das Ergebnis einer Bildsegmentierung ist damit per Definition immer auf der Abstraktionsebene der Region (⊡ Abb. 51.2). Je nach der abstrakten Ebene, auf der ein Segmentierungsverfahren ansetzt, unterscheidet man methodisch die pixel-, kanten- und textur- bzw. regionenorientierte Verfahren. Darüber hinaus existieren hybride
⊡ Abb. 51.9. Statische Schwellwertsegmentierung eines CT-Schnittbildes. Der CT-Schnitt aus dem Bereich der Wirbelsäule kann statisch segmentiert werden, da durch die Normierung der Hounsfield-Einheiten (HU) auf einen Bereich [–1000, 3000] sog. Knochen- [200, 3000] oder Weichteilfenster für Wasser [–200, 200], Fett und Gewebe [–500, –200] sowie Luft [–1000, –500] fest definiert werden können
833 51.5 · Segmentierung
Adaptive Schwellwerte. Bei (lokal) adaptiven Schwellwerten wird die Grauwertschwelle nicht nur für jedes Bild neu bestimmt, sondern innerhalb eines Bildes werden an verschiedenen Positionen unterschiedliche Schwellwerte ermittelt. Im Extremfall wird für alle Pixelpositionen ein eigener Schwellwert ermittelt. Dies ist insbesondere dann notwendig, wenn aufgrund kontinuierlicher Helligkeitsverläufe die einfache Objekt/Hintergrund-Annahme global nicht mehr gehalten werden kann. Beispielsweise verläuft der Hintergrund in der Mikroskopie von Zellkulturen (⊡ Abb. 51.10a) aufgrund von Beleuchtungsunregelmäßigkeiten von hellen Grautönen (oben rechts) bis hin zu dunklen Grautönen (unten links), die im Bereich der Grauwerte der Zellen selbst liegen. Die globale Schwellwertsegmentierung mit dem dynamischen Verfahren von Otsu (⊡ Abb. 51.10b) vermag keine Trennung der Zellen vom Hintergrund zu erzeugen, obwohl der globale Schwellwert aufgrund des Histogramms der Mikroskopie individuell bestimmt wurde. Die lokal adaptive Segmentierung (⊡ Abb. 51.10c) führt zu einem deutlich verbesserten Ergebnis, bei dem jedoch vereinzelt Blockartefakte auftreten. Diese Artefakte lassen sich letztlich nur durch pixeladaptive Schwellwerte vollständig vermeiden (⊡ Abb. 51.10d).
(z. B. Euklidische (geometrische) Distanz) oder datenangepasste Metriken (z. B. Mahalanobis-Distanz) berechnet werden. 2. Aufgrund der aktuellen Zuordnung werden die Zentren der Datencluster neu berechnet. Das Ergebnis des Algorithmus ist weitgehend unabhängig von der initialen Position der Clusterzentren, nicht aber von deren a-priori vorgegebener Anzahl.
Pixelclusterung. Eine weitere Methode zur pixelorientierten Segmentierung stellt das statistische Verfahren der Pixelclusterung dar. Es ist immer dann besonders geeignet, wenn mehr als ein Merkmal zur Segmentierung ausgewertet werden soll. Zum Beispiel wird in Farbbildern jedem Pixel nicht nur ein einzelner Grauwert zugeordnet, sondern jeweils drei Farbwerte. ⊡ Abb. 51.11 veranschaulicht den Isodata-Algorithmus zur Pixelclusterung (K-Means Clusterung) am einfachen zweidimensionalen Beispiel. Alle Pixelwerte wurden als Datenpunkt in ein zweidimensionales Diagramm eingetragen. Die Anzahl der Segmente wird ebenfalls vorgegeben und die initialen Clusterzentren werden willkürlich in das Diagramm eingezeichnet. Danach werden die folgenden zwei Schritte iterativ wiederholt, bis das Verfahren konvergiert: 1. Für jeden Datenpunkt wird das nächstgelegene Clusterzentrum bestimmt, wozu feste Distanzmetriken
⊡ Abb. 51.11. Isodata-Pixelclusterung. Der iterative Algorithmus zur Clusterung ist für ein zweidimensionales Merkmal exemplarisch dargestellt. Die Anzahl der Cluster wird vorgegeben. Nach beliebiger Initialisierung werden die Datenpunkte dem nächstgelegenen Clusterzentrum zugeordnet, dann werden die Positionen der Zentren neu berechnet und die Zuordnung wird aktualisiert, bis das Verfahren schließlich konvergiert
⊡ Abb. 51.10a–e. Dynamische Schwellwertsegmentierung einer Mikroskopie. a Die Mikroskopie einer Zellkultur wurde b global, c lokal adaptiv und d pixeladaptiv segmentiert. Nach morphologischer
Nachbearbeitung zur Rauschunterdrückung sowie einer ConnectedComponents-Analyse ergibt sich e die endgültige Segmentierung (Metzler et al. 1999)
51
834
V
Kapitel 51 · Medizinische Bildverarbeitung
Die pixelorientiert entstandenen Segmente sind i. d. R. nicht zusammenhängend und stark verrauscht (⊡ Abb. 51.9), was eine Nachbearbeitung erfordert. Das Rauschen kann wirkungsvoll mit Methoden der mathematischen Morphologie gemindert werden. Während ein morphologisches Opening kleinste Segmente aus nur wenigen zusammenhängenden Pixeln entfernt, können kleine Löcher in den Segmenten mit morphologischem Closing geschlossen werden ( Abschn. 51.3). Der Connected-Components-Algorithmus versieht schließlich alle räumlich getrennten Segmente mit einer eindeutigen Bezugszahl. In der Segmentierung des Zellbildes (⊡ Abb. 51.10) wurde zunächst nur das Segment »Zellen« vom Segment »Hintergrund« getrennt, obwohl viele einzelne Zellen in der Aufnahme lokal getrennt dargestellt sind (⊡ Abb. 51.10d). Nach morphologischer Aufbereitung und Connected-Components-Analyse können Zellen, die sich nicht berühren, gemäß ihrer Segmentnummer unterschiedlich eingefärbt (gelabelt) und als eigenständige Segmente weiter verarbeitet werden (⊡ Abb. 51.10e).
51.5.2 Kantenorientierte Segmentierung
Eine kantenorientierte Segmentierung basiert auf dem im Vergleich zum »Pixel« abstrakteren Merkmal »Kante« und versucht, die Objekte im Bild aufgrund ihrer Umrandung zu erfassen. Kantenorientierte Segmentierungsverfahren sind daher nur für solche Fragestellungen einsetzbar, in denen auch Objekte mit klar definierten Umrandungen dargestellt werden. Wie in Abschn. 51.2 gezeigt, ist dies in der Medizinischen Bildverarbeitung nur in Ausnahmen der Fall. Einen solchen Sonderfall stellen metallische Implantate dar, die in einer Röntgenaufnahme deutlich vom Hintergrund abgegrenzt werden. Die allgemeine Vorgehensweise zur Segmentierung basiert dann auf einer kantenorientierten Merkmalsextraktion, wie z. B. ein mit Sobel-Filtern erzeugtes Kantenbild (⊡ Abb. 51.8). Nach entsprechender Aufbereitung durch Binarisierung, morphologische Rauschfilterung und Skelettierung ist die Konturverfolgung und Konturschließung letztlich die Hauptaufgabe einer kantenorientierten Segmentierung. Hierzu werden fast ausschließlich heuristische Verfahren eingesetzt. Zum Beispiel wird entlang von Strahlen nach Anschlussstücken einer Objektkontur gesucht, um lokale Unterbrechungen der Kante zu überspringen. In der Praxis sind kantenbasierte Segmentierungsverfahren nur halbautomatisch realisierbar. Bei der interaktiven Live-Wire-Segmentierung klickt der Benutzer an den Rand des zu segmentierenden Objektes. Basierend auf diesem Stützpunkt berechnet der Computer für jeden Pfad zur aktuellen Cursorposition eine Kostenfunktion aufgrund der Grauwerte bzw. deren Gradienten und zeigt den Pfad mit den geringsten Kosten als dünne Linie (Draht, engl. wire) über dem Bild an. Bei jeder Cursorbewegung ändert
sich also die Linie (engl. live). Kontursegmente entlang von Bildkanten erzeugen nur geringe Kosten. Wird der Cursor also in die Nähe der Kontur gebracht, so sorgt die Kostenfunktion dafür, dass die Linie wieder auf die Kontur des Objektes springt (engl. snapping). Der Benutzer muss letztlich also nur wenige Stützstellen von Hand vorgeben und kann während der Segmentierung die Korrektheit direkt prüfen (⊡ Abb. 51.12, 4-Farbteil am Buchende). Einsatzgebiete solcher Verfahren finden sich bei der computerunterstützten (halbautomatischen), schichtweisen Segmentierung von CT-Volumendatensätzen zur Modellerzeugung in der chirurgischen Operationsplanung (Handels 2009).
51.5.3 Regionenorientierte Segmentierung
Regionenorientierte Segmentierungsverfahren resultieren a priori in zusammenhängenden Segmenten. Man unterscheidet agglomerative (bottom-up) und divisive (top-down) Ansätze, die jeweils auch hierarchisch, d. h. auf verschiedenen Auflösungsstufen durchgeführt werden können. Alle Ansätze basieren auf einem Distanz- oder Ähnlichkeitsmaß, nachdem ein Nachbarpixel oder eine Nachbarregion einer bestehenden Region zugeordnet oder von ihr abgetrennt wird. Hier kommen nicht nur einfache Maße wie der mittlere Grauwert einer Region zum Einsatz, sondern oftmals werden komplexe Texturmaße verwendet ( Abschn. 51.4). Agglomerative Verfahren. Bekanntestes Beispiel eines agglomerativen Verfahrens ist das Bereichswachstum-Verfahren oder Region-Growing bzw. im dreidimensionalen analog auch Volume-Growing. Beginnend an automatisch oder interaktiv plazierten Keimstellen (Saatpixel bzw. -voxel, engl. volume element, voxel) werden deren Nachbarn betrachtet und den Saatpunkten zugeordnet, wenn die Distanz zwischen beiden unterhalb einer Schwelle liegt. Das Verfahren wird solange iteriert, bis keine Verschmelzung mehr durchgeführt werden kann. Aus dieser qualitativen Beschreibung wird die Vielzahl und Empfindlichkeit der Parameter solcher Verfahren bereits deutlich. Besonderen Einfluss auf das Ergebnis agglomerativer Segmentierung haben ▬ die Anzahl und Position der Keimpunkte, ▬ die Reihenfolge, in der die Pixel bzw. Voxel iterativ abgearbeitet werden, ▬ das Distanzmaß, nach dem mögliche Zuordnungen bewertet werden, sowie ▬ die Schwelle, bis zu der Verschmelzungen durchgeführt werden. Oft ist deshalb ein Algorithmus zur agglomerativen Segmentierung bereits von kleinen Verschiebungen oder Drehungen des Eingabebildes abhängig, was für die Medizinische Bildverarbeitung i. d. R. unerwünscht ist.
835 51.5 · Segmentierung
Divisive Verfahren. Die divisiven Verfahren invertieren gewissermaßen den agglomerativen Ansatz. Die Beim Split werden Regionen so lange unterteilt, bis sie im Sinne des Ähnlichkeitsmaßes hinreichend homogen sind. Damit werden keine Saatpunkte benötigt, denn das erste Splitting wird auf dem gesamten Bild durchgeführt. Nachteilig ist, dass immer mittig entlang horizontaler oder vertikaler Trennlinien gesplitted wird. Deswegen entstehen willkürliche Trennungen einzelner Bildobjekte, die erst durch eine anschließende Verschmelzung (Split & Merge) kompensiert werden können. Weiterer Nachteil divisiver Segmentierungsverfahren sind die algorithmisch bedingt meist stufigen Objektgrenzen. Multiskalen-Verfahren. Prinzipielles Problem regionenorientierter Segmentierungsverfahren ist der Dualismus zwischen Über- und Untersegmentierung. In ⊡ Abb. 51.1 wurde die Segmentierung als Vorstufe zur Klassifikation definiert, in der den extrahierten Bildsegmenten semantische Bedeutung zugeordnet werden soll. Dies kann in Form konkreter Benennungen eines Objektes geschehen (z. B. das Organ »Herz« oder das Objekt »TPSSchraubenimplantat« oder, abstrakter, ein Defekt oder ein Artefakt). In jedem Fall muss das Segment dem Objekt entsprechen, wenn eine automatische Klassifikation möglich sein soll. Von Untersegmentierung spricht man in diesem Zusammenhang, wenn einzelne Segmente aus Teilen mehrerer Objekte zusammengesetzt sind. Analog bezeichnet man mit Übersegmentierung den Fall, dass einzelne Objekte in mehrere Segmente zerfallen sind. Das große Problem der Segmentierung medizinischer Bilder besteht nun darin, dass Über- und Untersegmentierung i. d. R. immer gemeinsam auftreten. Bei hierarchischen Multiskalen-Verfahren wird versucht, dem Dualismus zwischen Über- und Untersegmentierung auf verschiedenen Auflösungsstufen zu begegnen (⊡ Abb. 51.13a–g, 4-Farbteil am Buchende).
51.5.4 Hybride Segmentierungsverfahren
In der Praxis der Medizinischen Bildverarbeitung kommt hybriden Segmentierungsverfahren die größte Bedeutung zu. Solche Mischverfahren versuchen, die Vorteile einzelner (meist kanten- und regionenorientierter) Algorithmen miteinander zu verbinden, ohne die Nachteile der gewählten Verfahren ebenfalls zu übernehmen. Zwei weit verbreitete Ansätze, die Wasserscheiden-Transformation und die aktiven Konturmodelle werden im Folgenden exemplarisch dargestellt. Wasserscheiden-Transformation. Die Wasserscheiden-
Transformation (Watershed-Transform) erweitert einen agglomerativen, regionenorientierten Segmentierungsprozess mit Aspekten kantenorientierter Segmentierung.
Der numerische Grauwert eines Pixels wird als Erhebung interpretiert und das Bild somit als Relief aufgefasst. Auf dieses Höhenprofil fallen Wassertropfen, die sich im Modell in den lokalen Minima des Bildes zu kleinen Stauseen sammeln. Durch sukzessives Fluten der Landschaft verschmelzen kleinere Becken. Das Verschmelzen großer Becken wird hingegen durch Dämme verhindert, die auf den natürlichen Wasserscheiden, den Reliefs, aufgebaut werden. Die Wasserscheiden-Transformation hat bei der Segmentierung medizinischer Bilder v. a. folgende Vorteile: ▬ Aus dem regionenorientierten Ansatz des Flutens folgt, dass immer zusammenhängende Segmente bestimmt werden. ▬ Aus dem kantenorientierten Ansatz der Wasserscheiden resultieren genaue Kantenverläufe, die sich exakt am zu segmentierenden Objekt orientieren. ▬ Die problematische Untersegmentierung kann vermieden werden, wenn bereits das Verschmelzen kleinerer Becken durch die Wasserscheiden unterbunden wird. Die hierdurch bedingte starke Übersegmentierung muss erheblich reduziert werden, bevor eine Objekterkennung im Bild erfolgreich sein kann. Dies kann mit den bereits vorgestellten Methoden des Merging erfolgen. Dennoch stellt die systembedingte Übersegmentierung die prinzipiellen Schwierigkeit bei der Wasserscheiden-Transformation dar. Aktive Konturmodelle. Aktive Konturmodelle basieren auf einer kantenorientierten Segmentierung unter Berücksichtigung von regionenorientierten Aspekten sowie objektorientiertem Modellwissen. Im Bereich der Medizinischen Bildverarbeitung werden oft Snake- und BallonAnsätze zur Segmentierung im Zwei- und Dreidimensionalen sowie zur Konturverfolgung in zwei- und dreidimensionalen Bildsequenzen, d. h. auf 3D- und 4D-Daten, eingesetzt (McInerney u. Terzopoulos 1996). Die meist als geschlossen modellierte Randkontur von Objekten wird durch einzelne Stützstellen (Knoten) repräsentiert, die im einfachsten Fall mit geraden Kanten stückweise zu einem geschlossenen Polygonzug verbunden werden. Für die Knoten wird ein skalares Gütemaß (z. B. eine Energie) berechnet und für die Umgebung des Knotens optimiert, oder es wird eine gerichtete Krafteinwirkung ermittelt, die die Knoten bewegt. Erst wenn iterativ ein Optimum bzw. Kräftegleichgewicht gefunden wurde, ist die Segmentierung abgeschlossen. Die Möglichkeiten dieses Ansatzes liegen also in der Wahl geeigneter Gütemaße bzw. Kräfte. Snake-Ansatz. Der klassische Snake-Ansatz modelliert eine interne und eine externe Energie als Gütemaß. Die interne Energie ergibt sich aus einer gewählten Elastizität und Steifigkeit der Kontur und ist an Stellen starker Biegung oder an Knicken entsprechend hoch. Die externe
51
836
Kapitel 51 · Medizinische Bildverarbeitung
V
⊡ Abb. 51.14. Ballon-Segmentierung einer Zellmembran. Die Einzelbilder zeigen den Ballon zu verschiedenen Zeitpunkten während der Iteration. Beim Berühren der Zellmembran verhindern die starken Bildkräfte die Weiterbewegung der Kontur. Die internen Kräfte wur-
den in dieser Applikation so modelliert, dass sie dem Verhalten einer physikalischen Membran entsprechen. Dies ist am »Adhäsionsrand« des Ballons im Bereich des Dendriten (unten links) deutlich erkennbar (Metzler et al. 1998)
Energie wird aus dem kantengefilterten Bild berechnet und ist dann gering, wenn die Kontur entlang herausgefilterten Bildkanten verläuft. Die Idee hinter diesem Ansatz ist also, eine kantenorientierte Segmentierung mit dem regionenorientierten A-priori-Wissen zu verbinden, dass medizinische oder biologische Objekte nur selten scharfkantige Umrandungen aufweisen. Bei optimaler Gewichtung der Energieterme wird der Konturverlauf immer dann primär durch die Kanteninformation im Bild bestimmt, wenn diese im Bild auch deutlich erkennbar ist. In lokalen Bereichen mit geringer Kantenausprägung sorgen die internen Konturkräfte für eine geeignete Interpolation des Kantenverlaufes. So einfach dieser Ansatz formuliert wurde, so diffizil ist seine Umsetzung. Während der Iteration muss die Anzahl der Knoten der aktuellen Größe der Kontur ständig angepasst werden. Weiterhin müssen Kreuzungen und Verschlaufungen der sich bewegenden Kontur verhindert werden. Der klassische Snake-Ansatz erfordert darüber hinaus eine bereits präzise positionierte Ausgangskontur, die oft interaktiv vorgegeben werden muss. Hieraus ergaben sich die ersten Anwendungen dieser Segmentierungsmethode: Bei der Konturverfolgung bewegter Objekte in Bildsequenzen dient die Segmentierung aus Bild t als Initialkontur der Iteration in Bild t+1. Dieses Verfahren läuft erst nach einmaliger Initialisierung für das Bild t=0 automatisch.
Ballon-Ansatz. Beim Ballon-Ansatz wird neben den internen und externen Kräften auch ein innerer Druck oder Sog modelliert, der die Kontur kontinuierlich expandieren oder schrumpfen lässt. ⊡ Abb. 51.14 zeigt die expansive Bewegung eines Ballons zur Segmentierung der Zellmembran in einer Mikroskopie eines Motoneurons. Obwohl auf eine präzise Initialkontur verzichten wurde, schmiegt sich der Ballon im laufe der Iteration immer besser an die Zellkontur an. Ein weiterer Vorteil der Ballon-Modelle ist, dass dieses Konzept direkt in höhere Dimensionen übertragbar ist (⊡ Abb. 51.15, 4-Farbteil am Buchende). Aktuelle Erweiterungen. In aktuellen Erweiterungen aktiver Konturmodelle wird versucht, weiteres A-prioriWissen in Form von Modellwissen in das Verfahren zu integrieren. Prototypen der erwarteten Objektformen werden in den Algorithmus integriert, indem bei jeder Iteration der Abstand der aktuellen Objektform zu einem passend gewählten Prototyp als zusätzliche Kraft auf die Knoten modelliert wird (Bredno 2001b). Mit solchen Zusätzen kann ein »Ausbrechen« der aktiven Kontur auch an langen Konturbereichen, die im aktuellen Bild ohne ausreichende Kanteninformation dargestellt werden, verhindert werden. Die komplexe und zeitaufwändige Parametrierung eines aktiven Konturmodells für eine spezifische Applikation kann auf Basis einer manuellen Referenzsegmentierung auch automatisch erfolgen. Hierzu werden
837 51.6 · Klassifikation
unterschiedliche Parameterkombinationen ermittelt und es wird jeweils eine Segmentierung durchgeführt. Alle segmentierten Konturen werden mit der Referenzkontur verglichen. Dann wird derjenige Parametersatz ausgewählt, mit dem die beste Approximation der Referenzkontur segmentiert wurde (Bredno 2000).
51.6
Klassifikation
Gemäß unserer Definition (⊡ Abb. 51.1) ist es Aufgabe der Klassifikation, die mittels Segmentierung bestimmten Regionen eines Bildes in Klassen einzuteilen bzw. vorgegebenen Klassen (Objekttypen) zuzuordnen (Niemann 1983). Diesem Prozess liegen meist regionenbasierte Merkmale zugrunde, die die Bildsegmente hinreichend abstrakt beschreiben. In diesem Fall liegt zwischen Segmentierung und Klassifikation ein weiterer Merkmalsextraktionsschritt, dem dahingehend eine besondere Bedeutung zukommt, dass die Eignung und Diskriminierbarkeit der Merkmale die Güte der Klassifikation maßgeblich beeinflusst. Für alle Arten von Klassifikatoren ist die Einteilung in überwachte (trainierte) und unüberwachte (untrainierte) sowie lernende Klassifikation üblich. Zum Beispiel entspricht die Clusterung, die wir in Abschn. 51.4.1 zur pixelorientierten Segmentierung bereits kennengelernt haben, einer unüberwachten Klassifikation. Ziel hierbei ist es, die einzelnen Objekte in ähnliche Gruppen einzuteilen (⊡ Abb. 51.11). Wird die Klassifikation hingegen zur Identifizierung von Objekten eingesetzt, so müssen allgemeine Gesetzmäßigkeiten oder exemplarische Referenzobjekte verfügbar sein, aus denen Stichproben für die Klassifikation erzeugt werden können. Die Merkmale aus diesen Stichproben werden dann zur Parametrierung und Optimierung des Klassifikators verwendet. Durch dieses Training kann die Güte einer Klassifikation entscheidend verbessert werden. Problematisch ist die überwachte Objektklassifikation immer dann, wenn später Muster klassifiziert werden müssen, die sich von den trainierten Mustern stark unterscheiden, d. h. die in der Stichprobe nicht ausreichend repräsentiert worden sind. Ein lernender Klassifikator hat hier Vorteile, denn dieser ändert seine Parametrierung mit jeder durchgeführten Klassifikation auch noch nach der Trainingsphase. Im folgenden wollen wir uns auf den in der Medizinischen Bildverarbeitung wichtigeren Fall der Objektklassifikation beschränken und können somit eine charakteristische Stichprobe als gegeben voraussetzen. Die Klassifikation selbst greift meist auf bekannte numerische (statistische Klassifikation) und nichtnumerische (syntaktische Klassifikation) Verfahren sowie die neueren Ansätze der Computational Intelligence zurück, denn für den Klassifikator ist es letztlich unerheblich, welche Art von Daten den Mustern zugrunde gelegen hat. Die einzelnen Merkmale, die mit unterschiedlichen Verfahren bestimmt worden sein können, werden entweder zu numeri-
schen Merkmalsvektoren oder zu abstrakten Symbolketten zusammengefasst. Zum Beispiel kann eine geschlossene Objektkontur durch seine Fourier-Deskriptoren als Merkmalsvektor oder durch Linienelemente wie »gerade«, »konvex« und »konkav« als Symbolkette beschrieben werden. Statistische Klassifikation. Bei der statistischen Klassifikation wird die Objektidentifizierung als Problem der statistischen Entscheidungstheorie aufgefasst. Parametrische Verfahren zur Klassifikation basieren auf der Annahme von Verteilungsfunktionen für die Merkmalsausprägungen der Objekte, wobei die Parameter der Verteilungsfunktionen aus der Stichprobe bestimmt werden. Nichtparametrische Verfahren hingegen verzichten auf solche Modellannahmen, die in der Medizinischen Bildverarbeitung auch nicht immer möglich sind. Klassisches Beispiel eines nichtparametrischen statistischen Objektklassifikators ist der Nächste-Nachbar- oder Nearest-Neighbor (NN)-Klassifikator. Hierbei definieren die Stichproben die Klassen im Merkmalsraum. Der zu klassifizierende Merkmalsvektor wird derjenigen Klasse zugeordnet, zu der auch der nächste Nachbar im Merkmalsraum gehört bzw. die Mehrzahl der k nächsten Nachbarn (kNN) gehören. Oft wird hierzu die Euklidische Distanz berechnet (⊡ Abb. 51.16a–j, 4-Farbteil am Buchende). Im Gegensatz zu den Merkmalsvektoren ist es bei Symbolketten weder sinnvoll noch möglich, Abstandsmaße oder Metriken zu definieren, um die Ähnlichkeit zweier Symbolketten zu bewerten1. Syntaktische Klassifikation. Die syntaktische Klassifikation basiert daher auf Grammatiken, die möglicherweise unendliche Mengen von Symbolketten mit endlichen Formalismen erzeugen können. Ein syntaktischer Klassifikator kann als wissensbasiertes Klassifikationssystem (Expertensystem) verstanden werden, denn die Klassifikation basiert auf einer formalen symbolischen Repräsentation des heuristischen Expertenwissens, das als Fakten- und Regelwissen auf das Bildverarbeitungssystem übertragen wird. Ist das Expertensystem in der Lage, neue Regeln zu kreieren, so ist auch ein lernender Objektklassifikator als wissensbasiertes System realisierbar. Zu beachten ist, dass weder für die Komplexität noch für die Abstraktion oder den Umfang des eingebrachten Expertenwissens allgemeingültige Mindestanforderungen definiert sind. In der Literatur werden daher bereits »primitive« Bildverarbeitungssysteme, die einfache Heuristiken als fest implementierte Fallunterscheidung zur Klassifikation oder Objektidentifikation nutzen, als »wissensbasiert« bezeichnet. 1
Eine Ausnahme bildet der Levenshtein-Abstand, der die kleinste Anzahl von Vertauschungen, Einfügungen und Auslassungen von Symbolen angibt, die erforderlich ist, um zwei Symbolketten ineinander zu überführen.
51
838
V
Kapitel 51 · Medizinische Bildverarbeitung
Computational Intelligence. Als Teilgebiet der künstlichen Intelligenz umfassen die Methoden der Computational Intelligence die Neuronalen Netze, die Evolutionären Algorithmen und die Fuzzy-Logik. Diese Methoden haben ihre Vorbilder in der biologischen Informationsverarbeitung, die insbesondere für Aufgabenstellungen im Bereich der Objekterkennung wesentlich leistungsfähiger ist, als es heutige Computer sind. Deshalb werden sie in der Medizinischen Bildverarbeitung häufig zur Klassifikation und Objektidentifizierung herangezogen. Dabei haben alle Verfahren einen mathematisch fundierten, komplexen Hintergrund. Künstliche neuronale Netze bilden die Informationsverarbeitung im menschlichen Gehirn nach. Sie bestehen aus vielen jeweils einfach aufgebauten Grundelementen (Neuronen), die in mehreren Schichten angeordnet und verknüpft werden. Jedes Neuron berechnet die gewichtete Summe seiner Eingangserregungen, welche über eine nichtlineare Funktion (Kennlinie) an den Ausgang abgebildet wird. Die Anzahl der Schichten, Anzahl der Neuronen pro Schicht, die Verknüpfungstopologie und die Kennlinie der Neuronen werden im Rahmen einer Netzdimensionierung vorab aufgrund von Heuristiken festgelegt, wofür umfangreiche Erfahrung aus der Praxis erforderlich ist. Die einzelnen Gewichte der Eingangserregungen hingegen werden während des Trainings des Netzes numerisch ermittelt. Danach bleibt das Netz unverändert und kann als Klassifikator eingesetzt werden. Evolutionäre Algorithmen basieren auf der ständigen Wiederholung eines Zyklus von Mutation (zufällige Veränderung) und Selektion (Auswahl) nach dem Darwin’schen Prinzip (Survival of the Fittest). Genetische Algorithmen arbeiten auf einer Menge von Individuen (der Population). Durch Kreuzung von zwei zufällig ausgewählten Individuen und anschließender Mutation verändert sich die Population. Eine Fitness-Funktion bewertet die Population im Hinblick auf ihre Güte zur Problemlösung. Die wiederum mit einer Zufallskomponente behaftete Selektion erfolgt so, dass fitte Individuen häufiger zur Reproduktion ausgewählt werden. Evolutionäre Algorithmen können komplexe Optimierungsprobleme erstaunlich gut lösen, werden aber zur Objektklassifikation nur selten erfolgreicher als andere Verfahren eingesetzt. Bei der Fuzzy-Logik wird die in der realen Welt vorhandene Unsicherheit (Unschärfe) auch im Computer dargestellt. Viele unserer Sinneseindrücke sind qualitativ und unpräzise und daher für exakte Messungen ungeeignet. Zum Beispiel wird ein Bildpunkt als »dunkel«, »hell«, oder auch »sehr hell« wahrgenommen, nicht aber als Pixel mit dem Grauwert »231«. Mathematische Grundlage ist die Fuzzy-Set-Theorie unscharfer Mengen, in der die Zugehörigkeit eines Elementes zu einer Menge nicht nur die zwei Zustände »wahr« (1) und »nicht wahr« (0) haben kann, sondern kontinuierlich im Intervall [0,1] liegt. Anwendungen in der Bildverarbeitung finden sich
neben der Klassifikation (vgl. Bsp. in Abschn. 51.7) auch zur Vorverarbeitung (Kontrastverbesserung), Merkmalsextraktion (Kantenextraktion und Skelettierung) und Segmentierung (Tizhoosh 1998).
51.7
Vermessung
Während die visuelle Befundung qualitativ ist und z. T. starken inter- wie intraindividuellen Schwankungen unterliegt, kann eine geeignete computerunterstützte Auswertung medizinischer Bilder (Vermessung) prinzipiell objektive und reproduzierbare Messergebnisse liefern. Voraussetzung hierfür ist zum einen die genaue Kalibrierung des Aufnahmesystems ( Abschn. 51.3). Darüber hinaus müssen weitere Effekte berücksichtigt werden. Partial(volumen)-Effekt. Die Diskretisierung des Ortsbereiches in Pixel oder Voxel führt immer zu einer Mittelung der Messwerte im entsprechenden Bereich. Zum Beispiel wird einem Voxel im CT, welches verschiedene Gewebearten anteilig enthält, als Hounsfield-Wert der Mittelwert der Gewebeanteile zugeordnet. So kann ein Voxel, das nur Knochen und Luft enthält, den Hounsfield-Wert von Weichteilgewebe erhalten und so quantitative Messungen verfälschen. Diese Partial-Effekte treten prinzipiell bei allen Modalitäten auf und müssen bei der automatischen Vermessung entsprechend berücksichtigt werden. Topologie-Effekt. Für die diskrete Pixelebene gelten i. Allg. nicht die üblichen Sätze der Euklidischen Geometrie. So haben sich kreuzende diskrete Strecken nicht immer einen gemeinsamen Schnittpunkt, der wiederum exakt in das diskrete Pixelraster fällt und somit ebenfalls als Pixel dargestellt werden kann. Weiterhin haben die verschiedenen Nachbarschaftskonzepte der diskreten Pixeltopologie Einfluss auf das Ergebnis automatischer Bildvermessung. So werden die ermittelten Bereiche bei der Segmentierung u. U. erheblich größer, wenn bei der Prüfung der Zusammenhängigkeit eines Bereiches die 8ter-Nachbarschaft verwendet wird, d. h. wenn es ausreichend ist, dass sich zwei Teilbereiche an einer Stelle lediglich über Eck berühren. Beispiele. Die in ⊡ Abb. 51.16 zur Identifizierung der Implantate extrahierten geometrischen Maße entsprechen bereits einer Vermessung. Dort wurden allgemeine Maße auf der Abstraktionsstufe »Region« (⊡ Abb. 51.2) ermittelt und zur Identifizierung der Objekte genutzt. Oft werden nach der Identifizierung auch spezielle Maße auf der Abstraktionsstufe »Objekt« ermittelt, die dann von dem A-priori-Wissen Gebrauch machen, um welches Objekt es sich bei der Vermessung handelt. Zum Beispiel kann das in ⊡ Abb. 51.16i verfügbare Wissen, dass das blaue Segment ein Branemark-Implantat darstellt, genutzt werden, um die Anzahl der Gewindegänge mit einem an die
839 51.8 · Interpretation
⊡ Abb. 51.17a–c. Quantifizierung synaptischer Boutons auf einer Zellmembran. Die Zellmembran wurde in der Mikroskopie (⊡ Abb. 47.12) mit einem Ballon-Modell segmentiert. Hierbei können lokale Konfidenzwerte ermittelt werden, die die Zugehörigkeit einzelner Konturabschnitte zur tatsächlichen Zellmembran unscharf klassifizieren a.
Die Zellkontur wird extrahiert, linearisiert, normalisiert und binarisiert, bevor die Besetzung der Zellmembran mit synaptischen Boutons unterschiedlicher Größe durch morphologische Filterung analysiert wird b. Die Konfidenzwerte aus a werden bei der Mittelung der Besetzung entlang der Zellmembran berücksichtigt c (Lehmann et al. 2001b)
Geometrie der Branemark-Implantate angepassten morphologischem Filter zu ermitteln. Ein weiteres Beispiel für die objektbasierte Vermessung ist in ⊡ Abb. 51.17 dargestellt. Das Ergebnis der Ballon-Segmentierung einer Zellmembran (⊡ Abb. 51.14) wurde zunächst anhand von Modellannahmen automatisch mit lokalen Konfidenzwerten belegt (⊡ Abb. 51.17a). Diese Werte geben die Zugehörigkeit eines Kontursegmentes zur Zellmembran an und entsprechen somit einer Klassifikation mittels Fuzzy-Logik. Die Konfidenzwerte werden bei der Mittelung quantitativer Maße entlang der Kontur berücksichtigt (Lehmann et al. 2001b). Diese wird anhand der Segmentierung extrahiert, linearisiert, normaliziert und morphologisch analysiert (⊡ Abb. 51.17b), sodass sich schließlich die konfidierte Besetzung der Zellmembran mit synaptischen Boutons als Verteilung über die Boutongröße ergibt (⊡ Abb. 51.17c).
werden kann. Die bislang betrachtete Rastermatrix von Bildpunkten (ikonische Bildbeschreibung, ⊡ Abb. 51.2) ist für die Bildinterpretation also ungeeignet. Die Primitive des Graphen (Knoten) und deren Relationen (Äste) müssen aus den segmentierten und identifizierten Objekten oder Objektteilen im Bild abstrahiert werden. Bislang vermögen nur wenige Algorithmen diese Abstraktion zu leisten. Beispiele für die Abstraktion von Primitiven geben die zahlreichen Ansätze der Formrekonstruktion: Shape-from-shading, -texture, -contour, -stereo, usw. Beispiele für die Abstraktion von Relationen findet man bei der Tiefenrekonstruktion durch trigonometrische Analyse der Aufnahmeperspektive (Liedtke u. Ender 1989). In den Bereichen der industriellen Bildverarbeitung und Robotik sind in den letzen Jahren erhebliche Fortschritte bei der symbolischen Bildverarbeitung erzielt worden. Die Übertragung in die Medizin ist aufgrund der in Abschn. 51.2 dargestellten Besonderheiten des medizinischen Bildmaterials bislang jedoch nur spärlich geglückt. ⊡ Abb. 51.18 verdeutlicht am Beispiel der Erhebung eines Zahnstatus auf Basis der Panoramaschichtaufnahme (Orthopantomogramm, OPG) die immensen Schwierigkeiten, die bei der automatischen Interpretation medizinischer Bilder zu bewältigen sind. Zunächst muss die Segmentierung und Identifikation aller relevanten Bildobjekte und Objektteile gelingen, damit das semantische Netz aufgebaut werden kann. Dieses enthält die Instanzen (Zahn 1, Zahn 2, ...) der zuvor identifizierten Objekte (Zahn, Krone, Füllung, ...). In einem zweiten nicht minder schwierigen Schritt muss die Interpretation der Szene auf Basis des Netzes erfolgen. Hierzu müssen alle Zähne entsprechend ihrer Position und Form benannt werden. Erst dann können Kronen, Brücken, Füllungen sowie kariöse Prozesse in den Zahnstatus eingetragen werden. Die Automatisierung dieses Prozesses, der vom Zahnarzt
51.8
Interpretation
Wird die Bildinterpretation im Sinne einer abstrakten Szenenanalyse verstanden, so entspricht sie dem ehrgeizigen Ziel der Entwicklung eines »Gesichtssinns für Maschinen«, der ähnlich universell und leistungsfähig wie der des Menschen ist. Während es bei den bisherigen Schritten um die automatische Detektion von Objekten und ihrer Eigenschaften ging, wird nun die Anordnung einzelner Objekte zueinander in Raum und/oder Zeit zum Gegenstand der Untersuchung. Grundlegender Schritt der Bildinterpretation ist somit die Generierung einer geometrisch-temporalen Szenenbeschreibung auf abstraktem Niveau (symbolische Bildbeschreibung, ⊡ Abb. 51.2). Eine geeignete Repräsentationsform hierfür ist der relationale attributierte Graph (semantisches Netz), der in verschiedenen Hierarchiestufen analysiert
51
840
Kapitel 51 · Medizinische Bildverarbeitung
V
⊡ Abb. 51.18. Schritte der Bildinterpretation zur automatischen Erhebung des Zahnstatus. Das OPG enthält alle für den Zahnstatus relevanten Informationen. Die symbolische Beschreibung der Szene erfolgt zunächst durch ein semantisches Netz. Der dargestellte Teil des Netzes repräsentiert trotz seiner bereits beträchtlichen Komplexität nur den oval markierten Ausschnitt aus dem linken Seitenzahnbereich. Im Zahnstatus wird dieselbe Information anders aufbereitet. Die Zähne werden hierzu nach dem Schlüssel der Fédération Dentaire Internatio-
nale (FDI) benannt: die führende Ziffer kennzeichnet den Quadranten im Uhrzeigersinn, die nachfolgende Ziffer die von innen nach außen fortlaufende Platznummer des Zahnes. Vorhandene Zähne werden durch Schablonen repräsentiert, in denen Füllungen im Zahnkörper oder in der -wurzel blau markiert werden. Kronen und Brücken werden neben den Zähnen rot gekennzeichnet. Der Kreis an 37 (sprich: Zahn drei sieben) weist auf einen kariösen Prozess hin.
in wenigen Minuten durchgeführt wird, ist bislang noch nicht mit ausreichender Robustheit möglich.
Objekte in medizinischen Anwendungen nicht durch formale, mathematische Beschreibungen gegeben, sondern als explizite Voxelmengen eines Volumendatensatzes. Deshalb haben sich für medizinische Visualisierungsaufgaben spezielle Methoden etabliert (⊡ Tab. 51.2).
51.9
Bilddarstellung
Unter dem Begriff der Bilddarstellung hatten wir einleitend alle Transformationen zusammengefasst, die der optimierten Ausgabe des Bildes dienen. In der Medizin umfasst dies insbesondere die realistische Visualisierung Volumendaten. Derartige Verfahren haben breite Anwendungsbereiche in der medizinischen Forschung, Diagnostik und Therapieplanung und -kontrolle gefunden. Im Gegensatz zu Problemstellungen aus dem Bereich der allgemeinen Computergraphik sind die darzustellenden
Oberflächenrekonstruktion. Der Marching-Cube-Algorithmus wurde speziell für die Oberflächenrekonstruktion aus medizinischen Voxelmengen entwickelt (Lorensen u. Cline 1987). Ein Voxel wird hierbei nicht mehr als Quader endlicher Kantenlänge, sondern als Punkt interpretiert. Das zu visualisierende Volumen entspricht also einem Punktgitter. In diesem wird ein Quader (engl. cube) mit je 4 Eckpunkten in zwei benachbarten Schichten betrachtet. Für ein segmentiertes Volumen lässt sich für diesen
841 51.9 · Bilddarstellung
⊡ Tab. 51.2. Taxonomie der 3D-Visualisierungsverfahren mit Beispielen. Die Triangulierung zur schnittbildorientierten Oberflächenrekonstruktion kann in Lehrbüchern der Computergraphik nachgelesen werden. Das Marching-Cube-Verfahren ist im Text beschrieben. Als einfachstes Beispiel einer oberflächenorientierten direkten Volumenvisualisierung wird bei der Tiefenschattierung die Eindringtiefe des Strahls in das Volumen bis zum Erreichen der Oberfläche als Grauwert dargestellt. Die Integralschattierung hingegen integriert die abgetasteten Werte entlang des gesamten Projektionsstrahls (Ehricke 1997) Verfahren der dreidimensionalen Visualisierung Oberflächenrekonstruktion und -darstellung
Direkte Volumenvisualisierung
Schnittbildorientierte Rekonstruktion
Volumenorientierte Rekonstruktion
Oberflächenorientierte Methoden
Volumenorientierte Methoden
Triangulierung
Cuberille Verfahren, Marching Cube
Tiefenschattierung, Tiefengradientenschattierung, Grauwertgradientenschattierung
Integralschattierung, transparente Schattierung, Maximumsprojektion
Quader das komplexe Problem der Oberflächenerzeugung durch Ausnutzung von Symetrieeigenschaften auf lediglich 15 verschiedene Topologien reduzieren und somit effizient berechnen, denn die zu diesen Grundtopologien gehörenden Polygonbeschreibungen können in einer LookUp-Tabelle abgelegt werden. Ähnlich wie bei der Faltung wird der betrachtete Quader sukzessive an allen Stellen im Volumendatensatz positioniert (engl. marching). Nach Berechnung des Marching-Cube-Algorithmus liegt das segmentierte Volumen als triangulierte Oberfläche vor, die aus einer zunächst noch sehr großen Zahl an Dreiecken besteht. Durch heuristische Verfahren kann diese Zahl jedoch erheblich reduziert werden, ohne dass wahrnehmbare Qualitätseinbußen entstehen. Erst hierdurch werden Echtzeitdarstellungen des Volumens möglich. Beleuchtung und Schattierung. Zur Erzeugung von photorealistischen Darstellungen der Volumenoberfläche wird die Beleuchtung analog zu natürlichen Szenen simuliert. Nach dem Phong’schen Beleuchtungsmodell entsteht ambientes Licht durch sich überlagernde Vielfachreflexion, diffuses Streulicht an matten Oberflächen und spiegelnde Reflexionen an glänzenden Oberflächen (Phong 1975). Während die Intensität des ambienten Lichtes in der Szene für alle Oberflächensegmente konstant ist, hängen die Intensitäten diffuser und spiegelnder Reflexionen von der Orientierung und den Eigenschaften der Oberfläche sowie deren Abstand zur Lichtquelle ab. In Abhängigkeit der Raumposition des Beobachters wird dann ermittelt, welche Oberflächenelemente sichtbar sind. Ohne Schattierung (engl. shading) sind in der Visualisierung der Szene noch die einzelnen Dreiecke erkennbar, was als störend empfunden wird. Durch verschiedene Strategien zum Shading kann der visuelle Eindruck erheblich verbessert werden. Das Gouraud-Shading ergibt glatte stumpfe Oberflächen (Gouraud 1971), das PhongShading ermöglicht zusätzlich Spiegelungen (Phong 1975). In neueren Applikationen werden darüber hinaus
auch Transparenzen modelliert, um auf gekapselte Objekte blicken zu können. Weiterhin können Texturen oder andere Bitmaps auf die Oberflächen projiziert werden, um einen noch realistischeren Eindruck zu erreichen. Direkte Volumenvisualisierung. Bei der direkten Volumenvisualisierung wird auf die Vorabberechnung von Objektoberflächen verzichtet. Die Visualisierung basiert stattdessen direkt auf den Voxelwerten. Damit wird eine Visualisierung des Volumens auch dann möglich, wenn noch keine Segmentierung vorliegt, z. B. wenn die Visualisierung des Datensatzes vom Radiologen zur interaktiven Eingrenzung pathologischer Bereiche genutzt werden soll. Das Volumen wird entweder entlang der Datenschichten (Back-To-Front oder Front-To-Back) oder entlang eines gedachten Lichtstrahls durchlaufen. Ausgehend vom Beobachter werden beim Ray-TracingVerfahren Strahlen in das Volumen verfolgt. Hierdurch ist auch die rekursive Weiterverfolgung von Sekundärstrahlen möglich, die durch Reflexion oder Brechung erzeugt wurden, was eine sehr realistische Darstellung ergibt. Beim einfacheren Ray-Casting wird hingegen auf diese Weiterverfolgung der Sekundärstrahlen verzichtet, wodurch dieses Verfahren wesentlich effizienter wird. Die bei der Strahlenverfolgung auftretenden Probleme der diskreten Pixeltopologie ( Abschn. 51.7) haben zu einer Vielzahl von algorithmischen Varianten geführt. Beleuchtung und Schattierung. Aus dem Intensitätsprofil der durchlaufenen Voxel werden Parameter extrahiert und zur Darstellung als Grau- oder Farbwert an der korrespondierenden Stelle in der Betrachtungsebene eingesetzt. Diese Verfahren werden wiederum mit Schattierung bezeichnet. Bei den oberflächenorientierten Schattierungsmethoden sind Beleuchtung und Bildebene auf gleicher Seite zum Objekt, während in Anlehnung an die Radiographie volumenorientierte Verfahren das gesamte Objekt durchstrahlen, d. h. das Objekt zwischen Beleuch-
51
842
Kapitel 51 · Medizinische Bildverarbeitung
tung und Beobachtungsebene platzieren (⊡ Tab. 51.2). Kombiniert man die direkte Volumenvisualisierung mit 2D- oder 3D-Segmentierungen, so können erstaunlich realistische Darstellungen erzeugt werden (⊡ Abb. 51.19, 4-Farbteil am Buchende).
51.10
V
Bildspeicherung
Unter Bildspeicherung hatten wir einleitend alle Bildmanipulationstechniken zusammengefasst, die der effizienten Archivierung (Kurz- und Langzeit), Übertragung (Kommunikation) und dem Zugriff (Retrieval) der Daten dienen (⊡ Abb. 51.1). Für alle drei Punkte haben die Besonderheiten des medizinischen Umfeldes zu spezifischen Lösungen geführt, auf die wir uns in der folgenden Darstellung beschränken werden. Archivierung (Kurz- und Langzeit). Die Einführung des CT in die klinische Routine hat bereits in den 70er Jahren zur Installation erster PACS-Systeme geführt, deren Hauptaufgabe die Archivierung der Daten war. Das Kernproblem bei der Archivierung medizinischer Bilddaten ist ihr immens großes Volumen. Eine einfache Röntgenaufnahme mit 40×40 cm (z. B. Thorax) hat bei einer Auflösung von fünf Linienpaaren pro Millimeter und 1024 Graustufen pro Pixel bereits ein Speichervolumen von mehr als 10 MB. Eine hochauflösende digitale Mammographie-Untersuchung mit zwei Projektionen beider Brüste benötigt ca. 300 MB. Alleine durch Röntgendiagnostik, CT- und MR-Untersuchungen fallen in einer Universitätsklinik jährlich knapp 2 Terabyte Bilddaten an (⊡ Tab. 51.3). Diese Abschätzung lässt sich leicht verzehnfachen, wenn die Auflösung der Daten erhöht wird. Einerseits müssen diese Daten nach den gesetzlichen Vorgaben mindestens 30 Jahre lang aufbewahrt werden, andererseits kann durch verlustfreie Kompression nicht mehr als die Halbierung oder Drittelung des Datenvolumens erreicht werden. In den letzten Jahren sind hochkapazitive Festplattensysteme verfügbar geworden, sodass das Archivierungsproblem zunehmend in den Hintergrund tritt. Kommunikation (Übertragung). Der Leitspruch für medizinische Informationssysteme, »die richtige Information zur richtigen Zeit am richtigen Ort« verfügbar zu machen, wird mit zunehmender Digitalisierung der bildgebenden Diagnostik auch auf die Medizinische Bildverarbeitung übertragen. Damit wird die Kommunikation zum Kern heutiger PACS-Systeme. Bilddaten werden nicht nur innerhalb eines Hauses, sondern auch zwischen weit auseinander liegenden Institutionen elektronisch transferiert. Für diese Aufgabe sind einfache Bitmap-Formate wie TIFF (Tagged Image File Format) oder GIF (Graphics Interchange Format) unzureichend, denn neben den Bildmatrizen in z. T. unterschiedlichen Dimensionen müssen auch medizinische
Informationen zum Patienten (Identifikationsnummer, Stammdaten ...), zur Modalität (Gerätetyp, Aufnahmeparameter ...) und zur Organisation (Untersuchung, Studie ...) standardisiert übertragen werden. Seit 1995 basiert diese Kommunikation auf dem DICOM-Standard (Digital Imaging and Communications in Medicine) (NEMA 1999). In der aktuellen Version beinhaltet DICOM ▬ Strukturinformation über den Inhalt der Daten (»object classes«), ▬ Kommandos, was mit den Daten passieren soll (»service classes«), und ▬ Protokolle für die Datenübertragung. DICOM basiert auf dem Client/Server-Prinzip und ermöglicht die Kopplung von PACS-Systemen an Radiologie- oder Krankenhausinformationssyteme. Dabei berücksichtigt DICOM bestehende Standards zur Kommunikation, z. B. das ISO/OSI-Modell (International Standard Organization/Open Systems Interconnection), das Internet-Protokoll TCP/IP und den HL7-Standard (Health Level 7). Vollständige DICOM-Konformität ist für Geräte und Applikationen auch dann möglich, wenn diese nur wenige ausgewählte Objekte oder Services unterstützen. Die Synchronisation zwischen Client und Server wird durch Konformitätsdeklarationen (Conformance Claims) geregelt, die ebenfalls im DICOM-Standard spezifiziert sind. Nicht festgeschrieben wurde jedoch die Art der Implementierung einzelner Services, sodass sich in der Praxis DICOM-Dialekte ausgeprägt haben, die zu Inkompatibilitäten führen können. Retrieval (Zugriff). Auch in modernen DICOM-Archiven können Aufnahmen nur dann gezielt aufgefunden werden, wenn der Patientenname mit Geburtsdatum oder eine systeminterne Identifizierungnummer bekannt ist. Das Retrieval erfolgt also ausschließlich über textuelle Attribute. Andererseits ergibt sich in der klinischen Routine eine beträchtliche Qualitätsverbesserung, wenn inhaltsähnliche Bilder mit gesicherter Diagnose aus dem Archiv direkt verfügbar sind. Damit wird der inhaltsbasierte Bildzugriff auf große Röntgenarchive (Contend-based Image Retrieval, CBIR) eine Hauptaufgabe zukünftiger Systeme (Tagare et al. 1997). Auch hier müssen für die Medizin konzeptionell andere Wege beschritten werden als es für kommerzielle CBIR-Systeme notwendig ist, denn die diagnostische Information in medizinischen Bildern ist weitaus vielschichtiger und komplexer strukturiert als in anderen Applikationen. ⊡ Abb. 51.20 zeigt die Systemarchitektur zum Image Retrieval in Medical Applications (IRMA). In dieser Architektur spiegeln sich die in Abschn. 51.4 bis Abschn. 51.8 diskutierten Verarbeitungsschritte der Merkmalsextraktion, Segmentierung und Klassifikation von Bildobjekten bis hin zur Interpretation und Szenenanalyse als einzelne Module wider (⊡ Abb. 51.1). Durch die Bildanalyse des
51
843 51.10 · Bildspeicherung
⊡ Tab. 51.3. Datenaufkommen 1999 am Universitätsklinikum Aachen mit ca. 1500 Betten. Die Leistungsdaten wurden dem Informationsund Geschäftsbericht 1999 des Universitätsklinikums der RWTH Aachen entnommen. Sie basieren ausschließlich auf den Leistungen der Kliniken für Radiologische Diagnostik, Neuroradiologie, Nuklearmedizin sowie Zahn-Mund-Kieferheilkunde und plastische Gesichtschirurgie bei insgesamt 47.199 stationären und 116.181 ambulanten Neuaufnahmen. Leistungen (z. B. sonographische, endoskopische oder photographische), die an anderen Kliniken erbracht wurden, blieben unberücksichtigt. Bei den nuklearmedizinischen Untersuchungen wurden 20 Schichten pro Untersuchung kalkuliert. Zum Vergleich wurde die Gesamtzahl aller Analysen des Zentrallabors des Institutes für Klinische Chemie und Pathobiochemie mit durchschnittlich 10 Messwerten pro Analyse abgeschätzt. Das jährliche Datenvolumen ist also ca. 10.000 Mal so groß (Lehmann et al. 2001a) Modalität
Ortsauflösung (Bildmatrix)
Wertebereich (Bit/Pixel)
MB/Bild
Leistungen 1999
GB/Jahr
Thoraxröntgenaufnahme
4000×4000
10
10,73
74.056
775,91
Skelettradiographie
2000×2000
10
4,77
82.911
386,09
CT
512×512
12
0,38
816.706
299,09
MR
512×512
12
0,38
540.066
197,78
Sonstige Röntgenaufnahmen
1000×1000
10
1,19
69.011
80,34
OPG/Schädel
2000×1000
10
2,38
7.599
17,69
Sonographien
256×256
6
0,05
229.528
10,11
Zahnfilme
600×400
8
0,23
7542
1,69
PET
128×128
12
0,02
65.640
1,50
SPECT
128×128
12
0,02
34.720
0,79
Zum Vergleich Laboranalysen
10
64
0,00
4.898.387
0,36
⊡ Abb. 51.20. Systemstruktur zum Image Retrival in Medical Applications (IRMA). Die schrittweise Bildverarbeitung in IRMA ist in der mittleren Spalte dargestellt. Die Kategorisierung basiert auf globalen Merkmalen und klassifiziert die Bilder hinsichtlich der Aufnahmemodalität und Körperregion. Danach erfolgt die geometrische oder zeitliche Ausrichtung sowie der Kontrastabgleich innerhalb der Kategorie. Die Abstraktion erfolgt auf Basis lokaler Merkmale, die kontext- und anfragespezifisch selektiert werden. Das Retrieval selbst
wird auf abstrakter und damit informationsreduzierter Ebene effizient durchgeführt. Damit folgt die Architektur dem Paradigma der Bildauswertung (⊡ Abb. 51.1). Links sind die Zwischenrepräsentationen dargestellt, die zunehmend abstrakter das Bild beschreiben. Die Abtraktionschichten sind auf der rechten Seite benannt (⊡ Abb. 51.2). Die Anfrage kann somit kontextspezifisch auf verschiedenen Abstraktionsniveaus für das Retrieval modelliert werden (Lehmann et al. 2000a)
844
Kapitel 51 · Medizinische Bildverarbeitung
V
⊡ Abb. 51.21. Inhaltsbasierter Bildzugriff. Die Abbildung zeigt einen Screenshot des IRMA-Webinterfaces. Im oberen Teil ist die Suchanfrage des Radiologen dargestellt, unten die 20 ähnlichsten Bilder aus dem Archiv. Je nach Anwendung kann die Ähnlichkeit auf Basis der gesamten Aufnahme oder eines (vom Radiologen markierten) Bildausschnittes berechnet werden.
⊡ Abb. 51.22. Paradigmen der Medizinischen Bildverarbeitung. Während die Generierung, das Management sowie die Manipulation und Auswertung digitaler Bilder bislang im Fokus der Medizinischen Bildverarbeitung stand, ist die zentrale Herausforderung nunmehr die Integration, Standardisierung und Validierung der Verfahren für Routineanwendungen in Diagnostik, Therapieplanung und Therapie (Lehmann 2004b)
Past (generation)
Present (interpretation)
Future (integration)
image formation (digital)
image formation (functional)
image formation (multidimensional)
pixel data manipulation
registration (multimodal)
diagnosis (CAD)
visualization (print & display)
segmentation
intervention planning
storage & transfer
classification & measurement
treatment (CAS)
acceleration (rapidity)
evaluation (accuracy)
standardization (usability)
IRMA-Systems wird die für das Retrieval relevante Information schrittweise verdichtet und abstrahiert. Jedes Bild wird symbolisch durch ein semantisches Netz (hierarchische Baumstruktur) repräsentiert, dessen Knoten charakteristische Informationen zum repräsentierten Bildbereich enthalten und dessen Topologie die räumliche und/oder
zeitliche Lage der Bildobjekte zueinander beschreibt. Mit dieser Technologie können Radiologen und Ärzte in der Patientenversorgung, Forschung und Lehre gleichermaßen unterstützt werden (Lehmann et al. 2004a). ⊡ Abbildung 51.21 zeigt ein CBIR-Benutzerinterface. Zum vorgegebenen Anfragebild erhält der Radiologe ähn-
845 Literatur
liche Bilder anderer Patienten aus dem Archiv, zu denen Diagnose, Therapie und Therapieerfolg im Krankenhausinformationssystem gespeichert sind. Dies kann bei der Befundung des aktuellen Falls sehr hilfreich sein (CaseBased reasoning, Evidence-based Medicine).
51.11
Resümee und Ausblick
Die vergangenen, aktuellen und künftigen Paradigmen in der Medizinischen Bildverarbeitung sind in ⊡ Abb. 51.22 zusammengestellt. Anfänglich (bis ca. 1985) standen pragmatische Probleme der Bildgenerierung, Bearbeitung, Darstellung und Archivierung im Vordergrund, denn die damalig verfügbaren Computer hatten bei weitem nicht die erforderlichen Kapazitäten, um große Bildmatrizen im Speicher zu halten und zu modifizieren. Die Geschwindigkeit, mit der Bildverarbeitung möglich war, erlaubte nur Offline-Berechnungen. Bis vor kurzem stand die maschinelle Interpretation der Bilder im Vordergrund. Die Segmentierung, Klassifikation und Vermessung medizinische Bilder wird kontinuierlich verbessert, immer genauer und in Studien auch an großen Datenmengen validiert. Daher wurde auch der Schwerpunkt dieses Kapitels auf den Bereich der Bildauswertung gelegt. Die zukünftige Entwicklung wird die Integration der Verfahren in die ärztliche Routine zunehmend in den Vordergrund stellen. Verfahren zur Unterstützung von Diagnostik, Therapieplanung und Behandlung müssen für Ärzte benutzbar gestaltet und stärker standardisiert werden, um auch die für einen Routineeinsatz erforderliche Interoperabilität gewährleisten zu können (Lehmann 2005, 2006; Tolxdorff 2009).
Literatur Algorithmen zur digitalen Bildverarbeitung können den Standardwerken von Abmayr, Haberäcker, Jähne oder Zamperoni entnommen werden ( folg. Abschn.). Vertiefende Literatur speziell zur Medizinischen Bildverarbeitung ist im deutschprachigen Raum recht spärlich. Nach einigen Buchbeiträgen verschiedener Autoren wurde von Ehricke erstmals ein in sich geschlossenes Werk zur Medizinischen Bildverarbeitung publiziert. Dieses praxisorientierte Lehrbuch umfasst die Bereiche Bildverarbeitung und Mustererkennung, dreidimensionale Visualisierung, Bildarchivierungs- und -kommunikationssytseme Bildarbeitsplätze und den klinischen Einsatz der Medizinischen Bildverarbeitung. Das vom Autor dieses Kapitels mit verfasste theoretisch orientierte Lehrbuch behandelt die Grundlagen der Medizinischen Bildverarbeitung (Medizinische Fragestellungen, Technik der Bilderzeugung, Bildwahrnehmung), Modelle (diskrete, signaltheoretische und statistische An-
sätze), Methoden der Bildtransformation und -verarbeitung sowie medizinische Anwendungen. Das mittlerweile vergriffene Buch ist elektronisch im Internet frei verfügbar (http://irma-project.org/lehmann/ps-pdf/BVM97onlinebook.pdf). Das Grundlagenwerk von Handels umfasst ebenfalls Kernbereiche wie die Transformation, Segmentierung, Analyse und Klassifikation. Der Fokus wird dabei auf die dreidimensionalen Modalitäten, deren Visualisierung und auf Anwendungen zur computerunterstützten Diagnostik und Operationsplanung gelegt. Neben diesen Lehrbüchern geben die mittlerweile jährlich erscheinenden Workshop-Proceedings »Bildverarbeitung für die Medizin«2 einen umfassenden Überblick über Neuerungen und Trends der Medizinischen Bildverarbeitung in Deutschland.
Allgemeine Literatur zur digitalen Bildverarbeitung Abmayr W (2001) Einführung in die digitale Bildverarbeitung. Teubner, Stuttgart Burger W, Burge MJ (2005) Digitale Bildverarbeitung. Springer-Verlag, Berlin Erhardt A (2008) Einführung in die Digitale Bildverarbeitung – Grundlagen, Systeme und Anwendungen. Vieweg+Teubner, Wiesbaden Deserno TM, Handels H, Meinzer HP, Tolxdorff T (Hrsg) (2010) Bildverarbeitung für die Medizin 2010 - Algorithmen, Systeme, Anwendungen. Proceedings des Workshops vom 14. bis 16. März 2010 in Aachen. Springer, Berlin Haberäcker P (1995) Praxis der digitalen Bildverarbeitung und Mustererkennung. Hanser, München Jähne B (2005): Digitale Bildverarbeitung. Springer, Berlin, 6. Auflage Nischwitz A, Fischer MW, Haberäcker P (2007) Computergrafik und Bildverarbeitung – Alles für Studium und Praxis. 2. Aufl. Vieweg+Teubner, Wiesbaden Soille P (1998) Morphologische Bildverarbeitung - Grundlagen, Methoden, Anwendungen. Springer, Berlin Steinmüller J (2008) Bildanalyse: Von der Bildverarbeitung zur räumlichen Interpretation von Bildern. Springer, Berlin Tizhoosh HR (1998) Fuzzy-Bildverarbeitung – Einführung in Theorie und Praxis. Springer, Berlin Tönnies KD (2005) Grundlagen der Bildverarbeitung. Pearson Studium, München Zamperoni P (1989) Methoden der digitalen Bildsignalverarbeitung. Vieweg, Braunschweig, 2. Auflage
Grundlegende Literatur zur medizinischen Bildverarbeitung Ehricke HH (1997) Medical Imaging: Digitale Bildanalyse und -kommunikation in der Medizin. Vieweg, Braunschweig Handels H (2009) Medizinische Bildverarbeitung: Bildanalyse, Mustererkennung und Visualisierung für die computergestützte ärztliche Diagnostik und Therapie. Vieweg+Teubner, Leipzig
2
Weitere Informationen zu den Workshops sind unter der URL http:// bvm-workshop.org zu finden.
51
846
V
Kapitel 51 · Medizinische Bildverarbeitung
Handels H, Ehrhardt J, Horsch A, Meinzer HP (Hrsg) (2006) Bildverarbeitung für die Medizin 2006 – Algorithmen, Systeme, Anwendungen. Proceedings des Workshops vom 19. bis 21. März 2006 in Hamburg, Springer, Berlin Horsch A, Deserno TM, Handels H, Meinzer HP, Tolxdorff T (Hrsg) (2007) Bildverarbeitung für die Medizin 2007 – Algorithmen, Systeme, Anwendungen. Proceedings des Workshops vom 25. bis 27. März 2007 in München, Springer, Berlin Lehmann TM (2005) Digitale Bildverarbeitung für Routineanwendungen – Evaluierung und Integration am Beispiel der Medizin. Deutscher Universitäts-Verlag, Wiesbaden Lehmann TM, Hiltner J, Handels H (2005) Medizinische Bildverarbeitung. In: Lehmann TM (Hrsg) Handbuch der Medizinischen Informatik, 2. Aufl. Hanser, München Lehmann TM, Oberschelp W, Pelikan E, Repges R (1997a) Bildverarbeitung für die Medizin – Grundlagen, Modelle, Methoden, Anwendungen. Springer, Berlin, ISBN 3-540-61458-3, im Internet unter http://irma-project.org/lehmann/ps-pdf/BVM97-onlinebook.pdf. Meinzer HP, Handels H, Horsch A, Tolxdorff T (Hrsg) (2005) Bildverarbeitung für die Medizin 2005 – Algorithmen, Systeme, Anwendungen. Proceedings des Workshops vom 13. bis 15. März 2005 in Heidelberg. Springer, Berlin Meinzer HP, Deserno TM, Handels H, Tolxdorff T (Hrsg) (2009) Bildverarbeitung für die Medizin 2009 – Algorithmen, Systeme, Anwendungen. Proceedings des Workshops vom 22. bis 25. März 2009 in Heidelberg, Springer, Berlin Tolxdorff T, Braun J, Deserno TM, Handels H, Horsch A, Meinzer HP (Hrsg) (2008) Bildverarbeitung für die Medizin 2008 – Algorithmen, Systeme, Anwendungen. Proceedings des Workshops vom 06. bis 08. April 2008 in Berlin, Springer, Berlin
Spezielle Literatur Bredno J, Lehmann TM, Spitzer K (2000) Automatic parameter setting for balloon models. Proceedings SPIE 3979,2:1185–1194 Bredno J (2001) Höherdimensionale Modelle zur Quantifizierung biologischer Strukturen. Dissertation, RWTH Aachen, 2001 Bredno J, Schwippert R, Lehmann TM, Oberschelp W (2001) FiniteElemente-Segmentierung mit Formwissen: Hybridisierung aus aktiver Kontur und Point-Distribution-Modell. In: Handels, Horsch, Lehmann, Meinzer (Hrsg) Bildverarbeitung für die Medizin 2001 – Algorithmen, Systeme, Anwendungen, S 217–221 Gouraud H (1971) Illumination for computer-generated pictures. Communications ACM 18(60): 311–317 König S, Hesser J (2004) Live-wires using path-graphs. Methods of Information in Medicine 43(4): 371–375 Lehmann TM, Schmitt W, Horn H, Hillen W (1996) IDEFIX - Identification of dental fixtures in intraoral X-rays. Proceedings SPIE 2710: 584–595 Lehmann TM, Kaser A, Repges R (1997b) A simple parametric equation for pseudocoloring grey scale images keeping their original brightness progression. Image and Vision Computing 15(3): 251–257 Lehmann TM, Wein B, Dahmen J et al. (2000a) Content-based image retrieval in medical applications: A novel multi-step approach. Proceedings SPIE 3972(32): 312–320 Lehmann TM, Gröndahl HG, Benn D: Review (2000b) Computer-based registration for digital subtraction in dental radiology. Dentomaxillofacial Radiology 29(6): 323–346 Lehmann TM, Bredno J, Metzler V et al. (2001) Computer-assisted quantification of axo-somatic boutons at the cell membrane of motoneurons. IEEE Transactions on Biomedical Engineering, 48(6): 706–717 Lehmann TM, Güld MO, Thies C et al. (2004a) Content-based image retrieval in medical applications. Methods of Information in Medicine 43(4): 354–361
Lehmann TM, Meinzer HP, Tolxdorff T (2004b) Advances in biomedical image analysis – Past, present and future challenges. Methods of Information in Medicine 43(4): 308–314 Lehmann TM, Aach T, Witte H (2006) Sensor, signal and image informatics. State of the art and current topics Methods of Information in Medicine 47(Suppl 1): S57–67 Lorensen WE, Cline HE (1997) Marching Cubes: A high resolution 3D surface construction algorithm. Computer Graphics 21(4): 163– 169 Maintz JBA, Viergever MA (1998) A survey of medical image registration. Medical Image Analysis 2: 1-36 McInerney T, Terzopoulos D (1996) Deformable models in medical image analysis - A survey. Medical Image Analysis 1(2): 91–109 Metzler V, Bredno J, Lehmann TM, Spitzer K (1098) A deformable membrane for the segmentation of cytological samples. Proceedings SPIE 3338: 1246–1257 Metzler V, Bienert H, Lehmann TM et al. (1999) A novel method for geometrical shape analysis applied to biocompatibility evaluation. ASAIO International Journal for Artificial Organs 45(4): 264–271 NEMA (1999) Digital imaging and communications in medicine (DICOM). Final Draft PS 3.1-1999. National Electrical Manufacturers Association (NEMA), Rosslyn, VA, USA Otsu N (1979) A threshold selection method from gray-level histograms. IEEE Transactions on Systems, Man, and Cybernetics, 9(1): 62–66 Pelizzari CA, Chen GTY, Spelbring DR et al. (1989) Accurate three-dimensional registration of CT, PET, and/or MR images of the brain. Journal of Computer Assisted Tomography 13: 20–26 Phong BT (1975) Illumination for computer generated pictures. Communications ACM 18: 311–317 Pommert A, Höhne KH, Pflesser B et al. (2001) Ein realistisches dreidimensionales Modell der inneren Organe auf der Basis des Visible Human. In: Handels, Horsch, Lehmann, Meinzer (Hrsg) Bildverarbeitung für die Medizin 2001 - Algorithmen, Systeme, Anwendungen, S 72–76 Riede UN, Schaefer HE (1993) Allgemeine und spezielle Pathologie. Thieme, Stuttgart Spitzer VM, Ackermann MJ, Scherzinger AL, Whitlock DG (1996) The visible human male: A technical report. Journal of the American Medical Informatics Association 3: 118–130 Tagare HD, Jaffe CC, Duncan J (1997) Medical image databases – a content-based retrieval approach. Journal of the American Medical Informatics Association 4: 184–198 Tolxdorff T, Deserno TM, Handels H, Meinzer HP (2009) Advances in medical image computing. Methods of Information in Medicine 48(4): 311–313 Wagenknecht G, Kaiser HJ, Büll U (1999) Multimodale Integration, Korrelation und Fusion von Morphologie und Funktion: Methodik und erste klinische Anwendungen. RöFo - Fortschritte auf dem Gebiet der Röntgenstrahlen und der bildgebenden Verfahren 170(1): 417–426
52 Virtuelle Realität in der Medizin W. Müller-Wittig
52.1
Einleitung – 847
52.2
Medizinische Anwendungsfelder – 848
52.2.1 52.2.2 52.2.3 52.2.4 52.2.5 52.2.6
Anatomische Ausbildung – 848 Funktionale Diagnostik – 848 Virtuelle Endoskopie – 848 Chirurgisches Training – 849 Präoperative Planung – 849 Intraoperative Unterstützung – 849
52.3
VR-basierte medizinische Simulation – 850
52.4
Modellbildung – virtuelle Anatomie – 850
52.4.1 Datenakquisition – 851 52.4.2 Preprocessing – 851
52.1
52.4.3 Segmentierung – 851 52.4.4 Gittergenerierung – 851 52.4.5 Reduktion – 852
52.5
Manipulationen – chirurgische Eingriffe – 852
52.5.1 Modellierung von Instrumenten – 852 52.5.2 Registrierung von Instrumentenbewegungen – 853 52.5.3 Integration des visuellen und haptischen Feedbacks – 854
52.6
Ausblick – 855 Literatur – 857
Einleitung
Die rasanten Entwicklungen, die sich in den letzten 20 Jahren vollzogen haben, haben die Chirurgie maßgeblich verändert, und sie wird unvermeidlich noch größere Änderungen in den nächsten Jahren erfahren. Die Chirurgie wird zunehmend technologiebasiert. So haben zwei wesentliche Entwicklungen, die sich auf unterschiedlichen Gebieten – der Computergraphik und der Chirurgie – vollzogen haben, dieses Kapitel geprägt (⊡ Abb. 52.1). In der Computergraphik bilden Techniken der virtuellen Realität (VR) eine neue Dimension in der MenschMaschine-Interaktion. VR ermöglicht eine intuitive Interaktion mit dem Computer und eine immersive, realistische Darstellung von dreidimensionalen computergenerierten Welten unter Verwendung neuartiger Ein- und Ausgabegeräte. Auf diese Weise können Vorgänge so realistisch simuliert werden, dass der Benutzer das Gefühl hat, er interagiere in der realen Welt (Encarnação et al. 1994). In der Chirurgie hat ein Wechsel des Interaktionsparadigmas durch den Übergang von der offenen zur minimalinvasiven Chirurgie (MIC) stattgefunden. Die minimalinvasive Chirurgie hat die Medizin revolutioniert und sich längst zu einem unentbehrlichen diagnostischen und therapeutischen Hilfsmittel entwickelt. Ziel ist es, das gewünschte Operationsergebnis bei minimaler Traumatisierung zu erreichen. Der Einsatz der minimalinvasiven Chirurgie erstreckt sich auf alle operativen Fächer. Bei der minimalinvasiven Chirurgie werden durch auf Millimetergröße geschrumpfte Zugänge Endoskop,
⊡ Abb. 52.1. Paradigmenwechsel
mit Optik und Lichtquelle ausgestattet, und andere miniaturisierte chirurgische Instrumente in das Operationsgebiet eingeführt. Während die traditionelle Chirurgie die Führung der Instrumente durch direkte visuelle Kontrolle erlaubt, schaut der Operateur, während er endoskopisch operiert, auf den Videomonitor und kontrolliert die Bewegungen seiner Instrumente. Ein weiteres Merkmal der minimalinvasiven Chirurgie ist, dass der direkte Kontakt zwischen der Hand des Operateurs und dem eigentlichen Operationsgebiet verloren geht. Er berührt nicht mehr direkt die anatomischen Strukturen, sondern manipuliert diese über unterschiedlichste Interaktionswerkzeuge.
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _52, © Springer-Verlag Berlin Heidelberg 2011
848
Kapitel 52 · Virtuelle Realität in der Medizin
52.2
V
Medizinische Anwendungsfelder
Vollkommen neue Einsatzmöglichkeiten wurden der graphischen Datenverarbeitung in der medizinischen Simulation eröffnet. Satava sah schon zu Beginn der 90er Jahre einen Paradigmenwechsel für die chirurgische Ausbildung aufgrund des Einzugs von VR-basierten medizinischen Simulatoren voraus (Satava 1993, 1995, 1996). Es gehe nicht mehr darum, Chirurgen über eine gewisse Zeitspanne zu trainieren, sondern das Training an definierten Qualitätsgüten zu messen. Diesem Ruf nach Qualitätssicherung in der Medizin wurde umso mehr Aufmerksamkeit geschenkt, als das Institute of Health in einer Studie die Todesfälle pro Jahr in den USA aufgrund von Kunstfehlern auf rund 100 000 bezifferte (Kohn et al. 2000). Und dieses Thema hat bis heute nichts an Aktualität verloren. Die durch medizinische Verfehlungen jährlich verursachten Mehrkosten wurden auf 500 Mrd. US $ geschätzt (Langreth 2005). Anhand des von Paul Milgram und Fumio Kishino eingeführten Reality-Virtuality-Kontinuum lassen sich anschaulich die unterschiedlichen Technologien und deren Anwendungsfelder in der Medizin beschreiben (⊡ Abb. 52.2, 4-Farbteil am Buchende; Milgram u. Kishino 1994). Während in VR der Benutzer in Echtzeit mit dreidimensionalen digitalen Modellen interagiert, bezeichnet der Begriff »Erweiterte Realität« (Augmented Reality, AR) die Überlagerung von digitaler Information mit der Realität in Echtzeit. Dabei beinhaltet das Augmented Reality System typischerweise die folgenden wesentlichen Komponenten: ▬ ein Trackingsystem, mit der die reale Umgebung des Anwenders erfasst wird, ▬ ein Display (z. B. semitransparenter Monitor, Head Mounted Display), mit der die digitalen Informationen in Überlagerung mit der Realität dargestellt werden, ▬ ein (mobiler) Computer, der 3D-Registrierung sowie Bildgenerierung leistet.
52.2.1 Anatomische Ausbildung
Das Visible Human Projekt der National Library of Medicine, welches 1994 komplexe und multimodale Bilddaten erstmals zur Verfügung stellte, ermöglichte den Einsatz von VR auch bei der Präsentation und Vermittlung räumlichen Wissens in der anatomischen Ausbildung (Spitzer et al. 1996). Traditionell gewinnen Medizinstudenten ihr Wissen in Anatomie beispielsweise durch das Präparieren von Leichen oder aus Anatomieatlanten. Die Interaktion mit computergenerierten dreidimensionalen Modellen der realen Welt durch innovative MenschMaschine-Schnittstellen bietet nun die Möglichkeit, auf eine vollkommen neue Art die Anatomie zu erkunden.
Medizinstudenten sind in der Lage, wichtige physiologische Prinzipien oder Wechselbeziehungen anatomischer Strukturen besser zu verstehen. Eine Vielzahl von 3DAnatomieatlanten stehen heutzutage zur Verfügung und kommen in der Ausbildung zum Einsatz. Exemplarisch seien an dieser Stelle die Systeme Voxel-Man (Höhne et al. 2009) und BodyViz von Visual Medical Solutions genannt, die mittlerweile diese hochqualitativen 3DAnsichten kostengünstig auf Standardlaptops anbieten (⊡ Abb. 52.3, 4-Farbteil am Buchende).
52.2.2 Funktionale Diagnostik
In der Funktionsdiagnostik können Simulationsumgebungen realisiert werden, die eine Untersuchung des patientenspezifischen Ist-Zustands ermöglichen. Darüber hinaus wird das Ziel verfolgt, Erkenntnisse darüber zu gewinnen, inwiefern die funktionalen Konsequenzen eines beabsichtigten operativen Eingriffs vorausgesagt werden können. Dazu ist es notwendig, die Simulation des geplanten patientenspezifischen Soll-Zustands zu gewährleisten. Das aktuelle Projekt VR-Schleudertrauma hat beispielsweise zum Ziel, durch den integrierten Einsatz von VR und Messungen der muskulären Aktivität die Diagnose chronischer Schmerzen nach einem Schleudertrauma zu verbessern. Die Problematik bei Halswirbelsäulenschleudertrauma liegt in der diagnostischen Unsicherheit, da bildgebende Diagnostik nur strukturelle Schäden feststellen kann, die nur für 3–5% der Fälle zutreffen. Mit diesem neuen, VR-basierten Verfahren möchte man nun schließlich dem Großteil der Patienten, die keine strukturellen Schäden, jedoch Symptome wie Schmerzen und Bewegungseinschränkung aufweisen, einen individuellen Therapieplan bieten (Bockholt et al. 2006). Dieses Gebiet zeigt eindrucksvoll, auf welche Weise rechenintensive Simulationsvorgänge mit interaktiven 3D-Echtzeitumgebungen verknüpft werden können. Die rasanten Entwicklungen der Rechnerarchitekturen und insbesondere der programmierbaren Graphikprozessoren (GPUs) lassen die beiden Bereiche mehr und mehr verschmelzen (Akenine-Möller et al. 2008; Taylor et al. 2009). So ermöglicht beispielsweise die neue GPU-Architektur »Fermi« von nVidia eine weitere Beschleunigung der Graphik und auch genauere und schnellere Berechnungen bei der medizinischen Simulation (nVidia 2009).
52.2.3 Virtuelle Endoskopie
Die virtuelle Endoskopie hat sich zu einem wichtigen diagnostischen Werkzeug entwickelt (Kaufman et al. 2005; Krüger et al. 2008). Hier werden anatomische Innenansichten – ähnlich den realen endoskopischen Betrachtungen – erzeugt. Das Ziel dieser nichtinvasiven 3D-
849 52.2 · Medizinische Anwendungsfelder
Simulation endoskopischer Eingriffe ist es, gleichzeitig Visualisierung der virtuellen anatomischen Strukturen und Echtzeitinteraktion (z. B. realistische Steuerung der Blickrichtung) zuzulassen. Ein Vorteil der virtuellen Endoskopie ist darin zu sehen, dass auch anatomische Regionen, die für reale endoskopische Eingriffe unzugänglich sind, betrachtet werden können (⊡ Abb. 52.4, 4-Farbteil am Buchende).
52.2.4 Chirurgisches Training
Die chirurgische Ausbildung stellt eines der vielversprechendsten Gebiete in der Medizin für den Einsatz von 3D-Computergraphik und VR-Techniken dar. Inspiriert durch Flugsimulatoren im Bereich des Pilotentrainings, wurde 1993 erstmals ein computergestütztes Simulationssystem für das arthroskopische Training des Kniegelenks der breiten Öffentlichkeit vorgestellt (⊡ Abb. 52.5, 4-Farbteil am Buchende; Müller et al. 1995). Zeitgleich arbeiteten andere Forschergruppen an der Entwicklung von VR-basierten Laparoskopietrainern (Kühnapfel et al. 1995; Cotin et al. 1996; Meglan et al. 1996). So sei in diesem Zusammenhang darauf hingewiesen, dass das Konzept des VR-basierten Kniearthroskopietrainingssimulators auch auf andere Bereiche übertragbar ist. Somit können auch andere minimalinvasive Eingriffe – ohne direkten Patientenkontakt – an einem virtuellen Situs geübt werden. Exemplarisch seien an dieser Stelle der Rhinoskopie- und der Hysteroskopietrainingssimulator genannt (⊡ Abb. 52.6, 4-Farbteil am Buchende; Bockholt et al. 2008, Müller-Wittig et al. 2001). Mittlerweile haben sich einige kommerzielle medizinische Trainingssimulatoren auf dem Markt etabliert, die weltweit in zahlreichen Trainingszentren als fester Bestandteil des Ausbildungsprogramms zum Einsatz kommen (Bürger et al. 2006; Maschuw et al. 2008; Salkini et al. 2010).
⊡ Abb. 52.8. MEDARPA – Augmented Reality im Operationssaal
52.2.5 Präoperative Planung
Auch in der präoperativen Planung (⊡ Abb. 52.7, 4-Farbteil am Buchende) kann der Einsatz von VR-Techniken den Chirurgen unterstützen. Bevor der Eingriff an einem realen Patienten durchgeführt wird, ist der Chirurg in der Lage, die einzelnen operativen Schritte an einem virtuellen Patienten zu simulieren. Auf diese Weise ist es möglich, den sichersten und effektivsten operativen Weg zu wählen. Dabei können immer wieder neue Varianten des geplanten Eingriffs simuliert werden, bis beispielsweise der optimale Zugang zu einem verletzten Gefäß gefunden ist und möglichst wenig gesunde Strukturen beschädigt werden. Neben der Verringerung der Komplikationsrate und Verbessung des Operationsergebnisses kann auch eine Kostenersparnis durch Vermeidung von Nachfolgebehandlungen und der damit verbundenen Kosten erreicht werden – beispielsweise ist die Wahrscheinlichkeit für eine Revision höher im Falle von suboptimal ausgerichteten Knieendoprothesen (Novak et al. 2007).
52.2.6 Intraoperative Unterstützung
Prinzipiell wird schon seit langem in der Neurochirurgie von der Augmented-reality (AR) Technology Gebrauch gemacht. Das Mikroskopbild kann mit digitalen Informationen überlagert werden, um somit eine intraoperative Unterstützung zu leisten. An dieser Stelle sei der optimale Pfad zum Operationsziel genannt, der auf Basis von Bildaten präoperativ festgelegt wurde und nun intraoperativ in einer erweiterten Realität dem Chirurgen im realen Kontext zum Operationsfeld eingespielt werden kann. Mittlerweile werden auch andere chirurgische Felder erfasst, und eine zunehmende Verlagerung der medizinischen Simulation mit Hilfe von AR in den OP ist festzustellen (Wesarg et al. 2004; Khan et al. 2005) (⊡ Abb. 52.8). Es ist
52
850
Kapitel 52 · Virtuelle Realität in der Medizin
offensichtlich, dass anders als im Trainingsbereich sehr hohe Anforderungen bezüglich der Genauigkeit an diese AR-basierten intraoperativen Navigationssysteme gestellt werden müssen. Es existieren mehr und mehr Studien, die nun diese Ansätze unter klinischen Bedingungen im Operationssaal evaluieren (Teber et al. 2009).
52.3
V
VR-basierte medizinische Simulation
Dieser Abschnitt setzt sich schwerpunktmäßig mit den Herausforderungen in der Realisierung von Echtzeitsimulationen in der Medizin auseinander. Die Qualität in der medizinischen Simulation wird – wie auch bei VR-Applikationen im Allgemeinen – dadurch bestimmt, inwiefern die verschiedenen Wahrnehmungskanäle des Benutzers angesprochen werden, mit dem Ziel, den Realitätseindruck zu erhöhen. Der visuelle und der haptische Wahrnehmungskanal stehen dabei im Vordergrund. Dazu müssen die auf den Anwender einwirkenden Einflüsse seiner Umgebung entsprechend modelliert sein, und er muss in der Lage sein, mit seiner Umgebung zu interagieren und diese darüber hinaus zu modifizieren. Dass Simulatoren in diesem Bereich durch Integration haptischer Displays für ein realitätsnahes haptisches Feedback sorgen können, konnte durch verschiedene Arbeiten auf diesem Gebiet bereits bewiesen werden (Basdogan et al. 2004; Levinski et al. 2009). In diesem Kontext muss jedoch auch berücksichtigt werden, dass in der minimalinvasiven Chirurgie die taktile Wahrnehmungsfähigkeit durch die chirurgischen Instrumente stark eingeschränkt wird und somit der derzeitige junge Entwicklungsstand in der Gerätetechnologie haptischer Displays diesen Anforderungen schon mit Einschränkung genügen kann. Die Probleme derzeitiger rechnergestützter Simulatoren liegen zum einen bei der Qualität der graphischen Ausgabe und zum anderen bei der Simulation des Objektverhaltens während der Interaktion mit virtuellen Stukturen. Eine besondere Herausforderung stellt in diesem Zusammenhang die Simulation und Darstellung von Gewebe unterschiedlicher elastodynamischer Eigenschaften während manipulativer Eingriffe dar, wobei in diesem Zusammenhang der Kopplung des visuellen und haptischen Feedbacks eine besondere Bedeutung zukommt. Ein Simulationssystem muss in der Lage sein, einen ganzen Prozess mit seiner Umgebung realistisch darzustellen. Mit Fokus auf minimalinvasive Chirurgie gilt es, die »reale« Umgebung des Chirurgen eingehend zu betrachten. Dabei berührt der Operateur bei minimalinvasiven Eingriffen nicht mehr direkt die anatomischen Strukturen, sondern manipuliert diese mit dem Instrumentarium, wobei er mit Blick auf den Videomonitor – weg vom Patienten – die Bewegungen seiner Instrumente kontrolliert. Als Schlüsselmerkmale der operativen Situation können das Modell (virtuelle Anatomie), die chi-
⊡ Abb. 52.9. VR-basierte medizinische Simulation
rurgischen Eingriffe (Interaktionen) sowie die chirurgischen Instrumente (Interaktionswerkzeuge) identifiziert werden. ⊡ Abb. 52.9 zeigt schematisch das Modell einer VR-basierten medizinischen Simulation. Auf der Basis dieses Modells zur VR-basierten medizinischen Simulationen werden nun im Folgenden die einzelnen Komponenten eingehender beschrieben.
52.4
Modellbildung – virtuelle Anatomie
So stellt die Generierung der anatomischen Region den ersten Schwerpunkt bei der Betrachtung des VR-basierten medizinischen Simulationssystems dar. Prinzipiell kann die Modellgewinnung durch zwei Ansätze realisiert werden (⊡ Abb. 52.10). Mit Hilfe von Modellierungssystemen, die man beispielsweise in der Architektur einsetzt, können nun auch virtuelle anatomische Strukturen erstellt werden. Es handelt sich hierbei um Oberflächenmodelle, die aus einer Vielzahl von Dreiecken bestehen und durch das Aufbringen von Texturen ein realistisches Aussehen bekommen (⊡ Abb. 52.11, 4-Farbteil am Buchende). Auf die Modellierung soll hier nicht näher eingegangen werden. Vielmehr soll die Ableitung eines integrativen patientenspezifischen 3D-Modells auf Basis medizinischer Bilddaten behandelt werden. Mit der 3D-Rekonstruktion ist es nun möglich, individuelle medizinische Fragestellungen mit Hilfe des Simulationssystems zu behandeln. Als Herausforderungen sind in diesem Kontext zu nennen, dass dieses Anatomiemodell nicht nur die für das Aussehen relevanten Attribute beinhalten soll, sondern auch die für die Behandlung des haptischen Feedbacks erforderlichen Gewebecharakteristika berücksichtigt. Des Weiteren soll sich das Konzept zur 3DRekonstruktion nicht auf eine spezifische anatomische Region beschränken, sondern vielmehr die Gewinnung
851 52.4 · Modellbildung – virtuelle Anatomie
52.4.1 Datenakquisition
Bildgebende Verfahren unterstützen die medizinische Diagnostik und Therapieplanung. Dieses im klinischen Alltag anfallende Bildmaterial kann nun auch für die Modellbildung genutzt werden. Im Kontext der Rekonstruktion anatomischer Strukturen bilden Sequenzen von medizinischen Schichtdaten, die typischerweise von Computertomographen oder Kernspintomographen stammen, die Basis.
52.4.2 Preprocessing ⊡ Abb. 52.10. Generierung der virtuellen Anatomie
Dieser Schritt der Rekonstruktionspipeline soll dafür sorgen, dass die Bildsignale so aufbereitet werden, dass die relevanten Informationen besser dargestellt werden können. Darüber hinaus sollen Signale, die redundant oder störend sind, unterdrückt werden (z. B. Metallartefakte). Das Ziel ist, die Qualität der nachfolgenden Bearbeitungsschritte zu verbessern.
52.4.3 Segmentierung
⊡ Abb. 52.12. Pipeline zur 3D-Rekonstruktion
dreidimensionaler Repräsentationen unterschiedlichster Anatomien erlauben. Schließlich soll eine synthetische anatomische Umgebung geschaffen werden, die über die Echtzeitvisualisierung eines statischen Modells hinausgeht und die realitätsnahe Simulation eines dynamischen Modells unter Echtzeitbedingungen zulässt. Bei der 3D-Rekonstruktion anatomischer Strukturen – basierend auf medizinischen Bilddaten – können dabei die folgenden wesentlichen Schritte unterschieden werden (⊡ Abb. 52.12).
Allgemein kann Segmentierung als ein Prozess verstanden werden, Objekte innerhalb eines Bildes zu erkennen. Das Ergebnis der Segmentierung ist eine Unterteilung des Bildes in eine Anzahl verschiedener Regionen, die sich hinsichtlich bestimmter Merkmale unterscheiden. Die Segmentierung medizinischer Bilddaten hat die Extraktion von Konturen der anatomischen Strukturen zum Ziel. Einzelne anatomische Strukturen werden identifiziert und können dann selektiert und getrennt behandelt werden. Prinzipiell erweist sich dieser Schritt als problematisch, da oft Objektkonturen nur ungenügend oder unvollständig dargestellt werden. Die Segmentierungsverfahren haben sich aber mittlerweile so weiterentwickelt, dass eine korrekte Detektierung der anatomischen Strukturen (semi-)automatisch erfolgt und dieser Schritt in dem Rekonstruktionsprozess lediglich minimale manuelle Intervention erfordert (Drechsler et al. 2010; Erdt u. Sakas 2010; ⊡ Abb. 52.13, 4-Farbteil am Buchende).
52.4.4 Gittergenerierung
In diesem Schritt werden die Konturen benachbarter Schichten miteinander verbunden, um eine dreidimensionale Struktur zu erhalten. Dabei müssen geeignete Verbindungen zwischen zwei Konturen gefunden werden. Zu bedenken ist, dass anatomische Objekte höchst komplexe Strukturen aufweisen können und somit erhebliche Konturveränderungen von einer Schicht zur nächsten
52
852
Kapitel 52 · Virtuelle Realität in der Medizin
V
⊡ Abb. 52.14. Gittergenerierung des Beinknochens
auftreten können. Enthalten beispielsweise zwei benachbarte Ebenen dieselbe Anzahl an Konturen, so muss gewährleistet sein, dass die richtigen Konturen miteinander verbunden werden (Korrespondenzproblem). Oder das Verfahren muss evtl. bei mehreren Konturen pro Ebene eine Verzweigung des Objekts zur benachbarten Ebene erkennen und berücksichtigen. Erfolgreich werden diese Probleme durch Verfahren behandelt, die die Gitter auf Basis einer 3D-DelaunayTriangulierung erzeugen. Der interessierte Leser sei auf die Arbeiten von Boissonnat (1985) verwiesen. ⊡ Abb. 52.14 zeigt das Ergebnis einer Gittergenerierung. Deutlich sind die unterschiedlichen Komplexitäten erkennbar, die aufgrund der unterschiedlichen Schichtabstände zustande kommen. Auf diese Weise kann beispielsweise für die anatomischen Bereiche, die für die VR-basierte Simulation wichtig sind (hier Kniebinnenraum), eine höhere Auflösung erzielt werden.
52.4.5 Reduktion
Aufgrund der hohen Auflösung medizinischer Daten wird eine sehr hohe Anzahl von Dreiecken generiert. Damit schließlich die so abgeleiteten anatomischen Modelle in dem Simulationssystem unter Echtzeitbedingungen weiterverarbeitet werden können, muss u.U. in einem letzten Schritt die Struktur der komplexen polygonalen 3D-Objekte, die durchaus mehrere Millionen Dreiecke aufweisen können, über eine Reduktion vereinfacht werden. Wie bei der Modellierung kann auch hier durch Projektion von Texturen auf die Oberfläche der Realismus des Modells erhöht werden. Diese Texturen können
beispielsweise aus realen Endoskopiebildern gewonnen werden. Virtuelle anatomische Strukturen zu generieren, ist auch mit Hilfe eines Streifenlichtscanners möglich. Dieser kann hochauflösende 3D-Scans im Submillimeterbereich realisieren, um beliebige Objekte präzise dreidimensional zu erfassen. Diese 3D-Punktwolken werden dann in 3D-Modelle über eine Gittergenerierung umgesetzt. Das System erlaubt zudem die Texturierung der Geometriemodelle mit Fotografien des Objekts, sodass ein fotorealistisches digitales Modell entsteht (⊡ Abb. 52.15, 4-Farbteil am Buchende). Bei Bedarf können schließlich Varianten mit verschiedenen Detailgenauigkeiten generiert werden. Der Streifenlichtscanner kann beispielsweise bei der radiotherapeutischen Behandlung eingesetzt werden, um eine hochpräzise Bestrahlung zu garantieren. Die geometrischen Informationen der Körperoberfläche können dann dazu genutzt werden, die Lage des Patienten zu bestimmen und Patientenbewegungen zu detektieren.
52.5
Manipulationen – chirurgische Eingriffe
Nach der Modellgewinnung stellt die Simulation von chirurgischen Instrumenten einen weiteren Schwerpunkt in der VR-basierten medizinischen Simulation dar. Hierbei ist darauf zu achten, dass einerseits Form und Aussehen, andererseits die funktionellen Eigenschaften der einzelnen Instrumente beibehalten werden. Dies soll nicht nur starre Instrumente (z. B. Endoskop, Tastinstrument), sondern auch Instrumente mit dynamischen Komponenten (z. B. Greif-/Resektionszange) einschließen. Ziel ist es, dass der Chirurg sich wie gewohnt mit dem Instrumentarium in der virtuellen Anatomie, die, wie bereits vorgestellt, aus konkreten patientenspezifischen Bilddaten gewonnen wird, bewegen kann. Als Anforderung ist hier vorrangig die Realisierung der 3D-Interaktion in Echtzeit zu nennen – der Einsatz von chirurgischen Originalinstrumenten als »Eingabegeräte« ist anzustreben. Die VR-Technologie ermöglicht nun, vollkommen neue Interaktionsgeräte zu spezifizieren, weitab von dem bekannten Datenhandschuh oder Datenhelm.
52.5.1 Modellierung von Instrumenten
Die Erfahrung zeigt, dass in der Regel die Hersteller von medizinischem Instrumentarium nicht über dreidimensionale digitale Modelle ihrer Produkte verfügen. Es müssen jedoch virtuelle Instrumente zur Verfügung gestellt werden, die in das medizinische Simulationssystem integriert und dort unter Echtzeitbedingungen weiter verarbeitet werden. Die Gewinnung der dreidimensiona-
853 52.5 · Manipulationen – chirurgische Eingriffe
len Struktur der chirurgischen Instrumente kann nun mit Hilfe von Modelliersystemen geleistet werden. Als Basis dienen hierzu technische Dokumentationen und/oder die Instrumente selbst. Bei diesem Modellierungsschritt ist darauf zu achten, dass diese virtuellen Instrumente von ihrem Aufbau her dieselben Funktionalitäten erfüllen können wie die entsprechenden realen. Des Weiteren sollte auch für ein realitätsnahes Aussehen gesorgt werden. Die in der Modellierung von virtuellen Umgebungen eingesetzten Methoden, wie z. B. Texturierung, können auch hier dazu benutzt werden, den visuellen Eindruck solcher Instrumente zu erhöhen.
52.5.2 Registrierung von
Instrumentenbewegungen Nachdem nun rechnerinterne dreidimensionale Repräsentationen des Instrumentariums verfügbar sind, müssen diese Interaktionswerkzeuge in dem medizinischen Simulationssystem auch anwendbar sein, d. h., sie müssen – als virtuelle Pendants der realen Instrumente – sich auch wie diese verhalten. Somit müssen Bewegungen der Instrumente registriert und diese ohne Verzögerung auf die auf dem Monitor dargestellten virtuellen Modelle übertragen werden, um auf diese Weise dem Operateur das visuelle Feedback zu geben. Zur Realisierung der 3D-Interaktion mit chirurgischen Instrumenten wird die so genannte Trackingtechnik verwendet, die typischerweise in VR-Applikationen zur Erfassung von Bewegungen – z. B. eines Datenhelms oder Datenhandschuhs – zum Einsatz kommt. Zur Bestimmung von Position und Orientierung existieren mehrere Ansätze, die sich hinsichtlich der ausgenutzten physikalischen Eigenschaften in verschiedene Kategorien einteilen lassen (z. B. mechanische, optische, elektromagnetische Trackingverfahren). An dieser Stelle soll kurz auf das elektromagnetische Verfahren eingegangen werden. Beim elektromagnetischen Trackingverfahren wird von einem so genannten Transmitter ein elektromagnetisches Feld aufgebaut, das von einem Sensor (Empfänger) gemessen wird. Somit lassen sich innerhalb dieses elektromagnetischen Feldes Position und Orientierung des Sensors bestimmen. Es existieren mittlerweile kleindimensionierte Sensoren, die leicht und unauffällig an die zu registrierenden Objekte fixiert werden können. Ungünstig sind die Verbindungskabel, die die Bewegungsfreiheit beeinträchtigen können. Nachteil dieses Ansatzes ist die Störanfälligkeit der Messgenauigkeit durch metallische und ferromagnetische Gegenstände. Schließlich hat dieser Ansatz im Vergleich zum optischen Verfahren, welches vornehmlich im OP eingesetzt wird, eine schlechtere Genauigkeit bezüglich Position und Orientierung. Bei medizinischen Simulationssystemen, die keine zu hohen Anforderungen an die Genauigkeit haben
(z. B. Trainingssimulatoren), können Trackingverfahren auf elektromagnetischer Basis benutzt werden. Dieses Verfahren erlaubt beispielsweise eine Registrierung von Objekten mit einer Genauigkeit von 0,8 mm für die Positionierung und 0,15 mm für die Orientierung. Dazu werden Sensoren auf Instrumenten befestigt. Auf diese Weise ist es nun möglich, jede kleine Intrumentenbewegung in Echtzeit zu registrieren. Entsprechend dieser Sensorwerte wird permanent die neue Ansicht berechnet und über den Monitor des Graphikrechners ausgegeben. Das Endoskop erfordert aufgrund seiner optischen Eigenschaften eine besondere Behandlung. Endoskope werden neben Geradeaus- oder Nullgradoptik auch mit verschiedenen Winkelungen der Normaloptik angeboten. Diese Winkeloptiken erlauben allein durch Rotation des Endoskops um die eigene Instrumenentenachse eine Erweiterung des Blickfelds. Darüber hinaus lassen manche Endoskope Blickfelder von bis zu 110° zu, die durch Benutzung von Weitwinkeloptiken erreicht werden. Wie bereits beschrieben, können über einen Sensor Position und Orientierung eines Instruments, mithin auch eines Endoskops, festgestellt werden. Zur Simulation des optischen Systems muss nun noch aufgrund der ermittelten Sensordaten der Augpunkt des Instruments bestimmt werden. In Abhängigkeit von der gewählten Optik kann dann das aktuelle Blickfeld neu berechnet und visualisiert werden. Dabei enthält eine graphische Benutzungsoberfläche (Graphical User Interface) einen Ausgabebereich für das Endoskopbild. Ein Vorteil des VR-basierten medizinischen Simulationssystems ist, dass beliebige Winkeloptiken für das Endoskop eingestellt werden können. Der Pfeil gibt in diesem Zusammenhang die Blickrichtung an (⊡ Abb. 52.16). Ein zweites Ausgabefenster dient dazu, eine Totalperspektive zu liefern, die eine zusätzliche Orientierungshilfe speziell für Anfänger darstellt. Hier ist auch deutlich zu erkennen, wie die Lichtquelle auf der Spitze des Endoskops mit Hilfe einer Punktlichtquelle simuliert wird, wobei nur der entsprechende Ausschnitt der virtuellen Anatomie ausgeleuchtet wird (⊡ Abb. 52.16, oben rechts, 4-Farbteil am Buchende). Andere spezifische Charakteristika des Endoskops wie die Weitwinkeloptik, die die konvexen Verzerrung des Videobildes verursacht, können auch in der Simulation nachgebildet werden. Darüber hinaus kann über eine graphische Benutzungsoberfläche die Simulationsumgebung konfiguriert werden, wobei zwischen verschiedenen anatomischen Regionen und zwischen unterschiedlichen chirurgischen Instrumenten gewählt werden kann. Zusätzlich werden während der Simulation Statistiken geführt, die zur Evaluierung des Trainingslevels herangezogen werden können. Das Anbieten von Standardtrainingssituationen und die Möglichkeit der objektiven Bewertung sind mit Sicherheit die großen Vorteile gegenüber konventionellen
52
854
V
Kapitel 52 · Virtuelle Realität in der Medizin
Trainingsmethoden in der Endoskopie (z. B. »learning by doing« am Patienten). Die VR-Technologie ermöglicht also die Einführung neuartiger Interaktionsgeräte. Eine Echtzeit-3D-Interaktion und somit ein intuitives Handling verschiedener chirurgischer Instrumente in dem VR-basierten medizinischen Simulationssystem ist gewährleistet. Dabei kann ein reichhaltiges »virtuelles« Instrumentenbesteck aus Endoskopen mit verschiedenen Optiken sowie aus Tastinstrumenten und Greif-/Resektionszangen zur Verfügung gestellt werden, die unter Beibehaltung von Form und funktionellen Eigenschaften realitätsnah simuliert werden. Neben der Registrierung der Instrumentenbewegungen ist eine schnelle Kollisionserkennung der verschiedenen Instrumente mit den virtuellen anatomischen Strukturen erforderlich, die als Basis für die Simulation der verschiedenen Manipulationen (z. B. Deformieren oder Schneiden) auf anatomischen Strukturen dient. Als manipulativer Eingriff soll an dieser Stelle kurz das Verformen vorgestellt werden. Zwei Ansätze zur Simulation von Verformungen – die geometrisch basierten sowie die physikalisch-basierten Methoden – sollen dabei erwähnt werden. Die durch chirurgische Instrumente herbeigeführten Deformationen der anatomischen Strukturen können auf Basis von »bump weighting functions« sowie mit Hilfe von Feder-Masse-Modellen und FiniteElemente-Methoden (FEM) realisiert und in das medizinische Simulationssystem integriert werden. Der erste Ansatz ermöglicht eine schnelle Simulation lokaler Deformationen, die auch auf Low-cost-Rechnern echtzeitfähig ist. Hierbei kann durch Spezifikation einer Wichtungsfunktion, die die Verformung um das Interaktionswerkzeug in Abhängigkeit von der Eindringtiefe kontrolliert, jedem Gewebe individuell ein lokales Deformierungsverhalten zugeordnet werden. Es handelt sich hierbei um einen geometrischen Ansatz, der über Transformationen realisiert wird. Der zweite Ansatz stellt ein Verfahren zur physikalisch basierten Simulation dar und berücksichtigt auch globale Deformationsvorgänge. Der Feder-Masse-Ansatz lässt durch geeignete Integrationsverfahren in Verbindung mit einer Schrittweitensteuerung Berechnungen in Echtzeit zu. Problematisch ist hierbei, ein stabiles Simulationsverhalten zu erreichen. Letztlich werden mehr und mehr Finite-ElementeMethoden zur Simulation des Gewebeverhaltens eingesetzt. Hier können die gewebespezifischen Materialeigenschaften in das FEM-Model integriert werden. Dieser Ansatz erlaubt eine realistischere Simulation, benötigt jedoch komplexe und rechenintensive Berechnungen. Erfolgversprechend ist auch hier der Einsatz von den schon besprochenen, sich rasant entwickelnden Hardwarearchitekturen wie GPU. Der interessierte Leser sei auf Taylor et al. (2009) sowie Peterlik et al. (2010) verwiesen.
52.5.3 Integration des visuellen
und haptischen Feedbacks Um den unterschiedlichen wahrnehmungsphysiologischen Reizchakteristika des Menschen zu genügen, müssen die Komponenten eines Simulationssystems mit verschiedenen Aktualisierungsraten ausgeführt werden. Für die haptische Ausgabe bedeutet dies, dass hohe Frequenzen von bis zu 1000 Hz erzeugt werden müssen, während für die graphische Ausgabe 20–40 Hz für die Echtzeitvisualisierung notwendig sind. In diesem Zusammenhang gilt es, das visuelle und haptische Feedback zu synchronisieren. Die Arbeiten zur Integration von haptischem Feedback in VR-basierte medizinische Simulationssysteme werden von zwei wesentlichen Faktoren beeinflusst. Zum einen von der Hardware – der Gerätetechnologie – und zum anderen von der Software – der Ansteuerung dieser haptischen Displays zur Erzeugung der künstlichen Widerstände. Bei der minimalinvasiven Chirurgie reduzieren sich die Freiheitsgrade aufgrund der durch den minimalen Zugang bedingten Fixierung des endoskopischen Instruments. Zusammenfassend lässt sich feststellen, dass die haptische Schnittstelle weder große Kraftkapazitäten noch einen großen Arbeitsbereich aufweisen muss. Jedoch müssen auch der maximale Widerstand bei Berührung der chirurgischen Instrumente mit Knochengewebe berücksichtigt und die entsprechende Steifigkeit als haptisches Feedback geliefert werden. Während die Registierung von Bewegungen in ihren sechs Freiheitsgraden durch Trackingsysteme der heutigen Zeit vollständig erfasst werden können, lassen aktuelle haptische Displays, die für den Einsatz in der medizinischen Simulation in Frage kommen, lediglich beschränkte Freiheitsgrade für die Generierung künstlicher Widerstände zu. Aber auch vonseiten der Gerätetechnologie gibt es vielversprechende Weiterentwicklungen, die auf den Markt gekommen sind und speziell für die medizinische Simulation zugeschnitten wurden. Die Software realisiert das haptische Rendering, d. h. die Umwandlung einer beliebigen Repräsentation eines virtuellen Objekts in eine Darstellung zur Ausgabe über ein haptisches Display (analog zum graphischen Rendering; ⊡ Abb. 52.17, 4-Farbteil am Buchende). Zur haptischen Simulation minimalinvasiver chirurgischer Eingriffe müssen auch die gewebespezifischen Eigenschaften anatomischer Strukturen berücksichtigt werden (z. B. hartes Knochengewebe, derb-elastischer Meniskus). Dabei kann über eine Klassifikation der wichtigsten Gewebetypen mit deren haptischen Eigenschaften die Integration in das VR-basierte Simulationssystem geschehen. Die Erzeugung dieser objektspezifischen haptischen Stimuli wird durch eine Kombination verschiedener Berechnungsmodelle unter Berücksichtigung der Instrument-Eindringtiefe erreicht.
855 52.6 · Ausblick
Damit es nicht zu Verzögerungen bei der haptischen Ausgabe und somit zu Verzerrungen bei der haptischen Wahrnehmung kommt, werden, wie schon erwähnt, Mindestaktualisierungsraten für die Ansteuerung von haptischen Displays von 1000 Hz empfohlen. In diesem Kontext kommt der Kollisionserkennung eine Schlüsselrolle zu. Eine Lösung ist die Unterteilung der virtuellen Szene in einen globalen und einen lokalen Teil. Der globale Part beschreibt wie bisher die vollständige virtuelle Umgebung, wobei Kollisionen mit einer Aktualisierungsrate von weniger als 1000 Hz entdeckt werden. Der lokale Bereich der Szene repräsentiert die Region, in der die aktuellen Interaktionen zwischen Instrument und anatomischen Objekten stattfinden. Dieser Unterbereich ist für die haptische Interaktion relevant. Aufgrund der Ergebnisse bei der Kollisionserkennung kann ein lokaler Bereich der virtuellen Szene selektiert und gesondert während der Simulation betrachtet werden. In dieser kleinen Szene werden nun die erforderlichen Berechnungen für das haptische Rendering durchgeführt und somit die hohen Aktualisierungsraten für das haptische Feedback ermöglicht. Die Simulation des haptischen Feedbacks ist weltweit Forschungsgegenstand. Auf eine ausführliche Diskussion der verschiedenen Lösungsansätze muss an dieser Stelle verzichtet werden. Coles et al. (2010) geben einen guten Überblick der aktuellen Entwicklungen in der haptischen Simulation auf dem Gebiet der medizinischen VR-Trainer.
52.6
Ausblick
Zukünftige Arbeiten im Bereich der medizinischen Simulation werden auch weiterhin von den dynamischen Entwicklungstendenzen auf den Gebieten der graphischen Datenverarbeitung und der Chirurgie geprägt sein. In der graphischen Datenverarbeitung wird die Verfügbarkeit immer leistungsfähigerer Rechnerarchitekturen neue Möglicheiten in der Echtzeitsimulation unter Einbindung immer präziserer physikalisch basierter Verfahren eröffnen und den Trend zu einem immer größeren Interaktionsgrad fortsetzen. Hier eröffnen sich neue Möglichkeiten, die sich rasant entwickelnden Graphikprozessoren für die Lösung rechenintensiver, nichtgraphischer Probleme zu nutzen. Auch die Gerätetechnologie haptischer Displays wird sich weiterentwickeln, jedoch nicht in dieser Geschwindigkeit. Das anatomische Modell wird weiter verfeinert werden, wobei auch Mikrostrukturen Berücksichtigung finden werden. Mehr und mehr werden In-vivo-Messungen durchgeführt, die zur Beschreibung der Elastodynamik von organischen Strukturen herangezogen werden können. Durch die Gewinnung relevanter gewebespezifischer Messwerte ist eine Qualitätssteigerung der Simulation
elastodynamischer Eigenschaften von anatomischen Strukturen zu erwarten. Zahlreiche Arbeiten beschäftigen sich mit der Erhebung empirischer Daten zur Elastodynamik von Weichteilgewebe und Abdominalorganen, um diese dann in dem Simulationsmodell umzusetzen (Ottensmeyer 2002; Sedef et al. 2006; Peterlik et al. 2010; Ahn u. Kim 2010). Weiterhin wird ein zukünftiger Schwerpunkt sein, die Simulation anderer minimalinvasiver Eingriffe zu realisieren. Die Simulation der Koagulation, also der Blutstillung durch Hitze, sei in diesem Kontext genannt. In enger Wechselbeziehung steht hierzu die Berücksichtigung der physiologischen Vorgänge, wobei neben dem Blutfluss auch Atmung sowie Herzschlag die nächsten Herausforderungen darstellen (Müller et al. 2004). Die realistische Echtzeitsimulation dieser komplexen Vorgänge ist weltweit Forschungsgegenstand (Daenzer et al. 2007). Auch im Bereich der minimalinvasiven Methoden ist der Endpunkt der Entwicklungsmöglichkeiten noch nicht erreicht. Die rasante Entwicklung endoskopischer Operationstechniken wird sich weiter fortsetzen, wobei ganze klassische Operationsfelder wegfallen werden. Dies wird einhergehen mit der weiteren Verfeinerung des Instrumentariums. Des Weiteren ist in der Chirurgie ein Trend zu Operationen über natürliche Körperöffnungen zu erkennen. Die Traumatisierung des Patienten wird weiter minimiert. Andere Arbeiten konzentrieren sich darauf, dem Chirurgen das »verloren gegangene Gefühl« durch Integration einer Sensorik zurückzugeben, damit wieder subtile und unscheinbare Läsionen über Instrumente detektiert werden können. Dies schließt die realitätsnahe Einbindung spezieller chirurgischer Instrumente in die haptische Simulation ein. Hierbei ist ein grundlegendes Verständnis der haptischen Wahrnehmung Voraussetzung, um erfolgreich haptisches Feedback in die Simulatoren oder auch Robotiksysteme zu integrieren. Die Herausforderung ist, die auf den Patienten einwirkenden Kräfte realitätsnah zu fühlen. Die existierenden haptischen Geräte leisten (noch) nicht dieses (Okamura 2009). Insgesamt kann also die Perspektive der minimalinvasiven Chirurgie als günstig beurteilt werden. Jedoch wird mancherorts die unstrukturierte Entwicklung der neuen Operationstechniken kritisiert. Die Einführung der minimalinvasiven Technik in den klinischen Alltag nach dem Prinzip von »Versuch und Irrtum« muss durch eine phasenweise, strukturierte Entwicklung und Erprobung abgelöst werden. Hier kann die virtuelle Simulation dieser neuen Operationstechniken einen wertvollen Beitrag leisten und die Rahmenbedingungen mitgestalten, damit die minimalinvasive Chirurgie ihre derzeitige Bedeutung auch im 21. Jahrhundert behält oder sogar erweitern kann. Flugsimulatoren sind längst nicht mehr aus dem Ausbildungsprogramm für Piloten wegzudenken. Medizini-
52
856
V
Kapitel 52 · Virtuelle Realität in der Medizin
sche Simulatoren, die VR-Technologie und Computergraphik einsetzen, können eine ähnliche Bedeutung für das chirurgische Training bekommen. Bedingt durch die Problematiken, die konventionelle Trainingsmethoden wie »learning by doing« und das Üben an Phantomen und Präparaten beinhalten, führte die Suche nach alternativen Trainingsformen zu VR-basierten Simulatoren, die nun immer mehr Berücksichtigung in der minimalinvasiven Chirurgie finden. Untersuchungen zeigen, dass sich ein Transfer von Fertigkeiten, die in einer virtuellen Trainingsumgebung gelernt wurden, auf die real durchzuführenden Aufgaben nachweisen lässt. Dabei kann durch eine hohe Übereinstimmung zwischen Training und realem Kontext der Transfer erhöht werden. Mit Sicherheit kann durch VR-basierte Trainingssysteme eine Verbesserung der Lernkurve erreicht werden – und dies ohne Kontakt zum Patienten. In den letzten Jahren wurden zahlreiche Studien durchgeführt, die diesen erfolgreichen Schritt vom Simulator zum Operationssaal belegen (Seymour et al. 2002; Hyltander et al. 2002; Gallagher et al. 2004, 2005; Hackethal et al. 2006; Kahol et al. 2009; Lipner et al. 2010). Erfreuliche Entwicklungen sind heutzutage schon auszumachen, die den Einsatz VR-basierter Trainingssimulatoren im Curriculum Wirklichkeit werden lassen. Zunehmend finden diese Simulatoren einen festen Platz im Ausbildungsprogramm von Trainingszentren wie im Queensland Health Skills Development Centre, im Minimal Invasive Surgical Centre Singapore oder im Wenckebach Institute in Groningen. Das European Surgical Institute beispielsweise organisiert rund 80 Trainingskurse mit ca. 1000 Teilnehmern, die an VR-basierten medizinischen Simulatoren üben. Auch in den USA sind Anzeichen zu sehen, dass die allgemeine Verfügbarkeit von medizinischen Simulatoren starken Einfluss darauf haben wird, wie in Zukunft Medizin gelehrt und praktiziert wird. Das American Board of Surgery verlangt mittlerweile, dass im Bereich der Laparoskopie Trainingssitzungen am VR-basierten Simulatoren nachgewiesen werden (Satava 2009). Bedenkt man, dass mehrere Jahrzehnte vergingen, bis realistische Flugsimulatoren heutigen Standards zur Verfügung standen, so lassen die raschen Fortschritte in der Entwicklung computergestützter Trainingssimulatoren der letzten Jahre annehmen, dass es mit sukzessiver Erhöhung des Realismus der medizinischen Simulatoren zu einer weiteren Verbreitung dieser Systeme in der chirurgischen Aus- und Weiterbildung kommen wird. Die »Erlaubnis«, in der Simulationsumgebung zu versagen, ist ein gravierender Vorteil gegenüber dem »Trainieren im Operationssaal« und bedeutet eine weitere Verbesserung der Patientensicherheit. Und diese Simulation hat das Potential, mehr und mehr in der präoperativen Planung mit patientspezifischen Daten direkt vor dem realen chi-
rurgischen Eingriff eingesetzt zu werden (»präoperativer Warm-up«). Ein derartiger »Dry-run« wurde schon in der Neurochirurgie mit dem NeuroTouch-Simulator in Kanada durchgeführt. Angesichts der Tatsache, dass auch im Gesundheitswesen zunehmend Qualitätssicherung und Zertifizierung eine Rolle spielen, wird diese Entwicklung schließlich zu einer grundlegenden Reform der medizinischen Ausbildung führen, in der auch computergestützte Trainingssimulatoren mit ihrem Instrumentarium zur objektiven Bewertung eine Daseinsberechtigung haben werden. An dieser Stelle sei die Frage erlaubt, warum es nicht auch bei den Medizinern einen »Führerschein« geben sollte, ähnlich wie man ihn von den Piloten kennt. Und der nächste Paradigmenwechsel steht bevor. Der Operateur wird nicht nur auf das historische Bildmaterial angewiesen sein, sondern kann über eine ausgeklügelte Sensorik gewebespezifische Eigenschaften intraoperativ abfragen, die dann Einfluss auf den weiteren Verlauf des operativen Eingriffs nehmen können. So ist es vorstellbar, dass sich beispielsweise der Operationsroboter den Fräskanal aufgrund des sensorischen Feedbacks selbst sucht und nicht wie bisher allein aufgrund der präoperativen Planung auf Basis des patientenspezifischen Bilddatenguts. Der Einsatz von Robotern im Operationssaal wurde ein wenig in Frage gestellt. Man möge an dieser Stelle berücksichtigen, dass es sich bei der kontrovers diskutierten OP-Robotergeneration um herkömmliche Industrieroboter handelte, die inzwischen durch kleine, kostengünstigere OP-Roboter ersetzt werden können (z. B. Mazor Surgical Technologies). Inzwischen werden die Vorteile der roboterassistierten Chirurgie zunehmend erkannt. Der Roboter im Operationssaal bietet dem Chirurgen ein weiteres Hilfsmittel, welches selektiv bei bestimmten operativen Schritten eingesetzt werden kann – mit dem Ziel, mit höherer Präzision und Qualität zu arbeiten, um ein besseres postoperatives Ergebnis zu erreichen. Dieser Markt wird von 1 Milliarde US $ im Jahre 2008 auf 14 Milliarden US $ bis zum Jahre 2014 wachsen. Schließlich soll auf einen Trend aufmerksam gemacht werden, der schon längst unser tägliches Leben prägt: die Mobilität. Und so wird dies auch für die medizinische Simulation gelten: »Medinizinische Simulation wird mobil«. Es wird vorausgesagt, dass im Jahre 2012 rund 81% der Ärzte in den USA »neben Stethoskop« mit einem Smartphone ausgestattet sein werden. Und dieses eröffnet auch spannende neue Möglichkeiten, die medizinische Simulation mit mobilen Lernumgebungen zu verschmelzen. Aufgrund der immer leistungsstärker werdenden portablen Endgeräte können mobile 3D-Visualisierung und AR-Applikationen auch im medizinischen Bereich realisiert werden (⊡ Abb. 52.18, 4-Farbteil am Buchende). All diese Entwicklungen werden eines zum Ziel haben: Sie werden letztlich dem Wohle des Patienten dienen.
857 Literatur
Literatur Ahn B, Kim J (2010) Measurement and characterization of soft tissue behavior with surface deformation and force response under large deformations. Medical Image Analysis, vol 14, no 2, pp 138–148 Akenine-Möller T et al. (2008) Real-Time Rendering. 3rd ed. A.K. Peters Ltd., Natick (Massachusetts) Basdogan C et al. (2004) Haptics in minimally invasive surgical simulation and training. IEEE Computer Graphics and Applications, vol 24, No. 2, pp 56–64 Basdogan C (2007) Virtual Reality Supported Simulators for Training in Minimally Invasive Surgery. IEEE Computer Graphics and Applications, vol 27, No. 2, pp. 54–66 Bockholt U et al. (2006) Simulation zur Stimulation von Kopfbewegungen zur VR gestützten Schleudertraumatherapie. Proceedings of 17th Simulation and Visualization Conference, Magdeburg Bockholt U et al. (2008) Visuelles und haptisches Volumenrendering von medizinischen Bilddaten in Virtual Reality-Simulationen. In: Schenk M (Hrsg) 11. IFF-Wissenschaftstage 2008. Tagungsband [CD-ROM], S 31–37 Boissonnat JD (1985) Shape reconstruction from planar cross-sections. Proceedings of IEEE Conf Computer Vision and Pattern Recognition, pp 393–397 Bürger T et al. (2006) Evaluation of target scores and benchmarks for the traversal task scenario of the minimally invasive surgical trainer-virtual reality (MIST-VR) laparoscopy simulator. Surg Endosc., vol 20, no 4, pp 645–650 Coles TR et al. (2010) The Role of Haptics in Medical Training Simulators: A Survey of the State-of-the-art. IEEE Transactions on Haptics, preprint Cotin S et a. (1996) Geometric and physical representations for a simulator of hepatic surgery. Stud Health Technol Inform, vol 29, pp 139–151 Daenzer S et al. (2007) Real-time smoke and bleeding simulation in virtual surgery. Stud Health Technol Inform, vol 125, pp 94–99 Dold C et al. (2007) Segmentation and Navigation Support of Clinical Data Sets to Simulate the Bronchoscopy and Rhinoscopy. In: Buzug TM (ed) Advances in Medical Engineering. Springer, Berlin Heidelberg New York, pp 145–150 Drechsler K et al. (2010) Semi-Automatic Anatomical Tree Matching for Landmark-Based Elastic Registration of Liver Volumes. Journal of Healthcare Engineering 1: 101–123 Encarnação JL et al. (1994) Virtual reality technology – enabling new dimensions in computer-supported applications. Proceedings 9. Japan-Germany Forum on Information Technology, Oita, Japan, 8.–11. November Erdt M, Sakas G (2010) Computer aided segmentation of kidneys using locally shape constrained deformable models on CT images. Proceedings of SPIE Medical Imaging 2010, vol 7624, pp 762419–762419-8 Gallagher AG et al. (2004) Discriminative validity of the Minimally Invasive Surgical Trainer in Virtual Reality (MIST-VR) using criteria levels based on expert performance. Surgical Endoscopy 18: 660–665 Gallagher AG et al. (2005) Virtual reality simulation for the operating room: Proficiency-based training as a paradigm shift in surgical skills training. Annals of Surgery 241(2): 364–372 Geiger B, Kikinis R (1995) Simulation of Endoscopy. In: Ayache N (ed) Proceedings of Computer Vision, Virtual Reality and Robotics in Medicine, Lecture Notes in Computer Science. Springer, Berlin Heidelberg New York Tokyo, pp 277–281 Hackethal A et al. (2006) Evaluation of target scores and benchmarks for the traversal task scenario of the minimally invasive surgical trainer-virtual reality (MIST-VR) laparoscopy simulator. Surgical Endoscopy, DOI: 10.1007/s00464-005-0190-x, Issue: Online First
Hu T et al. (2004) Evaluation of a laparoscopic grasper with force feedback. Surgical Endoscopy, DOI: 10.1007/s00464-003-8132-y, Issue: Online First Höhne KH (2004) Computer-based anatomy: A prerequisite for computer-assisted radiology and surgery. In: Lemke HU et al. (eds) Computer Assisted Radiology and Surgery, Proc. CARS 2004, International Congress Series 1268, Elsevier, Amsterdam, pp xv–xviii Höhne KH et al. (2009) VOXEL-MAN 3D Navigator: Brain and Skull. Regional, Functional and Radiological Anatomy, Version 2.0. Springer-Verlag Electronic Media, Heidelberg Hyltander A et al. (2002) The transfer of basic skills learned in a laparoscopic simulator to the operating room. Surgical Endoscopy 16(9): 1324–1328 Kaufman A et al. (2005) Virtual Colonoscopy. Communications of the ACM 48(2): 37–41 Kahol K et al. (2009) Effect of short-term pretrial practice on surgical proficiency in simulated environments: a randomized trial of the »preoperative warm-up« effect. J Am Coll Surg 208(2): 255–268 Khan M et al. (2005) Accuracy of biopsy needle navigation using the Medarpa system-computed tomography reality superimposed on the site of intervention. European Radiology 15(11): 2366–2374 Kühnapfel U et al. (1995) Endosurgery simulations with KISMET. Virtual Reality World ’95, Stuttgart Kohn LT et al. (2000) To Err Is Human: Building a Safer Health System. Committee on Quality of Health Care in America, Institute of Medicine. The National Academies Press, Washington, DC Krüger A et al. (2008) Sinus Endoscopy – Application of Advanced GPU Volume Rendering for Virtual Endoscopy. IEEE Transactions on Visualization and Computer Graphics, vol 14, no 6: 1491–1498 Langreth R (2005) Fixing Hospitals. Forbes Magazine 175(13): 68–76 Levinski K et al. (2009) Interactive Surface-guided Segmentation of Brain MRI Data. Computer in Biology and Medicine 39(12): 1153–1160 Lipner R et al. (2010) A Technical and Cognitive Skills Evaluation of Performance in Interventional Cardiology Procedures Using Medical Simulation. The Journal of the Society for Simulation in Healthcare 5(2): 65–74 Maschuw K et al. (2008) The impact of self-belief on laparoscopic performance of novices and experienced surgeons. World J Surg 32(9): 1911–1916 Meglan AM et al. (1996) The teleos virtual environment toolkit for simulation-based surgical education. Studies in Health Technology and Informatics, IOS Press, Amsterdam, vol 29, pp 346–351 Milgram P, Kishino AF (1994) Taxonomy of Mixed Reality Visual Displays. IEICE Transactions on Information and Systems E77-D(12): 1321–1329 Müller M et al. (2004) Interactive blood simulation for virtual surgery based on smoothed particle hydrodynamics. Journal of Technology and Health Care 12(1): 25–31 Müller W (1995) Virtual reality in surgical arthroscopic training. Journal of Image Guided Surgery l(5): 288–294 Müller W et al. (2000) Computer assisted preoperative planning system for total knee replacement. Proceedings of Fourth Annual North American Program on Computer Assisted Orthopaedic Surgery (CAOS USA 2000). Pittsburgh, Pennsylvania, USA, pp 105–107 Müller-Wittig W et al. (2001) Enhanced training environment for minimally invasive surgery. Proceedings of the 10th IEEE International Workshops on Enabling Technologies: Infrastructure for Collaborative Enterprises – WET ICE 2001, MIT Cambridge, Massachusetts, USA, IEEE Computer Society, Los Alamitos, California, pp 269–272 Müller-Wittig W et al. (2002) A new approach to combine visualization and simulation for preoperative planning of pedicle screw insertion. Proceedings Computer Assisted Orthopaedic Surgery – CAOS International, Santa Fe, New Mexico, USA, pp 53–55 Novak EJ et al. (2007) The Cost-Effectiveness of Computer-Assisted Navigation in Total Knee Arthroplasty. J Bone Joint Surg Am 89: 2389–2397
52
858
V
Kapitel 52 · Virtuelle Realität in der Medizin
nVidia (2009) NVIDIA’s Next Generation CUDA Compute Architecture: Fermi http://www.nvidia.com/content/PDF/fermi_white_papers/ NVIDIAFermiComputeArchitectureWhitepaper.pdf Okamura AM (2009) Haptic feedback in robot-assisted minimally invasive surgery. Curr Opin Urol 9(1): 102–107 Ottensmeyer MP (2002) In vivo measurement of solid organ viscoelastic properties. In: Westwood JD (ed) Proceedings of »Medicine Meets Virtual Reality 02/10« – Digital upgrades: Applying Moore’s law to health, Newport Beach/CA. IOS Press, Amsterdam, pp 328–333 Peterlik I et al. (2010) Real-time Visio-Haptic Interaction with Static Soft Tissue Models Having Geometric and Material Nonlinearity. Computers and Graphics 34(1): 43–54 Salkini MW et al. (2010) The Role of Haptic Feedback in Laparoscopic Training Using the LapMentor II. Journal of Endourology Volume 24(1): 99–102 Satava RM (1993) Virtual reality surgical simulator. The first steps. Surgical Endoscopy 7(3): 203–205 Satava RM (1995) Virtual reality, telesurgery, and the new world order of medicine. Journal of Image Guided Surgery 1: 12–16 Satava RM (1996) Medical virtual reality. The current status of the future. Stud Health Technol Inform 29: 100–106 Satava, RM, Robb RA (1997) Virtual endoscopy: application of 3D visualization to medical diagnosis. Presence –Teleoperators and Virtual Environments. Massachusetts, vol 6, no 2, pp 179–197 Satava RM (2009) The Revolution in Medical Education – The Role of Simulation. Journal of Graduate Medical Education 1(2): 172–175 Sedef M et al. (2006) Real-time Finite-Element Simulation of Linear Viscoelastic Tissue Behavior Based on Experimental Data. IEEE Computer Graphics and Applications, vol 26, no 5, pp 58–68 Seymour NE et al. (2002) Virtual reality training improves operating room performance: Results of a randomized, double-blinded study. Annals of Surgery 236(4): 458–464 Spitzer V et al. (1996) The visible Human Male: A Technical Report. J Am Med Inform Assoc 3(2): 118–130 Tay BK et al. (2002) Measurement of in vivo force response of intraabdominal soft tissues for surgical simulation. In: Westwood JD (ed) Proceedings of »Medicine Meets Virtual Reality 02/10« – Digital upgrades: Applying Moore’s law to health, Newport Beach/CA. IOS Press, Amsterdam, pp 514–519 Taylor ZA et al. (2009) On modelling of anisotropic viscoelasticity for soft tissue simulation: numerical solution and GPU execution. Medical Image Analysis 13(2): 234–244 Teber et al. (2009) Augmented Reality: A New Tool To Improve Surgical Accuracy during Laparoscopic Partial Nephrectomy? Preliminary In Vitro and In Vivo Results. European Urology 56(2): 332–338 Wesarg S et al. (2004) Accuracy of needle implantation in brachytherapy using a medical AR system: a phantom study. Proceedings of Medical Imaging 2004, SPIE Medical Imaging Symposium 2004. San Diego, CA, USA, pp 341–352
53 Computerunterstützte Lehr- und Lernsysteme in der Medizin M. Haag, M. R. Fischer
53.1
Einleitung – 859
53.2
Historische Entwicklung – 859
53.3
Reformansätze im Medizinstudium – 860
53.4
Entwicklung von Lehr- und Lernsystemen – 861
53.4.1 Interaktionsformen – 862 53.4.2 Architekturen von Lehr-/Lernsystemen – 863 53.4.3 Autorensysteme – 864
53.5
53.6
Anwendungsszenarien von Lehr-/ Lernsystemen – 866
53.7
Status und Perspektiven von E-Learning in der Medizin – 866
53.7.1 Informationssysteme zu CBT/WBT in der Medizin – 866 53.7.2 Nutzung von CBT/WBT-Systemen in der Medizin und das Problem der curricularen Integration – 866
53.8
Lernumgebungen – 864
Literatur – 868
53.5.1 Funktionalität von Lernumgebungen – 864 53.5.2 Interoperabilität, Standards – 865
53.1
Einleitung
Im Szenario »Die Universität im Jahre 2005«1 wurde 1999 prognostiziert, dass 2005 bereits 50% der Studierenden in »Virtuellen Universitäten« eingeschrieben sein würden, während die klassische Universität auf eine Restgröße schrumpfen würde. Diese Prognose ist bis heute erkennbar nicht eingetroffen. Allerdings ist ein deutlicher Trend dahingehend zu erkennen, computerunterstützte Lehrund Lernsysteme in der Medizin an den klassischen Universitäten im Rahmen von Blended-Learning-Konzepten zu nutzen. In einer Metaanalyse von Cook et al. zeigte sich, dass Internet-gestützte Lehre traditionellen Unterrichtsformen zumindest ebenbürtig ist (Cook et al. 2008). Während man im deutschsprachigen Raum häufig den Begriff »Computer-Based Training« (CBT) für die computerunterstützte Ausbildung verwendet, gibt es international noch eine Vielzahl weiterer oft verwendeter Bezeichnungen wie »Computer-Assisted Instruction« (CAI), »Computer-Assisted Learning« (CAL) und »Computer-Based Instruction« (CBI), die ebenfalls dem Englischen entstammen. Von »Web-Based Training« (WBT) (Haag et. al 1999) wird gesprochen, wenn die Anwendungen auf Internet-Technologien basieren und über das Internet genutzt werden können. Etwas weiter gefasst ist der Begriff »E-Learning«2 (Electronic-Learning), der neben CBT und WBT u. a. auch andere Formen des 1 2
http://berlinews.de/archiv/467.shtml http://de.wikipedia.org/wiki/E-Learning
Forschungsbedarf und Perspektiven – 867
elektronischen Lernens wie computerunterstütztes kooperatives Lernen (»Computer Supported Cooperative/ Collaborative Learning«, CSCL) umfasst. Im Folgenden soll vor dem Hintergrund der historischen Entwicklung und von Reformansätzen im Medizinstudium ein Überblick über relevante Aspekte von CBT/WBT-Systemen in der Medizin gegeben und insbesondere die Frage nach der curricularen Integration und Nachhaltigkeit der Ansätze diskutiert werden.
53.2
Historische Entwicklung
Ende der 1950er, Anfang 1960er Jahre wurden die ersten Lernprogramme auf Großrechnern der zweiten Generation erstellt. Man sprach damals von Programmiertem Unterricht (PU). Psychologen und Pädagogen setzten sich intensiv mit den Möglichkeiten der neuen Technik auseinander (Schaller u. Wodraschke 1969). Das damals vorherrschende Lernparadigma war der Behaviorismus, dieser prägte die erstellten Lernprogramme sehr stark. Die Anhänger des Behaviorismus gehen davon aus, dass man das menschliche Gehirn lediglich auf geeignete Art und Weise reizen muss, um die gewünschte Reaktion, die richtige Antwort, auszulösen. Entscheidend beim Behaviorismus ist es, dem Lernenden ein geeignetes Feedback zu geben, um richtige Reaktionen (Antworten) auf Reize zu verstärken. Das Prinzip des Behaviorismus basiert also letztlich darauf, den Lernenden zu belohnen, wenn er Fragen richtig beantwortet und sich so dem Lernziel nähert,
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _53, © Springer-Verlag Berlin Heidelberg 2011
860
V
Kapitel 53 · Computerunterstützte Lehr- und Lernsysteme in der Medizin
bzw. zu bestrafen, wenn er Fragen falsch beantwortet, da er sich vom Lernziel entfernt. Das zu vermittelnde Wissen wird dabei in kleinste Lerneinheiten zerlegt, an die sich jeweils unmittelbar eine Frage anschließt, die richtig beantwortet werden muss. Falls dies nicht gelingt, wird die Lerneinheit nochmals wiederholt bzw. eine zusätzliche Hilfe angeboten. Der Erfolg des Programmierten Unterrichtes blieb weitgehend aus. Nach der anfänglichen Euphorie für die computerunterstützte Ausbildung setzte bald Ernüchterung ein. Dies hatte verschiedene Gründe (vgl. Moehr 1990, S. 39; Bodendorf 1990, S. 17). Es gab damals z. B. noch keine graphischen Oberflächen bzw. attraktive Benutzerschnittstellen für eine intuitive Bedienung durch EDV-Laien. Auch waren noch keine Autorensysteme verfügbar, mit denen die Erstellung von Lehr-/Lernsystemen ohne detaillierte Informatikkenntnisse möglich gewesen wäre. Außerdem waren die Hardwarekosten für die damals vorhandenen Großrechner sehr hoch. Mitte bis Ende der 70er Jahre kamen dann die ersten Arbeitsplatzrechner, die im Vergleich mit Großrechnern einfacher, d. h. auch durch EDV-Laien zu bedienen waren. Außerdem verbesserten sich die Hardwareausstattung und das Preis-Leistungs-Verhältnis ständig. So waren bald hochauflösende Monochrom- und Farbmonitore verfügbar sowie die Maus als Eingabegerät. Für derartige Arbeitsplatzrechner wurden tutorielle Systeme und Computersimulationen ( Abschn. 53.4.1) erstellt, denen aber meist kein allzu großer Erfolg beschieden war. Ein »Comeback« der computerunterstützten Ausbildung erfolgte in Form von »Hypermedia-Systemen«. Unter Hypermedia versteht man die Vereinigung von Hypertext mit Multimedia3. Bei Hypertexten sind die einzelnen Textteile, im Gegensatz z. B. zu Texten in Büchern, nichtlinear angeordnet. Die Verbindungen zwischen den einzelnen Textteilen werden durch Verweise hergestellt. Durch die nichtlineare Anordnung eines Textes können die Leser selbst entscheiden, ob sie zu einem bestimmten Aspekt noch weitere Informationen wünschen, und können dann einen Verweis auf Zusatzinformationen anwählen. Dies ist ein wichtiger Vorteil gegenüber linear angeordneten Texten, bei denen der Autor die Reihenfolge festlegt, in der die einzelnen Textkomponenten gelesen werden sollten. Außerdem legt dieser bei »herkömmlichen« Texten fest, in welcher Tiefe der Stoff in verschiedenen Textabschnitten dargestellt ist, ohne dass der Leser die dargestellte Stofftiefe selbst bestimmen kann. Die Verfügbarkeit von Autorensystemen für Macbzw. Windows-Betriebssysteme ermöglichte es dann auch Nicht-Fachleuten, auf relativ einfache Weise Hypertexte zu erzeugen. Die einzelnen »Textteile« durften hierbei 3
Unter Multimedia (Steinmetz 2005) versteht man das Zusammenspiel verschiedener digitaler Medien wie Text, Audiosequenzen, Videosequenzen, Animation, Graphik und deren interaktive Nutzung am Computer.
gleichzeitig verschiedene Medien enthalten, also multimedial sein. Ohne extrem teure Hardware und tiefgreifende Programmierkenntnisse konnten jetzt in vergleichsweise kurzer Zeit optisch sehr ansprechende Lernprogramme erstellt werden. Mit Bildplatten und CD-ROMs standen mittlerweile auch Speichermedien zur Verfügung, auf denen große Datenmengen (Bilder in guter Auflösung und digitales Video) gespeichert werden konnten. Neben den großen Fortschritten im Hardwarebereich, welche die Erstellung und Nutzung von Lehr-/Lernsystemen ungemein beschleunigt hat, wurden auch im Bereich der Lernpsychologie Fortschritte gemacht. Nachdem sich der Behaviorismus als wenig geeignetes Paradigma für die Erstellung von Lehr-/Lernsystemen gezeigt hatte, wurde nun häufig ein konstruktivistischer Ansatz zugrunde gelegt (Spiro et al. 1989). Die Lernenden werden hierbei mit komplexen authentischen Szenarien (z. B. virtuellen Labors oder virtuellen Patienten) konfrontiert, in denen sie die Probleme, Zusammenhänge und Lösungen erkennen lernen müssen. Dabei soll das neu Gelernte so in das bestehende Vorwissen integriert werden, dass es auch anwendbar ist. Der »Cognitive-Apprenticeship«-Ansatz aus dem Konstruktivismus beruht auf Annahmen des situierten Lernens (z. B. Brown et al. 1989). Die Modellierung eines komplexen Verhaltens durch einen Experten, der dem Lerner in einer authentischen Situation quasi über die Schulter schaut, steht dabei im Mittelpunkt. Folgende Methoden kommen bei diesem Ansatz zum Einsatz (vgl. Collins et al. 1989): ▬ »Modeling«, ▬ »Coaching«, ▬ »Scaffolding«, ▬ »Fading«, ▬ »Articulation«, ▬ »Reflection«, ▬ »Exploration«. Diese Ansätze wurden insbesondere von fallbasierten computergestützten Lernumgebungen (virtuelle Patienten) aufgegriffen. Die Diskussion, wie viele instruktionale und wie viele konstruktivistische Angebote an die Lerner gemacht werden sollten, dauert an und ist u. a. abhängig vom Vorwissen der Lernenden und vom edukativen Kontext. Ein weiterer Aspekt des Konstruktivismus ist das synchrone und asynchrone kooperative Lernen. Die Problemlösung soll dabei nicht alleine, sondern in Zusammenarbeit mit anderen erfolgen.
53.3
Reformansätze im Medizinstudium
Die Entwicklung von Lehr-/Lernsystemen in der Medizin wurde neben der technischen und instruktionspsychologischen Entwicklung insbesondere seit Anfang der 90er Jahre wesentlich durch Reformansätze des Medizin-
861 53.4 · Entwicklung von Lehr- und Lernsystemen
studiums geprägt. Diese Ansätze umfassen u. a. fächerübergreifenden Unterricht, in dem nicht mehr zwischen der vorklinischen Phase und der folgenden klinischen Ausbildungsperiode unterschieden wird. Sie versuchen, dem in der traditionellen Ausbildung beklagten Defizit des anwendungsfernen, trägen Wissens durch problemorientiertes Lernen (POL)4 und fallbasiertes Training mit virtuellen Patienten zu begegnen, und betonen das selbstbestimmte eigenständige Lernen. POL soll die Studierenden befähigen, klinische Probleme selbstständig zu lösen und ihre Fähigkeit zu selbstständigem, lebenslangem Wissenserwerb und Wissensmanagement zu entwickeln. Im POL-Unterricht legt ein Tutor einer Kleingruppe von Studierenden einen klinischen Fall vor, bei dem meist nur einige Patientendaten und Eckpunkte der Anamnese gegeben sind. Anhand des folgenden typischen Ablaufs wird der Fall bearbeitet: ▬ Klärung grundsätzlicher Verständnisfragen ▬ Definition des Problems – die Gruppe einigt sich darauf, welche Fragen sie anhand des Falls bearbeiten will ▬ Sammlung von Ideen und Lösungsansätzen ▬ Systematische Ordnung der Ideen und Lösungsansätze ▬ Formulierung der Lernziele ▬ Recherche zu Hause ▬ Synthese und Diskussion der zusammengetragenen Lerninhalte POL wurde bereits Ende der 60er Jahre an der McMaster University in Kanada entwickelt und hat sich seitdem erfolgreich verbreitet. 1984 hat auch die Harvard Medical School den POL-Ansatz mit dem sog. New Pathway5 aufgegriffen, der darauf abzielt, nicht nur Wissen, sondern auch Fertigkeiten und Verhalten zu vermitteln, und der die Relevanz von lebenslangem Lernen (»Life Long Learning« bzw. »Continuous Medical Education«) und der Kompetenz im Bereich des Wissensmanagements betont. Beispiele für Reformansätze in Deutschland sind die Einführung des ersten vorklinischen POL-Curriculums an der Privaten Universität Witten/Herdecke 1992 und die Etablierung von POL-Kursen im klinischen Studienabschnitt an der Universität München 1997 in Kooperation mit der Harvard Medical School (Putz et al. 1999). 1999 begann der fächerintegrierende organ- und themenorientierte Reformstudiengang Medizin an der Charité in Berlin und 2001 das am New Pathway-Ansatz aus Harvard orientierte Heidelberger Curriculum Medicinale (HeiCuMed)6 – ebenfalls mit jeweils starken POL-Komponenten. Begünstigt durch die neue Ärztliche Approbationsordnung von 20027 und die frühen Reformbeispiele 4 5 6 7
http://de.wikipedia.org/wiki/Problemorientiertes_Lernen http://hms.harvard.edu/admissions/default.asp?page=pathway http://www.heicumed.uni-hd.de/ http://www.approbationsordnung.de
werden an allen Fakultäten mehrwöchige Blockpraktika durchgeführt. An vielen Fakultäten werden praktische Fertigkeiten in eigens dafür ausgestatteten Einrichtungen vermittelt (»Skills Labs«). Das Training kommunikativer Fähigkeiten wird vielerorts mit standardisierten Patienten durch Schauspieler ermöglicht, die einen Kranken simulieren. In verschiedenen Anwendungsszenarien werden darüber hinaus virtuelle Patienten eingesetzt, um das selbst gesteuerte Lernen mit Anwendungsbezug in verschiedenen Kontexten zu unterstützen. Die seit dem 01.10.2003 geltende neue Ärztlichen Approbationsordnung fordert neue Lehr-/Lernformen, die stärker als bisher auf eigenständiges Lernen und auf den Erwerb von Fertigkeiten und Fähigkeiten ausgerichtet sind. Bemerkenswert sind darüber hinaus die Änderungen bei Prüfungen: So werden z. B. in 22 Hauptfächern und 12 Querschnittsfächern fakultätsinterne benotete Leistungsnachweise gefordert, wobei Alternativen zu konventionellen Multiple-Choice-Prüfungen praktiziert werden sollen. Derartige Alternativen sind z. B. Objective Structured Clinical Examinations (OSCE), Modified Essay Questions (MEQ) oder Key Feature Problems (Ruderich 2003; Fischer et al. 2005).
53.4
Entwicklung von Lehr- und Lernsystemen
Die Entwicklung von CBT/WBT-Systemen erfordert die Zusammenarbeit eines interdisziplinären Teams von Medizinern, Informatikern, Curriculumsentwicklern und Lernpsychologen. Vor Beginn der Entwicklung müssen die Lernziele und geplanten Einsatzszenarien definiert werden (Fall et al. 2005; Kern et al. 2009). Erst danach können geeignete Interaktionsformen sowie die Architektur der Anwendung festgelegt werden (⊡ Abb. 53.1).
⊡ Abb. 53.1. Interaktionsformen und Typen bei CBT/WBT-Systemen
53
862
Kapitel 53 · Computerunterstützte Lehr- und Lernsysteme in der Medizin
53.4.1 Interaktionsformen
Abhängig vom Grad der Interaktivität und der zu vermittelnden Inhalte kann man verschiedene Arten von Lehr-/ Lernsystemen unterscheiden. Konkrete Systeme können dabei u.U. auch in mehrere Gruppen eingeordnet werden.
V
Präsentations- und Browsingsysteme. Diese eignen sich besonders für die Vermittlung von systematischem Wissen. Präsentationssysteme sind dabei vergleichsweise einfach und schnell zu erstellen, da sie bestimmte Sachverhalte in linearer Reihenfolge präsentieren. Im Grunde handelt es sich um die elektronische Form einer Tonbildschau. Die »Interaktion« zwischen Lernendem und Computer beschränkt sich darauf, die Präsentation zu starten und zwischendurch möglicherweise die Pause-Taste zu drücken bzw. die Präsentation ein Stück zurückzuspielen. Aufgrund der mangelnden Interaktivität finden reine Präsentationssysteme heute kaum noch Verwendung. Browsingsysteme zeichnen sich gegenüber Präsentationssystemen dadurch aus, dass über ein Inhaltsverzeichnis oder eine Stichwortliste gezielt zu einzelnen Kapiteln bzw. »Seiten« des Systems gesprungen werden kann. An jeder Stelle des Programms und zu einem beliebigen Zeitpunkt ist es möglich, wieder dorthin zurückzukehren. In der Regel besitzen Browsingsysteme vielfältige Verknüpfungen zwischen verschiedenen »Seiten« (Knoten). Markierungen im Text können so vom Anwender mit der Maus angeklickt werden, worauf das System eine Graphik, eine neue Seite usw. einblendet. Durch diese vom Programm zur Verfügung gestellten Hypertext- bzw. HypermediaFunktionen wird selbstgesteuertes Lernen ermöglicht. Auch bei Browsingsystemen nimmt der Computer eine passive Rolle ein. Es ist den Lernenden selbst überlassen, ob sie das System lediglich als »Nachschlagewerk« oder als Lernprogramm verwenden. Bei Verwendung als Lernprogramm können sie selbst bestimmen, in welcher Reihenfolge und wie intensiv sie die einzelnen Kapitel durcharbeiten. Dies führt allerdings häufig zur Unsicherheit darüber, ob auch tatsächlich alle relevanten Inhalte gefunden wurden. Deshalb besitzen manche dieser Programme auch eine Fragenkomponente, die es dem Nutzer ermöglicht, Wissensdefizite aufzuspüren. Die Mehrzahl der derzeit am Markt befindlichen Lehr-/Lernsysteme kann in die Gruppe der Browsingsysteme eingeordnet werden. Teilweise enthalten auch virtuelle Patienten oder virtuelle Labors (s.u.) eine Browsingkomponente, in der Lehrbuchwissen bei Bedarf nachgelesen werden kann. Virtuelles Labor. Ein virtuelles Labor ist dadurch ge-
kennzeichnet, dass ein mathematisches Modell für einen Vorgang oder Prozess in der Realität Grundlage einer entsprechenden Computersimulation ist. Bei dieser Art von Lehr-/Lernsystemen ist eine Einführung der Anwender in das System sehr wichtig, um das Modell und die
Möglichkeiten zu verstehen, wie eigene Aktionen durchgeführt werden können. Tutorielle Systeme. Bei diesen Systemen werden die
Lernenden vom Programm durch den Stoff »begleitet«. Das System präsentiert die Inhalte und stellt dann gelegentlich Fragen, die u. a. die Lösungsfindung erleichtern sollen. Wenn die Tutanden die Fragen nicht beantworten können, bekommen sie eine entsprechende Rückmeldung, indem beispielsweise Lösungshinweise gegeben oder aber auch bestimmte Informationen nochmals präsentiert werden, die für die richtige Beantwortung der Frage notwendig sind. Der gesamte Programmablauf wird bei tutoriellen Systemen vom Computer gesteuert. Ausgeprägte tutorielle Systeme findet man selten auf dem Markt. Verbreiteter sind Browsingsysteme, bei denen am Ende einzelner Stoffeinheiten Fragen hinterlegt sind, die der Lernende dann beantworten muss um festzustellen, ob er den Stoff verstanden hat. Intelligente tutorielle Systeme. Diese sind ein Spezialfall
der tutoriellen Systeme, sie nutzen Verfahren der Künstlichen Intelligenz (KI), um das Benutzerverhalten zu modellieren. Dazu analysieren sie dessen Lernverhalten, Vorkenntnisse, Vorlieben usw. und bestimmen daraus den weiteren Programmablauf. Im Unterschied zu »normalen« tutoriellen Systemen ist dabei der Programmablauf aber nicht mehr im Programm fest programmiert. Das Programm übernimmt meist eine beratende Funktion und greift nur bei Bedarf ein. Eine der Schwierigkeiten besteht dabei in der Wissensmodellierung. Das zu vermittelnde Wissen muss so strukturiert und verknüpft werden, dass anhand des Modells beispielsweise Fragen des Anwenders beantwortet werden können. Die »Intelligenz« eines Systems liegt darin, das Wissen in der Wissensbasis sinnvoll anzuwenden. Fallbasiertes Training. Zunehmend größere Bedeutung hat
in den letzten Jahren das fallbasierte Training erlangt, für das in der Literatur immer häufiger der Begriff »virtueller Patient« verwendet wird (Cook u. Triola 2009). Bei dieser Interaktionsform wird ein virtueller Patient mit einem bestimmten Krankheitsbild vorgestellt. Orientiert an den Abschnitten »Anamnese«, »körperliche Untersuchung«, »technische Untersuchung«, »Laboruntersuchung«, »Diagnose« und »Therapie«, führen die Studierenden dann am Computer die »Behandlung« des Patienten durch. Es gibt eine Vielzahl von Softwaresystemen zur Entwicklung und Nutzung von virtuellen Patienten (Fischer 2000; Garde et al. 2005; Begg et al. 2007). Um Unterschiede und Gemeinsamkeiten besser beurteilen zu können, wurde von Huwendiek et al. (2009) eine Typologie erarbeitet, die in die vier Hauptkategorien Allgemeines, Lernziele und Kompetenzen, Instruktionsdesign sowie Technik unterteilt ist. Insbesondere beim Instruktionsdesign gibt es große Unter-
863 53.4 · Entwicklung von Lehr- und Lernsystemen
⊡ Abb. 53.2. Virtueller Patient im System CAMPUS
⊡ Abb. 53.3. Diagnose-/Therapieschleife in CAMPUS
schiede bei verfügbaren virtuellen Patienten zu beobachten. So können z. B. zwei grundlegende Pfadtypen für die Navigation durch einen Fall unterschieden werden. Beim linearen Pfadtyp besteht ein Fall aus einer vordefinierten Abfolge von Schritten durch den Fall. In jedem Schritt muss der Anwender dabei Entscheidungen treffen, Fragen beantworten oder präsentierte Informationen interpretieren. Die konkrete Realisierung kann dabei auf zwei Arten erfolgen: Bei der »kartenbasierten« Variante wird der Fall durch einen Stapel hypermedialer Karten repräsentiert, die linear vom Benutzer abgearbeitet werden. Die Darstellung des virtuellen Patienten ist hier eher abstrakt und nicht so realitätsnah wie bei der »simulativen« Variante. Hier orientiert sich die Fallbearbeitung stärker an der realen Behandlung und stellt dem Studierenden nur die Information zur Verfügung, die er explizit anfordert (»knowledge on demand«). Bei einem derartigen System, wie z. B. CAMPUS8, nehmen die Lernenden die Rolle eines Arztes ein, der einen Patienten untersuchen, diagnostizieren und danach eine Therapie anordnen muss (⊡ Abb. 53.2). Nach der Anamnese und der initialen körperlichen Untersuchung wird eine »Diagnose-/Therapieschleife« u. U. mehrfach durchlaufen, bis der Fall abgeschlossen werden kann (⊡ Abb. 53.3). Die »Behandlung« des virtuellen Patienten erfolgt somit deutlich realitätsnäher. Da die Lernenden bei derartigen Systemen eine sehr aktive Rolle einnehmen, eignen sie sich normalerweise nur für Studierende, die sich bereits auf einer höheren Lernstufe befinden. Dies liegt daran, dass es ohne Grundkenntnisse sehr schwierig ist, Zusammenhänge zu erkennen und sinnvolle Aktionen zu starten. Kartenbasierte Systeme wie z. B. CASUS9 bieten hingegen die Möglichkeit, virtuelle Patienten auch bereits
in sehr frühen Stadien des Studiums oder zur schnellen Wiederholung von Lernstoff einzusetzen, da der Fallautor durch den Einsatz der Kartenmetapher einen maximalen Freiheitsgrad bei der Gestaltung der Karten besitzt und so beispielsweise auch leicht Grundlagenwissen in die Fallpräsentation integrieren kann. Im Unterschied zum linearen Pfadtyp sind beim verzweigten Pfadtyp, wie er beispielsweise bei OpenLabyrinth10 realisiert ist, mehrere Pfade durch einen Lernfall möglich. Auch Pfade, die in einer Sackgasse enden, können erstellt werden. Dadurch können Fallautoren beispielsweise die Konsequenzen von falschen Entscheidungen realitätsnah abbilden. Allerdings steigt hierdurch der Aufwand für die Erstellung eines virtuellen Patienten gegenüber dem linearen Pfadtyp deutlich an. Generell ist der Aufwand für die Aufbereitung von medizinischen Kasuistiken in der Regel hoch, insbesondere wenn noch entsprechende Vokabulare angelegt bzw. gepflegt werden müssen. Er kann allerdings durch die Nutzung von leistungsfähigen Autorensystemen ( Abschn. 53.4.3) wesentlich gesenkt werden.
8 9
http://www.virtuelle-patienten.de http://www.casus.eu
53.4.2 Architekturen von Lehr-/Lernsystemen
Es gibt zwei grundsätzlich verschiedene Programmtypen bei Lehr-/und Lernsystemen: 1. »Konventionelle« CBT-Systeme: Sie werden auf Datenträgern wie DVDs ausgeliefert und müssen auf dem Computer des Anwenders installiert werden. Für die Funktionsfähigkeit der Anwendung ist kein Netz- bzw. Internet-Zugang erforderlich.
10
http://labyrinth.mvm.ed.ac.uk/
53
864
Kapitel 53 · Computerunterstützte Lehr- und Lernsysteme in der Medizin
2. WBT-Systeme: Sie basieren – im Unterschied zu den »konventionellen« CBT-Systemen – auf Internet-Basistechnologien wie HTML, JavaScript usw. und besitzen i.d.R. eine Client-Server-Architektur. Während ein Teil der Anwendung auf dem Rechner des Nutzers (dem Client) läuft, läuft ein anderer Teil auf einem zentralen Server. Daraus ergeben sich verschiedene Architekturtypen (Haag et al. 1999). Bei der Konzeption müssen die jeweiligen Vor- und Nachteile dieser Architekturen berücksichtigt werden.
V
WBT-Systeme sind deshalb oft aufwändiger in der Erstellung als konventionelle CBT-Systeme, bieten aber gegenüber diesen viele Vorteile. So müssen sie z. B. nicht installiert werden und sind i.d.R. plattformunabhängig, d. h., sie laufen nicht nur z. B. auf Windows-PCs. Sie können somit plattform-, orts- und zeitunabhängig genutzt werden und fördern damit flexibles und selbstbestimmtes Lernen. Aufgrund der genannten Vorteile überwiegen heute bei Neuentwicklungen WBT-Systeme.
systeme) zu erleichtern. Andere verbreitete Autorensysteme setzen auf eine Film-Metapher, wie etwa Macromedia Director12. Hier übernimmt der Autor die Rolle des Regisseurs, der seine handelnden Objekte auf einer Bühne erscheinen und wieder verschwinden lassen kann. Solche Autorensysteme eignen sich besonders gut für die Erstellung von Animationen. Auch für die Erstellung von virtuellen Patienten werden Autorensysteme eingesetzt, die häufig wegen der Komplexität der Anforderungen Eigenentwicklungen sind. Es hat sich allerdings gezeigt, dass es trotz einfach zu bedienender Autorensysteme oft schwierig ist, Autoren zur Erstellung virtueller Patienten zu finden. Ein Ausweg besteht darin, dass z. B. ein Oberarzt als Fallautor fungiert, die Fallaufbereitung aber einem »Case Engineer« (⊡ Abb. 53.4) überträgt und schließlich den aufbereiteten Fall abnimmt. Case Engineers sind typischerweise Medizinstudierende bzw. Ärzte in der Ausbildung.
53.5
Lernumgebungen
53.5.1 Funktionalität von Lernumgebungen 53.4.3 Autorensysteme
Die Erstellung von E-Learning-Inhalten wird durch die Nutzung von leistungsfähigen Autorensystemen wesentlich erleichtert und ist auch für Mediziner ohne fundierte EDV-Kenntnisse ohne Schwierigkeiten machbar. Zu den am weitesten verbreiteten kommerziell verfügbaren Autorensystemen zählt ToolBook11 Dieses verwendet eine Buch-Metapher, um die Erstellung und Nutzung der Lehr-/Lernsysteme (meist Präsentations- und Browsing11
http://www.sumtotalsystems.com/products/toolbook-elearningcontent.html
⊡ Abb. 53.4. Rollen bei CBT/WBT-Systemen
In den letzten Jahren haben sich fakultäts- bzw. hochschulweit Lernumgebungen bzw. Lernplattformen (Learning Management Systeme, LMS) etabliert. Im Unterschied zu bloßen Kollektionen von Lehrskripten oder Hypertext-Sammlungen auf Web-Servern verfügt ein LMS im Allgemeinen über folgende Funktionen (⊡ Abb. 53.5) (nach Schulmeister 2003): ▬ eine Benutzerverwaltung (Anmeldung mit Verschlüsselung),
12
http://www.adobe.com/de/products/director
865 53.5 · Lernumgebungen
▬ ein Kursmanagement, über das Studierende Kurse buchen und belegen können, ▬ eine Lernplattform für die Bereitstellung von Lernobjekten (Texte, Slide Shows, CBT- bzw. WBT-Einheiten) und Werkzeugen für das Lernen (Notizbuch, Kalender etc.), ▬ Autorenwerkzeuge, mit denen Dozenten Inhaltsunterlagen für das Netz entwickeln können, ohne über viel Wissen bezüglich HTML und Internet zu verfügen, ▬ Komponenten für kooperatives Arbeiten im Netz (Computer Supported Cooperative Work, CSCW), ▬ gemeinsame Datenbanken und Repositories, ▬ eine Rollen- und Rechtevergabe mit differenzierten Rechten und ▬ Funktionen zur Online-Evaluation und Durchführung von Online-Prüfungen. Es gibt eine große Anzahl von LMS-Systemen am Markt. Neben kommerziellen Systemen sind auch Open-SourceSysteme verfügbar, die insbesondere aus Kostengründen attraktiv sind. Die Auswahl eines LMS ist für eine Hochschule von großer Tragweite und keine triviale Aufgabe. So muss darauf geachtet werden, dass das gewählte LMS die benötigte Funktionalität und erforderliche Performanz aufweist und gleichzeitig die Lizenz- und Betriebskosten sowie der Aufwand für die Einarbeitung von Dozenten und Studierenden in die Handhabung des LMS möglichst gering sind. Bei der Integration eines verfügbaren CBT/WBT-Systems in ein LMS ist als unverzichtbare Anforderung die Funktion zu realisieren, dass der Anwender nach dem Einloggen in das LMS auch das CBT/WBT-System nutzen kann, ohne sich erneut authentifizieren zu müssen (»Single-Sign On«). Weiterhin sollte der Bearbeitungsstand zu einer Lerneinheit durch das LMS registriert wer-
den können, damit z. B. die Lerneinheit später fortgesetzt werden kann.
53.5.2 Interoperabilität, Standards
Die Integration eines CBT/WBT-Systems in ein LMS wird wesentlich vereinfacht, wenn das LMS über standardisierte Schnittstellen verfügt, welche die Interoperabilität zwischen verschiedenen Systemen und die Wiederverwendbarkeit von Lernobjekten unterstützen. Besondere Relevanz hat hier der SCORM-Standard (Sharable Courseware Object Reference Model)13 der Advanced Distributed Learning Initiative (ADL) des DoD (Department of Defense). SCORM ist ein Referenzmodell für Web-basierte austauschbare Lerninhalte mit der Zielsetzung wiederverwendbarer, identifizierbarer, interoperabler und persistent gespeicherter Lernobjekte und Kurse. Diese Zielsetzung soll u. a. durch die Spezifikation von Metadaten erreicht werden, mit denen aus Lernobjekten bestehende Lerneinheiten ausgezeichnet werden, die dann als SCORM-Pakete abgespeichert werden und über die Metadaten wieder identifiziert werden können. Es sei erwähnt, dass Standards wie SCORM im Hinblick auf die potentielle Gefahr der Bürokratie bisweilen auch kritisch betrachtet werden: Die Dokumentation zu SCORM umfasst mehr als 800 Seiten und ist entsprechend schwer zu überblicken. Im Bereich der virtuellen Patienten vereinfacht die in Entwicklung befindliche Medbiquitous Virtual Patient (MVP)14 Specification (Smothers et al. 2010) den Austausch und die Nutzung von virtuellen Patienten über Einrichtungsgrenzen hinweg deutlich. Dies haben erste Erfahrungen mit dem neuen Standard bereits gezeigt. 13 14
http://www.adlnet.gov http://www.medbiq.org/std_specs/standards/index.html#MVP
⊡ Abb. 53.5. Funktionalität von LMS
53
866
Kapitel 53 · Computerunterstützte Lehr- und Lernsysteme in der Medizin
53.6
V
Anwendungsszenarien von Lehr-/Lernsystemen
Lehr- und Lernsysteme können in vielfältiger Weise eingesetzt werden (⊡ Abb. 53.4, S. 864). In den meisten Hochschulen steht eine Auswahl von Programmen in den Computerpools bzw. Medienzentren für das Selbststudium zur Verfügung. Web-basierte Systeme können von den Studierenden häufig darüber hinaus über das Internet am heimischen Computer genutzt werden. In letzter Zeit hat sich der Trend zu Blended-LearningKonzepten verstärkt. Hier werden Lehr-/Lernsysteme verpflichtend in die Lehrveranstaltungen integriert. Unter »Blended Learning« versteht man nicht nur die Verknüpfung von Büchern, Handouts, Seminaren, Workshops, Einzelcoaching usw. mit Web-basierten Inhalten, sondern auch die Nutzung von virtuellen Klassenzimmern, um beispielsweise Seminare vor- und/ oder nachzubereiten. Eine Möglichkeit besteht darin, Programme zur systematischen Wissensvermittlung zu verwenden und in Präsenzphasen dann die gelernten Inhalte zu diskutieren und zu vertiefen. Häufig findet man auch den Ansatz, in Vorlesungen die theoretischen Grundlagen zu vermitteln und diese dann durch virtuelle Patienten zu ergänzen und den Studierenden die Möglichkeit zu geben, ohne Gefährdung realer Patienten das Gelernte anzuwenden. Auch die Kombination von Lernplattformen mit systematischen Lernmaterialien und virtuellen Patienten kommt zur Vorbereitung auf klinisch-praktischen Unterricht zum Einsatz, wie z. B. beim Projekt »Klinische Fertigkeiten Online« (Karsten et al. 2009). Ein weiteres Anwendungsszenario stellen computerbasierte Prüfungen dar. Dieses Szenario ist insbesondere im Hinblick auf die Belastung der Fakultäten durch die oben erwähnten 34 benoteten Leistungsnachweise von großem Interesse. Computerbasierte Prüfungen, z. B. mit dem Key-feature-Ansatz, können dazu beitragen, valide und reliable Prüfungen mit vertretbarem Ressourceneinsatz durchzuführen. Auf besonderes Interesse stoßen bei den Medizinern Überlegungen, neben summativen auch formative Prüfungen mit Hilfe von fallbasiertem Training durchführen zu können. Generell sei im Zusammenhang mit computerbasierten Prüfungen allerdings auch auf die technischen und rechtlichen Risiken hingewiesen, die z. B. browserbasierte und Client/Server-basierte Prüfungssysteme häufig mit sich bringen (Heid et al. 2004). Bei der Entwicklung ist deshalb diesen Aspekten besondere Aufmerksamkeit zu widmen. Lehr- und Lernsysteme werden schließlich im Bereich der ärztlichen Fort- und Weiterbildung eingesetzt, da hier eine längere Präsenzzeit in Schulungseinrichtungen häufig nicht gewünscht oder nicht machbar ist. Unterstützend wirkt in Deutschland die Einführung einer
Fortbildungspflicht im Rahmen des Gesundheitsmodernisierungsgesetzes (GMG). Allerdings gibt es eine Vielzahl von Fortbildungsangeboten, die teilweise aufgrund der Unterstützung durch medizinische Fachverlage, medizinische Fachgesellschaften oder der Pharmaindustrie kostenlos verfügbar sind.15 Dies steht wiederum der Verbreitung von Lehr-/Lernsystemen entgegen, sofern diese kostenpflichtig angeboten werden.
53.7
Status und Perspektiven von E-Learning in der Medizin
53.7.1 Informationssysteme zu CBT/WBT in der
Medizin Das Angebot von CBT/WBT-Systemen in der Medizin ist sehr umfangreich, wie eine Recherche über spezielle Informationssysteme zeigt: KELDAmed16 an der Universität Mannheim weist z. B. über 1200 Lernobjekte nach. Der Learning Resource Server Medizin der Universität Essen17 ermöglicht die Recherche nach derzeit ca. 1900 kostenfreien, Web-basierten Lernobjekten. Ein Problem derartiger Informationssysteme stellt die Aktualität der zugrunde liegenden Datenbank dar. Schwierigkeiten kann auch die objektive Bewertung der angebotenen Systeme machen. Um die Bewertung von Systemen zu erleichtern, hat die Arbeitsgruppe »Computerunterstützte Lehrund Lernsysteme in der Medizin«18 der »Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie« (GMDS)19 »Qualitätskriterien für Elektronische Publikationen in der Medizin« (Schulz et al. 1999) publiziert. Diese sind mittlerweile in mehrere Sprachen übersetzt worden. Die bereits seit 20 Jahren existierende Arbeitsgruppe hat sich zum Ziel gesetzt, Entwicklungsvorhaben im medizinischen Bereich überregional zu koordinieren und die Qualität von CBT/WBT-Systemen zu verbessern.
53.7.2 Nutzung von CBT/WBT-Systemen
in der Medizin und das Problem der curricularen Integration Verfügbare CBT/WBT-Systeme werden nach Erfahrungen an verschiedenen Hochschulen nur von ca. 5% der Medizinstudierenden tatsächlich genutzt. Die Frage ist in diesem Zusammenhang, wieweit die Ergebnisse einer Studie von an der Universität Bern aus dem Jahr 2000 heute noch gelten: Über 75% der Befragten ziehen es 15 16 17 18 19
http://www.cme-test.de/ http://www.ma.uni-heidelberg.de/apps/bibl/KELDAmed/ http://mmedia.medizin.uni-essen.de/portal/ http://www.mi.hs-heilbronn.de/gmds-cbt http://www.gmds.de
867 53.8 · Forschungsbedarf und Perspektiven
danach vor, ohne Computer zu lernen; 90% der Studierenden lernen vorwiegend mit Printmedien. Eine Studie der LMU München zeigt, dass fast alle Studierenden die angebotenen CASUS-Lernfälle vollständig bearbeitet haben, soweit die Bearbeitung mit der Vergabe von Credit Points honoriert wurde und für die Studierenden somit prüfungsrelevant war. Wurden keine Credit Points vergeben, nutzten nur etwa 10% der Studierenden die Lernfälle. Für den Erfolg von CBT/WBT-Systemen ist also die curriculare Integration von großer Bedeutung. Die Akzeptanzerhöhung sowohl bei den Studierenden als auch bei den Lehrenden wird auch in Zukunft eine zentrale Aufgabe darstellen (Riedel 2003). Eine erfolgreiche curriculare Integration hängt insbesondere von einer geeigneten Kombination der CBT/WBT-Systeme mit Präsenzveranstaltungen und Prüfungen ab (Hege et al. 2007; Fischer et al. 2008). Unter diesen Voraussetzungen werden die Systeme von der weit überwiegenden Zahl der Studierenden akzeptiert und intensiv genutzt. Ein Grund für die mangelnde Akzeptanz der Systeme liegt häufig darin begründet, dass die mit der Entwicklung und Anwendung von CBT/WBT-Systemen verbundenen Risiken nicht hinreichend berücksichtigt werden. Neben den technischen Risiken bei einer Systementwicklung (Frage: »Are we building the product right?«) ist insbesondere das Applikationsrisiko (Frage: »Are we building the right product?«) zu beachten. Das Applikationsrisiko besteht darin, dass u.U. Systeme entwickelt werden, für die seitens der Anwender kein echter Bedarf besteht. Auch heute noch ist gelegentlich eine Negativeinstellung gegenüber Computern sowohl bei Studierenden als auch bei Dozenten festzustellen. Fehlende Souveränität der Dozenten im Umgang mit den Systemen und fehlende Identifikation mit den Systemen verhindern aber eine Motivation der Studierenden und die Akzeptanz der Systeme auf studentischer Seite. Zu berücksichtigen ist dabei, dass die Arbeitsbelastung insbesondere der klinisch tätigen Dozenten außerordentlich hoch ist. Eine zentrale Frage lautet deshalb: Wie kann man das Engagement von Ärzten für innovative Lehre fördern bzw. honorieren? In diesem Zusammenhang sind etablierte Dozentenschulungen zu nennen, wie sie z. B. seit Jahren an der Universität Heidelberg durchgeführt werden. Auch die Weiterbildung zum »Master of Medical Education«20 gewinnt zunehmend an Bedeutung. Nach derartigen Qualifikationsmaßnahmen verfügen Dozenten dann auch über erforderlichen methodische Voraussetzungen für die Integration von CBT/WBT-Systemen in das Curriculum (⊡ Abb. 53.6). Curriculare Integration gelingt nur, wenn die Systeme für die Studierenden einen Lernanreiz besitzen, z. B., indem die Vorbereitung auf die Prüfungen im 20
http://www.mme-de.de/
⊡ Abb. 53.6. Abhängigkeiten beim Einsatz von E-Learning
Rahmen der fakultätsinternen Leistungsnachweise mit Hilfe der CBT/WBT-Systeme erfolgen kann (Ruderich 2003). Eine Möglichkeit, die Nachhaltigkeit zu verbessern, besteht darin, die positiven Erfahrungen aus den bisherigen überregionalen Kooperationen fortzusetzen. Dazu zählt auch die Einrichtung von Kompetenzzentren zur medizinischen Lehre, u. a. zu den Themen »E-Learning« und »Prüfungen«, in Baden-Württemberg und Bayern, die über die Grenzen der jeweiligen Bundesländer hinaus zur Qualifizierung von Dozenten und zur nachhaltigen überfakultären Vernetzung beitragen. Nur wenn die Probleme der curricularen Integration gelöst sind, ist die Vision der Flexibilisierung des Studiums, der Kostenreduktion und der Verbesserung der Qualität durch den Einsatz von CBT/WBT in der Medizinerausbildung zukünftig möglich. Ein verbindlicher nationaler Lernzielkatalog ist erforderlich, um die überregionale langfristige Etablierung von CBT/WBT-Systemen in der medizinischen Ausbildung zu unterstützen.
53.8
Forschungsbedarf und Perspektiven
Der derzeitige Forschungsstand legt nahe, dass E-Learning und traditionelle Unterrichtsmethoden in der Medizin ähnlich effektiv sind (Cook et al. 2008). Es konnte klar gezeigt werden, dass CBT/WBT-Systeme Vorteile bei der standardisierten Bereitstellung von Unterrichtsmaterialien und bei der Kommunikation zwischen Lehrenden und Lernenden bieten (Valcke u. De Wever 2006). Methodisch sind die Studien zum Vergleich von E-Learning und beispielsweise Präsenzunterricht aber problematisch, weil eine Kontrolle verzerrender Einflussfaktoren unter realen Lernbedingungen im Feld schwierig ist. Außerdem werden Unterrichtsangebote verglichen, die sich in vielen Aspekten unterscheiden und im Sinne des »Blended Learning« besser aufeinan-
53
868
V
Kapitel 53 · Computerunterstützte Lehr- und Lernsysteme in der Medizin
der abgestimmt angeboten werden könnten. In vielen Studien wurden in den letzten Jahren E-Learning-Angebote eingeführt und mit einer Kontrollgruppe verglichen, die kein Lernangebot erhielt. Es überrascht nicht, dass die E-Learning-Intervention besser war als nichts. Diese Art von Studien steht unter einem Trivialitätsverdacht und ist inzwischen in aller Regel verzichtbar. Es geht ja in der Unterrichtspraxis nicht um ein Entwederoder (Clark 2002). Die Nutzung des Internets ist längst Bestandteil des alltäglichen Verhaltens in vielen Lebensbereichen geworden – inklusive der Lehre. CBT/WBT-Systeme zu nutzen ist inzwischen an fast allen akademischen Institutionen eine Selbstverständlichkeit geworden. Zukünftig wären Studien zu wünschen, die unterschiedliche E-LearningIntegrationskonzepte miteinander vergleichen. Es ist nämlich bisher noch unklar, was eigentlich die spezifischen Stärken und Schwächen von E-Learning-Angeboten in verschiedenen edukativen Kontexten ist (Valcke u. de Wever 2006; Cook 2009). Eine stärkere Theoriefundierung zukünftiger Studien wäre wünschenswert. Hierzu ist eine intensivere Zusammenarbeit zwischen Medizinern, Erziehungswissenschaftlern und Psychologen erforderlich. Zu Fragen der Grundlagen des fallbasierten Lernens, der klinischen Entscheidungsfindung, des kooperativen Lernens in Gruppen und des interprofessionellen Lernens ergibt sich eine Fülle von Forschungsfragen. Außerdem sollte die Entwicklung innovativer computergestützter formativer und summativer Prüfungsformate im Fokus weiterer Forschungsbemühungen stehen. Hierbei könnte auch die Unterstützung arbeitsplatzbezogener Evaluationsmethoden eine zunehmende Bedeutung erlangen. Viele technische Herausforderungen bei der Entwicklung von CBT/WBT-Systemen konnten in den letzten Jahren zufrieden stellend gelöst werden. Insbesondere bei Interoperabilität und Standards gibt es gleichwohl noch wichtige Betätigungsfelder, um den Austausch und die technische Integration von aufwändig erstellten Inhalten über Hochschulgrenzen hinweg zu erleichtern.
Literatur Begg M, Ellaway R, Dewhurst D, McLeod H (2007) Transforming professional healthcare narratives into structured game-informedlearning activities. In: Innovate, vol. 3, no. 6 (Available: http:// www.innovateonline.info/index.php?view=article&id=419) Bodendorf F (1990) Computer in der fachlichen und universitären Ausbildung. Oldenbourg, München Brown J, Collins A, Duguid P (1989) Situated cognition and the culture of learning. Educ Research 18(1): 32–42 Clark D (2002) Psychological myths in e-learning. Med Teach 24: 598– 604 Collins A, Brown J, Newman S (1989) Cognitive Apprenticeship: Teaching the Craft of reading, writing, and mathematics. In: Resnick L (ed) Knowing, Learning, and Instruction: Essays in Honor of Robert Glaser. Hillsdale, NJ: Lawrence Erlbaum
Cook DA (2009) The failure of e-learning research to inform educational practice, and what we can do about it. Med Teach 31(2): 158–62 Cook DA, Triola MM (2009) Virtual patients: a critical literature review and proposed next steps. Med Educ 43(4): 303–11 Cook DA, Levinson AJ, Garside S et al. (2008) Internet-Based Learning in the Health Professions. JAMA 300(10): 1181–1196 Fall LH, Berman NB, Smith S, White CB, Woodhead JC, Olson AL (2005) Multi-institutional development and utilization of a computerassisted learning program for the pediatrics clerkship: the CLIPP Project. Acad Med 80(9): 847–55 Fischer MR, Kopp V, Holzer M, Ruderich F, Jünger J (2005) A modified electronic key feature examination for undergraduate medical students: validation threats and opportunities. Med Teach 27: 450–455 Fischer MR (2000) CASUS – An authoring and learing tool supporting diagnostic reasoning. Zeitschrift für Hochschuldidaktik 1: 87–98 Fischer MR, Hege I, Hörnlein A, Puppe F, Tönshoff B, Huwendiek S (2008) Virtuelle Patienten in der medizinischen Ausbildung: Vergleich verschiedener Strategien zur curricularen Integration. ZEFQ 102(10): 648–653 Garde S, Bauch M, Haag M, Heid J, Huwendiek S, Ruderich F et al. (2005) CAMPUS – Computer-Based Training in Medicine as part of a Problem-oriented Educational Strategy. Studies in Learning, Evaluation, Innovation and Development 2(1): 10–19 Haag M, Maylein L, Leven FJ, Tönshoff B, Haux R (1999) Web-based training: a new paradigm in computer-assisted instruction in medicine. Int J Med Inf 53: 79–90 Hege I, Kopp V, Adler M, Radon K, Mäsch G, Lyon H, Fischer MR (2007) Experiences with different integration strategies of case-based e-learning. Med Teach 29(8): 791–7 Heid J, Bauch M, Haag M, Leven FJ, Martsfeld I, Ruderich F, Singer R (2004) Computerunterstützte Prüfungen in der medizinischen Ausbildung. In: Pöppl J, Bernauer M, Fischer M, Handels H, Klar R, Leven FJ et al. (Hrsg) Rechnergestützte Lehr- und Lernsysteme in der Medizin. Shaker-Verlag, Aachen, 213–218 Huwendiek S, de Leng B, Zary N, Fischer MR, Ruiz JG, Ellaway R (2009) Towards a typology of virtual patients. Medical Teacher 31(8): pp 743–748 Karsten G, Kopp V, Brüchner K, Fischer MR (2009) Blended Learning zur integrierten und standardisierten Vermittlung klinischer Untersuchungstechniken: Das KliFO-Projekt. GMS Z Med Ausbild 26(1): Doc 10 Kern ED, Thomas PA, Hughes MT (eds) (2009) Curriculum Development for Medical Education: A Six-Step Approach. Johns Hopkins University Press, Baltimore Moehr J (1990) Computerunterstützter Unterricht in Kanada und den USA. In: Baur MP, Michaelis J (Hrsg) Computer in der Ärzteausbildung. Oldenbourg, München, 31–50 Putz R, Christ F, Mandl H, Bruckmoser S, Fischer, MR, Peter K, Moore G (1999) Das Münchner Modell des Medizinstudiums (MünchenHarvard Educational Alliance). Med Ausbild 16: 30–37 Riedel J (2003) Integration studentenzentrierter fallbasierter Lehrund Lernsysteme in reformierten Medizinstudiengängen. Dissertation, Universität Heidelberg (s. auch: www.virtuelle-patienten. de/>Publikationen) Ruderich F (2003) Computerunterstützte Prüfungen in der medizinischen Ausbildung nach der neuen Approbationsordnung. Diplomarbeit im Studiengang Medizinische Informatik Universität Heidelberg/Fachhochschule Heilbronn (s. auch: www.virtuellepatienten.de/>Publikationen) Schaller K, Wodraschke G (Hrsg) (1969) Information und Kommunikation. Ein Repetitorium zur Unterrichtslehre und Lerntheorie. Leibnitz-Verlag, Hamburg Schulmeister R (2003) Lernplattformen für das virtuelle Lernen. Oldenbourg, München
869 Literatur
Schulz S et al. (1999) Qualitätskriterien für Elektronische Publikationen in der Medizin. Informatik, Biometrie und Epidemiologie in Medizin und Biologie 31(4): 153–66 (s. auch: www.imbi.uni-freiburg. de/medinf/gmdsqc/) Smothers V, Azan B, Ellaway R (2010) MedBiquitous Virtual Patient Specifications and Description Document Version 0.61 (Available: http://www.medbiq.org/working_groups/virtual_patient/VirtualPatientDataSpecification.pdf ) Spiro RJ, Coulson RJ, Feltovich, PJ, Anderson, DJ (1989) Cognitive flexibility theory. Advanced knowledge acquisition in ill-structured domains. Hillsdale, Erlbaum Steinmetz R (2005) Multimedia Technologie – Grundlagen, Komponenten und Systeme. Springer, Berlin Heidelberg New York Tokyo Valcke M, De Wever B (2006) Information and communication technologies in higher education: evidence-based practices in medical education. Med Teach 28(1): 40–8
53
54 PACS/RIS D. Sunderbrink, C. Zapf, A. Bermann
54.1
Einleitung – 871
54.2
Radiologischer Arbeitsablauf – 872
54.2.1 54.2.2 54.2.3 54.2.4 54.2.5 54.2.6 54.2.7 54.2.8 54.2.9 54.2.10 54.2.11
Anforderung – 872 Anmeldung/Terminplanung – 873 Untersuchung – 873 Steuerung der Befundung – 874 Bilddarstellung und Bildauswertung – 874 Bildnachverarbeitung – 874 CAD – 876 Medizinische Monitore – 876 Erstellung des Befundberichts – 876 Klinische Demonstration – 877 Befund-/Bildverteilung – 877
54.1
Einleitung
Die Digitalisierung der bildgebenden Verfahren in der Radiologie ist durchgängig für alle radiologischen Diagnoseverfahren erfolgt und die Befundung am Monitor akzeptiert. Durch die gleichzeitige Etablierung eines einheitlichen und robusten Kommunikationsstandards zum Austausch und zur Speicherung von Bilddaten wie DICOM (Digital Imaging and Communication in Medicine) sind die Voraussetzungen für die Einführung von Picture Archiving and Communication Systems (PACS) und Radiologie Informationssystemen (RIS) seit längerem erfüllt. In den industrialisierten Ländern liegt der Durchdringungsgrad beider Systeme je nach Segment und Typ des Leistungserbringers zwischen 60% und 95%. Konzipiert wurde PACS vor mehr als 20 Jahren und ermöglicht die Bildkommunikation zwischen einzelnen Komponenten wie Archivsystem, Befundungsworkstation, Nachverarbeitungsworkstation und den Arbeitsplätzen der Bildverteilung. Ein RIS umfasst typischerweise eine Reihe von Software-Modulen zur Unterstützung der Arbeitsabläufe in der Radiologie wie die Erstellung von Anforderungen, Terminverwaltung, Befundberichtserstellung, medizinische Kodierung, Leistungserfassung und Schnittstellen zum Abrechnungssystem. Eine typische RIS/PACS-Konfiguration zeigt ⊡ Abb. 54.1. RIS und PACS sind die Eckpfeiler für das Management der Radiologischen Abteilung. Heute finden sich zumeist beide Systeme in enger Integration gemeinsam im Einsatz. Die Anbindung an ein übergeordnetes Krankenhausinformationssystem (KIS) erfolgt durch Kommunikationsserver, welche als spezialisierte Schnittstellen-
54.3
Integration eines PACS/RIS in eine Krankenhausumgebung – 877
54.3.1 54.3.2 54.3.3 54.3.4 54.3.5 54.3.6 54.3.7 54.3.8
Integration von Informationssystemen – 877 Integration von Image-Managementsystemen – 878 Teleradiologie – 878 Mobile Endgeräte – 878 Moderne IT-Infrastruktur – 878 Informationslebenszyklusmanagement – 879 Cloud-Computing-Lösungen im Krankenhaus – 879 Regionale IT-Virtualisierung – 879
54.4
Zusammenfassung – 880 Literatur
– 880
server die Aufgabe haben, unterschiedlichste IT-Systeme durch einen weiteren medizinischen Datenstandard, HL7 (Health Level 7), miteinander zu verbinden. Dadurch wird einerseits die Einbindung von RIS und PACS in die elektronische Patientenakte (EPA) ermöglicht und zum anderen die medizinischen Arbeitsabläufe über die Grenzen der Radiologischen Abteilung hinaus unterstützt. Zukünftig ist durch die rasante Entwicklung der von bildgebenden Systemen erzeugten Datenmengen eine Integration von fortgeschrittenen Applikationen zur 3D/4D-Nachverarbeitung (häufig als »Advanced Visualization« oder »Post Processing« bezeichnet) bis hin zur Computer Aided Diagnosis (CAD) in den radiologischen Arbeitsplatz für eine effiziente Befundung erforderlich. Die Etablierung von Kommunikationsstandards auf Datenebene ist für eine Optimierung des klinischen Workflows noch nicht ausreichend. Die Radiological Society of North America (RSNA) hat bereits vor geraumer Zeit die Initiative IHE (Integrating the Health Enterprise) ins Leben gerufen. IHE hat zum Ziel, Profile im Sinne von standardisierten Workflow-Szenarien zu definieren und auf diese Weise die Kombination unterschiedlichster Software- und Hardware-Komponenten herstellerübergreifend zu validieren. PACS hat längst die Grenzen der Radiologie überschritten und wächst zu einer Anwendung für das gesamte Krankenhaus. Andere klinische Abteilungen wie Kardiologie, Neurologie, Strahlentherapie und neuerdings auch Pathologie wollen die Vorteile eines digitalen Bilddatenmanagements nutzen und ihre Bilddaten in einem PACS-Archiv speichern und ähnliche Unterstützung der Arbeitsabläufe realisieren. Die einzelnen Disziplinen
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _54, © Springer-Verlag Berlin Heidelberg 2011
872
Kapitel 54 · PACS/RIS
V
⊡ Abb. 54.1. RIS/PACS-Konfiguration
Anforderung
Anmeldung/ Anmeldung Terminplanung Terminplanung
Untersuchung Untersuchung
Bearbeitung
Befundung Befundung
Klinische Demonstration Demonstration
BefundBefund/Bildverteilung verteilung
⊡ Abb. 54.2. Radiologischer Arbeitsverlauf
sind dabei unterschiedlich weit im Einsatz von IT-Systemen zum Bilddatenmanagement fortgeschritten. Es zeigt sich jedoch schon heute ein Trend zur Vereinheitlichung des Bilddatenarchivs über Abteilungsgrenzen hinweg, um den Aufwand für Anschaffung, Installation und Instandhaltung der Systeme zu minimieren sowie Skaleneffekte in der Datenhaltung zu realisieren. Zur Optimierung des Behandlungsprozesses des Patienten besteht ein großes Potential durch die Routineanwendung computerunterstützter Verfahren für die Therapieplanung z. B. der Elektrophysiologie, Strahlentherapie oder der computerunterstützten Chirurgie (CAS, Computer Aided Surgery), die digitale Bilddaten aus dem PACS als Planungsgrundlage verwenden. Innovationen der bildgebenden Verfahren und die rasant ansteigende Entwicklung der Bilddatenmengen machen die geeignete Unterstützung der radiologischen Diagnostik durch Informationstechnologie wie PACS und RIS erforderlich. Ein moderner Mehrzeilen-Computertomograph produziert bis zu 4000 Einzelbilder pro Untersuchung. Bei dieser Menge an Information ist die analoge Befundung per Film am Schaukasten nicht zweckmäßig,
und es besteht die Gefahr, diagnostisch wichtige Befunde zu übersehen. Vor diesem Hintergrund soll dem Leser – bezogen auf die einzelnen Arbeitsschritte – eine Orientierung für die film- und papierlose Radiologie gegeben werden.
54.2
Radiologischer Arbeitsablauf
Ziel der Einführung von IT-Systemen ist die Optimierung des Arbeitsablaufes. Das kann nur durch das perfekte Zusammenspiel der einzelnen Komponenten erreicht werden. Anhand eines typischen Arbeitsablaufes (⊡ Abb. 54.2) sollen die Funktionsweisen der einzelnen Arbeitsplätze erklärt werden.
54.2.1 Anforderung
Der überweisende Arzt entscheidet, ob für die weitere Behandlung eine radiologische Untersuchung durchgeführt werden soll und fordert diese in der Radiologie an.
873 54.2 · Radiologischer Arbeitsablauf
Für die Anforderung sind drei Ablaufszenarien gebräuchlich, die teilweise auch parallel verwendet werden. Erstens werden Anforderungen auch heute noch häufig auf Papier, Fax oder per Telefon übermittelt, zweitens bieten viele RIS eigene elektronische Anforderungsmodule, die teilweise auch Web-basiert verfügbar sind, und drittens stellen viele Krankenhäuser Informationssysteme (KIS) entsprechende Anforderungsmodule bereit. Der Vorteil der Bereitstellung dieser Funktionalität innerhalb eines KIS-Moduls ist die einheitliche Verwendung in einer Einrichtung. So hat z. B. ein Krankenhaus in Szenario drei nur ein Modul, in welchem die Anforderung generiert und an die angeschlossenen Abteilungssysteme im HL7-Format übertragen wird, während in Szenario zwei jeweils unterschiedliche Anforderungsmodule (je eines pro Abteilungs-Informationssystem) verwendet werden müssen. Werden Anforderungen nicht elektronisch übermittelt, müssen die entsprechenden Daten in der radiologischen Abteilung manuell in das RIS eingegeben werden. In jedem Fall sind eine möglichst vollständige klinische Fragestellung sowie die Übermittlung weiterer Informationen wie Kontrastmittelallergien und Laborwerte wichtig, um den weiteren Ablauf planen zu können.
In der tagesaktuellen Planung muss schließlich auf ungeplante Ereignisse wie Notfälle, dringliche Untersuchungen oder langwierige Untersuchungen (z. B. wiederholte Atemartefakte im MR) reagiert werden. Da diese regelmäßig vorkommen, bieten die meisten RIS entsprechend einfache Möglichkeiten der Umbuchung, Verschiebung von Untersuchungen in andere Räume oder auch die Einplanung von Puffern an. Üblicherweise erhält die anfordernde Stelle eine Bestätigung des vorgeplanten Termins. Je nach Integrationstiefe zwischen KIS und RIS kann der Überweiser den aktuellen Status des Patienten in der Radiologie an seinem Arbeitsplatz verfolgen. Er kann erkennen, ob der Patient in der Radiologie angekommen ist, die Untersuchung begonnen hat oder Bild und/oder Befund schon verfügbar sind. Ab dem Moment, zu dem die Untersuchungen dem spezifischen bildgebenden System (Modalität) zeitlich zugeordnet sind, erzeugt das RIS eine DICOM-Worklist, die von der Modalität beim RIS abgerufen wird. Dadurch werden der Modalität automatisiert die wichtigsten Patienten- und Untersuchungsdaten zur Verfügung gestellt. Je nach Archivierungsart können RIS und PACS zudem so konfiguriert werden, dass automatisch Voraufnahmen eines Patienten aus dem Langzeitarchiv dearchiviert werden, sodass für die Diagnostik relevante Voruntersuchungen verfügbar sind (Pre-Fetching).
54.2.2 Anmeldung/Terminplanung
Die Qualität der Terminverwaltung (oft wird der englische Begriff »scheduling« verwendet) bestimmt wesentlich die Prozesseffizienz in der Radiologie. Sie umfasst die Vorplanung der Termine, die Zuteilung von Ressourcen zu Untersuchungen (z. B. Räume und Personal) sowie die kurzfristige Reaktion auf ungeplante Ereignisse, die in der medizinischen Versorgung die Regel sind (z. B. Notfälle). Wie bei den Anforderungen können die Abläufe der Terminplanung auf unterschiedliche Weise gestaltet und durch IT unterstützt sein. Im einfachsten Fall werden die Termine analog einem Terminbuch durch Mitarbeiter der Radiologie geplant. Manche RIS erlauben dem Anforderer, selbstständig aus Terminvorschlägen einen Termin auszusuchen. Bei noch weitergehender Automatisierung kann das RIS selbstständig anhand vorkonfigurierter Regeln den nächsten passenden Termin vorschlagen. Im nächsten Schritt werden den Terminen in Abhängigkeit von der Art der Untersuchung Ressourcen zugewiesen. In fast allen Fällen wird ein Raum mit entsprechendem Equipment benötigt (z. B. ein MR-Scanner in einem bestimmten Raum). Nicht selten sind weitere Ausstattung (z. B. Anästhesieausrüstung, Kontrastmittel, Verbrauchsmaterial etc.) und Personal erforderlich. Daher spricht man in diesen Fällen von Multi-ResourceScheduling, für das ebenfalls IT-Unterstützung im RIS vorhanden sein kann.
54.2.3 Untersuchung
An der Modalität wird die DICOM-Worklist vom RIS abgerufen und in die lokale Arbeitsliste des bildgebenden Systems übertragen. Hier wird der Patient ausgewählt und die Untersuchung gestartet. Durch die elektronische Übertragung ist die Konsistenz der Patientendaten gewährleistet. Die Informationen der Untersuchung wie Art, Startzeit, Dauer und weitere Informationen werden von der Modalität registriert und im DICOM-Format MPPS (Modality Performed Procedure Step) an das RIS zurückgesendet. Die MPPS-Informationen werden an das PACS übertragen, und die Modalität sendet die aufgenommenen Bildserien zur Archivierung an das PACS. Das Senden der Bilder zum PACS erfolgt vorwiegend im standardisierten DICOM-Format, das für den herstellerunabhängigen Datenaustausch von Modalitäten und RIS/PACS konzipiert wurde. DICOM beschreibt in der aktuellen Version 3.0 nicht nur die Bildformate, sondern auch Übertragungsprotokolle und regelt Sicherheitsbelange. Folgende Services werden u. a. unterstützt: ▬ Archivierung und Übertragung von Bildern über Netzwerke (DICOM Standard Teil 7 und 8), ▬ Archivierung und Austausch von Bildern über Wechseldatenträger (DICOM Standard Teil 10), ▬ Suchfunktionen (DICOM Query), ▬ Druckfunktionen (DICOM Print),
54
874
Kapitel 54 · PACS/RIS
▬ Workflowfunktionen (DICOM Modality Worklist, Modality Performed Procedure Step), ▬ Komprimierung von Bilddaten (DICOM Standard Teil 5, z. B. JPEG, JPEG2000, RLE).
V
Für die meisten Medizinprodukte existieren DICOM Conformance Statements. Diese Dokumente beschreiben die unterstützten DICOM-Dienste. Dadurch wird die Grundlage der Produktkommunikation geschaffen, in der Praxis sind meist noch Detailanpassungen notwendig. Am Ende der Untersuchung gibt ein Mitarbeiter der Radiologie am RIS-Arbeitsplatz zusätzlich ein, welche radiologischen Leistungen durchgeführt wurden, die Röntgenverordnungswerte (RöV) und ggf. welche Kontrastmittel und Katheter verbraucht wurden. Diese Daten zur Leistungserfassung und zum Verbrauch hochwertiger Medizinprodukte sind insbesondere für die medizinische Dokumentation und die Abrechnung relevant.
54.2.4 Steuerung der Befundung
Im Regelfall wird der Ablauf der Befundung durch das RIS gesteuert. Es stellt die Arbeitslisten mit abgeschlossenen und zur Befundung vorgesehenen Untersuchungen bereit. Der Arzt wählt den entsprechenden Patienten mit seiner Untersuchung aus, und das RIS stößt im PACS die Anzeige des aktuellen Bildmaterials und ggf. auch der Voruntersuchungen an. Für komplexe Untersuchungen, die eine Bildnachverarbeitung benötigen (Post Processing), stehen mittlerweile eine Vielzahl von spezialisierten Nachverarbeitungsapplikationen zur Verfügung, mit denen zum einen die Befundung unterstützt und beschleunigt werden kann und zum anderen wertvolle diagnostische Zusatzinformationen generiert werden können. Weiterhin ist ein arbeitsteiliger Ablauf zwischen MTRA und Arzt möglich, indem die technische Assistenz zunächst die Bildnachverarbeitung aus einer eigenen Arbeitsliste heraus vorbereitet und erst nach Abschluss dem Arzt die Untersuchung in seine Arbeitsliste einstellt. Ist die Analyse des Bildmaterials erfolgt, wird im RIS ein Befundbericht erstellt. Häufig arbeiten die Befunder in einer Mehr-Monitor-Umgebung (mit bis zu vier Monitoren), die Bilder und Befund gleichzeitig anzeigen. Nach Abschluss der Befundung werden Befunde und ggf. auch Bilder verteilt und beide archiviert.
54.2.5 Bilddarstellung und Bildauswertung
Die ersten PACS-Arbeitsplätze waren primär für die Arbeit mit konventionellen Röntgenbildern entwickelt worden. Die Darstellung von Bildern in Segmenten auf dem Monitor, ähnlich dem traditionellen Leuchtkasten, hat
sich bewährt. Größe und Form sowie Anzahl und Anordnung der Segmente sind meist frei konfigurierbar und häufig können die entsprechenden Konfigurationen vom PACS beim Laden automatisch untersuchungsspezifisch zugeordnet werden (DICOM Hanging Protocols). Funktionen zur Anpassung der Bildqualität (wie Helligkeit, Kontrast etc.) sowie der einfachen Bildmanipulation (wie Vergrößern, Verkleinern, Verschieben, Drehung, Kantenanhebung, Glättung, Blättern durch Schichten, Cine Mode etc.) sind heute an jedem PACS-Arbeitsplatz verfügbar. Da durch diese Anpassungen die diagnostische Aussage der Bilder erheblich beeinflusst werden kann (oft werden Bilder erst dadurch interpretierbar), existiert mittlerweile ein eigener DICOM-Standard, um die Veränderungen langfristig im Archiv mit zu speichern (DICOM Softcopy Presentation State). Um aus Bilddaten objektive und reproduzierbare Messungen zur quantitativen Analyse von Gewebestrukturen durchzuführen, wird eine Vielzahl von Basisfunktionen angeboten, wie z. B. Distanz-, Winkel- und Volumenmessung.
54.2.6 Bildnachverarbeitung
Wie eingangs erwähnt, steigt die Menge an Bilddaten pro Untersuchung rasch an, insbesondere im Bereich der Schnittbildmodalitäten. Eine Befundung solcher komplexen Untersuchungen alleine mit den genannten Werkzeugen ist schon aus zeitlichen Gründen nicht mehr praktikabel. Es wurden daher in den letzten Jahren eine Vielzahl spezialisierter Nachverarbeitungsapplikationen entwickelt, die eine völlig neue Art der radiologischen Diagnostik ermöglichen. Basis der meisten Applikationen ist eine dreidimensionale Rekonstruktion der zweidimensionalen Schichten, indem durch verschiedene mathematische Operationen die Bildinformation zwischen den Schichten interpoliert wird. Dabei sind die Ergebnisse umso genauer, je kleiner die Schichtdicke der Originaldaten ist. Die häufigsten Darstellungsmodi sind MIP (Maximum Intensity Projection), MPR (Multiplanar Reconstruction) und VRT (Volume Rendering Technique) sowie deren Derivate (⊡ Tab. 54.1). MIP wird häufig verwendet, um kontrastangereicherte Gefäße in CT- und MR-Angiographien darzustellen. MPR ermöglicht die Darstellung von Schnittebenen, die nicht mit den Originaldaten akquiriert wurden (z. B. koronar und sagittal zusätzlich zu den axialen Ebenen). VRTs zeigen gerechnete Objekte wie beispielsweise das Herz, den Schädel, das knöcherne Skelett, aber auch komplexere Berechnungen wie den Dickdarm. Bei Funktionsuntersuchungen wie Herzventrikelfunktion im MR und CT oder der funktionalen Magnetresonanztomographie (fMRI) ist die zeitliche Dimension entscheidend, und so existieren mittlerweile eine Reihe
875 54.2 · Radiologischer Arbeitsablauf
⊡ Tab. 54.1. 3D-Nachbearbeitungsmethoden Methode
Anwendungen
MIP (Maximum Intensity Projection)
Gefäßdarstellung
MPR (Multiplanare Rekonstruktion)
Darstellung beliebiger Schichtebenen aus einem Volumendatensatz
VTR (Volume Rendering Technique)
Darstellung von Oberflachenstrukturen aus 3D-Datensatzen
von Nachverarbeitungsapplikationen, die der Auswertung die vierte, zeitliche Dimension hinzufügen. Bilddatensätze unterschiedlicher Modalitäten können fusioniert und dadurch zusätzliche diagnostische Information gewonnen werden. Prominentes Beispiel sind PET-CTUntersuchungen, in denen dadurch die Sensitivität des PET (Positronen-Emissions-Tomographie) mit der morphologischen Genauigkeit des CT kombiniert und so beispielsweise Tumore oder Metastasen wesentlich exakter beurteilt werden können. Für viele diagnostische Fragestellungen sind zudem spezielle Mess-, Auswerte- und Automatisierungsalgorithmen entwickelt worden. Die Bündelung all dieser Möglichkeiten zur »Advanced Visualization« hat in den letzten Jahren eine Vielzahl von Modalitäten- und PACS-Herstellern, aber auch neue, auf dieses Gebiet spezialisierte Anbieter dazu bewegt, auf diagnostische Fragestellungen zugeschnittene Nachverarbeitungsapplikationen zu entwickeln. Eine Auswahl häufig verwendeter Applikationen zeigt die folgende Auflistung: ▬ CT-Calcium-Scoring, ▬ CT-Koronararterienanalyse, ▬ CT- und MR-Angiographie, ▬ CT- und MR-Neuroperfusion, ▬ CT-Kardioperfusions- und -Ventrikelfunktionsanalyse, ▬ MR-Kardioperfusions- und -Ventrikelfunktionsanalyse, inkl. Late Enhancement, ▬ PET-CT-Onkologie, inkl. automatisierter Compare Layouts und Lymphknotenvergleiche, ▬ CT-Neuro-DSA, ▬ fMRI-Auswertung, ▬ MR-Tractography und DTI (Diffusion Tensor Imaging). In der Entwicklung der Post-Processing-Applikationen findet momentan ein enormer Fortschritt statt. Es handelt sich dabei um einen Bereich, in den ein signifikanter Forschungs- und Entwicklungsaufwand fließt. Dieser Trend hat das Potential, die radiologische Diagnostik grundlegend zu verändern: weg von der reinen Analyse zweidimensionaler Bilder, hin zu speziellen, auf die jeweilige diagnostische Fragestellung zugeschnittenen Auswerteapplikationen, die anatomische, morphologische, quantitative und funktionelle Ergebnisse liefern. Dadurch zeichnen sich zwei wesentliche Vorteile ab: Zum einen er-
geben sich eine Vielzahl relevanter diagnostischer Informationen, die zuvor nicht verfügbar waren. Diese ermöglichen präzisere Diagnosen und erhöhen letztlich Sensitivität und Spezifität der bildgebenden Tests. Zum anderen wird durch zunehmende Automatisierung der Zeitbedarf für die aufwändigere Befundung so weit reduziert, dass er zuweilen unter dem der traditionellen Befundung liegt. Nachverarbeitungsapplikationen der neuesten Generation erreichen dies durch weitgehend automatisierte, klinisch sinnvolle Kombination von Nachverarbeitungsschritten. So wird eine CT-Koronararterienanalyse typischerweise in sechs Schritten vorbereitet, in denen unterschiedlichste Algorithmen zur Anwendung kommen: ▬ Auswahl der geeigneten Serien für die Rekonstruktionsberechnung (»best cardiac phase«), ▬ MPR- und VRT-Rekonstruktion, ▬ Entfernung von Knochenstrukturen, ▬ Entfernung von Lungen- und Weichteilgewebe, ▬ Entfernung des Blood Pools (große, den Koronararterien benachbarte Gefäße und blutgefüllte Herzkammern), ▬ Analyse der Center Lines der Koronararterien. Moderne Nachverarbeitungsapplikationen können diese Schritte bereits automatisch und zum Teil völlig ohne manuelle Interaktion durchführen. Der Befunder findet nach Aufruf aus seiner Arbeitsliste die Untersuchung fertig analysiert vor und kann ohne Umwege mit der Befundung beginnen. Auch während der weiteren Befundung erhält er spezifisch auf die jeweilige Untersuchung relevante Auswertewerkzeuge zur Verfügung gestellt. So kann heute mit einem Mausklick ein Gefäß zur Stenosebeurteilung in einer »curved planar MPR view« dargestellt werden, welche das Gefäß über den ausgewählten Verlauf im longitudinalen Schnitt zeigt. Auch automatisierte Stenosequantifikation zählt zu den Standardinstrumenten der Gefäßanalyse. ⊡ Abb. 54.3 zeigt eine solche Applikation. Die Nachverarbeitungsapplikationen sind mittlerweile so ausgereift, dass sie zunehmend im Routinealltag eingesetzt werden. Dadurch wird zukünftig die traditionelle Unterscheidung zwischen Bilddarstellung, Bildauswertung und Bildnachverarbeitung verschwinden. Dem Radiologen werden in Zukunft klinisch sinnvolle, auf die jeweilige diagnostisch relevante Fragestellung zugeschnittene Auswerteapplikationen zur Verfügung gestellt.
54
876
Kapitel 54 · PACS/RIS
V ⊡ Abb. 54.3. Klinische Nachverarbeitungsapplikation
54.2.7 CAD
54.2.8 Medizinische Monitore
Einen Schritt weiter gehen CAD-Anwendungen (»Computer Aided Diagnosis«, manchmal auch: »Computer Aided Detection«). Hier werden dem Befunder nicht nur sinnvoll zugeschnittene Werkzeuge mit weitgehender Automatisierung an die Hand gegeben – CAD-Algorithmen untersuchen darüber hinaus Bildmaterial selbstständig im Hinblick auf eine klinische Fragestellung. Es wird versucht, verdächtige Strukturen zu identifizieren und sie dem Befunder zur Begutachtung zu präsentieren. Da CAD-Anwendungen tief in die Diagnoseerstellung eingreifen, unterliegen sie der höchsten Risikostufe seitens der regulatorischen Behörden. In der Regel müssen CADAnwendungen durch klinischen Studien nach GCP-Standard (GCP = »Good Clinical Practice«) validiert werden, bevor sie zugelassen werden. Es sind bereits eine Reihe von zugelassenen CAD-Anwendungen auf dem Markt, z. B. zur Detektion von Lungenrundherden, von Mikrokalzifikationen bei Brustkrebs sowie zur Polypenerkennung bei CT-Kolonographien. CAD-Anwendungen haben großes Potential, besonders im Bereich von Screening und Früherkennung, wo sie die Rate falsch negativer und möglicherweise auch falsch positiver Befunde signifikant verringern könnten. Gerade Verfahren zu Bildnachverarbeitung und CAD machen deutlich, dass das Potential von PACS weit über die Bildkommunikation und die Darstellung von DICOMBildern hinausgeht. Hier wird sich zukünftig die Spreu vom Weizen der Anbieter trennen, denn die Erforschung dieser Verfahren erfordert neben IT-Kenntnissen auch detaillierte Kenntnisse der Aufnahmeverfahren und der klinischen Interpretation der gewonnenen Informationen.
Die auf dem Monitor dargestellten Bilder sind die Basis für die radiologische Befundung und die Informationsquelle für alle nachfolgenden therapeutischen Maßnahmen. Der medizinische Monitor ist daher die wohl wichtigste Schnittstelle zwischen der digitalen Information und dem befundenden Arzt. Es wurden daher in einer Konsensus-Konferenz (Halle 2001) Mindestanforderungen für medizinische Monitoren festgelegt, die dann in der DIN 6868 Teil 57 sowie in der Richtlinie zur Qualitätssicherung näher spezifiziert wurden. Die Röntgenverordnung § 16 schreibt dem Betreiber Abnahmeprüfungen bei Inbetriebnahme sowie regelmäßige Konstanzprüfungen in definierten Abstanden vor.
54.2.9 Erstellung des Befundberichts
Nachdem der Radiologe die Bilddaten in geeigneter Form bearbeitet und analysiert hat, kann im RIS direkt ein Befund erstellt werden. Es gibt verschiedene Methoden, den Befund zu generieren: ▬ Der Radiologe gibt den Befund als Freitext in das Programm ein. ▬ Der Radiologe verwendet Textbausteine für die effiziente Erstellung von Normalbefunden und ergänzt den Befund durch einen frei eingetragenen Text. ▬ Der Radiologe nimmt seinen Befund als Diktat auf, das später vom Sekretariat oder direkt durch ein Spracherkennungssystem in Text umgesetzt wird. ▬ Der Radiologe befundet strukturiert. Dabei werden die zu einer Untersuchung gehörigen Befunde struk-
877 54.3 · Integration eines PACS/RIS in eine Krankenhausumgebung
turiert in Form von Werten und Tabellen erfasst. Ein fortgeschrittenes System kann unter Beibehaltung der strukturierten Information einen klinisch sinnvollen Prosatext generieren. Diese Form der Befundung gewinnt gerade bei komplexeren Untersuchungen zunehmend an Bedeutung (DICOM Structured Reporting). Ist der Befund geschrieben, muss er kontrolliert und durch den befundenden Arzt direkt oder den Oberarzt/ Chefarzt freigegeben werden. Erst dann ist der Befund als (elektronisches) Dokument zu verteilen und zu archivieren.
54.2.10 Klinische Demonstration
Während der Befundung kann der Radiologe relevante Bilder markieren, Befunde durch Pfeile, Kreise etc. kennzeichnen und die Fälle unterschiedlichen klinischen Falldemonstrationen zuordnen. Gemäß dieser Demonstrationsarbeitsliste werden die gesamten Untersuchungen oder nur die signifikanten Bilder auf dem Zielsystem geöffnet und in den meisten Fällen durch Projektoren (»Beamer«) auf einer Leinwand dargestellt. Während der klinischen Demonstration kann auf Vorbefunde und Voraufnahmen im Archiv schnell zugegriffen werden. Die elektronische Vorbereitung der klinischen Falldemonstrationen ist effizient, spart Zeit, und teilweise können die Ergebnisse überhaupt nur so präsentiert werden (besonders bei Ergebnissen aus Nachverarbeitungsanwendungen).
54.2.11 Befund-/Bildverteilung
Als letzter Prozessschritt des radiologischen Workflows ist die schnelle Verteilung der Ergebnisse an den Überweiser ein wesentlicher Bestandteil, der die Gesamteffizienz eines klinischen Workflows beeinflusst. Der überweisende Arzt muss zeitnah einen Zugriff auf die Resultate erhalten. Um das zu erreichen, sollten die Bildinformation und der Befund vom klinischen Arbeitsplatz aus aufrufbar sein. Technisch kann dem überweisenden Arzt beispielsweise ein Internet-basierter Zugriff auf die Datenbasis der Radiologie (für den Patienten bzw. für den Untersuchungsfall) ermöglicht werden. Mit einem Browser kann dann der überweisende Arzt die radiologischen Bilder aufrufen und den korrespondierenden Befund einsehen. Ob der Arzt alle Bilder sieht oder nur die relevanten, kann ebenso eingestellt werden wie die Qualität der Bilder. Um die Netzwerkbelastung zu verringern und die Zugriffszeiten zu minimieren, werden häufig komprimierte Bilder dargestellt. Wichtig ist, dass der Arzt aus dem Kontext seines klinischen Arbeitsplatzes die richtigen Bilder aufrufen kann. Dazu ist eine Integration
der Radiologie in das übergeordnete IT-System des Krankenhauses unabdingbar. Um die Informationen an einem Arbeitsplatz darzustellen, an dem sie zu einem definierten Behandlungsschritt benötigt werden, sind z. B. im OP besondere PC-Systeme und -Eingabegeräte (sterilisierbar, OP-tauglich) notwendig.
54.3
Integration eines PACS/RIS in eine Krankenhausumgebung
Das Gesundheitswesen ist ohne umfassende digitale Informationserzeugung, -speicherung, -verarbeitung und -verteilung kaum noch denkbar. Der Einsatz moderner Informationssysteme unterstützt u. a. die innerbetriebliche Organisation und erhöht gleichzeitig die Kosten- und Leistungstransparenz innerhalb und außerhalb des Krankenhauses. Um ganzheitliche Arbeitsabläufe und damit z. B. auch die Vermeidung von Redundanzen zu unterstützen, ist es essentiell, dass die existierenden Informations- und Imagemanagementsysteme integriert sind. Im Gesundheitswesen existieren dazu die Standards DICOM, HL7 und das Interoperabilitätsmodell IHE.
54.3.1 Integration von Informationssystemen
Die verstärkte interdisziplinäre Zusammenarbeit innerhalb und außerhalb eines Krankenhauses erfordert den Zugriff auf die jeweils relevanten und verfügbaren Patienten- und Falldaten über Abteilungsgrenzen hinweg. Durch eine reibungslose Integration unterschiedlicher Informationssysteme und einer Einbettung dieser in die Arbeitsabläufe des jeweiligen Leistungserbringers kann auf relevante Daten zugegriffen werden. So werden Untersuchungsrisiken und Kommunikationsprobleme vermindert. Typischerweise bietet die elektronische Patientenakte einen ganzheitlichen Einstieg in die jeweiligen Patienten- und Falldaten. Sie ist das führende System im hierarchisch aufgebauten Datenmodell. Abteilungsinformationssysteme (z. B. Radiologie, Kardiologie, Labor) stellen hauptsächlich Daten zur Verfügung und nehmen mit Blick auf die Datenstruktur eine nachgeordnete Position ein. Diese prozessorientierte horizontale Integration von unterschiedlichen Abteilungsinformationssystemen mit einer elektronischen Patientenakte wäre ohne die kontinuierliche Erweiterung von Standards wie DICOM und HL7 und Interoperabilitätsmodellen wie IHE undenkbar. Zusätzlich bieten die Integration von Daten aus unterschiedlichen Informationssystemen und die damit verbundene ganzheitliche Sicht die Möglichkeit für eine systematische Analyse zur Verbesserung von geschäftlichen und klinischen Prozessen (Business Intelligence).
54
878
Kapitel 54 · PACS/RIS
54.3.2 Integration von Image-
Managementsystemen
V
Moderne Image-Managementsysteme müssen nicht nur radiologische oder kardiologische Bilder im DICOMFormat verwalten können, sondern auch Nicht-DICOMDateien wie PDF-, Video- und Audio-Dateien. Ziele eines solchen Systems sind die Aufnahme, Strukturierung und das zeitliche Management (Information Life Cycle Management) heterogener Datensätze sowie die Bereitstellung dieser mit einer sehr hohen Verfügbarkeit und Performanz für alle Abteilungen und Ärzte ohne geographische bzw. zeitliche Grenzen. Die primäre Herausforderung für ein Image-Managementsystem ist das effiziente Management der sehr großen Bilddatenmengen. Die auf Standards (DICOM) basierende Datenhaltung stellt sicher, dass Bilddaten und andere Dokumente ohne Einschränkungen langfristig gespeichert werden. So genannte herstellerunabhängige Archive (VNA – Vendor Neutral Archive) stellen diese Funktionalität zur Verfügung und bestehen typischerweise aus drei fundamentalen Komponenten: ▬ einem Speicher-Subsystem, ▬ einer standardisierten Schnittstelle für das Datenmanagement und ▬ einer Datenbank, die alle Speicherinhalte und die Veränderungen der Inhalte indiziert. Ein VNA ist eine gemeinsame Ressource, die für alle IT-Lösungen innerhalb und/oder außerhalb des Krankenhauses Daten zur Verfügung stellt und folgenden Anforderungen genügt: ▬ Es muss in der Lage sein, Bilder und Befunde über den DICOM-Standard mit klinischen und PACS-Systemen auszutauschen. ▬ Es muss über Schnittstellen verfügen, die über den HL7-Standard Daten mit Krankenhausinformationssysteme und andere Informationssysteme austauschen können. ▬ Es muss in der Lage sein, alle DICOM-Formate (inkl. aller DICOM SOP-Klassen) zu speichern. ▬ Es muss die Möglichkeit anbieten, auch proprietäre Datenformate zu speichern (Non-DICOM), wie z. B. Bilddaten aus dem Bereich der Pathologie.
mittelt. Die Integration von Informationssystemen und der Einsatz telematischer Verfahren ermöglichen virtuelle Zusammenarbeit und Leistungserbringung. Physikalische Krankenhausgrenzen können unter Berücksichtigung eventuell vorhandener individueller gesetzlicher Anforderungen für Tele-Anwendungen überwunden und neue Dienstleistungen angeboten werden. Authentifizierung und Autorisierung (Wer darf wann auf welche Daten zugreifen?) sowie eine sichere, verschlüsselte Datenübertragung sind für diese Anwendungsfälle essentiell und müssen von Anfang an in die Planung mit einbezogen werden.
54.3.4 Mobile Endgeräte
Web-basierte Softwaretechnologien, kombiniert mit mobilen Endgeräten, bieten inzwischen die Möglichkeit, auf medizinische Bild- und Befunddaten zuzugreifen. Dies hat den Vorteil, dass z. B. in einem Notfallszenario, aber auch während einer Visite benötigte Daten dargestellt werden können. Die Datenformate reichen von einfachen Textdokumenten über medizinische Bilder bis hin zu Videoaufnahmen. So kann z. B. ein Arzt auf relevante Daten zugreifen, diese ergänzen und entsprechend die Reaktionszeit für eine Behandlung entscheidend reduzieren. Zusätzlich entstehen keine Medienbrüche mehr, und Daten müssen nicht mehrfach gespeichert oder kopiert werden. Der genaue Nutzen und die letztliche Bedeutung im klinischen Alltag müssen sich noch zeigen. Auch die Einschätzung und Einstufung mobiler Endgeräte durch die nationalen regulatorischen Behörden steht noch am Anfang und wird deren Einsatzszenarien beeinflussen.
54.3.5 Moderne IT-Infrastruktur
Bei der Konzeption moderner IT-Infrastrukturen im Krankenhaus muss den in der Übersicht angeführten Punkten eine besondere Aufmerksamkeit gewidmet werden.
Anforderungen an die IT-Infrastruktur im Krankenhaus
▬ Skalierbarkeit der Architektur von einer kleinen hin zu einer potentiell regionalen Lösung
54.3.3 Teleradiologie
▬ Berücksichtigung von Datensicherheit, Datenkonsistenz und einer hohen Datenverfügbarkeit
▬ Einhaltung von Standards für eine Integration Klinische Untersuchungen oder Befunde unterschiedlicher Disziplinen wie Radiologie, Kardiologie oder Pathologie finden nicht notwendigerweise innerhalb eines Krankenhauses statt, sondern können auch durch andere Leistungserbringer durchgeführt werden (z. B. Fachärzte, Labore). Die erzeugten Daten werden verschlüsselt für eine Leistungserbringung (z. B. Befundung, Zweitmeinung) über-
heterogener Applikationen und IT-Systeme unterschiedlicher Hersteller zu einer Gesamtlösung ohne Reibungsverluste an den Schnittstellen ▬ Modularer Aufbau der IT-Infrastruktur zum Austausch einzelner Komponenten ohne Beeinträchtigung des laufenden Betriebes
879 54.3 · Integration eines PACS/RIS in eine Krankenhausumgebung
54.3.6 Informationslebenszyklusmanagement
Ein essentieller Baustein im Rahmen einer modernen IT-Infrastruktur ist das Thema Datenmanagement. Das Management von Bilddaten von der Akquisition bis zur Archivierung ist ein komplexer Prozess, welcher mit unterschiedlichen Technologien adressiert wird, um Datenverfügbarkeit, Sicherheit, Redundanz und Durchgängigkeit sicherzustellen: ▬ Kurzzeitspeicher: Beinhaltet je nach Konfiguration üblicherweise die Untersuchungsdaten der letzten 3–12 Monate. Auf die Daten kann sehr schnell zugegriffen werden. Eine Bereitstellung der Daten erfolgt von ausfallsicheren Speichersystemen (z. B. RAID). ▬ Langzeitspeicher und Backup: Daten müssen je nach Gesetzeslage bis zu 30 Jahren archiviert werden und in angemessener Zeit wieder zur Verfügung gestellt werden können. Ein regelmäßiges Backup der Daten ist notwendig, um die Orginaldaten im Verlustfall wiederherstellen zu können (Disaster Recovery). Kommerziell verfügbare hierarchische Speichermanagement Systeme (HSM) stellen die beschrieben Datenmanagementfunktionalität zur Verfügung und bieten zusätzlich die Möglichkeit, Daten für den Nutzer transparent über verschiedene Medien zu migrieren und zur Verfügung zu stellen.
54.3.7 Cloud-Computing-Lösungen
im Krankenhaus Mit Cloud Computing (hochskalierbare IT-Infrastruktur, welche Anwendungen zur Verfügung stellt und nach Gebrauch abgerechnet werden kann) findet momentan ein Paradigmenwechsel für die Informationstechnologie im Krankenhaus statt. Dies gilt speziell für Informationssysteme und Image-Management-Lösungen. Der Zugriff auf die verfügbaren Daten erfolgt über das Internet und kann von jedem beliebigen Arbeitsplatz weltweit erfolgen. Ebenso werden klinische Applikationen nicht mehr lokal ausgeführt, sondern über die Cloud zur Verfügung gestellt und darauf zugegriffen. Anwender müssen nur über eine gesicherte Internetverbindung auf die Anwendungen zugreifen. Die erzielbaren Kostenersparnisse stellen für den Krankenhaus-IT-Verantwortlichen den größten Vorteil dar. Fixkosten, die bisher durch eine eigene IT-Abteilung entstanden, können in variable Kosten umgewandelt werden. Das Krankenhaus bzw. die unterschiedlichen Abteilungen (z. B. die Radiologie) müssen nur die tatsächlich benötigte Infrastruktur und Leistung an den Cloud-Anbieter erstatten und können somit die Ausgaben immer an den benötigten Bedarf anpassen.
Die Möglichkeiten einer Cloud spielen auch eine große Rolle für die wachsende Anzahl an Kooperation innerhalb der Leistungserbringer. Diese Entwicklung ist von einem immensen Kommunikationsbedarf zwischen den Partnern geprägt. In der momentanen Ausgestaltung müssen dafür komplexe Netzwerke gepflegt werden, um die Zusammenarbeit effizient gestalten zu können. Durch die Nutzung von Cloud Computing kann dieser Bedarf kostengünstiger gedeckt werden. Es muss keine komplexe Infrastruktur aufgebaut werden, da alle Nutzer einfach auf die gemeinsamen Anwendungen innerhalb der Cloud zugreifen können. Die systemimmanente Flexibilität ermöglicht dabei, Anpassungen, die sich aufgrund von neuen Partnern oder anderweitigen Veränderungen ergeben, zeitnah und ohne großen finanziellen Aufwand durchzuführen.
54.3.8 Regionale IT-Virtualisierung
Zwei der größten Herausforderungen im heutigen Gesundheitswesen sind die standortübergreifende und herstellerunabhängige Kommunikation sowie der Austausch von Daten. Bei Szenarien, in welchen sich mehrere Krankenhäuser und andere Leistungserbringer mit unterschiedlichen RIS, PACS und anderen IT-Lösungen vernetzen, um einen reibungslosen Behandlungspfad anzubieten, spielt die regionale IT-Virtualisierung eine entscheidende Rolle. In diesem Zusammenhang sind folgende Kernfunktionalitäten relevant (Benjamin et al. 2009): ▬ Globale Arbeitsliste Radiologen müssen in einem regionalen Setup in der Lage sein, auf eine konsolidierte globale Arbeitsliste zugreifen zu können, ohne den realen physikalischen Standort der jeweiligen Arbeitsliste zu kennen. Die globale Liste ist somit als Summe aller individuellen Arbeitslisten der im regionalen Umfeld teilnehmenden Krankenhäuser zu verstehen. ▬ Globaler Zugriff auf Bilddaten Während der Befundung der radiologischen Bilder übernimmt jeder Radiologe alle Fälle, die in sein Spezialitätgebiet fallen. Dies geschieht mit der Filterung der globalen Arbeitsliste nach seiner Spezialität. Obwohl die Bilder und befundungsrelevanten Daten physikalisch verteilt sind, hat der jeweilige Arzt Zugriff auf die Daten. Interoperabilitätsmodelle wie IHE XDS (Cross Document Sharing) definieren diesen Datenaustausch. ▬ Zugriffskontrolle und Sicherheit Feingranulare Zugriffsberechtigungen und Mandatenfähigkeit (Unterstützung mehrerer Kunden/unabhängiger organisatorischer Einheiten innerhalb eines IT-Systems) sind Voraussetzung für diese Art von regionaler IT-Virtualisierung.
54
880
Kapitel 54 · PACS/RIS
▬ Master Patient Index (MPI) Ein MPI stellt Funktionalität zur Verfügung, um Information aus unterschiedlichen Quellen (z. B. Abteilungen) unter einer gemeinsamen Identität zusammenzuführen.
54.4
V
Zusammenfassung
Radiologie Informationssysteme (RIS) und Picture Archiving and Communication Systems (PACS) sind heute etablierte Bausteine zur Optimierung von Arbeitsabläufen innerhalb einer radiologischen Abteilung. Die Integration von Nachverarbeitungsanwendungen in den Befundarbeitsablauf hat das Potential, die radiologische Diagnostik grundlegend zu verändern, und ermöglicht, dass die zunehmende Datenmenge effizient und mit hoher Qualität befundet werden kann. RIS und PACS sollten aber auch fest in die gesamte klinische IT-Infrastruktur integriert sein, um optimal genutzt werden zu können. Dies gilt sowohl innerhalb eines Krankenhauses als auch darüber hinaus (z. B. regionale Verbunde). Diese Integration geschieht über existierende Standards wie DICOM, HL7 und IHE. Aktuelle IT-Trends wie z. B. Cloud Computing bieten die Möglichkeit, Kosten zu senken und Komplexität zu reduzieren sowie RIS und PACS skalierbar und je nach Bedarf zu dimensionieren.
Literatur Benjamin M et al. (2009) From shared data to sharing workflow: Merging PACS and teleradiology. Eur J Radiol, doi:10.1016/j. ejrad.2009.10.014
55 3D-Postprocessing für die virtuelle Endoskopie G.-F. Rust, S. Marketsmüller, N. Lindlbauer
55.1 Was ist virtuelle Realität? – 881 55.2 Wozu virtuelle Realität? – 881 55.3 Vorteile der 3D-Visualisierung anhand der virtuellen Endoskopie: Interessant oder relevant? – 882 55.3.1 Partialvolumen – 882 55.3.2 2D- oder 3D-Bilder? – 883 55.3.3 Gefahren bei der 3D-Rekonstruktion
– 884
55.4 Zusammenfassung – 885
Die in den letzten Jahren stets besser werdende Ortsauflösung der Schnittbildverfahren erlaubt eine immer detailgetreuere Darstellung der Organe des Körperinneren. Besonders die Mehrzeilen-Computertomographie ( Kap. 18) eröffnet im Hinblick auf die deutlich erhöhte Ortsauflösung und die erheblich verkürzten Untersuchungszeiten neue Möglichkeiten in der Diagnostik. Die verbesserte Visualisierung führt zu einer wesentlich höheren Authentizität aller untersuchten Körperteile. Die mit der MehrzeilenComputertomographie oder auch Mehrdetektor-Computertomographie (MDCT) verbundene hohe Ortsauflösung ist mit einem beachtlichen Zuwachs der zu beurteilenden Datenmenge verbunden. Das bisherige Verfahren der Befundung anhand axialer Schnittbilder stößt an Grenzen der menschlichen Machbarkeit. Axiale Schichtzahlen von weit über 1200 Schichten sind mit den aktuellen CT–Geräten (mit bis zu 320 Detektorzeilen, Stand 2009) keine Seltenheit mehr. Die Forderung nach alternativen dreidimensionalen Visualisierungsverfahren steigt mit zunehmender Zahl der zu befundenden zweidimensionalen axialen Bilder. Für bestimmte Organgruppen, wie z. B. den Darm, wird die 3DVisualisierung mehr und mehr zum Standardverfahren für die diagnostische Beurteilung. Dies gilt insbesondere für Organhohlkörper, deren Begrenzungen (zum Hohlraum) sich durch einen deutlichen Sprung in der physikalischen Dichte auszeichnen, wie z. B. in der Bronchoskopie und Koloskopie, aber auch in der CT-Angiographie (CTA). Das Problem, das aus der 3D-Visualisierung häufig erwächst, ist, dass die Beurteilung des Wahrheitsgehaltes von 3D-Oberflächen für den Betrachter kaum beurteilbar ist. Die Realität wird nur bedingt reproduziert. Hierin liegt die größte Gefahr von 3D-Flächen, die ALLES oder besser VIELES und in anderen Fällen NICHTS oder besser
WENIGES reproduzieren können. Bei einer rekonstruierten 3D-Oberfläche wurde bereits eine Entscheidung getroffen, welcher (An)Teil des Datensatzes zur Visualisierung Berücksichtigung findet. Eine Korrektur ist anhand der ausschließlich zugrunde gelegten 3D-Oberfläche nur bedingt möglich.
55.1
Was ist virtuelle Realität?
Das Abbild der Realität wird durch einen die Realität verkörpernden physikalischen Messwert oder Messwertbereich, wie z. B. der physikalischen Dichte oder Dichtebereich, repräsentiert. Der eigentliche reale Gegenstand wird nicht durch seine Vielfalt und unterschiedlichsten Erscheinungsformen, sondern nur durch eine physikalische Messgröße oder allenfalls einen Messgrößenbereich repräsentiert. Im Falle der Computertomographie (CT) erfolgt dies durch die räumliche (digitalisierte) Verteilung der physikalischen Dichtewerte. Abhängig von der medizinischen Fragestellung ändert sich die relevante zu visualisierende physikalische Messgröße. Anhand dieser digitalisierten Dichteverteilung kann die Realität des untersuchten Körpers teilweise verblüffend realistisch und in dreidimensionaler Weise nachempfunden werden. Dies nennt man die »Virtuelle Realität« ( Kap. 52 »Virtuelle Realität in der Medizin«).
55.2
Wozu virtuelle Realität?
Die Chancen der virtuellen Realität sind bereits in der Einleitung angeklungen. Statt, wie im Falle der CT, eine
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _55, © Springer-Verlag Berlin Heidelberg 2011
882
V
Kapitel 55 · 3D-Postprocessing für die virtuelle Endoskopie
sehr hohe Zahl von axialen Einzelbildern betrachten zu müssen, kann eine mehr intuitive Beurteilung von dreidimensionalen Oberflächen/Objekten, die aus den axialen Schichten berechnet wurden, erfolgen. Auch die Risiken der virtuellen Realität wurden bereits kurz angedeutet: Eine 3D-Oberfläche stellt immer nur einen Teil des Datensatzes dar – hoffentlich den »richtigen« oder, besser gesagt, den für die aktuelle Fragestellung relevanten Teil des Datensatzes! Auf der anderen Seite liegt hierin auch eine Chance, nämlich die Möglichkeit, aus den gesamten Daten nur den relevanten Anteil zu visualisieren – wenn auch an dieser Stelle offen bleiben muss, wie der Begriff der »Relevanz« mit Hilfe von Algorithmen implementiert werden kann. Aus dieser kurzen Darstellung wird deutlich, dass die Methoden der virtuellen Realität sowohl Chancen als auch Risiken enthalten können. Dies macht auch eine grundsätzliche allgemeine Empfehlung schwierig.
55.3
Vorteile der 3D-Visualisierung anhand der virtuellen Endoskopie: Interessant oder relevant?
Im Folgenden werden die wesentlichen Vorteile von virtuell endoskopischen Verfahren dargelegt: ▬ Deutlich verbesserte räumliche Darstellung und Verständnis des betrachteten Organs. ▬ 3D-Oberflächen erlauben die Visualisierung eines wesentlich größeren dynamischen Bereiches des vorliegenden Datensatzes, als eine 2D-Betrachtung der betreffenden 2D-Schichten in radiologischen Standardeinstellungen für Kontrast und Helligkeit (»Fensterung«) es erlauben würde. Das bedeutet: Die Kontrastauflösung von 3D-Oberflächen ist um ein Mehrfaches höher als die »Kontrast-eingeschränkten« 2D-Bilder. Im Zusammenhang mit dem Begriff
⊡ Abb. 55.1. Intraluminale virtuelle Darstellung des Darms. Bei einem Fly-Through bewegt sich jedes Detail in der Größe von einem Voxel mehrere Sekunden auf den Betrachter zu – d. h. wesentlich länger als bei ausschließlicher 2D-Betrachtung
»Kontrast-eingeschränkt« steht das wohlbekannte Problem des inhärenten Partial-Volumen-Effektes der schnittbildtechnikbasierten 2D-Bilder. ▬ Deutlich längere visuelle Kontaktzeit des Beobachters mit dem Gegenstand des Objektes, z. B. mit der Schleimhaut des betreffenden Hohlorgans. Das heißt: Die Beobachtungszeit pro Flächeneinheit der betreffenden 3D-Oberfläche ist signifikant höher als für den betreffenden Bereich in den 2D-Schichten. Ein Detail der Darmschleimhaut ist z. B. in ein oder zwei einzelnen axialen Schichten zu erkennen. Mit Hilfe dreidimensionaler Verfahren wird die Beobachtungszeit für dieses Detail im Vergleich zu den zweidimensionalen axialen Schichten wesentlich verlängert. ▬ Systematische Untersuchung des betrachteten Hohlorgans, wie z. B. des Darms, der Bronchien oder auch der Gefäße. Beispiel: Bewegt man sich durch den Darm, so bewegen sich selbst die kleinsten Strukturen des in ⊡ Abb. 55.1 gezeigten intraluminalen virtuellen Blicks mehrere Sekunden auf den Beobachter zu – d. h. wesentlich länger, als wenn man nur die betreffenden 2D-Schichten separat betrachten würde. Somit nimmt für den Arzt die Betrachtungszeit pro Flächeneinheit der Schleimhaut mit Hilfe von 3D-Oberflächen in der virtuellen Endoskopie beträchtlich zu. Erkennungsraten von pathologischen Befunden in radiologischen Bildern hängen signifikant von der Beobachtungszeit ab.
55.3.1 Partialvolumen
Einer der Hauptvorteile von 3D-Oberflächen im Vergleich zu 2D-Oberflächen liegt in der Option, diese nahezu partialvolumenfrei darzustellen. Im Abschn. 55.3.2 wird hierauf näher eingegangen. Der Begriff »Partialvolumen«
883 55.3 · Vorteile der 3D-Visualisierung anhand der virtuellen Endoskopie: Interessant oder Relevant?
bedeutet, dass sich ein abgebildetes Organ innerhalb einer endlich dicken 2D-(CT- oder MRT-) Schicht nur zu einem Teil in dieser Schichtdicke befindet. Der dargestellte, aktuell vorhandene Dichtewert berechnet sich also nicht nur aus dem Dichtewert des betreffenden Organs, sondern aus weiteren Dichtewerten anderer Organe, die ebenfalls in die betrachtete Schicht fallen: Ein bestimmtes Organ befindet sich – zusammen mit anderen Organen – also nur partiell in dem betrachteten Schichtvolumen. Der Dichtewert eines Voxels (dreidimensionaler Pixel) in einer CT-Schicht (Grauwert) ergibt sich deshalb als Mittelwert der Dichtewerte entlang des betrachteten Voxels. Deshalb ist ein anderes Wort für Partialvolumen »Kontrast-Minderung«. Die Option einer nahezu partialvolumenfreien, also hochkontrastreichen Darstellung von 3D-Oberflächen ist einer der größten und wichtigsten Vorteile der 3D-Visusalisierung.
a
55.3.2 2D- oder 3D-Bilder?
Je dicker eine Schicht ist, desto höher ist der Partialvolumenanteil dieser Schicht, und desto geringer ist auch der Kontrast der betreffenden 2D-Schicht. 2D-Bilder sind jedoch immer inhärent partialvolumenbehaftet. 3DOberflächen können grundsätzlich mit einem geringeren Partialvolumen dargestellt werden als die entsprechenden 2D-Bilder (⊡ Abb. 55.2a). Der damit verbundene höhere Kontrast liefert eine entsprechend höhere Nachweisempfindlichkeit kleiner Strukturen, z. B. flacher Adenome. Auch die in ⊡ Abb. 55.2 im intraluminalen Bild dargestellte »rauhe Darmschleimhaut« ist ein Ausdruck des sehr hohen Kontrastes im Verbund mit einer hohen Ortsauflösung – dies entspricht dem Rauschen im CT-Datensatz. Die Vorteile von 3D-Oberflächen (nahezu partialvolumenfreie Darstellung) werden sehr häufig dadurch zunichte gemacht, dass versucht wird zu suggerieren, es handele sich bei dem betreffenden visualisierten Organ um den (realen) endoskopischen Blick auf die Schleimhaut. Dies ist i. d. R. nur dadurch möglich, dass entweder die 3D-Organoberflächen geglättet werden oder aber die zugrunde liegende Visualisierungsmethode eine glättende Wirkung hat (schlecht angewandtes Volume Rendering) oder beides der Fall ist. Im Falle der Computertomographie handelt es sich z. B. bei der Visualisierung der Darmschleimhaut nicht um den Darm, sondern um das CT des Darms! Das bedeutet – und dies ist zugleich ein einfaches Mittel, die Qualität der Oberflächenrekonstruktion zu prüfen – dass nicht nur alle Artefakte, die das CT erstellt, auch auf der Darmschleimhaut visualisiert werden müssen, sondern wesentlich deutlicher auf der 3D-Oberfläche zu sehen ist als in den 2D-Bildern: Rauschen, Aufhärtungsartefakte, PitchArtefakte und Kantenphänomene. Sind derartige Artefakte (⊡ Abb. 55.2) nicht zu erkennen, sollte man die betreffende virtuelle Schleimhautoberfläche sehr kritisch und mit
b ⊡ Abb. 55.2a,b. a 3D-Bild mit kleinem Bildartefakt intraluminal (zentral des Kreises im unteren rechten Bild). Die entsprechende Koordinate in den partialvolumenbehafteten 2D-Bildern (zentral des Kreises in der oberen Bildreihe). (Im Bild links unten wird der Darm intraluminal halb aufgeschnitten dargestellt – »splitted Colon«), b Dieselbe Position wie in a, jedoch mit deutlicher Erhöhung des Kontrastes in den 2D-Bildern. Der ein Voxel große Bildartefakt in der intraluminalen Darstellung (unten rechts) ist jetzt als kleiner Artefakt in den 2D-Bildern zu erkennen
Vorsicht betrachten. Auf diese Weise ist es z. B. möglich, dass auf der 3D-Darmschleimhaut die Instabilitäten einer defekten Röntgenröhre, die Pitch-Artefakte bei zu hohem Pitch oder bei Memory-Defekten in der Gantry nicht sichtbar werden (⊡ Abb. 55.3, 4-Farbteil am Buchende), obwohl diese im Originaldatensatz enthalten sind. Alle Artefakte können durchaus in der Größenordnung von pathologischen Veränderungen liegen. Der Versuch, durch Glättungsalgorithmen wie z. B. durch Glättung über nächste (Voxel-)Nachbarn oder
55
884
Kapitel 55 · 3D-Postprocessing für die virtuelle Endoskopie
⊡ Abb. 55.4. Glättung über nächste Nachbarn im Falle der virtuellen Koloskopie
⊡ Abb. 55.7. Lichtabsorption (links), um den Blick des Betrachters auf die kameranahen Schleimhautanteile zu fokussieren
55.3.3 Gefahren bei der 3D-Rekonstruktion
V
⊡ Abb. 55.5. Durch nichtoptimale Wahl der Transfer-Funktion beim Volume Rendering (Ray-Casting) nimmt das Rauschen auf Kosten der Detailinformation ab: Divertikel verschwinden im rechten Rechteck, und die Austarierung erscheint auf der rechten Seite weniger ausgeprägt
⊡ Abb. 55.6. Eine nichtoptimale Anwendung des »Diffuse Lighting« kann einen erheblichen Einfluss auf die Kontrastauflösung der betreffenden 3D-Oberfläche nehmen
durch eine falsch angewandte Form des Volume Rendering derart »schöne« Bilder zu erzeugen, dass suggeriert wird, es handele sich bei den intraluminalen Visualisierungen um das real endoskopische Bild des Darms, ist ein falscher Ansatz, denn: > Die virtuelle Realität darf nicht durch Manipulationen geschönt werden, da sie in diesem Falle mit der »Realität« nichts mehr zu tun hat. Für diesen Fall reduziert sich die 3D-Visualisierung fast auf ein Computerspiel!
In der ⊡ Abb. 55.4 wird ein Fall dargestellt, wie sich Strukturen verändern können, wenn man nur geringfügig ein einfaches Glättungsverfahren anwendet (Glättung über nächste Nachbarn). Die Oberflächen erscheinen zwar »physiologisch glatter«, jedoch um den Preis des Verlustes der Authentizität. Die Aufgabe der Visualisierung darf nicht sein, die Daten des Darms so zu verändern bzw. zu manipulieren, dass die erzeugten Bilder einem »realen« Darm zum Verwechseln ähnlich sehen, sondern die Daten so zu visualisieren, wie diese akquiriert wurden, also so, wie die Daten vorliegen. Nur so können Artefakte von Nicht-Artefakten unterschieden werden, und nur so kann man sicher sein, dass nicht auf Kosten einer falschen Ästhetik die Diagnose verfälscht wird. ⊡ Abb. 55.5 zeigt ein weiteres Beispiel, wie Entrauschung Einfluss auf die Visualisierung nehmen kann – in diesem Falle nicht durch Glätten über nächste Nachbarn, sondern durch einen zu flachen Verlauf der TransferFunktion. In der ⊡ Abb. 55.6 ist ein Beispiel gegeben, welchen Einfluss ein falsches Diffuse Lighting nach sich ziehen kann. Dies geht mit dem Verlust von Kontrast und damit dem Verlust von Details einher. ⊡ Abb. 55.7 zeigt, welche Optionen und Vorteile virtuelle Realität auch haben kann. Auf der rechten Seite ist es möglich, sehr weit in den Darm zu sehen. Meistens wird versucht, einen möglichst ungestörten Weitblick zu erhalten, sodass man dazu neigt, sich auf eine Region der Schleimhaut zu konzentrieren, die für die aktuelle Befundung von geringerer Bedeutung ist. Gegenstand der Befundung sind die Schleimhautanteile, die der (virtuellen) Kamera am nächsten sind. Das »Abschweifen« des Blickes in die Ferne kann man sehr einfach durch die Berechnung einer Lichtabsorption verhindern (⊡ Abb. 55.7 links). Ein interessanter Ausblick ist, dass die 3D-Oberflächen nicht nur einen einzigen Grauwert oder Grauwertbereich darstellen können, sondern dass man die Einfärbung der 3DOberfläche noch zur weiteren Informationsvermittlung nutzen kann. So kann man bei der virtuellen Endoskopie einen wanddickenassoziierten Farbwert angeben, indem
885 55.4 · Zusammenfassung
man an jeder Stelle der Darmoberfläche senkrecht in die pathologische Darmwanddicke den Dichtewert des CTs bestimmt und farbkodiert an die Oberfläche des Darms zurückprojiziert. Auf diese Art findet man relative Wandverdickungen und die sehr schwer zu detektierenden »flachen Läsionen« sowie einen Durchblutungsstatus der Hohlraumoberflächenschleimhaut. Ein Beispiel eines flachen Adenoms wird in der ⊡ Abb. 55.8 ( 4-Farbteil am Buchende) gezeigt. Die bisher besprochenen Themen, insbesondere technisch höchstmögliche Orts- und Kontrastauflösung, sind nicht nur auf endoluminale, sondern natürlich auf alle 3DOberflächen-Berechnungen anzuwenden, so z. B. auch auf die extraluminale 3D-Darstellung von Organ-Oberflächen, wie z. B. der Gefäßdarstellung, also der Angiographie. Die authentische Darstellung der Oberfläche ist von besonderem Interesse, weil bei der CT-Angiographie auch kleinste Kaliberschwankungen von medizinischer Relevanz sein können (⊡ Abb. 55.9 und 55.10, 4-Farbteil am Buchende).
55.4
Zusammenfassung
Die Beurteilung von 3D-Oberflächen, wie der virtuellen Endoskopie und der Angiographie, kann mit Hilfe neuester Mehrdetektoren-Computertomographen und leistungsfähiger Post-Processing-Software Hohlkörper sehr schnell und mit höherer Genauigkeit untersuchen, als dies die herkömmlichen partialvolumenbehafteten 2D-Bilder schaffen. Die Manipulation von 3D-Oberflächen zur »schöneren« Darstellung der Darmschleimhaut wird dem Begriff der virtuellen Realität nicht gerecht. Wenn überhaupt, dann handelt es sich um eine virtuelle manipulierte Realität, die nicht in die radiologische Routine gehört. Die mangelnde Bereitschaft zur authentischen 3D-Visualisierung führt bei Radiologen nicht selten zu der Aussage, dass 3D-Oberflächen nur zur Beeindruckung des Patienten oder klinischen Partner gut sind. 3D-Visualisierung kann Spielerei sind, muss es aber nicht sein. Den bei der Visualisierung zugrunde liegenden Algorithmen kommt eine besondere Bedeutung zu, insbesondere im Hinblick auf die Nachweisbarkeit kleiner Läsionen. Zum weiterführenden und vertiefenden Studium empfehlen wir die Literatur von K.-H. Höhne, und zur praktischen Erfahrungsgewinnung das Visualization Took Kit, zu finden unter http://public.kitware.com/VTK. Die hier wiedergegebenen Bilder entstammen der 3D-Software der Fa. Rendoscopy AG (www.rendoscopy.de).
55
56 Operationstischsysteme B. Kulik
56.1
Kurzer Abriss der technologischen Entwicklung der OP-Tischsysteme – 890
56.3.3 Patientenlagerung bei der Anwendung von monopolaren HF-Chirurgiegeräten – 896
56.2
Technik der Operationstischsysteme – 891
56.4
Wichtige sicherheitstechnische Vorschriften für OP-Tischsysteme – 897
56.2.1 56.2.2 56.2.3 56.2.4
Aufbau eines OP-Tischsystems – 891 Systematik – 892 Ausbaustufen – 892 Mobilität und Flexibilität von OP-Tischsystemen – 892
56.5
Aufbereitung: Pflege, Wartung und Hygiene – 897
56.3
Patientenlagerung und Vermeidung von Lagerungsschäden – 894
56.3.1 Dekubitusschaden – 894 56.3.2 Weitergehende Lagerungsschäden und rechtliche Verantwortung – 896
Das zentrale Element eines jeden Operationssaals bildet unbestreitbar der OP-Tisch. Überall dort, wo operative Eingriffe vorgenommen werden, sind OP-Tische unentbehrlich. Dementsprechend breit ist deren Palette, die vom einfachen mobilen OP-Tisch bis hin zu OPTischsystemen mit diversen Spezial-OP-Lagerflächen reicht. Einfache Ausführungen des OP-Tischs werden meist in Krankenhäusern mit kleineren Operationsabteilungen eingesetzt sowie in größeren Kliniken mit ausgegliederten Operationsräumen wie bspw. Ambulanz-OP-Eingriffsräumen. Des Weiteren werden sie häufig in der ambulanten Chirurgie (sog. Tageskliniken bzw. ambulanten Operationszentren) eingesetzt. Im Verhältnis zum kompletten OP-Tischsystem ist die Funktionalität auf die speziel-
56.5.1 Manuelle Reinigung und Desinfektion – 897 56.5.2 Automatische OP-Tischsystemreinigung und -hygiene – 897 56.5.3 Wartung – 898
56.6
Der Hybrid-OP – 898
56.7
Planerische Hinweise – 899 Weiterführende Literatur – 899
len Anforderungen abgestimmt, wie bspw. in der HNO, Dermatologie, Gynäkologie oder Ophtalmologie. Diese OP-Tische sind durch verschiedene Zusatzteile auf- und umrüstbar und je nach Ausführung manuell oder elektromotorisch verstellbar. Die modernen OP-Tischsysteme zeichnen sich dadurch aus, dass sie durch ihre eingriffsbezogenen Lagerflächen zum einen den speziellen Anforderungen der einzelnen chirurgischen Disziplinen in Bezug auf optimale Lagerung des Patienten und bestmöglichen Zugang zum Operationsfeld gerecht werden und insofern durchaus mitentscheidend für den Erfolg des chirurgischen Eingriffs sind, zum anderen aber auch den technischen Anforderungen an Röntgentauglichkeit, Stabilität und Hygiene entsprechen (⊡ Abb. 56.1).
⊡ Abb. 56.1. OP-Tischsystem als zentrales Element des OP-Saals
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _56, © Springer-Verlag Berlin Heidelberg 2011
890
Kapitel 56 · Operationstischsysteme
56.1
VI
Kurzer Abriss der technologischen Entwicklung der OP-Tischsysteme
Noch vor 150 Jahren, als Asepsis noch keinen Diskussionspunkt darstellte, wurden Operationen üblicherweise im Bett des Patienten vorgenommen. Aufgrund der niedrigen Betthöhe ging der Chirurg dazu über, den zu operierenden Patienten auf einen höheren Tisch zu lagern, um zum einen besseren Zugang zum Operationsfeld zu erhalten und zum anderen sich selbst eine ergonomischere Arbeitshaltung zu ermöglichen. Die Entwicklung von OP-Tischen erfolgte im Gleichschritt mit der Entwicklung der Chirurgie. Sie erfolgte quasi parallel zum ständig erweiterten Wissen und Können der Chirurgen und wurde im Laufe der Zeit maßgeblich von der Spezialisierung der einzelnen chirurgischen Disziplinen geprägt. Die medizinische Weiterentwicklung stellte Anforderungen an einen verbesserten Zugang zum Operationsfeld und damit an eine verbesserte Lagerung des Patienten. So entstanden »OP-Möbel«, deren Lagerfläche unterteilt war in Kopf-, Rücken-, Sitzteil und Beinplatte. Die Verfeinerung der Operationstechniken machte es erforderlich, bestimmte Körperstellen aufzuwölben (Wundschnitte), zwecks besserem Zugang ins Körperinnere, um sie dann zum Wundverschluss wieder in Flachlage zu bringen. Aus der allgemeinen Chirurgie haben sich in den vergangenen 60 Jahren die einzelnen chirurgischen Disziplinen entwickelt. Die Folge der Spezialisierung der Chirurgie wiederum war die Entwicklung von Spezial-OPTischen, die sich in Bezug auf Lagerflächenunterteilung und Anordnung von Bedienelementen unterschieden. Bei Kopfoperationen bspw. durften in diesem Bereich des OP-Tischs keine Bedienelemente angebracht sein, da sie vom unsterilen Personal während der Operation nicht betätigt werden durften; dies hätte die Verletzung der Sterilität bedeutet. In der Folge wurden spezielle OP-Tische für Kopfoperationen entwickelt. Die Entwicklung von OP-Tischen mit immer komplexeren Verstellmöglichkeiten der OP-Lagerflächen für andere Spezialdisziplinen der Chirurgie erfolgte analog (⊡ Abb. 56.2). Ein weiterer wesentlicher Einflussfaktor auf die OP-Tischentwicklung waren die technischen Errungenschaften bei der intraoperativen Bildgebung. Der mobile Röntgenbildverstärker ist aus dem OP nicht mehr wegzudenken. Weitere Bildgebungsverfahren wie CT und MR sollten in ihrer Anwendung mit OP-Tischen kombiniert werden, was dazu führte, dass außer Stahl nunmehr auch andere Werkstoffe wie z. B. Kohlefaser-verstärkter Kunststoff, der artefaktarm durchleuchtbar ist, eingesetzt wurde. Da von Operateuren also immer speziellere, auf die jeweilige Operation zugeschnittenen OP-Tische benötigt wurden, erstreckte sich die Weiterentwicklung der mo-
a
b ⊡ Abb. 56.2. Vom Operations- und Untersuchungstisch zum modernen OP-Tischsystem. a Operations- und Untersuchungstisch um 1840, b modernes OP-Tischsystem
bilen OP-Tische nicht nur auf die Unterteilung der OPLagerungsfläche, sondern auch auf die Tischsäule bzw. deren Trennung von der OP-Lagerfläche, was weitere Vorteile und Erleichterungen mit sich brachte. Die Vorgängermodelle der heutigen modernen OPTischsysteme hatten zwar eine auf Rollen fahrbare Tischsäule, sodass der OP-Tisch mobil und nicht ortsgebunden war, die Lagerfläche war aber fest mit der Säule verbunden. Dies hatte den Nachteil, dass das kompakte Gerät von einer Person nur sehr schwer zu bewegen war, was wiederum die Mobilität einschränkte. In der Folge wurden Säule und Lagerfläche getrennt. Moderne OP-Tischsysteme gibt es in stationärer, d. h. ortsgebundener und mobiler Ausführung. Bei der stationären Ausführung ist die Tischsäule fest im Fußboden verankert, die Elektroinstallation verläuft unsichtbar im Boden. Die OP-Lagerfläche ist abnehmbar und wird durch einen Transporter (synonym: Lafette) über die Tischsäule geschoben, von dieser übernommen, sodass der Transporter wieder entfernt werden kann. Da die
891 56.2 · Technik der Operationstischsysteme
Tischsäule mit dem Boden fest verschraubt ist, kann hier auf die ausladende Geometrie eines mobilen OP-Tischfußes verzichtet werden. Den Operateuren wird somit mehr Beinfreiheit ermöglicht. Ein weiterer Vorteil ist, dass zusätzlich notwendige medizintechnische Geräte wie bspw. ein fahrbarer Bildverstärker bzw. C-Bogen problemlos an das Operationsfeld herangeführt und positioniert werden kann. Bei einem mobilen OP-Tischsystem hingegen liegt der wesentliche Vorteil darin, dass dieses System mit einem Transporter frei im Operationssaal bzw. der OP-Abteilung bewegt werden kann. Hier entfällt die Installation, da wiederaufladbare Akkus die notwendige elektrische Energie liefern, deren Kapazität ausreicht, um im normalen OP-Betrieb etwa 100 Operationen mit diesem Operationstischsystem durchzuführen. Die OP-Tische bzw. -Tischsysteme werden mit einem Handbediengerät entweder kabellos über Infrarotsignale oder kabelgebunden angesteuert. Die motorisch verstellbaren Funktionen können somit aus der Distanz aktiviert werden, ohne dabei das sterile OP-Umfeld zu beeinträchtigen. Einzelne Segmente der Lagerfläche, wie bspw. Beinplatten oder Kopfplatten, lassen sich abnehmen. Die Polstersegmente sind integralgeschäumt und bilden mit der eigentlichen Tragplatte eine Einheit. Sie sind leicht abnehmbar, röntgenstrahlendurchlässig und elektrisch leitfähig. Der technologische Fortschritt im Bereich der Medizintechnik hat letztendlich dazu geführt, dass hochwertige OP-Tischsysteme mit multifunktionalen Systemeigenschaften entwickelt wurden, die den heutigen hohen medizinischen, hygienischen und technischen Anforderungen gerecht werden.
56.2
Technik der Operationstischsysteme
56.2.1 Aufbau eines OP-Tischsystems
Im Einzelnen lässt sich der Aufbau eines Operationstischsystems wie folgt beschreiben (⊡ Abb. 56.3): ▬ Tischsäule. Ein OP-Tischsystem ist erhältlich mit einer stationären, d. h. mit dem Fußboden fest verbundenen und damit ortsgebundenen Säule oder mit einer mobilen und damit ortsungebundenen Säule. Beide Arten bieten gleichermaßen große Vorteile. ▬ OP-Lagerfläche. Die OP-Tischsäule kann mit vielfältigen, auswechselbaren Lagerflächen ausgestattet werden, die speziell auf die einzelnen chirurgischen Disziplinen abgestimmt sind und deren Segmente unabhängig voneinander in die gewünschte Lage zu verstellen sind. Das heißt, die OP-Lagerfläche ist mehrfach unterteilt (z. B. 4-, 5-, 6- oder 8-fach) in – Kopfteil/Fußteil, das auf- und abschwenkbar ist und sich bei Bedarf auch abnehmen lässt, – Mittelteil bzw. Rückenteil, das meist mehrfach unterteilt und in spezielle Neigungswinkel verstellbar ist, – Beinteil, das aus einem quer- und/oder längsgeteilten Beinplattenpaar bestehen kann, das automatisch verstellbar ist mit den Möglichkeiten, beide Teile gleichzeitig, einzeln bzw. unabhängig voneinander in bestimmte Richtungen zu bewegen bzw. zu spreizen. Die OP-Lagerfläche ist so ausgestattet, dass sie bei Bedarf durch Hinzufügen oder Abnehmen von einzelnen Segmenten verlängert oder verkürzt werden kann. Ferner sollte sie längsverschiebbar sein, um die Ganzkörpererfassung mit dem C-Bogen zu ermöglichen:
⊡ Abb. 56.3. Aufbau und Elemente eines modernen Operationstischsystems
56
892
VI
Kapitel 56 · Operationstischsysteme
▬ Polsterung. Kommt kein großflächiges Polster zum Einsatz, sind die Polsterplatten integralgeschäumt, wobei die »Kanten« mit großen weichen Radien ausgeführt sind, um Druckstellen zu vermeiden. Die Polsterung ist strahlendurchlässig, sodass sie sich auch zum Röntgen oder zum intraoperativen Durchleuchten eignet. Entsprechend der ISO 2882 sowie DIN EN 60601-1 (VDE 0750, Teil 1) ist sie elektrisch leitfähig. ▬ Ansteuerung. Die Ansteuerung von Tischsäule und den jeweiligen Lagerflächen erfolgt drahtlos über eine Infrarotsteuerung. Alternativ kann sie auch mit einem sog. Kabelbediengerät durchgeführt werden. In speziellen Anwendungsbereichen kann die Ansteuerung zusätzlich über einen Fußschalter erfolgen, der vom Operateur bedient wird. Weitere Ansteuerungsmöglichkeiten wären das wandgebundene Bedientableau oder ein integriertes OP-Steuerungssystem, das die wesentlichen OP-Funktionen wie z. B. Leuchten, OPTisch, Endoskopiegeräte etc. über Touchscreenmonitor oder sprachgesteuert regelt. ▬ Transporter. Mit dem leicht fahr- und manövrierbaren Transporter (Lafette) wird die OP-Lagerfläche zur (mobilen oder stationären) Tischsäulen transportiert, die die Lagerfläche für die Dauer des Eingriffs übernimmt. Des Weiteren wird über Lafetten der Transport über längere Wege sowie der Wechsel der Lagerflächen im Kreisverkehr zwischen Umbettraum, Einleitung, Operationssaal, Ausleitung und Umbettraum bewältigt. ▬ Zubehör. Zum Standardzubehör gehören u. a. Armlagerungsvorrichtungen, Seitenhalter, Infusionshalter, Beinhalter, Kopfring, Rücken- und Gesäßstützen, Seitenstütze, Hand- und Körpergurte.
56.2.2 Systematik
Aufgrund der Vielzahl und Vielfalt von OP-Tischsystemen, die für allgemeine oder spezielle Eingriffe eingesetzt werden, lassen sich diese Systeme nach ihrer Systemeigenschaft sowie nach ihrer Betriebsart einteilen (⊡ Abb. 56.4).
⊡ Abb. 56.4. Übersicht und Einteilung von OP-Tischsystemen
56.2.3 Ausbaustufen
Da alle OP-Lagerflächen so konzipiert sind, dass sie zur sog. Standardtischsäule passen, wurde hiermit sozusagen ein Grundelement geschaffen, das problemlos um- und aufgerüstet werden kann und damit – entsprechend dem Baukastenprinzip – speziellen Anforderungen gerecht wird.
56.2.4 Mobilität und Flexibilität
von OP-Tischsystemen Moderne OP-Tischsysteme zeichnen sich durch Mobilität, Flexibilität und Kompatibilität aus. Nicht nur, dass bei einer mobilen OP-Tischsäule der Standort im OP-Saal nach Bedarf gewählt werden kann, sondern auch dadurch, dass die Kompatibilität zwischen verschiedenen, preislich unterschiedlichen OP-Tischsystemen, mobil oder stationär, gegeben ist. Um Flexibilität zu gewährleisten, sind die heutigen OP-Tischsysteme so konzipiert bzw. umrüstbar, dass sie unterschiedlichen chirurgische Disziplinen lagerungstechnisch gerecht werden. Sollten sich in der Zukunft Operations- und Lagerungstechniken ändern, ist es bei einem OP-Tischsystem nur noch erforderlich, eine entsprechend modifizierte Lagerfläche zu beschaffen, die kompatibel zum Grundelement OP-Tischsäule ist. In einer OP-Abteilung, die mit mobilen Operationstischen ausgerüstet ist, wäre in einem solchen Fall ein kompletter neuer OP-Tisch anzuschaffen, was einen nicht unerheblichen Kostenfaktor darstellt. Zeiteinspaarung ist heute mehr denn je ein wesentliches Kriterium zur effizienten Nutzung eines Operationssaals. Der Einsatz eines OP-Tischsystems, d. h. einer OP-Tischsäule, zweier Transporter sowie zweier OP-Lagerungsflächen erlaubt einen sog. »Kreisverkehr«: Während im OP-Saal ein chirurgischer Eingriff beendet wird, ist es möglich, den nächsten Patienten auf der zweiten Lagerfläche aus dem Umbettraum in den Vorbereitungsraum zu bringen, um die Anästhesie einzu-
893 56.2 · Technik der Operationstischsysteme
leiten. Nach Ausleitung des letztoperierten Patienten kann nach einer Zwischenreinigung des Operationsraums der bereits narkotisierte Patient in den OP-Saal gefahren werden, wo er, auf der OP-Lagerfläche liegend und eventuell bereits vorgelagert, von der OP-Tischsäule
übernommen wird. Dieser »Kreisverkehr« bietet den Vorteil, dass der Operationsbetrieb ohne große zeitliche Verzögerung ablaufen kann, auch speziell unter den zu berücksichtigenden Einwirkzeiten bei Lokalanästhesien (⊡ Abb. 56.5).
⊡ Abb. 56.5. Mobilität und Flexibilität von OP-Tischsystemen
56
894
Kapitel 56 · Operationstischsysteme
56.3
VI
Patientenlagerung und Vermeidung von Lagerungsschäden
Mit Operationslagerungen wird die Körperlage bezeichnet, in die der Körper des Patienten gebracht wird, um dem Operateur den bestmöglichen Zugang zum Operationsgebiet zu gewährleisten. Darüber hinaus wird angestrebt, die anatomischen Strukturen des Operationsfeldes optimal darzustellen. Folgende »Standardlagerungen« (⊡ Abb. 56.6) haben sich bewährt: ▬ Rückenlage/spezielle Rückenlage, ▬ Bauchlage/Bauchfreilage, ▬ Seitenlage, ▬ Steinschnittlage, ▬ Knie- Ellenbogen- Lage, ▬ sitzende/halbsitzende Lage. Für die Narkoseeinleitung und die Operation sollte der Patient in Zusammenarbeit von Anästhesist und Chirurg sowie den OP-Pflegekräften gelagert bzw. in die optimale Operationslage gebracht werden. Zuvor ist erforderlich, dass die verantwortlichen Fachärzte aufgrund des Allgemeinzustandes des Patienten entscheiden, welchen Belastungen – bedingt durch die Lagerung auf dem OPTisch – er ausgesetzt werden kann. Zu berücksichtigen sind hierbei Alter des Patienten, Gewicht, Konstitution, der augenblickliche Gesundheitszustand im Hinblick auf Herz, Lunge, Kreislauf, Stoffwechsel, Nervensystem, Muskulatur, Hautgewebevorbelastungen, die u. a. herrühren von Stoffwechselstörungen, Fettleibigkeit, rheumatischer Arthritis, Herz- und Gefäßschwächen oder Durchblutungsstörungen. Die genannten Faktoren beeinflussen in erheblichem Maße die Belastbarkeit des Patienten und müssen bei der Lagerung unbedingt berücksichtigt werden, da jede Form der Lagerung für den Patienten eine zusätzliche Belastung darstellt. Hinzu kommt, dass Narkosemittel und Muskelrelaxanzien die Belastung insofern noch verstärken, als sie insbesondere auf Atmung, Blutzufuhr und Nerven Einfluss nehmen. Während der Narkose ist das Schmerzempfinden ausgeschaltet, sodass der Patient weder Schmerzen durch Druck oder Zerrung empfindet noch aufgrund von unterbrochenen Schutzreflexen und abgebautem Muskeltonus reagieren kann. Das bedeutet: Der Patient kann schon zu Schaden kommen, bevor der eigentliche chirurgische Eingriff vorgenommen wird. Es ist bereits bei einfachen Lageveränderungen während der Operation erhöhte Vorsicht geboten. Die Intubationsnarkose wird beim Patienten in normaler Rückenlage eingeleitet. Erst nachdem das tiefe Narkosestadium mit entspannter Muskulatur erreicht ist, erfolgt die eigentliche Operationslagerung unter Berücksichtung patientenspezifischer Merkmale (s. oben).
Zu beachten ist, dass der für die Narkose und Infusion vorgesehene Arm des Patienten in seiner gesamten Länge und eben auf der gut gepolsterten Armlagerungsvorrichtung aufliegt; notfalls muss die Armlagerungsvorrichtung mit einer gepolsterten Cramer-Schiene verlängert werden. Bei falscher Lagerung kann es trotz weichem OPTischpolster bspw. zu Irritationen bzw. Lähmungen durch Schädigung oder Beeinträchtigung des N. radialis oder N. ulnaris kommen. Eine Überdehnung des Arms über den Winkel von 90° hinaus (Abduktion sowie Supination) kann eine Plexuslähmung zur Folge haben. Bei der Beinlagerung lassen sich die in sich abknickbaren Beinplatten von modernen OP-Tischen gut an die Beine anpassen, sodass der Auflagendruck auf eine ausreichend große Fläche verteilt wird und zudem eine möglichst optimale Operationslagerung erreicht wird. Die Verwendung von Beinhaltern dagegen (z. B. bei gynäkologischen oder urologischen Eingriffen) bergen bei unsachgemäßer Lagerung bzw. Anwendungen in erhöhtem Maß die Gefahr, Druckschäden und Zerrungen zu verursachen, u. a. durch Überstreckung der in der Narkose entspannten Beine, durch Druck falsch eingestellter (angelegter) Beinschalen sowie Anliegen der unteren Extremitäten an den Beinhalterstangen. Bei der Lagerung des Rumpfes muss mit derselben Sorgfalt vorgegangen werden. Die unveränderte Lagerung des Patienten über eine längere Zeitdauer hinweg kann zu einem weiteren Problem führen: dem Dekubitus (Wundliegen bzw. Sichdurchliegen).
56.3.1 Dekubitusschaden
Da Narkosemittel und Muskelrelaxanzien das Gewebe so entspannen können, dass der arterielle Druck schwächer ist als der äußere - vom Körpergewicht beeinflusste – Druck, kann die Blutzufuhr gestört und infolgedessen das Gewebe nur mangelhaft ernährt werden, sodass für den Patienten bei längerer Liegedauer in o. g. unveränderter Lage die Gefahr von Haut- und Gewebeschäden besteht. Ein so entstandener Dekubitus kann sich insbesondere an Körperstellen, die nur ein dünnes Hautgewebe über dem Knochen aufweisen, zur Nekrose (örtlicher Gewebstod) weiterentwickeln. Zu diesen besonders gefährdeten Körperstellen gehören: ▬ in Rückenlage: Fersen, Kreuzbein, Ellenbogen, Schulterblätter, Hinterkopf, ▬ in Bauchlage: Becken, Hüfte, Knie, Zehenspitzen, ▬ in Sitzposition: Fersen, Kreuzband, Ellenbogen, Kopf, ▬ in Seitenlage: Hüfte, Zehen, Knie. Gleichzeitig ist darauf zu achten, dass keine Hautquetschungen entstehen, die infolge von Durchblutungsmangel auch zu Nekrosen führen können. Diese Gefahr besteht insbesondere während länger dauernder Operationen.
So wurden nach Herzoperationen, in deren Verlauf der Patient hypothermiert wurde und monopolare Hochfrequenzgeräte zum Einsatz kamen, großflächige Gewebenekrosen festgestellt, die primär als Verbrennungen diagnostiziert wurden. Eingehende Prüfung der Ursache dieser als Verbrennung deklarierten Nekrose durch das Operationsteam, das technische Personal des Krankenhauses, den Technischen Überwachungsverein und den Herstellern des HF-Chirurgiegeräts ergaben keine phy-
⊡ Abb. 56.6. Schematische Darstellungen der unterschiedlichen Patientenlagerungen in Abhängigkeit vom operativen Eingriff. Aufführung der Lagerungen von links nach rechts: 1. Reihe: Universallagerfläche für Gallen-OP mit Bildverstärker, Nieren-/ Thoraxeingriff, gynäkologische Eingriffe, Struma-OP, neurochirurgische Eingriffe 2. Reihe: alternative Universallagerfläche für Gallen-OP mit integrierter Körperbrücke, Bildverstärkereinsatz für Abdomen, Becken und untere Extremitäten, für gynäkologische/urologische Eingriffe mit Beinhalterkombination 3. Reihe: Extensionslagerfläche für Schenkelhals-OP mit Bildverstärkereinsatz, Oberschenkeleingriffe in Seitenlage, Unterschenkeleingriffe mit Bildverstärkereinsatz 4. Reihe: Einfache, längsverschiebbare OP-Lagerfläche. Spezielle Lagerungen für Orthopädie, Traumatologie und Gefäßchirurgie: Lagerfläche fußwärts längsverschiebbar für Bildverstärkereinsatz im Thoraxbereich, Lagerfläche z. B. für HWS-Eingriffe 5. Reihe: Urologielagerfläche. Lagerfläche fußwärts verschiebbar für Bildverstärkerkontrolle vom Becken bis zur Niere, Lagerfläche eingerichtet für TUR-Eingriffe 6. Reihe: Kopfchirurgische OP-Lagerfläche für sitzende Position bei neurochirurgischen Eingriffen, für HNO-Eingriffe 7. Reihe: CFK-Lagerfläche. Artefaktarme Durchleuchtbarkeit 360° auf einer Länge von 1530 mm 8. Reihe: Kinderchirurgielagerfläche. Angesteckte Beinplatten für Eingriffe bei großen Kindern, abgenommene Beinplatten für Kleinkinder
56.3 · Patientenlagerung und Vermeidung von Lagerungsschäden 895
sikalisch begründete Erklärung. Erst eine differentialdiagnostische Untersuchung des Verdachts auf Drucknekrosen konnte exogene Verbrennungsursachen eindeutig ausschließen. Einen ersten Hinweis auf eine Druckschädigung gibt eine Rötung der Haut, die nicht unmittelbar nach einem Lagerungswechsel zurückgeht. Grundsätzlich ist die Dekubitusgefährdung bei einer übergewichtigen Person nicht größer als bei einer
56
896
Kapitel 56 · Operationstischsysteme
untergewichtigen. Der Unterschied besteht darin, dass bei Übergewichtigen die geschädigten Hautregionen zwar größer, die Hautschäden aber meist weniger ausgeprägt sind; während bei Untergewichtigen die geschädigten Hautregionen kleiner, die Hautschäden meist aber ausgeprägter sind.
Mögliche Ursachen für die Entstehung von Dekubitus aufgrund der OP-Lagerung
VI
Als mögliche Ursachen für das Entstehen eines Dekubitus aufgrund der OP-Lagerungen sind zu nennen: ▬ Harte und/oder durchgelegene Operationstischpolsterung. ▬ Längere Operationsdauer bei zunehmend älteren Menschen. ▬ Hohe Eigenlast besonders bei Adipositas. Andererseits aber auch bei kachektischen Patienten, bei denen Knochen der Haut aufgrund des fehlenden oder reduzierten Fettunterhautgewebes unmittelbar anliegen. Bevorzugte Körperstellen sind hier u. a. das Kreuzbein und die Fersen. ▬ Medikamentöse Beeinflussung (Anästhetika), die den Muskel- und Gefäßtonus herabsetzen. ▬ Punktuelle Belastungen, die durch notwendige Lagerungen während der Operation entstehen.
Dekubitusprophylaxe Dekubiti können durch folgende Maßnahmen vermieden werden: ▬ Kurze Operationsdauer anstreben, da erfahrungsgemäß nach spätestens 2 h mit Hautgewebeschäden zu rechnen ist. ▬ Rechtzeitiges Auswechseln von älteren und durchgelegenen OP-Tischpolstern gegen ausreichend dicke und weiche. ▬ Sorgfältige Anpassung der einzelnen Segmente der OP-Lageflächen an den Körper des Patienten. ▬ Druckentlastung durch Abpolsterungen an den prädisponierten Stellen. ▬ Vermeiden von Hautquetschungen und Faltenbildung beim Patienten, aber auch dem OP-Tischpolster beim Lagern und intraoperativen Umlagern des Patienten.
56.3.2 Weitergehende Lagerungsschäden
und rechtliche Verantwortung Eine optimierte Patientenlagerung ist die beste Dekubitusprophylaxe! Wie Analysen der Schadensfälle seitens
der Sachverständigen ergeben haben, kommen bei vielen angemeldeten Schadensfällen Operationslagerungsschäden dennoch regelmäßig vor, die für die Patienten und für die Nachsorge (Folgekosten) ein ernstes Problem darstellen.
Durch eine unsachgemäße und inkorrekte Lagerung des Patienten auf dem Operationstisch kann es von temporären Beeinträchtigungen bis zu irreversiblen schwerwiegenden Schäden kommen. Betroffen sind in erster Linie ▬ Nerven, die traumatisiert werden (hier insbesondere der Plexus brachialis), ▬ Augen, ▬ Haut, ▬ Muskulatur, ▬ Sehnen und Bänder. Zur Klärung der Frage der rechtlichen Verantwortung für entstandene Lagerungsschäden haben der Berufsverband Deutscher Anästhesisten und der Berufsverband der Deutschen Chirurgen zwei richtungsweisende Regelungen erstellt: Die »Vereinbarung über die Zusammenarbeit bei der operativen Patientenversorgung« sowie die Vereinbarung »Verantwortung für die prä-, intra-, und postoperative Lagerung des Patienten«. Sie besagen, dass die Lagerung des Patienten auf dem OP-Tisch zwar vor der Operation Aufgabe des Anästhesisten ist und während der Operation die des Operateurs (wohlgemerkt unter Berücksichtigung des anästhesiologischen Risikos). Doch grundsätzlich bildet sie die gemeinsame Aufgabe des Chirurgen und Anästhesisten. Für den Chirurgen bedeutet dies, dass er die ärztliche und rechtliche Verantwortung dafür trägt, dass eine eventuelle Risikoerhöhung im anästhesiologischen Bereich, die aus einer veränderten (gewünschten) Lagerung resultiert, sachlich gerechtfertig ist. Dem Anästhesisten obliegt die rechtliche Verantwortung dafür, im Rahmen seines intraoperativen Aufgabenbereichs den spezifischen Risiken Rechnung zu tragen bzw. durch besondere Vorsichtsmaßnahmen entgegenzuwirken, die aus der Lagerung entstehen. Im Zusammenhang mit der Lagerung des Patienten bei Operationen, bei denen monopolare Hochfrequenzchirurgiegeräte zum Einsatz kommen, ist auf den wichtigen Punkt der Verbrennungsgefahr hinzuweisen.
56.3.3 Patientenlagerung bei der Anwendung
von monopolaren HF-Chirurgiegeräten Das HF-Chirurgiegerät ( Kap. 32) wird eingesetzt, um gezielt Gewebe durch thermische Energie zu trennen und gleichzeitig zu koagulieren. Hierzu sind monopolare HF-Chirurgiegeräte mit einer aktiven und einer passiven Elektrode versehen. An der aktiven Elektrode, der sog. Schneide- oder Koagulationselektrode, tritt aufgrund ihrer Anwendungsformgebung eine hohe Stromdichte auf, im Gegensatz zur großflächigen, passiven Elektrode (Neutralelektrode), die den Strom ableiten soll und daher eine niedrige Stromdichte aufweist. Ursächlich für Komplikationen bei der Anwendung der monopolaren HF-Chirurgie ist zum einen die nicht
897 56.5 · Aufbereitung: Pflege, Wartung und Hygiene
sachgerechte, erdschlussfreie Lagerung des Patienten und zum anderen die fehlerhafte Applikation der Neutralelektrode. Um lokale Verbrennungen, verursacht durch HF-Chirurgiegeräte, zu vermeiden, muss der Patient vollkommen isoliert vom OP-Tisch und seinen Zubehörteilen gelagert werden sowie durch die sachgerechte Anbringung der Neutralelektrode gesichert sein. Das heißt: ▬ Der Patient ist so zu lagern, dass er mit keinen elektrisch leitfähigen Teilen wie Metallteile des OP-Tisches, Halterung, feuchte Tücher etc. in Berührung kommt (auf Extremitäten ist besonders zu achten). Zwischen Patient, OP-Tisch und Halterung muss eine elektrisch isolierende, trockene, dicke Unterlage gelegt werden, die während der Anwendung der HF-Chirurgie nicht nass werden darf (u. a. durch Blut, Spülflüssigkeiten). Da zwischen Patient und Tischpolster trockene und nichtleitfähige Tücher gelegt werden müssen, ist zur Vermeidung elektrostatischer Aufladung für die Polster eine Mindestleitfähigkeit vorgeschrieben. Wäre diese nicht gegeben, könnten Entladungsfunken (aufgrund der Reibungselektrizität) mit einer gefährlichen Zündenergie für brennbare Narkosegase oder Alkoholdämpfe entstehen. ▬ Die neutrale Elektrode ist ganzflächig gut am Körper des Patienten zu applizieren (bevorzugte Applikationspunkte sind die oberen und unteren Extremitäten), sodass sie sich auch dann nicht lösen kann, wenn sich der Patient bewegt oder bewegt wird. Hierdurch wird ein zu hoher Übergangswiderstand vermieden, der den Stromrückfluss über die Neutralelektrode stört.
56.4
Wichtige sicherheitstechnische Vorschriften für OP-Tischsysteme
Nach DIN EN 60601-1 (VDE 0750, Teil 1) ist es aus Gründen des Explosionsschutzes notwendig, dass ▬ das Operationstischsystem an den Potentialausgleichsleiter angeschlossen ist (Ausnahme: Stationäre OP-Tischsysteme, die der Schutzklasse 1 entsprechen, brauchen nicht separat an den Potentialausgleich angeschlossen werden, da deren Schutzleiter (PE) diese Funktion übernimmt) und ▬ die Operationstischauflage elektrisch leitfähig ist, damit Reibungselektrizität ohne Funkenbildung über das geerdete Operationstischsystem abfließen kann. Ohne eine leitfähige Operationstischunterlage kann es zu sog. Büschelentladungen kommen. Diese können ein eventuell vorhandenes Luft-Gas-Gemisch entzünden. Es dürfen nur Materialien aus Gummi oder Kunststoffe mit einem Oberflächenwiderstand zwischen 5×104 und 106 Ohm als Abdeckung der Operationstischlagerfläche verwendet werden. Auf das geerdete Operationstischsystem kommt zunächst die ableitfähige Operationstischauf-
lage. Darauf wird eine isolierende, starke und reißfeste Unterlage angebracht. Auf diese Tischpolsterung kommt weiterhin eine saugfähige Patientenunterlage. Nach VDE 0100-710 können Operationstischsysteme über eine FI-Schutzschaltung betrieben werden anstatt über ein IT-Netz (alter Begriff für Schutzleitersystem). OP-Tischsysteme sind der Klasse 1 gemäß Medizinproduktegesetz (MPG) zugeordnet.
56.5
Aufbereitung: Pflege, Wartung und Hygiene
56.5.1 Manuelle Reinigung und Desinfektion
Nach jeder Operation müssen speziell die OP-Lagerflächen sowie die benutzten Transporter des OP-Tischsystems neu aufbereitet, d. h. sorgfältig gereinigt und desinfiziert werden. Die Reinigung und Desinfektion wird insbesondere in kleineren Krankenhäusern vielfach vom Hilfspersonal im Operationsbereich, gegebenenfalls auch vom Pflegepersonal, manuell durchgeführt. In Anbetracht der vielfältigen Unterteilung des gesamten OP-Tischsystem und des hohen hygienische Anspruchs stellt sich eine manuelle Reinigung als nicht immer zuverlässig dar. Sie ist überdies zeit- und personalaufwändig. Den hygienischen Aspekten, Wartungsarbeiten und eventuellen Reparaturen wird bereits bei der Konstruktion insofern Rechnung getragen, als z. B. das Oberteil des OP-Tisches ebenso wie die Verkleidung von Säule und Fuß überwiegend aus glattflächigen einzelnen Bauteilen aus Chromnickelstahl, die sich problemlos entfernen lassen, bestehen, bzw. insofern, als die elektrisch leitfähigen Kugellagerrollen, durch die der mobile OP-Tisch in alle Richtungen bewegt werden kann, für Inspektion und Reinigung von oben leicht zugänglich sind. Speziell hier zeigen sich deutliche Vorteile beim OP-Tischsystem, da sich Lagerflächen und Transporter leicht und problemlos in die entsprechenden Reinigungsräume fahren lassen; eventuell anstehende Reparaturen können, ohne dass der OP-Ablauf gestört wird, ebenfalls außerhalb des OP-Traktes durchgeführt werden.
56.5.2 Automatische OP-Tischsystemreinigung
und -hygiene Eine zweite Möglichkeit bieten sog. Dekontaminationsmaschinen, die die Reinigung, Desinfektion und Trocknung von geeigneten OP-Lagerflächen, Lafetten sowie OP-Zubehör automatisiert ausführen. Diese Alternative findet bisher hauptsächlich in größeren Operationszentren Anwendung, da sie im Gegensatz zur manuellen Reinigung und Desinfektion weder personal- noch zeitintensiv ist. Ein weiterer, nicht unerheblicher Vorteil ist darin zu sehen, dass ein automatisierter Ablauf mittels Maschi-
56
898
VI
Kapitel 56 · Operationstischsysteme
ne – Einhaltung der Bedienungsanweisung vorausgesetzt – ein Maximum an Hygiene bietet. Bei der manuellen Reinigung dagegen ist das Ergebnis von der Sorgfalt des Personals, aber auch vom Zeitaufwand abhängig. In der Dekontaminationsmaschine beträgt die Zykluszeit, darunter sind die einzelnen Vorgänge wie Reinigung, Desinfektion, Zwischentrocknung, Klarspülvorgang und Endtrocknung zu verstehen, im Mittel 10 min. Hierbei muss angefügt werden, dass die Zykluszeit abhängig ist vom Grad der Verschmutzung und somit variiert. Alle während dieses Prozesses anfallenden Daten werden in einer Chargendokumentation festgehalten, um nachvollzogen werden zu können. Aus der Sicht des Pflegepersonals stellt dies nicht nur eine Erleichterung und damit eine erhebliche Verbesserung der Arbeitsbedingungen dar, sondern trägt darüber hinaus zur Optimierung sicherer Arbeitsabläufe im Operationsbereich bei.
56.5.3 Wartung
Neben der laufenden Reinigung und Desinfektion des OP-Tisches als Voraussetzung für aseptisches Arbeiten ist es aufgrund der vielfältigen elektromotorischen bzw. hydraulischen oder elektrohydraulischen Ansteuerung unerlässlich, das OP-Tischsystem regelmäßig zu warten, um Ausfallzeiten zu vermeiden und die Betriebssicherheit für Patient und OP-Personal sicherzustellen.
56.6
Der Hybrid-OP
Mit der Entwicklung minimalinvasiver, kathetergestützter Operationstechniken entstand der Bedarf an hochwertiger Bildgebung, um im OP in Echtzeit den Eingriff und
⊡ Abb. 56.7. Hybrid-OP
dessen Ergebnis verfolgen zu können. Unter anderem, um bei Komplikationen zu einem offenen Eingriff wechseln zu können, ergab sich die Forderung, diese Prozeduren vom Katheterlabor in den OP zu verlagern. Initiiert durch die endovaskulär tätigen Gefäßchirurgen entstanden 2001 die ersten Hybrid-OPs (⊡ Abb. 56.7), die eine bodenoder deckengestützte Angiographieanlage mit einem für Röntgenstrahlen durchlässigen OP-Tisch kombinierten. Weitere Kombinationen im technischen Sinne waren die Verknüpfung der Magnetresonanztomographie und der Computertomographie (Hybrid-Bildgebung) mit einem OP-Tisch, überwiegend für neurochirurgische Anwendungen. In diesem Sinne entstehen zwei Definitionen für einen Hybrid-OP: Die Kombination zweier Technologien, d. h. einem bildgebenden System mit einem OP, sowie die Kooperation von Kardiologen und interventionell tätigen Radiologen mit der Chirurgie. Eine dritte Definition des Hybrid-OPs führt nunmehr zur Kardiovaskularchirurgie, die diesen Begriff besetzt hat, im Sinne der Verschmelzung eines komplett ausgestatteten Operationssaales mit einem fachübergreifend nutzbaren Katheterlabor. Lediglich der Patiententisch des Original-Herstellers wird durch ein vollständig integriertes, synchron laufendes und für Röntgenstrahlen durchlässiges OP-Tischsystem ersetzt. Der Vorteil eines OP-Tischsystems im Hybrid-OP liegt in der Vielseitigkeit des OPs, da sowohl minimal-invasive, kardiovaskuläre Eingriffe als auch elektive chirurgische Eingriffe, bei denen eine vielfältig verstellbare, allgemeinchirurgische Lagerfläche benötigt wird, durchgeführt werden können. Dieser multidisziplinär nutzbare, vollständig integrierte Hybrid-OP ist sehr komplex hinsichtlich seiner Ausstattung und Funktion und erfordert daher sorgfältige Planung. Bereits in der Planungsphase müssen Funktionsteams, bestehend aus Ärzten, Technikern, OP-Pflegern, Anästhesisten und Verwaltungsfachleuten, gebildet wer-
899 Weiterführende Literatur
den, die mit den Abläufen vertraut und imstande sind, die Anforderungen an die Funktionen klar zu definieren, sodass der medizintechnische Fachplaner und Krankenhausarchitekt die Planung optimal durchführen kann. Eine weitere Herausforderung ist die Raumgröße. Aufgrund der Größe und Anzahl der benötigten Geräte (u. a. Röntgenanlage, OP-Tisch, Herz-Lungen-Maschine, Anästhesiegerät, Cell-Saver, Ultraschall, EKG, Kontrastmittelinjektor, HF-Chirurgiegerät, Monitoring) liegt die Größe des Raumes zwischen 60 und 90 qm. Je nach Art des Eingriffs sind gleichzeitig 15 bis 20 Personen tätig, z. B. Kardiologen, Chirurgen, Radiologen, Anästhesisten, Kardiotechniker, OP-Pfleger und Röntgentechniker. Die Etablierung des Hybrid-OPs leistet auch einen signifikanten Beitrag zur schonenden Versorgung älterer herzkranker Patienten. Mit zunehmendem Alter und bei Vorliegen von Begleiterkrankungen steigt das Operationsrisiko erheblich. Bei vielen dieser Patienten war daher beispielsweise eine erforderliche Herzklappenoperation nicht möglich. Derartige Behandlungshindernisse wurden durch den Hybrid-OP beseitigt.
56.7
Planerische Hinweise
Die Planung der Einrichtung eines Operationssaals wird wesentlich von der chirurgischen Disziplin beeinflusst, die je nach Größe des OP-Raumes auch die Wahl des Fixpunktes einer fest montierten OP-Tischsäule bestimmt. An diesem Fixpunkt unter Einschluss der einzusetzenden OP-Lagerflächen orientieren sich wiederum OP-Leuchten, Deckenstativ für die Anästhesie und Chirurgie, deckengebundene C-Bogen oder Operationsmikroskope sowie Klimadecken, Klimafelder u. a. Die Abstimmung des Umfelds um ein fest installiertes OP-Tischsystem stellt eine sinnvolle Unterstützung der wirtschaftlich effektiven und ergonomischen Nutzung des OP-Raumes dar. Dieser ökonomische Aspekt wird auch in Zukunft weiterhin an Bedeutung gewinnen.
Weiterführende Literatur Krettek C, Aschemann D (2005) Lagerungstechniken im Operationsbereich. Springer Medizin Verlag, Heidelberg Lauven PM et al. (1992) Lagerungsschäden – ein noch immer ungelöstes Problem? Anästhesiol Intensivmed Notfallmed Schmerzther 27: 391–392 von der Mosel H (1992) Medizintechnik für Pflegekräfte. Bibliomed, Melsungen Oehmig H (1994) OP-Tisch-Technik heute. Trennung von Säule und Platte. KrankenhausTechnik 7: 18–21 Roos E (1992) Sinn und Zweck der erdschlussfreien Patientenlagerung auf OP-Tischen. MTD 11: 38–40 Schindler H (1985) Arbeitsgebiet Operationssaal. Lagerungen, Hygiene, Verfahren. Enke, Stuttgart Witzer K (1991) FMT-Fachwissen Medizin-Technik, Foge 7. MTD, Amtzell DIN 57 753, Teil 1/VDE 0753, Teil I/2.83, IV: Operationstischsysteme
56
57 Biomaterialien L. Kiontke 57.1 Klassifikation von Biomaterialien – 901
57.7 Herausforderung »Verschleiß« – 909
57.2 Entwicklungsgeschichte Endoprothetik – 901
57.7.1 57.7.2 57.7.3 57.7.4 57.7.5 57.7.6 57.7.7
57.3 Physiologische und pathologische Grundlagen – 903 57.4 Mechanik und Biochemie – 904 57.5 Faktoren für die Integration von Knochenimplantaten – 904 57.5.1 Bedingungen für die Osseointegration
Tribologie – 909 Ermüdungsabrieb – 910 Adhäsiver Abrieb – 910 Abrassiver Abrieb – 911 Metallgleitpaarungen – 911 Keramikgleitpaarungen – 911 Polyethylengleitpaarungen – 912
57.8 Ausblick – 913 – 904
Literatur
57.6 Mechanische Eigenschaften von Implantaten in der Endoprothetik – 906
– 913
Weiterführende Literatur
– 913
57.6.1 Metalle als Knochenimplantat – 907 57.6.2 Keramiken in der Endoprothetik – 907 57.6.3 Polymere in der Endoprothetik – 909
Der Funktionsersatz menschlicher Organe und Gewebe durch körperfremde Materialien gewinnt in den nächsten Jahren zunehmend an Bedeutung. Förderlich sind hier das dramatisch wachsende Wissen über die pathophysiologischen Grundlagen der Organe und die biologischen Voraussetzungen für die Integration körperfremder Werkstoffe. Im Gegensatz zu Transplantaten bzw. zur zukünftigen Gewebereproduktion sind künstliche Implantate kostengünstig sowie unbegrenzt herzustellen und erlauben reproduzierbare Operationstechniken. Neben dem Knochen-, Knorpel- und Gelenkersatz am menschlichen Stützapparat werden körperfremde Werkstoffe heute standardisiert beim Gefäßersatz oder zur Gefäßaufweitung, beim Herzklappenersatz, als Hautimplantat, zum Ersatz der Linse des Auges, zur elektrophysiologischen Stimulation oder als Speicher für bioaktive Präparate verwendet. Eine vollumfängliche Betrachtung würde den Rahmen dieses Artikels sprengen.
57.1
Klassifikation von Biomaterialien
Neben den nicht-organischen Werkstoffen gibt es eine Vielzahl an organischen Biomaterialien zum Ersatz oder Teilersatz von Organen, deren Einsatz in der klinischen Praxis zumindest heute noch limitiert ist. Eine der wenigen Ausnahmen stellt der Herzklappenersatz mit modifizierten Xenografts vom Schwein oder Rind dar. Zudem gibt es eine Vielzahl an neuen Verfahren im Bereich des sog. Tissue Engineering, bei dem weitestgehend autologe Gewebeentnahmen auf einer Trägerstruktur vermehrt
und wieder reimplantiert werden. Mitfristresultate stehen in diesem Bereich aber noch aus. Darum wird sich dieser Artikel auf das häufigste Einsatzgebiet von Biomaterialien konzentrieren: die Endoprothetik. Zur Veranschaulichung der heute vielfältigen Einsatzgebiete von nicht-organischen Biomaterialien soll jedoch zunächst der Versuch einer Klassifikation unternommen werden (⊡ Tab. 57.1). Nähere Erläuterungen der dort verwendeten Begriffe gibt ⊡ Tab. 57.2.
57.2
Entwicklungsgeschichte Endoprothetik
Bereits 1840 pflanzte Carnochan in New York ein Stück Holz in ein menschliches Kiefergelenk. Seit 1906 verwendete man körperfremde Interponate wie Silber, Magnesium, Zink, Elfenbein, Gold, Zelluloid als Ersatzmaterial für kleinere Knochendefekte. Die eigentliche erste Ersatzarthroplastik wurde 1890 von dem Deutschen T. Gluck eingeführt: eine Kniegelenktotalprothese aus Elfenbein, verankert mit gipsbasiertem Zement. 1922 ersetzte Groves-Hey den Hüftkopf durch ein Elfenbeinimplantat. Die erste Abhandlung über eine Endoprothese und ihre klinischen Ergebnisse erschien 1939 im Journal of Bone and Joint Surgery unter dem Titel »Arthroplasty of the Hip«. Die Autoren Smith und Petersen berichteten über eine Femurkopf-Kappen-Prothese aus Glas, später dann aus Vitallium, einer Chrom-Kobalt-Legierung. Typisch für den beschriebenen Prothesentyp waren Nekrosen und somit der Verlust von Knochen unter dem Implantat.
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _57, © Springer-Verlag Berlin Heidelberg 2011
902
Kapitel 57 · Biomaterialien
⊡ Tab. 57.1. Biomaterialien für Implantate Biomaterial
Biodynamik
Einsatzbereich
Aluminiumoxid-/Zirkonoxidkeramik
Bioinert
Artikulationsflächen in der Endoprothetik Dentalimplantate Mittelohrimplantate
Resorbierbare Keramiken (Hydroxylapatit)
Bioaktiv
Beschichtung von Endoprothesen Füllmaterial bei größeren Knochendefekten Dentalimplantate
Glasbasis/Glaskeramiken
Bioaktiv
Beschichtung von Endoprothesen Füllmaterial bei größeren Knochendefekten Dentalimplantate Mittelohrimplantate
FeCrNi-Stahllegierungen
Biotoleriert
Implantate für zementfreie und zementierte Fixation in der Endoprothetik Knochenplatten- und Schrauben Drähte/Cerclagematerial
CoCr-Legierungen
Biotoleriert
Implantate für zementfreie und zementierte Fixation in der Endoprothetik Knochenplatten- und Schrauben Artikulationsflächen Herzklappenersatz Drähte/Cerclagematerial
Titanbasislegierung
Biokonduktiv
Implantate mit direktem Knochenkontakt Beschichtung von Implantaten
Rein-Titan Rein-Tantal
Biokonduktiv
Implantate mit direktem Knochenkontakt Beschichtung von Implantaten
Polyethylen (PE)
Bioinert
Artikulationsflächen in der Endoprothetik
Polypropylen (PP)
Bioinert
Nahtmaterial Herzklappenersatz
Polyethylenterephtalat (PET)
Bioinert
Künstliche Blutgefäße Nahtmaterial
Polyamid (PA)
Bioinert
Herzklappenersatz
A) Keramische Werkstoffe
B) Metallische Werkstoffe
VI
C) Polymere
Polytetrafluorethylen (PTFE)
Bioinert
Künstliche Blutgefäße
Polymethylmethacrylat (PMMA)
Bioinert
Knochenzement Intraokulare Linsen Zahnersatz
Polyurethan (PU)
Bioinert
Künstliche Blutgefäße Hautimplantate Herzklappenersatz
Polysiloxan
Bioinert
Hautimplantate Brustimplantate Herzklappenersatz Künstliches Herz
Polyetheretherketon (PEEK) Polysulfon (PSU) im Kohlenstofffaserverbund
Bioinert
Osteosynthese Hochbeanspruchte Knochenimplantate
Polyhydroxylmethacrylat (PHEMA)
Bioinert
Intraokulare Linsen
⊡ Tab. 57.2. Begriffsbestimmung (zu Tab. 57.1 und Tab. 57.3) Begriff
Definition
Bioinert
Keine Freisetzung von toxischen Substanzen, keine positive Interaktion mit dem Gewebe; Reaktion: Bindegewebskapsel um das Implantat
Biokonduktiv
Knöchernes Gewebe wird an die Implantatoberfläche geführt und in Strukturen und Poren fest integriert
Bioaktiv
Positive Interaktion mit Gewebedifferenzierung; Reaktion: Bindung von Knochen
903 57.3 · Physiologische und pathologische Grundlagen
Der erste zementfreie Hüftgelenkersatz wurde 1938 von P. Wiles erläutert: eine durch zwei Schrauben fixierte stählerne Hüftpfanne sowie ein durch den Schenkelhals verlaufender Schaft mit Stahlkopf. Moore und Bohlmann entwickelten 1940 die erste im Markraum des Oberschenkelknochens verankernde Vitalliumprothese. Die erste Endoprothese aus dem ältesten, heute noch als Knochenzement verwendeten Material in der Endoprothetik, Polymethylmethacrylat (PMMA) wurde 1950 von Judet eingeführt. Eine lange Spezialendoprothese mit Verankerung im Markraum des Oberschenkelknochens wurde 1954 erstmals von dem Franzosen Merle d‘Aubigné implantiert und fand bis in die 1960er Jahre Verwendung. Die bis dahin eher bescheidene Überlebensdauer der Prothesentypen wurde 1960 durch den Engländer J. Charnley revolutioniert. Seine erste Entwicklung bestand aus einer Hüftendoprothese mit PTFE-Pfanne und Kopfersatz aus 316L-rostfreiem Stahl (⊡ Abb. 57.1). Das theoretische Prinzip war hier ein im Markraum konisch verblockender Schaft, der sich bei möglichen Mikrobewegungen jederzeit wieder selbst verkeilen konnte. Außerdem erreichte man hierdurch eine sofortige Primärstabilität des Implantates. Der Schaft wurde durch den Zement PMMA fixiert. Eine weitere Besonderheit war ein großer Kopf mit 42 mm Durchmesser, der den Reibungswiderstand reduzieren sollte. Der große Nachteil dieser ersten Innovation von Charnley war der immense Kaltfluss des PTFEs (näher bekannt als Teflon) als Pfannenmaterial. Es kam zu frühen und schwerwiegenden Pfannenlockerungen. Darauf begründete er seine zweite, große Innovation, die bis heute in modifizierter Form beim Hüftgelenkersatz verwendet wird: eine zementierte Polyethylenpfanne mit relativ kleinem Metallkopf als Artikulationspartner. Parallel zu Charnley verfolgte McKee die Philosophie der Metall-Metall-Gleitpaarung am Hüftgelenk gemäß Wiles. McKee versorgte 1951 erstmals 3 Patienten mit einer metallenen Schraubpfanne, die nach Lockerungsproblemen 1970 durch eine zementierte Pfanne aus KobaltChrom ersetzt wurde (⊡ Abb. 57.2). Beide Grundkonzepte von McKee und Charnley beherrschten die Endoprothetik des Hüftgelenks über Jahrzehnte. Warum das so war, soll unten erläutert werden.
57.3
Physiologische und pathologische Grundlagen
Am Beispiel der Frakturheilung kann die Einheilung von Implantaten gut beschrieben werden. Wolff und Pauwels stellten fest, dass die Knochenmorphologie geänderten Belastungen folgt. Dies geschieht während der Wachstumsphase beim Kind genauso wie nach pathologischen Veränderungen von Gelenken und Stützapparat. Diesen
⊡ Abb. 57.1. Hüftgelenkprothese nach Charnley
⊡ Abb. 57.2. Hüftgelenkprothese nach McKee
Prozess der Anpassung nennt man auch Modelling oder Remodelling des Knochens. Bei einer Fraktur bildet sich zunächst ungerichteter, filzartiger Faserknochen. Faserknochen ist überall dort zu finden, wo eine beschleunigte Knochenneubildung von Bedeutung ist. Die Knochenbildung geht hierbei grundsätzlich von den Blutgefäßen aus, die im Frakturzwischenraum bindegewebig einsprießen und sich diffus verteilen. Im Anschluss daran bildet sich über Wochen neuer, lamellärer Knochen. Hierbei bestimmt die Lastverteilung das Zusammenwachsen und die Neuausrichtung der trabekulären Knochenstruktur. Die Knochentrabekel des lamellären Knochens stehen wie Säulen in
57
904
Kapitel 57 · Biomaterialien
Richtung der einwirkenden Kraft, um eine maximale Stabilität zu gewährleisten. Während dieses wochenlangen Remodellings kommt es zu einem ständigen Knochenabbau durch sog. Osteoklasten und Wiederaufbau durch Osteoblasten. Bei einer Fraktur erfolgt die Bildung faserigen Knochengewebes von beiden Seiten des Frakturspalts. Bei einem Implantat erfolgt dies nur von einer Seite des Zwischenraums. Das neue Gewebe wächst auf die Prothese zu. Hierbei ist nun die Größe der zu überbrückenden Distanz wichtig. Bei Distanzen über 1 mm benötigt die Einheilung eines Implantats mehrere Monate.
57.4
VI
Mechanik und Biochemie
Ein entscheidender Faktor für die Integration und Akzeptanz von Biomaterialien im menschlichen Körper ist die Art des angrenzenden, organtypischen Gewebes. Beispiele solcher Organe sind Blut, Gefäße, Herzmuskel, Fettgewebe, Haut und Knochen. Haben sich bei Gefäßund Herzimplantaten, wie bspw. beim Herzklappenersatz, bei Stents oder Gefäßersatzprothesen eher glatte und elastische Materialien fest etabliert, so finden wir bei Knochenimplantaten vorwiegend mechanisch rigide, oft angerauhte Implantate. Aber auch Ausnahmen von dieser Regel sind hier zu erwähnen. Beispielsweise forciert man in jüngster Zeit wieder mit rauhen Oberflächen beschichtete Implantate im Blutstrom, um das Einwachsen des Implantats biochemisch zu begünstigen. Dies steht zunächst im Widerspruch zu dem Ziel, durch glatte Oberflächen ein Anhaften von Plättchen sowie Leukozyten und damit die Auslösung einer entzündlichen und immunologischen Reaktion möglichst zu verhindern. Jedoch stellt man fest, dass bestimmte Werkstoffe in Verbindung mit einer mikroporösen Oberfläche eine Beschleunigung der Ummantelung des Implantats mit einem funktionsfähigen Endothel ermöglichen. Bei Versuchen mit beschichteten Koronarstents an Tieren ließen sich deutlich geringere Restenoseraten ermitteln. Verständlich wird dies dann, wenn man die reduzierenden Eigenschaften des Iridiumoxids berücksichtigt. Diese gewährleisten eine Unterdrückung der bei der Fremdkörperantwort freiwerdenden Radikale. Die freien Radikale nämlich in ihrer Eigenschaft als aggressive, fremdkörperlösende Substanz behindern auch die Bildung körpereigenen Gefäßendothels (Alt et al. 1999). Die theoretischen Betrachtungen über die Vor- und Nachteile eines Biomaterials sowie deren In-vitro-Einsatz kann oft nicht auf die Wirkung im menschlichen Organismus projiziert werden. Neue Erkenntnisse über Fremdkörperreaktion und biomechanische Antwort motivieren also immer wieder zur klinischen Untersuchung neuer Werkstoffe.
57.5
Faktoren für die Integration von Knochenimplantaten
Eine Endoprothese – bspw. zum Gelenkersatz – soll den natürlichen Belastungen des Körpers standhalten können. Druck- und Zugkräfte könnnen hierbei Spitzenwerte von bis zum 4,5-fachen des Körpergewichts erreichen. Welche Faktoren sind entscheidend für die Akzeptanz knöcherner Implantate? Man geht heute davon aus, dass ein möglichst homogener Ersatz des natürlichen Knochens bezüglich Mechanik und Knochenumbauvorgängen gewährleistet sein muss. Die Voraussetzungen für den knöchernen Einbau eines Implantats, die sog. Osseointegration (Braunemark et al. 1973), sind heute weitgehend geklärt. Ein geeigneter Werkstoff ist hierbei nur eine von vielen Bedingungen für eine gute Osseointegration.
57.5.1 Bedingungen für die Osseointegration
Primärstabilität des Implantats Nur wenn das Implantatdesign Relativbewegungen zum Knochen vermeidet, gelingt ein Anwachsen von Knochensubstanz ohne Bildung von störendem Bindegewebe. Die Primärstabilität wird in erster Linie durch die Art der mechanischen Verbindung (Fügen) zwischen Knochen und Implantat gewährleistet. Die ⊡ Abb. 57.3 zeigt als Beispiel eines heute üblichen Verbindungsverfahrens in der Endoprothetik die Keilverbindung durch Konusform. Ein weiterer Faktor für die Primärstabilität des Implantatmaterials ist eine möglichst hohe Beanspruchbarkeit bezüglich Druck, Zug und Biegung bei gleichzeitig dem Knochen angepasster Elastizität.
Biodynamisches Implantatmaterial Grundsätzlich eignen sich bioinerte, mit dem Organismus möglichst keine biochemischen Reaktionen eingehende Werkstoffe für endoprothetische Versorgungen. In der klinischen Praxis zeigen sich insbesondere biokonduktive Werkstoffe wie das Titan und seine Legierungen als überlegen bezüglich Geschwindigkeit und Umfang der Osseointegration. Ein ausschließlich inertes Material wie die Aluminiumoxidkeramik ist sogar für den direkten Knochenkontakt wegen Knochenverlustes auszuschließen. ⊡ Tab. 57.3 zeigt, dass es für jeden Einsatzbereich und jede Beanspruchungsform eines Implantats bevorzugte Werkstoffe geben muss. Die Titanbasislegierungen sowie bioaktive Keramiken wie Hydroxyapatit als Oberflächenmaterial erlauben eine ausreichende Osseointegration für eine stabile Langzeitfixierung von Implantaten. (Zur Erläuterung der in der Tabelle verwendeten Begriffe: ⊡ Tab. 57.2.)
905 57.5 · Faktoren für die Integration von Knochenimplantaten
⊡ Tab. 57.3. Materialien in der Endoprothetik Biomaterial
Biodynamik
Verwendung
Aluminiumoxid-/Zirkonoxidkeramik ISO 6474
Bioinert
Artikulationsflächen
CoCr-Legierungen und medizinischer Stahl ISO 5832
Biotoleriert
Implantate für zementfreie und zementierte Fixation Artikulationsflächen
Polyethylen ISO 5834-1/-2
Biotoleriert
Artikulationsflächen Hüftpfannenkomponenten ohne Knochenkontakt!
Knochenzement (Polymethylmetacrylat)
Biotoleriert
Verbindung von Implantat (CoCr- oder Stahllegierungen) mit vitalem Knochen Temporäre Fixierung von Knochen
Titanbasislegierung ISO 5832-11
Biokonduktiv
Implantate mit direktem Knochenkontakt Beschichtung von Implantaten
Resorbierbare Keramiken/Gläser (Hydroxyapatit)
Bioaktiv
Beschichtung von Implantaten Füllmaterial bei größeren Knochendefekten
⊡ Abb. 57.3. Primärstabilität durch Konusform; der CLS® Spotorno® Hüftschaft
Osteophile Implantatoberfläche Was macht einen Werkstoff mehr oder weniger geeignet für die Osseointegration? Maßgeblich ist hierbei seine Oberfläche und das Vermögen, das Anwachsen von Knochen zu unterstützen. Die Oberfläche von Titanimplantaten passiviert sich in der Umgebung von Luft oder oxidierenden Flüssigkeiten durch Bildung einer selbstheilenden Titanoxidschicht. Hydroxylionen binden sich leicht an der Titanoxidoberfläche und bieten eine Angriffsfläche für die Bindung von Aminosäuren. Dieser konduktiven Eigenschaft verdanken Titanimplantate eine beschleunigte Bildung von initialem Faserknochen nach instrumenteller Vorbereitung des Knochenbetts. Durch Koruntstrahlung von Titanimplantaten erreicht man zusätzlich eine Nachbildung der Knochenmakrostruktur, was eine Verankerung der Knochentrabekel am Implantat und in der »Kraterlandschaft« der Oberfläche zusätzlich begünstigt (⊡ Abb. 57.4a–d, 4-Farbteil am Buchende).
Besonders vorteilhaft für das schnelle An- und Einwachsen des Knochens scheint eine neuartige Oberflächenstruktur zu sein: das sog. Trabecular MetalTM. Dieses besteht aus einer dem spongiösen Knochen ähnlichen amorphen Kohlenstoffträgerstruktur, welche im Vakkuum erhitzt und mit Tantal beschichtet wird. Es entsteht eine Struktur mit etwa 80% Porosität und 550 μm Porengrösse. Nach etwa 2–3 Monaten kann eine 2–3 mm dicke Struktur komplett von Knochen durchbaut werden. Trabecular MetalTM hat unter allen metallischen Implantaten die höchste Übereinstimmung mit der Komprimierbarkeit von spongiösem und der Elastizität von kortikalem Knochen. Die ⊡ Abb. 57.4c zeigt die mikroskopische Ähnlichkeit mit spongiösem Knochen (⊡ Abb. 57.4d). Das Material wird weitestgehend als Oberfläche für Hüftpfannen und zementfreie Kniesysteme, zur Wirbelkörperfusion oder für den Knochenersatz bei größeren Knochendefekten verwendet.
Hydroxyapatitbeschichtung (HA-Beschichtung) Die Kalziumphosphatbeschichtung von zementfrei fixierten Implantaten hat in den letzten Jahren zunehmendes Interesse gefunden. Das dafür erforderliche Hydroxyapatit (HA) entspricht dem anorganischen Grundmaterial Kalziumphosphat des Knochens. Die keramischen Eigenschaften dieses Materials erlauben ein rigides Anhaften an Implantatoberflächen, auch bei kraftvollem und reibungsintensivem Einbringen von Endoprothesenschäften oder Pfannen. Da der Knochen in den ersten Wochen eine chemische Bindung mit Hydroxyapatit eingeht, ist eine sehr feste Verbindung mit lebendem Knochengewebe zu erreichen, die fester ist als jede Art von Verbindung mit einer Metalloberfläche. An dieser Art Beschichtung lässt sich auch leicht nachvollziehen, wie wichtig die Berücksichtigung verschiedener Implantateigenschaften sein kann.
57
906
Kapitel 57 · Biomaterialien
Denn Hydroxyapatitbeschichtungen sind zwar rauh, aber nicht porös aufgebracht. Druck- und Zugkräfte, aber auch Scherkräfte werden sehr gut übertragen. Allerdings bestehen zwischen dem metallenen Implantat und der HA-Beschichtung große Unterschiede beim E-Modul, was eine sehr sorgfältige Fertigung und Implantationstechnik erfordert. Beim grobgestrahlten Titan findet sich nach knöcherner Integration ein festes Interface zwischen Knochen und Implantat. An HA-beschichteten Explantaten kann man jedoch sehr gut beobachten, dass das Hydroxyapatit im Rahmen des knöchernen Umbaus integriert wird und der Knochen dann wiederum einen direkten Kontakt mit der Implantatoberfläche besitzt. Der Vorteil der HA-Beschichtung liegt also in einer beschleunigten knöchernen Integration, was je nach Indikation gewünscht sein kann.
VI Vitale Knochenumgebung Wie vorausgehend beschrieben, ist die Langzeitstabilität einer Endoprothese maßgeblich von der knöchernen Integration abhängig. Fast ebenso wichtig wie das Implantat selbst und seine Eigenschaften ist also die Art des dieses umschließenden Gewebes. Vor Implantation einer Endoprothese findet man ein beschädigtes und krankhaft verändertes Gelenk. Diese Veränderungen betreffen in aller Regel den Gelenkspalt selbst, der durch Synovia (Gelenkflüssigkeit) und Knorpel die Kraft der sich gegeneinander bewegenden Skelettkomponenten überträgt. Durch Knorpelschädigung oder belastungsinduzierte Veränderung der Gelenkmorphologie entstehen neue Belastungszentren und »entlastete« Regionen, mit teilweise abbrassiver oder adhäsiver Gewebsschädigung, sowie Riss- und Lückenbildung. Der Körper reagiert darauf durch Bindegewebsbildung zur Schließung dieser Lücken oder entlasteten Bereiche. An den anschließend – krankhaft bedingt – neu belasteten Bereichen findet man oft eine reaktive Knochenneubildung in Form von Spangen, Höckern, Randzacken oder flächenhaften Auflagerungen. Diese werden Osteophyten genannt. Die Knochenneubildung und das Anwachsen an das Implantat ist nun entscheidend für die Integration des Implantats. Nur wenn ausreichend spongiöser, lamellenartiger, vitaler Knochen Kontakt mit dem Implantat hat, ist eine schnelle Einheilung des Implantats gewährleistet. Voraussetzung für die Herstellung des Primärinterface zum Implantat ist also die Entfernung aller störenden Zwischenschichten wie Bindegewebe, Osteophyten, Granulome, aber auch Knorpel und faseriger Knochen. Den zugehörigen Operationsschritt nennt man Anfrischen des Knochens. Osteophyten werden entfernt und z. B. die Hüftgelenkspfanne ausgefräst zur Erreichung des lamellären Knochens als Grundstock für die einzusetzende Titanpfanne.
Belastung des Implantats Nehmen wir das Hüftgelenk als Beispiel für diesen Abschnitt. In der Einleitung wurde erläutert, wie wichtig die Kraftübertragung als Reiz für die Knochenbildung oder den Umbau ist. Dies trifft auch auf das Anwachsen von Knochen an Implantate zu. Lamellärer Knochen wird zunächst regional beschränkt abgebaut, und faseriger Knochen »überspringt« anschließend unter Einbindung versorgender Blutgefäße den Zwischenraum zum Implantat. Dieser darf 1–2 mm nicht überschreiten, um die langfristige Bildung von – zur Kraftübertragung ungeeignetem – Bindegewebe zu unterbinden. Kontinuierliche Druckkräfte zwischen angefrischtem Knochen und Implantat sind entscheidend für den beschriebenen Knochenumbau. Zunächst kann man durch die Form des Implantats (konische Verblockung, PressFit-Prinzip) eine kontinuierliche Vorlast auf den Knochen einwirken lassen. Ergänzend hat sich heute die postoperative, frühzeitige Teilbelastung des Gelenks als wirkungsvolle Maßnahme zur schnellen, effizienten Osseointegration etabliert.
Abrieb und Dauerfestigkeit Schon recht früh, beim Einsatz z. B. von PTFE (Teflon) als Pfannenkomponente, hat sich gezeigt, dass der Erfolg für die Langzeitstabilität von der Abriebfestigkeit bedeutend beeinflusst wird. Aber nicht nur im Pfannenbereich, sondern auch am Übergang von Schaftkomponenten zum Knochen entstehen Mikrobewegungen, die bei ungeeigneten Materialkombinationen zu metallischem Abrieb und in der Konsequenz zur Fremdkörperreaktion führen. Die allmähliche Resorption des vitalen Knochens und eine Schwächung des umgebenden Weichteilgewebes sind unausweichlich. Gemäß wissenschaftlicher Definition und den in der Praxis vorwiegend angewendeten Materialien und Methoden zur sicheren Primärstabilität und Osseointegration ist der Abrieb der heute bedeutendste Faktor für die Langzeitstabilität eines Knochenimplantats. Er soll in Abschn. 57.7 »Herausforderung ‚Verschleiß‘« darum besonders beleuchtet werden.
57.6
Mechanische Eigenschaften von Implantaten in der Endoprothetik
Bis Ende der 1980er Jahre wurde mehrfach über Brüche von Endoprothesenschäften aus Stahl oder CoCr-Legierungen berichtet. Durch die Entwicklung neuer Designs und Prüfmethoden, wie die Finite-Elemente-Computermodell-Analyse und gelenkäquivalente Belastungssimulation, können diese Ermüdungsbrüche heute in aller Regel ausgeschlossen werden. Die Grundlagen der mechanischen
907 57.6 · Mechanische Eigenschaften von Implantaten in der Endoprothetik
Eigenschaften von Knochenimplantaten sind dennoch sehr wichtig für das Verständnis der Einsatzgebiete und zur Vermeidung von Fehlindikationen bei deren Einsatz.
57.6.1 Metalle als Knochenimplantat
Das Metallgefüge besteht aus kristallinen Körnern, den Kristalliten, deren chemische Zusammensetzung, Form, Größe und Anordnung die mechanischen Eigenschaften des Materials definieren. Die besondere plastische Verformbarkeit der metallischen Werkstoffe beruht auf frei beweglichen Elektronen innerhalb des Ionengitters, die das Gitter auch bei modifizierter Morphologie gut zusammen halten. Dabei kann ein Ion oft durch ein andersartiges ersetzt werden, was durch die gute Legierungsfähigkeit deutlich wird. Einige Metalle, wie Eisen, bestehen in der höchsten Reinheitsstufe aus einem eher heterogenen Kristallgemisch, welches gern oxidiert und damit eher spröde Eigenschaften hat. Die Ursache ist eine recht kurze Erstarrungsphase vom flüssigen in den kristallinen, festen Zustand. Durch Hinzufügen von bspw. Nickel oder Chrom verändert man das Erstarrungsverhalten. Das Wachstum von Kristallen wird nun über einen längeren Temperaturbereich gestreckt und damit zeitlich und von der Intensität her verlängert. Es entsteht entweder ein feineres Kristallgemisch, bei dem jedes Metall eigene Kristalle bildet, oder ein Mischkristall, bei dem die Bestandteile der Legierung ein gemeinsames Gitter innerhalb eines Kristalliten bilden. Die höhere Härte und Festigkeit von Legierungen gegenüber einem Einstoffmetall erklären sich aus den Unregelmäßigkeiten im Gitteraufbau. Haben die eingelagerten Atome der Legierungsbestandteile einen größeren Durchmesser als die Atome des Grundstoffs, bewirken sie eine Verspannung des Grundgitters. Bei äußerer Krafteinwirkung wird diese Verspannung und der zusätzliche Reibungswiderstand infolge der unterschiedlichen Atom-
größen und das Wandern des Gitters erschwert. Der Einfluss von Legierungsbestandteilen in medizinischen Metallimplantaten auf die mechanischen Eigenschaften soll durch ⊡ Tab. 57.4 kurz verdeutlicht werden. Die Homogenität und Ausrichtung des Metallgitters kann zusätzlich durch die Art der Verformung beeinflusst werden. Während bei Gusslegierungen das Kristallgefüge weitestgehend durch thermische Behandlung bestimmt wird, kann man durch Walzen, Schmieden, Ziehen oder Pressen die Kristallitform und den Faserverlauf zusätzlich günstig beeinflussen. Doch auch hier spielt der Legierungsanteil eine bedeutende Rolle. So nimmt die Schmiedbarkeit eines Stahls mit steigendem Kohlenstoffanteil ab. Beim Schmieden muss die Elastizitätsgrenze des Werkstoffs überschritten werden. Die Körner werden nicht nur verformt, sondern auch verlagert, wobei sie an den Korngrenzen gleiten und versetzt werden. Wichtig ist hier, dass die Kornverformung von der Lage im zu schmiedenden Werkstück abhängt. Das heißt, durch gezielte Schmiedetechnik werden die mechanischen Eigenschaften des Werkstücks dreidimensional optimiert. Für den Bereich der Knochenimplantate werden die heute üblichen Metalllegierungen in ⊡ Tab. 57.5 zusammengefasst.
57.6.2 Keramiken in der Endoprothetik
Im Bereich der Implantate werden Keramiken ausschließlich für auf Druck belastete und verschleißrelevante Implantate eingesetzt. Direkter Kontakt zwischen glatter Keramik und Knochen führte nie zur Integration des Implantats. Eine Ausnahme sind die Hydroxyapatitbeschichtungen. HA besteht aus dem bioaktiven Ca5(PO4) OH und fördert durch seine biochemische Tarnung die Osseointegration. Aluminiumoxidkeramiken (Alumina) hingegen wurden bereits vor ca. 30 Jahren als Gleitflächenmaterial
⊡ Tab. 57.4. Eigenschaften metallischer Legierungsbestandteile Legierungsbestandteil
Einfluss auf das Metallgefüge
Kohlenstoff
(C)
Eisenbegleiter wie (Phosphor, Schwefel) bei Roheisen reduzierend: Veredelung des Stahls
Chrom
(Cr)
Steigert Festigkeit und Härte, erhöht die Korrosionsbeständigkeit, Warmfestigkeit und Schneidhaltigkeit
Nickel
(Ni)
Kornverfeinerung und Homogenisierung des Metallgefüges und dadurch Erhöhung von Zähigkeit, Festigkeit sowie Korrosionsbeständigkeit
Cobalt
(Co)
Erhöht Härte und Schneidhaltigkeit
Mangan
(Mn)
Verschleißfestigkeit, Nickelersatz (Kornverfeinerung)
Vanadium und Molybdän
(V) und (Mo)
Erhöhung von Härte, Korrosionsbeständigkeit, Zähigkeit und Warmfestigkeit
57
908
Kapitel 57 · Biomaterialien
⊡ Tab. 57.5. Zusammensetzung und Kennwerte endoprothetischer Metallimplantate (Kennwerte nach ISO 5832 sind Rp (MPa): Streckgrenze, Rm (MPa): Bruchfestigkeit, A (%): Bruchdehnung; Zusammensetzung: Gew.-%) Legierung
Mechanische Kennwerte
Einsatzbereich
FeCrNiMnMoNbN Schmiedestahl (ISO 5832-9)
Rp 430 min RM 740 min A 30 min
Auf Biegung und Torsion beanspruchte Endoprothesenkomponenten, auch Knochenplatten und Schrauben
Zusammensetzung
C
Si
Mn
Cr
Mo
Nb
N
Fe
0,08
0,75
2,0–4,25
19,5–22
2,0–3,0
0,25–0,8
0,25–0,5
Basis
Zusammensetzung
VI
C
Cr
Fe
Mn
Mo
Ni
Si
Co
0,35
26,5–30
1,0
1,0
4,5–7,0
1,0
1,0
Basis
C
Cr
Fe
Mn
Mo
Ni
Si
Co
0,35
26,5–30
1,0
1,0
4,5–7,0
1,0
1,0
Basis
Cr
Mo
Ni
Fe
C
Mn
Si
Co
26,0–30,0
5,0–7,0
1,0
0,75
0,35
1,0
1,0
Basis
Reintitan (ISO 5832-2)
Zusammensetzung
Gleichmäßig, großflächig belastete Implantate wie Hüftgelenkspfannen und Geflechte, die ein Anwachsen des Knochens begünstigen sollen
Rp 440 min Rm 550 min A 15 min
C
H
N
O
Fe
Ti
0,1
0,015
0,05
0,45
0,3
Basis Auf Biegung und Torsion beanspruchte Implantate, die Knochenanwachsen begünstigen sollen, Bsp. Endoprothesenschäfte und Pfannen
Rp 800 min Rm 900 min A 10 min
TiAlNb Schmiedelegierung (ISO 5832-11)
Zusammensetzung
Auf Druck und Verschleiß beanspruchte Hüftgelenkskugeln, sehr feines Gefüge und somit auch geeignet für MetallMetall-Gleitpaarungen
Rp 700 min Rm 1000 min A 12 min
CoCrMo Schmiedelegierung (ISO 5832-12)
Zusammensetzung
Auf Biegung und Torsion beanspruchte Teile wie Endoprothesenschäfte, auch in Verbindung mit PMMA
Rp 650 min Rm 1000 min A 20 min
CoNiCrMo Schmiedelegierung (ISO 5832-6) Zusammensetzung
Auf Druck und Verschleiß beanspruchte Hüftgelenkskugeln in Paarung mit Pfannen aus Polyethylen
Rp 450 min Rm 665 min A 8 min
CoCrMo Gusslegierung (ISO 5832-4)
C
H
N
Ta
Fe
Al
Nb
Ti
0,08
0,009
0,05
0,5
0,25
5,5–6,5
6,5–7,5
Basis
eingeführt. Vor etwa 10 Jahren wurden Zirkoniumoxidkeramiken (Zirconia) erstmals in den USA für den Hüftgelenkersatz verwendet. Sie wurden bald gegen die zäheren Y-TZP-Zirkoniumkeramiken ersetzt. Aufgrund der kristallinen Struktur entspricht die Festigkeit einer Keramik dem Widerstand gegenüber Rissbrüchen. Im Gegensatz dazu entspricht die Festigkeit von Metallen dem Widerstand gegenüber plastischer Verformung. Um die Festigkeit einer Keramik zu verbessern, müssen Zähigkeit und Korngröße gleichermaßen berück-
sichtigt werden. Denn umso kleiner die Körner, desto höher die Festigkeit des Materials. Die Korngröße selbst wird maßgeblich durch das Erstarrungs- und Kristallisationsverfahren bestimmt. Darüber hinaus kann man eine Erhöhung der Zähigkeit durch das Einbringen faserartiger, anisotroper Kristalle erreichen. Anders als in Kunststoffen, bei denen die künstlich eingebrachten Kermikfasern deutlich unterschiedliche Elastizitätsmoduli besitzen, besitzt das E-Modul von Fasern und Matrix der Keramik ähnliche Werte. Kommt es
909 57.7 · Herausforderung »Verschleiß«
in der Keramik zu einem Riss, so läuft die Energie entlang der Kristallgrenzen in das Innere des Materials, bis sie an einem Partikel »verstreut« wird. Die Rissbildung stoppt an dieser Stelle. Fügt man nun faserartige Kristalle ein, wird die Energie unmittelbar und oberflächennah entlang der Faserkristalle umgeleitet und verteilt, wodurch der Riss frühzeitig zum Stillstand kommt.
57.6.3 Polymere in der Endoprothetik
Anders als die gitterförmigen Metallzusammensetzungen bestehen Polymere aus meist einfachen, gesättigten Kohlenwasserstoffketten, deren Moleküle aus einer großen Anzahl Struktureinheiten (Monomere) aufgebaut sind. Polymere finden sich durchaus auch in der Natur. Typische Biopolymere sind Zellulose, Stärke und Nukleinsäuren. Synthetische Polymere werden durch Polyreaktionen (Polymerisation, Polykondensation, Polyaddition) hergestellt. Bei der Herstellung durch Polymerisation werden meist ungesättigte Monomere (Alkene) an aktive Atomgruppen abgelagert. Man startet den Prozess durch Beifügen von Radikalen oder Ionen. Es ist zusätzlich möglich, durch sog. Komonomere der Polymerkette zusätzliche Verzweigungen aufzudrängen. Im Gegensatz zur Gefäßchirurgie, in der elastische Komponenten wie Polyester bzw. PTFE und Polyurethan Anwendung finden, kommen am Stützapparat eher rigide, abriebresistente Polymere zum Einsatz. Hierzu zählen ultrahochmolekulares Polyethylen (PE) als Gelenkflächenersatz und Polymethylmethacrylat als Füll- und Fixationskomponente.
nicht bewährt. So genanntes High-density-Polyethylen (UHMWPE) besteht weitestgehend aus unverzweigten Molekülketten und hat im Vergleich zu anderen Kunststoffen niedrige Festigkeit und Härte, aber hohe Zähigkeit. Der Grundstoff UHMWPE (ISO 5834-1/-2) wird nach Polymerisation in Platten vorbereitet, aus denen die endoprothetisch einzusetzenden Vorformen durch schneidende und spannende Prozesse erstellt werden. Um es endoprothetisch tauglich zu machen, wird es zusätzlich unterschiedlichen Prozessen zur Quervernetzung der Kohlenwasserstoffmolekülketten unterzogen. Härte, Druckbeständigkeit und Abriebresistenz erhöhen sich dadurch deutlich. Diese Prozesse unterscheiden sich leicht von Hersteller zu Hersteller. Wie unten noch beschrieben wird, kann einem der heute bedeutensten Probleme der Endoprothetik, nämlich dem Abrieb bei Artikulationen, nur mit ausgereiften und aufwändigen Fertigungsverfahren begegnet werden. Hierbei möchte man 2 wesentliche Ziele erreichen: ▬ eine Erhöhung des Vernetzungsgrads und damit erhöhte Abriebbeständigkeit, ▬ eine Reduktion der ungesättigten Kohlenstoffmoleküle (Radikale) innerhalb der Kette zur Vermeidung einer alterungsbedingten Versprödung des Materials.
57.7
Herausforderung »Verschleiß«
57.7.1 Tribologie
Polyethylen
Durch die Einführung zementfrei verankernder Titankomponenten sowie standardisierter Operationstechniken erreichen moderne Endoprothesen heute ausgesprochen überzeugende Überlebensraten. Je nach Wahl des Materials der Gleitpaarung sowie der Belastungssituation kommt es allerdings zu mehr oder weniger drastischen, verschleißbedingten Komplikationen, die heute weitgehend die Überlebensdauer einer Endoprothese begrenzen. Da sich auch bei jüngeren Patienten immer öfter die Indikation zum Gelenkersatz stellt, ist dieses Thema in den letzten 10 Jahren erneut in den Vordergrund von Forschung und Weiterentwicklung gerückt. Die Lehre vom Reibungsverhalten und Abrieb gegeneinander artikulierender Komponenten nennen wir in diesem Zusammenhang Tribologie. Heute haben sich folgende Materialpaarungen als tribologische Komponenten im Gelenkersatz fest etabliert: ▬ Metall-Metall, ▬ Metall-PE, ▬ Keramik-PE, ▬ Keramik-Keramik.
Trotz seiner Belastbarkeit auf Druck und Torsion hat sich Polytetrafluorethylen im Gegensatz zum Polyethylen nach den ersten endoprothetischen Verwendungen durch Charnley wegen des unverhältnismäßig hohen Abriebs
Die Variabilität der tribologischen Möglichkeiten beruht auf den unterschiedlichen Vor- und Nachteilen sowie Indikationsbereichen. Bevor wir auf die technischen
Polymethylmethacrylat (PMMA) PMMA, als Verglasungsmaterial auch Acryl- oder Plexiglas, in seiner Konsistenz für den medizinischen Einsatz Knochenzement genannt, ist ein thermoplastischer Kunststoff, der durch radikalunterstützte Polymerisation von Methacrylsäureestern hergestellt wird. Im Zweikomponentenverfahren wird er während des operativen Eingriffs angemischt und ist dann für etwa 5–8 min verarbeitbar. Dieses Verhalten sowie seine exzellente mechanische Festigkeit und Biotoleranz verleiht ihm ideale Eigenschaften zur Verwendung als Füll- und Verbindungsmaterial. Der größte Einsatzbereich ist die Zementierung von metallenen Schäften, Sockeln oder Polyethylenpfannen beim künstlichen Gelenk- oder Zahnersatz.
57
910
VI
Kapitel 57 · Biomaterialien
Möglichkeiten und Grenzen näher eingehen, soll auf die elementare Arbeit von Willert et al. (1978) hingewiesen werden. Schon seit Charnley wird eine Korrelation von Polyethylenabrieb und Osteolyse beobachtet, die zu Prothesenlockerung und frühzeitiger Revision des Implantats führt. Der teilweise massive Knochenverlust spornte Willert an, die Ursachen seiner Entstehung genauer zu untersuchen. Die abriebinduzierte Fremdkörperreaktion ist ausschlaggebend für die Resorption gesunden Knochens, wie sich früh feststellen ließ. Ständig sich neu bildende Phagozyten speichern die Abriebpartikel vorwiegend in der Gelenkkapsel. Es entwickelt sich im Ungleichgewicht ein Fremdkörpergranulom. Kleinere Partikel können durch Histiozyten phagozytiert werden. Hierbei spielen freie Radikale eine bedeutende Rolle. Je umfangreicher die Abriebreaktion, desto größer die Granulome. Große Granulome neigen im Zentrum dann zur Nekrose. Darüber hinaus entwickelt sich fibröses Narbengewebe, welches gesunde Zellen in der Konsequenz absterben lässt. In fortgeschrittenem Stadium dekompensiert die Gelenkkapsel, und die Reaktion weitet sich auf das umliegende Gewebe aus. Speziell übernehmen hier Teile des Knochenmarks und des Bindegewebes an der ZementKnochen-Grenze die Funktion von Phagozytose und Abtransport der Verschleißpartikel. In letzter Konsequenz wird auch der vitale Knochen durch das angrenzende Granulationsgewebe angegriffen und resorbiert. Heute ist davon auszugehen, dass ein Großteil aller aseptischen Prothesenlockerungen auf die Abriebreaktion zurückzuführen ist. Diese Erkenntnis führte zu neuen Anstrengungen und zur Verbesserung der tribologischen Eigenschaften von Materialien für Gleitpartner in der Endoprothetik. Grundlage ist hier zunächst das Verständnis der Mechanismen des Abriebs in der Endoprothetik.
rung ständigen Kontakt zur gegenüberliegenden Seite, und es kommt zur adhäsiven, festen Verbindung von kleinsten Partikeln. Diese Partikel werden aus der Oberfläche herausgerissen und ergeben kraterförmige Oberflächenbilder (⊡ Abb. 57.5).
57.7.2 Ermüdungsabrieb
Der Ermüdungsabrieb entsteht durch das Aufbrechen des oberflächennahen Materialgefüges an den artikulierenden Flächen. Tangentiale Scherkräfte und punktuelle Druckkraftspitzen sind die Ursache für Rissbildung in Bewegungsrichtung und anschließendes Lösen von größeren Partikeln aus der Oberfläche. Typischerweise erkennt man den Ermüdungsabrieb an gebogenen Scherrissen der Oberfläche, an deren Rand zunehmend Material abgetragen wird.
57.7.3 Adhäsiver Abrieb
Auch bei hochgenauer Fertigung kommt es – bspw. bei Metallgleitpartnern – zu feinsten Erhebungen an der Oberfläche. Diese haben auch bei ausreichender Schmie-
⊡ Abb. 57.5a–c. a Adhäsiver Abrieb, b ermüdungsbedingter Abrieb, c abrassiver Abrieb
911 57.7 · Herausforderung »Verschleiß«
57.7.4 Abrassiver Abrieb
Befinden sich z. B. durch Ermüdung oder Adhäsion herausgelöste, härtere Partikel zwischen den gleitenden Oberflächen, so kommt es zum abrassiven Abrieb. Dieser ist besonders eindrucksvoll bei metallenen Gleitpartnern in Form von Rillenbildung in Laufrichtung zu erkennen. Bestehen diese Partikel aus einem deutlich härteren Material, wie etwa Keramik, so kommt es zur kurzfristigen, starken Abnutzung des Metalls oder Polyethylens.
57.7.5 Metallgleitpaarungen
Die erste Metall-auf-Metall-Gleitpaarung wurde 1950 in den USA von Thompson und McKee für den Hüftgelenkersatz eingeführt. Sie bestand aus der klassischen CoCrMo-Legierung nach ISO 5832-4, die auch heute noch dafür verwendet wird. Das Material wurde erstmalig von Krupp in Deutschland für Zahnimplantate eingesetzt; es ist sehr abriebresistent und korrosionsbeständig. Nachfolgende Prothesendesigns von McKee hatten einen Spielraum zwischen Kopf und Pfanne von 0,15 mm. Dies ermöglichte das Eindringen von Synovialflüssigkeit zur Schmierung der Gleitflächen. 1960 kamen Prothesen anderer Hersteller auf den Markt, die keinen entsprechenden Spielraum aufwiesen. In Extremfällen kam es sogar zur gleichzeitigen Implantation von Köpfen und Pfannen unterschiedlicher Hersteller mit Kopfübermaß. Die Versagerquote durch mechanisches Verklemmen bzw. abrassiven und adhäsiven Abrieb war entsprechend groß, und man nahm nach der Einführung der Charnley-Prothesen schnell Abstand von dieser Kombination. 1965 verwirklichten Huggler und anschließend Müller (Schweiz) die Idee von McKee mit einer eigenen Prothese und kamen schnell zu dem Schluss, dass eine 0,2 mmDistanz zwischen Kopf und Pfanne die besten Ergebnisse lieferte. Kombinationen von Materialien unterschiedlicher Hersteller wurden unterbunden. Die Bedenken blieben allerdings bestehen. 1977 wurde dann ein neuer Schmiedeprozess für diese CoCr-Legierung eingeführt, der die Karbidgröße um den Faktor 10 reduzierte. Später untersuchte man den Einfluss des Karbonanteils auf die Abriebbeständigkeit. Auch hier gab es deutliche Unterschiede zwischen den verwendeten CoCr-Legierungen. Von Low-carbon (lc)-CoCr spricht man bei etwa 0,05% Karbonanteil. High-carbon (hc, ISO 583212)-CoCr besitzt 0,2% Karbonanteil. Wang und Firkins stellten in ihren Arbeiten 1999 fest, dass der volumetrische Abrieb von 0,53 mm3 pro Millionen Zyklen bei lc-CoCr auf 0,25 mm3 pro Millionen Zyklen bei hc-CoCr sinkt. Der nach heutigem Wissensstand optimierte Werkstoff weist viele Vorteile bezüglich Abrieb und Prothe-
sendesign auf. Untersuchungen haben gezeigt, dass diese Legierungen als Gleitpaarung in der Einlaufphase selbstpolierende Eigenschaften haben und damit eine glatte, partikelfreie Oberfläche und optimales Spiel zwischen den Komponenten selbst erreichen. Darüber hinaus wird die vom Polyethylenabrieb bekannte Fremdkörperreaktion durch die immensen Unterschiede bei Partikelgröße und Anzahl unterbunden. Selbst bei Auslösung größerer Partikel aus der Oberfläche passivieren diese sich schnell in oxidierender Umgebung. Merrit und Visuri haben gezeigt, dass die Nickel- und Kobaltexposition des Körpers durch Abrieb bei Metall-Metall-Gleitpaarungen deutlich geringer ist als die täglich aus der Umwelt aufgenommene Menge. Nickel, Kobalt und Molybdän werden an Albumin gebunden und über den Urin ausgeschieden. Allein Chrom verbleibt im menschlichen Körper. Da Kobalt und Chrom in höheren Konzentrationen kanzerogene Wirkung haben, wurden auch hier mehrere Untersuchungen an großen Patientenkollektiven durchgeführt, die keine Korrelation zu etwaigen Tumoren aufzeigten. So ist von Allen (1997) bei der hc-CoCr-Legierung als Artikulationskomponente eine Exposition von 1,8 μg/l Kobald im menschlichen Serum gemessen worden, wobei 100.000 μg/l zytotoxisch wären. Die klinischen Resultate der sog. Müller-Prothesen mit über 30 Jahren Standzeit ohne Beeinträchtigung der Artikulationskomponente untermauern die Vorteile dieser Philosophie und motivieren auch heute einen Großteil der klinischen Anwender zum Einsatz dieser Technologie.
57.7.6 Keramikgleitpaarungen
Die Fremdkörperreaktionen auf den Abrieb herkömmlichen Polyethylens sowie die Misserfolge der MetallMetall-Gleitpaarungen der ersten Generation mit den Konsequenzen einer frühzeitigen Prothesenlockerung veranlassten zur Suche nach besseren Materialien mit geringen Abriebraten. 1970 begann Boutin in Frankreich mit der Entwicklung eines Kopfs und einer Pfanne aus Aluminiumoxidkeramik. Doch auch hier traten in den ersten 10 Jahren Probleme mit der Befestigung des Kopfs auf dem metallischen Schaft sowie Materialinhomogenitäten auf. Es kam gehäuft zu Brüchen der Keramik mit nachfolgender schwieriger Revision aufgrund diffuser Verteilung der Bruchpartikel. Nachdem man die Homogenität des Kristallgefüges in der Biokeramik verbessert hatte, erfreute man sich langjähriger Erfolge mit Abriebraten unter 10 μm pro Jahr. Das bleibende Problem keramischer Gleitpaarungen sind zu steil implantierte Pfannen. Hier wird häufig von kritischen Belastungen am Pfannenrand mit wiederkehrenden Subluxationen des Kopfs und resultierendem
57
912
VI
Kapitel 57 · Biomaterialien
deutlichen Keramikabrieb berichtet; auch zu Keramikbrüchen kommt es in diesem Zusammenhang. Um diese ungewünschten Brüche zu umgehen, wurde die Paarung des Keramikkopfs mit Polyethylenpfannen eingeführt. Die bessere Benetzbarkeit mit wässrigen Flüssigkeiten ermöglichte zudem einen gegenüber Stahl- oder CoCrKöpfen um die Hälfte reduzierten Polyethylenabrieb. Einen weiteren günstigen Nebeneffekt sahen die Anwender im deutlichen Ausschluss etwaiger immunologischer Überreaktionen auf metallische Komponenten wie Nickel oder Chrom, da Keramiken absolut bioinert sind. Nicht zuletzt konnten durch die überragende Härte der keramischen Implantate Oberflächenbeschädigungen durch Zementpartikel oder chirurgische Instrumente vermieden werden. Um die Bruchfestigkeit und Zähigkeit des Materials zu erhöhen, wurde 1980 Zirkoniumoxid als keramisches Basismaterial für Hüftköpfe und Pfannen eingeführt. Man konnte durch eine Reduzierung der Mindestwandstärken des Materials mit Zirkoniumoxid auch erstmals kleinere Hüftköpfe und damit auch kleinere Pfannen einsetzen. Bedenken wegen eines höheren Abriebs bei der Paarung von Zirkoniumoxid mit Polyethylenpfannen wurden in den letzten Jahren geäußert, konnten aber bisher nicht nachgewiesen werden. Im klinischen Alltag haben sich Aluminiumoxidkeramik-Polyethylen-Gleitpaarungen heute fest etabliert. Die Bewusstseinsbildung hat operative Techniken beeinflusst, und die Bruchraten sind in den letzten Jahren kontinuierlich zurückgegangen.
57.7.7 Polyethylengleitpaarungen
Nachdem das Debakel mit PTFE abzusehen war, setzte Charnley Polyethylen erstmalig 1962 in den von ihm entworfenen künstlichen Hüftgelenken ein. Als Hüftpfannenkomponente zeigte es bei der Artikulation gegen einen CoCr-Metallhüftkopf erstaunliche Primärerfolge und geringen Abrieb. Heute finden wir eine Reihe orthopädischer Implantate, die auf diese Kombination vertrauen. Dennoch stellt der Abrieb des UHMWPE (»ultra high molecular weight polyethylene«) den Hauptgrund für Prothesenrevisionen dar. Man geht heute davon aus, dass der lineare Abrieb des Polyethylens bei dieser Materialkombination etwa 100–300 μm pro Jahr beträgt. Durch die Einführung von Aluminiumoxidkeramikköpfen gegen 1970 konnte der Abrieb auf 50–150 μm halbiert und die Lebensdauer der Prothese damit deutlich verlängert werden. Es werden jedoch immer wieder Keramikkopfbrüche beobachtet, die zu einer schnellen Revision der Prothese zwingen. Aus diesem Grund untersuchte man die Möglichkeit der Oberflächenhärtung von Titanbasislegierungen nach ISO 5832-11. Die Idee war, sowohl das Allergierisiko als auch die Bruchgefahr eines Hüftkopfs
zu reduzieren sowie die Vorteile des geringeren Abriebs der Keramiken nachzuahmen. Hierzu bediente man sich der Oberflächenhärtung durch Titannitridschichten, die ähnliche Härten wie Keramiken erreichen. Ein bedeutender Nachteil der Titannitridschicht ist jedoch die Dicke von nur 3–5 μm, was bei einer Beschädigung schnell zu höheren Abriebraten führen kann. Ende der 1980er Jahre wurde darum von Sulzer Medica eine Methode zur Oberflächenhärtung mittels Sauerstoffdiffusion (»oxygen diffusion hardening«, ODH) entwickelt. Es werden Härtungstiefen von 40 μm erreicht, während die Oberfläche der Köpfe gleichzeitig kratzfest gegen Zirkoniumoxidpartikel ist, die oft dem Acrylatzement als Röntgenkontrastmittel beigemischt werden. Auf Seiten des Polyethylens beschäftigt man sich seit 1998 mit einer weiteren neuen und vielversprechenden Methode, um die Vorteile des UHMWPE mit einem metallischen Kopf weiterhin zu nutzen, gleichzeitig aber den Abrieb noch deutlicher zu reduzieren. Schon seit 1986 beaufschlagt man Polyethylen mit γ-Bestrahlung. UHMWPE wird während des Fertigungsprozesses aus zwei Gründen mit ionisierender Strahlung behandelt: entweder zur Sterilisation fertiger Komponenten oder um eine höhere Quervernetzungsdichte und damit verbesserte Abriebeigenschaften zu erzielen. Man konnte durch diese Methode den Abrieb gegenüber unbestrahlten Gelenkkomponenten halbieren. Grundsätzlich ist die Quervernetzung umso besser, je höher die Bestrahlungsdosis gewählt wird. Allerdings entstehen bei der Bestrahlung auch Lücken, freie Radikale, in den Polymerketten, die mit zunehmendem Alter eine Versprödung des Materials und damit wiederum geringere Abriebresistenz zur Folge haben. William Harris (Boston) führte darum 1998 die Elektronenbestrahlung des erwärmten UHMWPE ein. Der Quervernetzungsgrad wird dadurch nochmals deutlich erhöht. In einer abschließenden erneuten Erwärmung über den Kristallitschmelzpunkt werden die verbliebenen freien Radikale abgesättigt. Die oxidationsbedingte, natürliche Alterung des Materials wird durch diesen Prozess vorgezogen, und das Polymer behält seine Abriebresistenz über einen sehr langen Zeitraum. Man konnte diese Vorteile im Vergleich zu anderen orthopädischen Polyethylenen bereits im Simulator nachweisen. Die Ergebnisse nach über 20 Mio. Zyklen – entsprechend einer Lebensdauer der Prothese von 20 Jahren – waren erstaunlich. Der Abrieb war so gering, dass er selbst nach diesem Zeitraum nicht messbar war, der Kaltfluss des Materials blieb ebenso gering. Darüber hinaus scheint dieses Material auch bei abrassivem Abrieb selbstheilende Eigenschaften zu besitzen. ⊡ Tab. 57.6 verdeutlicht nochmals die technischen Möglichkeiten in Abhängigkeit von den Anforderungen.
913 Weiterführende Literatur
⊡ Tab. 57.6. Materialpaarungen für Patienten unterschiedlicher Aktivität und Lebenserwartung Patient
Materialpaarung
Lebenserwartung
Aktivität
Kopf
Pfanne
Linearer Abrieb (lm/Jahr)
bis mittel
moderat
Stahl CoCrMo CoCrMoC
UHMWPE
100–300
mittel bis hoch
normal
Aluminiumoxid Zirkoniumoxid TiAlNb-ODH
UHMWPE
50–150
hoch
hoch
CoCrMoC
CoCrMoC
2–20
Al2O3
Al2O3
2–20
CoCrMo TiAlNb-ODH
Elektronenbestr. UHMWPE (Durasul®)
57.8
nicht messbar im Simulatorversuch nach 20 Mio. Zyklen
Ausblick
Optimiertes Design unter Berücksichtigung der biomechanischen Anforderungen, geringer Knochenverlust, einfache Implantationstechnik und konsequente Minimierung des Abriebs: Das waren die technologischen Herausforderungen bei der Optimierung von Endoprothesen der letzten 2 Jahrzehnte. ▬ Das Ergebnis: Schnellere Belastbarkeit und eine deutlich verbesserte Überlebensdauer der Implantate. ▬ Die Konsequenz: Die Indikationserweiterung hin zu einem jünger werdenden Patientenkollektiv. Der aktive, im Berufsleben stehende Patient wünscht sich eine möglichst nahe Wiederherstellung seiner Lebensqualität. Es stellen sich neue Herausforderungen bei der Weiterentwicklung von Prothesen (⊡ Abb. 57.6). Ein Beispiel ist hier die möglichst anatomische Rekonstruktion der Hüfte und damit eine optimale Bewegungsfreiheit ohne Kompromisse. Grundvoraussetzung ist der Einsatz größerer Artikulationsdurchmesser, ähnlich der ersten Prothesen von Thompson und McKee. Man erreicht dadurch einen vergrößerten Bewegungsumfang des Hüftgelenks bei gleichzeitiger Verringerung des Luxationsrisikos. Die spezifische Anatomie eines jeden Patienten bestimmt jedoch die Pfannengröße, und die Kopfgröße war bis vor wenigen Jahren durch die Pfannengröße und die Mindeststärke des Polyethylens vorgegeben. Metall-Metall-Gleitpaarungen neuester Generation sowie das neuartige, elektronenbestrahlte UHMW-Polyethylen bieten hier die Möglichkeit, durch dünnere Mindestwandstärken die Kopfdurchmesser zukünftig zu vergrößern. Insbesondere beim Einsatz im künstlichen Kniegelenk verspricht man sich vom elektronenbestrahlten UHMWPE deutlich längere Prothesenstandzeiten. Im Gegensatz zum Kugelgelenk einer Hüfte finden sich beim Knie großflächige, scharnierartige Bewegungen, die das Material mit Druck- und Scherkräften großflächig belasten. Aufgrund der ungleichmäßigen Flächenpressung sind Kera-
⊡ Abb. 57.6a,b. Moderne Hüftendoprothesensysteme. a Alloclassic® Zweymüller® System, b CLS® Spotorno® System
mik-Keramik- bzw. Metall-Metall-Artikulationen an dieser Stelle nicht geeignet, und ein möglichst abriebarmes Polymer ist hier die einzige technische Möglichkeit zur Verschleißminimierung.
Literatur Willert HG, Semlitsch M, Buchhorn G, Kriete U (1978) Materialverschleiß und Gewebreaktion bei künstlichen Gelenken. Springer, Berlin Heidelberg New York (Orthopädie 7, S 62–83)
Weiterführende Literatur Garbe S (1998) Zwischen Biomechanik und Pathomechanik des Femurs. Huber, Bern Kienapfel H (1994) Grundlagen der zementfreien Endoprothetik. Demeter, Gräfelfing Morscher EW (1995) Endoprothetik. Springer, Berlin Heidelberg New York Tokio Muratoglu OK, Bragdon CR, O‘Connor DO, Jasty M, Harris W (1999) A novel method fpr crosslinking UHMWPE to improve wear with
57
914
Kapitel 57 · Biomaterialien
little or no sacrifice on mechanical properties. 45th Annual Meeting, Orthopedic Research Society, Anaheim/CA Rieker C, Windler M, Wyss U (1999) Metasul. Huber, Bern Semlitsch M, Willert HG (1997) Clinical wear behaviour of ultra-high molecular weight polyethylene cups paired with metal and ceramic ball heads in comparison to metal-on metal pairings of hip joint replacements. Proc Instn Mech Engrs: vol 211, part H Willmann G, Zweymüller K (2000) Bioceramics in hip joint replacement. Thieme, Stuttgart Wintermantel E, Suk-Woo Ha (2002) Medizintechnik mit biokompatiblen Werkstoffen und Verfahren, 3. Aufl. Springer, Berlin Heidelberg New York Tokio
VI
58 Medizinische Robotersysteme H. Fischer, U. Voges
58.1 Einleitung
– 915
58.2 Grundlagen
– 915
58.3 Entwicklung – 917 58.4 Übersicht – 917 58.4.1 58.4.2 58.4.3 58.4.4 58.4.5
Assistenzsysteme – 917 Aktive Haltesysteme – 917 Master-Slave-Manipulatoren – 918 Biopsieroboter – 919 Kommerzielle aktive Halte- und Führungssysteme – 920 58.4.6 Kommerzielle Telemanipulatoren – 920 58.4.7 Kommerzielle Chirurgie-/Biopsieroboter – 921
58.1
Einleitung
Robotersysteme für die Medizin stellten 1990 noch ein reines Forschungsthema dar. Inzwischen konnten die ersten Forschungsergebnisse in die Praxis umgesetzt werden, und im Jahre 2000 befanden sich schon mehrere Arten von Robotersystemen für unterschiedliche chirurgische Disziplinen im klinischen Einsatz, weitere sind inzwischen in Vorbereitung. Während man bei einigen Systemen schon fast von Routineeinsatz sprechen kann, sind andere noch in der Erprobungsphase. In der Forschungslandschaft widmet man sich einer ganzen Reihe von offenen Fragen und Weiterentwicklungen, z. B. in der Kombination von Robotern mit bildgebenden Verfahren bzw. ihrem Einsatz in besonderen Umgebungen wie z. B. im CT (Computertomograph) oder MRT (Magnetresonanztomograph) oder auch der weiteren Miniaturisierung und Vereinfachung. Nach einer kurzen Einführung in die Grundlagen der Medizinrobotik und die Entwicklungen auf diesem Gebiet wird eine Übersicht über bereits existierende Systeme und ihre medizinischen Anwendungsfelder gegeben. Einige technische Aspekte der Nutzung derartiger Systeme werden erläutert, und ein Ausblick in die Zukunft schließt dieses Kapitel ab.
58.2
Grundlagen
Unter dem Begriff »Roboter« werden im allgemeinen Sprachgebrauch meist nicht nur die eigentlichen Ro-
58.5 Medizinische Anwendungsfelder – 923 58.6 Technische Aspekte – 923 58.7 Perspektiven Literatur
– 925
– 926
Weiterführende Literatur
– 926
Weitergehende Internetinformationen zu den genannten Firmen bzw. Gerätenamen – 926
botersysteme verstanden, sondern auch die Telemanipulationssysteme. Streng genommen sind Roboter aber nur die autonom arbeitenden Systeme, wie wir sie in der Industrie, z. B. aus der Automobilfertigung, kennen: Der Roboter führt eine vorher definierte Aufgabe immer wieder gleichförmig durch; diese Tätigkeit arbeitet er ohne weiteren menschlichen Eingriff und mit hoher Wiederholgenauigkeit ab. Der Mensch kann nur einen Abbruch (Notaus) auslösen, aber keine interaktive Änderung. Eine Änderung ist nur durch Neudefinition der Aufgabe, eine neue Programmierung oder ein neues Einlernen (»Teachen«) des Roboters möglich. Ist hingegen der Mensch der Handelnde, der das System führt, so sprechen wir von einem Telemanipulationssystem oder auch einem Fernhantierungssystem. Nur die vom Bediener direkt vorgegebene Bewegung wird – möglichst zeitgleich – vom Arbeitssystem nachvollzogen. Das Eingabegerät (Bedieneinheit), das der Bediener führt, wird Master genannt; der Manipulator, der die Aktion ausführt, heißt Slave (Arbeitseinheit). Daher werden derartige Systeme auch Master-Slave-Manipulatorsysteme genannt. Eine Art Mischform zwischen den Telemanipulationssystemen und den Robotersystemen gibt es in Gestalt der interaktiv bedienbaren Systeme. Hier wird oft ohne Aufteilung in Master und Slave das Instrument selbst direkt vom Bediener geführt. Eine Sollbahn, ein Arbeitsbereich oder auch zulässige Kräfte werden vorher definiert; will der Bediener z. B. diese Sollbahn verlassen, wird er daran durch entsprechende Kräfte gehindert und das bedienergeführte Instrument kann den zulässigen
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _58, © Springer-Verlag Berlin Heidelberg 2011
916
Kapitel 58 · Medizinische Robotersysteme
VI
⊡ Abb. 58.1. Prinzip eines Telemanipulatorsystems bei minimal-invasiven Eingriffen (Bild: Intuitive Surgical)
Arbeitsbereich nur nach Bestätigung einer Warnmeldung verlassen. Kritische Bereiche können so vermieden werden und eine z. B. anhand von Röntgenaufnahmen vorgeplante Operation kann exakt durchgeführt werden. ⊡ Abb. 58.1 zeigt das Prinzip eines Master-Slave-Manipulators anhand eines Operationstelemanipulators für die Herzchirurgie. Der Chirurg sitzt an der Konsole, die die Eingabesysteme (Mastermanipulatoren für jeweils eine Hand), ein Sichtsystem sowie verschiedene Fußschalter zur Bedienung der Instrumentenfunktionen beinhaltet (z. B. Saugen und Spülen). Die Masterbewegung wird in eine korrespondierende Bewegung der Instrumente übertragen, und der Telemanipulator führt die entsprechenden Aktionen aus. Der Assistent steht bereit für erforderliche Instrumentenwechsel, die noch per Hand erfolgen müssen. Der Abstand zwischen dem Master und dem Slave kann unterschiedlich überbrückt werden. Bei einer direkten, rein mechanischen Kopplung der beiden Geräte wird der Abstand relativ klein sein (maximal einige Meter). Diese Lösung ist jedoch aufgrund der hohen mechanischen Kopplung, verbunden mit Gestänge, Zugseilen etc., in der medizinischen Robotik kaum sinnvoll einsetzbar. ⊡ Abb. 58.2 zeigt eine derart direkte mechanische Kopplung zwischen Master und Slaveeinheit. Statt der direkten mechanischen Kopplung zwischen Master und Slave werden meist Rechnersysteme eingesetzt, die in Form einer Steuerung die Kopplung von Master und Slave übernehmen. Wird nur ein Rechner eingesetzt, der die Eingabeinformationen der Mastereinheit in die
⊡ Abb. 58.2. Rein mechanische Kopplung zwischen Master und Slaveeinheit
entsprechenden Steuerungsinformationen für die Slaveeinheit umsetzt, so ist über eine Kabelverbindung eine Entfernung von einigen Metern möglich. Haben hingegen sowohl der Master als auch der Slave jeweils einen eigenen Rechner, die z. B. über LAN miteinander verbunden sind, so kann die Entfernung zwischen den Systemen beliebig groß sein. Sogar über Kontinente hinweg können so Verbindungen zwischen Master und Slave aufgebaut und Telechirurgie praktiziert werden. Bei größerer Entfernung kann es aber je nach verwendetem Übertragungsverfahren zu Verzögerungen zwischen einer Aktion auf der Masterseite und der zugehörigen Reaktion auf der
917 58.4 · Übersicht
Slaveseite sowie der Erkennung auf dem zurückgeschickten Videosignal kommen, sodass langsamer und vorsichtiger gearbeitet werden muss.
58.3
58.4
Übersicht
Im Folgenden wird eine Übersicht der Assistenzsysteme, der Telemanipulatoren sowie der Robotersysteme gegeben.
Entwicklung
Im Folgenden wird die Entwicklung der medizinischen Robotik kurz dargestellt. Die entsprechenden Systeme werden im Abschn. 58.4 »Übersicht« näher beschrieben. Der Einsatz von Robotik oder auch von rechnergeführten Systemen in der Medizin erfolgte auf verschiedenen Stufen. So wurden zunächst Endoskop-FührungsSysteme (EFS) entwickelt, z. B. Robox (Oberle u. Voges 1993), Fips (Gumb et al. 1996), Felix (Selig et al. 1999), Aesop (von Wang, vgl. Star 2010), EndoAssist (Uecker et al. 1994), die einerseits weniger sicherheitsrelevant sind, andererseits für den Chirurgen eine Arbeitserleichterung darstellen. Mit Hilfe der EFS ist es möglich, das Endoskop ohne menschlichen Assistenten über einen längeren Zeitraum zu halten und zu führen. Die Bedienung kann dabei über Joystick, Tastenfeld, Sprache, Kopfbewegung o. Ä. erfolgen. Anstelle einer expliziten Bedienung ist auch die automatische Instrumentenverfolgung (Tracking) möglich. Die wesentlichen Vorteile eines Endoskop-Führungs-Systems liegen darin, dass auf einen zusätzlichen Assistenten als Kameramann verzichtet werden kann und ein ruhiges Bild zur Verfügung steht. Die eingesetzten Endoskope sind dabei die standardmäßig verwendeten Systeme. Als Weiterführung der Endoskop-Führungs-Systeme sind Instrumenten-Führungs-Systeme (IFS) entstanden, die aber i. d. R. nicht für das Halten und Führen herkömmlicher Instrumente geeignet sind, sondern für speziell entwickelte – oft nicht nur starre, sondern auch flexible – Instrumente. Die Bedienung dieser Instrumente erfolgt über eine Mastereinheit, falls es sich um ein Telemanipulationssystem handelt (Tiska [Neisius 1997]). Im Fall von Robotern (Robodoc [Bauer et al. 1997], Caspar [Petermann et al. 2000]) hingegen führen die IFS vordefinierte Aufgaben durch und haben ein sehr eingeschränktes interaktives Eingabesystem. Dieses dient dann meist zur Korrektur einer bereits vorgegebenen abzufahrenden Bahnkurve. Da der Einsatz eines einzelnen IFS nur im Fall eines Robotersystems sinnvoll ist, sonst aber wie bei einer normalen Operation beidhändiges Arbeiten auch bei Verwendung eines Telemanipulators möglich sein sollte, war der Schritt vom IFS zu einem System, das aus zwei IFS und einem EFS besteht, nicht weit (ARTEMIS [Voges et al. 1995], daVinci [Shennib et al. 1998], ZEUS [Stephenson et al. 1998]). Hier hat der Chirurg die Möglichkeit, Operationen, die keinen weiteren Assistenten erfordern, alleine durchzuführen, also erstmalig war die Solochirurgie realisierbar.
58.4.1 Assistenzsysteme
Bei den Assistenzsystemen kann man zwischen den industriell oder kommerziell erhältlichen Systemen und Systemen aus dem Forschungsbereich bzw. dem universitären Umfeld unterscheiden. Grundsätzlich jedoch dienen diese Systeme zum Halten von Instrumenten und Kameras. Man unterscheidet zwischen passiven Haltesystemen, die von Hand positioniert werden und keine Aktoren (Motoren) beinhalten, und aktiven Systemen, die angetrieben die gewünschte Position anfahren. Im Sinne der Robotik werden hier nur aktive Systeme vorgestellt.
58.4.2 Aktive Haltesysteme
Im Forschungszentrum Karlsruhe wurden verschiedene aktive Halte- und Führungssysteme entwickelt. Ein solches System ist beispielhaft in ⊡ Abb. 58.3 dargestellt. Es
⊡ Abb. 58.3. FIPS, Endoskopfuhrungssystem, Forschungszentrum Karlsruhe
58
918
VI
Kapitel 58 · Medizinische Robotersysteme
dient zum Führen einer endoskopischen Kamera. Da das System für die minimal-invasive Chirurgie (insbesondere Bauchraumchirurgie) vorgesehen war, besitzt es kinematisch eine mechanische Zwangsführung um den invarianten Einstichpunkt und kann elektrisch um diesen Punkt verfahren werden. Der invariante Einstichpunkt ist hierbei der Durchstichpunkt in der Bauchdecke. Eine mechanische Beanspruchung bzw. Belastung dieser Einstichstelle (invarianter Punkt) wird durch die Art der mechanischen Konstruktion des Geräts verhindert. Die Eingabe erfolgt wahlweise durch eine Art Joystick oder aber mittels Sprachsteuerung. Für Forschungszwecke steht auch ein Kameratrackingsystem zur Verfügung. Der Chirurg kann somit intuitiv die Kamera in die gewünschte Position bringen. Sein Assistenzarzt ist nun nicht mehr länger mit der Führung und Positionierung der endoskopischen Kamera beauftragt und kann andere Aufgaben übernehmen. Ein großer Vorteil eines solchen einfachen Kameraführungssystems ist beispielsweise die Zitterfreiheit, d. h., der elektronische Assistent hält die Kamera auch über einen langen Zeitraum zitterfrei, was das Operieren für den Chirurgen erleichtert, da das Operationsfeld auf dem Bildschirm nicht verwackelt ist.
58.4.3 Master-Slave-Manipulatoren
Der erste wissenschaftlich eingesetzte Telemanipulator wurde als Demonstrator 1995 im Forschungszentrum Karlsruhe fertiggestellt und erprobt (⊡ Abb. 58.4). Es konnten damit komplizierte Szenarien erfolgreich
⊡ Abb. 58.4. ARTEMIS, Telemanipulatorsystem, Forschungszentrum Karlsruhe
und präzise durchgeführt werden. Durch die flexiblen distalen Gelenke an den Instrumenten war es zudem erstmals möglich, Strukturen im Inneren des menschlichen Körpers zu umfahren, und dadurch konnten auch komplizierte Eingriffe (z. B. Durchführen von chirurgischen Nähten um Organe herum) erstmals endoskopisch durchgeführt werden. Durch Integration von Kraft- und Momentensensoren war erstmals eine Kraftrückkopplung möglich: Der Chirurg konnte an seiner Bedieneinheit die Kräfte spüren, die er mit den Aktoren im Operationsbereich ausübte. Dies zeigte jedoch auch, dass solche Systeme sehr viel komplizierter sind, als man zunächst annahm. Vor allem auf der Instrumentenseite ist eine Integration von Sensoren – bedingt durch die großen Einschränkungen – sehr schwierig, und der Wunsch des Operateurs, kostengünstige Einmalwerkzeuge zu verwenden, ist somit obsolet. Im Master-Slave-Manipulator der Universität Berkeley, USA, befinden sich in der Slaveeinheit, also in der Instrumentenspitze, ebenfalls Kraft- und Beschleunigungssensoren. Diese dienen zur Rückkopplung der in der Slaveeinheit auftretenden Kräfte in die Mastereinheit. Es können damit tatsächlich ausgeübte Kräfte auf die Finger des Chirurgen zurückvermittelt werden. Derartige Kraftrückkopplungen sind v. a. dann notwendig, wenn sich Operateur (Mastereinheit) und Manipulator (Slaveeinheit) nicht mehr unmittelbar im gleichen Operationssaal befinden, sondern örtlich entkoppelt sind. Sind zudem die Endeffektoren elektrisch angetrieben, besteht keine Rückmeldung über die Stärke der ausgeübten Kräfte z. B. zwischen den Branchen einer endoskopischen Fasszange.
919 58.4 · Übersicht
Durch zu starkes Greifen an der Mastereinheit können dann zu große Kräfte auf der Slaveseite entstehen, und dadurch kann Gewebe geschädigt werden. Bei einer solchen räumlichen und damit mechanischen Entkopplung ist eine Kraftrückkopplung von Vorteil, da eine Art taktiles Feedback wiedererlangt werden kann. Der Chirurg erhält dadurch wieder eine Information über seine Interaktion mit den unterschiedlichen Gewebetypen. Der möglichen mechanischen Zerstörung durch z. B. zu hohe Greifkräfte soll damit entgegengewirkt werden. Bei endoskopischen Standardoperationen erfolgt diese Rückkopplung nur optisch, unterstützt durch die direkte mechanische Kopplung der endoskopischen Instrumente, d. h., der Griff hat eine direkte Verbindung (evtl. über verschiedene Gelenke) zum distalen Endstück und damit auch zu den Fingern des Operateurs. Die Rückkopplung erfolgt dann über die Verfärbung des Gewebes beim Greifen. Wird das Gewebe weiß, ist die Greifkraft zu hoch (das Gewebe wird nicht mehr durchblutet und verfärbt sich daher weißlich).
⊡ Abb. 58.5. Robitom, MRT-fähiger Biopsieroboter, Forschungszentrum Karlsruhe
58.4.4 Biopsieroboter
In den letzten Jahren haben sich die diagnostischen Bildgebungsverfahren und v.a. die dazugehörigen Auswerteverfahren enorm verbessert. Mit zunehmender Rechnergeschwindigkeit wurde es erstmals möglich, bewegte Szenarien in Echtzeit mittels dieser neuen Tomographen darzustellen. Dies ermöglicht nun, so genannte Chirurgieroboter für einfache Aufgaben, z. B. für die Biopsie bei Mammakarzinomen, direkt im Magnetresonanztomographen einzusetzen. Aufgrund der Umgebungsbedingungen in solchen Tomographen ist dies jedoch nicht so einfach möglich, und so wurde seit 1998 im Forschungszentrum Karlsruhe ein Roboter für die Entnahme einer Gewebeprobe (Biopsie) unmittelbar im Magnetfeld eines Tomographen und unter Bildsteuerung entwickelt (⊡ Abb. 58.5). Seit November 1999 konnte dieser Manipulator erstmals auch für die klinische Evaluierung eingesetzt werden (Fischer et al. 2000). MrBot (Urobotics lab, Johns Hopkins University, USA, ⊡ Abb. 58.6) ist ebenfalls ein MR-kompatibler Manipulator für den minimal-invasiven Zugang zur Prostata direkt im MRT. Verschiedene Nadelantriebe können damit kombiniert werden, sodass Biopsien, thermische Ablationen und sogar radioaktive Pellets punktgenau platziert werden können. MrBot (⊡ Abb. 58.7) ist aus nichtmagnetischen und dielektrischen Materialien gebaut, und so wird vorzugsweise Kunststoff, Keramik und Gummi eingesetzt. Als Antrieb dienen pneupatische Schrittmotoren, die eigens für diese Anwendung entwickelt wurden. Optische Sensoren senden die Positionssignale zur Steuereinheit, die sich außerhalb des MRTs befindet.
⊡ Abb. 58.6. MrBot, MR-kompatibler Roboter für Prostataeingriffe
⊡ Abb. 58.7. MrBot, MR-kompatibler Roboter für Biopsien und Therapien
Positioniergenauigkeiten im Sub-Millimeterbereich sowie Magnetfeldkombatibilität bis zu 7 Tesla konnten hiermit erreicht werden. Die Spitze einer Nadel kann mit einer Genauigkeit von ≤1 mm platziert werden.
58
920
Kapitel 58 · Medizinische Robotersysteme
58.4.5 Kommerzielle aktive Halte- und
58.4.6 Kommerzielle Telemanipulatoren
Führungssysteme
VI
Bei kommerziell erhältlichen aktiven Halte- und Führungssystemen befinden sich derzeit noch zwei zugelassene Systeme auf dem Markt, und zwar Freehand (früher EndoAssist) von der Firma Prosurgics (früher Armstrong Healthcare, UK) sowie LapMan von der Firma MedSys s.a., Belgien. Die Steuerung der Kamera im Fall Freehand erfolgt durch eine Kopfsteuerung, d. h., nach Aktivieren dieser Kopfsteuerung durch einen Fußschalter folgt die Kamera den Bewegungen des Kopfes (⊡ Abb. 58.8). Im Fall LapMan erfolgt die Steuerung über eine Eingabegerät am Instrument des Chirurgen. Beide Systeme haben keine mechanische Zwangsführung, d. h., sie können beliebig im Raum positioniert werden. Die Einhaltung des invarianten Punktes um den Einstichpunkt in der Bauchdecke wird bei diesen Systemen von der Softwaresteuerung übernommen. Prinzipiell sind beide Varianten – kinematisch festgelegter mechanischer invarianter Punkt und softwaregehaltener invarianter Punkt – gleichwertig. ⊡ Abb. 58.9 zeigt ein Kameraführungssystem der Firma Medsys s.a. aus Belgien. Der invariante Punkt wird hierbei durch die Softwaresteuerung eingestellt und beibehalten. Die Steuerung dieses Systems erfolgt handbedient durch eine spezielle Bedieneinheit, welche direkt am Instrumentengriff angebracht wird. Die Steuerung erfolgt dann mittels des Zeigefingers direkt am Instrumentengriff.
⊡ Abb. 58.8. Steuereinheit des FreeHand Systems, über Gummiband am Kopf des Chirurgen befestigt (Prosurgics, UK)
Im Folgenden wird das einzige noch am Markt befindliche Telemanipulatorsystem der Firma Intuitive Surgical (USA) vorgestellt. ⊡ Abb. 58.10 zeigt daVinci von Intuitive Surgical. Es wurde speziell für die Herzchirurgie entwickelt und dient mittlerweile als Telemanipulationssystem für verschiedenste Bereiche der endoskopischen Chirurgie (z. B. Bauchraum, Urologie, Kopf etc.). Die Entwicklungsarbeiten begannen in 1995, und bereits seit 1999 wird es in Deutschland klinisch eingesetzt. Weltweit sind inzwischen über 1000 Systeme installiert, in Deutschland neben Leipzig u. a. in Berlin, Dresden, Frankfurt/M., Hamburg und München. Mit diesem System wurden zunächst vor allem Bypassoperationen, aber auch Herzklappenoperationen minimal-invasiv durchgeführt. Inzwischen wurden Operationen im urologischen Bereich (Prostataresektion), im gynäkologischen Bereich sowie im Kopf- und Nackenbereich durchgeführt. Der Chirurg sitzt an einer maximal 8 m abgesetzten Konsole, hat über Bildschirme ein 3D-Bild vom Operationsgebiet und kann über zwei Eingabegeräte bis zu drei flexible Instrumente sowie das Endoskop bedienen. DaVinci ist ein geschlossenes, integriertes System, das nur in seiner Gesamtheit genutzt werden kann.
⊡ Abb. 58.9. FreeHand-Kameraführungssystem (Prosurgics, UK)
921 58.4 · Übersicht
⊡ Abb. 58.10. daVinci (Intuitive Surgical, USA)
58.4.7 Kommerzielle Chirurgie-/Biopsieroboter
Unter diesen Systemen versteht man den klassischen Begriff der Roboter, angewandt auf chirurgische Präzisionsarbeiten wie z. B. das Fräsen von Hüftschäften. Diese Roboter bewegen sich auf vor der Operation fest vorgegebenen Bahnkurven und arbeiten ein Programm ähnlich CNC-Maschinen Schritt für Schritt ab. ⊡ Abb. 58.11 zeigt ROBODOC von Curexo Technology Corporation, USA. Es wurde 1992 erstmalig vorgestellt und dient zum präzisen Platzieren von Hüftprothesen. Dieses System beinhaltet neben dem eigentlichen Roboter auch ein Planungssystem, mit dem die entsprechende Prothese ausgewählt und die optimale Lage der Prothese berechnet werden. Mit ROBODOC sind seit 1994 über 12000 Operationen erfolgt, die meisten davon in Deutschland. Während in den Anfängen jeweils in einer ersten Operation der Oberschenkelknochen mit Schrauben markiert werden musste, um eine exakte Vorberechnung wie auch eine Online-Überwachung während den eigentlichen Roboterfräsarbeiten zu ermöglichen, wird in dem neuen System auf diese Markierung verzichtet, was zu einer geringeren Belastung für den Patienten führt, da u. a. keine Voroperation erforderlich ist. In Deutschland war seit 1996 CASPAR von ortoMaquet, D, am Werk, das in der Aufgabenstellung und der Funktionalität weitgehend dem ROBODOC-System entsprach. Zusätzlich zur Hüftgelenkoperation zählte auch die Kniegelenkoperation zum Einsatzbereich für CASPAR. Die Produktion von CASPAR wurde mittlerweile eingestellt. In Deutschland hatte der SurgiScope von Jojumarie sehr starke universitäre Anbindung und diente als Hilfswerkzeug für Präzisionsarbeiten im Hals-Nasen-OhrenBereich. Das System konnte hier bereits klinisch erprobt werden. Im Speziellen wurde es zur Mikroskopführung, zur Führung der Biopsienadel oder des Endoskops sowie als Bohr- und Schraubassistent eingesetzt. Nicht zuletzt
⊡ Abb. 58.11. ROBODOC, Operationsroboter der Firma Cureco Technology Corporation, USA
wurde gerade eine neuartige Strahlenbehandlung mit Hilfe dieses Systems erprobt. Hierbei diente das System zur präzisen Positionierung von so genannten radioaktiven Pellets, z. B. bei der Prostataresektion. Ein vorhandener Tumor soll dadurch gezielt mittels radioaktiver Strahlung zerstört werden. Das System wurde mittlerweile vom kommerziellen Markt genommen und dient nun vorwiegend zu Forschungszwecken.
58
922
Kapitel 58 · Medizinische Robotersysteme
⊡ Abb. 58.12. Innomotion, MRT-kompatibles Assistenzsystem
VI ⊡ Abb. 58.12 zeigt das System Innomotion der Firma Innomedic GmbH aus Deutschland. Dies war das erste kommerziell erhältliche Assistenzsystem für den Einsatz unmittelbar im Magnetresonanztomographen (MRT). Entwickelt wurde das System vom Forschungszentrum Karlsruhe zusammen mit dem klinischen Partner Prof. Melzer und dem industriellen Partner Innomedic GmbH, D. Das System erhielt als erstes MRT-kompatibles System weltweit in 2005 die CE-Zulassung. Eingesetzt wurde das System vorwiegend für die perkutane, bildgestützte Schmerztherapie an verschiedensten Organen wie z. B. Leber, Wirbelsäule etc. Das letztgenannte Präzisionssystem besitzt eine direkte Interaktion mit der Planungssoftware und dem Tomographen, und es wird in diesem Bereich daran gearbeitet, das System direkt online mit dem MRT zu betreiben, d. h., die Bildsequenzen können direkt vom Assistenzsystem ausgewertet und umgesetzt werden. Dadurch ist eine Operation unmittelbar unter direkter Bildnavigation möglich, und die Präzision des Eingriffs wird dadurch erhöht. Alle eingesetzten Materialien sind MRTkompatibel, und es wurden explizit für dieses System spezielle optische Sensoren sowie pneumatische Antriebe entwickelt. Die pneumatischen Aktoren (druckluftgesteuerte Zylinder) sind dabei die ersten ihrer Art weltweit und können entlang ihrer Verfahrbahn auf 0,1 mm exakt positioniert werden. Aufgrund der MRT-kompatiblen Materialien ist die Störung des Assistenzsystems während der Bildaquisition deutlich minimiert. Innomedic wurde 2008 von Synthes, USA, übernommen, und das Produkt Innomotion wird nur noch zu Forschungszwecken vertrieben. Ein weiteres System dieser Art ist der momentan nur als Prototyp verfügbare B-Rob-II der ACMIT (Austrian Center for Medical Innovation and Technology, A). Dieses System kann ultraschall- oder CT-geführt Biopsien entnehmen (⊡ Abb. 58.13). Die Nadelpositioniereinheit
⊡ Abb. 58.13. B-Rob-II, ACMIT, A
⊡ Abb. 58.14. AcuBot, Johns Hopkins Medical Institution, USA
wird dabei bildgeführt gesteuert und erreicht eine Präzision von ±0,9 mm. Die Nadeleinheit ist sterilisierbar und kann daher mehrmals eingesetzt werden. Das System ist modular aufgebaut und soll in den verschiedensten klinischen Bereichen zum Einsatz kommen. Ein weiteres System zur Positionierung von Nadeln unter direkter Bildgebung ist der AcuBot Roboter von Johns Hopkins Medical Institution, USA (⊡ Abb. 58.14). Das Bedienerinterface ist ein 15-Zoll-TouchscreenMonitor in Verbindung mit einem 2-Achsen-Joystick so-
923 54.6 · Technische Aspekte
wie einer weiteren Bedienkonsole. Der Roboter zeigte eine Genauigkeit der Nadelpositionierung von > 1mm. Die Nadelapplikationseinheit ist dabei röntgenstrahldurchlässig, sodass diese unmittelbar im CT benutzt werden kann.
58.5
Medizinische Anwendungsfelder
Im Bereich der Bauchraumchirurgie (z. B. Cholezystektomie, Prostatektomie) sowie der allgemeinen endoskopischen Chirurgie werden die einfachen Systeme, wie beispielsweise die Kameraführung, sicherlich am häufigsten verwendet. Ihre unterstützenden Wirkungen sind: ▬ Bereitstellung eines ruhigen, zitterfreien Bildes, ▬ kontrollierte Kameraführung direkt vom Chirurgen (ein zusätzlicher Assistent als Kameramann ist nicht erforderlich). Werden neben dem Endoskop-Führungssystem auch noch Instrumentenhaltesysteme eingesetzt, die einfache Instrumente wie Fasszangen in einer festen Position halten und vom Chirurgen bei Bedarf leicht verstellt werden können, so hat der Chirurg die Möglichkeit, weitgehend allein eine Operation, nur assistiert durch die OPSchwester, durchzuführen. Die so genannte Solochirurgie ist nunmehr machbar (Schurr et al. 1998). Der Einsatz von Robotiksystemen erlaubt es, z. B. in der Orthopädie (Hüftprothesen, Knieoperationen), aber auch in der HNO (Kiefer- und Gesichtschirurgie), im Vergleich zur manuellen Chirurgie wesentlich exaktere chirurgische Arbeiten durchzuführen. So kann der Hüftroboter den Oberschenkelknochen exakter ausfräsen, als der Chirurg es kann. Dadurch hat die Prothese anschließend eine Passgenauigkeit von über 90% gegenüber dem manuellen Verfahren mit ca. 30% Kontaktfläche. Knochenzement als Verbindungsunterstützung zwischen Implantat und Knochen kann dadurch reduziert werden. In der Neurochirurgie werden diese exakten Maschinen vorwiegend zum präzisen Führen und Halten von sehr filigranen Operationsinstrumenten und Kameras eingesetzt. Hier findet man die zwingende Kombination der sehr hohen Exaktheit der Robotersysteme mit einfachen Aufgaben wie den Haltefunktionen. Der Neurochirurg profitiert von der Schnittstelle des Roboters zur Planungssoftware, sodass eine exakte Positionierung anhand der Bilddaten erfolgen kann. Dies ist gerade im neurochirurgischen Bereich von höchstem Interesse. Zum Beispiel könnte Innomotion von der Firma Innomedic GmbH, D, zu solch einem System modifiziert werden und neben endoskopischen Kameras auch Instrumente präzise halten und führen. Genauigkeiten von unter 1 mm sind hierfür zwingend erforderlich und machbar. Die Verwendung von Telemanipulationssystemen schließlich ermöglicht dem Chirurgen, feinere und ex-
aktere Operationsschritte und damit konventionelle endoskopische Eingriffe sehr viel exakter durchzuführen. Hier sind besonders die Bypassoperationen in der Herzchirurgie und die Prostatektomien in der Urologie zu nennen (Selig et al. 2000). Die bisher sehr traumatischen offenen klassischen Operationsmethoden können durch diese präzisen Manipulatoren erstmals endoskopisch durchgeführt werden, was für die Patienten von großem Vorteil ist. Grundsätzlich zeigen die Telemanipulationssysteme folgende Möglichkeiten auf: ▬ Die Bewegungsabläufe lassen sich skalieren: So kann eine Bewegungsvorgabe des Chirurgen von 10 cm in eine Instrumentenbewegung von z. B. 1 cm umgesetzt werden. Dadurch sind exaktere Aktionen möglich. ▬ Ein Bewegungstremor kann herausgefiltert werden, Zittern wird eliminiert, höhere Sicherheit wird erreicht. ▬ Ein Indexing ist möglich: Der Chirurg kann sich eine optimale Arbeitsposition aussuchen und muss nicht in verspannter Körperhaltung entsprechend der Position der Arbeitsinstrumente operieren. Optimale Ergonomie für den Chirurgen kann erreicht werden, ermüdungsfreieres Operieren ist möglich. ▬ Zwischen verschiedenen Koordinatensystemen kann ausgewählt werden. So ist es möglich, z. B. in Weltkoordinaten, Instrumentenkoordinaten oder Bildschirmkoordinaten, die Instrumente zu steuern. Damit kann je nach Einsatzgebiet und je nach Präferenz des Chirurgen das günstigste Steuerungsverfahren gewählt werden. ▬ Kräfte können an der Instrumentenspitze erfasst und dem Chirurgen am Bediengerät vermittelt werden. Forschungsarbeiten auf dem Gebiet der Manipulatorentwicklung haben gezeigt, dass durch die Kompliziertheit der Gesamtsysteme immer häufiger einfache endoskopische Instrumente für bisher konventionell durchgeführte Operationen entwickelt werden konnten. Diese so genannten Spinoffs ermöglichen es dann auch, einfache endoskopische Eingriffe mit den völlig neuen Techniken der minimal-invasiven Chirurgie durchzuführen.
58.6
Technische Aspekte
Der Einsatz von Teletechniken erfordert ein Umdenken und auch ein Einarbeiten in diese Techniken (Voges u. Holler 2000). Der Arzt muss sich ein entsprechendes technisches Verständnis aneignen, im Operationssaal ist nicht nur medizinisches, sondern auch technisches Personal erforderlich. Dabei ist jedoch eine Akzeptanzschwelle zu überwinden, wenn der Kontakt zwischen Arzt und Patienten nicht mehr direkt, sondern nur über Telekommunikationseinrichtungen erfolgt. Ebenso kann eine psy-
58
924
VI
Kapitel 58 · Medizinische Robotersysteme
chologische Hemmschwelle auftreten, wenn nicht mehr der Arzt, sondern ein Roboter bzw. ein Telemanipulator am Operationstisch steht und den Eingriff vornehmen soll. Dem Patienten muss einerseits verständlich gemacht werden, welche Vorteile für ihn mit dem Einsatz einer solchen Technik verbunden sind, und andererseits muss er darauf vertrauen können, dass trotz der Maschine auch ein Arzt am Operationstisch zugegen ist und die Operation überwacht. In der Patientenüberwachung gibt es bereits ein solches System. ⊡ Abb. 58.15 zeigt den RP-7 der Firma InTouch Technologies, USA, der dazu dient, den Arzt über entsprechende Telekommunikationsleitungen (vorwiegend das Internet) zu dem entsprechenden Patienten zu bringen. Über Kamera und Bildschirm kann der Patient mit dem Arzt kommunizieren, und der Arzt sieht den Zustand des Patienten ebenfalls »live«. Seine direkte Anwesenheit ist jetzt nicht mehr erforderlich, und so können z. B. Wundheilungen über solche Telenetzwerke überall auf der Welt durchgeführt werden.
⊡ Abb. 58.16 zeigt, wie der Arzt nicht nur Bild und Ton übermittelt bekommt, sondern auch andere Parameter (Vitalparameter) können direkt über den RP-7 übermittelt werden. Die einfachste Kontrolleinheit bietet bei diesem System der normale Laptop. Über die integrierte Web-Kamera kann der Patient dann auch den Arzt bei der Visite sehen. Robotik- und Manipulatorsysteme für den Einsatz in der Chirurgie stellen besondere Anforderungen an die Integration in die statischen und dynamischen Strukturen der Operationssäle in den Kliniken. Hierzu wurden bereits zahlreiche Konzepte entwickelt, die den gesamten Bereich von Anforderungen abdecken – von der Aufrüstung bereits existierender Einrichtungen bis hin zur speziell an die Möglichkeiten und Bedürfnisse des Robotereinsatzes angepassten Neueinrichtung. Auf einige Anforderungen soll im Folgenden eingegangen werden. Bauliche Voraussetzungen sind neben dem ausreichenden Platz für die schnelle und leichte Ankopplung des Manipulatorsystems an den Operationstisch ggf. auch ein erschütterungsfreier Boden und/oder eine Möglich-
⊡ Abb. 58.15. RP-7, InTouch Technologies, USA
⊡ Abb. 58.16. Remote Presence, Intouch Technologies, USA
925 58.7 · Perspektiven
keit der Deckenaufhängung. Die Aufstellung der Bedieneinheit muss unter dem Gesichtspunkt erfolgen können, dass bei Bedarf eine direkte Sicht auf den Patienten und das Manipulatorsystem wie auch die sonstigen Informationen (Anästhesiedaten etc.) gegeben ist. Das OP-Team muss eine spezielle Einführung in die Handhabung der Geräte und die Behebung der während des Betriebs möglicherweise auftretenden Probleme erhalten. Darüber hinaus ist die Anwesenheit eines Technikers erforderlich, damit ein bestimmungsgemäßer Aufbau und Einsatz des Systems erfolgt und auftretende Probleme rechtzeitig richtig erkannt und behoben werden können. Die Interdisziplinarität im OP-Team wird erhöht, und das Technikverständnis des Chirurgen ist gefordert. Der Chirurg muss sich einem ausgiebigen Training unterziehen, um die sich von der herkömmlichen Operation unterscheidende Bedienung der Mastereinheit bzw. des gesamten Telemanipulationssystems und die zusätzliche Funktionalität zu erlernen. Die Mastereinheit sollte zwar intuitiv bedienbar sein, aber verschiedene Einstellmöglichkeiten, die sonst nicht gegeben sind (z. B. Selektion des Koordinatensystems, der Skalierung, der Gerätezuordnung), erfordern ein »Sich-vertraut-Machen«, um auch in kritischen Situationen korrekt, sicher und schnell handeln zu können. Dies macht den Bedarf für Simulatoren und Trainer ersichtlich: Ähnlich wie bei Flugsimulatoren scheint es sinnvoll, Trainings- und Simulationssysteme für die Telechirurgie einzusetzen, an denen die Chirurgen fortlaufend geschult werden können.
58.7
Perspektiven
Die Entwicklung des Demonstrators ARTEMIS und seine langjährige Erprobung wie auch die inzwischen eingesetzten kommerziellen chirurgischen Telemanipulatoren und Roboter haben gezeigt, dass durch den Einsatz von Teletechniken im Operationssaal eine Reihe von Vorteilen erzielt werden kann. Dazu zählen z. B. ▬ die bessere Bildqualität durch den Einsatz von Endoskop-Führungssystemen, ▬ die bessere Operationsqualität durch die exaktere Instrumentenführung mit Hilfe der Telemanipulationssysteme, ▬ die bessere Operationsqualität durch eine ermüdungsärmere, ergonomischere Arbeitshaltung und ▬ die bessere Operationsqualität durch die Integration eines 3D-Sichtsystems. Aber es bleiben noch weitere wichtige Ziele für die künftigen Entwicklungen: ▬ modularer und flexibler Systemaufbau, ▬ flexible und leichter wechselbare Instrumente bzw. Multifunktionsinstrumente,
▬ bedarfsorientierte Anpassung an die Erfordernisse der Telechirurgie, ▬ vielseitige Einsatzmöglichkeit in allen relevanten chirurgischen Disziplinen, ▬ breitere Einsetzbarkeit in besonderen Umgebungen wie CT und MRT. Die Modularität des Systems wird sich nicht nur auf die Mechanikkomponenten beziehen, sondern auch im Softwareaufbau niederschlagen. So kann unter Einsatz einer verteilten, objektorientierten Realzeitarchitektur diese Modularität im Softwaresystem umgesetzt werden. Multiagentensysteme werden soft- und hardwaremäßig realisiert, ebenso eine offene Systemstruktur, die die Integration von unterschiedlichen Master- und Slave-Systemen zulässt. Neben der eigentlichen Telemanipulation werden auch weitere Teletechniken in das Telepräsenzsystem eingebunden, sodass u. a. auch Teleconsulting und Teleplanung unterstützt werden. Die Anwendbarkeit in unterschiedlichen Disziplinen ist weiterhin eine Voraussetzung für eine wirtschaftliche Akzeptanz eines solchen Systems. Der Einsatz von Teletechniken in der Chirurgie wird immer weitere Kreise ziehen. Nicht in allen Bereichen, in denen der Einsatz erprobt wird, wird er sich auch etablieren. Oft wird es nur eine Operation geben; nach dem Motto der Presseinformationen: »Chirurg A hat als Erster die Operation B mit Hilfe des Robotiksystems C durchgeführt«; »Nachfolger gibt es nicht, da die Durchführung einer derartigen Operation B mit einem Robotiksystem eher Nachteile als Vorteile bringt ...«. Oder es wird noch eine lange Zeit dauern, bis sich derartige Operationen durchsetzen. Einige Kliniken werden in den nächsten Jahren noch die Vorreiter sein müssen und die Möglichkeiten, aber auch die Grenzen der Telechirurgie ergründen. Bis zu einem flächendeckenden Einsatz derartiger Systeme wird es wohl noch einige Jahre dauern. Nicht nur der Preis (oft über 1 Mio. Euro) ist ein Hinderungsgrund, sondern auch die noch eingeschränkte Funktionalität. Die bisherigen Erfolge beim Einsatz von Telemanipulations- und Robotiksystemen in der Chirurgie zeigen, dass derartige Systeme ihren berechtigten Platz in der Medizin haben und sinnvoll eingesetzt werden können. Nichtsdestotrotz besteht auch weiterhin Forschungs- und Entwicklungsbedarf: Die Einsatzgebiete können noch erweitert werden; dafür sind entsprechende Änderungen und Weiterentwicklungen bei den Systemen erforderlich. Die medizinische Vorgehensweise muss sich ggf. an die Möglichkeiten, die die Robotik bietet, anpassen. Gänzlich neue Operationstechniken, die bei rein manueller Vorgehensweise nicht machbar sind, müssen erprobt werden. Eine enge Kooperation zwischen Technikern und Medizinern ist auf diesem Feld erforderlich.
58
926
Kapitel 58 · Medizinische Robotersysteme
Literatur
VI
Bauer A, Börner M, Lahmer A (1997) Experiences with a computer-assisted robot (RobodocTM) for cementless hip replacement. In: Dillmann R, Holler E, Meinzer HP (eds) 2nd IARP Workshop on Medical Robotics, Nov 1997, Forschungszentrum Karlsruhe, S 133–134 Fischer H et al. (2000) Manipulator für die Therapie von Mammakarzinomen im Magnetresonanztomographen (MRT). Nachrichten Forschungszentrum Karlsruhe 32/1–2/2000, S 33–38 Gumb L, Schäf A, Trapp R et al. (1996) Vorrichtung zur Führung chirurgischer Instrumente für die endoskopische Chirurgie. DE-OS 19609034 (12.9.1996), DE-PS 19609034 (1.7.1997), EP-PS 59600577 (16.9.1998) Neisius B (1997) Konzeption und Realisierung eines experimentellen Telemanipulators für die Laparoskopie. Dissertation, Universität Karlsruhe Oberle R, Voges U (1993) A telerobotic approach towards endoscope guidance. In: 1st European Congress of the European Association for Endoscopic Surgery. Köln, 03.–5.6.1993 Petermann J, Schierl M, Heeckt PF, Gotzen L (2000) The CASPARsystem (Computer Assisted Surgery Planning And Robotics) in the reconstruction of the ACL. First follow-up results. 5th International Symposium CAOS, Davos, Schweiz, 17.–19.2.2000 Schurr MO, Buess G, Neisius B, Voges U (1998) Robotics and allied technologies in endoscopic surgerey. In: Szabo Z (Hrsg) Surgical technology international VII – International developments in surgery and surgical research. Universal Medical Press, San Francisco, pp 83–88 Selig M, Fischer H, Gumb L et al. (1999) Voice controlled camera guiding system FELIX for endoscopic cardiac surgery. 11th Annual Scientific Meeting of the Society for Minimally Invasive Therapy (SMIT), sponsored by the Center for Innovative Minimally Invasive Therapy (CIMIT). Boston/MA, Sept 16–18, 1999 Selig M et al. (2000) Minimal invasive Herzchirurgie. Nachrichten Forschungszentrum Karlsruhe 32/1–2/2000, S 55–60 Shennib H, Bastawisy A, Mack MJ, Moll FH (1998) Computer-assisted telemanipulation: An enabling technology for endoscopic coronary artery bypass. Ann Thorac Surg 66: 1060–1063 Star M (2010) Remote Possibilities. http://goldsea.com/Personalities2/ Wangyulun/wangyulun.html Stephenson ER, Snakholkar S, Ducko CT, Damiano RJ (1998) Robotically assisted microsurgery for endoscopic coronary artery bypass grafting. Ann Thorac Surg 66: 1064–1067 Uecker DR, Lee C, Wang YF, Wang Y (1994) A speech-directed multimodal man-machine interface for robotically enhanced surgery. Proc 1st Int Symp Medical Robot and Comp Assisted Surgery. Pittsburgh, pp 176–183 Voges U, Holler E (2000) Teletechniken und chirurgische Robotik. Nachrichten Forschungszentrum Karlsruhe 32/1–2/2000, S 39–54 Voges U, Dautzenberg P, Kühnapfel U et al. (1995) Experimenteller Telemanipulator fur die minimal invasive Chirurgie. 2. Statuskolloquium des Projektes Mikrosystemtechnik, Karlsruhe, 28.– 29.11.1995, Wissenschaftliche Berichte, FZKA-5670 (Nov 1995), S 106–111
Weiterführende Literatur Cakmak, H, Maass, H, Kühnapfel, U (2005) VSOne, a virtual reality simulator for laparoscopic surgery. Minimally Invasive Therapy & Allied Technologies 14: 134–44 Gutmann B, Gumb L, Goetz M, Voges U, Fischer H, Melzer A (2002) Principles of MR/CT Compatible Robotics for Image Guided Procedures. Education Exhibit (Certificate of Merit), Radiology Suppl.: p 677
Gutmann B, Lukoschek A, Fischer H, Melzer A (2003) Development of an assistant robotic system for interventional radiology inside CT and MR scanners. 2. Jahrestagung Curac, Nürnberg, Germany, 4.–7.11.2003 Melzer A, Gutmann B, Lukoschek A et al. (2003) Experimental Evaluation of an MR compatible Telerobotic System for CT/MR-guided Interventions. Radiology Suppl.: p 409 Stoianovici D, Cleary K, Patriciu A, Mazilu D et al. (2003) AcuBot: a robot for radiological interventions. IEEE Transactions on Robotics and Automation 19(5): 926–930 Urban V, Wapler M, Weisener T, Schonmayr R (1999) A tactile feedback hexapod operating robot for endoscopic procedures. Neurol Res 21/1: 28–30 Wendt O, Remmele T, Gutmann B et al. (2004) Assistant manipulator system for image guided percutaneous Interventions. 3. Jahrestagung Curac, München, 8.–9.10.2004
Weitergehende Internetinformationen zu den genannten Firmen bzw. Gerätenamen DaVinci: www.intuitivesurgical.com LapMan: www.medsys.be/surgical-robots/lapman/technology.asp FreeHand: www.freehandsurgeon.com/ Innomotion: www.innomotion.com Robodoc: www.robodoc.com MrBot: http://urobotics.urology.jhu.edu/http://www.iai.fzk.de/projekte/ medrob/artemis RP-7: www.intouchhealth.com
59 Medizinische Gasversorgungssysteme P. Neu
59.1
Normen
59.1.1 59.1.2 59.1.3 59.1.4 59.1.5 59.1.6 59.1.7 59.1.8 59.1.9 59.1.10 59.1.11 59.1.12
Herstellung – 927 Design – 928 Risikoanalyse – 928 Konstruktion – 928 Materialien – 929 Wartung und Reparatur – 929 Kennzeichnung – 929 Versorgungsquellen – 929 Notversorgung – 931 Analytische Überprüfung der Gasqualität – 931 Mikrobiologische Kontamination – 931 Dokumentation – 932
– 927
Gaseanwendungen spielen eine zentrale Rolle im Krankenhaus. Sie müssen daher ständig sicher und zuverlässig zur Verfügung stehen. Es handelt sich dabei um die Gase Sauerstoff, Lachgas, medizinische Atemluft und Kohlendioxid. Die Spezifikationen für diese Arzneimittel und deren Prüfmethoden sind im Europäischen Arzneibuch festgelegt. Auch Narkosegasableitungen und Vakuumsysteme sind im weiteren Sinne Gasversorgungsanlagen. Für sie gelten aber eigene Normen und Spezifikationen, weswegen sie im Folgenden ausgeklammert bleiben. Gase benötigen für ihre Lagerung und den Transport aufgrund ihrer physikalischen Eigenschaften stets sekundäre Materialien wie Tanks oder Druckgasbehälter und Leitungssysteme. Für die Entnahme und ihre Anwendungen werden Ventile, Druckminderer und Leitungssysteme benötigt. Dabei müssen alle Teile sowohl einzeln als auch das ganze Entnahmesystem nicht nur für den Druck ausgelegt sein, sondern sie müssen auch spezifisch gasartgeeignet sein. Bei den Gasversorgungssystemen unterscheidet man aufgrund differenzierter Eigenschaften so genannte Hochdrucksysteme mit Drücken größer 30 bar und so genannte Niederdrucksysteme. Bei den medizinischen Gasversorgungssystemen handelt es sich meist um Niederdrucksysteme. Für Hochdrucksysteme gelten andere technische Vorschriften für die Anlagensicherheit. Dies betrifft nicht nur die Druckfestigkeit der Materialien, sondern auch und gerade ihre chemische Stabilität gegen Sauerstoff und Lachgas – v. a. beim Einsatz von nichtmetallischen Werkstoffen. Hierauf wird im Abschn. 59.1.2 »Design« näher eingegangen.
59.2
Normen und Informationsquellen – 932 Weiterführende Literatur
59.1
– 932
Normen
Grundlage waren und sind nationale Normen, die heute in europäische Normen und Richtlinien überführt sind oder überführt werden. Das kann in Einzelfällen dazu führen, dass nationale Normen andere Forderungen haben als international festgelegte. Diese Normen werden zur Zeit international harmonisiert. Damit hier nicht zu große Verwirrung entsteht, sind die neuen internationalen Normen eher Empfehlungen. Ein Hersteller und Betreiber muss allerdings begründen, warum er davon abweicht. Notwendigerweise gelten für die Einführung neuer Normen stets Übergangsfristen, was zu möglichen Verwirrungen führen kann. Die nationalen Behörden sind dann aufgefordert, hier die Risiken zu minimieren. Im Abschnitt Kennzeichnung wird auf ein solches Beispiel näher eingegangen. Gasversorgungssysteme im medizinischen Bereich unterliegen zusätzlich den Anforderungen des Medizinproduktegesetzes.
59.1.1 Herstellung
Die EU Richtlinie 93/42 EWG Medical Device Directive legt generelle Anforderungen an Hersteller von Medizinprodukten fest. Der Hersteller von medizinischen Gasversorgungssystemen muss nach dieser Richtlinie die beiden folgenden Bedingungen erfüllen: ▬ Er muss ein vollständiges, von einer benannten anerkannten Stelle (Notified Body) zertifiziertes Qualitätsmanagementsystem besitzen.
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _59, © Springer-Verlag Berlin Heidelberg 2011
928
Kapitel 59 · Medizinische Gasversorgungssysteme
▬ Die erstellte Anlage muss eine Baumusterpüfung und Abnahmeprüfung nach den Anhängen 3 und 4 dieser Richtlinie von einem Notified Body erhalten.
VI
Unter Notified Body ist hier eine zertifizierte Stelle oder besser ein zertifiziertes Unternehmen gemeint. In vielen Fällen ist es der Hersteller selbst. Mit dem CE-Zeichen wird bestätigt, dass die Anlage oder auch Teile davon in Übereinstimmung mit den »Grundlegenden Anforderungen« in Bezug auf Sicherheit von Patienten, Betreibern und Dritten geplant, erstellt und geprüft wurde. Dies scheint auf den ersten Blick problemlos. Doch wie kennzeichnen sie das Versorgungssystem mit dem CE-Zeichen? Das Problem beginnt mit den ersten Veränderungen, Erweiterungen und Reparaturen am System, die vom Betreiber – meist dem Krankenhaus – vorgenommen werden. Streng genommen muss der Hersteller des existierenden Systems hier eine Konformitätserklärung abgeben. Das heißt, er muss den Veränderungen zustimmen, denn anders kann er ja seinen Verpflichtungen, wie der Produkthaftung aus dem Medizinproduktegesetz, nicht nachkommen.
59.1.2 Design
Generell sollten Gasversorgungssysteme so konstruiert werden, dass keine »toten Säcke« entstehen. Diese sind schwer zu reinigen, und Kontaminationen können sich in ihnen besonders bei längerem Stillstand ausbilden. Wenn tote Säcke nicht zu vermeiden sind, sollten diese Abschnitte des Rohrleitungssystems einzeln abgesperrt werden können, und Rückschlagventile sollten eine Rückströmung in das Gasversorgungssystem verhindern, damit im Falle von auftretenden Fehlern das separate Freispülen des Anlagenteiles möglich ist. Damit bei auftretenden Problemen und Fehlern nicht das gesamte System ausfällt, sollte dieses möglichst redundant ausgelegt werden. Eine vollständige Redundanz des gesamten Systems ist kaum möglich, dennoch sollten einzelne Abschnitt durch Ventile abtrennbar sein und über eigene Gaseinspeisungsmöglichkeiten verfügen. Dies gilt vor allem für Ringsysteme. Sie besitzen gegenüber anderen Konstruktionssystemen den Vorteil, keine toten Säcke zu haben. Sie reagieren besonders schnell auf plötzlich ansteigenden Gasbedarf. Druck und Druckverteilung im System bleiben sehr gleichmäßig. Sie haben aber den Nachteil, dass eine Isolierung von fehlerhaften oder kontaminierten Bereichen nur unter Bildung von toten Säcken möglich ist. Häufig werden keine völlig neuen Gasversorgungsanlagen gebaut, sondern alte bestehende Anlagen werden erweitert, ergänzt oder teilerneuert. In solchen Fällen stellen diese neuen Teile Medizinprodukte dar, die ein CEZeichen bekommen. Es ist dabei selbstverständlich, dass
diese Teile während der Bauphase vom arbeitenden System abgetrennt sein müssen. Bei Bau und Inbetriebnahme der neuen Anlagenteile muss Sorge dafür getragen werden, dass die Anlagenteile sich nicht negativ beeinflussen. Sie dürfen erst in Betrieb gehen, wenn sie entsprechend nach Medizinproduktegesetz abgenommen und zertifiziert wurden. Das gilt natürlich besonders für Erweiterungen an Anlagen mit bestehenden CE-Zeichen. Besonders ist zu beachten, dass in der späteren Nutzung Überprüfungen der Dichtigkeit und andere Prüfungen, die eine Unterbrechung der Versorgung erfordern, nur schwer oder gar nicht durchführbar sind. Die Anlagen müssen die physikalischen und chemischen Eigenschaften der im System transportierten Gase berücksichtigten. Dies gilt v. a. für die Verlegung der Anlagen in Gebäuden. Sauerstoff und Lachgas sind als brandfördernd eingestuft. Sie können im Falle von Leckagen aus den Anlagen in die Umgebung austreten und ein Gefahrenpotential bilden. Die Rohrleitungen müssen daher in den Verlegungskanälen getrennt von weiteren Installationen wie z. B. Elektroversorgung verlegt werden oder es müssen Mindestabstände eingehalten werden. Eine Flutung der Kabel- und Rohrschächte mit Stickstoff für Brandfälle sollte diskutiert werden, auch wenn sie in keiner Vorschrift erwähnt wird.
59.1.3 Risikoanalyse
Gasversorgungsanlagen müssen so konstruiert und betrieben werden, dass Patienten, Nutzer und Betreiber nicht mehr als unbedingt nötig gefährdet werden. Hierzu ist es notwendig, Risikoanalysen durchzuführen. Im Folgenden sind die Hauptrisiken eines solchen Systems aufgeführt: 1. Druckfestigkeit der Leitungen und der damit verbundenen Komponenten wie Druckminderer und Entnahmestellen, 2. Leckdichtigkeit von Leitungen, Ventilen und Entnahmestellen, 3. Gasartspezifität muss eingehalten werden, 4. Sicherheit gegen Kontamination durch angeschlossene Geräte und Systeme, 5. Isolation von einzelnen Bereichen vom gesamten System bei möglichen Fehlern, 6. Abtrennung von besonders kritischen Bereichen wie OP und Intensivmedizin und Anschlussmöglichkeit von Notversorgungsquellen.
59.1.4 Konstruktion
Die Konstruktion hat nach den erstellten Material- und Stücklisten und Zeichnungen zu erfolgen.
929 59.1 · Normen
Abweichungen davon sind zu dokumentieren. Während der Bauphase sollten Materialien wie Rohre vor Witterungseinflüssen geschützt gelagert werden. Es ist eine Überlegung wert, ob das System in der Bauphase ständig unter Gas gehalten und gespült wird, um das Eindringen von Kontaminationen zu vermeiden – eine in der Pharma-, Lebensmittel- und Elektronikindustrie gängige Praxis. Alle Materialien und Arbeitsprozesse müssen von vornherein so ausgewählt und durchgeführt werden, dass eine nachträgliche Reinigung nicht notwendig wird. Insbesondere darf das System nicht mit irgendwelchen Flüssigkeiten gereinigt werden. Es kann trotz intensivstem Spülen und Prüfen nicht sichergestellt werden, dass diese Mittel vollständig aus der Anlage entfernt wurden.
59.1.5 Materialien
Die Materialien, aus denen die Systeme und ihre Komponenten bestehen, müssen den physikalischen und chemischen Anforderungen und Belastungen standhalten. Als metallische Werkstoffe kommen meist Kupfer und Messing zur Anwendung. Es ist darauf zu achten, dass diese bereits als fettfrei und Sauerstoff bzw. Lachgas geeignet beschafft werden und nicht nachträglich gereinigt werden müssen. Besonderes Augenmerk ist hierbei auf die Verwendung des richtigen Lötmaterials für Kupferleitungen zu achten. Neben den metallischen Werkstoffen kommen eine Reihe von Kunststoffen zum Einsatz, in den meisten Fällen als Dichtmaterial. Aus rein technischen Gesichtspunkten bieten sich halogenierte Kunststoffe an, da sie die höchste Beständigkeit gegen Sauerstoff besitzen. In Brandfällen – mehr noch aber bei unbemerkten Verpuffungen im System – können diese Materialien hochgiftige Reaktionsprodukte freisetzen. Die aktuellen Normen und europäischen Richtlinien empfehlen die Verwendung von nicht-halogeniertem Material. Das hat aber wesentlichen Einfluss auf das Design, die Risikobewertung und die Konstruktion. Denn diese Stoffe sind gegen Sauerstoff und Lachgas nicht stabil, was sich in ihrem sehr niedrigen Sauerstoffindex zeigt. Hinweise hierzu erhält man von allen Herstellern dieser Materialien. Da diese Materialien nicht stabil gegen Sauerstoff sind, müssen die Anlagen und Komponenten so konstruiert werden, dass sie möglichst minimierten Kontakt zum Gas haben und Druckstöße sowie hohe Strömungsgeschwindigkeiten in diesem Bereich vermieden werden.
59.1.6 Wartung und Reparatur
Wartungen und Reparaturen müssen so ausgeführt werden, dass sie die CE-Zertifizierung des Systems erhalten. Dies bedeutet, dass Reparatur und Teiletausch nur von
zertifizierten Unternehmen ausgeführt werden dürfen. Es wird hierzu streng genommen eine Konformitätsbescheinigung des Herstellers der Gasversorgungsanlage benötigt. Es ist zu diskutieren, ob nicht auch der Eigentümer und Betreiber der Anlage, sofern er einen Sicherheitsbeauftragten nach Medizinproduktegesetz besitzt, aus praktischen Gründen dies tun kann, sofern gewisse Randbedingungen eingehalten werden.
59.1.7 Kennzeichnung
Leitungen und Entnahmestellen von Gasversorgungssystemen müssen eindeutig gekennzeichnet werden. Ab 1.7.2006 dürfen die Hersteller nur noch Equipment mit der Farbgebung nach ISO 32/DIN 739 oder farbneutral in Verkehr bringen (⊡ Tab. 59.1). Dabei kann das Nebeneinander von nationalen und harmonisierten internationalen Normen zu Verwirrungen führen. Um dies zu vermeiden, werden Übergangslösungen notwendig. In Deutschland gibt es nach Vorschlag der obersten Landesbehörden vier Möglichkeiten zur Umstellung und Anpassung an die neue Norm (Informationen hierzu unter folgender web-Adresse: www.sm.baden-wuerttemberg.de/ sixcms/media.php/1442/Gaskennfarben-Information. pdf). Dabei ist für die eindeutige Kennzeichnung neben der farblichen Kennzeichnung auch die farbneutrale Kennzeichnung mit dem Namen der Gasart oder der chemischen Kurzformel möglich. Die letztere bietet den Vorteil, auch von nicht in der Farbgebung geschultem Personal erkannt zu werden.
59.1.8 Versorgungsquellen
Die medizinischen Gase können aus unterschiedlichen Vorratsquellen in das System eingespeist oder selbst erzeugt werden. Für Sauerstoff und Distickstoffmonoxid (Lachgas oder Stickoxydul) kommen prinzipiell zwei verschiedene Arten der Versorgungsquellen in Frage. Bei geringeren Mengen wird das Gas aus Hochdruck-Druckgasbehältern eingespeist. Bei größeren Mengen wird aus ökonomischen Gründen aus isolierten cryogenen Flüssigtanks versorgt. Die Einspeisung in die Gasversorgung erfolgt dabei auf unterschiedliche Weise. Da die Gasversorgungssysteme in einem Druckbereich von 5–10 bar arbeiten, können die Druckgasbehälter nur über eine Entspannungsstation, die den Druck der Flaschen auf ca. 200 bar bei Sauerstoff und ca. 50 bar bei Lachgas und Kohlendioxid reduziert. Hierfür sind Druckminderer- und Umschaltstationen notwendig. Sie reduzieren nicht nur den Druck, sondern schalten auch häufig von einem leeren automatisch auf den nächsten vollen Behälter um. In modernen Anlagen können die
59
930
Kapitel 59 · Medizinische Gasversorgungssysteme
⊡ Tab. 59.1. Farbkodierung von medizinischen Gasen und Gasgemischen (ISO 32/ DIN EN 739) Medizinische Gase
Symbol
Farbkodierung
Bemerkungen
Sauerstoff
O2
weiß
nach ISO 32
Lachgas
N2O
blau
nach ISO 32
Helium
He
braun
nach ISO 32
Kohlendioxid
CO2
grau
nach ISO 32
Luft
Air
schwarz-weiß
nach ISO 32, Luft für Beatmung
Luft
Air-800
schwarz-weiß
nach ISO 32, Luft für chir. Werkzeuge
Xenon
Xe
hellbraun
Vakuum
Vac
gelb
Luft-Sauerstoffgemisch
Air/ O2
weiß-schwarz
nach ISO 32
Sauerstoff-Lachgasgemisch 50% O2 (V/V)
O2/N2O
weiß-blau
nach ISO 32
Sauerstoff-Heliumgemisch (He≤80% (V/V)
O2/He
weiß-braun
nach ISO 32
Sauerstoff-Kohlendioxidgemisch (CO2≤7% (V/V)
O2/CO2
weiß-grau
nach ISO 32
Helium-Sauerstoffgemisch (O2<20% (V/V)
He/O2
braun-weiß
nach ISO 32
Kohlendioxid-Sauerstoffgemisch (CO2>7% (V/V)
CO2/O2
grau-weiß
nach ISO 32
Stickstoffmonoxid-Stickstoffgemische (NO≤1000 μl/l)
NO/N2
schwarz-hellgrün
nach EN 1089-3
Medizinische Gasgemische
VI
Drücke in den Druckgasbehältern auch fernüberwacht werden. Beim Umgang mit Druckgasbehältern sind die entsprechenden Vorschriften zu beachten. Sicheres Betreiben von Druckgasbehältern und die Nutzung von medizinischen Gasen ist nur möglich, wenn die spezifischen Eigenschaften der Gase und der Behälter berücksichtigt werden. Hierzu haben der deutsche, aber auch der europäische Industriegaseverband Nutzungshinweise erstellt. Da sich das Gas in den Behältern unter Hochdruck befindet, muss in allen Anwendungsfällen eine mehrstufige Entspannungsstation zur Druckreduzierung eingesetzt werden. Es ist darauf zu achten, dass die Dimensionierung dieser Station auf die maximalen Bedarfsmengen im Versorgungsnetz ausgelegt ist. Die Entspannungsstation sollte dabei von der Mengenauslegung über Reserven verfügen, da die maximale Verbrauchsmenge im Gasnetz nicht ohne Weiteres exakt angegeben werden kann. Theoretisch wird sie natürlich durch die Zahl der Entnahmestellen und deren maximalen Gasdurchfluss bestimmt. Die Versorgung aus cryogenen Flüssigbehältern erfolgt über einen Verdampfer. Gewöhnlich wird tiefkalter flüssiger Sauerstoff bei niedrigen Drücken transportiert und gelagert (kleiner 3 bar). Um auf den für die Einspeisung in das Gasversorgungssystem notwendigen Druck von mindestens 5 bar zu kommen, werden so genannte Verdampferanlagen eingesetzt. Sie bestehen gewöhnlich aus einem einfachen Metallrohr (meist Aluminium oder Stahl). Aus
Gründen der besseren Wärmeübertragung ist das Rohr mit Wärmeleitblechen versehen. Die Wärme der Umgebungsluft wird dazu benutzt, die entsprechenden flüssigen Sauerstoffmengen zu verdampfen, um im Vorratstank und im System einen Druck von 15–17 bar aufzubauen. Dies geschieht allein durch mechanische Steuerung und bedarf keines Kompressors, keiner Pumpe oder sonstigen elektrischen Steuerung. Bei der Eigenerzeugung im Krankenhaus handelt es sich um medizinische Druckluft und Vakuum. Für die Erzeugung der medizinischen Druckluft kommen die unterschiedlichsten Kompressoren zum Einsatz, auf die hier im Detail nicht eingegangen werden kann. Sie lassen sich in Kompressoren mit Ölschmierung und Schmierungsfreiheit einteilen. Letztere besitzen den Vorteil, dass hier keine Ölabscheidung und Absorber installiert werden müssen, um die niedrigen Grenzwerte für Öl und Kohlenwasserstoffe des europäischen Arzneibuches einzuhalten. Generell müssen hinter den Kompressoren Gasreiniger installiert werden, um die Grenzwerte des Arzneibuches einzuhalten. Die neuen gültigen Grenzwerte für die Restverunreinigungen liegen teilweise deutlich niedriger als die der alten Norm. Von daher sind teilweise umfangreiche Nachrüstungen oder eine komplette Neuanschaffung der Kompressoren notwendig. Die Diskussion über den einzuhaltenden Feuchtewert ist eine müßige, denn die Einhaltung der Werte für die übrigen Verunreinigungen
931 59.1 · Normen
erfordert den Einsatz von Gasreinigern, die aber nur dann wirksam sind, wenn der Feuchtewert deutlich unter dem Wert von 800 ppm liegt.
59.1.9 Notversorgung
Da die Gasversorgungssysteme zu den lebenserhaltenden Systemen im Krankenhaus zählen, ist für eine entsprechende Versorgungssicherheit zu sorgen. Die EN 737 sieht hierfür drei unabhängige Quellen vor. Im Falle von Sauerstoff aus cryogenen Verdampferanlagen und Druckgasbehälterversorgung besteht die Notversorgung in fast allen Fällen aus zwei weiteren Behälterbatterien. Die Umschaltung erfolgt automatisch bei Druckabfall in den Druckgasbehältern oder bei einem Mindestfüllstand der Verdampferanlage. Die Umschaltung muss so schnell erfolgen, dass die Patientenversorgung nicht beeinträchtigt wird. Für besonders kritische Krankenhausbereiche ist eine Einspeisemöglichkeit in der Nähe der Bereiche vorzusehen, meist sind dies mobile Druckgasbehälter. Dabei sollten die Druckgasbehältnisse nicht über Kunststoffschläuche, auch wenn sie aus sauerstoffgeeignetem Material bestehen, angeschlossen werden. Siehe die Diskussion über einsetzbare Materialien. Für die Planung der Notversorgung spielen die Verbrauchsmengen des Krankenhauses und die Versorgungssicherheit des Gaselieferanten die Hauptrolle. Im Gegensatz zum europäischen Ausland gibt es in Deutschland keine exakte Vorschrift für die Reichweite der Notversorgung. Hier wird sich auf die schnelle Lieferfähigkeit des Gasversorgers verlassen. Doch der Betreiber des Gasversorgungsnetzes ist dafür verantwortlich. Er sollte sich also vergewissern, dass die Notversorgung an Bedarf und Reaktionsfähigkeit des Gaselieferanten angepasst ist. Die beste Lösung stellt die Aufnahme der Notversorgungsreichweite und Lieferfähigkeit in den Liefervertrag mit den Gaseherstellern dar. Dabei sollte die Notversorgung für mindestens 48 h ausreichend sein.
59.1.10
Analytische Überprüfung der Gasqualität
Bei den von den Gasversorgungssystemen transportierten Gasen handelt es sich um Arzneimittel. Daher dürfen diese die Qualität der von ihnen transportierten Gase nicht negativ beeinflussen. Als Qualitätskriterien dienen heute die Spezifikationen (Monografien) des europäischen Arzneibuches. In den Monografien sind nicht nur die Grenzwerte für die Verunreinigungen, sondern auch die Nachweismethoden festgelegt. Hierbei wird zwischen Herstellung und Qualitätsüberprüfung für den Anwender unterschieden.
Für den Fall, dass das System mit zugelassenen Arzneimitteln versorgt wird, übernimmt der pharmazeutische Hersteller die Qualitätskontrolle. Hier ist nur noch eine einfache Qualitätskontrolle z. B. an den Entnahmestellen notwendig. Wird kein zugelassenes Arzneimittel bei der Tankversorgung mit flüssigem medizinischem Sauerstoff in das System gespeist oder das Gas wie medizinische Luft vor Ort erzeugt, so sind die Kontrollen, wie sie für die Herstellung beschrieben sind, notwendig. Die Überprüfung muss dann auch nach Arzneimittelgesetz erfolgen. Das erfordert Verfahren, die nicht vor Ort, sondern nur unter Laborbedingungen mit Hilfe komplexer Geräte durchgeführt werden können. Die Qualitätsüberprüfung des Gases muss in regelmäßigen Abständen am gesamten System, d. h. u. a. an jeder Entnahmestelle überprüft werden. Also müssen entweder Proben gezogen werden, die dann im Labor untersucht werden können, oder man muss auf einfachere Methoden zurückgreifen. Üblich und im Arzneibuch beschrieben ist dabei die Überprüfung mit Prüfröhrchen. Diese haben jedoch ganz bestimmte Nachteile. Die Stärke der Verunreinigungen liegt häufig an der Nachweisgrenze der Prüfröhrchen. Überhaupt verlangt der Umgang mit den Prüfröhrchen und den Probennahmegeräten einige Übung und Erfahrung. Daher müssen die Herstellervorschriften genauestens eingehalten werden. Hauptfehlerquellen sind in falschem Gasdurchfluss wie bspw. dem Durchleiten falscher Gasmengen oder in einer nicht vorschriftsgemäßen Lagerung der Röhrchen zu finden. Beim Ölnachweis mit den Prüfröhrchen ist zu beachten, dass diese nur bestimmte Öle nachweisen können. Viele hochsynthetische, für Sauerstoff geeignete Öle, ergeben keine Anzeige. Zudem ist die Reaktion des Röhrchens bei den geringen Grenzwertmengen nur schwer zu erkennen. Sämtliche Prüfungen sind zu dokumentieren.
59.1.11
Mikrobiologische Kontamination
In letzter Zeit wird zunehmend nach einer möglichen mikrobiologischen Kontamination der Gase im System gefragt. Zwar gibt es noch keine amtlichen Grenzwerte dafür, doch sollte der Level der Kontamination so gering wie möglich werden. Ursache für eine solche Kontamination kann das Gas, aber auch das System selbst sein. Über den mikrobiologischen Status von medizinischen Gasen gibt es in der Literatur einige Angaben. Die Ergebnisse dieser Arbeiten sind aber nur schwer vergleichbar, da es keine validierte Probennahme speziell für unter Druck stehende Gase gibt. Da Gase nie ohne entsprechendes Equipment gehandelt werden können, muss bei solchen Arbeiten sichergestellt werden, dass Kontaminationen nicht vom Equipment hervorgerufen werden.
59
932
VI
Kapitel 59 · Medizinische Gasversorgungssysteme
Allgemein geht aus den Untersuchungen hervor, dass Gase keine mikrobiologische Kontamination zeigen. Ursache hierfür sind der hohe Druck, die tiefen Temperaturen und als Hauptfaktor der äußerst geringe Feuchtigkeitsgehalt (kleiner 67 ppm). Anders verhält es sich mit dem Gasversorgungssystem. Seine Komponenten werden nicht steril gefertigt oder mikrobiologisch gereinigt. Auch herrschen beim Zusammenbau der Anlage keine kontrollierten Bedingungen. Für alle Teile der Anlage sollte aber gelten, dass sie möglichst frei sind von Kohlenwasserstoffen und Stoffen, die als Nährboden für mikrobiologisches Wachstum dienen können. Die Anlagenteile sollten daher verschlossen oder verpackt transportiert und gelagert werden. Vor allem die Rohrleitungssysteme sollten dabei nach Einbau möglichst schnell mit Gas gespült oder beaufschlagt werden (siehe Konstruktion).
59.1.12
Dokumentation
Im Medizinproduktegesetz sind die Anforderungen und die Aufbewahrungsfristen für die wesentlichen Dokumentationen festgeschrieben. Gasversorgungssysteme haben jedoch eine wesentlich längere Einsatzdauer als die üblichen Medizingeräte. Folglich müssen auch die Dokumentationen wesentlich länger aufbewahrt werden. Bei diesen langen Zeiten muss beachtet werden, dass bei der elektronischen Aufbewahrung sichergestellt wird, dass das Material auch dann noch lesbar ist, wenn sich die Speichertechnologie und Software grundlegend geändert hat.
59.2
Normen und Informationsquellen
In der Übersicht sind die wesentlichen Normen, die bei medizinischen Gasversorgungssystemen erfüllt werden müssen, aufgeführt. Sie erhebt keinen Anspruch auf Vollständigkeit.
Die wesentlichen Normen für Gasversorgungssysteme
▬ ▬ ▬ ▬ ▬
EN 737 Medizinische Gasversorgung Teile 1–6 EN 738 Druckminderer Teil 1–4 EN 739 Niederdruck Schlauchleitungssysteme EN 793 Medizinische Versorgungseinheiten EN 13348 Kupfer- und Kupferlegierungs-Rohre für medizinische Gase ▬ EN 13220 Flowmeter ▬ DIN 13260 Teil 2 Entnahmestellen
Auf den fogenden Webseiten finden Sie u. a wesentliche Informationen zum Thema Medizin Produkte Gasversorgungsanlagen: ▬ www.emea.eu.int ▬ www.europa.eu.int ▬ www.eudra.org ▬ www.zlg.de ▬ www.bfarm.de ▬ www.eiga.org ▬ www.industriegaseverband.de
Weiterführende Literatur Franz F, Franz B (Hrsg) (2006) 1×1 der Gase. Air Liquide, Düsseldorf
60 Inkubatoren G. Braun, R. Hentschel
60.1 Einführung
– 933
60.2 Aufbau und Funktionsweise eines Inkubators – 934 60.2.1 60.2.2 60.2.3 60.2.4 60.2.5
Temperaturregulation – 934 Regulation der Luftfeuchtigkeit – 934 Regelung des Sauerstoffs – 935 Waage – 935 Röntgenschublade – 935
60.4 Risiken der Inkubatortherapie – 936 60.4.1 60.4.2 60.4.3 60.4.4
Temperatur – 936 O2-Therapie – 937 Hygiene – 937 Ungelöste Probleme
Literatur
– 937
– 937
60.3 Inkubatorbauarten – 935
60.1
Einführung
Inkubatoren werden zur Stabilisierung und Aufrechterhaltung des thermischen Gleichgewichts bei Früh- und Neugeborenen eingesetzt. Im Jahr 1907 wurde von dem Pädiater Pierre Budin in seinem Buch »The Nursling« die Abhängigkeit der Mortalität von der Rektaltemperatur beschrieben. Neugeborene, welche auf eine Rektaltemperatur von 36° bis 37°C erwärmt wurden, erreichten eine Überlebensrate von 77%, Säuglinge mit einer Rektaltemperatur zwischen 32,5° bis 33,5°C hingegen nur eine von 10%. Es wird angenommen, dass bereits 200 Jahre v. Chr. die Ägypter »Brutkästen« einsetzten. Im Jahre 1947 wurde ein von dem amerikanischen Arzt Chapple maßgeblich konzipierter Inkubator auf den Markt gebracht. Dieser Inkubator war der Vorläufer der heutigen Inkubatoren: Transparente Plexiglashaube, Bakterienfilter zur Luftansaugung, integriertes Luftumwälzsystem, Luftbefeuchtung und eine Alarmeinrichtung gegen Übertemperatur wurden erstmals in diesem Modell realisiert (Frankenberger u. Güthe 1991). Frühgeborene sind nicht in der Lage, ihr thermisches Gleichgewicht selbstständig aufrechtzuerhalten (Bauer u. Speer 2001). Das Verhältnis von Körperoberfläche zum Körpervolumen beträgt beim Neugeborenen 2,7-mal so viel wie beim Erwachsenen. Bei Neonaten mit 1000 g Geburtsgewicht ist das Verhältnis sogar 4-mal höher. Der Wärmeverlust erfolgt auf vier Arten: ▬ Konduktion (Wärmeleitung durch Abgabe von Wärme an die Liegefläche), ▬ Konvektion (Abkühlung durch Luftströmung),
▬ Evaporation (Verdunstung über die Haut), ▬ Radiation (Wärmestrahlung vom Säugling in die Umgebung). Wärmeverluste werden durch Vasokonstriktion verringert. Durch die Erhöhung des Gefäßwiderstandes kühlen zuerst die Extremitäten ab, bevor die Körperkerntemperatur absinkt. Der Vergleich zwischen Körperkerntemperatur und den peripheren Körperteilen ermöglicht somit einen frühzeitigen Hinweis auf ein thermisches Ungleichgewicht (Brück u. Püschner 1996). Nur neugeborene Kinder besitzen braunes Fettgewebe, welches zwischen den Schulterblättern, hinter dem Herzen und an den großen Gefäßen liegt. Diese Energiereserven reichen nur bedingt, die Körpertemperatur im Normbereich zu halten. Neugeborene sind auch nicht in der Lage, durch erhöhte Muskelaktivität (Zittern) Wärme zu erzeugen. Frühgeborene verdunsten aufgrund ihrer dünnen Haut mehr Flüssigkeit als reife Neugeborene. Kältestress ist aus folgenden Gründen unbedingt zu vermeiden: ▬ geringere Sauerstoffaufnahme, z. B. mit negativem Einfluss auf die Lungenreife durch zu geringe Surfactantproduktion; somit können sich Beatmungsprobleme ergeben, welche durch künstliche Beatmung kompensiert werden müssen; ▬ erhöhte Gefahr von Infektionen; ▬ negativer Einfluss auf das Wachstum; ▬ der Stoffwechsel wird negativ beeinflusst, z. B. Hypoglykämie (Unterzuckerung), metabolische Azidose (zu niedriger pH-Wert); das Risiko einer pathologischen Gelbsucht (Icterus gravis) wird erhöht.
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _60, © Springer-Verlag Berlin Heidelberg 2011
934
Kapitel 60 · Inkubatoren
Es kommt sowohl auf die Konstanthaltung der Temperatur als auch auf eine Minimierung des Flüssigkeitsverlustes an.
60.2
VI
Aufbau und Funktionsweise eines Inkubators
Inkubatoren schaffen ein Mikroklima, welches sich von der Umgebungsluft deutlich unterscheiden kann. In diesem Mikroklima können Temperatur, Luftfeuchtigkeit und Sauerstoffgehalt innerhalb gewisser Grenzen individuell reguliert werden. Zudem isoliert der Inkubator den Patienten im Sinne eines Schutzes vor Erregern, die auf dem Luftweg übertragen werden. Inkubatoren sind in der Regel für ein Körpergewicht von bis zu 5 kg konzipiert. Der Anwender kann dabei sowohl die Höhe als auch die Neigung der Liegefläche verändern. Dies ermöglicht eine gute Ergonomie und Zugriffsmöglichkeit zum Patienten für das Pflegepersonal. Zudem kann zum optimalen Mutter-Kind-Kontakt der Inkubator tief abgesenkt werden.
60.2.1 Temperaturregulation
Der Inkubator saugt über einen austauschbaren Luftfilter Raumluft an. Die Raumluft wird über ein Heizelement erwärmt, in dessen Mitte sich ein Lüfter befindet. Die warme Luft wird über Luftleitkanäle an den Längsseiten des Inkubators nach oben zum Patienten geführt. Dadurch entsteht ein Warmluftvorhang. Dieser Vorhang reduziert die Abkühlung des Inkubators bei geöffneten Inkubatortüren. Die Luft wird i. d. R. über die Stirnseiten wieder abgegeben. Gemessen wird die Lufttemperatur dabei über mehrere NTC-Sensoren. Die Herausforderung für die Hersteller besteht darin, ein zugfreies und homogenes Raumklima zu schaffen. Besondere Anforderungen werden an den Lüfter gestellt: Dieser muss möglichst geräuscharm arbeiten, um Stress und die Gefahr einer Hörschädigung für den Patienten so weit wie möglich zu reduzieren. Inkubatoren unterschreiten ein Betriebsgeräusch von ≤ 50 dB(A). Es ist jedoch eine Forderung für zukünftige Entwicklungen, die Geräuschentwicklung weiter zu minimieren. Der Anwender hat zwei Möglichkeiten, die Temperatur im Inkubator zu bestimmen: ▬ Lufttemperaturregelung Der Anwender wählt eine geeignete Lufttemperatur. Durch einen Temperaturfühler im Inkubator wird die Temperatur gemessen und mit dem Sollwert verglichen. Der Inkubator wird die eingestellte Lufttemperatur somit konstant halten. Weicht die Ist- Temperatur vom Sollwert ab, wird der Anwender durch ein Alarmsignal informiert. In der Regel liegt die Alarmgrenze bei ± 1,5°C vom Sollwert.
▬ Hauttemperaturregelung Der Anwender platziert einen Hauttemperatursensor am Thorax, ein zweiter kann an die Extremitäten platziert werden. Die gewünschte Hauttemperatur am Thorax wird vom Anwender eingestellt. Der Inkubator wird die Lufttemperatur in Abhängigkeit von der Hauttemperatur regeln. Weicht die Ist-Temperatur vom Sollwert ab, wird der Anwender durch ein Alarmsignal informiert. In der Regel liegt die Alarmgrenze bei ± 0,5°C vom Sollwert. ! Inkubatoren sind nicht in der Lage zu kühlen. Bei hohen Außentemperaturen und bei größeren Säuglingen kann der Sollwert nicht eingehalten werden. Die Temperatur kann abhängig vom Inkubatortyp in einem Bereich von ca. 20°C bis ca. 39°C in 0,1°C-Schritten eingestellt werden.
60.2.2 Regulation der Luftfeuchtigkeit
Es werden zwei Konstruktionsprinzipien zur FeuchteErzeugung genutzt: Entweder wird destilliertes Wasser über einen Kocher verdampft und danach abgekühlt in den Inkubator eingeleitet oder über ein beheiztes Wasserbecken in der Inkubatorzelle erzeugt. Gemessen wird die Feuchte über kapazitive Bauelemente. Feuchte wird nicht nur benötigt, um den Thermohaushalt der Säuglinge aufrechtzuerhalten, sondern auch, um den Mund-Nasen-Rachenraum anzufeuchten. Die Luftfeuchte kann zumeist zwischen 30% und 99% relativer Luftfeuchtigkeit eingestellt werden. Der Anwender hat je nach Bauart des Inkubators zwei Möglichkeiten, die Luftfeuchtigkeit zu steuern: ▬ Manuelle Feuchteregelung Der Anwender wählt eine geeignete relative Luftfeuchte. Über einen Feuchtigkeitssensor wird die relative Luftfeuchte gemessen und mit dem Sollwert verglichen. ▬ Automatische Feuchteregelung Im Automodus wird bei einer höheren Lufttemperatur entsprechend auch die relative Luftfeuchte erhöht. Luft kann in Abhängigkeit von der Temperatur unterschiedlich viel Feuchtigkeit binden, sodass bei Unterschreiten einer kritischen Temperatur Kondenswasserbildung eintritt, während bei höheren Temperaturen mehr Feuchtigkeit aufgenommen werden kann. Aufgrund der im Verhältnis zur Außentemperatur hohen Innenraumtemperatur besteht die Gefahr der Kondenswasserbildung an den Inkubatorscheiben. Damit ist die Möglichkeit, den Säugling zu beobachten, u. U. eingeschränkt. Der Effekt ist verstärkt bei einer gewählten Luftfeuchtigkeit von >70% zu beobachten. Von zahlreichen Herstellern werden zur besseren Isolation op-
935 60.3 · Inkubatorbauarten
tionale Innenraumscheiben angeboten. Diese haben sich in der Praxis nicht durchgesetzt. Insbesondere weil dann der Feuchtigkeitsbeschlag zwischen den beiden Scheiben nicht mehr ohne großen Aufwand vom Pflegepersonal abgewischt werden kann. ! Inkubatoren sind nicht in der Lage, die Luft zu trocknen. Wählt man eine Sollfeuchte, welche geringer ist als die Umgebungsluftfeuchtigkeit, wird der Istwert nie die Umgebungsluftfeuchtigkeit unterschreiten.
60.2.3 Regelung des Sauerstoffs
Als Option kann bei allen auf dem Markt verfügbaren Geräten die Luft mit Sauerstoff angereichert werden. Dabei kann die Luft je nach Inkubatorbauart auf bis zu 70 Vol.-% angereichert werden. Bei stationären Inkubatoren wird der Sauerstoff über die zentrale Gasversorgung eingespeist. Bei Transportinkubatoren für Kfz- oder Hubschraubertransport ist sowohl der Betrieb über die zentrale Gasversorgung als auch über Gasflaschen möglich. Gemessen wird der Sauerstoff im Inkubator über Brennstoffzellen, welche auch in Langzeitbeatmungsgeräten eingesetzt werden. Das Funktionsprinzip der Brennstoffzelle ist im Kap. 28 »Anästhesiegeräte« näher beschrieben. Aufgrund des Gefährdungspotentials einer O2-Fehldosierung wird die O2-Messtechnik redundant gestaltet. Das Signal von zwei Brennstoffzellen wird miteinander verglichen. Weichen die Werte deutlich voneinander ab, werden automatisch oder manuell durch den Anwender die Brennstoffzellen kalibriert.
60.3
Inkubatorbauarten
Nach ihrem Einsatzzweck werden die Inkubatoren grundsätzlich in drei Bauformen unterteilt: ▬ Stationäre Inkubatoren Werden für die Langzeitversorgung der Früh- und Neugeborenen auf Wach- und Intensivstationen verwendet (⊡ Abb. 60.1). ▬ Transportinkubatoren Werden zum »Inhouse-Transport« vom Kreissaal auf die Pädiatrische Intensivstation oder zur Verlegung in andere Kliniken mit einem Fahrzeug oder Hubschrauber benutzt (⊡ Abb. 60.2). Diese Inkubatoren besitzen sowohl eine eigene Stromversorgung über Akkumulatoren als auch eine Gasversorgung über Gasflaschen. Im Krankenhaus oder im Fahrzeug können die Geräte über das 220-Volt-Netz und über die zentrale Gasversorgung mit Energie versorgt werden, um die mobile Energieversorgung zu schonen. Die auf einem mit Schwingungsdämpfern ausgerüsteten Chassis gelagerten Inkubatoren werden auf handelsübliche Krankentragengestelle mit einklappbarem Fahrgestell adaptiert. Bedingt durch die beengten Platzverhältnisse während des Transports (z. B. in Hubschraubern) und die überschaubaren Transportzeiten wird meist auf die Befeuchtungsoption verzichtet. Intensivtransportinkubatoren sind mit einem Beatmungsgerät, einem Patientenüberwachungsmonitor, Spritzenpumpen und einer Absaugvorrichtung ausgestattet. Ein Problem stellt in der Praxis die nichtstandardisierte Aufnahme an den Krankentragegestellen und den Fahrzeugen dar. Für die Zukunft ist daher ein europaweiter Standard der Befestigungsaufnahmen wünschenswert.
60.2.4 Waage
Neben der Körpertemperatur ist auch das Körpergewicht ein wichtiger diagnostischer Parameter in der Neonatologie. Nach dem heutigen Stand der Technik hat sich das Wiegen im Inkubator durchgesetzt. Damit wird Kältestress für das Neugeborene vermieden, wenn dieses anstatt auf einer konventionellen Waage in Raumluft im Inkubator gewogen wird.
60.2.5 Röntgenschublade
Um das Handling für notwendige Röntgenaufnahmen zu vereinfachen, ist bei Inkubatoren neuerer Bauart unter der Liegefläche eine Schublade eingebaut. In dieser Schublade lassen sich gängige Röntgenkassetten einlegen. Dadurch entfällt das Platzieren des Neugeborenen direkt auf eine kalte und harte Röntgenplatte.
⊡ Abb. 60.1. Inkubator für Einsatz auf Station (Mit freundlicher Genehmigung der Fa. Dräger Medical GmbH)
60
936
Kapitel 60 · Inkubatoren
▬ Spezielle Inkubatoren Für Untersuchungen im MRT gibt es einen nichtmagnetischen Transportinkubator, welcher in das MRT eingeschoben werden kann. Auch dieses Gerät besitzt die Möglichkeit der Luftanfeuchtung, der künstlichen Beatmung und zur Überwachung des Patienten mit einem Pulsoximeter. Geeignet ist das Gerät für Untersuchungen am Thorax und am Gehirn. Das Problem von »Inhouse-Transporten« kann durch ein neuartiges Transportkonzept erheblich vereinfacht werden. Jeder therapiepflichtige Säugling wurde bisher
VI
⊡ Abb. 60.2. Transportinkubator mit Fahrgestell (Mit freundlicher Genehmigung der Fa. Dräger Medical GmbH)
auf einer Reanimationseinheit versorgt, dann mit einem Transportinkubator vom Kreissaal oder Sectio-OP in die Kinderabteilung verlegt und dort auf seinen Behandlungsplatz umgebettet. Das bedeutete eine mehrmalige Umlagerung und somit Kältestress für das Neugeborene sowie die Gefahr der unabsichtlichen Manipulation an Infusionen und Beatmungsschläuchen. Üblicherweise werden Neugeborene auf Reanimationseinheiten, d. h. einem Wärmebett mit einer beheizten Gelmatratze und einem integrierten Heizstrahler, erstversorgt. Nach der Stabilisierung im Kreißsaal werden die Patienten oft in wenigen Minuten auf die Intensivstation verlegt. Erst auf der Intensivstation werden die Säuglinge in den stationären Inkubator umgelagert. Somit werden die Patienten zweimal bei Raumtemperatur umgelagert und erfahren somit Kältestress. Sowohl die Reanimationseinheit als auch der Transportinkubator müssen danach wieder zeitaufwändig aufgerüstet werden. Um diese Standardsituation zu verbessern, wird ein stationärer Inkubator mit integriertem Heizstrahler an einen Andockwagen gekoppelt. Dieser Inkubator kann somit zur Erstversorgung als Reanimationseinheit benutzt werden (⊡ Abb. 60.3). Auf dem Andockwagen finden sich alle notwendigen relevanten Geräte für eine Intensiveinheit: Beatmungsgerät, Absaugung, Patientenüberwachungsmonitor, Spritzenpumpen und Handbeatmungsbeutel. Der Andockwagen ist mit O2- und Druckluftflaschen bestückt, um auch während des Transports die Beatmung zu gewährleisten. Der Wagen wird ohne Werkzeug an den Inkubator gekoppelt. Bei Ankunft auf der neonatologischen Intensivstation wird der Wagen direkt am Intensivplatz abgekoppelt, um die Therapie mit Stationsgeräten weiterzuführen. Mit diesem Konzept wird Kälte- und Umlagerungsstress verringert, Ressourcen werden geschont, und das Handling für das Personal wird vereinfacht.
60.4
Risiken der Inkubatortherapie
60.4.1 Temperatur
⊡ Abb. 60.3. Inkubator mit Andockwagen für Inhousetransport (Mit freundlicher Genehmigung der Fa. GE und UKL Freiburg)
Wie in der Einführung beschrieben, ist die Konstanthaltung der Körpertemperatur für Neugeborene von großer Bedeutung. Deshalb ist eine engmaschige Temperaturüberwachung unabdingbar. Bei Neugeborenen wird meistens alle zwei Stunden rektal die Temperatur gemessen. Befindet sich der Säugling im thermostabilen Gleichgewicht, kann der Zyklus auf vier Stunden ausgedehnt werden. Kühlt das Kind aus, spricht man von Hypothermie. Wird das Kind über 37,0°C durch den Inkubator erwärmt, spricht man von Hyperthermie. Aufgrund des erhöhten Flüssigkeitsverlusts kommt es bei einer Hyperthermie zu Elektrolytstörungen. Wei-
937 Literatur
tere Folgen sind Hyperventilation und Tachykardien. Bei thermostabilen Kindern korreliert die Hauttemperatur sehr gut mit der Körperkerntemperatur. Somit vereinfacht die Betriebsart »Hauttemperaturregelung« die geeignete Temperaturwahl für den Anwender. Eine Einschränkung erfährt diese Methode jedoch bei sehr unreifen Patienten mit extrem hohen Verlusten an Flüssigkeit über die Haut in den ersten Lebenstagen. Darüber hinaus ist die Hauttemperaturregelung auch bei Schockzuständen und dem Auftreten von Infektionen gefährlich, da entweder falsche Messwerte auftreten oder die Änderung der kindlichen Temperatur zwar kompensiert, aber nicht erkannt wird. Im Schockzustand kann die notwendige Zentralisierung der Haut außer Kraft gesetzt werden.
60.4.4 Ungelöste Probleme
Noch immer ist die Abschirmung der frühgeborenen Patienten im Inkubator nicht so perfekt wie im Mutterleib. Die zumindest zeitweilige Abdunklung und die Reduktion von Geräuschquellen im Inkubator sind noch immer nicht zufrieden stellend gelöst; auch die Verstärkung von Geräuschen, die außerhalb des Inkubators entstehen, ist zu beachten. Die im Inkubator enstehenden elektromagnetischen Felder (Antonucci et al. 2009) sind zu berücksichtigen, da sie physiologische Funktionen wie die Herzfrequenz beeinflussen können. Ob die gegenwärtigen Grenzwerte angemessen sind, ist noch unklar.
Literatur 60.4.2 O2-Therapie
Sauerstoff stellt – als Medikament eingesetzt – wegen einer möglichen Fehldosierung ein hohes Gefahrenpotential dar. Deshalb muss bei Gabe von O2 der arteriell gemessene O2-Partialdruck bestimmt werden. Bei der O2-Therapie ist es unabdingbar, den Patienten mit einem Pulsoximeter oder einem transkutanen O2-Sensor kontinuierlich zu überwachen. Kommt es zu einer O2Unterversorgung (Hypoxämie), besteht die Gefahr einer respiratorischen Insuffizienz, mit der Folge von Apnoen. Bei dauerhafter O2-Mangelversorgung kommt es zu einer Hirnschädigung. Die Überdosierung von O2 (Hyperoxämie) kann bei Frühgeborenen unterhalb der 38. Schwangerschaftswoche zu schweren Augenschäden führen. Es kann sogar zur Netzhautablösung, der Retinopathie schwersten Grades, kommen. Sauerstoff fördert die Explosions- und Brandgefahr. Nach der Händedesinfektion muss sicherheitshalber gewartet werden, bis das Desinfektionsmittel getrocknet ist. Aus diesem Grund dürfen keine Desinfektionsmittel oder brennbaren Flüssigkeiten wie Alkohol oder Benzin im oder auf dem Inkubator abgestellt werden.
60.4.3 Hygiene
Aufgrund des warmen Klimas und der hohen Luftfeuchtigeit ist der Inkubator ein idealer Raum zur Ausbreitung von Keimen. Dadurch ist das Neugeborene zusätzlich infektgefährdet. Deshalb sollte nach Beendigung der Behandlung eines Patienten oder spätestens nach sieben Tagen der Inkubator ausgetauscht und der benutzte Inkubator sorgfältig gereinigt und wischdesinfiziert werden. Insbesondere bei starker Bildung von Kondenswasser ist mit einer frühen Besiedlung durch Bakterien und Pilze zu rechnen.
Antonucci R, Annalisa A, Fanos V (2009) The infant incubator in the neonatal intensive care unit: unresolved issues and future developments. J Perinat Med 37: 587–598 Bauer K, Speer CP (2001) Pädiatrie. Springer, Berlin Heidelberg New York Tokyo Brück H, Püschner PA (1996) Thermomonitoring. Drägerwerk, Lübeck Budin P (1907) The Nursling. Caxton Publishing Company, London Frankenberger H, Güthe A (1991) Inkubatoren. Verlag TÜV Rheinland, Köln
60
61 Chirurgische Scheren – Evolution bis zur Multifunktion R. Haag, W. Storz 61.1
Geschichte der Schere – 939
61.7.4
61.1.1 61.1.2 61.1.3 61.1.4
Paarige Messer – 939 Endgelenkschere – 940 Bügelschere – 940 Gelenkschere – 940
61.7.5 61.7.6
61.2
Funktion und Aufbau der Schere
61.2.1 61.2.2
Materialien – 941 Spezielle Beschichtungen – 941
61.3
Titanscheren
61.4
Herstellung der Chirurgischen Schere – 942
61.4.1
Produktionsschritte – 942
61.5
Einsatzgebiet
61.5.1
Chirurgische Standardscheren – 943
61.6
Chirurgische Scheren – 944
61.6.1 61.6.2 61.6.3 61.6.4 61.6.5 61.6.6 61.6.7
Präparierscheren – 944 Faden- oder Ligaturschere – 944 Drahtscheren – 945 Mikrochirurgische Scheren – 945 Gefäßchirurgische Scheren – 946 Gynäkologische Scheren – 948 Gynäkologische Scheren für Geburtshilfe – 948
61.7
Handhabung und Pflege – 949
61.7.1 61.7.2 61.7.3
Allgemeine Hinweise – 949 Werkstoffe der Scheren – 949 Wasserqualitäten – 949
– 941
– 942
– 943
Die Schere ist nach wie vor ein unentbehrliches Handwerkszeug aller operativen Fachdisziplinen, im stationären und im niedergelassenen Bereich. Von allen chirurgischen Instrumenten wird die Schere wohl am häufigsten eingesetzt; vor, während und nach der Operation. Die Anwendung der Schere ist extrem einfach, der Nutzen sehr gut und vor allem vielfältig und beinahe unbegrenzt. Sowohl beim Zertrennen und Präparieren von Gewebe als auch beim Abschneiden eines Fadens oder anderer Hilfsmittel gibt es fast keine bessere universelle Alternative. Trotz des einfachen Handlings sind die Anforderungen des Chirurgen oder der Krankenschwester extrem hoch und komplex und sehr unterschiedlich in den Variationen. Dies hat dazu geführt, dass es über 2000 verschiedene Scherenvarianten gibt.
Vorbereitung zur Reinigung und Desinfektion – 950 Manuelle und maschinelle Reinigung – 950 Maschinelle Reinigung und thermische Desinfektion – 951
61.8
Kontrollen und Pflege – 952
61.9
Verpackung
– 952
61.10 Aktuelle Terminologie – 952 61.11 Dampf-Sterilisation mit Sattdampf – 953 61.11.1 Dampfqualität – 953 61.11.2 Freigabe und Lagerung
– 953
61.12 Qualitätsmerkmale
– 954
61.12.1 61.12.2 61.12.3 61.12.4 61.12.5 61.12.6
Material – 954 Oberfläche – 954 Form – 954 Gang – 954 Ringe – 954 Schneidequalität – 954
61.13 Weiterentwicklung in der Zukunft – 954 61.13.1 Anwender – 954 61.13.2 Industrie – 954
61.14 Ausblick Literatur
– 955
– 956
Weiterführende Literatur – 956
61.1
Geschichte der Schere
Wo und wann die Schere zuerst erfunden wurde, ist bis heute nicht genau geklärt. Begründete Vermutungen gehen davon aus, dass die ersten scherenähnlichen Gebilde zwischen 1300 und 600 v. Chr. existierten.
61.1.1 Paarige Messer
Urform der Schere waren zwei gleichartige Messer, deren Schneideklingen aufeinander zugeführt wurden. Diese paarigen Klingen waren nicht miteinander verbunden. Der Anwender musste mit beiden Händen arbeiten. Die linke Hand hielt und stützte das eine Messer von unten
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2 _61, © Springer-Verlag Berlin Heidelberg 2011
940
Kapitel 61 · Chirurgische Scheren – Evolution bis zur Multifunktion
VI ⊡ Abb. 61.1
⊡ Abb. 61.2
⊡ Abb. 61.3
her, die rechte Hand führte das andere, oben liegende Messer und sorgte dafür, dass die Schneiden dicht unter leichtem Druck nebeneinander vorbeiglitten und so scherten, also schnitten.
61.1.2 Endgelenkschere
Eine Weiterentwicklung stellte die Endgelenkschere dar. Dabei handelt es sich um zwei Klingen, die am Ende mit Hilfe eines Bolzens ein Scharnier bilden. In der Praxis waren sie eher umständlich zu bedienen, da die Klingen zum Schneiden aufeinandergedrückt werden und anschließend manuell auseinander gezogen werden müssen.
61.1.3 Bügelschere
Im Vergleich zur Endgelenkschere stellen Bügelscheren (⊡ Abb. 61.3) eine deutliche Verbesserung dar, weil sie mit einer Hand bedient werden können und sich aufgrund der Materialspannung von selbst wieder öffnen. Erste Ausführungen der Bügelschere werden um ca. 300 v. Chr. vermutet.
61.1.4 Gelenkschere
Durch mehr Erfahrung in der Stahlverarbeitung und höhere Ansprüche setzte sich ab dem 13. Jahrhundert die Gelenkschere immer mehr durch. Dies wiederum ergab neue Einsatzgebiete, nicht zuletzt in der Chirurgie. Erst
⊡ Abb. 61.4
1497 zeigt H. Brunschwig in seinem Buch der Chirurgie in einer Kammer voller chirurgischer Instrumente auch eine Schere (⊡ Abb. 61.4).
941 61.2 · Funktion und Aufbau der Schere
61.2
Funktion und Aufbau der Schere
Chirurgische Scheren sind je nach Ausführung und Anwendung zur Durchtrennung von Gewebe, Knochen, Organen, Verbandstoffen und anderen medizinischen Hilfsstoffen bestimmt. Des Weiteren werden Scheren relativ häufig zum Präparieren und Manipulieren von bestimmten Gewebestrukturen und Organen genutzt, da das Handling äußerst einfach ist und zusätzlich das taktile Gefühl für den Chirurgen wichtige Rückschlüsse sowie Informationen geben kann. Insgesamt sind die Einsatzgebiete und die Anwendung der Chirurgischen Schere sehr vielfältig und äußerst komplex. Dementsprechend umfangreich und vielfältig sind auch die einzelnen Ausführungen und Variationen. Jedoch haben alle dieser unterschiedlichen Scherentypen prinzipiell den gleichen Aufbau. Vorne sind die Scherenblätter, dann kommen der Schlussteil und die Branchen mit den Ringen (⊡ Abb. 61.5). Beim Schneiden mit der Schere wird das zu trennende Gewebe von den Schereblättern erfasst. Durch Schließen der Schere wandert der Schneidepunkt an den Schneideblättern vom Scherenschluss aus zur Schneideblattspitze. Dies wird als Gang der Schere bezeichnet. Dabei ist es wichtig, dass die mechanische Spannung zwischen den Schneideblättern von der Schneideblattmitte bis zur Schneideblattspitze gleich bleibend wirkt. Nur so ist, insbesondere an den Spitzen, eine gute Schneideleistung und Schnittqualität zu erzielen. Die Schnittlänge ist von der Länge der Schneideblätter und/oder der von der Länge des von den Schneideblättern erfassten Gewebes abhängig. Dabei ist es wichtig, dass die Schneidekanten der Schneideblätter geometrisch so angeordnet sind, dass sie sich beim Schließen in einem sehr spitzen Winkel kreuzen und das Gewebe nur am jeweiligen Schneidepunkt glatt durchtrennen.
61.2.1 Materialien
Wichtigste Grundvoraussetzung für eine qualitativ gute Chirurgische Schere ist die Verwendung von hochwertigem geschmiedetem Stahl gemäß EN ISO 7153-1:2000. Übliche Stähle sind: ▬ 1.4117/X38CrMoV15 mit 0,38% Kohlenstoffgehalt, 15% Chromgehalt und 0,5% Molydängehalt, ▬ 1.4034/X46Cr13 mit 0,42–0,50% Kohlenstoffgehalt und 12,5–14,5% Chromgehalt, ▬ 1.4021/X20Cr13 mit 0,16–0,25% Kohlenstoffgehalt und 12–14% Chromgehalt. Generell gilt, dass ein höherer Kohlenstoffgehalt eine höhere Härte ergibt und ein höherer Chromgehalt eine bessere Korrosionsbeständigkeit erbringt. Bei der so genannten Hartmetallschere, auch TC-Schere (Tungsten Carbide) genannt, Erkennungsmerkmal sind die vergoldeten Ringe, gibt es zwei verschiedene Möglichkeiten. 1. Das Einlöten eines Hartmetalls an der Schneidekante An die ausgefräste Stelle im Scherenblatt wird eine Hartmetallplatte eingelötet. Diese Hartmetallplatte ist sehr hart. Aufgrund der insgesamt drei verschiedenen verwendeten Metalle, die jeweils eine unterschiedliche Position in der elektrochemischen Spannungsreihe haben, können Potentialdifferenzen zu Korrosion (bei der Aufbereitung) führen. Stärker gebogene Scheren sind entweder aufwändig oder nicht wirtschaftlich herzustellen. 2. Das Aufschweißen von hartem Metall An die ausgefräste Stelle im Scherenblatt wird Stellit (2,4% Kohlenstoff, 33% Chrom, 13% Wolfram; eine harte Metalllegierung) eingeschweißt. Die Schweißnaht ist hart, und das Scherenblatt muss anschließend aufwändig geschliffen werden. Hier sind es nur zwei verschiedene Materialien, und starke Biegungen können einfacher realisiert werden. 61.2.2 Spezielle Beschichtungen
Immer häufiger werden Hartmetallscheren mit einer speziellen, sehr harten Beschichtung angeboten. Die Oberflächenhärte liegt zwischen 2000 und 5000 HV. Übliche Beschichtungen sind: ▬ AlTiN: Aluminium Titan Nitrit, anthrazitfarbig ▬ TiN: Titan Nitrit, goldfarbig ▬ ZrO2: Zirkon Oxyd, gräulich
⊡ Abb. 61.5
Vorteile für den Anwender sind z. B. ▬ eine höhere Lebensdauer durch die extrem hohe Oberflächenhärte, ▬ bei AlTiN durch die dunklere Farbe weniger Reflexionen des OP-Lichtes, ▬ durch die bessere Oberflächenvernetzung weniger Reibung und damit ein besserer Gang der Schere und leichtere Reinigbarkeit.
61
942
Kapitel 61 · Chirurgische Scheren – Evolution bis zur Multifunktion
61.3
VI
Titanscheren
Für spezielle Anwendungen, wie z. B. im Bereich der offenen MRI, wo antimagnetische Materialien notwendig sind, werden Titanscheren eingesetzt. Da Titan ein amorphes Metall ist, sind die Produktionsprozesse deutlich aufwändiger und müssen komplett von den herkömmlichen Bearbeitungsprozessen getrennt werden. Beispiel: Bei Verwendung von Schleifbändern an Titanscheren, die vorher an herkömmlichen Metallischen Scheren eingesetzt wurden, können Metallpartikel in die Titanoberfläche eingeschliffen werden. Diese würden beim Einsatz am offenen MRI Bildartefakte erzeugen und die Bildqualität einschränken oder sogar das Bild unkenntlich machen. Aufgrund des spröden Materials ist die Lebensdauer geringer und die Schneideleistung schlechter als bei herkömmlichen Scheren und der Gang rauer.
61.4
Herstellung der Chirurgischen Schere
So einfach die Schere bei der Anwendung ist, so anspruchsvoll ist die Herstellung. Dabei sind sehr viele Einzelarbeitsschritte notwendig, teilweise maschinell, aber doch noch sehr viel manuell (⊡ Abb. 61.6 und ⊡ Abb. 61.7).
Eine gute Schere zu produzieren ist nach wie vor nur möglich mit guten erfahrenen Chirurgiemechanikern/ Scherenmachern, unterstützt durch modernste Produktionstechnologie. Die präzise Arbeit in allen Produktionsschritten ist absolute Voraussetzung für gute Ergebnisse.
61.4.1 Produktionsschritte
Nachfolgend sind nur die wichtigsten Produktionsschritte aufgelistet: einmal für eine konventionelle Fertigung ( Übersicht »Vorfertigung«) und alternativ für eine moderne Fertigung mit Roboter und CNC-Technologie ( Übersicht »Fertigung«).
Vorfertigung 1. 2. 3. 4. 5. 6. 7. 8. 9.
Kernloch bohren Schlusseck fräsen Branche fräsen Ausfräsen für Hartmetall Obere und untere Scherenblätter biegen Unterteil Gewinde schneiden und Oberteil ansenken Stellung richten Unter-/Oberteil Schweißen Unter-/Oberteil Blatt innen und außen schleifen
Fertigung
⊡ Abb. 61.6. Scherenfertigung 1980
⊡ Abb. 61.7. Scherenfertigung 2010
1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21.
Ringe innen und außen schleifen Montieren/Vorschleifen Kontrolle vor dem Härten Auswaschen Härten und Anlassen Härte prüfen Montieren/Richten zum Polieren Polieren Kontrolle Auswaschen/Elektropolieren Stempeln, Kanten brechen, Schlussbürsten Mattieren und Ringe glänzen Auswaschen Fertigrichten, Bison anziehen Kontrolle Auswaschen Ringe vergolden Auswaschen Beschriften Passivieren Endkontrolle
Die Schritte 1–6 der Vorfertigung und Schritt 1 der Fertigung sind bei einer modernen Fertigung mit Roboter und
61
943 61.5 · Einsatzgebiet
CNC-Technologie ein automatisierter und standardisierter Arbeitsgang. Die ⊡ Tab. 61.1 enthält eine Übersicht der Diversifikation. Die ⊡ Abb. 61.8, ⊡ Abb. 61.9, ⊡ Abb. 61.10 und ⊡ Abb. 61.11 zeigen die verschiedenen Scherentypen. ⊡ Tab. 61.1. Technische Modellvarianten von chirurgischen Scheren Chirurgische Schere
Beschreibung
Standard ohne TC (Tungsten Carbide)
Preisgünstig
Mit Messerschliff
Scharfer, messerartiger Schnitt
Mit Messerschliff und Anschliff
Scharfer, müheloser messerartiger Schnitt Minimal traumatisierender Schnitt
Mit Messerschliff, Anschliff und Mikrozahnung
Scharfer, müheloser messerartiger Schnitt Minimal traumatisierender Schnitt Ohne Abgleiten des Schnittgutes
Mit TC, gelötet bzw. geschweißt
Hervorragende Schnitthaltigkeit
TC mit Messerschliff
Scharfer, messerartiger Schnitt Längere Schnitthaltigkeit
TC mit Messerschliff und Anschliff
Scharfer, messerartiger Schnitt Minimal traumatisierender Schnitt Längere Schnitthaltigkeit
TC mit Messerschliff, Anschliff und Mikrozahnung
Scharfer, müheloser messerartiger Schnitt Minimal traumatisierender Schnitt Ohne Abgleiten des Schnittgutes Längere Schnitthaltigkeit
TC mit Wellenschliff
Hervorragende Schnitthaltigkeit Verhindert das Abgleiten des Schnittgutes Längere Schnitthaltigkeit als Standard
Aus Titan
Antimagnetisch, daher MRI-kompatibel Halb so schwer wie Stahl Weniger ermüdendes Arbeiten
Mit Keramikbeschichtung
Dauerhafte Schnitthaltigkeit Hervorragende Gleitfähigkeit Blendfreie Oberfläche Gute Reinigbarkeit
61.5
Einsatzgebiet
61.5.1 Chirurgische Standardscheren
Einsatzgebiet/Indikation Überwiegend werden diese Scheren zum Schneiden von Operationshilfsmaterial eingesetzt, z. B. von Verbandsmaterial, Drainageschläuche und vor allem von Nahtmaterial. Sie werden aber auch zum Durchtrennen von Gewebeteilen im Operationsfeld genutzt und das interdisziplinär. Standardscheren findet man auf fast allen Operationssieben (⊡ Abb. 61.12 bis ⊡ Abb. 61.15).
⊡ Abb. 61.12
⊡ Abb. 61.13
⊡ Abb. 61.14
⊡ Abb. 61.15
Scherentypen
⊡ Abb. 61.8. Standard
⊡ Abb. 61.9. Aus Titan
⊡ Abb. 61.10. Mit TC
⊡ Abb. 61.11. Mit Keramik
Es sind mittelkräftige bis kräftige Scheren in gerader und aufgebogener Form. Als Basis dienen kräftige Modelle. Ausführung der Schneideblattspitzen: ▬ Schere spitz-spitz ▬ Schere stumpf-stumpf ▬ Schere spitz-stumpf
944
Kapitel 61 · Chirurgische Scheren – Evolution bis zur Multifunktion
⊡ Abb. 61.16
VI
⊡ Abb. 61.17
⊡ Abb. 61.18
⊡ Abb. 61.19
⊡ Abb. 61.21. Mayo-Lexer
⊡ Abb. 61.22
⊡ Abb. 61.23. Metzenbaum
⊡ Abb. 61.24
Klassiker: Schere stumpf-stumpf-aufgebogen = CooperSchere
Häufigste Eingriffe: Überwiegend in der Weichteil-, Ab-
Die Scherenlängen betragen 11–20 cm.
Scherentypen: Mittelkräftige bis schlanke elegante aufge-
dominal- und Viszeralchirurgie.
bogene Scheren. Gerade Präparierscheren werden selten eingesetzt. 61.6
Chirurgische Scheren
61.6.1 Präparierscheren
Wichtigste Autoren: Metzenbaum, Lexer, Mayo, MayoStille. Am bekanntesten ist der Begriff »Metzenbaumschere«.
Einsatzgebiet/Indikation Präparierscheren werden häufig bei chirurgischen Eingriffen eingesetzt. Eigentlich überall dort, wo Gewebe bis hin in tiefe Operationsregionen durchtrennt und präpariert wird. Das Schneiden von Gewebe erfolgt durch Schließen der Schere ohne Kraftaufwand. Das Präparieren erfolgt durch Scherenschläge nach außen (Spreizen der Schere). Frei- oder Stumpfpräparieren (Ausschälen) erfolgt mit geschlossener Schere. Leider werden von den Chirurgen immer wieder die Präparierscheren, oft aus Bequemlichkeit (man muss die Schere nicht wechseln), auch zum Schneiden von Nahtmaterial bei Ligaturen eingesetzt, was zur Verringerung der Scherenstandzeit führt. Zum Schneiden von Nahtmaterial gibt es spezielle Nahtscheren.
Typische Merkmale der Scheren Typisch für Präparierscheren sind die abgerundeten Spitzen und die runden Rücken der Schneideblätter. Im geschlossenen Zustand müssen die Scheren glatte, runde Präparierinstrumente darstellen, die am Schneideblatt keinerlei Kanten, Überstände aufweisen. Wichtig ist aber auch ein leichter, gleichmäßiger Gang, damit der Operateur ein gutes Gefühl für das Gewebe erhält, das er durchtrennt.
61.6.2 Faden- oder Ligaturschere
Einsatzgebiet/Indikation Nach Heilung der Oberfläche werden mit Faden- oder Ligaturscheren den Patienten »die Fäden gezogen«. Zu diesem Zweck wird die Oberflächenligatur mit einer Faden- oder Ligaturschere durchtrennt und anschließend mit einer anatomischen Pinzette entfernt bzw. gezogen.
Scherentypen
⊡ Abb. 61.20
Wichtig ist die schlanke Ausführung eines Schneideblattes, damit dieses ohne Ausübung von Druck auf die Operationsnarbe oder Zug auf den Faden unter die Ligatur geführt und diese durchtrennt werden kann. Es gibt Modelle, die am vorderen Ende eines Schneideblattes eine »Fadenrille« haben. Diese verhindert das »Wegrut-
61
945 61.6 · Chirurgische Scheren
⊡ Abb. 61.25. Iris-Schere
⊡ Abb. 61.26. Spencer
⊡ Abb. 61.27
⊡ Abb. 61.28. Northben
schen« des Fadens aus der Schere. Teilweise werden auch sehr feine spitz-spitze Scheren (ähnlich einer Iris-Schere) eingesetzt. Die Scherenlängen betragen 9–15 cm.
61.6.3 Drahtscheren
Einsatzgebiet/Indikation Bei bestimmten Eingriffen (z. B. bei einer Cerclage) werden als Naht- oder Verbindungsmaterial biegsame Metalldrähte verwendet. Zum Durchtrennen dieses Materials werden kurze, kräftige Scheren verwendet.
⊡ Abb. 61.29
⊡ Abb. 61.30. Ligaturschere Spencer
⊡ Abb. 61.31
61.6.4 Mikrochirurgische Scheren
Einsatzgebiet/Indikation Das Einsatzspektrum der mikrochirurgischen Scheren ist heute sehr breit. In fast allen Spezialdisziplinen (Parodontologie, Endodontie, Plastische Chirurgie, Handchirurgie, Orthopädie, Herzchirurgie, Gefäßchirurgie, Kinder- und Neonatalchirurgie, Gynäkologie, Urologie, Neurochirurgie, Ophthalmologie) kommen sie zum Einsatz. Jede mikrochirurgische Operation an Sehnen, Nerven und Gefäßen, die sehr oft unter dem Mikroskop durchgeführt wird, erfordert präzise, leichte Mikroinstrumente für feinste Eingriffe, die perfekt in der Hand des Operateurs liegen müssen (⊡ Abb. 61.36).
Typische Merkmale dieser Scheren Die Schneideblätter dieser Scheren sind extrem kurz, da mit diesen Instrumenten nur Draht abgeschnitten werden muss und kein glatter Schnitt durch Gewebe oder Verbandsmaterial erreicht werden muss. Manche Modelle weisen einen »Drahtschneider« zum sicheren Erfassen des Drahtes auf und sind an den Schneideblättern abgewinkelt. Die Scherenlängen betragen 10–16 cm.
⊡ Abb. 61.32. Universal
⊡ Abb. 61.33
Scherentypen Adventitiascheren sind sehr spitz und verfügen über gerade Schneiden. Sie werden hauptsächlich zum Anfrischen und Zuschneiden von Strukturen benützt, die bereits frei dissektiert (präpariert) sind. Sie werden auch zum Schneiden von feineren Fäden (8/0>) verwendet. Dissektionsscheren haben abgerundete Spitzen (Präparierform) und verfügen über gebogene Schneiden. Sie
⊡ Abb. 61.34. Beebee
⊡ Abb. 61.35
⊡ Abb. 61.36
946
Kapitel 61 · Chirurgische Scheren – Evolution bis zur Multifunktion
Scherenformen: Gerade, aufgebogen, abgewinkelt (verschiedene Winkel). Wichtige Autoren: Castroviejo, Mikro-Hegemann, Barra-
quer, Vannas, Yasargil, Jacobson. Die Scherenlängen betragen 9–24 cm.
61.6.5 Gefäßchirurgische Scheren
Einsatzgebiet/Indikation ⊡ Abb. 61.37a–c
VI
werden verwendet zur Trennung von Nerven und Blutgefäßen von ihrer Umgebung (Weichteilgewebe, Lymphknoten) und voneinander, ohne diese zu beschädigen. Gezahnte Scheren ermöglichen den besten, kontrollierten Schnitt, auch beim Zubereiten von Nervengeweben. Wichtig ist dabei auch, dass es mikrochirurgische Scheren mit Rund- und Flachgriffen gibt. Der Rundgriff unterstützt die rotatorische Bewegung, die beim Nadeldurchstich benötigt wird. Heute werden überwiegend Rundgriffinstrumente eingesetzt. Es gibt Scheren aus Stahl und Titan. Titanscheren haben oft diamantierte Schneiden und besitzen dadurch eine besonders lange Standzeit und sind wesentlich leichter.
⊡ Abb. 61.38. Mikroschere
⊡ Abb. 61.39 Mikroschere
Diese speziellen Scheren werden zum Schneiden und Präparieren im gesamten arteriellen und venösen Gefäßsystem des menschlichen Körperkreislaufes (periphere, zentrale und Herzkranzgefäße) eingesetzt, auch zum Schneiden von Nahtmaterial. Je nach Gefäßdurchmesser werden unterschiedliche Modelle und Formen bis hin zu mikrochirurgischen Scherentypen verwendet. Besonders lange Gefäßscheren nach Potts-Smith werden auch zum Eröffnen von anderen Körperkanälen (z. B. Gallenkanal zur Entnahme von Steinen) eingesetzt.
Scherentypen Grundsätzlich wird zwischen Adventitia- und Dissektionsform unterschieden. Adventitiascheren sind spitzspitz, Dissektionsscheren stumpf-stumpf. Verschiedene Modelle verfügen über ein fein gezahntes Schneideblatt, das in gewissen Situationen einen noch besseren, kontrollierbaren Schnitt ermöglicht.
⊡ Abb. 61.40 Mikroschere
⊡ Abb. 61.41. Koronarschere
⊡ Abb. 61.42. Mikro-Hegemann
947 61.6 · Chirurgische Scheren
Scherenformen Gerade, aufgebogen, abgewinkelt (verschiedene Winkel) Wichtige Autoren: Potts, Potts-Smith, De Bakey, Diethrich, Hegemann, Favoloro.
⊡ Abb. 61.43a–c
⊡ Abb. 61.44a,b
Typische Merkmale der Scheren
den Dissektionsscheren sind die Klingen ergonomisch gebogen, damit der Operateur sich auf die Chirurgie statt auf die Stellung seiner Hand konzentrieren kann. Die abgerundeten Spitzen gewährleisten die sichere Präparation. Die Scherenlängen betragen 13–24 cm.
Adventitiascheren weisen gerade Klingen auf, um einen optimalen Schnitt mit kleinsten Schnittflächen zu ermöglichen. Die Spitzen sind sehr fein ausgebildet, für präzises Zuschneiden ohne Beeinträchtigung des Blickfeldes. Bei
⊡ Abb. 61.45. Favaloro
⊡ Abb. 61.49a–c
⊡ Abb. 61.46
⊡ Abb. 61.47. Potts-Smith
⊡ Abb. 61.50. Gefäßschere
⊡ Abb. 61.48a–c
⊡ Abb. 61.51
⊡ Abb. 61.52. Winkelschere
⊡ Abb. 61.53
61
948
VI
Kapitel 61 · Chirurgische Scheren – Evolution bis zur Multifunktion
61.6.6 Gynäkologische Scheren
61.6.7 Gynäkologische Scheren für Geburtshilfe
Einsatzgebiet/Indikation
Einsatzgebiet/Indikation
Diese Scheren kommen ausschließlich an den inneren weiblichen Genitalorganen zum Einsatz.
Diese Scheren kommen bei einem Scheidendammschnitt zum Einsatz, und zwar zur Vermeidung eines Dammrisses oder zur Erleichterung bei einer operativen Entbindung, aber auch bei der Abtrennung der Nabelschnur bei der Abnabelung.
⊡ Abb. 61.54
Häufigster Eingriff: Hysterektomie (Vaginale/abdomi-
nale Totalexstirpation des Uterus ohne/mit Adnexentfernung). Scherentypen: Uterusscheren, Parametriumscheren, auch Hysterektomiescheren genannt.
⊡ Abb. 61.57
⊡ Abb. 61.58
Scherentypen: Episiotomie- oder Dammscheren, Nabel-
schnurscheren. Wichtigste Autoren: Sims, Siebold, Wertheim. Wichtigste Autoren: Braun-Stadler, Waldmann, Busch,
Schuhmacher.
Typische Merkmale der Scheren Insgesamt sehr kräftige Scheren mit kurzen, aufgebogenen Schneideblättern. Spitzen immer stumpf-stumpf. Im geschlossenen Zustand runde Spitze zum Präparieren und Spreizen. Die Schneideblätter müssen im Verhältnis zu den Branchen deshalb sehr kurz sein, um eine günstige Hebelwirkung mit dem notwendigen Druck auf die Schneidekanten zu erreichen. Die Schneideblätter selbst müssen ausreichend dick sein, damit sie beim Durchtrennen der derben Gewebe, z. B. im Retinaculum uteri, nicht auseinandergedrängt werden und einen glatten Schnitt sicherstellen. Die Scherenlängen betragen 20–28 cm.
⊡ Abb. 61.55. Uterusschere Sims
⊡ Abb. 61.56. Sims-Siebold
Typische Merkmale der Scheren Dammscheren sind kräftige Scheren mit knie- oder sichelförmig gebogenen Schneideblättern zur Vermeidung einer Verletzung von Kind und Mutter. Mit den sichelförmigen Schneideblättern soll beim Einführen in den Geburtskanal eine günstige Anpassung an den Schädel des Kindes erreicht werden. Ein gleichmäßiger, glatter Schnitt in diesem derben Gewebe muss sichergestellt sein. Nabelschnurscheren sind kurze kräftige Scheren in verschiedenen Formen, die sämtlich ein sicheres und glattes Durchtrennen der Nabelschnur ermöglichen. Die Scherenlängen betragen 14–22 cm.
⊡ Abb. 61.59. Waldmann
⊡ Abb. 61.60. Braun-Stadler
⊡ Abb. 61.61. Busch
⊡ Abb. 61.62. Schuhmacher
949 61.7 · Handhabung und Pflege
61.7
Handhabung und Pflege
61.7.2 Werkstoffe der Scheren
Chirurgische Instrumente – dazu zählen auch alle chirurgischen Scheren – dürfen ausschließlich zu ihrer bestimmungsgemäßen Verwendung in den medizinischen Fachrichtungen durch entsprechend ausgebildetes und qualifiziertes Personal benutzt werden. Verantwortlich für die Auswahl der Modelle für bestimmte Anwendungen bzw. den operativen Einsatz, die angemessene Schulung und Information und die ausreichende Erfahrung für die Handhabung der Instrumente ist der behandelnde Arzt bzw. der Benutzer. Vor dem Erstgebrauch, jedem weiteren Gebrauch und vor der Rücksendung bei Reparatur, Wartung oder Service müssen die Instrumente gemäß standardisierten Aufbereitungsanweisungen gereinigt, desinfiziert und sterilisiert werden. Hierfür besteht ein rechtlicher und normativer Hintergrund, bestehend aus einer Reihe von Gesetzen, Verordnungen, Normen, Richtlinien und Empfehlungen. Nur durch Einhaltung einer fachgerechten Aufbereitung und Pflege bleiben die Funktion und der Wert dieser hochwertigen Produkte, die in jedem Krankenhaus einen bedeutenden materiellen Wert darstellen, über viele Jahre erhalten. Wichtige Normen, Richtlinien und Empfehlungen sind: ▬ Die gemeinsame Empfehlung des RKI und des BfArM zu den »Anforderungen an die Hygiene bei der Aufbereitung von Medizinprodukten«. Sie fordert ein Qualitätsmanagement sowie validierte Prozesse bei der Aufbereitung wieder verwendbarer MP. ▬ Die DIN EN ISO 15883 konkretisiert und definiert die Anforderungen an Reinigungs- und Desinfektionsgeräte sowie an die Validierung der Aufbereitungsprozesse. ▬ Die DIN EN ISO 17664 benennt die vom Hersteller bereitzustellenden Informationen für die Aufbereitung von Medizinprodukten.
Neben den verwendeten und genormten Werkstoffen (DIN EN ISO 7153-1), denen wir einen Extra-Abschnitt ( Abschn. 61.2.1) gewidmet haben, spielen bei der Aufbereitung noch andere Parameter für die Werterhaltung der Instrumente eine wesentliche Rolle.
61.7.1 Allgemeine Hinweise
In der DIN EN ISO 15883-1 unter Punkt 6.4.2.2 sind die Parameter aufgeführt, die in jedem Fall ermittelt werden sollten. In der DIN EN 285 sind im Anhang B, Tabelle B 1 Werte für Kesselspeisewasser eines Dampfsterilisators aufgeführt. Diese Wasserqualität kann für den Schlussspülschritt bei der maschinellen Instrumentenaufbereitung empfohlen werden. Als Anhaltswerte sind die in ⊡ Tab. 61.2 angeführten Werte sind zu empfehlen.
Im Allgemeinen umfasst die Aufbereitung von Medizinprodukten ▬ Vorbereiten (Vorbehandeln, Sammeln, Vorreinigen und ggf. Zerlegen), ▬ Reinigung, Desinfektion, Nachspülung, Trocknung, ▬ visuelle Prüfung auf Sauberkeit, einwandfreier Zustand des Materials, ▬ Pflege und Instandsetzung, ▬ Funktionsprüfung, ▬ Kennzeichnung, ▬ Verpacken, Sterilisieren, Freigabe und Lagerung.
61.7.3 Wasserqualitäten
Wasser ist aufgrund des erforderlichen Volumens ein wichtiges Medium im Aufbereitungsprozess und daher für jeden maschinellen Spülprozess ein entscheidender Faktor zur Erzielung eines guten Reinigungsergebnisses. Je nach Spülgut kann die Wasserqualität die Werterhaltung des Spülgutes beeinflussen. Der Gesamt-Salzgehalt (Abdampfrückstand) des Wassers für die abschließende Spülphase kann zu unerwünschten Rückständen am Spülgut und zu Materialschädigungen führen. Eine ungünstige Wasserzusammensetzung kann sich also nachteilig sowohl auf das Aufbereitungsverfahren als auch auf das Aussehen und die Werkstoffe der Instrumente auswirken. Deshalb muss schon bei der Planung der Sanitärinstallationen der Beschaffenheit des Wassers Rechnung getragen werden. So können überhöhte Chloridkonzentrationen zu Lochkorrosion auf dem Instrument führen, andere Wasserinhaltsstoffe wie Silikate/Kieselsäure zu Verfärbungen. Zusätzlich zu den natürlichen Wasserinhaltsstoffen findet sich manchmal Rost im Trinkwasser. Dieser stammt fast immer aus korrodierten Leitungssystemen. Bei der Aufbereitung lagert sich dieser Rost auf den Instrumenten ab und erzeugt dort Rostflecken (Fremdrost) und Folgekorrosion. ! Cave Zur Vermeidung deshalb wichtig: Die Verwendung von vollentsalztem Wasser (VE-Wasser) zur Schlussspülung.
61
950
Kapitel 61 · Chirurgische Scheren – Evolution bis zur Multifunktion
⊡ Tab. 61.2. Höchstwerte für Verunreinigungen im Speisewasser
VI
Substanz/Eigenschaft
Speisewasser
Abdampfrückstand
≤ 10 mg/l
Silikate (SiO2)
≤ 1 mg/l
Eisen
≤ 0,2 mg/l
Kadmium
≤ 0,005 mg/l
Blei
≤ 0,05 mg/l
Schwermetallrückstände außer Eisen, Kadmium, Blei
≤ 0,1 mg/l
Chloride (Cl–)
≤ 2 mg/l
Phosphate (P2O5)
≤ 0,5 mg/l
Leitfähigkeit (bei 25°C)
≤ 5 μS/cm
pH-Wert (Grad der Azidität)
5–7,5
Aussehen
Farblos, klar, ohne Ablagerungen
Härte (Summe der Erdalkali-Ionen)
≤ 0,02 mmol/l
⊡ Abb. 61.63. Rostbildung durch mehrstündiges Eintauchen in eine physiologische Kochsalzlösung
Anmerkung: Die Einhaltung sollte nach anerkannten analytischen Verfahren geprüft werden.
61.7.4 Vorbereitung zur Reinigung
und Desinfektion Die ersten Schritte beginnen bereits im OP. Rückstände von Blutstillungs-, Hautdesinfektions-, Gleit- und ätzenden Arzneimitteln sollen möglichst vor dem Ablegen entfernt werden. Instrumente aus nichtrostendem Stahl dürfen keinesfalls in physiologischer Kochsalzlösung (NaCl-Lösung) abgelegt werden, da längerer Kontakt zu Lochkorrosion und Spannungsrisskorrosion führt. Durch unsachgemäßes »Abwerfen« können Instrumente und im Besonderen Scheren beschädigt werden. Besonders kritisch sind Hartmetallscheren, deren Einsätze zwar sehr hart sind, aber auch deshalb sehr spröde. Bei unsachgemäßer Behandlung (z. B. Fallenlassen auf die Scherenspitze) können die Hartmetalleinsätze an der Spitze abbrechen oder an der Schneidekante ausbrechen (= Scharten). Bei Scheren mit aufgeschweißten Hartmetallschneiden können diese nicht ausbrechen. Die Instrumente sind spülgerecht auf maschinengeeigneten Instrumentensiebschalen abzulegen. Aus Gründen einer effektiven Reinigung müssen Instrumente mit Gelenken (Klemmen, Zangen, Scheren) geöffnet sein, um überlappende Fläche zu minimieren. Mikrochirurgische Instrumente, also auch Scheren, sind auf speziellen Racks oder geeigneten Haltevorrichtungen zu lagern bzw. zu fixieren.
⊡ Abb. 61.64. Instrumenten-Tray zur Lagerung und Fixierung von feinen Instrumenten
61.7.5 Manuelle und maschinelle Reinigung
Der maschinellen Reinigung ist im Vergleich zur manuellen Reinigung der Vorzug zu geben. Eine effiziente Reinigung ist Voraussetzung für eine effiziente Desinfektion und für eine anschließende Sterilisation. Thermischen Desinfektionsverfahren ist im Vergleich zu chemo-thermischen Desinfektionsverfahren der Vorzug zu geben. Die Standardisierung der Reinigung und Desinfektion kann am besten durch das maschinelle Verfahren erreicht werden. Aufgrund der internationalen Norm EN ISO 15883 und der nationalen Richtlinien sollten nur noch validierte maschinelle Verfahren zur Anwendung kommen.
951 61.7 · Handhabung und Pflege
61.7.6 Maschinelle Reinigung und thermische
Desinfektion
Schritte bei der Instrumenten-Aufbereitung
Bei thermischen Prozessen wird die Desinfektionswirkung vorrangig parametrisch festgestellt. Dazu wurde der FWert, der bei der Sterilisation mit feuchter Hitze angewendet wird, auf thermische Reinigungs-Desinfektionsprozesse mit feuchter Hitze übertragen und als »A0-Wert-Konzept« in die Norm DIN EN ISO 15883 aufgenommen. In einem Desinfektionsverfahren mit feuchter Hitze wird erwartet, dass eine bestimmte Temperatur über eine bestimmte Dauer einen voraussagbaren letalen Effekt auf vegetative Mikroorganismen ausübt. Dabei ist eine untere Temperaturgrenze von 65°C festgelegt worden. Entscheidendes Kriterium für die erforderliche Temperatureinwirkung ist die Hitzeresistenz (Thermoresistenz) der vorhandenen Mikroorganismen. Diese wird im D-Wert zahlenmäßig ausgedrückt. Die Programmstruktur ist abhängig von den Leistungsanforderungen (z. B. hygienischen Anforderungen) und vom Spülgut. Ein maschinelles Aufbereitungsprogramm mit thermischer Desinfektion erfolgt z. B. in den in ⊡ Abb. 61.65 und in der Übersicht erkennbaren Schritten. ⊡ Tab. 61.3. Begriffe
Das durch das Desinfektionsverfahren gegebene Zeitäquivalent in Sekunden bei 80°C in Bezug auf einen Mikroorganismus mit einem z-Wert von 10°C
A0-Wert
Abtötung als Zeitäquivalent in Sekunden, bei einer durch den Prozess an das Produkt übertragenen Temperatur von 80°C, bezogen auf Mikroorganismen, bei denen z = 10°C ist
z-Wert
Temperaturänderung in Kelvin, die erforderlich ist, um den D-Wert um den Faktor 10 zu ändern
D-Wert
Dezimal-Reduktionswert; Zeit in Minuten bei einer bestimmten Temperatur, die erforderlich ist, um 90% einer Population eines Mikroorganismus abzutöten
lun
un kn Tro c
ini Re
Vo rsp ü
T 100 °C 90 80 70 60 55 50 40 30 20
g
A0
gu ng Ne utr ali sat ion Zw isc he ns pü lun De g sin fek tio n
Zeitäquivalent in Sekunden bei 80°C, bei dem eine gegebene Desinfektionswirkung erreicht wird
g
A
t
⊡ Abb. 61.65. Instrumenten-Aufbereitung (Quelle: Arbeitskreis Instrumentenaufbereitung 2004)
1. Vorspülung Kaltes Wasser (ggf. vollentsalztes Wasser) ohne Zusatz zur Entfernung der groben Schmutzbelastung und schaumbildender Substanzen. 2. Reinigung und Prozesschemikalien Warmes oder kaltes Wasser (ggf. vollentsalztes Wasser), die Reinigung erfolgt in der Regel bei Temperaturen von 40–60°C für mindestens fünf Minuten. Es wird zwischen alkalischen und neutralen Reinigern unterschieden. Bei den neutralen Reinigern, die in der Regel nichtionische, schaumarme Tenside enthalten, werden Produkte mit und ohne Enzyme eingesetzt. Wird die Aufbereitung nach den Empfehlungen der vCJK-Task Force gemäß RKI-Mitteilung von vCJK durchgeführt, muss der pH-Wert in der Reinigerlösung über 10 liegen. Wenn erhöhte Chlorid-Konzentrationen im Wasser vorliegen, kann am Instrumentarium Lochkorrosion und Spannungsrisskorrosion auftreten. Duch Verwendung alkalischer Reiniger oder dem Einsatz von vollentsalztem Wasser können derartige Korrosionen minimiert werden. 3. Erste Zwischenspülung Warmes oder kaltes Wasser. Durch Zusatz eines Neutralisationsmittels auf Säurebasis wird das Abspülen alkalischer Reinigungsmittelreste erleichtert. Auch beim Einsatz von Neutralreinigern ist bei ungünstiger Wasserqualität, z. B. bei hohem Salzgehalt, die Verwendung eines Neutralisators zu empfehlen, um einer Belagsbildung vorzubeugen. 4. Zweite Zwischenspülung Warmes oder kaltes Wasser ohne Zusatz (ggf. vollentsalztes Wasser). 5. Thermische Desinfektion/Schlussspülung Vollentsalztes Wasser, die thermische Desinfektion wird bei Temperaturen von 80–95°C und entsprechender Einwirkzeit gem. A0-Konzept, DIN EN ISO 15883, vorgenommen. Durch den Einsatz von vollentsalztem Wasser können Flecken, Beläge und Korrosionen am Spülgut vermieden werden. Wenn durch Zusatz eines Nachspülmittels die Trocknungszeit verkürzt werden soll, ist auf die Materialverträglichkeit des Spülgutes und Biokompatibilität zu achten. 6. Trocknung Eine ausreichende Trocknung ist durch das Reinigungs- und Desinfektionsgerät oder durch andere geeignete Maßnahmen sicherzustellen. Bei den zum Einsatz gelangenden Prozesschemikalien sind die Herstellerangaben zu Konzentration, ▼
61
952
Kapitel 61 · Chirurgische Scheren – Evolution bis zur Multifunktion
Temperatur und Einwirkzeit einzuhalten, da nur so ein einwandfreies Ergebnis bei größtmöglicher Materialschonung gewährleistet ist. Automatische Flüssigdosierungen müssen kontrollierbar sein. Auf weitere Verfahren wird hier nicht eingegangen.
61.8
VI
Kontrollen und Pflege
Die ausreichende Sauberkeit ist Grundvoraussetzung für den Sterilisationserfolg. Die Instrumente müssen makroskopisch sauber sein, d. h. frei von sichtbaren Rückständen. Die Überprüfung erfolgt visuell. Kritische Bereiche wie Griffstrukturen, Gelenke oder Maulriefung, insbesondere atraumatische Zahnung benötigen besonders sorgfältige Kontrollen. Vor den Funktionskontrollen erfolgen die Pflegemaßnahmen. Darunter ist das gezielte Aufbringen von Pflegemitteln an Instrumenten in Gelenke, Schlüsse oder Gewinde und Gleitflächen, z. B. bei Scheren, Klemmen, Stanzen nach sorgfältiger Reinigung und Desinfektion zu verstehen. Die Reibung von Metall auf Metall wird verhindert und stellt damit eine vorbeugende Maßnahme gegen Reibkorrosion dar. Die Anforderungen an Pflegemittel für chirurgisches Instrumentarium sind: ▬ Paraffin-/Weißöl-Basis, ▬ biokompatibel nach der gültigen europäischen bzw. US-Pharmakopöe, ▬ dampfsterilisationsfähig und dampfdurchlässig. Instrumente dürfen nicht mit silikonhaltigen Pflegemitteln behandelt werden. Diese können zu Schwergängigkeiten führen und die Wirkung der Dampfsterilisation in Frage stellen. Die verschiedenen Instrumente sind auf ihre spezifischen Einsatzzwecke (z. B. Schere) abgestimmt. Die Prüfungen müssen deshalb so angelegt sein, dass die Instrumente, die diesem Einsatzzweck nicht mehr entsprechen, zuverlässig ausgesondert werden. Im Zweifelsfall sollten geeignete Prüfmethoden mit dem Hersteller des Instruments abgesprochen werden. Instrumente, die zur Reparatur gegeben werden, müssen aus hygienischen Gründen komplett aufbereitet werden.
61.9
⊡ Abb. 61.66. Instrumentenschale nach DIN 58952-3, bestückt mit Instrumenten
⊡ Abb. 61.67. Wiederverwendbarer Sterilisierbehälter nach ISO 11607 und DIN EN 868-8
Sterilisation, den physikalischen Schutz und die Aufrechterhaltung der Sterilität bis zum Zeitpunkt der Anwendung sowie die aseptische Bereitstellung zu ermöglichen. Allgemeine Anforderungen an Verpackungen für in der Endverpackung zu sterilisierende Medizinprodukte einschließlich Validierungsanforderungen an Prozesse der Formgebung, Siegelung und des Zusammenstellens sind in der Reihe DIN EN ISO 11607 festgelegt. Darüber hinaus enthalten die Teile 2 bis 10 der Normenreihe DIN EN 868 Prüfverfahren und Werte für spezifische Materialien für vorgefertigte Sterilbarrieresysteme und für Verpackungssysteme.
Verpackung
Medizinprodukte müssen i. d. R. in einer geeigneten Verpackung sterilisiert werden. Instrumente für den OP werden eingriffsspezifisch als komplette Sätze/Siebe konfektioniert und entsprechend verpackt. Bei thermostabilen Gütern ist der Dampfsterilisation der Vorzug zu geben. Das Ziel eines Verpackungssystems für in der Endverpackung zu sterilisierende Medizinprodukte ist es, die
61.10
Aktuelle Terminologie
> Definition Sterilbarrieresystem: Mindestverpackung, die das Eintreten von Mikroorganismen verhindert und die aseptische Bereitstellung des Produkts am Ort der Verwendung ermöglicht.
953 61.11 · Dampf-Sterilisation mit Sattdampf
Schutzverpackung: Materialkonfiguration, die dafür ausgelegt ist, Schäden am Sterilbarrieresystem und seinem Inhalt vom Zeitpunkt der Zusammenstellung bis zum Zeitpunkt der Verwendung zu verhindern. Verpackungssystem: Kombination aus Sterilbarrieresystem und Schutzverpackung. Sterilbarrieresystem + Schutzverpackung = Verpackungssystem.
Folgende Materialien und (vorgefertigte) Sterilbarrieresysteme gelten in Abhängigkeit vom Sterilisationsverfahren als geeignet: ▬ Papierbeutel, siegelfähige Klarsichtbeutel und -schläuche, ▬ Kunststoff-Verbundfolien, ▬ Sterilisationspapier (glatt, gekreppt), ▬ Vliesstoffe, ▬ Verfahren für Formen/Füllen/Siegeln (FFS), ▬ Verpackungsprozesse (z. B. Vier-Seiten-Verschluss), ▬ Wiederverwendbare Sterilisierbehälter (-container).
61.11
⊡ Tab. 61.4. Höchstwerte für Verunreinigungen im Kondensat einer Dampfversorgung für Sterilisatoren Substanz/Eigenschaft
Kondensat/Dampfzuleitung
Abdampfrückstand
–
Silikate (SiO2)
≤ 0,1 mg/l
Eisen
≤ 0,1 mg/l
Kadmium
≤ 0,005 mg/l
Blei
≤ 0,05 mg/l
Schwermetallrückstände außer Eisen, Kadmium, Blei
≤ 0,1 mg/l
Chloride (Cl–)
≤ 0,1 mg/l
Phosphate (P2O5)
≤ 0,1 mg/l
Leitfähigkeit (bei 25°C)
≤ 3 μS/cm
pH-Wert (Grad der Azidität)
5–7
Aussehen
Farblos, klar, ohne Ablagerungen
Härte (Summe der Erdalkali-Ionen)
≤ 0,02 mmol/l
Dampf-Sterilisation mit Sattdampf 61.11.2
Referenznormen: DIN EN 285:2006+A2:2009 und DIN EN ISO 17665-1 1:2006 Standard ist heute ein validiertes Dampfsterilisierverfahren, üblicherweise bei 134°C. Dabei unterliegen die Sterilisier- und Haltezeiten nationalen Bestimmungen und Richtlinien und können deshalb nicht generell festgelegt werden. Dem Aufbereiter obliegt die Verantwortung, dass die tatsächlich durchgeführte Aufbereitung und Sterilisation mit verwendeter Ausstattung, Material und Personal in der Aufbereitungseinrichtung und Sterilisation die gewünschten Ergebnisse erzielt. Dafür sind Validierung und Routineüberwachung des Verfahrens erforderlich.
61.11.1
Dampfqualität
Der zur Sterilisation benutzte Dampf muss frei von Verunreinigungen sein und darf weder den Sterilisationsprozess beeinträchtigen noch Schäden an dem Sterilisator oder dem Sterilgut verursachen. Um dies sicherzustellen, dürfen die Richtwerte gemäß DIN EN 285 für die Qualität des Kesselspeisewassers und des Kondensates nicht überschritten werden (⊡ Tab. 61.4 sowie ⊡ Tab. 61.2). Anderenfalls können z. B. Rostpartikel aus dem Leitungssystem Korrosion verursachen oder ein zu hoher Gehalt an Kieselsäure zu Verfärbung an Instrumenten führen. Auch Nässe in Verpackungssystemen kann zu rostigen Instrumenten führen. Maßnahmen zur Vermeidung von Restfeuchte/Nässe können mit dem SterilisatorenHersteller abgesprochen werden.
Freigabe und Lagerung
Zur Nachbehandlung des Sterilgutes gehören: ▬ das Zwischenlagern des heißen Sterilguts nach der direkten Entnahme aus dem Sterilisator zur Abkühlung (in der Regel ist eine halbstündige Zwischenlagerung ausreichend), ▬ das Sortieren und Prüfen bezüglich Sauberkeit, Trocknung und Unversehrtheit von Sterilgut und Verpackung und der Kennzeichnung, ▬ das Prüfen des Sterilisationsergebnisses anhand der Qualitätsaufzeichnungen der Chargendokumentation, ▬ ggf. das Aussortieren und Sperren von Sterilgut, das den Anforderungen nicht entspricht, ▬ die Freigabe. Diese Aufgaben dürfen nur durch autorisiertes Personal ausgeführt werden. Der Transport sollte entsprechend der Kommissionierung, jedoch grundsätzlich in geschützter Art und Weise vorgenommen werden. Hierzu eignen sich z. B. Container in geschlossenen Wagen.
Fachgerechte Lagerung Eine staubfreie, trockene Umgebung und die Vermeidung von Temperaturschwankungen sind die Voraussetzungen für eine geschützte Lagerung von Sterilgut und die Verhinderung von Korrosionsschäden. Die maximale Lagerfähigkeit ist von der Verpackung und den Lagerbedingungen abhängig. Sie beträgt bei normkonform verpacktem Sterilgut
61
954
Kapitel 61 · Chirurgische Scheren – Evolution bis zur Multifunktion
– staubgeschützte Lagerung – bis zu sechs Monaten. Eine Lagerung über das Verfallsdatum hinaus – das vom jeweiligen Anwender festgelegt werden muss – ist nicht zulässig.
61.12
Qualitätsmerkmale
61.12.1 Material
Grundvoraussetzung für die beste Qualität ist die Verwendung von hochwertigem geschmiedetem Stahl, gemäß ISO 7153-1-2000. Rohmaterialien mit reproduzierbaren guten Stahlqualitäten sind bevorzugt aus Deutschland zu beziehen. Übliche Stähle sind 1.4117, 1.4034 und 1.4021.
VI
61.12.2 Oberfläche
Die optimale Oberflächenbearbeitung erfolgt in mehreren Arbeitsschritten. Um Schlackeneinschlüsse und Oberflächenfehler der Rohware auszugleichen, müssen mindestens 0,3 mm vom Rohling weggeschliffen werden. So erhält man die Grundvoraussetzung für eine gute Korrosionsbeständigkeit. Nach dem anschließenden mechanischen Polieren sollte eine zusätzliche Elektropolitur erfolgen. Anschließend erhält die Oberfläche ein letztes Finish, welches hochglanz, mattiert oder glasperlengestrahlt ist. Um den steigenden Anforderungen in der Aufbereitung, wie z. B. hochalkalisches Reinigen, sicher Stand halten zu können, wird immer häufiger eine Passivierung durchgeführt, insbesondere bei hochwertigen Instrumenten. Bei der Passivierung wird an der Oberfläche des Instruments das Verhältnis von Chrom zu Eisen optimiert. Ziel ist es, dass möglichst viele edle Chrommoleküle an die Oberfläche kommen, um so bei chemischen Attacken, wie sie z. B. beim Aufbereiten vorkommen, resistenter gegen Korrosion zu werden.
Ansetzen bei weit offener Schere bis zum völligen Schließen der Schere. Ein optimaler Hohlschliff an den Scherenblättern unterstützt einen guten Gang.
61.12.5 Ringe
Die Scherenringe sind das Arbeitsbett für die Finger. Sie müssen ergonomisch so geformt sein, dass die Hand auch bei längerem Schneiden nicht schmerzt oder ermüdet. Besonders das Innere der Ringe muss gratfrei, sauber und ohne Unebenheiten sein.
61.12.6 Schneidequalität
Das zu schneidende Material soll beim Schneiden sauber und glatt durchtrennt werden. Das Schnittmaterial darf beim Schneiden nicht wegrutschen oder zwischen den Schneideblättern eingeklemmt werden. Eine Grundvoraussetzung sind scharfe Schneideblätter. Unterstützt bzw. verstärkt wird die Schneidequalität durch den so genannten Biseau. Dies ist ein zusätzlicher Schliff an der unteren Schneidekante. Dieser Schliff sollte idealerweise 75° zur Schneidekante betragen. Eine mechanische Spannung zwischen den Schneidenblättern, ideal so klein wie möglich und so groß wie nötig, stellt einen guten Schnitt sicher. Durch die komplexen Anforderungen bezüglich der verschiedenen zu schneidenden Gegenstände, vom menschlichen Gewebe bis hin zu Nahtmaterial, sind sehr unterschiedliche Prüfmethoden notwendig. So werden z. B. eine grobe Chirurgische Schere mit mehrlagigem Baumwollmaterial und eine feine Schere für die Mikrochirurgie mit feinstem Latex auf gute Schneideeigenschaft geprüft.
61.13
Weiterentwicklung in der Zukunft
61.13.1 Anwender
Die Spitzen der Scheren müssen im geschlossenen Zustand gut aufeinander passen, sodass auch ein Schneiden mit der Spitze möglich ist. Das Passvermögen der beiden Scherenblätter ist gut, wenn die Scherenblätter bei geschlossener Schere exakt übereinander liegen.
Die derzeit am Markt verfügbaren hochwertigen Scheren weisen mittlerweile einen sehr hohen Qualitätsstandard auf. Unabhängig davon werden mit neuen und verfeinerten Operationstechniken die Anforderungen an chirurgische Instrumente immer höher. Der Kosten- und Zeitdruck, auch im Operationssaal, fordert immer bessere, d. h. langlebigere, präzisere chirurgische Instrumente mit mehr Funktionen.
61.12.4 Gang
61.13.2 Industrie
Die Schere soll sich leicht öffnen und schließen lassen, wobei die Scherenblätter übereinandergleiten müssen. Der Scherengang muss gleichmäßig sein, und zwar vom
Die Industrie entwickelte in den letzten Jahren enorm viele neue Möglichkeiten, bestimmte Funktionen zu verbessern. Innovationen aus dem Bereich der Nano- und
61.12.3 Form
61
955 61.14 · Ausblick
Beschichtungstechnologie, und neue Materialien wie z. B. Keramiken, Nitinol oder Kohlefasern werden in Zukunft schrittweise vorhandene Funktionen eines chirurgischen Instrumentes ersetzen und höchstwahrscheinlich verbessern. Hinzu kommt die mögliche Nutzung von neuen Fertigungsverfahren und neuartigen Fertigungstechnologien. Ein in der Entwicklungsgeschichte der Schere relativ aktuelles Beispiel ist die Entwicklung einer Bipolaren Schere. Dabei wird die herkömmliche Schneide- und Präparierfunktion genutzt. Zusätzlich kann eine Blutstillfunktion durch gleichzeitigen Einsatz von HF-Chirurgie genutzt werden. Klinisch relevanter Vorteil ist, dass kein Instrumentenwechsel, z. B. zwischen Einsatz der Schere und Koagulationsinstrument, notwendig ist. Ein weiterer Vorteil für den Anwender ist, dass er seine Operationstechnik nicht wesentlich verändern muss, da er den Einsatz der Schere gewohnt ist. Der Chirurg spart Zeit und kann sich ohne Ablenkung immer auf die Operationstätigkeit konzentrieren. Entwicklungs- und Produktionstechnisch waren komplett neue Schritte und Verfahren notwendig, um z. B. innerhalb der Schere zwei Strompotentiale am distalen Ende nutzen zu können, um so bipolar die Stromapplikation durchführen zu können. Dies erforderte mit den gegebenen Randbedingungen den Einsatz von neuen Isolationsmaterialien wie Keramik. Nur mit einer Keramikschneide (beschichtet oder pur) wurde es möglich, eine isolierende Schneidekante an die Schere zu bringen. Diese Keramik konnte wiederum sinnvoll nur mit einem komplett neuen Fertigungsverfahren hergestellt werden. Dieses Verfahren (CIM, Ceramic Injection Moulding) benötigt relativ aufwändige Werkzeuge, um die Teile herzustellen. Diese sind dann in Größe und Form immer alle gleich. Dies hat zur Folge dass die Metallgrundkörper der Schere auch immer gleich sein müssen. Insbesondere an den Verbindungsstellen zwischen Metall und Keramik ist auf genauen Formschluss zu achten, da ansonsten die Keramik bei der Montage brechen würde. Das Ganze ist zusätzlich noch auf das gegenüberliegende Scherenblatt gut abzustimmen, sodass ein guter Gang der Schere unter leichter mechanischer Spannung sichergestellt ist. Das ist jedoch prozesssicher nur möglich, wenn die Schere bzw. die Metallscherenblätter immer gleich in Größe und Form sind. Konsequent ist diese Herstellung nur möglich, wenn die Vorarbeiten nicht »von Hand«, sondern maschinell, idealerweise mit Hilfe einer robotergestützten CNC-Fertigung hergestellt werden. Nur so werden reproduzierbare Werkstücke sinnvoll produziert. Eigentlich waren an diesem Beispiel der Bipolaren Schere nur einige wenige Änderungen notwendig – diese jedoch hatten bei konsequenter Umsetzung enorme Prozessherstellungsänderungen mit extrem hohen Investitionen zur Folge (⊡ Abb. 61.68).
Bipolare Schere − Funktionsprinzip Anschluss-Kabel Bipolarer Anschluss
AnschlussPin/Kabel
Isolierte Schraube Blaue Isolationsbeschichtung
Gewebe Keramik Schneide
⊡ Abb. 61.68. Das Funktionsprinzip der Bipolaren Schere
Multifunktion v Mechanisches Schneiden v Präparieren v Koagulieren
Koagulieren während des Schneidens
Koagulieren vor dem Schneiden
Punktförmige Flächige Koagulation Koagulation
⊡ Abb. 61.69. Multifunktion der Bipolaren Schere
Die Bipolare Schere wird seit geraumer Zeit in fast allen chirurgischen Disziplinen eingesetzt. Bevorzugte klinische Einsatzgebiete sind u. a.: ▬ Darmchirurgie (z. B. Hemikolektomie, Sigmaresektion), ▬ Urologie (z. B. Prostatektomie), ▬ HNO (z. B. Neck-Dissection), ▬ Allgemeine Chirurgie (Adhäsionen), ▬ Gynäkologie (z. B. Hysterektomie).
61.14
Ausblick
Große Bedeutung wird der Weiterentwicklung zukommen. Insbesondere im Hinblick auf spezialisierte indikationsspezifische Multifunktionsinstrumente. Eine Herausforderung wird es sein, die Solidität und Langlebigkeit der Scheren zu erhöhen und die Nutzung im täglichen Einsatz für den Anwender noch einfacher zu gestalten. Wichtig ist zudem, dass sich der Anwender, der Chirurg und die Operationsfachkräfte mit den heutigen und zukünftigen Entwicklungen der Industrie auseinandersetzen, um das größtmögliche Maß an Sicherheit für den Patienten sicherzustellen.
956
Kapitel 61 · Chirurgische Scheren – Evolution bis zur Multifunktion
Literatur Arbeitskreis-Instrumentenaufbereitung (Hrsg) (2004) InstrumentenAufbereitung richtig gemacht, 8., überarbeitete Ausgabe. www.ak-i.org Brunschwig H (1497) Buch der Chirurgie. Johann Grüninger, Straßburg DIN EN 285 (Ausgabe 2009-08) Reinigungs-Desinfektionsgeräte – Teil 1: Allgemeine Anforderungen, Begriffe und Prüfverfahren (ISO 15883-1:2006). Dt. Fassung EN ISO 15883-1-2009 Sterilisation – Dampf-Sterilisatoren – Groß-Sterilisatoren. Dt. Fassung EN 285: 2006+A2:2009
Weiterführende Literatur
VI
Bühler V (1991) Instrumente aus Metall. MTD Dialog, Amtzell Haag R (1993) Grundlagen der HF-Chirurgie. Krankenhaustechnik 3: 36–37; 4: 36–38 Haedecke H-U (1998) Die Geschichte der Schere. Rheinland-Verlag, Köln Hug B, Haag R (2007) Hochfrequenzchirurgie. In: Kramme R (Hrsg) Medizintechnik, 3. Aufl. Springer, Berlin Heidelberg New York, Tokyo, S 515–538 KLS Martin. Instrumentenkatalog Lawton GmbH & KG. Instrumentenkatalog
VII
Anhang Anhang A
Allgemeine Richtungs- und Lagebezeichnungen des Körpers – 959
Anhang B
Organprofile und Tabellen – 961
Anhang C
Größen und Einheiten – 987
Anhang D
Abkürzungen, Zeichen und Symbole – 991
Anhang E
Periodensystem der Elemente – 995
Anhang F
Radionuklide (Auswahl) und dosimetrische Grundgrößen – 997
Anhang G
Elektromagnetisches Spektrum – 999
Anhang H
Historische Meilensteine in der Technischen Medizin – 1001
A Anhang A Allgemeine Richtungs- und Lagebezeichnungen des Körpers
Folgende Termini, die nicht nur in der menschlichen Anatomie, sondern auch in der praktischen Medizin verwendet werden, bezeichnen die gegenseitige Lage von Organen und Teilen des Körpers zueinander. 1. Allgemeine Bezeichnungen anterior und posterior
vorn und hinten
ventralis und dorsalis
bauchwärts und rückenwärts
superior und inferior
oben und unten
cranialis und caudalis
kopfwärts und schwanzwärts
dexter und sinister
rechts und links
internus und externus
innenliegend und außenliegend
superficialis und profundus
oberflächlich gelegen und tief gelegen
medius oder intermedius
in der Mitte zwischen zwei anderen Gebilden liegend
medianus
in der Mittellinie gelegen
medialis und lateralis
gegen die Mitte gelegen und seitwärts gelegen
transversus
querverlaufend
2. Hauptachsen und Hauptebenen Es können 3 Gruppen von rechtwinklig aufeinandertreffende Hauptachsen unterschieden werden (⊡ Abb. A1): ▬ Längsachsen (Longitudinalachsen) ▬ Querachsen (Transversalachsen) ▬ Pfeilachsen (Sagittalachsen)
⊡ Abb. A1. Ausgewählte Richtungs- und Lagebezeichnungen des menschlichen Körpers (aus: Wintermantel E, Ha S-W (2002) Biokompatible Werkstoffe und Bauweisen. Implantate für Medizin und Umwelt, 3. Aufl. Springer, Berlin Heidelberg New York Tokio, S. 4)
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2, © Springer-Verlag Berlin Heidelberg 2011
960
Anhang A · Allgemeine Richtungs- und Lagebezeichnungen des Körpers
Aus jeweils 2 Hauptachsen können folgende Hauptebenen gebildet werden: ▬ Frontalebenen (longitudinale und transversale Achsen) Hierzu gehört auch die Medianebene bzw. Symmetrieebene. ▬ Transversalebenen (transversale und sagittale Achsen) Bei aufrechtem Stand werden diese auch als Horizontalebene bezeichnet. 3. Richtungs- und Lagebezeichnungen für die Extremitäten
VII
Rumpf
proximalis und distalis
zum Rumpf hin und vom Rumpf weg
Brustgliedmaße
radialis und ulnaris
auf der Radialseite und auf der Ulnarseite gelegen
Hand
palmaris (volaris) und dorsalis
hohlhandwärts und handrückenwärts gelegen
Beckengliedmaße
tibialis und fibularis
auf der Tibialseite und auf der Fibularseite gelegen
Fuß
plantaris und dorsalis
fußsohlenwärts und fußrückenwärts gelegen
B Anhang B Organprofile und Tabellen
Organprofil Lunge (lat. pulmo)
Die Lunge ist ein paariges, kegelförmiges Organ der äußeren Atmung mit einem rechten und einem linken Lungenflügel. Der rechte Lungenflügel setzt sich aus Ober-, Mittel- und Unterlappen zusammen. Der linke Lungenflügel besteht aus Ober- und Unterlappen. Der Gasaustausch in den Lungen erfolgt über das Lungenparenchym, das aus dem Bronchus respiratori und den Alveolen besteht. Die Anzahl der Alveolen liegt bei etwa 300 Mio. bei einer Gesamtoberfläche von 50–100 m2. Das Fassungsvermögen der Lungen ist immer in Abhängigkeit von Körperbau und -größe, Lebensalter, Geschlecht und Konstitution zu sehen. Atemfrequenzen pro Minute in Ruhe: Neugeborene
40 – 50
Kleinkinder
30 – 40
Kinder
20 – 30
Jugendliche
16 – 20
Erwachsene
14 – 18
Atemminutenvolumen (AMV) = Atemzugvolumen (AZV) x Atemfrequenz (AF) Alveoläre Ventilation = Atemzugvolumen–Totraumventilation (TRV) Faustwert TRV: 2 ml/kg Körpergewicht (beim normalgewichtigen Erwachsenen entspricht dies 150 ml) Beispiel: Mann, 70 kg Körpergewicht, körperliche Ruhe, normale Atmung: 500 ml Atemzugsvolumen16 Atemzüge/min = 8000 ml an Atemminutenvolumen 2 ml/kg70 kg = 140 ml TRV x 16 AF/min = 2240 ml an Totraumventilation Alveoläre Ventilation (AMV–TRV) = 5760 ml = 5,76 l/min Bei vertiefter Einatmung können zusätzlich 1,5 – 2 l/min ventiliert werden. Die Totalkapazität der Lunge liegt beim Erwachsenen bei etwa 6 l, beim Kind bei etwa 0,6 l. Für den Gasaustausch zwischen Alveolen (Atemluft wird vom Blut durch die alveolokapilläre Membran getrennt) und Lungenkapillarblut steht ein Zeitraum von 0,2 – 0,3 s zur Verfügung. Das respiratorische System setzt sich aus dem oberen Luftweg (Nase, Rachen), dem unteren Luftweg (Kehlkopf, Luftröhre, Bronchialraum und Lungen), dem mechanischen System (Zwerchfell, Brustmuskel, Atemhilfsmuskulatur) und dem Atemzentrum in der Medulla oblongata zusammen. Eine weitere Unterteilung erfolgt in gasleitendes (obere Luftwege, Nase, Rachen) und gasaustauschendes System (Alveolen).
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2, © Springer-Verlag Berlin Heidelberg 2011
962
Anhang B · Organprofile und Tabellen
⊡ Tab. B1. Atemwege (nach Tammeling u. Quanjer 1980) Anzahl
Durchmesser [mm]
Länge [mm]
Trachea
1
22 – 15
120 – 100
Hauptbronchus
2
15 – 10
50 – 30
Lappenbronchus
5
8–7
25 – 15
20
6–5
5 – 10
Kleiner Bronchus
10000
4–1
6–3
Bronchiolus
20000
1 – 0,6
3–2
Terminaler Bronchiolus
30000
0,60
2 – 1,5
Respiratorischer Bronchiolus
200000
0,50
1,5 – 0,9
Alveolargang
3 × 107
0,40
0,9 – 0,7
0,20
–
Segmentbronchus
7
Alveolus
3 – 36x10
VII ⊡ Tab. B2. Ein- und Ausatmung von Gasen [Vol.-%] unter Normalbedingungen Sauerstoff
Stickstoff
Edelgase
Kohlendioxid
Einatmung
21
78
1
0,03
Ausatmung
16
79
1
4,00
Luft in Alveolen
15
79
1
5,00
3 Vol.-% des Kohlendioxids und 0,25–0,3 Vol.-% des Sauerstoffs befinden sich physikalisch gelöst im Blut.
⊡ Tab. B4. Gaswechsel bei verschiedenen Tätigkeiten [l/h] im Durchschnitt (Mann, 70 kg). (Nach v. Brandis 1975)
⊡ Tab. B3. Verbrauch/Produktion von Sauerstoff/Kohlendioxid (in Ruhe)
Eingeatmete Luftmenge
Sauerstoffaufnahme
Kohlendioxidabgabe
Sauerstoff
Kohlendioxid
Schlaf
282
15
11
Gesamtmenge
1,5 l
6,2 l
Stehen
450
21
18
Verbrauch in Ruhe
0,25 l/min
–
Gehen
1005
53
40
Produktion in Ruhe
–
0,2 l/min
Laufen
3600
372
318
963 Organprofil Lunge (lat. pulmo)
⊡ Tab. B5. Sollmittelwerte für Lungenvolumen und Volumenfluss bei der Lungenfunktionsprüfung. Vorbemerkungen: KG Körpergröße [m], A Alter [Jahre], RSD residuelle Standardabweichung, die nicht durch die Parameter Größe, Alter und Geschlecht erklärt werden kann. Der Grenzunterwert errechnet sich durch den Abzug des 1,64-fachen der residuellen Standardabweichung von Sollmittelwert. Bei Alter zwischen 18 und 25 Jahren werden 25 Jahre in die Gleichung eingesetzt. Beispiel: Berechnung Sollmittelwert der IVC bei einem Mann, Körpergröße 1,82 m, Alter 47 Jahre: IVC (6,1 × 1,82) – (0,028 × 47) –4.65 = 5,136 l ≈ 5,1 l (nach Quanjer et al. 1993) Sollmittelwert
RSD
1,64 RSD
Männer IVC
[l]
6,1KG – 0,028A – 4,65
0,56
0,92
FVC
[l]
5,76KG – 0,026A – 4,34
0,61
1,00
TLC
[l]
7,99KG – 7,08
0,70
1,15
RV
[l]
1,31KG + 0,022A – 1,23
0,41
0,67
FRC
[l]
2,34KG + 0,009A – 1,09
0,60
0,99
RV/TLC
%
0,39A + 13,96
5,46
9,00
FRC/TLC
%
0,21A + 43,8
6,74
11.10
FEV1
[l]
4,3KG – 0,029A – 2,49
0,51
0,84
FRC1/VC
%
–0,18A + 87,21
7,17
11,80
FEV25–27%
[l/s]
1,94KG – 0,043A + 2,7
1,04
1,71
PEF
[l/s]
6,14KG – 0,043A + 0,15
1,21
1,99
MEF75
[l/s]
5,46KG – 0,029A – 047
1,71
2,81
MEF50
[l/s]
3,79KG – 0,031A – 0,35
1,32
2,17
MEF25
[l/s]
2,61KG – 0,026A – 1,34
0,78
1,28
IVC
[l]
4,66KG – 0,026A – 3,28
0,42
0,69
FVC
[l]
4,43KG – 0,026A – 2,89
0,43
0,71
TLC
[l]
6,6KG – 5,79
0,60
0,99
RV
[l]
1,81KG + 0,016A – 2
0,35
0,58
FRC
[l]
2,24KG + 0,001A – 1
0,50
0,82
RV/TLC
%
0,34A + 18,96
5,83
9,60
FRC/TLC
%
0,16A + 45,1
5,93
9,80
FEV1
[l]
3,95KG – 0,025A – 2,6
0,38
0,62
FRC1/VC
%
–0,19A + 89,1
6,51
10,70
FEV25–27%
[l/s]
1,25KG – 0,034A + 2,92
0,85
1,40
PEF
[l/s]
5,5KG – 0,030A – 1,11
0,90
1,48
MEF75
[l/s]
3,22KG – 0,025A + 1,6
1,35
2,22
MEF50
[l/s]
2,45KG – 0,025A + 1,16
1,10
1,81
MEF25
[l/s]
1,05KG – 0,025A + 1,11
0,69
1,13
Frauen
B
964
Anhang B · Organprofile und Tabellen
Maschinelle Beatmung Richtwerte für eine Beatmung (bei FiO2 von 0,21): pO2<50 mmHg und pCO2 >55 – 65 mmHg. ⊡ Tab. B6. Terminologie der Beatmungsformen
VII
Abkürzung
Englische Bezeichnung
Deutsche Bezeichnung
A/C
assist/control ventilation
assistierte/kontrollierte Beatmung
ALA
artifical lung assist
künstliche Lungenunterstützung
ALV
adaptive lung ventilation
adaptive Lungenbeatmung
AO
apneic oxygenation
apnoische Oxygenierung
APRV
airway pressure release ventilation
Beatmung durch intermittierende Atemwegsdruckfreigabe
ASB
assisted spontaneous breathing
assistierte Druckunterstützung bei spontaner Atmung
BIPAP
biphasic positive airway pressure
biphasischer Atemwegsdruck
CFV
constant flow ventilation
Beatmung mit konstantem Flow
CMV
continuous mandatory ventilation
kontinuierliche maschinelle Beatmung
CPAP
continuous positive airway pressure
Beatmung auf kontinuierlichem positivem Druckniveau
CPPV
controlled positive pressure ventilation
intermittierende Überdruckbeatmung mit positiv endexspiratorischem Druck
ECCO2
extracorporal CO2 elimination
extrakorporale CO2 Elimination
ECMO
extracorporal membranoxygenation
extrakorporale Membranoxygenation
ELA
extracorporal lung assist
extrakorporale Lungenunterstützung
HFBSO
high frequency body surface oscillation
Hochfrequenzoszillationsbeatmung über die Körperoberfläche
HFJV
high frequency jet ventilation
Hochfrequenzjetbeatmung
HFO
high frequency oscillation
Hochfrequenzoszillationsbeatmung
HFPPV
high frequency positive pressure ventilation
Hochfrequenzbeatmung mit positivem Druck
HFV
high frequency ventilation
Hochfrequenzbeatmung
ILV
independent lung ventilation
seitengetrennte Beatmung
IMV
intermittent mandatory ventilation
intermittierende maschinelle Beatmung
IPPV
intermittent positive pressure ventilation
intermittierende Überdruckbeatmung
IRV
inverse ratio ventilation
Beatmung mit umgekehrten Zeitverhältnis
ISB
intermittent spontaneous breathing
intermittiernde Selbstbeatmung
IVOX
intravascular oxygenation
intravaskuläre Oxygenierung
MMV
mandatory minute ventilation
Beatmung mit maschinellen Minutenvolumen
NIV
noninvasive ventilation
nichtinvasive Beatmung
PAV
proportional assist ventilation
proportionale assistierte Beatmung
PEEP
positive endexspiratory pressure
positiver endexspiratorischer Druck
PHC
permissive hypercapnia
permissive Hyperkapnie
PSV
pressure support ventilation
druckunterstützte Beatmung
SIMV
synchronized intermittend mandatory ventilation
synchronisierte intermittierende maschinelle Beatmung
SV
spontaneous ventilation
spontane Ventilation
TRIO
tracheal insufflation of oxygen
tracheale O2 – Insufflation
965 Organprofil Lunge (lat. pulmo)
⊡ Tab. B7. Atemphysiologische Parameter beim Kleinkind und Erwachsenen Parameter
Dimension
Kleinkind
Erwachsener
Atemfrequenz
min-1
30 – 40
12 – 16
Inspirationszeit
s
0,4 – 0,5
1,2 – 1,4
Atemzeitverhältnis
I:E
1:1,5 – 1:2
1:2 – 1:3
Inspirationsflow
l/min
2–3
24
Atemzugvolumen
ml ml/kg
18 – 24 6–8
500 6–8
FRC
ml ml/kg
100 30
2200 34
Vitalkapazität
ml ml/kg
120 33 – 40
3500 52
Totalkapazität
ml ml/kg
200 63
6000 86
Totale Compliance
ml/cm H2O ml/cm H2O/FRC
2,6 – 4,9 0,04 – 0,06
100 0,04 – 0,07
Lungencompliance
ml/cm H2O ml/cm H2O/FRC
4,8 – 6,2 0,04 – 0,074
170 – 200 0,04 – 0,07
Respiratorischer Wasserverlust
ml/24 h
45 – 55
300
[Larsen R, Ziegenfuß T (2003) Beatmung, 3.Auflage, Springer Heidelberg Berlin New York]
⊡ Tab. B8. Indikationen einzelner Beatmungsformen Beatmungsform
Indikation
CPPV (IPPV und PEEP)
Schwere globale respiratorische Insuffizienz, Zustand nach Reanimation, ARDS, Polytrauma etc.
SIMV/IMV
Respiratorische Partialinsuffizienz, vorhandene, aber uneffektive Spontanatmung des Patienten, Übergang zur Entwöhnungsphase
ASB
Assistierte Druckunterstützung in Verbindung z. B. mit SIMV während der Entwöhnungsphase
CPAP
Spontanatmung und PEEP, z. B. bei Lungenödem, Masken-CPAP als Atemtherapie
PEEP
Lungenödem, Atelektasen, globale respiratorische Insuffizienz (ARDS); PEEP erhöht die FRC, senkt den Rechts-links-Shunt, verbessert die Oxygenation
Grundeinstellung des Beatmungsmusters Atemhubvolumen (VT )
12 – 15 ml/kg KG
Atemfrequenz (AF)
8 – 12 l/min
Atemminutenvolumen (AMV)
6 – 12 l/min
Inspiratorische O2-Konzentration (FiO2)
0,4 – 0,6
Inspirations-Expirations-Verhältnis (Wenn nach 15 Minuten keine Verbesserung der Oxygenation, dann inversed ration)
1:2 (1:1 oder 2:1)
Inspirationsdruck
<40 mbar
Gasflow
40 – 60 l/min
PEEP
5 – 10 mmHg
Beatmungsziel ▬ pO2 >60 mmHg (O2-Sättigung >90%); ▬ pCO2 ∼ 35 – 40 mmHg.
Entwöhnung von der maschinellen Beatmung Häufig wird die Entwöhnung über den Beatmungsmodus SIMV eingeleitet. Stufenweise Reduktion ▬ der ASB-Unterstützung (20–15–10), ▬ der mandatorischen Hübe (8–6–4), ▬ der inspiratorischen O2-Konzentraiton (40–30–21), ▬ der PEEP-Höhe (10–5–3), ▬ Spontanatmung über einige Stunden auf CPAP-Niveau, ▬ Extubation.
B
966
Anhang B · Organprofile und Tabellen
Normwerte ⊡ Tab. B9. Normwerte der Beatmungsparameter. (Nach Thomas 1996) Abkürzung
Parameter
Normwert
AaDO2
Alveoloarterielle Sauerstoffdifferenz
25 – 65 mmHg (FiO2 1,0) 5 – 20 mmHg (FiO2 2,1)
avDO2
Ateriovenöse Sauerstoffgehaltsdifferenz
4 – 6 Vol.-%
FiO2
Inspiratorische Sauerstoffkonzentration
paO2 (pO2)
paO2 (pO2)
Arterieller Sauerstoffpartialdruck
80 – 96 mmHg
paCO2 (pCO2)
Arterieller Kohlendioxidpartialdruck
35 – 45 mmHg
pAO2
Alveolärer Sauerstoffpartialdruck
104 mmHg
pACO2
Alveolärer Kohlendioxidpartialdruck
38 – 45 mmHg
pν_O2
Gemischtvenöser Sauerstoffpartialdruck
>35 mmHg
pν_CO2
Gemischtvenöser Kohlendioxidpartialdruck
40 – 50 mmHg
RQ
Respiratorischer Quotient . . VCO2/VO2
0,8
CO2-Produktion: O2-Verbrauch
200/250
S a O2
Arterielle Sauerstoffsättigung
>94%
Sν_O2
Gemischtvenöse Sauerstoffsättigung
60 – 75%
CaO2
Arterieller Sauerstoffgehalt
14 – 15%
Cν_O2
Gemischtvenöser Sauerstoffgehalt
21%
CcO2
Pulmonalkapilliärer Sauerstoffgehalt PAO2, da CcO2 nur experimentell bestimmbar
O2 cup
(Hb×1,36) Sauerstoffkapazität
CaO2
(Hb×1,36) x (SaO2 × 0,0031) Sauerstoffmenge in 100 ml Blut gelöst pro mmHg paO2
Cν_O2
(Hb×1,36) × SvO2 + (pAO2 × 0,0031)
CcO2
(Hb×1,36) × SaO2 + (pAO2 × 0,0031)
HZV = QT . . Q S/Q T
Herzzeitvolumen
5 – 7 l/min
Rechts-links-Shunt (physiologisch)
3 – 8%
C
Compliance ΔV/Δp
0,2 l/mbar
R
Resistance Δp/V
1,5 mbar/l/s
FRC
funktionelle Residualkapazität
2,3 – 2,8 l
VD/V T
Totraum/Atemzugvolumen (Tidalvolumen)
<0,33
VII
20,5 Vol.-%
967 Blut (lat. sanguis)
Berechnung des Sauerstoffangebotes O2 Ang = CaO2×HZV
⊡ Tab. B10. Zusammensetzung von 1 mm3 Blut Mann
Berechnung der alveoloarteriellen Sauerstoffdifferenz AaDO2 = 145 – (paO2 + paCO2)
Berechnung des alveolären Sauerstoff-Partialdrucks bei FiO2 = 1,0 ⇒ pAO2 = PB – PH2O – PACO2 bei FiO2 < 1,0 ⇒ pAO2 = (PB – PH2O) × FiCO2 – PaCO2 × FiO2 + (1 – FiO2)/RQ Hier bedeuten: PB Barometerdruck, PH2O Wasserdampfdruck (47 mmHg bei 37°C).
Berechnung der prozentualen venösen Beimischung vom HZV ▬ Shuntfraktion der paO2<150 mmHg (bei FiO2=1,0) . . CcO2 – CaO2 [%]. Qs/QT = CcO2 – Cν–O2 ▬ Shuntfraktion der paO2<150 mmHg (bei FiO2=1,0) . . (pAO2 – paO2)0,0031 [%]. Qs/QT = (CaO2 – Cν–O2 + (pAO2 – paO2)0,0031 ▬ Altersabhängigkeit des paO2 (Abschätzung des Normwertes): präoperativ 104–Alter/4 mmHG–1, postoperativ 94–Alter/4 mmHg–1.
Blut (lat. sanguis) Das Blutvolumen beim Erwachsenen beträgt etwa 6 – 8% des Körpergewichts (etwa 5 – 7 l). Ein Liter Blut enthält beim Mann 0,46 l und bei der Frau 0,41 l Blutkörperchen. In Prozent ausgedrückt entsprechen diese Werte dem Hämatokritwert (HK). Der Gesamtanteil des Hämoglobins (Hb) am Blut beträgt etwa 16%. Etwa 80% des Gesamtblutvolumens befinden sich im venösen System, im rechten Herzen und in den Gefäßen des kleinen Kreislaufs.
Frau 6
4,5 × 106
Erythrozyten
5 × 10
Leukozyten
4000 – 10000
4000–10000
Thrombozyten
0,15 – 0,3 × 106
0,15 – 0,3 × 106
⊡ Tab. B11. Auswahl von klinischen Normwerten (Erwachsene). (Nach Thomas 1992) Blut Erythrozyten – Mann
4,5 – 5,9 × 1012/l
– Frau
4,1 – 5,1 × 1012/l
Hämatokrit – Mann
42 – 50%
– Frau
36 – 45%
Leukozyten
4 – 9 × 109/l
Thrombozyten
150 – 400 × 109/l
Hämoglobin – Mann
14 – 17,5 g/dl
– Frau
12,3 – 15,3 g/dl
Elektrolyte Natrium
135 – 144 mmol/l
Kalium
3,6 – 4,8 mmol/l
Chlorid
97 – 108 mmol/l
Kalzium
8,8 – 10,6 mmol/l
Osmolalität
280 – 296 mosmol/kg
Säure-Base-Gleichgewicht und Blutgase ph-Wert – Blut, arteriell
7,37 – 7,45
– Blut, venös
7,35 – 7,43
pCO2 Blut, arteriell – Mann
35 – 46 mmHg (4,7 – 6,1 kPa)
– Frau
32 – 43 mmHg (4,3 – 5,7 kPa)
Blut, gemischtvenös
37 – 50 mmHg (4,9 – 6,7 kPa)
pO2 Blut, arteriell
71–104 mmHg (9,5–13,9 kPa)
Blut, gemischtvenös
36–44 mmHg (4,8–5,9 kPa)
Basenabweichung
-2 – 3 mmol/l
Standardbikarbonat
21 – 26 mmol/l
Sauerstoffsättigung
95 – 97%
B
968
VII
Anhang B · Organprofile und Tabellen
Organprofil Niere (lat. ren)
Organprofil Gehirn (lat. cerebrum, gr. enzephalon)
Die Niere ist ein paariges, bohnenförmiges, 150 – 200 g schweres Organ, das als funktionelle Einheit das Nephron beinhaltet. Eine Niere enthält ca. 106 Nephronen. Die Aufgabe der Niere besteht in der Filtration des Blutes, der Ausscheidung von Abfallstoffen, der Steuerung des Wasser- und Elektrolythaushalts und darin, das Gleichgewicht des Säure-Basen-Haushalts zu garantieren. Die Gesamtoberfläche des glomerulären Kapillarendothels beträgt etwa 1,5 m2. An Primärharn werden pro Tag etwa 150 – 180 l produziert, wobei als Harnmenge 0,9 –1,5 l/ Tag ausgeschieden werden.
Das im Durchschnitt 1375 g (Mann) bzw. 1245 g (Frau) schwere Gehirn wird unterteilt in Großhirnhemisphären, Hirnstamm und Kleinhirn. Diese Unterteilung lässt sich anatomisch beim Erwachsenengehirn weiter differenzieren: Endhirn (»Telenzephalon«) mit der rechten und linken Großhirnhemisphäre, Zwischenhirn (»Dienzephalon«), Mittelhirn (»Mesenzephalon«) und Rautenhirn (»Rhombenzephalon«), zu dem das Hinterhirn (»Metenzephalon«) sowie das Nachhirn (»Myelenzephalon«) mit der Medulla oblongata gehören. Bei einem 6 Monate alten Embryro sind etwa 1010 Neuronen (Gehirnzellen) vorhanden. Während bei der Geburt das Gewicht des Gehirns bei etwa 350 g liegt (gesundes Neugeborenes), hat ein 6-jähriges Kindergehirn etwa 95% vom Maximalgewicht eines Erwachsenengehirns im 20. Lebensjahr erreicht. Das Gehirn ist von einer Flüssigkeit (»Liquor«) umgeben. Pro Tag werden 650 ml Liquor gebildet.
⊡ Tab. B12. Einige wichtige Harnwerte. (Nach Schönweiß 1992; Thomas 1992) Normwert
Molekulargewicht
Natrium
120 – 220 mmol/24h
22
Kalium
25 – 80 mmol/24h
39
Kalzium
2,5 – 5 mmol/24h
⊡ Tab. B13. Liquornormwerte (Auswahl). (Nach MedTimer 1994)
Magnesium
0,6 – 1,2 mmol/24h
Druck (liegend)
70 –180 mmH2O
Chlorid
120 – 220 mmol/24h
Eiweiß
15 – 45 mg/dl = 0,15 – 0,45 g/l
Harnstoff
20 – 35 g/24h
60
Glukose
40 – 75 mg/dl = 2,2–4,2 mmol/l
Kreatinin
1 – 15 g/24h
39
pH-Wert
7,4 – 7,5
Harnsäure
250 – 750 mg/24h
168
Spezifisches Gewicht
1003 – 1007
Albumin
<20 mg/24h
30000 – 60000
Zellzahl
bis 103 Zellen/μl
Menge
100 – 160 ml
Osmolalität
50 – 1400 mosmol/kg Natrium
129 – 153 mmol/l
pH-Wert (pondus Hydrogenii)
5 – 7,5 Kalium
2,3 – 4,5 mmol/l
969 Organprofil Herz (lat. cor, gr. kardia)
Organprofil Herz (lat. cor, gr. kardia)
das einerseits ein Niederdrucksystem mit Reservoirfunktion (venöses Blut, das zum Herzen transportiert wird) und andererseits ein Hochdrucksystem mit Versorgungsfunktion (arterielles Blut, welches aus dem Herzen in den Organismus ausgeworfen wird) angeschlossen ist.
Arbeitsleistung des Herzens Beispiel: Mann, 70 kg, ohne körperliche Belastung. Arbeitsleistung = Herzminutenvolumen = 70 ml (Schlagvolumen) × 70 Systolen/min = 4900 ml/min = 4,9 l/min. Das Herzminutenvolumen (HZV) von 4–5 l/min in Ruhe lässt sich unter Belastung auf 10–30 l/min steigern. Die Herzarbeit bzw. Druckvolumenarbeit bei jeder Systole entspricht der Kraft, die aufgewendet werden muss, um 100 g einen Meter hochzuheben. Unter den genannten Bedingungen ergibt dies die Gesamtarbeit, die notwendig wäre (bezogen auf 24 h), um 10 t einen Meter hochzuheben (Herzleistung). Auf 70 Lebensjahre hochgerechnet ergibt dies bei 2,5 Mrd. Systolen eine Pumpleistung von 200 Mio. Liter Blut.
Das etwa 300 g schwere, kegelförmige Herz ist ein muskulöses Hohlorgan mit 2 Vorhöfen (rechtes und linkes Atrium) und 2 Kammern (rechter und linker Ventrikel). Für die Kontraktion (Systole) und die darauf folgende Erschlaffung (Diastole) der Herzarbeitsmuskulatur (Myokard) sind Erregungszentren (primäres Zentrum: Sinusknoten; sekundäres Zentrum: AV-Knoten; tertiäres Zentrum: Purkinje-Fasergeflecht) und Reizleitungen (AV-Knoten, His-Bündel, Tawara-Schenkel und PurkinjeFasern) notwendig. Das Herz, als Saug- und Druckpumpe, steht im Mittelpunkt des Herz-Kreislauf-Systems, an
⊡ Tab. B14. Anhaltswerte für auftretende Herzfrequenzen (Erwachsene) Bezeichnung
Herzfrequenzen/min
Beurteilung
Indikation
Herzstillstand
Reanimation
Bradykardie
<60
Bradykarde Rhythmusstörung
Herzschrittmacher, Pharmaka
Normale Herzfrequenz
60 – 100
–
–
Tachykardie
>100
Tachykarde Rhythmusstörung
Pharmaka
Vorhofflattern
220 – 350
Tachykarde Rhythmusstörung
Defibrillation
Vorhofflimmern
350 – 500
Tachykarde Rhythmusstörung
Defibrillation
Kammerflattern
200 – 300
Tachykarde Rhythmusstörung
Defibrillation
Kammerflimmern
250 – 600
Tachykarde Rhythmusstörung
Defibrillation
»Sekundenherztod«
Reanimation
⊡ Tab. B15. Anhaltswerte: durchschnittliche Körperoberfläche, nichtinvasiver Blutdruck, Puls, Gesamtblutvolumen und tägliche Harnmenge für unterschiedliche Lebensalter Alter
Körperoberfläche [m2]
RR [mmHg]
Pulse/min
Gesamtblutvolumen [ml]
Harnmenge täglich [ml]
Neugeborene
0,25
80/60
140
300
30 – 60
2 Monate
0,30
80/60
140
250 – 500
250 – 450
2–4 Jahre
0,50
120
1000 – 2000
400 – 600
5 Jahre
0,75
100
2500
600 – 700
9 Jahre
1,00
90–80
3500
900 – 1000
14 Jahre
1,50
120/80
80
5000
1100 – 1400
Erwachsene (170 cm/70 kg)
1,80
120/80
70
7000
1500
Erwachsene (180 cm/80 kg)
2,00
120/80
70
8000
1500
100/60
B
970
Anhang B · Organprofile und Tabellen
Beispiel: Arbeit des rechten und linken Herzens bei einem Auswurfvolumen von 70 cm3/Systole. ▬ Rechte Herzhälfte – Mittlerer Pulmonalarteriendruck = 15 mmHg. – 15 mmHg entsprechen 19,5 g/cm2. – 70 cm3/Systole × 19,5 g/cm2 = 1356 g cm/Systole. ▬ Linke Herzhälfte – Mittlerer Aortendruck=100 mmHg. – 100 mmHg entsprechen 130 g/cm2. – 70 cm3/Systole×130 g/cm2 = 9100 g cm/Systole.
Blutgefäße und Blutdruck Die Gesamtoberfläche der Kapillaren beim Erwachsenen beträgt ~6300 m2. Beim Auswurf eines Schlagvolumens in die Aorta wird eine Druckwelle (sog. Pulswelle) gestartet, die durch Übertragung von Teilchen zu Teilchen wandert und deren Geschwindigkeit 6–10 m/s beträgt (vom Aortenbogen bis zum Fuß in 0,15 s). Die Strömungsgeschwindigkeit des Blutes in der Aorta beträgt ~50–100 cm/s.
⊡ Tab. B16. Gefäßsystem: Anzahl, Querschnitte, Lumen und Blutvolumen (Anteil des Blutvolumens in den Blutgefäßen des großen Kreislaufs; zusätzlich befinden sich 12% im Herzen und 18% im Lungenkreislauf ). (Nach Silbernagl u. Despopoulos 1991; Anerswald 1979)
Aorta
Anzahl
Anteil Blutvolumen [%]
Wandstärke [mm]
Lumen [cm]
Querschnitt [cm2]
Volumen [cm3]
1
2
2
2,5 – 2,6
4,5 – 5,3
180
8
1
0,4 – 0,8
20
250
20
250
Große Arterien
VII
Arterienäste Arteriolen
0,06 – 0,3 0,16 ×
109
9
Kapillaren
5 × 10
Venolen
0,5 × 109
Venenäste
-5
1
2 × 10
5
-6
54
10
2
-6
-4
-6
2 × 10 –3 × 10
125 3
3,5 – 4,5 × 10
300
25 × 10-4–2 × 10-5
2,7 – 4 × 103
550
0,50
0,15 – 0,7
100
1550
1,60
30 – 40
900
3,20
18
250
1,50
9 × 10 –6 × 10
500
2 × 10-6
Große Venen V. cava
-3
⊡ Tab. B17. Transmurale Drücke [p] und tangentiale Wandspannung [Th] von Gefäßen. (Nach Schmidt u. Thews 1993) ri [m] Aorta
12 × 10
-3
10-3
r/h
p [kPa]
Th [kPa]
8,00
13,30
106,00
Arterien
0,5 – 3 ×
3–7
11,00
33 – 77
Arteriolen
10 – 100 × 10-6
1–5
7,00
7 – 35
Kapillaren
3 × 10-6
5–8
3,30
17 – 26
Venolen
10 – 250 × 10-6
7 – 10
1,60
11 – 16
7,5×10-3
7 – 10
1,30
9 – 13
10 – 15
1,00
10 – 15
Venen V. cava
0,75 – 17 ×
10-3
⊡ Tab. B18. Strömungswiderstände (R), Strömungsvolumen und mittlere Strömungsgeschwindigkeit in einzelnen Organen. (Nach Schmidt u. Thews 1993) HZV [%]
. V [ml min]
_ ν [mls-1]
R [Pa ml-1 s]
Gehirn
13
750
13
1025
Koronargefäße
4
250
14
3330
Muskeln
21
1200
20
670
Nieren
14
1100
18
740
Haut
9
500
8
1670
Übrige Organe
10
600
10
1330
K-Gefäßsystem
100
∼5800
∼96
∼140
Lu-Gefäßsystem
100
∼5800
∼96
∼11
971 Organprofil Herz (lat. cor, gr. kardia)
Nichtinvasive Blutdruckmessung ⊡ Tab. B19. Manschettenmaße (nach Deutsche Liga zur Bekämpfung des hohen Blutdrucks e.V., 1989) Patient
Oberarmumfang [cm]
Manschettenbreite x Manschettenmindestlänge [cm]
Kleinkind
5–8
Kind
8 – 13
Erwachsener
<33
12 – 13 × 24
33 – 41
15 × 30
>41
18 × 36
⊡ Tab. B20. Manschettenmaße nach American Heart Association (AHA). (Quelle: Bulletin OIML Nr. 125, 12/1991) Oberarmumfang [cm]
Breite×Länge [cm]
Neugeborenes
5 – 7,5
3×5
Kleinkind
7,5 – 13
5×8
Kind
13 – 20
8 × 13
Schlanker Erwachsener
17 – 26
11 × 17
Erwachsener
24 – 32
13 × 24
Kräftiger Erwachsener
32 – 42
17 × 32
Übergröße
42 – 50
20 × 42
⊡ Tab. B21. Klassifikation von Blutdruckbereichen (WHO-ISH) Blutdruckkategorie
Blutdruckbereiche (mmHg) Systolisch
diastolisch
optimal
<120
<80
normal
<130
<85
hochnormal
130 – 139
85 – 89
Hyperton: Schweregrad I Subgruppe borderline
140 – 159 140 – 149
90 – 99 90 – 94
Schweregrad II
160 – 179
100 – 109
Schweregrad III
≥180
≥110
isolierte systolische Hypertonie Subgruppe borderline
≥140 140 – 149
<90 <90
B
972
Anhang B · Organprofile und Tabellen
⊡ Tab. B22. Hämodynamisches Monitoring: Messparameter, Abkürzungen, Normwerte und Ableitungen. (Quelle: Ohmeda GmbH, Erlangen)
VII
Messparameter
Abkürzungen
Normwerte (in Ruhe)
Arterieller Druck
AD = AP
Normbereiche: systolisch: 90 – 140 mmHg diastolisch: 60 – 90 mmHg
Mittlerer Arteriendruck
MAD = MAP
85 – 95 mmHg
Zentraler Venendruck
ZVD
3 – 8 mmHg, 4 – 11 cm H2O
entspricht RAP
Rechter Vorhofdruck
RAP
4 – 5 mmHg Mitteldruck
entspricht ZVD
Rechter Ventrikeldruck
RVP
systolisch: 25 – 30 mmHg diastolisch: 8 – 12 mmHg Mitteldruck: 8 – 12 mmHg
Pulmonalarterieller Druck
PAP
systolisch: 20 – 30 mmHg diastolisch: 8 – 12 mmHg Mitteldruck: 12 – 20 mmHg
Pulmonalkapillardruck (»wedge pressure«)
PCWP
8 – 13 mmHg
entspricht LAP
Linker Vorhofdruck
LAP
8 – 13 mmHg
entspricht PCWP
Linker Ventrikeldruck
LVP
systolisch: 120 – 140 mmHg frühdiastolisch: 0 mmHg enddiastolisch: 8 – 13 mmHg
Herzminutenvolumen synonym
HMV
5 – 8 l/min
SV × HF
Herzzeitvolumen »cardiac output«
HZV CO
Herzminutenvolumen pro m2 Körperoberfläche (Herzindex)
HI
2,5 – 4,5 l/min m2
HZV/KÖ
Körperoberfläche
KÖ
1,5 – 2,0 m2
Peripherer Widerstand im Kreislauf
SVR
900 – 1000 dyn × s × cm-5
(MAP-ZVD)/HZV
Peripherer Gefäßwiderstand im Lungenkreislauf
PVR
100 – 250 dyn × s × cm-5
(PAP-PCWP)/HZV
Herzfrequenz
HF
60 – 90 Schläge/min
Schlagvolumen
SV
60 – 70 ml/Schlag
HZV/HF
Schlagvolumenindex
SI
35 – 45 ml/Schlag m2
HZV/HF×KÖ
Ejektionsfraktion
EF
0,70
Enddiastolisches Volumen im linken Ventrikel
LVEDV
70 ml
Enddiastolischer Druck im linken Ventrikel
LVEDP
8 – 13 mmHg
Druckanstieg über die Zeit
dp/dt
1500 – 1800 mmHg/s
Sauerstoffpartialdruck im arteriellen Blut
PaO2
80 – 95 mmHg
Kohlendioxidpartialdruck im arteriellen Blut
pPaCO2
40 mmHg
Sauerstoffpartialdruck im gemischtvenösen Blut
P vO 2
32 – 40 mmHg
Kohlendioxidpartialdruck im gemischtvenösen Blut
PvCO2
40 – 50 mmHg
Sauerstoffsättigung im arteriellen Blut
S aO 2
97%
Sauerstoffgehalt im zentralvenösen Blut
CaO2
19 – 20 ml/100 ml
Sauerstoffgehalt im gemischtvenösen Blut
Cν_O2
14 – 15 ml/100 ml
Arteriovenöse Sauerstoffdifferenz
AVDO2 . V O2
4 – 6 ml/100 ml
Sauerstoffaufnahme
115 – 165 ml/min m2
Ableitungen
HI (CaO2–Cν_O2)
B
973 Volatile Anästhetika
Nach DGAI CI
Cardiac index
Normbereich: 2,8 – 4,2 l/min/m2
CO
Cardiac output
Herzzeitvolumen Normbereich: 3,5 – 7 l/min
SAP
Systolic arterial pressure
Normbereich: 100 – 140 mmHg
ZVD
Normbereich: 2 – 8 mmHg
Pädiatrie und Neonatologie Nomenklatur ▬ Frühgeborene: Geburtsgewicht <2500 g Die Überlebensrate Frühgeborener beträgt mit 1 Monat bei einem Geburtsgewicht von – <1000 g ~ 5% – 1000 – 1500 g ~ 50% – 1500 – 2000 g ~ 85% – 2000 – 2500 g >95% ▬ Neugeborene: die ersten 28 Lebenstage (nach WHO) ▬ Säugling: bis zu 1 Jahr ▬ Kleinkind: 1.–6. Lebensjahr ▬ Kind: 6.–15. Lebensjahr.
Intrauterine Entwicklung
Alter
Gewicht [kg]
Körpergröße [cm]
Oberfläche [m2]
2 Wochen
3,40
50
0,21
3 Monate
5,70
60
0,29
9 Monate
8,60
70
0,39
2 Jahre
12,50
87
0,53
4 Jahre
16,50
103
0,67
6 Jahre
20,00
117
0,81
10 Jahre
28,70
138
1,05
14 Jahre
48,00
160
⊡ Tab. B24. Puls, Blutdruck und Atemfrequenz (Mittelwerte). (Nach Schmidt 1981) Puls/min
Blutdruck [kPa]
Atemfrequenz/min
Neugeborenes
140 – 120
7,97/4,6 – 10,6/6,6
60 – 40
Säugling
120 – 110
10,6/6,6 – 11,9/7,9
40 – 30
Kleinkind
100,00
13,3/9,3 – 14,6/9,9
24 – 20
Kind
90 – 80
15,9 – 10,6
18 – 16
Volatile Anästhetika Halothan
Die Schwangerschaft dauert ~280 Tage (±10 Tage) und wird allgemein in Lunarmonate (je 28 Tage) unterteilt. ⊡ Tab. B23. Intrauterine Entwicklung Lunarmonat
Länge des Keimlings [cm]
1
12 = 1
2
22 = 4
3
32 =
4
Gewicht [g]
Physikochemische Eigenschaften Molekulargewicht
197
25
Dampfdruck (mmHg bei 20°C)
244
42 = 16
100
Sättigungskonzentration (Vol% bei 20°C)
32
5
52 = 25
300
Siedepunkt (°C)
50,2
6
6 × 5 = 30
700
MAC50 in Sauerstoff (Vol%)
0,74
7
7 × 5 = 35
1200
MAC50 (Vol% in 70% N2O)
0,29
8
8 × 5 = 40
1700
Blut-Gas-Verteilungskoeffizient*
2,36
9
9 × 5 = 45
2000 – 2500
Fett-Gas-Verteilungskoeffizient*
224
10
10 × 5 = 50
3000 – 3500
Blut-Fett-Verteilungskoeffizient*
51
Geruch
Lösungsmittel
MAK
5 ppm
9
(* bei 37°C, 760 mmHg)
974
Anhang B · Organprofile und Tabellen
Halothan wird zu etwa 20% vom Körper metabolisiert und bildet hauptsächlich Metaboliten in Form von Trifluoressigsäure und Bromiden. Nebenwirkungen: Trifluoressigsäure und Bromiden wirken hepatotoxisch, was zu Leberfunktionsstörungen, in seltenen Extremfällen bis zur Lebernekrose führen kann. Erhöhte Arbeitsplatzbelastung im Vergleich zu anderen volatilen Anästhetika. Halothan wird zunehmend von anderen volatilen Anästhetika mit günstigeren Eigenschaften abgelöst.
Enfluran
Physikochemische Eigenschaften Molekulargewicht
184
Dampfdruck (mmHg bei 20°C)
238
Sättigungskonzentration (Vol% bei 20°C)
31
Siedepunkt (°C)
48,5
MAC50 in Sauerstoff (Vol%)
1,15
MAC50 (Vol% in 70% N2O)
0,50
Blut-Gas-Verteilungskoeffizient*
1,41
Fett-Gas-Verteilungskoeffizient*
91
Blut-Fett-Verteilungskoeffizient*
45
Geruch
ätherisch
MAK
10 ppm (Richtwert, da kein nationaler MAK)
(* bei 37°C, 760 mmHg)
VII
Physikochemische Eigenschaften
Um mehr als den Faktor 10 geringer ist der Metabolisierungsgrad von Isofluran (0,17%). Bisher keine metabolischen Nebenwirkungen bekannt.
Molekulargewicht
184
Dampfdruck (mmHg bei 20°C)
174
Sättigungskonzentration (Vol% bei 20°C)
23
Siedepunkt (°C)
56,5
MAC50 in Sauerstoff (Vol%)
1,68
MAC50 (Vol% in 70% N2O)
0,57
Blut-Gas-Verteilungskoeffizient*
1,91
Fett-Gas-Verteilungskoeffizient*
98
Blut-Fett-Verteilungskoeffizient*
36
Molekulargewicht
168
Geruch
ätherisch
Dampfdruck (mmHg bei 20°C)
669
MAK
10 ppm (Richtwert, da kein nationaler MAK)
Sättigungskonzentration (Vol% bei 20°C)
88
Siedepunkt (°C)
22,8
MAC50 in Sauerstoff (Vol%)
6
MAC50 (Vol% in 70% N2O)
2,83
Blut-Gas-Verteilungskoeffizient*
0,42
Fett-Gas-Verteilungskoeffizient*
19
Blut-Fett-Verteilungskoeffizient*
27
Geruch
ätherisch
MAK
kein Richtwert
(* bei 37°C, 760 mmHg)
Enfluran wird zu 2% metabolisiert. Die Metaboliten sind organische und anorganische Fluoride, die in größeren Mengen nephrotoxisch wirken.
Isofluran
Desfluran
Physikochemische Eigenschaften
(* bei 37°C, 760 mmHg)
Desfluran weist die bisher geringste Neigung zur Verstoffwechselung auf (0,02%); es werden also fast gar keine Metaboliten mehr gebildet. Der niedrige Siedepunkt und der hohe Dampfdruck (664 mmHg bei 20°C) machen kompliziertere Apparaturen notwendig als bei den übri-
975 Medizinische Gase und Gasgemische (Auswahl)
gen Substanzen. Bedingen ein unkomfortableres Handling als auch Monitoring. Darüber hinaus benötigt man wesentlich größere Volumina, um eine mit den anderen Mitteln vergleichbare Wirkung zu erzielen.
Sevofluran
⊡ Tab. B26. Lachgas (nitrous oxide, laughing gas). Formelzeichen: N2O; Synonym: Stickoxidul, Distickstoffmonoxid Farbloses, nicht entzündliches oder explodierbares, leicht süßliches Gas mit anästhetischen und analgetischen Eigenschaften (gilt als Medikament!). Eigenschaften
Physikochemische Eigenschaften
Molekulargewicht
44,013 g/mol
Siedepunkt (1 bar)
89,5°C
Kritische Temperatur
36,4°C
Kritischer Druck
72,6 bar
Gasdichte (20°C, 1 bar)
1,843 g/l
Flüssigkeitsdichte (T = Ts, 1 bar)
1,222 g/ml
Molekulargewicht
200
Blut-Gas-Verteilungskoeffizient
0,47
Dampfdruck (mmHg bei 20°C)
160
Fett-Gas-Verteilungskoeffizient
<1,45
Sättigungskonzentration (Vol% bei 20°C)
21
Alveoläre Konzentration (MAC)
104%
Siedepunkt (°C)
58,5
MAK-Wert
100 ppm
MAC50 in Sauerstoff (Vol%)
1,71
MAC50 (Vol% in 70% N2O)
0,66
Blut-Gas-Verteilungskoeffizient*
0,69
Fett-Gas-Verteilungskoeffizient*
53
Blut-Fett-Verteilungskoeffizient*
48
Geruch
angenehm
MAK
kein Richtwert
(* bei 37°C, 760 mmHg)
⊡ Tab. B27. Kohlendioxid (carbon dioxide). Formelzeichen: CO2; Synonyma: Kohlenstoffdioxid, Kohlensäureanhydrid, Kohlensäure Farbloses, verflüssigtes Gas mit schwach säuerlichem Geruch bzw. Geschmack, das 1,5-mal schwerer als Luft ist. Wird CO2 bis unter die Sublimationstemperatur abgekühlt, entsteht Kohlensäureschnee (sog. Trockeneis). Die ausgeatmete Luft des Menschen enthält ~4 Vol.-% CO2. Bis zu 2,5% CO2 in der Luft sind unbedenklich, 4 – 5% wirken betäubend und >8% tödlich (Erstickung). Eigenschaften
Sevofluran ist ein teilfluorierter Äther. Bei einer Metabolisierungsrate von <3% (renal eliminiertem organischen und anorganischen Fluorid) hat sich der niedrige BlutGas-Verteilungskoeffizient als vorteilhaft herausgestellt; er begünstig ein schnelles An- und Abfluten der Substanz im Körper. Die Verwendung von konventionellen Vaporen ist möglich, da Sevofluran einen Siedepunkt von 59°C bei einem atmosphärischen Druck von 1013 hPa besitzt. Anmerkung: Alle MAC50-Werte beziehen sich auf Erwachsene mittleren Alters (ppm = part per million = 40 mg/m3). (Quelle: Anästhesie zwischen gestern und morgen. Abbott Wiesbaden 1994)
Molare Masse Kritischer Punkt
Tripelpunkt
Sublimationspunkt (1,013 bar)
44,0098 kg/kmol Temperatur
304,21 K
Druck
73,825 bar
Dichte
0,466 kg/l
Temperatur
216,58 K
Druck
5,185 bar
Temperatur
194,674 K = –78,5°C
Verdampfungswärme
573,02 kJ/kg
Dampfdruck (20°C) Gasdichte (0°C, 1,013 bar) Dichteverhältnis zur Luft (0°C, 1,013 bar) Gasdichte (15°C, 1 bar)
Medizinische Gase und Gasgemische (Auswahl) ⊡ Tab. B25. Luft (air) Atmosphärisches Gasgemisch, das sich aus ca. 78 Vol.-% aus Stickstoff, ca. 21 Vol.-% Sauerstoff, ca. 0,03 Vol.-% Kohlendioxid und <1 Vol.-% Edelgasen zusammensetzt.
57,258 bar 1,9767 kg/m3 1,5289 1,8474 kg/m3
Gaszustand (25°C, 1 bar)
MAK-Wert
Spez. Wärmekapazität
0,8504 kJ/kg K
Wärmeleitfähigkeit
164 × 10-4 W/m K
Dynam. Viskosität
14,833 × 10-6 Ns/m2 5.000 ppm
B
976
Anhang B · Organprofile und Tabellen
⊡ Tab. B28. Sauerstoff (oxygen). Formelzeichen: O2
⊡ Tab. B30. Helium (helium, helion). Formelzeichen: He
Farbloses, brandförderndes und geruchloses Gas, das bei Kontakt mit organischen Stoffen, wie bspw. Fetten und Ölen, diese bei Raumtemperatur entzünden kann.
Farbloses und geruchloses Edelgas, das sehr viel leichter ist als Luft. Flüssiges Helium unter –270,97°C hat andere Eigenschaften (superfluides Helium). Helium in geschlossenen Räumen verdrängt die Atemluft, sodass Erstickungsgefahr für Anwesende besteht.
Eigenschaften Molare Masse Kritischer Punkt
Tripelpunkt
Siedepunkt (1,013 bar)
VII
31,9988 kg/kmol Temperatur
154,4811 K
Druck
50,422 bar
Dichte
0,4361 kg/l
Temperatur
54,359 K
Druck
0,00149 bar
Temperatur
90,19 K = -183°C
Flüssigdichte
1,1410 kg/l
Verdampfungswärme
212,5 kJ/kg
Gasdichte (0°C, 1,013 bar) Dichteverhältnis zur Luft (0°C, 1,013 bar) Gasdichte (15°C, 1 bar)
1,1052
Spez. Wärmekapazität
0,9196 kJ/kg K
Wärmeleitfähigkeit
261,5 × 10-4 W/m K
Dynam. Viskosität
20,5 × 10-6 Ns/m2
⊡ Tab. B29. Xenon (xenon). Formelzeichen: Xe Farbloses, geruchloses und inertes Edelgas, das in der Nuklearmedizin und zur Pulmonaldiagnostik eingesetzt wird. Eigenschaften Molare Masse Kritischer Punkt
Tripelpunkt
Siedepunkt (1,013 bar)
131,30 kg/kmol Temperatur
289,740 K
Druck
58,4 bar
Dichte
1,11 kg/l
Temperatur
161,396 K
Druck
0,81668 bar
Temperatur
165,066 K = –108°C
Flüssigdichte
2,94 kg/l
Verdampfungswärme
95,422 kJ/kg
Gasdichte (0°C, 1,013 bar) Dichteverhältnis zur Luft (0°C, 1,013 bar) Gasdichte (15°C, 1 bar)
5,8982 kg/m3 4,5619 5,514 kg/m3
Gaszustand (25°C, 1 bar)
Molare Masse Kritischer Punkt
Tripelpunkt
Siedepunkt (1,013 bar)
1,429 kg/m3
1,337 kg/m3 Gaszustand (25°C, 1 bar)
Eigenschaften
Spez. Wärmekapazität
0,1583 kJ/kg K
Wärmeleitfähigkeit
55,5 × 10-4 W/m K
Dynam. Viskosität
23 × 10-6 Ns/m2
4,0026 kg/kmol Temperatur
5,2014 K
Druck
2,2746 bar
Dichte
0,06964 kg/l
Temperatur
2,177 K
Druck
0,05035 bar
Temperatur
4,224 K = –269°C
Flüssigdichte
0,125 kg/l
Verdampfungswärme
20,413 kJ/kg
Gasdichte (0°C, 1,013 bar) Dichteverhältnis zur Luft (0°C, 1,013 bar) Gasdichte (15°C, 1 bar)
0,1785 kg/m3 0,138 0,1673 kg/m3
Gaszustand (25 °C, 1 bar)
Spez. Wärmekapazität
5,19412 kJ/kg K
Wärmeleitfähigkeit
1500 × 10-4 W/m K
Dynam. Viskosität
19,68 × 10-6 Ns/m2
977 Diffusion und Osmose
⊡ Tab. B31. Farbkodierung von medizinischen Gasen und Gasgemischen (DIN EN 739) Medizinische Gase
Symbol
Farbkodierung
Bemerkungen
Sauerstoff
O2
weiß
nach ISO 32
Lachgas
N2O
blau
nach ISO 32
Helium
He
braun
nach ISO 32
Kohlendioxid
CO2
grau
nach ISO 32
Luft
Air
schwarz-weiß
nach ISO 32, Luft für Beatmung
Luft
Air-800
schwarz-weiß
nach ISO 32, Luft für chir. Werkzeuge
Xenon
Xe
hellbraun
Vakuum
Vac
gelb
Luft-Sauerstoffgemisch
Air/O2
weiß-schwarz
nach ISO 32
Sauerstoff-Lachgasgemisch 50% O2 (V/V)
O2/N2O
weiß-blau
nach ISO 32
Sauerstoff-Heliumgemisch (He≤80% (V/V)
O2/He
weiß-braun
nach ISO 32
Sauerstoff-Kohlendioxidgemisch (CO2≤7% (V/V)
O2/CO2
weiß-grau
nach ISO 32
Helium-Sauerstoffgemisch (O2<20% (V/V)
He/O2
braun-weiß
nach ISO 32
Kohlendioxid-Sauerstoffgemisch (CO2>7% (V/V)
CO2/O2
grau-weiß
nach ISO 32
Stickstoffmonoxid-Stickstoffgemische (NO≤1000 μl/l)
NO/N2
schwarz-hellgrün
nach EN 1089-3
Medizinische Gasgemische
Diffusion und Osmose Strömt eine Substanz aus einem Gebiet hoher Konzentration in ein Gebiet geringer Konzentration, so nennt man diesen Vorgang Diffusion. Werden beide Gebiete durch eine Grenzschicht getrennt, die nur in eine Richtung durchlässig ist (sog. permeable Membran), so wird dies Osmose genannt (⊡ Abb. B1). Der durch das Konzentrationsgefälle bzw. der von osmotisch wirksamen Teilchen an der semipermeablen Membran erzeugte Druck ist der sog. osmotische Druck. Unter Osmolarität versteht man die Konzentration osmotisch wirksamer Teilchen [osmol/l], unter Molarität die Stoffmengendichte.
Fick’sches Diffusionsgesetz: Q/t = D×F/lΔC [mol/s]. Hier bedeuten: Q/tΔ diffundierte Stoffmenge pro Zeiteinheit, D Diffusionskoeffizient, F Austauschfläche, ΔC Konzentrationsdifferenz. Osmotischer Druck: (Posm) = RTC [Pa] = RTn/V [Pa]. Hier bedeuten: R molare Gaskonstante (8,314 J/mol K), T Temperatur (K), C Konzentration in der Lösung, n Anzahl der gelösten Moleküle, V Volumen des Lösungsmittels. Isotone Lösung, wenn Posm von A = Posm von B Hypertone Lösung, wenn Posm von A>Posm von B Hypotone Lösung, wenn Posm von A
⊡ Abb. B1. Osmose
B
978
Anhang B · Organprofile und Tabellen
Sinnesorgane Auge und Ohr
⊡ Tab. B32. Sinnesorgan Auge (lat. oculus) – Anatomische Strukturen, physiologische Zusammenhänge und optische Kennwerte des Erwachsenenauges (Abriss) Allgemein: Das paarige Sinnesorgan Auge reagiert auf Reize der elektromagnetischen Strahlung im Wellenlängenbereich λ = 400 bis 750 nm und einem Leuchtdichtebereich von ~ 10-4 bis 107 cd/m2 (1:1011). Etwa 80% aller Informationen aus der Umwelt werden durch das Auge erfasst, die in elektrische Reize umgewandelt und über die Sehnerven an das Sehzentrum im Gehirn weitergeleitet werden. Das Sehorgan (organum visus/visuale oder oculus et structurae pertintes) unterteilt sich in: – Augapfel (bulbus oculi oder ophthalmos) – Anhangsorgane (Tränenapparat, Augenmuskel, Bindehaut, Augenlider) – Sehbahn Der dioptrische Apparat setzt sich zusammen aus: – der durchsichtigen Hornhaut, – den mit Kammerwasser gefüllten vorderen und hinteren Augenkammern, – der von der Iris gebildeten Pupille, – der Linse, die von einer durchsichtigen Linsenkapsel umgeben ist und – dem Glaskörper, der den größten Raum des Augapfels ausfüllt. Eine weitere Differenzierung des Augenaufbaus ist ein bildentwerfender (Hornhaut und Linse) sowie ein bildaufnehmender Anteil (Netzhaut).
VII
Umfang: 75 mm Durchmesser: 24 mm Volumen: 6,5 cm3 = 6,5 ml
1
Bulbus oculi Augapfel
Kugelförmig mit 3 Binnenräumen: vor der Iris liegende vordere Augenkammer, die hintere Augenkammer zwischen Iris und Glaskörper und Glaskörperraum. Die Wand des Augapfels besteht aus der fibrösen äußeren Augenhaut (die weiße Augenhaut im hinteren Teil der Sclera und vorne als Hornhaut), der mittleren Augenhaut (Aderhaut, Ziliarkörper und Iris) und der inneren Augenhaut (Retina, Anfangsteil des N. opticus und Netzhautgefäße).
2
Augenfundus Augenhintergrund
Durch die Pupille direkt betrachtbarer Anteil der inneren Augapfeloberfläche.
3
Pupille Sehloch
Kreisrunde Öffnung in der Mitte der Iris, die den Lichteinfall reguliert.
Breite des M. sphincter pupillae: 0,75–0,8 mm Durchmesser wirklicher D.: 1,1–8,0 mm scheinbarer D.: 1,3–9,0 mm (durch Linsenwirkung der Hornhaut) mittlerer wirklicher D.: 3,5 mm mittlerer scheinbarer D.: 4,0 mm
3
Cornea Hornhaut
Vorderer durchsichtiger Teil der Augapfelhülle.
Äußerer Durchmesser horizontal: 11,75 mm vertikal: 10,55 mm Zentraler Krümmungsradius: Vorderfläche: 7,8 mm Rückfläche: 6,5 mm Gesamtdicke: zentral: 0,52 mm peripher: 0,52–0,72 mm Masse: 180 mg Brechungsindex: 1,376 (im Mittel)
4
Sklera, Sclera Lederhaut
Harte und weiße Augenhaut, hinterer, nicht durchsichtiger Teil der äußeren Augenhaut, der den größten Teil des Augapfels überzieht.
5 ▼
Iris Regenbogenhaut
Vorderer Teil der mittleren Augenhaut, der mit der Pupille den Lichteinfall auf die Netzhaut reguliert.
Dicke Limbus: 0,83 mm Muskelansatzbereich: 0,30 mm Äquator: 0,50 mm hinterer Pol: 1,0–1,35 mm
979 Sinnesorgane Auge und Ohr
⊡ Tab. B32. Fortsetzung 6
Linse Augenlinse
Liegt hinter der Iris, ist kristallklar, Brechungsindex größer als der des Kammerwassers.
Äquatorialer Durchmesser: 9 mm Sagittaler Durchmesser: 4,0–4,8 (deutliche Zunahme mit dem Lebensalter) Gewicht 20.–30. Lebensjahr: 0,175 g 80.–90. Lebensjahr: 0,260 g Krümmungsradius Vorderfläche: 8,4–13,8 mm (im Mittel 10 mm) Rückfläche: 4,6–7,5 mm (im Mittel 6 mm) Brechungsindex 1,41 (Näherung, abhängig vom Akkommodationszustand und dem betrachteten Bereich)
7
Vorderkammer
Raum zwischen Hornhaut und Iris.
Tiefe: 0,3–3,6 mm Volumen: ~ 0,25 cm3
8
Chorioidea Aderhaut
Unterer Abschnitt der mittleren Augenhaut.
Dicke hinterer Pol: 0,22–0,33 mm Äquator: 0,1–0,15 mm Ora serrata: 0,06 mm
9
Ziliarkörper Strahlenkörper Ziliarapparat
Abschnitt der mittleren Augenhaut.
Breite nasal und oben: 4,5–5,2 mm temporal und unten: 5,6–6,3 mm Pars plicata: Breite 2,0 mm Pars plana: Breite 3,6–4,0 mm Ziliarfortsätze Anzahl: 70–80 Breite: 0,5 mm Länge: 2,0 mm Dicke: 0,8–1,0 mm
II. Hirnnerv: aus den Ganglienzellen der Netzhaut entspringender Nerv, der vom Augapfel zum Chiasma opticum zieht.
Anzahl der Nervenfasern: 1–1,5 Mio. Länge Bulbus bis Chiasma: 35–55 mm intraokular: 1 mm intraorbital: 25 mm intrakraniell: 4–7 mm
10
Nervus opticus Sehnerv
11
Chiasma opticum Sehnervenkreuzung
12
Corpus vitreum Glaskörper
Ist von einer dünnen Grenzmembran umgeben.
Volumen: ~ 4 cm3
13
Retina Netzhaut
Innere Schicht des Augapfels, die zusammen mit dem Anfangsteil des N. opticus und Blutgefäßen die innere Augenhaut bildet. Unterschieden wird in lichtempfindlichen und lichtunempfindlichen Teil. Im Zentrum der Netzhaut liegt die Makula lutea (gelber Fleck), die Stelle des schärfsten Sehens.
Fläche: 1200 mm2
Größe sagittal: 8 mm transversal: 12 mm Höhe: 3,5 mm
Dicke Papille: 0,56 mm Äquator: 0,18 mm Ora serrata: 0,10 mm Abstand Limbus – Netzhautperipherie nasal: 5,0 mm temporal: 6,5 mm Anzahl Stäbchen: ~ 7 Mio. Gefäßdurchmesser Arterien: 70–120 μm Venen: 55–130 μm
▼
B
980
Anhang B · Organprofile und Tabellen
⊡ Tab. B32. Fortsetzung Makula Durchmesser: 5,5 mm Durchmesser Fovea: 1,5 mm Durchmesser Foveola: 0,35 mm Durchmesser der foveolären avaskulären Zone: 0,5 mm Sehnerv Durchmesser der Papille: ~ 1,5 mm (starke Variationsbreite) 14
Orbita Augenhöhle
Nimmt das Auge und seine Anhangsgebilde auf.
Volumen: 29–30 cm3 Höhe im vorderen Anteil: 35 mm Breite im vorderen Anteil: 40 mm Trochlea: 6 x 4 mm Abstand linker bis rechter lateraler Orbitarand: 100 mm Abstand linker bis rechter medialer Orbitarand: 25 mm Winkel laterale/mediale Orbitawand: 45° Winkel laterale/laterale Orbitawand: 95°
VII
Canalis opticus Länge: 4–9 mm Breite: 4–6 mm Quellen: Augustin (2007), Reuter (2006) sowie Schmidt u. Lang (2007)
⊡ Abb. B2. Auge und optisches System. Horizontalschnitt durch ein linkes Auge mit Fovea und Pupille mit N. opticus (N.O.). Abbildung im vereinfachten Strahlengang mit Gegenstand (G), Gegenstandsweite (g), Sehwinkel (α), Linse (L), Knotenpunkt (K), Bildweite (b) und umgekehrtem Bild (B). 1 Grad Sehwinkel entspricht ~ 0,3 mm Bildgröße auf der Retina. (Nach Schmidt u. Thews 1993)
981 Sinnesorgane Auge und Ohr
⊡ Tab. B33. Physikalische Geometrieoptik Brechungsindex n Brechzahl
n=
c (Vakuum) c (Medium)
c = Lichtgeschwindigkeit Vakuum n = 1 Luft n = 1,0003 Wasser n = 1,333 Auge: Glaskörper u. Kammerwasser n = 1,336 Cornea n = 1,376 Linse n ~ 1,4 Brillenglas n = 1,523 Brechungsgesetz
sin α n ____ = __2 sin β n1 Brechkraft D Brechwert
1 D = __ [dpt] f dpt = Dioptrien
Gullstrand-Formel
d D1 = Dv + Dh - __ x Dv x Dh [dpt] n D1 = Brechkraft einer Linse mit 2 Übergangsflächen Dv = Brechkraft der Linsenvorderfläche Dh = Brechkraft der Linsenhinterfläche d = Abstand der brechenden Flächen n = Brechungsindex des Mediums zwischen den brechenden Flächen α=β α = Einfallswinkel β = Ausfallswinkel
Totalreflexion
Brennweite f
n2 sin α1 g = __ n1 wobei n2 < n1 vordere Brennweite n1 · r f1 = _____ [m] n2 –n1 hintere Brennweite n2 · r [m] f1 = _____ n2 –n1
Brennweite f einer sphärischen Linse
1 = __ 1 + __ 1 __ [m] f g b
Allgemeine Linsengleichung
n1 n1 n2 n2 = + = fv g b fH b = Bildweite [m] g = Gegenstandsweite [m] fv = vordere Brennweite fH = hintere Brennweite
Scheitelbrechwert S ▼
Abbildungsmaßstab Lineare Vergrößerung ν
B b v = __ = __ G g
Sehwinkel
Abmessung des Objektes ________________________ Entfernung des Objektes
Vergrößerung Γ eines optischen Instruments
Sehwinkel mit Instrument Γ = __________________________ Sehwinkel ohne Instrument
n1 x sin α1 = n2 x sin α2 bzw.
Reflexionsgesetz
⊡ Tab. B33. Fortsetzung
1 S = ___ SF SF = Schnittweite
wobei v > 1 = Vergrößerung v < 1 = Verkleinerung v < 0 = seitenverkehrt abgebildet B = Bildgröße b = Bildweite G = Gegenstandsgröße g = Gegenstandsweite
Quellen: Augustin (2007), Harten U (2007) und Schmidt u. Thews (1993)
B
982
Anhang B · Organprofile und Tabellen
⊡ Tab. B34. Schematisches Auge nach Gullstrand (sog. DIN-Normen-Auge nach DIN 5340) Brechungsindices
VII
Luft, no
1,00
Hornhaut, nc
1,376
Kammerwasser und Glaskörper nk
1,336
Linse, n1
1,414 (FA = Fernakkommodation)
Linse
1,424 (NA = Nahakkommodation) Krümmungsradius (mm)
Distanz vom Hornhautscheitel (mm)
Vordere Hornhautfläche
7,7
0
Hintere Hornhautfläche
6,8
0,5
Vordere Linsenfläche
10, 0 (FA)
5,6 (FA)
Vordere Linsenfläche
5,3 (NA max.)
5,2 (NA max.)
Hintere Linsenfläche
–6,0 (FA)
7,2
Hintere Linsenfläche
–5,3 (NA max.)
7,2
Retina
24,4
Hauptpunkt H
1,35
Hauptpunkt H’
1,60
Vorderer Knotenpunkt K
7,05
Hinterer Knotenpunkt K’
7,30
Hintere Brennweite
22,78 (FA)
Vordere Brennweite
–17,05 (FA)
Quelle: Schmidt u. Thews (1993)
⊡ Abb. B3. Abbildung durch ein einfaches, optisches System, schematisches und reduziertes Auge. (Aus Schmidt u. Thews 1993) A Strahlengang und Abbildung durch ein einfaches, optisches System (F1, F2 Brennpunkte; H Hauptpunkt; K Knotenpunkt; G Gegenstand; B Bild; Brechungsindex n2 > n1). B Vereinfachter Strahlengang in einem zusammengesetzten, zentrierten optischen System, das auf zwei Hauptebenen (H, H’) und zwei Knotenpunkte (K, K’) reduziert wurde. C Schematisches Auge nach Gullstrand. D Reduziertes Auge. Die Punkte H und H’ bzw. K und K’ des schematischen Auges sind zusammengelegt. Die Strecke (K-B) beträgt 16,7 mm. Aus dieser Strecke und dem Winkel α kann die Größe des Bildes (B), den der Gegenstand G auf die Netzhaut entwirft, berechnet werden: 1 Winkelgrad ≈ 0,29 mm auf der Retina.
983 Sinnesorgane Auge und Ohr
⊡ Tab. B35. Das auditive System (Abriss) Allgemein: Unter dem auditiven System werden die anatomischen Grundlagen des Hörvorgangs und die physiologischen Prozesse des Hörens verstanden. Anatomisch wird unterschieden in – äußeres Ohr (auris externa), das aus Ohrmuschel (auricula) und äußerem Gehörgang (meatus acusticus externus) besteht, – Trommelfell (membrana tympanica) als Trennmembran zwischen äußerem Ohr und luftgefülltem Mittelohr (auris media), mit einem Durchmesser von ~ 1 cm und einer Dicke von ~ 0,1 cm, – Mittelohr, bestehend aus Paukenhöhle (cavitas tympani) und den Gehörknöchelchen Hammer (malleus), Amboss (incus) und Steigbügel (stapes), und – flüssigkeitsgefülltes Innenohr (auris interna), das im Felsenbein liegt und das den Gleichgewichts- (macula) bzw. Vestibularapparat sowie das Hörorgan (syn. Cochlea, Schnecke) enthält. Das mechanische Schallsignal wird durch Transduktion in ein bioelektrisches Signal überführt und mittels Transmitter an den Hörnerv (nervus cochlearis) weitergeleitet. Über Hirnstamm und Hörbahn wird das Signal in Form einer neuronalen Erregung bis zum auditorischen Kortex im Temporallappen übertragen. Der Schall als physikalische Druckschwankung, d. h. Schwingungen der Moleküle eines elastischen Stoffes, gibt seine Schwingungsenergie an die Umgebung ab. Die Schallausbreitungsgeschwindigkeit beträgt in der Luft ~ 340 ms-1, in Flüssigkeiten (Wasser) ~ 1500 ms-1 und in Festkörpern (Körperschall) bis zu 5000 ms-1. Der Frequenzbereich, für den das menschliche Ohr empfindlich ist, liegt zwischen 16 Hz und 20 kHz. 1
Schallpegel, relativer
2
Schallpegel, absoluter
p1 I1 L = 20 lg ___ = 10 lg ___ [dB] p2 I2 L = 20 lg
P 2 p0
I1 = 10 lg ___ [dB] I0
P = Schalldruck in Pa I = Schallstärke in Wm-2 effektiver Bezugsschalldruck P0 = 2 ·10-5 Nm-2 = 20 μPa Bezugsschallstärke I0 = 10 -12 Wm-2
3
Schallstärke
δ I = __ ν2c [Wm-2] 2
δ = Dichte des Mediums in kg m-3 c = Schallgeschwindigkeit in ms-1 ν = Schallschnelle in ms-1
4
Schallschnelle
ν = yω = 2π f y [ms-1]
y = Amplitude in m ω = Kreisfrequenz in m
5
Schalldruck
P = δcν [Nm-2 = Pa]
δ = Dichte des Mediums in kg m-3 c = Schallgeschwindigkeit in ms-1 ν = Schallschnelle in ms-1 minimaler Schalldruck: ~ 10-5 Pa maximaler Schalldruck: ~ 10-5 – 102 Pa max. Druckverhältnis: 106–107
6
Schallintensität
Pro Zeiteinheit durch eine Flächeneinheit hin durchtretende Schallenergie. Sie ist proportional dem Quadrat des Schalldrucks I ~ p2 [Wm]
7
Schallgeschwindigkeit
in festen Stoffen c=
E
D
[ms-1]
E = Elastizitätsmodul in Nm-2 δ = Dichte des Mediums in kg m-3 temperaturabhängig
in Flüssigkeiten c=
1
DC
χ = Kompressibilität in m2 N-1 [ms-1]
in Luft c = (331,6 + 0,6 t/°C) [ms-1]
t = Temperatur in °C
in Gasen c = C RT [ms-1]
R = Gaskonstante in J kg-1 K-1 T = absolute Temperatur in K
Quellen: Reuter (2006) sowie Schmidt u. Lang (2007)
B
984
VII
Anhang B · Organprofile und Tabellen
a
b ⊡ Abb. B4a,b. Schematische Darstellung des Ohres. a Längsschnitt durch den äußeren Gehörgang, räumliches Schema von Mittelohr und Cochlea. b Schema von Mittelohr und Cochlea. (Aus Schmidt u. Lang 2007)
985 Sinnesorgane Auge und Ohr
⊡ Abb. B5. Isophone, Hörfläche und Hauptsprachbereiche. (Aus Schmidt u. Lang 2007)
Literatur Anästhesie zwischen gestern und morgen (1994) Abbott, Wiesbaden Auerswald W (1979) Ganong. Lehrbuch der medizinischen Physiologie, 4. Aufl. Springer, Berlin Heidelberg New York Augustin JA (2007) Augenheilkunde, 3. Aufl. Springer, Berlin Heidelberg New York Tokyo Brandis HJ von (1975) Anatomie und Physiologie für Schwestern und ärztliche Mitarbeiter. G. Fischer, Stuttgart Bulletin Europen de Physiopathologie Respiratoire (1983) Suppl 5, Vol 19. Pergamon, Oxford Deutsche Liga zur Bekämpfung des hohen Blutdrucks e.V. (1989) Empfehlungen zur Blutdruckmessung. Heidelberg Harten U (2007) Physik für Mediziner. Springer, Berlin Heidelberg New York Tokyo MedTimer 1994 (1994) Bonner Medizin-Verlag, St. Augustin Quanjer PH et al. (1993) Lung volumes and forced ventilatory flows. Rep Working Party of Standardization of Lung Function Tests. Eur Comm Steel and Cool. Official Statement of the European Respiratory Society. Eur Respir J 6 Suppl 5–40 Reuter P (2006) Springer Lexikon Medizin. Springer, Berlin Heidelberg New York Tokyo Schmidt G-W (1981) Leitfaden der Säuglings- und Kinderheilkunde, Bd 12, 5. Aufl. Medizin von heute, Tropon Köln Schmidt RF, Lang F (2007) Physiologie des Menschen, 30. Aufl. Springer, Berlin Heidelberg New York Tokyo Schmidt R, Thews G (1993) Physiologie des Menschen, 25. Aufl. Springer, Berlin Heidelberg New York Tokyo Schönweiß G (1992) Dialysefibel. perimed-spitta, Erlangen Silbernagl S, Despopoulos A (1991) Taschenatlas der Physiologie, 4. Aufl. Thieme, Stuttgart Tammeling GJ, Quanjer PH (1980) Physiologie der Atmung I. K. Thomae, Biberach a.d.R. Thomas J (1996) Probleme der Beatmung auf Intensivstationen. pmi, Frankfurt Thomas L (1992) Labor und Diagnose, 4. Aufl. Medizinische Verlagsgesellschaft, Marburg
B
C Anhang C Größen und Einheiten
⊡ Tab.C1. Bezeichnung von dezimalen Vielfachen oder Teilen mit Vorsatzzeichen (Beispiel: 1 Gbyte = 109 = 1 000 000 000 Byte) Zehnerpotenz
Abkürzung
1 000 000 000 000 000 000
= 1018 (Trillion)
E (Exa-)
1 000 000 000 000 000
= 1015 (Billiarde)
P (Peta-)
1 000 000 000 000
= 1012 (Billion)
T (Tera-)
1 000 000 000
= 109 (Milliarde)
G (Giga-)
1 000 000
= 10
6
103
(Million)
M (Mega-)
(Tausend)
k (Kilo-)
1 000
=
100
= 102 (Hundert)
h (Hekto-)
10
= 101 (Zehn)
da (Deka-)
1
= 100
0,1
= 10-1 (Zehntel)
d (dezi-)
0,01
= 10-2 (Hundertstel)
c (centi-)
0,001
= 10-3 (Tausendstel)
m (milli-)
=
10-6
(Millionstel)
μ (mikro-)
0,000 000 001
=
10-9
(Milliardstel)
n (nano-)
0,000 000 000 001
= 10-12 (Billionstel)
p (pico-)
0,000 000 000 000 001
= 10-15 (Billiardstel)
f (femto-)
0,000 001
0,000 000 000 000 000 001
=
10-18
(Trillionstel)
a (atto-)
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2, © Springer-Verlag Berlin Heidelberg 2011
988
Anhang C · Größen und Einheiten
Système International d‘Unités (SI) (s. auch ISO 31 und 1000 sowie DIN 1301) ⊡ Tab. C2. Physikalische Basisgrößen und Basiseinheiten SI-Grundeinheiten
Abgeleitete SI-Einheiten mit eigenem Namen
VII
Größe
Einheit
Einheitssymbol
Ableitung
Länge
Meter
m
Masse
Kilogramm
kg
Zeit
Sekunde
s
Elektrische Stromstärke
Ampere
A
Thermodynamische Temperatur
Kelvin
K
Lichtstärke
Candela
cd
Stoffmenge
Mol
mol
Geschwindigkeit
Meter pro Sekunde
m/s
Rauminhalt
Kubikmeter
m3
Oberfläche
Quadratmeter
m2
Beschleunigung
Meter pro Sekunde 2
m/s2
Volumetrische Masse
Kilogramm pro Kubikmeter
kg/m3
Massenkonzentration
Kilogramm pro Kubikmeter
kg/m3
Molare Konzentration
Mol pro Kubikmeter
mol/m3
Frequenz
Hertz
Hz
1/s
Kraft
Newton
N
m kg/s2
Druck
Pascal
Pa
n/m2
Energie, Arbeit, Wärmemenge
Joule
J
Nm
Leistung
Watt
W
J/s
Elektrische Ladung
Coulomb
C
As
Elektrische Spannung
Volt
V
W/A
Elektrische Kapazität
Farad
F
C/V
Elektrischer Widerstand
Ohm
Ù
V/A
Volumen
Liter
l
dm3 = 10-3
Magnetische Flussdichte
Tesla
T
Vs/m2
Magnetischer Fluss
Weber
Wb
Vs
Energiedosis (Dosimetrie)
Gray
Gy
J/kg
Äquivalentdosis (Strahlenschutz)
Sievert
Sv
J/kg
Aktivität von radioaktiven Stoffen
Bequerel
Bq
s-1
Leitwert
Siemens
S
A/V
Induktivität
Henry
H
Wb/A
Lichtstrom
Lumen
lm
cd sr
Beleuchtungsstärke
Lux
lx
Lm/m2
C
989 Umrechnungen von Einheiten
Umrechnungen von Einheiten ▬ Zeit 1 Stunde [h]
= 60 Minuten [min]
= 3600 Sekunden [s]
1 Tag [d]
= 24 h
= 1440 min
1 Jahr [a]
= 8760 h
= 86400 s
▬ Elektrizität
1 kp/cm2
= 0,981 bar
= 736 Torr
= 736 mmHg
1 atm
= 760 Torr
= 760 mmHg
= 1013 mbar
1 mmH2O
= 9,8 Pa
1 cmH2O
= 98,1 Pa
= 0,981 mbar
1 mmHg
= 1 Torr
= 133,3 Pa
1 dyn/ cm2
= 0,1 Pa
= 0,1333 kPa
▬ Kraft
Elektrische Arbeit [Ws]
= Joule [J]
1 Newton [N]
= 0,102 Kilopond [kp] = 105 dyn
Elektrische Leistung [VA]
= Watt [W] = Watt × 3600 s = Wattstunde [Wh]
1 kp
= 9,80665 N
▬ Energie, Arbeit, Wärmemenge
▬ Temperatur
1 Joule [J]
= 1 Newtonmeter [Nm] = 1 Wattsekunde [Ws]
= Plusgrade (1, 2, 3...°C)
1 Kilokalorie [kcal]
= 4,19 Kilojoule [kJ]
< 273,15 K
= Minusgrade (–1, –2, –3...°C)
1 kWh
= 3,6 × 106 J
°Fahrenheit [F]
= (°C × 1,8) + 32
°C
= (°F – 32) × 0,555
273,15 Kelvin [K]
= 0° Celsius [C]
> 273,15 K
▬ Arzneiflüssigkeitsmaße
▬ Druck 1 Pascal [Pa]
= 1 N/m2
105 Pa
= 10 N/cm2
1 mbar
= 100 Pa
= 1 bar
1 Wasserglas
= 170 – 220 cm3
1 Tasse
= 150 cm3
1 Esslöffel
= 15 cm3
1 Dessertlöffel
= 10 cm3
1 Teelöffel
= 5 cm3.
⊡ Tab. C3. Frequenz- und Signalspannungsbereich unterschiedlicher bioelektrischer Signale Bioelektrisches Signal
Abbreviatur
Unterer Frequenzbereich (fu) [Hz]
Oberer Frequenzbereich (fo) [Hz] 4
Signalspannungsbereich (U) [mV]
Ableitung, intrazelluläre
Abl.iz
0
10
Aktionsspannung
AP oder E
–
(5 × 104)
–
Elektroencephalographie
EEG
1
70
0,005...0,1
Elektrodermographie
EDG
0
1
0,1...5
Elektrogastrographie
EGG
0,02
0,2
0,2...1
Elektrohysterographie
EHG
0
200
0,1...8
Elektrokardiographie
EKG
0,2
200
0,1...3
Elektrokortikographie
ECG
10
100
0,015...0,3
Elektromyographie a. Oberflächenelektrode b. Tiefenelektrode
EMG 10 10
103 104
0,1...5 0,05...5
Elektroretinographie
ERG
0,1
100
0,02...0,3
Energie bioelektrischer Signale: 3 × 10-12.... 7 × 10-15 Ws [modifiziert nach Eichmeier J (1997) Medizinische Elektronik, 3. Aufl. Springer, Berlin Heidelberg New York]
50...130
990
Anhang C · Größen und Einheiten
Konzentration Molarität [mol/l]
Stoffmengenkonzentration [mol] pro Liter Lösung (Volumeneinheit)
Molalität [mol/kg]
Stoffmengenkonzentration [mol] pro kg Lösung (Masseneinheit)
osmol
Maßeinheit für osmotisch wirksame Ionen und undissoziierte Moleküle einer Substanz in wässriger Lösung 1 osmol = 103 mosmol
Osmolarität
Stoffmengenkonzentration [mol] aller in einem Liter Lösung osmotisch wirksamen Moleküle
Osmolalität
Stoffmengenkonzentration [mol] aller in einem kg Lösungsmittel osmotisch wirksamen Moleküle
Normalität
Äquivalentgewicht in g pro Liter Lösung (Normallösung: val/103 ml)
⊡ Tab. C4. Molekulargewichte
VII
mol
mmol
mol
1,00
103
10
10
mmol
10-3
1,00
103
106
109
μmol
10-6
10-6
1,00
103
106
nmol
10-9
10-9
10-3
1,00
103
pmol
10-12
10-12
10-6
10-3
1,00
6
Mol = Molekulargewicht (Atomgewicht) [g]. Val = Molekulargewicht (Atomgewicht) [g] durch die Wertigkeit. ⊡ Tab. C5. Äquivalentgewichte val
mol
mval
val
3
val
1,00
10
106
mval
10-3
1,00
103
μval
10-6
10-3
1,00
Umrechnungen ⊡ Tab. C6. Umrechnung (MG Molekulargewicht; Wertigkeit=Ionenwertigkeit) Gesucht
Gegeben
Umrechnung
g
mol
g = mol × MG
g
val
g = (val × MG)/Wertigkeit
mol
g
mol = g/MG
mol
val
mol = val/Wertigkeit
mmol/l
mg/100 ml
mmol/l = (10 mg/100 ml)/MG
mmol/l
g/100 ml
mmol/l = (104 × g/100 ml)/MG
val
g
val = (g × Wertigkeit)/MG
val
mol
val = mol × Wertigkeit
mval/l
mg/100 ml
mval/l = mg/100 ml × 10 (Wertigkeit/MG)
mg/100 ml
mval/l
mg/100ml = (mval/l × MG)/ (10 × Wertigkeit)
nmol 9
pmol 1012
D Anhang D Abkürzungen, Zeichen und Symbole
(Anmerkung: Größen und Kurzbezeichnungen sowie medizinisch gebräuchliche Abkürzungen werden im Text selbst erläutert. Siehe auch Anhang B–E.)
DMP
Disease Management Program
DRG
Diagnosis Related Groups
a
annum (Jahr)
EG
Europäische Gemeinschaft
Abb.
Abbildung(en)
Einheitenz.
Einheitenzeichen
Abschn.
Abschnitt
einschl.
einschließlich
allg.
allgemein
elektr.
elektrisch
Anm.
Anmerkung
elektron.
elektronisch
bes.
besonders
EN
Europäische Norm
Bez.
Bezeichnung
engl.
englisch
BMTE
Betrieblich-Medizinisch-Technischen Einrichtungsplanung
entsp.
entsprechend(e,er,es)
etc.
et cetera
bspw.
beispielsweise
EU
Europäische Union
bzw.
beziehungsweise
evtl.
eventuell
ca.
zirka, circa, ungefähr
EWG
Europäische Wirtschaftsgemeinschaft
CE
Conformity European
Formelz.
Formelzeichen
Chem.
Chemie
fr.
französisch
chem.
chemisch(e,er,es)
ggf.
gegebenenfalls
Chir.
Chirurgie, Chirurg
griech.
griechisch
d
dies (Tag)
H
hora (Stunde(n))
d. h.
das heisst
HF
Hochfrequenz, Herzfrequenz
Def.
Definition
HNO
Hals-Nasen-Ohren
DIN ▼
Deutsches Institut für Normung (DIN-Norm)
HOAI ▼
Honorar Ordnung für Architekten und Ingenieure
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2, © Springer-Verlag Berlin Heidelberg 2011
992
VII
Anhang D · Abkürzungen, Zeichen und Symbole
HWZ
Halbwertzeit
QS
Qualitätssicherung
Hyg.
Hygiene, Hygieniker
qual.
qualitativ
i. Allg.
im Allgemeinen
quant.
quantitativ
i. d. R.
in der Regel
Radiol.
Radiologie, Radiologe
i. e. S.
im engeren Sinne
rd.
rund
i. S. v.
im Sinne von
rel.
relativ
i. v.
intravenös
RKI
Robert-Koch-Institut
i. w. S.
im weiteren Sinne
s
Sekunde(n)
IGel.
Individuelle Gesundheits- und SelbstzahlerLeistung
s.
siehe
S.
Seite
Ind.
Indikation
s. a.
siehe auch
Ing.
Ingenieur
s. S.
siehe Seite
inkl.
inklusive
sog.
so genannt
ISO
International Standardizing Organization
spezf.
spezifisch(e,er,es)
IV
Integrierte Versorgung
STK
Sicherheitstechnische Kontrolle
klin.
klinisch(e,er,es)
subj.
subjektiv
lat.
lateinisch
syn.
synonym
lfd.
laufend(e)
TQM
Total Quality Management
lt.
laut
U
Umdrehungen
LV
Leistungsverzeichnis
u.
und
Math.
Mathematiker
u. a.
und andere(r,s)
math.
mathematisch(e,er,es)
u. Ä.
und Ähnliche(s)
Med.
Medizin(er)
u. a. m.
und anderes mehr
min
Minute(n)
u. U.
unter Umständen
Mio.
Million
urspr.
ursprünglich
MPG
Medizinproduktegesetz
usw.
und so weiter
Mrd.
Milliarde
VDE
Verein Deutscher Elektrotechniker
MTK
Messtechnische Kontrolle
v. a.
vor allem
MVZ
Medizinisches Versorgungszentrum
veralt.
veraltet
neg.
negativ
vgl.
vergleiche
Nr.
Nummer
VOB
Vergabeordnung Bauleistung
o.a.
oder andere(s)
VOL
Vergabeordnung Leistung
o.ä.
oder ähnliche(s)
z. B.
zum Beispiel
obj.
objektiv
z. T.
zum Teil
OZ
Ordnungszahl
z. Zt.
zur Zeit
Phys.
Physiker
physikal.
physikalisch
pos.
positiv
PPP ▼
Public Private Partnership
993 Griechisches Alphabet
Griechisches Alphabet
D
E Anhang E Periodensystem der Elemente Aus: Springer Wörterbuch Technische Medizin (R. Kramme)
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2, © Springer-Verlag Berlin Heidelberg 2011
F Anhang F Radionuklide (Auswahl) und dosimetrische Grundgrößen
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2, © Springer-Verlag Berlin Heidelberg 2011
998
Anhang F · Radionuklide (Auswahl) und dosimetrische Grundgrößen
⊡ Tab. F1. Dosimetrische Grundgrößen Grundgröße
Symbol
Herleitung
SI-Einheit
Lokal übertragene Energie (energy imparted)
∈
Rin – Rout + ΣQ
J
Ⴠ
Lineale Energie (lineal energy)
y
∈1/l
J m-1
Ⴠ
Spezifische Energie (specific energy)
z
∈/m
J kg-1 = Gy
Ⴠ
Energiedosis (absorbed dose)
D
dW/dm
J kg-1 = Gy
–
. D
dD/dt
J kg-1 s-1 = Gy
–
K
dEtr/dm
J kg-1 = Gy
–
. K
dK/dt
J kg-1 s-1 = Gy s-1
–
Ionendosis (specific ionization)
J
dQ/dm
C kg-1 = R
–
Ionendosisleistung (ion dose rate)
j
dJ/dt
A kg-1
–
Exposure (exposure)
X
dQ/dm
C kg-1
–
Äquivalentdosis (dose equivalent)
H
q.D
J kg-1 = Sv
–
. H
dH/dt
Sv s-1
–
Energiedosisleistung (absorbed dose rate) Kerma (kerma) Kermaleistung (kerma rate)
VII
Äquivalentdosisleistung (equivalent dose rate)
⊡ Tab. F2. Umrechnungen in der Strahlentherapie und im Strahlenschutz Curie (Ci) in Bequerel (Bq)
1 Ci = 3,7 x 1010s-1 = 37 GBq 1 Bq ≈ 27 pCi
Rad (rd) in Gray (Gy)
1 rd/h ≈ 2,78 μW kg-1 = 2,78 μGy s-1 1 rd/min ≈ 0,167 mW kg-1 = =,167 mGy s-1 1 rd/s ≈ 10 mW kg-1 = 10 mGy s-1
Rem (rem) in Sievert (Sv)
1 rem = 0,01 Sv
Röntgen (R) in Coulomb pro Kilogramm (C/kg)
1 R = 0,258 mC kg-1 1 mC kg-1 ≈ 3,876 R
Röntgen (R) in Ampere pro Kilogramm (A/kg)
1 R/h ≈ 71,7 nA kg-1 1 R/min ≈ 4,3 μA kg-1 1 R/s ≈ 0,258 mA kg-1
stochastisch
G Anhang G Elektromagnetisches Spektrum
Wellenlänge 10 6
10 4
10 2
10 0
10 -2
10 -4
10 -6
10 -8
10 -10
10 -12
10 -14
10 -16
Niederfrequenz
Hochfrequenz
elektrotechnisch erzeugte Wellen Mikrowellen
Sichtbares Licht
λ [m] γ-Spektrum Röntgenspektrum Kosmisches Spektrum
Ultrarot- UltraviolettSpektrum Spektrum
Temperaturstrahl nicht ionisierende Strahlung
ionisierende Strahlung
3 ·10 2 3 ·10 4 3 ·10 6 3 ·10 8 3 ·10 10 3 ·10 12 3 ·10 14
3 ·10 16 3 ·10 18 3 ·10 20 3 ·10 22 3 ·10 24
Frequenz
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2, © Springer-Verlag Berlin Heidelberg 2011
ν [Hz]
H Anhang H Historische Meilensteine in der Technischen Medizin
Erweitert und modifiziert aus Springer Wörterbuch, Technische Medizin, Hrsg. R. Kramme, 2004. Die hier tabellarisch zusammengefassten Zeitzeugnisse stellen einen Abriss in der technischen Entwicklung der Technischen Medizin dar. Deshalb wird auch kein Anspruch auf Vollständigkeit erhoben. Weiterhin ist anzumerken, dass teilweise unterschiedliche Zeitangaben veröffentlicht wurden, die allerdings nur geringfügig differieren. ~2800 v. Chr. Im ältesten bekannten Chirurgiebuch »Papyrus Edwin Smith« wird der Beginn der Hitzechirurgie dokumentiert. ~2500 v. Chr. In der fernöstlichen Medizin wird die Akupunkturnadel verwendet. ~500-440 v. Chr. L. VON MILET und sein Schüler D. VON ABDERA, 460-370 v. Chr., sind die ersten, deren Überlegungen zu Atomen (gr. atmomosi unteilbar) überliefert sind. ~460-377 v. Chr. Beschreibung verschiedener Pulsqualitäten von H. VON KOS, dem Begründer der abendländischen wissenschaftlichen Medizin. Als bedeutender Arzt seiner Zeit nutzt er bereits ein »Proktoskop« zur Darminspektion, setzt zur Öffnung suprapubischer Abszesse einen sog. Feuerbohrer (glühenden Holzstab) ein und erwähnt bereits die Inhalationsnarkose. 200 v. Chr. Berichte, die den Einsatz sog. »Brutkästen« (Anm.: Inkubatoren) belegen. 200-130 v. Chr. Bereits im Altertum war die schmerzlindernde Wirkung elektrischer Reize bekannt. GALEN empfahl hierfür die Verwendung von Zitterrochen (50-80 Volt und ~200 Hz).
~63 Bereits im Imperium Romanum wurden, wie v. Chr. archäologische Ausgrabungen im verschütteten Pompeji belegen, differenzierte Instrumente und Geräte für chirurgische Eingriffe verwendet. 1285 Erfindung der ersten Niet-Brille durch S. DEGLI ARMATI: Verbindung zweier Eingläser an den Stielenden durch einen Niet. 1363 G. DE CHAULIAC verwendet für die Ohrenuntersuchung ein Spekulum. 1530 P. A. T. PARACELSUS beatmet erstmals eine Patientin mit einem Blasebalg. 1543 A. VESALIUS berichtet über endotracheale Intubation bei Tieren. 1544 G. GUIDI empfiehlt die Einlage eines goldenen oder silbernen Röhrchens in die Luftröhre nach Durchführung der Tracheotomie. 1550 Einsatz von Masken zur Korrektur des Schielens. 1565 PETRONIUS behandelt eine angeborene Gaumenspalte mit einer Goldplatte. 1590 Die Gebrüder JANSEN erfinden das Mikroskop. Erste (Lupen)Mikroskope werden in den Niederlanden gefertigt. 1595 »Gichtstuhl« von Philipp II von Spanien. Vorläufer des Rollstuhls. 1596 Das erste Gerät zur Temperaturmessung (sog. Thermoskop) wird GALILEO GALILEI, 1564-1642, zugeschrieben. 1600 Modifikation der bis dahin verwendeten geraden Trachealkanüle in eine gekrümmte durch J. CASSERIO. 1625 SANTARIO erfindet das Fieberthermometer. 1628 Beobachtung und Erstbeschreibung der Blutzirkulation im menschlichen Organismus durch
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2, © Springer-Verlag Berlin Heidelberg 2011
W. HARVEY.
1002
Anhang H · Historische Meilensteine in der Technischen Medizin
1633 Erste mikroskopische Beschreibungen von A.
VAN
LEEUWENHOEK.
VII
Erste Venendruckmessung. 1650 S. FARFFLER entwickelt den ersten mit eigener Muskelkraft angetriebenen Rollstuhl (drei- und vierrädrige Version). 1656 Erste Infusionsversuche an Tieren durch WREN. 1666 Erste Transfusion am Tier durch R. LOWER. 1711 Entwicklung der noch heute gebräuchlichen Stimmgabel von J. SHORE zur Hörprüfung. 1715 G. D. FAHRENHEIT, Phys., 1686-1736, stellt Quecksilberthermometer her. 1716 Nasenspekulum in Form einer dilatierenden Klammer von P. DIONIS. 1729 Erstes Photometer von P. BOUGUER. 1733 HALE führt bei einem Pferd die direkte Blutdruckmessung in der Arteria carotis mit einem Glasrohr durch. 1741 CHR. G. KRATZENSTEIN, Med., 1726-1790, nutzt zur medizinischen Therapie erstmals eine »Elektrisiermaschine«. Seine Erkenntnisse veröffentlichte er 1795 in dem Buch »Abhandlungen von den Nutzen der Elektrizität in der Arzneiwissenschaft«. 1742 A. CELSIUS, Astronom, 1701-1744, schlägt vor, die (nach ihm benannte) Temperaturskala auf einem Quecksilberthermometer unter einem bestimmten Luftdruck (760mm Quecksilber) in hundert Teile zu teilen, wobei der Siedepunkt als 0 und der Gefrierpunkt als 100 bezeichnet werden sollte. Diese Definition ermöglichte allein schon durch die Festlegung der Messbedingungen eine genauere Temperaturmessung im Vergleich zur bisherigen Praxis, der Methode nach G. D. FAHRENHEIT. 1748 Das Phänomen der Diffusion beobachtet A. NOLLET, Phys., 1700-1770, erstmalig, als er sich mit Untersuchungen über das »Sieden von Flüssigkeiten« beschäftigt. 1754 J. B. VAN HELMONT, Med. und Chem., 1577-1644, entdeckt das Kohlendioxid. 1761 L. AUENBRUGGER beschreibt erstmals die Perkussion. J. FOTHERGILL benutzt einen Blasebalg in Kombination mit einem biegsamen Metallrohr, das er in die Trachea zur Atemgasversorgung einführt. 1772 J.-J. PERRET beschreibt ein Nasenspekulum, welches auch als Ohrenspekulum verwendet werden kann. Synthese des Lachgases durch J. PRIESTLEY, Chem., 1733-1804. 1774 J. PRIESTLEY und C. W. SCHEELE entdecken den Sauerstoff. 1779 J. INGENHOUSZ, Med., 1730-1799, entdeckt das Ethylen. 1780 ADAMS bringt die starre Lorgnette auf den Markt. 1788 C. KITE, Med., 1768-1811, entwickelt eine flexible Trachealtube. In »Essay on the Recovery of the Apparently Dead« beschreibt er bereits eine spezi-
1795
1797 1805
1812
1816 1818
1819 1822 1827 1828 1829
1830
1831 1832 1835
elle Elektrisiermaschine für Reanimationszwecke (Anm.: erste Beschreibung eines Defibrillators!). P. BOZZINI beschreibt einen Beleuchtungsapparat, mit dessen Hilfe Körperhöhlen beim Menschen einzusehen sind. Konstruktion eines Gasinhalators durch J. WATTS. G. B. VENTURI, Phys., 1746-1822, beschreibt das Venturi-Rohr. Erstes Instrument (Lichtquelle, bestehend aus einer Kerze, deren Licht durch mehrere Spiegel reflektiert wird) von P. BOZZINI, um in die Blase und das Rektum hineinschauen zu können. N. W. FISCHER, Arzt und Chem., 1782-1850, wird auf die Membrandiffusion aufmerksam. Er erkennt als Erster den Einfluss, den die Beschaffenheit der Membran, die chemische Affinität und die Konzentration der Lösung auf die Hydrodiffusion ausübt. T.-R.-H. LAENNEC, Med., 1781-1826, konstruiert ein Stethoskop, das nur für ein Ohr konzipiert ist. J. von Berzelius publiziert die erste Tablette mit den Molekülmassen von mehr als 2000 Verbindungen. LEPAGE erfindet die Gelenklorgnette. M. FARADAY beschreibt erstmals die betäubende Wirkung von Äther. PURKINE stellt erste Vorschläge zum Spaltlampenprinzip vor. Erste Fotografie von C. F. A. NIEPCE. R. BROWN entdeckt die Molekularbewegung. Einführung des Quecksilber-Manometers von POISEUILLE in die Blutdruckmessung. Wissenschaftliche Arbeit von LEVERT über die Verträglichkeit von Metallen im Körper. Die Arbeit zeigt bereits, dass Platin die wenigsten Irritationen verursacht. Die Toxizität von Blei wird nachgewiesen. Glottiskop (»kleiner Glasspiegel an langem Stiel«) von B. BABINGTON. J. PLATEAU beschreibt Untersuchungen des Kehlkopfes und der Stimme, die später zur Entdeckung des stroboskopischen Prinzips führen. Achromatische Mikroskope werden allgemein gebräuchlich. B. HEINE konstruiert das Osteotom (Kettensäge), mit der der Knochen in jeder beliebigen Richtung unter Schutz der Weichteile durchtrennt werden kann. J. VON LIEBIG, S. GUTHRIE und E. SOUBERAIN entdecken das Chloroform. Erste Sondierung des linken Herzventrikels mit einem elastischen Katheter über die Arteria brachialis. J. G. VON RÜHL erfindet die nach ihm benannte »Rühlsche Wiege« (Vorläufer des Inkubators). Beschreibung der physikal. und chem. Eigenschaften des Chloroforms durch J. B. DUMAS, Chem., 1800-1884.
1003 Anhang H · Historische Meilensteine in der Technischen Medizin
1840 CARNOCHAN pflanzt ein Stück Holz in ein menschliches Kiefergelenk ein. 1841 Einen perforierten Hohlspiegel zur parallaxfreien Beleuchtung erfindet F. HOFMANN. 1842 J. C. DOPPLER, Med. und Math., 1803-1853, untersucht die Frequenzänderung von Schall- und Lichtwellen. Er entdeckt den nach ihm benannten Doppler-Effekt. C. W. LONG, Med., 1815-1878, betäubt seine Patienten mit Ätherdämpfen und führt weitere Narkoseversuche durch, die er jedoch erst später publiziert. 1844 Herzkatheterisierung von BERNARD und MAGENDIE bei Tieren zur Bestimmung der Bluttemperatur im rechten und linken Herzventrikel. Der Begriff »Herzkatheteruntersuchung« wird eingeführt. H. WELLS setzt erstmals Lachgas bei einer Zahnextraktion ein. 1845 Nachweis des Doppler-Effekts durch C. BUYS-BALLOT. 1846 Erstes Inhalationsnarkosegerät, das aus einem kugelförmigen Verdampfer-Gefäß mit einem Schwamm besteht, wird von W. T. GREEN MORTON entwickelt. Erste erfolgreiche öffentliche Äthernarkose. 1847 Entwicklung eines Kymographen von C. F. LUDWIG zur Registrierung des arteriellen Drucks. 1848 M. GARCIA, Entdecker des Kehlkopfspiegels, demonstriert seine Methode in London. 1850 H. VON HELMHOLTZ erfindet das Ophthalmoskop (Augenspiegel). STEINHEIL ET AL verwenden erstmalig elektrischen Strom zur Hitzeerzeugung und begründen die sog. Galvanokaustik. Erste graphische Dokumentation von Kammerflimmern durch C. LUDWIG. STARK schlägt eine Ruhigstellung in Gips zur Behandlung einer Ruptur des vorderen Kreuzbandes vor. 1851 A. MATHYSEN erfindet die Gipsbinde. Die Wirkung von elektrischen Impulsen auf die Muskulatur untersucht E. F. W. PFLÜGER und formuliert das polare Reizgesetz (syn. Pflügers Zuckungsgesetz, Gesetz der polaren Erregung). 1853 Subkutane Injektionsspritze und Glasspritze entwickelt C. G. PRAVAZ . Erstmals werden Nasenmasken zur Verabreichung von Lachgas verwendet. 1854 Die Entdeckung der Kolloide und der Dialyse durch T. GRAHAM. Der Terminus »Dialyse« wird erstmals durch Graham in der Literatur erwähnt »...mittels Diffusion durch eine Scheidewand von gallertartiger Substanz bewirkte Scheidung als Dialyse zu bezeichnen...«. 1855 Der Ohrenspiegel (Stirnreflektor) wird durch VON TRÖSCH eingeführt. G. CAMMANN, Med., führt das binaurale Stethoskop ein.
1857 L. TÜRCK und N. CZERMAK setzen den Kehlkopfspiegel für die indirekte Laryngoskopie ein. 1858 J. SNOW, Med., 1813-1853, entwickelt einen Apparat mit Nichtrückatmungsventil und Chloroformverdampfer zur Narkose und publiziert diesen in »On Chloroform and other Anaesthetics« (London). 1860 Entwicklung eines Trommelschreibers von MAREY zur Registrierung von Druck, Atembewegungen und Herzkontraktionen. CHAUVEAU und MAREY entwickeln einen Projektionskymographen. J. LISTER: Durchführung von Operationen mit Silberdraht zur Fixation von gebrochenen Kniescheiben. 1862 CHAUVEAU und MAREY führen Herzkatheterisierungen bei Tieren zur Druckmessung durch. A. VON GRAEFE stellt ein erstes praktisch brauchbares Tonometer vor. 1865 DESORMEAUX beschreibt erstmals ein Cystoskop. 1866 Einführung der Hitzesterilisation durch E. VON BERGMANN. STEVE erfindet das galvanische Vollbad. 1867 BRUCK entwickelt die erste interne Lichtquelle (Pla-
1868
1869
1870
1872
1873 1875 1876
tin-Elektrode) für die Endoskopie. Einführung der Antisepsis durch J. LISTER. Erste Ansätze eines Monitoring i.S. einer Langzeitbeobachtung physiologischer Parameter von C. WUNDERLICH und Einführung der objektiven Temperaturmessung. Erste endoskopische Gastroskopie durch A. KUSSMAUL. J. BEVAN entwickelt das Ösophaguskop. Damit ist erstmals eine Fremdkörper-Extraktion unter endoskopischer Kontrolle möglich. Erster Aufzeichnungsversuch eines menschlichen EKGs in London mittels eines Thomson Siphon Recorders von A. MUIRHEAD. F. TRENDELENBURG führt die erste Intubationsnarkose über eine Tracheotomie durch. E. DE ROSSI entwickelt die binokuläre Ohrmikroskopie. Prinzip der Messung des Herzzeitvolumens (HZV) beschreibt FICK (Fick’sches Gesetz). V. CZERNY und C. GUSSENBAUER setzen den ersten künstlichen Kehlkopf ein. G. LIPPMANN erfindet einen »haarfeinen« Elektrometer. Mikroskoptheorie von E. ABBE. Erste intravenöse Narkosetechnik mit Chloralhydrat, eingeführt von P. CYPRIEN ORÉ. Erste Ohrlupe von F. TRAUTMANN. CATON beschreibt Gehirnwellen bei Tieren im »British Medical Journal«. E. WOILLEZ erfindet das Differentialdruckverfahren und baut den ersten Baro-Respirator (sog. »Eiserne Lunge«), den er Spirophore nennt.
H
1004
Anhang H · Historische Meilensteine in der Technischen Medizin
1877
1878 1879
VII
1880
1881
1882
1883 1885
1886
A. G. BELL konstruiert (für seine schwerhörige Frau) ein elektrisches Hörgerät, das mit einem Telefon vergleichbar ist und einige Kilogramm wiegt. J. T. CLOVER entwickelt ein Inhalationsnarkosegerät mit Dosiermöglichkeit des zugeführten Ätherdampfes. M. NITZE entwickelt die Zystoskopie und stellt mit J. LEITER das erste Urethroskop vor. Theorie von Schallwellen und Schallausbreitung von RAYLEIGH. Beschreibung eines »Hörmessers« zur Hörprüfung von A. POLITZER, Otologe, 1835-1920. Erster externer künstlicher Kehlkopf, entwickelt von K. STOERK. Die Tonerzeugung erfolgt zuerst durch einen Blasebalg, dann durch Anschluss an eine Trachealkanüle. M. J. OERTEL, Med., 1835-1897, erfindet das Lochscheibenstroboskop zur Laryngo-Stroboskopie. Erster Einsatz eines Ambulanzfahrzeugs bei einer militärischen Auseinandersetzung zwischen der Schweiz und Frankreich. M. NITZE führt starre teleskopische Instrumente vor. J. LEITER führt zur Rhinoskopie ein Endoskop ein. Mit einem Galvanometer versuchen M. DEPRES und D‘ARSONVAL elektrische Ströme von der Körperoberfläche abzuleiten. Die Brüder J. F. und P. CURIE entdecken, dass Quarze bei Volumenveränderungen Schallwellen induzieren (piezoelektrischer Effekt). Inkubator von S. TARNIER und O. MARTIN mit Wasserreservoir und Thermosyphon. A. G. BELL entdeckt den optoakustischen Effekt. Durch die Erfindung einer Apparatur von W. VON SCHRÖDER kann Blut während der Organperfusion erstmals künstlich oxygeniert werden. F. TRENDELENBURG, Chir, 1844-1924, läßt den ersten Dampfsterilisator in der chirurgischen Klinik in Bonn aufstellen. S. J. HAYES lässt einen Apparat, der Anästhetika erzeugt und verteilt, patentieren. Wissenschaftliche Abhandlung von A. EULENBURG über hydrogalvanische Bäder. Erste erfolgreiche Gastroskopie durch MICKULICZ. M. VON FREY und M. GRUBER entwickeln den ersten Vorreiter heutiger Herz-Lungen-Maschinen. T. GLUCK trägt seine Idee über die Verpflanzung von Gelenken, gewonnen durch Amputation von frischen Leichen oder von Elfenbeingelenken, der Berliner Medizinischen Gesellschaft vor. J. O’DWYER führt den Begriff »Intubation« für ein von ihm entwickeltes Verfahren ein: Einführung einer Metallröhre bei Atemnot. Entwicklung der ersten Knochenplatte aus Stahl mit einem Nickelüberzug von H. HANSMANN.
1888 E. ABBÉ fertigt die ersten »Contactbrillen« (Kontaktlinsen). A. WALLER stellt fest, dass die elektrische Aktivität des Herzens von der Körperoberfläche abgeleitet werden kann. Mit einem Kapillar-Elektrometer gelingt es ihm als Erstem, ein menschliches »Kardiogramm« mit präkordialer Ableitung zu registrieren. Entdeckung des Photoeffektes durch H. HERTZ. Erste biphasische Defibrillation am Tierherz (45Hz Sinuskurve, Wechselstrom) durch PREVOST und BATTELLI. 1890 BECK beschreibt spontane kortikale Aktivitäten bei Tieren. C. JACOBI stellt seine Entwicklung eines Hämatisators (Blutpumpe) vor. Erste Kniegelenktotalprothese aus Elfenbein, verankert mit gipsbasiertem Zement von T. GLUCK. TESLA und D‘ARSONVAL entwickeln die Grundlagen zur Anwendung hochfrequenter elektrischer Ströme in der Chirurgie. 1891 Erste Druckmessung der zerebrospinalen Flüssigkeit von QUINKE. J.-A. D’ARSONVAL, einer der Gründer der Diathermiebehandlungen, entwickelt das erste medizinische Hochfrequenzgerät und untersucht die Wirkung unterschiedlicher Frequenzen auf den Körper. 1892 E. BLONDEL registriert mit einem Oszillographen elektrische Herzaktivitäten. C. L. SCHLEICH beschreibt die Lokalanästhesie (Infiltrationsanästhesie). 1893 W. A. LANE entwickelt Stahlschrauben und -platten für die Knochenbruchbehandlung. Erste Phonokardiogramme werden von K. HUERTHLE aufgenommen. STEWART versucht durch Indikatoren Herzminutenvolumen und Kreislaufzeiten zu bestimmen. F. W. HEWITT stellt einen Narkoseapparat mit einem Gemisch aus Sauerstoff und Lachgas vor. J. E. PÉAN ersetzt eine Schulter durch eine Endoprothese aus Hartgummi und Platin. 1895 Entdeckung der Röntgenstrahlen (x-rays) durch W. C. RÖNTGEN, Phys., 1845-1923, Nobelpreis 1901. Erstes Röntgenbild von der Hand seiner Frau und Veröffentlichung »Über eine neue Art von Strahlen«. H. CHUSHING führt eine »ether chart« mit Aufzeichnungen der Atem- und Pulsfrequenz als erstes Narkoseprotokoll ein. H. KELLY, Chir., 1858-1943, entwickelt das Rektoskop. BRAUN entwickelt die Braunsche Röhre (Kathodenstrahloszillograph). A. EULENBURG beschreibt als Erster das Kollodium, das erste Membranmaterial für die Hämodialyse.
1005 Anhang H · Historische Meilensteine in der Technischen Medizin
1896 Über Strahlenschäden der Haut mit Haarausfall und Hautveränderungen berichtet erstmals LEPPIN. Einführung der indirekten Blutdruckmessung über eine aufblasbare Manschette und ein Sphygmomanometer durch S. RIVA ROCCI. Erste Gefäßdarstellung (Arteriographie) an Leichenhänden durch E. VON HASCHEK und O.T. LINDENTHAL.
Erste Röntgenaufnahme eines Schädels. J. MACINTYRE führt den ersten röntgenkinematographischen Film vor. A. H. BECQUEREL, Phys.,1852-1908, Nobelpreis 1903, entdeckt die natürliche Radioaktivität des Urans. Y. B. PERRIN entwickelt das erste Dosimeter. C. H. F. MÜLLER entwickelt die Röntgenröhre. L. FREUND bestrahlt erstmals einen behaarten Neavus. J. MACINTYRE und F. H. WILLIAMS stellen die erste Thoraxaufnahme vor. Entwicklung des hydrogalvanischen Bades (hydroelektrisches Voll- oder Dreiviertelbad) durch J. J. STANGER.
1897 Mit einem Saitengalvanometer (Galvanometer mit im Magnetfeld bewegter Kohle) untersucht C. ADLER die elektrischen Aktivitäten des Herzens. Erste Entfernung eines Bronchialfremdkörpers mit starrem, beleuchteten Rohr durch KILLIAN. 1898 J. BOAS und M. LEVY-DORN: Einführung von Wismutsalzen als Kontrastmittel für die Magen-DarmDiagnostik. LANGE entwickelt die ersten flexiblen Instrumente für die Endoskopie. Die Elemente Polonium und Radium werden von M. und P. CURIE entdeckt. SIR E. RUTHERFORD, Phys., 1871-1937, Nobelpreis 1908, entdeckt die Alpha- und Beta-Strahlung. Beschreibung von Hautverbrennungen und Epilation nach Einwirkung von Röntgenstrahlen. 1899 Konzept der Defibrillation von PREVOST und BATELLI und erste dokumentierte Terminierung von Kammerflimmern mit Strom. Das Mikroskop wird erstmals am menschlichen Körper genutzt. Ein Gerät mit dosierter Gaszufuhr zur Narkose stellt S. STOCKTON WHITE, Zahnarzt, vor. 1900 Hörrohre, -schläuche und -spazierstöcke aus verschiedenen Materialien werden angeboten. P. VILLARD entdeckt die Gamma-Strahlung. T. SJÖGREN und B. STENBECK geben die Heilung eines durch Röntgenstrahlen verursachten Hautkarzinoms bekannt. Erste umfassende Arbeiten zur Entzündungsbestrahlung durch T. SJÖGREN und SEDERHOLM. Fortentwicklung des hydrogalvanischen Bades durch H. STANGER zum sog. Stangerbad.
1901 Die Wallersche präkordiale Ableitmethode wird von W. EINTHOVEN, Physiol., 1860-1927, Nobelpreis 1924, standardisiert. Er prägt den Begriff Elektrokardiogramm (EKG) und führt 1903 die EKG-Nomenklatur ein. Weiterhin entwickelt er ein Saitengalvanometer (300 kg schwer) mit im Magnetfeld bewegtem Quarzfaden und damit ein Instrument mit hoher Messempfindlichkeit. IGELSRUD entwickelt die elektrische Defibrillation. M. PLANCK, Phys., 1858-1947, Nobelpreis 1918, führt das nach ihm benannte Plancksche Wirkungsquantum (h = 6,62×10-34 Ws2) in die Theorie der elektromagnetischen Strahlung ein. 1902 Chromoradiometer von G. HOLZKNECHT (Farbumschlag bei Bestrahlung von Bariumtetrazyanoplatinat) zur Messung von Röntgenstrahlen. Eine diagnostische Inspektion mit starrem Endoskop wird erstmals von KELLING beschrieben. SENN und PUSEY stellen mit der Bestrahlung von Lymphknoten bei Systemerkrankungen die Tiefenwirkung von Röntgenstrahlen fest. Strahlenschutz durch Abschirmung von Röntgenstrahlen auf Empfehlung von W. ROLLINS. Erstes tragbares Hörgerät von M. R. HUTCHISON. A.G. V. HARCOURT stellt einen Chloroform-Verdampfer vor. 1903 Über unterschiedliche Strahlensensibilitäten berichten H. ERNST und A. SCHÖNBERG. Erste Unterdruckkammer von F. SAUERBRUCH, Chir., 1875-1951. Die ersten elektrischen Hörgeräte, die dem Telefon nachempfunden wurden, sind Kohlemikrofongeräte mit Batterie. HEINECKE begründet die Strahlenhämatologie. M. TSWETT entwickelt die Adsorptionschromatographie. 1904 Erste Kontrastmitteldarstellung des Magen-DarmTraktes durch H. RIEDER. PERTHES erreicht mit der Filterung eine Aufhärtung der Röntgenstrahlen für die Therapie und erste Mehrfelderbestrahlung. M. LEVY-DORN entwickelt erste Arbeiten zur Kreuzfeuerbestrahlung. 1905 Katheterisierung des rechten Vorhofs durch BLEICHRÖDER.
KOROTKOFF entdeckt die Arterientöne und -geräusche zur Bestimmung des systolischen und diastolischen Blutdrucks bei fallendem Manschettendruck (Meßort: Arteria brachialis in der Ellenbogenbeuge). Entwicklung der Zystographie und aszendierenden Pyelographie durch F. VOELCKER und A. VON LICHTENBERG.
KÖHLER entwickelt die Teleröntgenographie. J. ROBINSOHN und R. WERNDORFF entwickeln die Ar-
thrographie mit Sauerstoffinsufflation.
H
1006
Anhang H · Historische Meilensteine in der Technischen Medizin
BERGONIË und TRIBONDEAU finden das nach ihnen
1906
VII 1907
1908
1909
benannte strahlenbiologische Grundgesetz: Die Strahlensensibilität der Zelle ist von ihrer reproduktiven Aktivität und dem Grad ihrer Differenzierung abhängig. ABBÉ versucht die Behandlung des Radiumkarzinoms. KRAUSE, BACHEM und GÜNTHER nehmen die Bariumsulfatsuspension für die Magen-Darm-Diagnostik. F. DESSAUER führt erste Versuche zur Ganzkörperbestrahlung durch. Telekardiogramm von BOSSCHA. WERNER erprobt den »Bestrahlungskonzentrator« als Vorläufer der Bewegungsbestrahlung. L. DE FOREST und LIEBEN entwickeln eine Elektronenröhre mit Steuergitter. M. CREMER registriert erstmals ein Ösophagus-EKG. Lärmtrommel von R. BÁRÁNY, Chir. u. Otologe, 1876-1936, Nobelpreis 1914, zur Vertäubung eines Ohres bei Hörprüfungen. Der Clarksche Narkoseapparat mit einem Zentralventil und Gasmischung wird vorgestellt. Elektrodesikkation durch CLARK. Erster maschineller Wechseldruckventilator (Pulmotor) von DRÄGER, der mit einem aufziehbaren Grammophonmotor ausgestattet ist. Röntgendiagnostik: Verstärkerfolien werden durch GROEDEL und HORN empfohlen und eingeführt. CLUNET erkennt die krebserzeugende Wirkung von Röntgenstrahlen. Breite klinische Anwendung mit einer verbesserten Version des Saitengalvanometers (Elektrokardiograph) zur EKG-Registrierung. Erste Transplantation eines homologen, unmittelbar nach Amputation gewonnenen Kniegelenks am Menschen durch E. LEXER, 1867-1937. L. OMBREDANNE, Chir., 1871-1956, beschreibt einen Äther-Luft-Inhalator. S. LEDUC beweist die Wirksamkeit der Iontophorese, bei der mittels Gleichstrom Substanzen (z.B. Arzneimittel) von der Hautoberfläche in den Organismus eingebracht werden können. LAMBOTTE entwickelt Platten aus Al, Ag und Cu. Röntgendiagnostik: HOLZKNECHT und JONAS berichten über die klassischen Zeichen des Magenkarzinoms. Diathermiegeräte mit Löschfunkengeneratoren nach M. WIEN. PACHON entwickelt die nichtinvasive oszillometrische Messmethode zur Bestimmung des Blutdrucks. Einführung der Siebbestrahlung durch KÖHLER. W. BRÜNINGS setzt Röhren- und Kastenspatel zur direkten Laryngoskopie ein. G. KILLIAN führt die Schwebelaryngoskopie ein.
A. E. GUEDEL, Med., 1883-1956, führt intermittierende Lachgas-Verabreichung in der Geburtshilfe ein. 1910 J. H. CUNNINGHAM entwickelt die Urethrographie. JACOBAEUS führt erstmals eine diagnostische Laparoskopie durch. RINDFLEISCH stellt das Uteruskavum dar (Hysterographie). HAUDEK beschreibt die Ulkusnische. WERNER begründet mit der Anwendung des Radiums zur Tiefentherapie die Telecurietherapie. I. OTT beschreibt die laparoskopische Diagnosestellung in der Chirurgie. Erstes Narkosegerät mit intermittierendem, atemgesteuerten Lachgas-Sauerstoffzufluss und prozentualer Kontrolle beider Gase von E. I. MCKESSON, Anästhesist. Die »gesteuerte Narkose« mit Chlorethyl und Sauerstoff wird von J. A. HEIDENBRINK entwickelt. J. A. BERGONIÉ entwickelt die Methode (sog. Bergonisation) der gleichzeitigen Reizung mehrerer Muskelgruppen mit faradischem Schwellstrom. 1911 Herzkymographie von B. SABATH. SIR E. RUTHERFORD konzipiert die Existenz des Atomkerns mit Masse und Ladung. O. HERTWIG und H. HERTWIG erkennen die Prävalenz der strahleninduzierten Zellkernschädigung. A. GULLSTRAND, Nobelpreis 1911, entwickelt die Spaltlampe und stellt ein nach ihm benanntes Ophthalmoskop vor. LINDEMANN entwickelt eine Röntgenröhre mit Lithium-Borat-Glasfenster. Entdeckung der Supraleitung durch H. KAMERLINGH ONNES. 1912 M. VON LAUE weist durch Interferenzerscheinungen nach, dass Röntgenstrahlen elektromagnetische Schwingungen sind. Entwicklung einer Knochenplatte aus Vanadium, legiertem Stahl, mit hoher Festigkeit und Zähigkeit von W. O‘NEIL SHERMANN. SABAT, GÖTT und ROSENTHAL untersuchen das Herz mit dem Schlitzkymographen. Punktuell abbildende Punktal-Brillengläser und Katralgläser von A. GULLSTRAND. Erste arterielle Katheterisierung durch BLEICHRÖDER. R. WERNER beschreibt die Möglichkeit, radioaktive Substanzen in den Körper einzubringen (z.B. Kapseln, gefüllt mit radioaktivem Material), um das tumoröse Gewebe gezielt zu bestrahlen. V. CZERNY zeigt die Möglichkeit auf, die Bestrahlungstherapie mit einer Behandlung durch chemische Substanzen zu kombinieren (Radiochemotherapie). W. M. BOOTHBY und F. J. COTTON entwickeln einen Narkoseapparat mit einem Gasblasenströmungsmesser für Lachgas und Sauerstoff ein.
1007 Anhang H · Historische Meilensteine in der Technischen Medizin
1913 Entwicklung der Hochvakuumröhre mit Glühkathode durch W. D. COOLIDGE. Entwicklung der beweglichen Streustrahlenblende und Rastertechnik durch G. BUCKY. Methode der Pendelbestrahlung durch H. MEYER. CHRISTEN definiert erstmals den Begriff der Strahlendosis und unterscheidet bereits zwischen physikalischer Dosis und biologischer Wirkung. G. C. VON HEVESKY, Nobelpreis 1943, entwickelt das radioaktive Tracer-Prinzip. Entdeckung der ersten Isotope Ne-20 und Ne-22 durch J. J. THOMSON. Einführung des Begriffs Isotop von F. SODDY. N. H. D. BOHR, Phys. 1885-1962, Nobelpreis 1922, verbindet das Rutherfordsche Atommodell mit Plancks Quantentheorie. Sein quantitatives Modell bringt erstmalig Ordnung in die Vielzahl von Spektrallinien; sie sind danach die emittierten oder absorbierten Energiedifferenzen zwischen verschiedenen Elektronenbahnen in der Atomhülle. SALOMON, Chir., führt die erste Mammographie durch. R. KLOTZ wendet eine kombinierte Radiochemotherapie mit Radium, Silberlösung und Elektrokupfer an. Strobokinematographie der Stimmlippen durch J. HEGENER und G. PANCONCELLI-CALZIA. 1914 ABEL ET AL beschreiben das Prinzip des Plasmaaustauschs. E. POHL entwickelt die Vollrotationsbestrahlung. Narkoseapparat mit Flowmeter, aber ohne Reduzierventile, von R. FOREGGER. 1915 P. LANGEVIN und C. CHILOWSKY entwickeln eine erste leistungsfähige Ultraschallvorrichtung (Hydrophon), die als Grundlage für die spätere Entwicklung medizinischer Impuls-Echosonarsysteme dient. Die Kohlensäure-Absorption am Narkosegerät wird von D. E. JACKSON und R. M. WATERS eingeführt. 1916 Warm-Äther-Gerät von F. E. SHIPWAY. 1917 J. RADON schafft die mathematischen Voraussetzungen zur 3D-Bildrekonstruktion. A. EINSTEIN: Arbeiten zur Quantenmechanik der Strahlung (spontane und stimulierte Emission von Photonen in Atomen). Schafft damit die theoretischen Grundlagen des Laserprinzips. Erster Bericht über einen Ersatz des vorderen Kreuzbandes durch E. W. HEY GROVES. E. BOYLE: Erstes tragbares Lachgas-Sauerstoff Narkosegerät. 1918 JACKSON: Erste Bronchoskopie durch Einblasen von Wismutpulver in die Trachea. Erste Ventrikulographie durch Luftinsufflation (Pneumoventrikulographie) und Einführung der Pneumenzephalographie durch W. E. DANDY.
GÖTZE gibt den nach ihm benannten Strichfokus
1919
1920
1921
1922
1923
an. Die Grundlage der Ultraschalltherapie schafft P. LANGEVIN, der erstmals ein Ultraschallgerät zu kommerziellem Zweck nutzt. F. ASTON entwickelt das Massenspektrometer. SIR E. RUTHERFORD entdeckt die Kernumwandlung mit natürlichen Alpha-Strahlen. REGAUD untersucht die Bedeutung des Zeitfaktors für die Strahlentherapie. Erstes Audiometer mit Elektronenröhre (Otaudion). GUEDEL entwickelt ein Schema zur Bestimmung der Narkosetiefe. Rettungs-/Notfallmedizin: Erstmals werden Flugzeuge in den USA zur Evakuierung von verletzten Soldaten eingesetzt. Augenrefraktometer werden serienmäßig gefertigt. SIR I. MAGILL entwickelt die Magill-Zange. C. O. SIGGESSON NYLEN, Otologe, 1892-1978, setzt erstmals ein monokulares Mikroskop während einer Operation ein. ROSENSTEIN und CARELLI wenden die perirenale Gasfüllung zur Darstellung der Nieren an. E. BIRCHER publiziert die von ihm entwickelte Arthroendoskopie. BOCAGE entwickelt die Schichtuntersuchung. J. A. SICARD und J. E. FORESTIER führen die erste Phlebographie und Myelographie mit dem Jodöl Lipidol durch. DESSAUER gibt seine Treffertheorie bekannt. R. SCHINDLER konstruiert ein starres Gastroskop. G. HOLMGREN setzt ein biokulares Operationsmikroskop ein, das mit einem beweglichen Arm am Operationstisch befestigt ist. H. FISCHER und R. LESTER tragen beim Audiogramm die Frequenzen auf der Abszisse und die Intensität als Hörverlust auf der Ordinate ein. Transventrikuläre Mitralstenosensprengung durch CUTLER und LEVINE. A. H. COMPTON, Nobelpreis 1927, entdeckt die Streuabsorption der Röntgenstrahlen an Kristallen (sog. Compton-Effekt). J. BERBERICH und W. S. HIRSCH führen die erste Röntgenuntersuchung der Venen mit Strontiumbromid als Kontrastmittel am lebenden Menschen durch. G. C. VON HEVESY führt die Tracer-Technik (radioaktive Markierung) für bildgebende Untersuchungsmethoden ein. G. GANTER führt die erste klinische Peritonealdialyse in Deutschland durch. M. N. SMITH-PETERSON setzt kappenförmige Interponate aus Fremdmaterial (Glas, Bakelit, Vitallium u.a.) in versteifte oder arthritische Hüftgelenke ein. R. FOREGGER konstruiert das »Seattle-Narkosegerät«, tragbar, mit vier Gasanschlüssen (Lachgas, Ethylen,
H
1008
VII
Anhang H · Historische Meilensteine in der Technischen Medizin
Kohlendioxid, Sauerstoff) sowie einer zusätzlichen Ätherflasche. 1924 Kontrastdarstellung der Gallenblase mit Tetrajodphenolphtalein durch E. A. GRAHAM und W. H. COLE. J. GORTAN entwickelt die Hartstrahltechnik. LEITZ entwickelte ein Binokular-Instrument. H. BEHNKEN definiert das Röntgen (R) als Einheit für die Ionendosis. H. BERGER, Med., 1873-1941, Begründer des Elektroenzephalogramms (EEG), leitet erstmals von einer menschlichen Großhirnrinde elektrische Potentiale ab. G. HAAS führt erstmals eine extrakorporale Hämodialyse am Menschen durch (Dialysezeit: 15 Minuten). Entwicklung der »Luftwändekammern« zum Strahlenschutz. J. A. HEIDBRINK entwickelt das Lundy-HeidbrinkNarkosegerät mit zwei gegabelten Ausflusshähnen für jedes Gas und einem automatischen Ausschaltventil. 1925 Transatriale Mitralstenosensprengung durch SOUTTAR.
J. BERNARD entwickelt das Ultraviolettmikroskop, das eine 2500fache Vergrößerung erreicht und somit größere Viren sichtbar macht. GORTAN, WEBER und ZACHER entwickeln die Hartstrahltechnik. MUTSCHELLER legt die nach ihm benannte biologische Toleranzdosis von 0,25 R/Tag als höchstzulässige Strahlenbelastung für das Personal in der Radiologie fest. Einführung einer biologischen Messgröße zur Dosimetrie. Der Begriff HED (Hauterythemdosis) wird geprägt. Erster Internationaler Kongress der Radiologie in London. Erstes Narkosegerät mit Kohlensäure-Absorber und Kreissystem von P. SUDECK und H. SCHMIDT. A. BOUWERS entwickelt die erste strahlensichere Röntgenröhre. Nystagmusbeobachtung mit einer Leuchtbrille (Frenzel-Brille) durch H. FRENZEL, Med., 1895-1967. 1926 G. BUCKY entwickelt die Grenzstrahltherapie. 1927 »Künstlicher« Schrittmacher von HYMAN. Erste zerebrale Angiographie: E. MONIZ und A. LIMA stellen die Hirngefäße mit Kontrastmittel dar (Karotisangiographie). O. KLEINSCHMIDT entwickelt die Mammographie. Erste umfassende Kreislaufstudien von H. BLUMGART und O. C. YENS. MULLER begründet die Strahlengenetik durch Versuche an Drosophila-Fliegen. Erste biologische Anwendung von Ultraschall durch R. W. WOOD und A. L. LOOMIS.
E. W. HEY-GROVES ersetzt erstmals einen Hüftkopf. 1928 Intravenöse Urographie von L. LICHTWITZ ET AL. Z. DES PLANTES stellt erstmals die Verwischungstomographie vor. H. GEIGER und W. MÜLLER entwickeln das GeigerMüller-Zählrohr, ein Instrument zum Nachweis von Strahlung. BRULL beschreibt das Prinzip der Ultrafiltration als Mittel zur Elimination harnpflichtiger Substanzen und zum Flüssigkeitsentzug. Experimenteller Nachweis der stimulierten Emission in Gasladungen durch R. LADENBURG und H. KOPFERMANN. Erster tragbarer hochspannungssicherer Röntgenapparat von A. BOUWERS. Erstes geschlossenes Kreislaufsystem bei einem Inhalationsnarkosegerät, eingeführt von B. C. SWORD. A. ESAU entwickelt eine Schaltung zur Erzeugung von Kurzwellen, derweil E. SCHLIEPHAKE den Einsatz von Kurzwellen in der Medizin untersucht. 1929 Entwicklung eines transvenösen Herzkatheters und erste Rechtsherzkatheterisierung im Selbstversuch durch W. FORSSMANN, Chir., 1904-1979, Nobelpreis 1956. J. C. DOS SANTOS ET AL stellen die abdominale Aortographie vor. E. O. LAWRENCE, Phys., 1901-1958, Nobelpreis 1939, konzipiert für die Ionenstrahltherapie Ringbeschleuniger, mit denen sich geladene Teilchen auf die nötigen hohen Energien bringen lassen. P. DRINKER entwickelt eine »Eiserne Lunge«. EISENMEYER führt sie ein. RADON schafft die mathematischen Voraussetzungen für die spätere Computertomographie. STUMPF entwickelt die Flächenkymographie. Herstellung der Flachblende als Streustrahlenraster. BRAGG und GRAY geben unabhängig voneinander eine Gleichung an, mit der die Energieabsorption der Röntgenstrahlen in einem festen Medium bestimmt werden kann (Bragg-Gray-Prinzip). Licht-Mammographie von C. CUTLER. A. BOUWERS entwickelt die Drehanodenröhre. 1930 O. KLEIN berichtet über die erstmalige Bestimmung der arteriovenösen Sauerstoffdifferenz. Erste Anwendung des Fick’schen Prinzips zur Bestimmung des Herzminutenvolumens. Verwischungstomographie von A. VALLEBONA. ERDLE entwickelt eine CoCr-Legierung (Vitallium), erste Anwendung als Gussprothese. E. O. LAWRENCE konstruiert das erste Zyklotron (10 cm Druchmesser, ~2 kV Elektrodenspannung, Protonen mit 80.000 eV.). Prinzipbeschreibung eines Hochfrequenzlinearbeschleunigers von R. WIDERÖE, Elektroingenieur, 1902-1996.
1009 Anhang H · Historische Meilensteine in der Technischen Medizin
WARREN begründet die Mammographie. 1931 CAVALLO und MOINZ führen die erste Pulmonalisangiographie (syn. Angiokardiographie) über einen Rechtsherzkatheter durch. J. C. DOS SANTOS ET AL führen die erste Kontrastdarstellung der Beinarterien durch (Arteriographie). E. RUSKA, Nobelpreis 1986, und M. KNOLL entwickeln das Elektronenmikroskop. ARNELL und LINDSTRÖM geben die Myelographie mit dem wasserlöslichen Kontrastmittel Abrodil bekannt. 1932 Nachweis des Neutrons durch J. CHADWICK, Phys., Nobelpreis 1935. C. ANDERSON weist Positronen nach. H. CHAOUL entwickelt die Nahbestrahlungsröhre. G. WOLF entwickelt ein halbflexibles Gastroskop. LUNDY-HEIDBRINK entwickelt ein Kinetometer, das als Absorber verwendet wird. 1933 Tierexperimentelle Defibrillation durch HOOKER. Unipolare Brustwandableitungen zur EKG-Registrierung von F. N. WILSON. Pyrothermgerät zur Kurzwellenfiebertherapie (Hyperthermie). Erfindung des Bandgenerators durch R. J. VAN DE GRAAFF . 1934 Beschreibung von EEG-Veränderungen in Abhängigkeit von Narkosetiefe und äußeren Reizen durch ADRIAN und MATTHEWS. Beginn der zerebralen Serienangiographie durch CALDAS. F. JOLIOT, Phys., und I. JOLIOT CURIE, Phys. und Chem., Nobelpreis 1935, entdecken die künstliche Radioaktivität. E. FERMI stellt das Jod-128 vor. Tragbare Hörgeräte mit Vakkumröhren »in Kofferform«. Die Spulenfeldmethode der Kurzwelle wird von J. KOWARSCHIK entwickelt. 1935 Einführung optischer Methoden zur Bestimmung der Sauerstoffsättigung durch KRAMER und
W. C. CAMPBELL, 1880-1941, verwendet erstmals ei-
1937
1938
1939
1940
MATTHEWS.
Photographische Subtraktion durch Z. DES PLANTES. CONDORELLI führt die Pneumomediastinographie (Röntgendiagnostik) ein. 1936 M. DE ABREU führt die Schirmbildradiographie für Reihenuntersuchungen ein. Erstes semiflexibles Gastroskop wird von WOLF und SCHNEIDER vorgestellt. Erstes Vektorkardiogramm mit einer Kathodenstrahlröhre von F. SCHELLONG. J. H. LAWRENCE führt die erste Therapie (bei einer Leukämie) mit künstlichen, offenen Radionukliden (P-32) durch. VAN DE GRAAFF-Generator für Bestrahlungen mit 1 MeV.
1941
nen Patellarsehnenstreifen zum Ersatz des vorderen Kreuzbandes. Erste AGC-Schaltung in einem Hörgerät. J. HEGENER und G. PANCONCELLI-CALZIA setzen die Lichtblitzstroboskopie zur Kehlkopfbetrachtung ein. Über die therapeutische Anwendung von Helium in der Anästhesie berichtet A. L. BARACH. DESSAUER setzt sich für die Rotationsbestrahlung ein. W. THALHIMER entdeckt das Zellophan als semipermeable Membran. Definition der Dosis (Strahlenschutz). Erstes gefertigtes Polyophthalmoskop nach WEGENER. C. E. SHANNON, Gründer der modernen Informationstheorie, veröffentlicht eine Arbeit, wonach sich jede Information als Folge von Bits (binary digit) ausdrücken lässt. Damit entwickelte er die Fundamente der Informationsgesellschaft, von der auch die Medizin heute wesentlich profitiert. B. FANTUS baut die erste Blutbank in den USA auf. Für den totalen Hüftgelenkersatz erste Prothese nach P. WILES und Erläuterung über einen zementfreien Hüftgelenkersatz. ROBB und STEINBERG stellen nach peripherer Kontrastmittelinjektion bei einem Erwachsenen die Herzinnenräume, die Lunge und die Aorta dar. G. FRANK entwickelt ein Tomosynthese-Verfahren, bei dem Röntgenbilder aus unterschiedlichen Richtungen kombiniert werden. Erste wissenschaftliche Abhandlung mit klinischen Ergebnissen über eine Endoprothese im »Journal of Bone and Joint Surgery«. Rasterelektronenmikroskop von M. VON ARDENNE. Erste Hörtaschengeräte mit Batterien. D. W. KERST baut den ersten betriebsfähigen Kreisbeschleuniger und führt die Bezeichnung Betatron ein. HAMILTON und SOLEY messen die Radiojodspeicherung in der Schilddrüse. Einführung von Polyethylenkathetern. K. MCKEE konstruiert eine Hüfttotalprothese, bei der ein Metallkopf in eine Metallpfanne eingesetzt wird. Erstmals Teilersatz des Kniegelenks durch W. C. CAMPBELL und BOYD. Eine Interpositionsplastik des Kniegelenks aus Metall entwickelt W. C. CAMPBELL. Erstes elektronisches Reizstromgerät. COURNAND und RICHARDS beschreiben eine Technik zur rechten Herzkatheterisierung und Bestimmung des Blutvolumens, der Drucke sowie des Herzzeitvolumens (HZV) nach dem 1870 entwickelten Fick’schen-Prinzip.
H
1010
Anhang H · Historische Meilensteine in der Technischen Medizin
1942
VII
1943
1944
1945
1946
A. J. P. MARTIN und R. L. MILLINGTON SYNGE, 1952 Nobelpreis, führen die Verteilungschromatographie ein. Einen Äther-Luft-Verdampfer entwickeln SIR R. MACINTOSH und H. G. EPSTEIN. MILLIKAN führt den Begriff der Oximetrie ein und entwickelt einen Ohrsensor. Beginn der Ultraschall-Anwendung in der Medizin: Die Nutzung von Ultraschallwellen in der medizinischen Diagnostik wird erstmals von K. T. DUSSIK am Gehirn zur Darstellung der Ventrikel im Transmissionsverfahren (sog. Hyperphonographie) angewendet. HAMILTON und SOLEY behandeln Schilddrüsenerkrankungen mit Radiojod. DE TREADWELL, LOW-BEER, FRIEDELL und LAWRENCE untersuchen den Knochenstoffwechsel mit Sr-89. E. GOLDBERGER registriert ein EKG mit unipolar verstärkten (augmentierten) Extremitätenableitungen. Erste Druckkurve des rechten Herzens und des rechten Ventrikels mit einem Hamilton-Manometer durch W. FORSSMANN. A. MOORE konstruiert eine Hüftkopfprothese, die mit gefenstertem Schaft im Femorschaft zementlos fixiert wird. Erste IR-CO2 Messung und Aufzeichnung eines Kapnogramms mit einem Kapnographen durch LUFT. A. E. KORNMÜLLER führt in Göttingen und Berlin das klinische EEG ein. G. WEDDELL ET AL setzen erstmals Nadelelektroden in die Stimmlippen zur Elektromyographie in direkter Laryngoskopie ein. Erste kontinuierliche Katheterspinalanästhesie durch E. TUOHY, Med. Messung des Herzzeitvolumens durch RICHARDS. ECKERT, MANCHLY und GOLDSTINE entwickeln die elektronische Rechenmaschine. Erstes Dialysegerät mit »künstlicher Niere« (rotierende Trommelniere) und erste erfolgreiche Hämodialyse einer Patientin mit Nierenversagen durch W. KOLFF. Dieser Erfolg bedeutete den Durchbruch auf dem Gebiet der Hämodialyse. Erster Master-Slave-Teleoperator, der die Handbewegungen des Menschen (master) mechanisch auf einen stählernen Arm (slave) übertrug. W. FORSSMANN veröffentlicht die erste Druckkurve aus der Arteria pulmonalis. LENEGRE und MAURICE registrieren elektrische Potentiale aus dem rechten Vorhof. Erste unter biomechanischen Gesichtspunkten konzeptionierte Hüftprothese nach J. und R. JUDET. Das NMR-Prinzip haben unabhängig voneinander PURCELL und BLOCH, Nobelpreis 1952, entdeckt. An-
schließende Entwicklung von spektroskopischen NMR-Methoden. Erste große Publikation von LÖFFLER über Lungengefäß- und Herzhöhlendarstellung durch Kontrastmittelinjektion (Wegbereiter der selektiven Angiographie). A. TISELIUS, Chem., 1902-1971, Nobelpreis 1948, entwickelte mit der Elektrophorese die Methode zur Proteinanalyse. F. H. KRUSEN führt in den USA die Dezimeterwellentherapie ein. 1947 Defibrillation (60 Hz Wechselstrom) unter interner Herzmassage von C. BECK. N. HOLTER, Physiol., gelingt erstmals die Radiotransmission eines EEGs (sog. Biotelemetrie). Erste retroperitoneale Gasfüllung (Pneumoretroperitoneum) durch M. RUIZ RIVAS. MOORE führt die Hirnszintigraphie ein. Strahlentherapie: Erstes ferngesteuertes Gerät zum Transport von 226Ra vom Tresor zum Applikator von SIEVERT. Erstes automatisches Audiometer zur Tonschwellenmessung (sog. Békésy-Audiometrie) von G. VON BÉKÉSY, Phys., 1899-1972, Nobelpreis 1961. 1948 Transventrikuläre Sprengung der Pulmonalklappe BROCK und SELLORS. Koronardarstellung durch RADNER. Entwicklung eines Aufzeichnungssystems mit mehreren Kanälen von PENFIELD und PASK zur Kontrolle von EKG, invasivem Blutdruck und Atmung. Beginn der Anwendung von Radionukliden in der neurologischen Diagnostik. R. HOFSTADTER entwickelt den NaJ (T1) Szintillationskristall als Detektor für die Gamma-Strahlung. J. W. COLTMANN: Beginn der elektronischen Röntgenbildverstärkung. Verbesserung u.a. durch OOSTERKAMP.
Entwicklung des Transistors durch BARDEEN, BRETund SHOCKLEY. Erste Mikrowellentherapiegeräte. Bestimmung des Herzzeitvolumens über Farbstoffindikatoren durch HAMILTON. Erste nuklearmedizinische Punkt-für-Punkt-Aufnahme von G. ANSELL und J. ROTBLAT mit Loch-Kollimator von der Schilddrüse, die durch radioaktives Jodid markiert wurde. 1949 Mitralstenosensprengung durch BAILEY und HARKEN. Intraoperative, direkte Portographie nach A. DE TAIN
SOUZA PEREIRA.
Erste Einschwemmkatheteruntersuchungen durch FITPATRICK.
Erste Versuche durch G. LUDWIG und F. STRUTHERS mit der Reflexionstechnik an biologischem Gewebe und vorgestellt als das erste Impulsechoverfahren in der Medizin.
1011 Anhang H · Historische Meilensteine in der Technischen Medizin
Erstmalige Radiotransmission eines EKGs von N. HOLTER. JANKER wendet die Angiokinematographie am Menschen an. HELLEMS, HAYNES und DEXTER erkennen den Pulmo-
nalkapillardruck als indirekte Methode für den Druck des linken Vorhofs. D. E. COPELAND und E. W. BENJAMIN stellen eine »pinhole camera for gamma ray sources« vor. B. LANGENBECK entwickelt die Geräuschaudiometrie, bei der die Tonschwellenmessung mit standardisiertem Hintergrundgeräusch durchgeführt wird. Erste kontinuierliche Katheterepiduralanästhesie durch M. Curbelo. Elektrotherapie: Reizströme und Ultraschall werden von GIERLICH und JUNG simultan eingesetzt. 1950 N. ALWALL eröffnet das erste Dialysebehandlungszentrum. Einführung von Bildverstärkern (Cineangiographie). Erste funkenentstörte Kurzwellentherapiegeräte. E. HAHN entdeckt Echos, die später für die Pulssequenzen bei der MRT-Bildgebung von wesentlicher Bedeutung sind. J. LEMPERT, Med., 1891-1968, setzt eine Nadelelektrode durch das Trommelfell auf das Promontorium zur Ableitung von Cochlearpotentialen. P. D. BERNARD publiziert seine Arbeit über die Anwendung diadynamischer Ströme. Erstes Impulsechosystem als Wasserbadscanner (Vorläufer des Ultraschallgeräts) wird von D. H. HOWRY und W. R. BLISS vorgestellt. Entwicklung des ersten Transrektalscanner durch J. WILD und J. REID. 1951 Erstmals setzt MCKEE drei Patienten im Hüftgelenk eine metallene Schraubpfanne ein. Erstes, für die allgemeine Langzeitbeatmung geeignetes, volumengesteuertes Gerät von C. G. ENGSTRÖM. Beschreibung des ersten automatischen, rektilinearen Scanners für die Nuklearmedizin zeitgleich von BENEDICT CASSEN ET AL und MAYNEORD ET AL. Die geprägten Begriffe Szintigramm und Szintigraphie sind bis heute gebräuchlich. Erstes Telekobaltgerät im klinischen Einsatz (Saskatoon Cancer Center, Canada). R. R. NEWELL ET AL entwickeln einen Multi-ChannelKollimator. ABEATICI, CAMPI, LEGER und BOULVIN gelingt die Splenoportographie durch Kontrastmittelinjektion in die Milz. Indirekte Koronarangiographie durch HELMWORTH. HANS WOLTER: Entwicklung einer abbildenden Röntgenoptik.
Ersatz eines ganzen Kniegelenks durch eine Scharnierprothese aus Acryl von B. WALLDIUS. Erster Universal-Ventilator (Gasfluss bis 360 l/min: max. Pinspirat.70 cmH2O) von ENGSTRÖM. F. R. WREM, M. L. GOOD und P. HANDLER schlagen vor, Positronenstrahler zur nuklearmedizinischen Diagnostik einzusetzen. Erste Beschreibung der Low-Flow-Anästhesie durch FOLDES. Erste Aufzeichnung einer Body Surface Potential Map durch L. H. NAHUM. 1952 FACQUET: Erster Linksherzkatheter über eine transbronchiale Punktion des linken Vorhofs. Erste Lymphographie nach J. B. KINMONTH. Einführung der Bildverstärker in die Radiologie. HOPKINS entwickelt ein Stablinsensystem (sog. Hopkins-Stab-Linsen-System) für Endoskope, das die Basis für die moderne starre Endoskopie bildet. REID ET AL setzen das Echo-Schnittbildverfahren zur Darstellung von Mammatumoren ein. HOWRY und BLISS entwickeln die B-Bild Technik beim Ultraschall. N. ALWALL führt die erste Hämofiltration (im heutigen Sinne) an einem barbituratvergifteten Kaninchen durch. Die Osseointegration definiert P.-I. BRÅNEMARK . F. ROBERTSHAW führt den Doppellumentubus ein. 1953 Ball-Prothese in Aorta descendens von HUFNAGEL. S. I. SELDINGER: Modifizierung der perkutanen Arteriographie mit einer speziellen Kanüle mit angeschliffenem Mandrin und stumpfer Außenkanüle (perkutane Katheterangiographie). Erste Messungen im Durchschallverfahren von L. LECKSELL. Erstmals erfolgreicher Einsatz einer Herz-LungenMaschine am Menschen durch J. H. GIBBON. BAUER und JUHL wenden die Myeloszintigraphie an. Die Röntgendurchleuchtung wird durch die Bildverstärkerröhre wesentlich verbessert. LOCHNER und FELGER benutzen zur Bestimmung des Herzminutenvolumens erstmals Kälte als Indikator. Fixierungsmöglichkeiten der Prothesenteile durch Methylmetacrylat (Knochenzement) findet E. J. HABOUSH heraus. G. L. BROWNELL und W. H. SWEET lokalisieren einen Hirntumor mit Positronenstrahlern. J. J. WILD und J. H. REID stellen die ersten Ultraschallbilder der weiblichen Brust vor. Erstes volltransistorisches Hörgerät. 1954 Echokardiographie wird eingeführt von EDLER und HERTZ.
Erste Bestrahlung von Patienten zur Tumortherapie mit Protonen. Einsatz eines Glasfaserkabels als externer Lichtquelle bei Endoskopen durch HOPKINS.
H
1012
Anhang H · Historische Meilensteine in der Technischen Medizin
W. C. LILLEHEI führt die erste Operation mittels »cross
circulation« durch (Blutaustausch zweier Individuen, wobei der blutgruppengleiche Spender die Oxygenierung des Patientenblutes übernimmt). Hörbrillen und HdO-Hörgeräte (Hinter-dem-Ohr) werden angeboten. GORDAN entwickelt eine koordinatengesteuerte 2DSchallkopfmechanik, die eine geometriegerechte Darstellung von Organen ermöglicht. Erste Multi-Detektor-Gamma-Retina-Kamera von A. W. FUCHS ET AL. MALMSTRÖM entwickelt den Vakuumextraktor (sog.
VII
Saugglocke) zur Überwindung der Wehenschwäche. Erster MASER (LASER im Mikrowellenbereich) mit Ammoniak-Molekülen von C. H. TOWNES ET AL. P. HARRINGTON führt das Distraktions-Stab-System in die Wirbelsäulenchirurgie ein. Taschenhörgerät mit Transistor und Kristallmikrophon (von Siemens). Erstes mikrophongesteuertes Lichtblitz-Stroboskop mit Xenon-Hochdruckröhre von J. BECK ET AL. 1955 Erster vollelektronischer HF-Generator. Narkose in Oberflächen-Hypothermie durch ZINDLER. Erste Arbeiten der Ultraschall-Encephalographie am geschlossenen Schädel durch LEKSELL. 1956 CLARK veröffentlicht eine Methode der transkutanen Gewebesauerstoffmessung. Erste klinisch erfolgreiche transthorakale Defibrillation mit Wechselstrom am offenen Herzen eines Menschen durch P. M. ZOLL. OEDMAN, TILLANDER und MORINO führen selektive Angiographien durch. E. FRANK registriert erstmals ein EKG mit einem korrigierten orthogonalen Ableitungssystem. Echo-Ophthalmographie durch MUNDT, HUGHES und OKSALA. JOHNSTONE wendet erstmals Halothan in der Klinik an. 1957 BAUER und FREY stellen ein Clinimobil als fahrenden Operationswagen in den Dienst. Erstmals wird der Doppler-Effekt für die medizinische Diagnostik genutzt: SATOMURA und FRANKLIN berichten über eine Messung der Blutströmungsgeschwindigkeit. SKEGGS konzipiert den ersten Autoanalyser für Untersuchungen im klinisch-chemischen Labor. HIS-Bündel-EG wird erstmals von PUECH und LATOUR registriert. SOULIER und LEWIS leiten den intrakardialen Herzschall erstmals über einen Tip-Katheter ab. Erster Arthroskopieatlas von M. WATANABE. Erste Ultraschallbilder des Herzens von I. EDLER. B. HIROSHOWITZ entdeckt die Möglichkeit, Bilder mit Glasfasern zu übertragen.
Erste wissenschaftliche Publikation von DJOURNO, Otologe und EYRIES, Phys., über die elektrische Stimulation des Hörnervs. TRÄBERT entwickelt den analgetisch-hyperämisierenden Reizstrom. 1958 Cine-Koronararteriographie nach M. SONES. Das Laserprinzip wird erstmals durch SCHAWLOW und TOWNES dargestellt. R. ELMQUIST und A. SENNING entwickeln den ersten Herzschrittmacher. HIRSCHOWITZ stellt das erste vollflexible, steuerbare Gastroskop vor. I. DONALD untersucht erstmals einen Fetus mit Ultraschall. H. O. ANGER entwickelt eine Szintillationskamera und stellt das Prinzip vor. KILBY entwickelt einen integrierten Festkörperschaltkreis. Erster Notarztwagen in Deutschland (Köln). DONALD und BROWN führen die 2D-Ultraschalldiagnostik in Geburtshilfe, Gynäkologie und Innerer Medizin ein. O. KLEINSASSER stellt ein Laryngomikroskop (Laryngoskop mit einer am Handgriff schwenkbaren 10fach vergrößernden monokularen Prismenoptik) vor. Erster Compound-Scanner (7-15 MHz) für die Echoophthalmographie wird von G. BAUM und J. GREENWOOD vorgestellt. 1959 D. E. KUHL realisiert das erste transversale Schnittbild mit Jod-131. Selektive Koronarangiographie über die Arteria brachialis durch M. SONES. Darstellung des Röntgenbildes auf einem Fernsehmonitor. Erste unipolare Schrittmachersonde beim Menschen von FURMANN und SCHWENDEL. G. GOULD meldet US-Patente für LASER an. J. F. JERGER ET AL entwickeln den SISI-Test zur Hörprüfung: Messung des Intensitätsunterscheidungsvermögens durch den Index des prozentualen Erkennens einer 1-dB-Lautstärkeschwankung. 1960 BÜCHERL: Kunstherz im Experiment. Erstes Patientenmonitoring im OP. Entwicklung von modularen Hüftgelenkendoprothesen (Teflonpfanne und Hüftkopfersatz aus 316L-rostfreiem Stahl) nach J. CHARNLEY. T. H. MAIMAN gelingt es erstmals, Einsteins Theorie (von 1917) mit sichtbarem Licht nachzuweisen. Er konstruiert das erste Lasersystem (Festkörper(Rubin)laser) und prägt zudem das Akronym LASER (light amplification by stimulated emission of radiation). W. CHARDACK und GREATBATCH implantieren den ersten volltransistorischen Herzschrittmacher mit Zink-Quecksilber-Batterien.
1013 Anhang H · Historische Meilensteine in der Technischen Medizin
U. K. HENSCHKE entwickelt das Nachladeverfahren (Afterloading) für die intrakavitäre Brachytherapie. R. YALOW und S. BERSAN entwickeln die Radioimmunoassays. Erste Strahlenschutzverordnung der Bundesrepublik Deutschland. F. S. T. BOEN und G. SHILIPETAR automatisieren die Peritonealdialyse. Sie entwickeln eine automatische Einheit (sog. Cycler), die unbeaufsichtigt während der Nacht eingesetzt werden kann. G. GIRAUD und P. PUECH führen die endokavitären Katheterableitungen ein. Erste bewegliche Unterarmprothese, die durch myoelektrische Signale gesteuert wird. GIRAUD gelingen die ersten HIS-Bündel-Ableitungen am schlagenden menschlichen Herzen. Erstmals wird Polymethylmethacrylat als Knochenzement von J. CHARNLEY eingesetzt. IR-Imaging-Systeme, die zuvor nur militärisch genutzt wurden, werden nun für medizinische Zwecke eingesetzt. 1961 POLYANI und HEHIR entwickeln ein Reflexionsoximeter, das mit Wellenlängen von 650 und 805 nm misst. E. COOPER und A. S. LEE stellen ein kryochirurgisches Instrument vor, welches mit flüssigem Stickstoff arbeitet. Erfolgreiche Implantierung der ersten künstlichen Herzklappe bei einem Menschen. »Reanimationsblock« von BOUVRAIN und ZACOUTO. Intraoperative Strahlentherapie mit Elektronen. Erster Gaslaser (Helium-Neon-Laser) von A. JAVAN ET AL.
LASER: Erste Güteschaltung (Q-switch) von R. J. COLLINS. J. DOYLE und W. HOUSE entwickeln ein Implantat zur elektrischen Stimulation der Cochlea. Erste Entwicklung der funktionellen Elektrostimulation durch LIBERSONS. 1962 Intraaortale Ballonpumpe von MOULOPOULOS, TOPAZ und KOLFF. MCARTHUR und CLARK berichten über die kontinuierliche Blutsauerstoffmessung mit einer »Clark Elektrode« und über Veränderungen der gemischtvenösen Sauerstoffsättigung als erstes Zeichen der hämodynamischen Stabilität bzw. Instabilität. Seit der Publikation von LOWN ET AL über experimentelle Erfahrungen und klinische Anwendungen von Wechselstromschocks (AC) bzw. Gleichstromschocks (DC) zur Wiederherstellung des Sinusrhythmus, wird das Verfahren der Kardioversion/ Defibrillation weltweit klinisch angewendet. Transthorakale Defibrillation mit Gleichstrom durch LOWN.
D. E. KUHL stellt seinen transversalen Tomographen »Mark II Scanner« vor. Erste ringförmige Positronenkamera von RANKOWITZ.
INGVAR und LASSEN bestimmen die regionale Hirndurchblutung mit Krypton-85. PARSONETT und Mitarbeiter entwickeln die bipolare Schrittmachersonde und ermöglichen damit die rasche und weltweite Verbreitung des Herzschrittmachers. Erster GaAs-Diodenlaser. Erste ferngesteuerte Afterloadinggeräte in der Strahlentherapie. Erstes IdO (in dem Ohr)-Hörgerät. Beschreibung des CROS-Verfahrens (Hörgeräteversorgung bei einseitiger Schwerhörigkeit) durch H. L. WULLSTEIN und M. E. WIGAND. G. KOSSOFF und W. GARRETT konstruieren einen Immersionsscanner (Octoson), der bis Anfang der 1980er Jahre eingesetzt und vergleichsweise gute Bilder lieferte. 1963 A. MAC LEOD CORMACK, Phys., 1924-1998, Nobelpreis 1979, entwickelt eine mathematisch-physikalische Theorie zur Berechnung der mit Hilfe von Röntgenstrahlung gewonnenen Querschnittsbilder eines Körpers. Er schlägt eine quantitative Rekonstruktion mittels Positronen-Tomographen vor, einschließlich Absorptionskorrektur. Erster automatischer Insufflator von WITTMOSER, der gleichzeitig den intraabdominellen Druck und den Gasfluss regeln kann. Einführung der SPECT (single-photons-emissioncomputer-tomography) von D. E. KUHL und R. Q. EDWARDS. Computergestützte Dosisberechnung wird eingeführt. R. JONES beschreibt eine Methode des vorderen Kreuzbandersatzes (Basis der modernen Kreuzbandchirurgie) mit einem distal gestielten mittleren Patellarsehnendrittel unter Verwendung einer patellaren Knochenschuppe zur Verankerung in einem Bohrloch im Femurcondylus. Magnetokardiographie: Erste Aufzeichnung der Magnetfelder der bioelektrischen Ströme am Herzen durch G. M. BAULE und R. MC FEE. 1964 Entwicklung einer nichtoperativen Behandlung arterieller Gefäßverschlüsse durch eine mechanische Erweiterung des Gefäßlumens durch C. T. DOTTER und M. P. JUDKINS. Geburtsstunde der interventionellen Radiologie. D. E. KUHL veröffentlicht die ersten transversalen Schnittbilder mit einem Mark II. CHALLAGHAN ET AL nutzen zum ersten Mal die Dopplertechnik zum Nachweis der kindlichen Herztöne in utero.
H
1014
Anhang H · Historische Meilensteine in der Technischen Medizin
R. SCHITTENHELM entwickelt ein 42 MeV Betatron für
VII
die Elektronentiefentherapie. Einführung der intraoperativen Elektronentherapie (IORT) durch M. ABE. Erster CO2-Laser von C. K. N. PATEL. Erster Neodym-YAG-Laser von J. E. GEUSIC ET AL. Erster Argonlaser von W. B. BRIDGES. J. CHARLEY beschreibt die Reinraumtechnik mit Laminar Air Flow. Erstes SPECT-Bild ist ein mit Hg-197 markiertes Astrocytom. Direct Contact Scanner von I. DONALD. Erste Konferenz in New York über Thermal Imaging. H. DAVIS ET AL entwickeln die elektrische Reaktionsaudiometrie. Einführung der Elektrocochleographie durch N. YOSHIE ET AL. Flexibles Bronchoskop von S. IKEDA. 1965 Bio-Prothesen als Herzklappen von BINET. Erstes Transmissions-Schnittbild eines menschlichen Thorax von D. E. KUHL (erzeugt mit 60 keVGammastrahlung). KRAUSE und SOLDNER entwickeln das Echtzeitverfahren beim Ultraschall. K. R. RABINAR und M. SIMON entwickeln die ERCP (endoskopische retrograde Cholangiopankreatographie). Erste Blutzellzentrifuge wird als Zellseparator konstruiert. Bei der Angiographie werden erstmals Videorekorder eingesetzt. Chemischer Laser von J. V. V. KASPER und G. C. PIMENTEL. Pikosekundenpulse durch passive Modenkopplung eines Rubinlasers durch H. W. MOCKER und R. J. COLLINS. Bericht über die Erprobung und Einführung der endolaryngealen Mikrochirurgie mittels Operationsmikroskop und weitlumigem Operationslaryngoskop durch O. KLEINSASSER. 1966 Die bipolare endoskopische Elektro-Koagulation wird von WITTMOSER für thorakoskopische Eingriffe vorgestellt. Erfindung des Farbstofflasers durch F. SCHÄFER. Herstellung des ersten Farbstofflasers von P. P. SOROKIN und J. R. LANKARD. Stanford-University: Eine Elektrode wird in den Modiolus der Cochlea eines kongenital tauben Patienten implantiert – eigentliche Geburtsstunde des Cochlear-Implantats. 1967 Erste Herztransplantation durch C. BARNARD. Einführung des Pulmocath-Mikrokatheters in die chirurgische Intensivmedizin durch GRANDJEAN.
Einschwemmkatheteruntersuchungen mit ergometrischer Belastung durch EKELUND und HOLMGREN. Selektive Koronarangiographie über die Arteria femoralis durch JUDKINS. Einführung der Hirnstammaudiometrie (BERA) durch H. SOHMER und M. FEINMESSER. 1968 Klinische Anwendung der intraaortalen Ballonpumpe KANTROWITZ. G. N. HOUNSFIELD, Ing., *1919, Nobelpreis 1979, entwickelt ein Verfahren zur direkten Darstellung von Weichteilstrukturen des Körpers mit Hilfe von Röntgenstrahlen und konstruiert den ersten Computertomographen. Einführung von sog. Stablinsen nach HOPKINS in Endoskopen. Erste Beschreibung eines Kontrasteffektes im Ultraschall von GRAMIAK und SHAH. E. OBERHAUSEN führt die Ganzkörper-Clearance in die Nuklearmedizin ein. Erste Installation eines »Gamma Knife« für Gehirnoperationen, entwickelt von L. LEKSELL, 19071986. Synchrone Laserpumpen von D. J. BRADLEY und A. J. F. DURRANT. Erstes Magnetoencephalogramm detektiert D. COHEN. Darstellung der Lautstärkegrenzen der Stimme in Abhängigkeit von der Tonhöhe (Phonetogramm, Stimmfeld) durch C. H. WAAR und P. H. DAMSTÉ. Entwicklung eines transurethralen Scanners durch H. H. HOLM. J. SOMER entwickelt den ersten Sektor-Scanner (Ultraschall). 1969 Einführung des bifokalen Herzschrittmachers von BERKOVITS ET AL.
His-Bündel-Elektrographie eingeführt durch B. J. SCHERLAG ET AL.
Erstes experimentelles Modell eines implantierbaren automatischen Defibrillators (ICD) nach MIROWSKI und SCHUDER. Das Pulsed-Wave-Doppler-Verfahren wird von D. W. BAKER vorgestellt. 1970 SWAN und GANZ entwickeln einen Ballonkatheter zur Bestimmung des Pulmonalarterien- und Pulmonalkapillarverschlussdrucks im rechten Herzen. Einführung eines dreilumigen Katheters nach SWAN-GANZ mit einem distalen Thermofühler zur HZV-Bestimmung nach dem Kälte-Verdünnungsprinzip (Thermodilution). COLE, JOHNSON und MARTIN entwickeln einen Zweilängen-Oximeter zur Messung der gemischtvenösen Sauerstoffsättigung mittels eines PolyethylenKatheters und zeigen die praktische Durchführbarkeit der Fieberoptik-Oximetrie auf.
1015 Anhang H · Historische Meilensteine in der Technischen Medizin
Erste klinische CT-Anwendung durch G. N. HOUNSund J. AMBROSE. Erste Anwendungen in der photodynamischen Therapie durch DIAMOND. GORDAN stellt den iterativen Rekonstruktionsalgorithmus »Art« vor. Erste Computerauswertung des EKGs. Breite Einführung der mammographischen Diagnostik. Erstes Glasfaserkabel. G. N. HOUNSFIELD stellt den ersten TransmissionCT-Schädelscanner (EMI Mark I) vor. Erste klinische MRT-Anwendung u.a. an Hirntumoren bei Ratten. M. E. HOFF, JR. entwickelt den ersten Mikroprozessor (Intel). Erster Xenon-Excimerlaser von N. G. BASOV ET AL. R. DAMADIAN entdeckt die Unterschiede der Relaxationszeiten T1 und T2 bei gesundem und kanzerogenem Gewebe. J. ZIMMERMANN erfindet SQUID (superconducting quantum interference device). S. G. OLSSON und S. INGELSTEDT führen die optimierte Kontrolle und Steuerung der Beatmung in die Anästhesie ein. Iteratives Rekonstruktionsverfahren für die longitudinale Positronen-Tomographie wird von SCHMIDLIN beschrieben. GILBERT und GOITEIN beschreiben die iterative Rekonstruktion für transversale Schichten. CORNELIS entwickelt die Rotations-Angiographie. Vorstellung der Grey-Scale-Technik (Grauabstufung des B-Bildes bei Ultraschallgeräten) durch G. KOSSOFF und W. GARRETT. Einführung der transkutanen elektrischen Nervenstimulation als Elektroanalgesieverfahren. P. C. LAUTERBUR, Chem. und Rad., Nobelpreis 2003, entwickelt die Magnetresonanztomographie (MRT) zu einem bildgebenden Verfahren. Verordnung über den Schutz vor Schäden durch Röntgenstrahlen (RÖV Röntgenverordnung). Einführung des Minnesota Impedanz-Kardiographs von KUBICEK in die klinische Anwendung. A. GRÜNTZIG entwickelt Ballonkatheter zur Gefäßdilatation (PTA). Erster serienmäßiger CT-Körperscanner der zweiten Generation (Translations-Rotationssystem mit Multidetektorarray). G. NATH entwickelt die erste brauchbare Quarzglasfaser zur Übertragung des Neodym-YAG-Laserlichts. Erster CT-Ganzkörperscanner (ACTA). Dritte CT-Scanner-Generation (Rotationssystem). Phantom- und Tierstudien mit Positronenemissionstomographen (PET II). FIELD
1971
1972
1973
1974
Erste Patientenstudien mit Positronenemissionstomographen (PET III). Longitudinal Emissions Multikristall Tomoscanner »LEMT« wird von JORDAN vorgestellt. Die Eigenschaften von BGO-Kristallen werden von NESTOR herausgestellt. Erste Hämofiltration am Menschen. Erste Thermographie-Bilder mit einer Auflösung von 0,5 °C. Vorstellung der Lupenlaryngoskopie durch H. VON STUCKRAD und J. LAKATOS. Einführung der Ultraschalldiagnostik als Routinemethode in die HNO-Heilkunde. VIRTUE und LOWE beschreiben erstmals die MinimalFlow-Anästhesie. 1975 NAKAJIAMA, ASARI und YOSHIYA publizieren die Idee der Pulsoximetrie und führen Tests durch. Einführung der digitalen Radiographie mit Speicherfolientechnik. MRT: Phasen- und Frequenzkodierung von R. ERNST. Ultraschall: Erster Multielement Scanner wird vorgestellt. 1976 FRAZIN beschreibt die transösophageale M-ModeEchokardiographie (eindimensionale Darstellung). ECAT, erstes kommerzielles PET-System und erster Mehrschichtscanner von TER-POGOSSIAN. POPOVICH und Mitarbeiter erstellen das Konzept der kontinuierlichen ambulanten Peritonealdialyse (CAPD). Strahlenschutzverordnung. 1977 Erste Ballondilatation (PTCA) durch A. GRÜNTZIG. R. DAMADIAN untersucht den menschlichen Thorax mit der MRT. Vierte CT-Scanner-Generation (Ringdetektorsystem). Entwicklung der digitalen Subtraktionsangiographie (DSA) durch BRENNECKE und KRUGER. Einführung der dynamischen Computertomographie durch HACKER und BECKER. KRAMER ET AL berichten erstmals über die kontinuierliche ateriovenöse Hämofiltration (CAVH). Der Apple II ist der erste PC mit Diskettenlaufwerk. Elektronenstrahllaser von D. A. G. DEACON. P. MANSFIELD, Phys., Nobelpreis 2003, erste MRTBildaufnahme des menschlichen Brustkorbs. Beschreibung einer Halterung, mit der eine Gammakamera kontinuierlich um den Patienten bewegt werden kann, von R. J. JASZCZACK und J. W. KEYES. P. MANSFIELD stellt das Echo-Planar-Imaging (EPI) vor. L. H. MOSER legt die erste technische Beschreibung eines Hörgerätes mit digitaler Signalverarbeitung vor.
H
1016
Anhang H · Historische Meilensteine in der Technischen Medizin
1978 Einführung der digitalen Subtraktionsangiographie (DSA) durch C. A. MISTRETTA. FUNKE führt den ersten DDD-Herzschrittmacher ein. 1979 Kommerzielle Produktion von PET-Systemen. 1980 Implantierbarer Herzschrittmacher, entwickelt von MIROWSKI.
1981
VII
1982
1983
1984
Erste zweidimensionale Echokardiographie (360° Darstellung) von HISANAGA. Erste ICD-Implantation beim Menschen durch MIROWSKI und MOWER. Einsatz der ersten Mikroprozessoren in der Biosignalverarbeitung. Erste extrakorporale Stoßwellenlithotripsie (ESWL). MARGULIS entwickelt die Interventionelle Radiologie. Die Computertomographie wird in die Bestrahlungsplanung eingeführt. Rastertunnel-Mikroskop, konstruiert von G. BINNIG und H. ROHRER, Nobelpreis 1986. Hörgeräte: Erste Gehörgangsgeräte (sog. Im-KanalHörgeräte). Szintigraphische Darstellung von Transmittern durch D. M. WIELAND. Erste künstliche Hauttransplantation. Ultraschall: W. K. LAW erfindet das Harmonic Imaging. Erste Kunstherz-Implantation durch DE VRIES. ICD-Systeme mit zusätzlicher Kardioversion (AID-B, AID-BR). Ultraschall: Color Flow Imaging von K. NAMEKAWA. Digitale Radiographie durch digitalisierte Videosignale eines Bildverstärker-Fernsehsystems von J. HAENDLE. Einführung spezieller Speicherfolien (Lumineszenzfolien) durch M. SONODA. Erstes MR-Ganzkörpersystem. Erste Elektronenstrahl-Computertomographie (EBCT). Katheterdilatation von Stenosen hirnversorgender Arterien durch MATHIAS und BOCKENHEIMER. MR-Scanner mit 0,3 T in der Diagnostik. A. BRAIN konstruiert die Larynxmaske. Erster Laserdrucker von Hewlett-Packard. Lasertechnik: Erzeugung von 8 Femtosekunden Pulsen mittels Pulskompression durch W. H. KNOX ET AL.
Erster Solitonlaser. Vorstellung der iterativen Rekonstruktionstechnik durch K. LANGE und R. CARSON. Erster integrierter ergonomischer Narkosearbeitsplatz von W. FRIESDORF. 1985 Erster Röntgenlaser. MRT: HAASE ET AL entwickeln CHESS (chemical shift selective imaging).
Thermographie-Bilder können mit Detektor-Array aus Cadmium-Quecksilber-Tellurid schneller und präziser aufgenommen werden. 1986 Die Ära der video-unterstützten Chirurgie beginnt mit der Einführung der Computer-Chip-VideoKamera. Erste frequenzadaptive Herzschrittmacher. Einsatz der ersten PCs für Patientendaten-Management-Systeme (PDMS). Erste Stentimplantation. Erste bifokale Röntgenröhre. Erstes 7-Kanal-SQUID-System. 1987 Transvenöses 3-Elektroden-Defibrillatorsystem. Erste räumliche Ultraschall-Darstellungen mit eigens dafür konstruierten Schallköpfen. Erste Stentanwendung bei Beckenarterienstenosen von J. PALMAZ. Videoendoskopie (Kamera am Okular). 1988 Erstes programmierbares ICD-System. Neufassung der Röntgenverordnung. Breite Einführung der digitalen Radiographie. AUTH führt Rotablation (syn. Rotationsatherektomie, PTCRA) ein. MR-Tagging zur Bewegungsanalyse von E. A. ZERHOUNI ET AL.
1989 Vorstellung des ersten Spiral-CTs von W. A. KALENDER.
Erstes multiprogrammierbares ICD-System. Erster Laser ohne Besetzungsinversion. 1990 WICKHAM prägt den Begriff der minimalinvasiven Chirurgie. M. E. PHELPS führt den Ganzkörper-PET ein. Einführung der 3D-Bestrahlungsplanung. Erster Femtosekunden-Titan-Saphir-Laser. Einführung der Stereoendoskopie. 1991 Einführung eines Split-Detektors für Spiral-CT. Einführung der CT-Angiographie. Tissue-Engineering, eine Methode zur Züchtung von Organgewebe, etabliert sich. Endovaskuläre Therapie von zerebralen Aneurysmen mit ablösbaren Platinspiralen, entwickelt von GUGLIELMI. T. BERNERS-LEE stellt am Kernforschungszentrum Genf das World-Wide Web (WWW) vor. Diodenlaser mit blauer Emission von M. A. HAASE. Das Ultraschallkontrastmittel Levovist kommt auf den Markt. J. OPHIR entwickelt die Ultraschall-Elastographie. Intravaskuläre Ultraschall-Bildgebung (IVUS). Phased Array Multicoils (Synergiespulen) von C.E. HAGEN und P. B. ROEMER. BOLD-Imaging (blood oxygen level dependent contrast) von J. W. BELLIVEAU ET AL. Erste radiologische Interventionen mit MRT und offenem MR-System.
1017 Anhang H · Historische Meilensteine in der Technischen Medizin
1992 Digitale Selenradiographie von U. NEITZEL. Multileaf-Kollimatoren werden in die Strahlentherapie eingeführt. Publikation von T. TABAR ET AL zur optischen Mammographie. 1993 Erster subpektoraler Defibrillator. Implantierbare metallene Gefäßstützen (sog. Stents) werden eingeführt. DION hat erstmals videoassistiert und mit Hilfe einer Minilaparotomie einen aortofemoralen Bypass angelegt. Erste Fusion von PET- und MRT-Bildern. Luthethium-Orthosilikate (LSO) wird als PETSzintillator vorgeschlagen. Den ersten mikroprozessorgesteuerten Ventilator der Firma Puritan-Bennett (microprocessor based mechanical ventilation) entwickelt W. G. SANBORN. 1994 Einführung neuer Detektoren für SPECT und PET (LSO, YSO) von T. F. BUDINGER. M. S. ALBERT ET AL fertigen MRT-Lungenbilder mit hyperpolarisiertem Xe-129 an. M. ANBAR stellt eine IR-Kamera zur Thermographie vor, die Bilder mit 512 x 512 Pixel mit 100 Hz und einer Auflösung von 10 mK darstellt. 1995 Erster chirurgischer OP-Roboter wird bei Hüftgelenksersatz eingesetzt. Echtzeitrekonstruktion bei der CT-Durchleuchtung. Erster Zweikammer-ICD. Flache, digitale Röntgendetektormatrix wird vorgestellt. Erstes 122-Kanal-SQUID-System. 1996 Erstimplantation eines aterialen Defibrillators. Einführung der Photodynamischen Diagnostik und Therapie. 1997 Erstimplantation eines kombinierten aterialenventrikulären Defibrillators. Tissue Doppler Imaging von P. R. HOSKINS und W. N. MC DICKEN.
1998 Einführung der Multislice-CT in die Routine. 3D-Rotationsangiographie CT-System. Erstes CT-PET Hybridsystem. C. L. DE KORTE ET AL stellen die Intravascular Ultrasound Elastography vor. 1999 Einführung der virtuellen Endoskopie mit der Elektronenstrahl-Computertomographie (EBCT). Erster ICD zur atrialen Defibrillation. 2000 Mehrere Arten von chirurgischen Robotersystemen sind im klinischen Einsatz. Mehrzeilen-Computertomographie wird eingeführt. Erstes 306-Kanal-SQUID-Magnetometer. RIPPE und FESSEL stellen ein Reizstromgerät für die gesamte quergestreifte Muskulatur vor. In Basel wird weltweit der erste Hybrid-OP in Betrieb genommen.
2001 Die ersten Tablett-PCs. Erster ICD, der zur Resynchronisationstherapie eingesetzt werden kann. Einführung der Kapselendoskopie. 2002 Neufassung der Röntgenverordnung. 2005 Erster 1,5 Tesla Magnetresonanztomograph mit offenem Tunnel. 64-Schicht-Computertomograph erstmals im klinischen Einsatz (Rotationsgeschwindigkeit 0,37 s; 0,4 mm räumliche Auflösung). Erster Dual-Source-Computertomograph (DSCT) Nuklearmedizin: Umsetzung der Click-Chemistry für die Radiopharmazie. 2006 Für simultane Kopfuntersuchungen wird ein Hybrid MRT-PET-Scanner entwickelt. 2007 Erster Geburtssimulator zum Training der vaginaloperativen Entbindung wird vorgestellt. 2008 In der Neurochirurgie werden erstmals Operationsmikroskope mit horizontaler Optik eingesetzt. 2010 Erster PET-MRT-Ganzkörperscanner für die medizinische Forschung in Europa wird eingeführt. Ein Hirnschrittmacher gegen Epilepsie wird erstmals im Rahmen einer Tiefen Hirnstimulation (THS) in Tübingen implantiert.
H
Danksagung
Für die freundliche Unterstützung mit Abbildungen und Schemata möchten wir folgenden Personen, Institutionen und medizintechnischen Unternehmen unseren Dank aussprechen: ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
Abiomed Inc., Danvers/MA (USA) Accuray Inc. (USA) Air Liquide Deutschland GmbH, Düsseldorf Aloka GmbH, Willich Arrow International Inc. (USA) bbe architekten, Berlin BD Deutschland GmbH, Heidelberg Bebig GmbH, Berlin Berlin Heart AG, Berlin Biotronik GmbH, Berlin Bodymedia Inc., Pittsburgh (USA) Brainlab GmbH, Heimstetten Bundeswehrkrankenhaus Berlin CardioWest Technologies (USA) Carl Zeiss AG, Feldbach (Schweiz) Cureco Technology Inc. (USA) DeBakey (USA) Deutsches Herzzentrum Berlin Dräger Medical Deutschland GmbH, Lübeck Eckert & Ziegler BEBIG, Berlin Ergoline GmbH, Bitz Forschungszentrum Karlsruhe Fraunhofer Institut für Biomedizinische Technik, St. Ingbert ▬ Fresenius Medical Care Deutschland GmbH, Bad Homburg ▬ Fujinon (Europe) GmbH, Willich
▬ GE Medical Systems Information Technologies GmbH, Freiburg ▬ Given Imaging GmbH, Hamburg ▬ Gulmay Medical Systems Ltd., Camberley/Surrey (UK) ▬ Impella Cardiosystems GmbH, Aachen ▬ Institut Biomedizinische Technik, Universität Karlsruhe ▬ Institut für Angewandte Informatik, Forschungszentrum Karlsruhe ▬ Institut für Didaktik und Bildungsforschung im Gesundheitswesen, Witten ▬ Institut für Mathematik und Datenverarbeitung in der Medizin, Universität Hamburg ▬ Institut für Med. Informationsverarbeitung, Biometrie und Epidemiologie, Ludwig-Maximilians-Universität München ▬ Institut für Medizinische Informatik, Universitätsklinikum der RWTH Aachen ▬ Institut für Medizintechnik und Biophysik, Forschungszentrum Karlsruhe ▬ Intouch Technologies (USA) ▬ Intuitive Surgical Inc. (USA) ▬ ISS (USA) ▬ Jaeger Tönnies GmbH, Würzburg ▬ Jarvik Heart Inc., New York/NY (USA) ▬ John Hopkins Medical Institution (USA) ▬ Johnson & Johnson GmbH, Norderstedt ▬ Jojumarie GmbH, Berlin ▬ Karl Storz GmbH & Co.KG, Tuttlingen ▬ Karp, J., Prof. Dr., University of Pennsylvania/PA (USA) ▬ Katada, Kazuhiro, Prof. Dr., Fujita Health University, Aichi (Japan)
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2, © Springer-Verlag Berlin Heidelberg 2011
1020
Danksagung
▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
Klinik für Nuklearmedizin, RWTH Aachen Klinikum der Ruhr-Universität Bochum KLS Martin GmbH & Co KG, Umkirch KrankenhausTechnik Management, FH Gießen Laser- und Medizin-Technologie GmbH, Berlin Laserzentrum Zentrum Hannover e.V. Lawton GmbH & Co KG, Fridingen Maquet GmbH & Co KG, Rastatt Masimo Corporation (USA) Mc Donald, R.J., Dr., Radiology Regional Center Ft. Meyers, FL, USA MDS Nordion Ltd., Ottawa/ON (Canada) Medizinische Hochschule Hannover, Abt. Informatik / Biometrie Medizinische Informatik, FH Dortmund Medizinische Informatik, Universität Heidelberg/FH Heilbronn Mednova Medical Software Solutions GmbH, Berlin Medos Medizintechnik, Stolberg MedTech Consulting, Wettingen (Schweiz) Medtronics GmbH, Düsseldorf Mitsubishi, Tokyo (Japan) Muehllehner, G., Prof. Dr., University of Pennsylvania, PA, USA ndd Medical Technologies, Zürich (Schweiz) Olympus Optical Co. (Europa) GmbH, Hamburg Optiscan Imaging Ltd., Melbourne (Australien) orangedental, Biberach Pentax GmbH, Hamburg Philips Medizin Systeme GmbH, Böblingen PolyDiagnost GmbH, Pfaffenhofen Prosurgics (UK) Rendoscopy AG, Gauting RheinAhrCampus, Remagen Schiller Deutschland GmbH, Ottobrunn Sensor Medics BV, Bilthoven (Niederlande) Siemens AG, Bereich Medizinische Technik, Erlangen Siemens Medical Solutions, Erlangen SMT medical GmbH & Co, Würzburg Sorin Group Deutschland GmbH, München Spiegelberg KG, Hamburg Städt. Klinikum, Augenklinik, Karlsruhe Sulzer Orthopedics GmbH, Freiburg Teamplan GmbH, Tübingen Thompson, R., Dr., Cedars Sinai Medical Center, Los Angeles/CA (USA) Thoratec Corporation, Pleasanton/CA (USA) Townsend, B., Dr., University of Pennsylvania/PA (USA) Trumpf GmbH, Ditzingen UJP, Prag (Tschechien) Universitätskinderklinik Freiburg Varian Medical Systems Inc., Palo Alto (USA) Viasys Healthcare, Conshohocken/PA (USA) Viasys – Jaeger-Toennies, Höchberg
▬ Viasys – SensorMedics, Yorba Linda/CA (USA) ▬ Waxmann, A., Dr., Cedars Sinai Medical Center, Los Angeles/ CA (USA) ▬ Weyer GmbH, Kürten-Herweg ▬ World Heart Corporation, Ottawa/ON (Canada) ▬ wwH-c, Tübingen ▬ Zentrum für medizinische Forschung, Experimentelle Chir. Endoskopie, Universität Tübingen ▬ Zimmer GmbH Germany, Freiburg ▬ Zoetermeer, Niederlande
Sachverzeichnis
A α-stat-Messmethode 526 A0 – Wert 17 – Konzept 18, 951 AAMI 29 Abbildungsfehler, geometrischer 829 Abbildungstiefe 362 Abbildungsvolumen 410 Abdampfrückstand 949 Aberrometrie 286 Ableitstrom, kapazitiver 573 Ableitung, driftende 116 Ableitung, prolongierte 199 Ableitwiderstand 57 Abnahmebeurteilung 21 Abplatzeffekt 538 Abrieb, adhäsiver 910 Abtastartefakt 327 Abtasttheorem nach Shannon 675 Abtastzeit 333 Abteilungsinformationssystem 877 Abtraufphänomen 374 ACE-Strategie 268 activated clotting time (ACT) 512, 526 active-can 454 Adaption 230 adaptive probe off detection (APOD) 715 Adaptometrie 285
Admittanz 242 Adsorption 22, 23 advanced visualization 871, 875 Adventitiaschere 947 Afterloading-Verfahren 599 AFU-Planung 68 air-puff-Tonometrie 272 Akquisitionstechnik, parallele (PAT) 344 Aktionspotential 113, 155, 157, 224, 266, 678 Aktivator 611 Aktivitätsmonitoring, metabolisches 152 Aktor, pneumatischer 922 Akustischer Spiegel 557 Akutlabor 95 Alarmierungsserver 774 Alexandritlaser 467 Algorithmus, evolutionärer 838 Aliasing 675 Aliasing- Artefakt 327 Aliasingeffekt 366, 367 Alles-oder-Nichts-Gesetz 629 Alpha-ID 765 Alumina 907 Aluminiumoxidkeramik 907 – Polyethylen-Gleitpaarung 912 AMI-Code 821 Amplitudenmodulation 676 Analyse, kombinierte kardiorespiratorische 754
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2, © Springer-Verlag Berlin Heidelberg 2011
Anästhesie, balancierte 477 Anästhesieeffektmonitoring 478 Anästhesiegasfortleitung 492 Anästhesiegerät 477-493 Anästhetikum, volatiles 481, 711, 718 Anatomie, virtuelle 850 Angebotsauswertung 802 Angiographie 417 Angioplastie, perkutane transluminale (PTA) 418 Anwender 46 Apertur, numerische 383 Aperturmaske 286 Apnoe 195, 437, 753 Apnoeüberwachung 710 Apnoeventilation 442 apparent diffusion coefficient (ADC) 350 Applanationssensor 754 Applanationstonometrie 271, 737 Applanationstonometrie nach Goldmann 271 Araldit 177 Arbeitsablauf, radiologischer 872 Arbeitsliste, elektronische 787 Arbeitsliste, globale 879 Architektur, serviceorientierte (SOA) 811 Architekturmodell, logisches 790 Archiv, digitales 314 Argonbeamer 568 Argonlaser 467
1022
Sachverzeichnis
Array 368 – Elektrode 454 Arrhythmieüberwachung 696 Artefakt 677 Artefakt, biologischer 165 Artefakt, technischer 165 artificial kidney 497 aspect ratio 138 Assistenzsystem 917 Astra-Max-Technik 289 Asynchronie, thorakoabdominale 754 Asystoliealarm 696 Atembrille 721 Atemfrequenz, akustische 709 Atemgasanfeuchter 426 Atemkalk 484 Atemstörung, schlafbezogene 194 Atemstoßtest 131 Atemstromstärke 131 Atemsubstitution, vollständige 429 Atemwiderstand 145 Audiometrie 217-270 Audiometrie, objektive 241 Audiometrie, subjektive 227 Aufbereitung 48 Aufblähkurve 264 Aufhärtungsartefakt 327 Aufhärtungskorrektur 329 Aufladung, statische 58 Auflösung, axiale 360 Aufnahmeplanung 328 Aufwachraum 84 Augenbewegung 210 Augeninnendruckmessung 271 augmented reality system 848 Ausbildung, anatomische 848 Auswertung, computerisierte 200 Auswertung, visuelle 200 Autofraktometer 276, 288 Autorensystem 864 Autoshort-Schalter 634 averager 175, 181, 677 averaging 165, 185, 685 AV-Hysterese 639 Awareness-Situation 732 Axialturbine 611
B Bad, hydroelektrisches 657 balanced scorecard 79 Ballon-Ansatz 836 BANG-Gel 594
bare fiber 462 Basisdiagnostik, kardiologische 113-130 Basismonitoring 695 Beamformer 368 Beatmungseinheit 484 Beatmungstherapie 424 Beatmungsverfahren 429 Beatmungsverfahren, druckkontrolliertes 431 Beatmungsverfahren, kontrolliertes 429 – Misch-Ventilation 435 – Spontanatmung 435 – unterstützende Spontanatmung 432 Bedarfsermittlung 62 Bedeutung, gesundheitspolitische 4 Bedienbarkeit, intuitive 693 Beinahe-Vorkommnis 34 Belastung, isometrische 128 Belastungs-EKG 125-130 – Abbruchkriterien 130 – Ableitungen 126 – automatische ST-Vermessung 126 – Belastungstest 127 – diagnostische Wertigkeit 129 – Gerätetechnik 125 – Indikation 129 – methodische Hinweise 129 Belastungsgrenze, submaximale 127 bellows-in-bottle-Prinzip 484 Berechnungen, automatische 693 Bereich, medizinisch genutzter 53 Berger-Effekt 169 Berger-Formel 262 Beschaffungsmaßnahme, medizintechnische 61 Beschallungsverfahren 662 Besetzungsinversion 459 Betreiber 45 Betriebskostenschätzung 67 Betriebsqualifikation 17 Bettenkippgerät 95 Bewegungsartefakt 327 Bewertungsmatrix 69 Bildauswertung 825, 874 Bild, fluoroskopisches 299 Bildbearbeitung 825, 827 Bilddarstellung 311, 825, 840, 874 Bildgebung, intraoperative 890 Bildgebung, diffusionsgewichtete (DWI) 350 Bildgebung, molekulare 394 Bildgebung, protonendichtegewichtete (PDw) 345
Bildkommunikation 314 Bildleiter, flexible 383 Bildmessverfahren 276 Bildnachbearbeitung 874 Bildrauschen 301 Bildrechner 345 Bildschirmradiographie, digitale 299 Bildspeicherung 825, 842 Bildverarbeitung 299 Bildverstärkerradiographie, digitale 303 BiLEVEL 197 Biochemie 904 Bio-Herzklappenprothese 613 Bioimpedanz, thorakale elektrische 706 Biokeramik 911 Biokompatibilität 646 Biomaterialien 901-913 Biopsieroboter 919 Biosensor 668 Biosignal 667-688 Biosignal, bioakustisches 677 Biosignal, biochemisches 678 Biosignal, bioelektrisches 678 Biosignal, biomagnetisches 678 Biosignal, biomechanisches 680 Biosignal, biooptisches 683 Biosignal, biothermisches 683 Biosignalanalyse 685 Biospektralanalyse 730 Bioverträglichkeit 646 Biseau 954 Biuret-Methode 17 blanking 634 Blasenstimulator 649 Blattfilm-Angiographie 303 blended learning 866 – Konzept 859 Blend-Strom 575 Blindreflex 183 Bloch-Gleichung 339 Bluetooth-Technik 115 bluff body 136 Blutdruck, nichtinvasiver 698 Blutdruckmessung, kontinuierliche nichtinvasive arterielle 701 Blutfilter 519 Blutgasanalyse 711 Blutgasmessung, transkutane 717, 757 Blutpumpe 518 Blutreinigungssystem, extrakorporales 495-513 BMTE 61
1023 Sachverzeichnis
Body composition monitor (BCM) 509 Bodyplethysmographie 142 BodyViz 848 BOLD 349 Bolometer 404 Bor-Neutronen-Einfang-Therapie 592 Boyle-Mariotte-Gesetz 143 Brachytherapie 595 Brain-Computer-Interface 649 brainstem electric response audiometry (BERA) 251 breath-by-breath-Verfahren 150 Breitband-Harmonic 362, 363 Bremsspektrum 322 Brennfleck, optischer 322 Brennstoffzelle 149, 490, 719, 821, 935 bridge to decision 609 bridge to recovery 608 brightness-mode 365 Brutkasten 933 BTPS 134, 711 – Korrektur 133 bubble 363 bubble-point-pressure 519 Buchthal-Analyse 179 Bügelschere 940 Burian-Allen-Elektrode 278 business intelligence 877 b-Wert 350 Bypass, kardiopulmonaler 515
C CAD 876 card sorting 103 cardiac output 697 care Koagulation 578 case engineer 864 CBIR-System 842 CBT-System, konventionelles 863 CCITT-Rauschen 239 CDA-Dokument 795 CE-Kennzeichnung 38 central auditory processing disorder (CAPD) 227 ceramic injection moulding (CIM) 955 Cerebrogramm 731 Chemoembolisation 418 Chirurgie, computerunterstützte (CAS) 872 Chirurgie, roboterassistierte 856 Chirurgie, unblutige 5 Chirurgieroboter 921
Chirurgische Scheren 939-956 Chopper 678 Chromoendoskopie, virtuelle 396 Chronaxie 636 CIC-Gerät 256 CIS-Strategie 267 Citrix-Anwendung 692 Clearance 505 Clearance-Wert, diffusiver 505 Click-Reizamplitude 186 clinical document architecture (CDA) 765, 810 closed-loop-System 667 cloud-computing-Lösungen 879 Clusteranalyse 684 CNAP 701 CO2 – Partialdruck 151, 152 – Laser 467 – Rebreathing-Methode 151, 152 Cochlea-Implantat 265, 648, 817 Cochleaprothese, elektrische 266 Cocktailparty-Effekt 241 cognitive walkthrough 102 cognitive-apprenticeship-Ansatz 860 Compton-Effekt 592 computational intelligence 838 computer aided diagnosis (CAD) 871, 876 computer-assisted instruction (CAI) 859 Computergestützte Lehr- und Lernsysteme 859-868 Computergraphik 847 Computertomographie (CT) 317-336 Concha-Gerät 256 Connectathon 766 connected-components-Algorithmus 834 contact quality monitor 585 Content-Differenz 712 contrast-harmonic 364 Coolidge-Röhre 591 cortical electric response audiometry (CERA) 251 CPAP – Druck 197 – Gerät 205 Crest-Faktor 574 Creutzfeldt-Jakob-Erkrankung 29 cross document sharing 879 CROS-Versorgung 260 CT – Scanprotokoll 322 – Wert 328
A–D
Cuff-Elektrode 646 Curietron 599 curved-array 369 customer support clinical network (CSCN) 777 cut-off-point 507, 687 CW-Doppler 367 Cycloplegie 276
D DAkkS 37 Dampfströmungsverfahren 18 dark field image 312 Datennebel 330 Datenstruktur – Alpha-ID 765 – HL7 CDA 765 – IHE 766 – LOINC 765 – OID 765 – SNOMED 765 – UCUM 765 Datenverarbeitung, graphische 855 Datenvisualisierung, dreidimensionale 330 DeBakey-Pumpe 617 Deckenampel 88, 96 deep-body-temperature-Sensor 727 Defibrillation 445, 449 Defibrillation, blinde 448 Defibrillator 445-455 Defibrillatorweste 449 Dekomposition-EMG 181 Dekontaminationsanlage 18 Dekontaminationsmaschine 897 Dekubisschaden 894 delay-line 370 Demand-Flow-Gerät 427 Demandschrittmacher 637 Design-Prozess, iterative 106 Desikkation 579 Desinfektion – chemische Wirkstoffe 14 – Einwirkzeit 19 – Grundlagen 13 – Wirkungsbereiche 19 Desinfektion, manuelle 14 Desinfektion, physikalische 15 Desinfektionsmethoden 13 Desinfektionsmittelwirkstoff 14 Desinfektionsverfahren 13 Desinfektionsverfahren, chemische 13
1024
Sachverzeichnis
Desorption 22, 23 destination therapy (DT) 609, 610 Detektionskomponente, biologische 670 Detektorarray 317 device-releated 25 Diagnostik, funktionale 848 Dialysance 505 Dialysator 496 – Faserbündel 501 – Gehäusematerial 500 – high-flux 504 – high-performance 504 – Leistungsparameter 501 – low-flux 504 Dialysatorkonstruktion 500 Dialyse 28 Dialysemaschine 507 Dialysemembran 499 Dialysewasser – Richtwert 28 DIC-Charakteristik 655 Dichtlippe 138 DICOM 314, 376, 391, 411, 764, 842, 871 Differenzverstärker 113, 164, 674 diffuse lighting 884 Diffusion 496 Diffusionsgerät 147 Diffusionskapazität 145 Diktum, naturwissenschaftliches 9 Dilutionsmethode 705 Diodenlaser 467 Direktdetektor 310 Direktradiographie 314 Direktschreibverfahren 675 Diskriminanzanalyse 684 Diskriminationsfunktion 237 Display, haptisches 850 Distickstoffmonoxid 929 Distorsionsprodukt, kubisches 249 Distorsionsprodukt, otoakustisches 249 Docking Station 691 Dokumentationsunterstützung 784 Doppler 363 – cw-Doppler 367 – high-PRF-Doppler 367 – Farbdoppler 367 – pw-Doppler 366 Dopplerverfahren 366 Dosierventil, mechanisches 479 Dosimetrie 593 Dosis 331, 414, 593 Dosis-Längen-Produkt 333
Dosis-Quanten-Effizienz (DQE) 300 Drehanode 322 Drehpendeltest 214 Dreiwegehahn 703 drop-out-rate 687 Druck – hydrostatischer 697, 700 – intrakranieller 733 – zentralvenöser 703 Druckdom 702 Druckgenerator 426 Druckanstieg, intrapulmonal 423 Druckmessung, intrauterine 741 Druckmessung, invasive 701 Druckpuls 535 Druckpuls-Dosimetrie 558 Druckpulsquelle, piezoelektrische 553 Druckvarianz 434 Druck-Zeit-Kurve 441 Druck-Zeit-Steuerung 429 DSL-Methode 262 DTL-Elektrode 278 dual demand 641 dual-energy-Bildgebung 336 dual-exposure-single-detector-Technik 314 dual imaging 554 dual scanning 307 dual-source-Computertomograph 336 dual-source-CT 336 dual source Lithotripter 559 dual-X-Ray-Absorptiometrie 510 Dünnfilmspule 818 Dünnfilmtransistor (TFT) 308, 324 Duplexbetrieb 366 Durchatembarkeit, freie 437 Durchflussmethode, magnetischinduktive 681 Durchsichtsverfahren 357 D-Wert 951 dynamic range reduction (DRR) 313 Dynamometer, mechanischer 683
E echo tracking 375 echo train length (ELT) 348 Echokardiographie 5 Echtzeit-Stimulation 67 Echtzeitvisualisierung 851 EEG – Ableitverfahren 169
– Auswertung 172 – Methodik 169 – Monitoring 729 – Powerspektrum 729 – Signal 166 – Signalanalyse 172 Effekt, photochemischer 464 Effekt, photothermischer 464 Eindringtiefe 360 Einrichtungsplanung, betrieblichmedizintechnische (BMTE) 61-72 Einschwemmkatheter 705 Eisenbahnnystagmus 210 Eiweißkoagulation 21 E-Learning 866 Elektretmikrophon 246, 257 Elektrizität, statische 57 Elektrochirurgie 565 Elektrode, dispersive 572 Elektrode, elektrotherapeutische 663 Elektrode, epimyokardiale 454 Elektrodenübergangsimpedanz 116 Elektrodesikkation 567 Elektroenzephalograph (EEG) 166 – Gerätetechnik 168 Elektrogramm 121 Elektro-Hydro-Thermosation (EHT) 582 Elektrokardiographie (EKG) 113-121, 752 – Ableitsysteme 118 – diagnostische Wertigkeit 121 – Gerätetechnik 113 – Komplikationen 121 – methodische Hinweise 121 – Verfahren 117 Elektrokortikographie 173 Elektromedizin 655 Elektromyograph (EMG) 175 – Gerätetechnik 176 Elektromyographie (EMG) 179 Elektronenstrahl-CT (EBCT) 334 Elektroneurographie (ENG) 181 Elektrookulogramm (EOG) 284 Elektrookulographie (EOG) 211 Elektropalpation 655 Elektroretinogramm 278 Elektroretinographie, multifokale (mfERG) 282 Elektrotherapie 653-664 Elektrotomie 570 embedded system 649 Emission, evozierte 244
1025 Sachverzeichnis
Emission, otoakustische 244 Emission, spontane 244 Emission, transitorisch evozierte otoakustische (TEOAE) 244 Endgelenkschere 940 Endgerät, mobiles 878 Endomikroskopie 395 Endonavigation 400 Endoprothetik – Entwicklung 901 – Keramik 907 – Metall 907 – Polymer 907 Endoroboter 398 Endorobotik 399 Endoskop 379-400 Endoskopie 471 Endoskopie, virtuelle 848 Endoskopiearbeitsplatz 390 Endoskopiesystem, fluoreszenzbasiertes 394 Endstromkreis 57 Energieflussdichte 543 Energie-Transmissionssystem, transkutanes 623 Enhancement 8 Entgasungskinetik 501 Entscheidungsunterstützung 784 Entwöhnungsstrategie 443 Epilepsiediagnostik 171 Erbium:YAG-Laser 466 eRezept 807 Ergometrie 125 Ergometriemessplatz, vollautomatischer 125, 148 Ergospirometrie 148 Ergospirometrie, portable 152 Ermüdungsabrieb 910 Erste-Fehler-Philosophie 50 Erweiterte Realität 848 Esmarch-Prothese 205 Ethische Reflexion Medizin/Technik 7-10 Ethylenoxid 22 Evaporation 933 event recorder 122 event-recording 752 event related potential 191 evidence-based medicine 781 Excimer-Laser 468 Exophthalmometrie 293 Exponentialimpuls 657 Exspirationsventil 426 extended-field-of-view (EFOV) 373
eXtensible markup language (XML) 810 Extremitätenprothese 649 Extremwertbetrachtung 69
F F0F1F2-Strategie 267 Fachabteilungssystem 791 Fächerstrahlkonzept 320 facility management 66 FAEP-Normwert 186 Faktor KoA 506 Fallakte, elektronische 810 Faltung 827 Faradischer Effekt 568 Farbdoppler 367 Farbstoffdilution 705 Farbstofflaser 468 Farbwiedergabeindex 382 Faser, photonische 462 Fastl-Rauschen 239 FDL-Therapie 470 FD-Technologie 311 feature extraction 123, 267, 697 Feder-Masse-Modell 854 Fehler, elektrischer 34 Fehlerstrom 54 Fehlerverhütungskosten 74 Fehlfunktion 34 Feldinduktion, magnetische 340 Feldkamp-Algorithmus 311, 410 FEL-System 468 Fernhantierungssystem 915 Festkörperdetektor 300, 308 Fick`sches – Gesetz 496 – Prinzip 151, 705 field-of-view (FOV) 334 Film-Folien– System 299 – Technik (FFT) 300 Filmoxygenator 515 filter fouling 504 Filterkern 333 Filterung, morphologische 828 Finite-Elemente-ComputermodellAnalyse 906 Finite-Elemente-Methode (FEM) 854 Flachbilddetektor 308 Flachbilddetektortechnologie 310 Flächendetektor 308 FLAIR 350
flat-panel Detektor 313 Fleisch`sches Staurohr 134 Flimmer-Scoring-Algorithmus 448 flood field image 312 flow rate 132 flow-assist 433 flow-chart 527 Flowgenerator 426 Flowsteuerung 429 Flow-System, kombiniertes 428 Fluoreszenzangiographie 290, 292 Fluoreszenzendoskop 394 Flüssigkeitsbehälter, cryogener 930 Flusssensor 132, 143 flyging focus 327 focal-plane array (FPA) 406 Fokus, therapeutischer 551 Fokusbereich 370 Fokusenergie 544 Fokussierung, dynamische 370 forced oscillation technique 141 Formaldehyd 23 Formel nach Orssengo-Pey 272 Formulargenerator 793 Fotosimulator 168 Foucault`sches Schneidenverfahren 276 Fourier-Ellipsometer 275 Fourier-Scheiben-Theorem 325 Fowler-Test 234 Freddy-Prinzip 466 Freehand-System 817 Freeze-Funktion 693 Freiburger Sprachverständlichkeitstest 237 Freie-Elektronen-Laser 468 Freihandtechnik 371 Frenzel-Brille 211 Frequenz 219 Frequenz, harmonische 362 Frequenzfilterung 313 Frequenzgang 165 Frequenzverschiebung 363 Fricke-Dosimetrie 594 Frischgaskompensation 485 FSE 348 Fulguration 566 Füllfaktor 323 Füllvorrichtung, kodierte 482 functional brain imaging 668 functional MRI (fMRI) 349 Funduskamera 290 Fusion von Medizintechnik und Informationstechnologie 763-770 Fuzzy-Logik 838
D–F
1026
Sachverzeichnis
G Gamma-Knife 604 Gantry 321, 328 Ganzfeld-Elektroretinogramm 278 Ganzkörperantenne 343 Ganzkörper-BioimpedanzSpektroskopie 509 Ganzkörper-Kalium-Messung 510 Ganzkörperplethysmograph 142 gap junction 629 Gas, medizinisches 93 Gasaustausch 711 Gasdilutionsmethode 142 Gasinsufflator 389 Gasmischer 425 Gasmonitoring 711 Gasnasswaschverfahren 22 Gasqualität 931 Gasströmungsgeschwindigkeit 131 Gasvolumen, intrathorakales 144 gate-control-Theorie 654 Gateway-Server 694 Gating 602 GCP-Standard 876 GDT 764 GDx Nervenfaserpolarimetrie 275 Gebrauchstauglichkeit 99-108, 586 Geburtenüberwachungssystem 742 Gefahr 49 Gefährdung 49 Gefahrstoff – technische Regel 30 Gefäßdistensionsanalyse 375 Gegenirritationswirkung 659 Geiger-Müller-Zählrohr 323 Geldosimetrie 594 Gelenkschere 940 Geräte-Design-Träger-Schnittstelle (GDT) 764 Geräuschaudiometrie 234 Gesichtsfeldmessung 292 Gesundheitskarte, elektronische (eGK) 808,809 Gesundheitspolitik 4 Gesundheitstelematik 781 Gesundheitstelematik, amtliche 809 Gewährleistungsüberwachung 71 Gewebedifferenzierung 394 Gewebedoppler 368 Gewebeverkochung 570 Gittergenerierung 851 Glasfaserhydrophon 544
Gouraud-Shading 841 Gradienten-Echo-Sequenz 348 Gradientenspulensystem 342 Gradiometer 671 graphical user interface 853 Graphikprozessor, programmierbarer 848 GRAPPA 344 Graseby-Kapsel 754 Graustufendynamik 300 Grauwertmodifikation 827 Grenzrisiko 50 Größen, hämodynamische 707 Großgerät 64 Gyro-Sensor 371
H H2O2-NTP-Sterilisation 23 Hagen-Poiseuille-Gesetz 134 Halbleitermaterial, infrarotempfindliches 673 Hall-Sonde 672 Haltesystem, aktives 917 Hämatisator 515 Hämodiafiltration 499 Hämodialyse 499 Hämofilter 504 Handbeatmung 486 Handkurbelergometer 128 Handprothese, bidirektionale 649 Handskiaskop 287 Harnweginfektion, katheterassoziierte 28 Hartmann-Shack-Sensor 286 Hartmetallschere 941 Hartstrahltherapie 596 hat-and-head-Verfahren 830 Hauptstromverfahren 718 Hausbasisstation 816 Hautantwort, sympathische 183 HD-Endokamera 384 HDR-Afterloading-Verfahren 601 HDR-Brachytherapie-System 595 headbox 168 health level 7 764 heart rate variability 124 heat and moisture exchanger (HME) 426 Heel-Effekt 323 Heilberufeausweis 809 Heißleiter 725 Heißluftsterilisation 21
Helligkeitsnormierung 829 Helmholtz-Doppelschicht 670 HEMO-Studie 504 HeNe-Laser 468 Hertel- Exophthalmometer 293 Herzchirurgie, minimalinvasive 517 Herzdraht 630 Herzfrequenzturbulenz 124 Herz-Lungen-Maschinen (HLM) 515-532 – Aufbau 517 – Differenzierung 529 – Komponenten 521 – sicherheitstechnische Aspekte 530 Herzschrittmacher 630-644, 648 – Funktionalität 633 – Stimulationsfunktion 634 – Wahrnehmungsfunktion 633 Herzunterstützungssystem, mechanisches 607-627 Herzzeitvolumen (HZV) 151, 682, 705 HF – Einstrahlung 342 – Generator 58 – Generatortechnik 571 – Messer 571 – Wechselwirkung 352 high-density-Polyethylen (UHMWPE) 909 high-flux-Dialysator 504 high-PRF-Doppler 367 Hirndruck 734 Hirndruckmessung 736 Hirnperfusion 331 Hirnstammaudiometrie 252 Hirnstimulation, tiefe 648 hit-miss-monitoring 556 Hittorf’sche Röhre 589 Hitzdrahtanemometerverfahren 491 Hitzdrahtprinzip 491 HL7-Kommunikationsserver 767 HOAI 62 Hochfeldsystem 341 Hochfrequenzbeschleuniger 597 Hochfrequenzchirurgie 565-587 – Entwicklung 565 – methodische Hinweise 583 – physikalisch-technische Grundlagen 568 – Stromformen und Applikation 574 – Technik 571 Hochfrequenztympanogramm 242 Hochohmelektrode 636 Hochpass 165
1027 Sachverzeichnis
Hochpräzisionsbestrahlung, intraoperative 598 Höchstzuverlässigkeit 779 Hochverfügbarkeitskonzept 747 Hochvolttherapie 595 Hohlfasermembran, synthetische 499 Holium:YAG-Laser 466 HOLTER-Monitoring 122 Hörermüdung 230 Hörfeldaudiometrie 263 Hörgerät 257 Hörgerät, schallverstärkendes 256 Hörgerätehörer 260 Hornhautpachymetrie 288 Hornhaut-Topographie 289 Hörstörung 225, 256 Hörstörung , retrocochleäre 227 Hörsystem, implantierbares 264 Hörsystem, teilimplantierbares 264 Hostrechner 345 Hounsfield-Einheit 329 HU-Gerät 64 human-computer-interface 648 Hybrid-Bildgebung 898 Hybrid-OP 418, 419, 898 Hybridsystem 4, 354 Hybridsystem, biotechnisches 621 Hydrodissektion 389 Hydrophon 541 Hydroxyapatitbeschichtung 905 Hygiene 11-31 Hygieneplan 25 Hyperfluoreszenz 292 Hypermedia-System 860 Hyperthermie 725 Hyperthermiegerät 523 Hysteroskopietrainingssimulator 849
I ICD 451-455 – Algorithmen 453 – Elektroden 451, 454 – Entwicklung 451 – Funktionskontrolle 455 – Komplikationen 454 – Systemtechnik 452 ICG-Fluoreszenz-Laparoskopie-Technik 395 ICP-Messung 734 ICRU-Referenzpunkt 593 IGRT-System 603 IKUS-Antrieb 613
ILV-Beatmung 431 Image-Managementsystem 878 IMC 84 Impedanz, akustische 535 Impedanz, thorakale 447 Impedanzaudiometrie 241 Impedanzkardiogramm (IKG) 706 Impedanzplethysmographie 683 Impedanzpneumogramm 710 Impedanzpneumographie 709, 753 Impeller 611, 616 Impfung 13 implantable loop recorder 123 Implantat – Telemetrie 816 Implantat, künstliches 901 Implantat, radioaktives 600 Implantatdesign 904 Implantatmaterial, biodynamisches 904 Implantatoberfläche, osteophile 905 Impressionstonometrie nach Schiötz 272 Impulsgenerator 634 Impulspaket 360 IMV-Zeit 436 Indikatordilutionsmethode 510 Indikatorverdünnungsverfahren 682 Inertgas 22, 146 Infektionsentstehung 12 Infektionsgefährdung 12 Infektionsschutzgesetz 25 Informationslebenszyklusmanagement 879 Informationssystem, heterogenes 792 Informationssystem, holistisches 792 infrared functional imaging (IRFI) 403 Infrarot – Bildgebung 403-408 – Endoskop 394 Infrarotabsorptionsspektroskopie 492 Infrarotmessung, nichtdispersive 719 Infrarotokulographie (IROG) 212 Inhalationsanästhesie 477 inhouse-Transport 936 Inion 164 Injektor, vollautomatischer 418 Inkubator 933-937 Inkubatortherapie 936 inline-Röntgen 556 Installationsqualifikation 17 Instrument, endoskopisches 387 Instrumentenbesteck, virtuelles 854 Insufflator 389 Insufflator, druckablassgeregelter 584
G–K
Integration, curricular 867 Intensivbehandlungsstation, interimistische 88 Intensiveinheiten, Grundrissstruktur 86 Intensivmedizin, Planung von Einheiten 83-97 Intensivstation, interdisziplinäre 89 Interaktionswerkzeug 847, 853 Interoperabilität 865 Interoperabilitätsmodell 877 Interoperabilitätsmodul 766 Interpolationsverfahren 381 Intervention, therapeutische 448 IntraBreath-Methode 147 Intrakardialsauger 521 Inverkehrbringen 73 inverse ratio ventilation (IRV) 439 Investitionsentscheidung 5 Ionenpumpe 157 Iontophorese 568, 657 IR-Detektor 404 IR-HDR-Gerät 599 IR-Kamerasystem 404 IRMA-System 844 ISNT-Regel 275 Isodata-Algorithmus 833 Isolationsfehler 51 Isolationsklasse 51 it-Diagnostikkurve 655 IT-Infrastruktur, moderne 878 IT-Virtualisierung, regionale 879 iterative image warping 314
J J-Elektrode 633 Jet-Elektrode 278 Joule’sche Gesetz 568 junction point 127
K k-Index 345 Kalibration 132 Kalorimetrie 594 Kammereichung 143 Kapillardialysator 500 Kapnogramm 721 Kapnographie 721 Kapselendoskopie 399
1028
Sachverzeichnis
Kardifakt 710 Kardioplegiekanüle 520 Kardioplegiepumpe 518 Kardiotokographie 739 Kardiotomiereservoir 519 Kardiotomiesauger 518 Kardioversion, elektrische 448 Katheter, zentralvenöser 703 Kauter 565 Kavitation 539 Kegelstrahl – CT 311 Kegelstrahlartefakt 311 Kegelstrahlröntgensystem 336 Kennzeichnung (Gas) 929 Keramikgleitpaarung 911 Keratometrie, ophthalmoskopische 287 Kernel 827 Kernmagnetisierung, longitudinale 340 Kernmagnetisierung, transversale 340 Kernspinsignal 339 Kineto-CTG 740 Kippscheiben-Herzklappe 613 Kirchhoff’sche Gesetz 404 Klassifikation 837 Klassifikationssystem, wissenbasiertes 837 Klemmenstrom 578 Klinischer Pfad 785 Kniearthroskopietrainingssimulator 849 Knochenimplantat 904 Knochenleitungshörgerät 255 Knochenschall 223 Koagulation 570 KOA-Konzept 506 Kobaltgerät 596 Kohärenztomographie, optische (OCT) 273, 395 Kohlrausch-Knick 286 Kollapswelle 539 Kollimation 460 Kollimator 596 Kommunikationsserver 791, 794, 871 Kommunikationsunterstützung 784 Kondensatoreffekt 573 Konformitätsbewertung 43 Konformitätsbewertungsstelle 35 Konformitätsverfahren 43 Kontamination, mikrobiologische 931 Kontrastmittel, gadoliniumhaltige 353 Kontrolle, sicherheitstechnische 47 Kontrollierbarkeit 7
Konturtonometrie, dynamische (DCT) 273 Kopplung, kapazitive 573 Koronarsinuselektrode 452 Körperstrom, gefährlicher 55, 56 Koruntstrahlung 905 Krankenhausinformationssystem 781-805 – aktuelle Trends 795 – Architektur 790 – Auswahl 797 – Einführung 797 – Komponenten 790 – Nutzen 782 – Ziele 782 Kreuzkorrelationsfunktion 685 Kreuzleistungsspektrum 247 KRINKO – Empfehlung 13, 16, 26, 29 Kryosonde 390 Kryptonionenlaser 467 KTP-Laser 466 Kurventechnik 446 Kurzzeitsystem 609
L Labor, virtuelles 862 Laborrechneranbindung 748 Lachgassperre 480 Lafette 890 Lagerfläche, eingriffsbezogene 889 Lagerung, magnetisch-hydrodynamische 625 Lambert-Beer-Gesetz 492, 719 Langenbeck-Test 234 Langzeitbeatmungsgerät 423-444 – Aufgabe und Ziel 423 – continuous-flow-System 427 – demand-flow-System 427 – kombiniertes Flow-System 428 – Steuerung 429 --Inspirationsauflösung 429 -- Umschaltverfahren 429 Langzeit-EKG 122-124 – Ableitungen 122 – Auswertung, rechnergestützte 123 – Bedeutung 124 – Herzfrequenzturbulenz 124 – Herzfrequenzvariabilität 124 – Indikation 124 – System 122 Langzeit-Flow-Monitoring 135
Larmor-Frequenz 339 Lärmschwerhörigkeit 226 Laser 662 – Anwendungsmethoden 462 – gerät 461 – Scanning-Tomographie (HRT) 274 Laserangioplastie 463 Laserklassen 472 Laserlithotripsie (LLT) 471 Lasermedium 458 Lasermikroskop, konfokales 275 Laserprozess 459 Laserrekanalisation 465 Laserschneiden 463 Laserschutzbrille 474 Laserschutzfilter 474 Laserstrahl 460 Lasersysteme 457-475 Lasertypen 465 Laufbandergometer 129 Lautheitssummation, biaurale 239 lean tissue mass 509 Learning-Integrationskonzept 868 Leberersatztherapie 510 Leberfunktion, synthetische 512 Leberperfusion 331 Leistung, teleradiologische 811 Leistungsbeschreibung, detaillierte 68 Leistungsqualifikation 17 Leistungsstelleninformationssystem 791 Leitfähigkeitsdetektor 593 Leitzeit, zentral motorische 191 Lernen, problemorientiertes (POL) 861 Lernumgebung 864 Lichtleiteffekt 324 Lichtskalpell 458 light spot hydrophone (LSHD) 542 Linearbeschleuniger 597 Linearscanner 368 Linienartefakt 313 Linksherzunterstützungssystem 608 Lithiumionen-Dilution 706 Lithotripsie 471 Lithotripsie, extrakorporale (ESWL) 554 Lithotripterschallwelle 543 LMS-System 865 Löffelelektrode 449 LOINC 765 Lokalisationsverfahren 345 Longitudinalwelle 218 look up table (LUT) 306, 827 Loop-Rekorder 122
1029 Sachverzeichnis
Lorentzkraft 342, 353, 672 Löschbalkenmodus 693 low-dose Protokoll 414 low-flow-Narkose 486 low-flow-Perfusion 527 low-flux Dialysator 504 low-grade-Film 300 Luftblasendetektor 525 Luftleitungskurve 231 Luftleitungsschwelle 232 Lungenfunktionsdiagnostik 131-153 Lungenkapazität, totale 137 Lüscher-Test 234 LVAD-Verdrängungspumpe 613
M Machbarkeitssog 8 Mackay-Marg-Tonometer 272 Mackay-Marg-Tonometrie 272 Magnet, supraleitender 341 Magnetdesign 341 Magnetenzephalographie 175 Magnetfeldgradientensystem 342 Magnetfeldstärke 346 Magnetookulographie (MOG) 212 Magnetresonanz 339 Magnetresonanztomographie (MRT) 339-356 Magnetstimulator 189 maintenance of wakefulness test 198 MAK-Wert 22 Malware 779 Manchester-Code 822 Manipulation (chirurgischer Eingriffe) 852 Mapping 267 marching-cube-Algorithmus 840 Marechal-Kriterium 287 MARS-System 511 MASER 457 Maskenfilterung 313 Maskentechnik 302 mAs-Produkt 333 Mass-Flow-Meter 135 mass transfer area coefficient 506 master patient index (MPI) 880 master-slave-Manipulator 918 master-slave-Manipulatorsystem 915 Matrix-Array-Technik 370 maximum-intensity-projection (MIP) 330
MCS-Systeme (Neugeborene und Kleinkinder) 619 Mechanischer Index (MI) 364 medbiquitous virtual patient (MVP) 865 MEDDEV-Dokument 38, 74 medical-grade-Rechner 694 medical information bus 694 Medikamentenpumpe, implantierbare 820 Medizin, humane 9 Medizin, personalisierte 797 Medizinische Bildverarbeitung 825-846 Medizinische Netzwerke 773 Medizinische Robotersysteme 915-926 Medizinisches Gasversorgungssystem 927-932 Medizinprodukt – Aufbereitung 48 – CE-Kennzeichnung 38 – Definition 38 – Einweisungspflicht 47 – Fehlerarten 34 – Gebrauchstauglichkeit 99-108 – Gebührenverordnung 45 – Klassifizierung 38 – Meldepflicht 47 – Richtlinie EU 37 – Risiken 33 – Verordnung 43 – Verschreibungspflichtverordnung 43 – Vigilanzsystem 34 – Vorschriften 33-48 Medizinproduktgesetz 38 Medizintechnik – Definition 4 ME-Gerät – Mindestanforderung 50 ME-Gerät, batteriebetrieben 51 ME-Gerät, netzbetrieben 49 Mehrdetektor-Computertomographie (MDCT) 881 Mehrfachsteckdose 53 Mehrflursystem 86 Mehrlagenkeramik 631 Mehr-Monitor-Umgebung 874 Mehrzeilen-Detektorsystem 324 mel 228 Membran 496 Membranadsorption 507 Membraneigenschaft, elektrische 155 Membranoxygenator 518
K–M
Mensch-Maschine-Schnittstelle 100 Merkmal, datenbasiertes 831 Merkmal, kantenbasiertes 831 Merkmal, pixelbasiertes 831 Merkmalextraktion 831 Messfehler 667 Messkette, biologische 668 Messmethode, oszillometrische 699 Messtechnik, ophthalmologische 271-295 Messung, psychoakustische 230 Metallartefakt 327 Metallgleitpaarung 911 Metz-Recruitment 244 mfERG – Darstellung 283 – Messung 282 Microstream-Technologie 721 MICS-Band 819 Mikro-CT 335 Mikroelektrode, implantierbare 646 Mikroklima 934 Mikrotom 500 Miniaturbeschleuniger 598 Minilaparoskopie 387 Minimal Invasive Chirurgie (MIC) 380 Minimal-Flow-System 479 Minnesota-Code 3 Mischer, elektronischer 479 Mischventilation 486 Mitarbeiterschutz 11 Mithörschwelle 229 Mittelwertschlag 127 mode switching 641 Modellierungssystem 850 Modelling 903 Modulationsschwelle 229 Modulationstransferfunktion 323 Modulationsverfahren 229 Moiré-Struktur 501 Molekulare Bildgebung 4 Molmasse 136 – Kurve 141 Moment, magnetisches 351 Monitor, medizinischer 876 Monitor, modularer 690 Monitorart 690 Monitoring 94, 489 Monitoring, fetales 739-748 Monitoring, hämodynamisches 697 Monitoring, kardiovaskuläres 695-707 Monitoring, metabolisches 725-727 Monitoring, neonatologisches 752-760 Monitoring, respiratorisches 709-724
1030
Sachverzeichnis
Monitoring, therapeutisches 198 Monitoring, zerebrales 729-738 Monochromasie 460 Morcellator 390 motion-mode 365 Motivation, extrinsische 74 Motivation, intrinsische 74 move during scan (MDS) 354 MPPS-Information 873 MR-Spektroskopie 350, 351 MRT-Hochfrequenzsystem 343 MTF-Restoration 313 Müller-Prothese 911 Multiagentensystem 925 Multichipmodul 631 Multi-Echo-Spin-Echo-Sequenz 348 Multifrequenzfilterung 314 Multifunktionsinstrument, indikationsspezifisches 955 Multilamellenkollimator 598 Multitransducertechnik 670 Musterbauverordnung – spezifische Belange 86 Musterelektroretinogramm 281 Mustererkennung, offline 181 MZB-Wert 472
N n of m strategy 267 N2-Washout-Verfahren 148 Nachleuchten 323 Nachprüffrist 47 Nächste-Nachbar-Klassifikator 837 Nadelelektrode 159 Nadelelektrode, konzentrische 177 Nadelmyographie 179 Nadelstrahlform 319 Nafion-Schlauch 718 Nahfeldkopplung, inductive 630 NAL-Verfahren 262 Narkosegasableitung 927 Narkosemittelverdunster 481 Narkosequalität 732 Narkosetiefe 479 narrow band imaging (NBI) 396 Nasenbrille 752 NAS-Gerät 747 Nasion 163 NASPE/BPEG-Defibrillator (NBD)-Code 453 natural orifice translumenal endoscopic surgery (NOTES) 396
Navigation 414 Navigationssystem, intraoperatives 850 Navigationssystem, sensorbasiertes 556 NBG-Code 637 NBMED-Dokument 38 nCPAP-Drucksensor 196 NDIR-Messzelle 720 Nebenstrommesssystem 720 NE-Monitoring 584 Neodym:YAG-Laser 466 Nernst’sches Reizschwellengesetz 566 Nervenleitgeschwindigkeit 158, 182, 682 Nervenstimulation, periphere (PNS) 352 Nervensystem, vegetatives 157 Netz, neuronales 838 Netzfilter 519 Netzwerk – Anforderungen 774 – Sicherheitsaspekte 779 Netzwerk, medizinisches 773-780 Netzwerk, vernetztes 775 Netzwerkschnittstelle, integrierte 763 Neuromodulation 645 Neurophysiologie, klinische 155-192 Neuroprothetik 645-651 Neutralelektrode 572, 584, 896 Nichtrückatemsystem 426, 483 Niederfeldsystem 341 Niederspannung – Versorgung 93 Niedertemperatur-Plasmasterilisation 23 Niedrigkontrastauflösung 332 Niere, künstliche 497 Nierenersatztherapie, extrakorporale 507 Nierenlithotripter 550 NIR-Bereich 394 NIV-Maskenbeatmung 442 non-contact-Tonometrie 272 Nonkontaktkoagulation 580 non-stick-Technologie 582 Norm, harmonisierte 75 notified body 37, 928 NRZ-Code 821 Nulldriftpunkt 703 Nullelektrode 118 Nur-Photonen-Maschine 597 Nutzertest 104 Nutzschallwelle 550 Nutzungskontext 105
Nutzwertanalyse 69 Nyquist – Frequenz 675 – Limit 367 Nystagmographie 209-216 Nystagmus 210 Nystagmus, optokinetische 210, 214
O O2-Bindungskurve 712 Oberflächendarstellung 373 Oberflächenrekonstruktion 840 Oberflächen-Rendering 330 Oberflächenspule 343 Objektdicke 333 Objekt-Identifikator (OID) 765 Objektüberwachung 71 Occluder 390 Offline-Röntgen 556 Off-pump 517 Offset-effect 312 Ohr-Kuppler-Transferfunktion 262 online-Diagnose 123 online-Hämodiafiltration 499 online-Zertrümmerungskontrolle 556 OPCAB 517 Operationslagerung 894 Operationsleuchte 57 Operationsplanung, chirurgische 834 Operationsraum, integrierter 391 Operationsroboter 856 Operationstischsystem 890-899 – Aufbau 891 – Ausbaustufen 892 – Flexibilität 892 – Sicherheitsvorschriften 897 – Systematik 892 Ophthalmoskopie 285 OP-Management-System 391 OP-Möbel 890 Orbscan 289, 290 Organisationsunterstützung 784 O-Ring-Gantry 604 Orthopantomographie 319 Orthovoltgerät 594 Ortsauflösung 300 Ortsfrequenzzusammensetzung 314 Ösophagusableitung, unipolare 120 OSPL90-Kurve 261 Osseointegration 904 Otoplastik 260 Overkill-Verfahren 388
1031 Sachverzeichnis
Oxygenator 517, 518 Oxygen-Ratio-Controller (ORC) 480
P Pacing, antitachykardes (ATP) 452 PACS/RIS 871-880 Pad 450 Paddle 447 Pager-System 694 Panel-PC, dedizierter 691 Partialdruck, endexspiratorischer 152 Partialvolumen 882 – Effekt 838 Partialvolumenartefakt 327 PAT-Faktor 344 Patientenlagerung 894 Patientenlagerung, optimierte 896 Patientenmanagementsystem 88 Patientenschutz 12 Patientensicherheit 797 Patientenüberwachungssystem 689-694 Pattern-ERG 281 pay-per-use 67 PCB-Technologie 631 PC-EKG 113 PCWP-Wert 704 PDCA-Zyklus 76 PDR-System 599 Peak-Flowmetrie 135 Pedometer 152 PEEP-Druck 427 Pegel-Lautheits-Kennlinie 235 Peltier-Effekt 406 PEMS 689, 773 Penaz-Verfahren 701 Perfusion, pulslose 620 Perfusionsdruck, zerebraler 734 Perfusionsindex (PI) 715 PERG 281 Perimetrie 292 – Blau-Gelb 292, 293 – Finger 293 Perimetrie, kinetische 292 Permanentmagnet 341 Permeabilität, hydraulische 504 PET/CT-Scanner, hybrider 4, 336 PFC-Syndrom 756 Pflegeinformationssystem 791 phased-array 369 phon 228 Phonation 236
Phong’sches Beleuchtungsmodell 841 Phonskala 228 Phosphorspektroskopie 351 Photoablation 465 Photodekomposition 465 Photodekompositionseffekt 465 Photoeffect 592 Photoelektronystagmographie (PENG) 212 Photolithographie 324 photonic bandgap fiber 462 Photosensibilisator 471 Phototherapie 662 pH-stat-Messmethode 526 PiCCO-Technologie 706 pick and go-Prinzip 691 pigtail-Verlängerung 616 Pitch 327 – Artefakt 883 Pitchfaktor 333 Pixel 330 – Transformation 827 Pixelclustering 833 Pixelebene 826 Pixelshifting 305 Placeboeffekt 687 Placido-Scheiben-Darstellung 289 Planung, preoperative 849 plasma scalpel 568 Plateaueffekt 657 Plethysmogramm 698 Plötzlicher Kindstod 195 Pneumonie, beatmungsassoziierte 26 Pneumotachographie 131 point of care 691 Pol, indifferenter 632 Polarimetrie 274 Polyethylen, ultrahochmolekulares (PE) 909 Polygraphie, ambulante 198 Polymethylmethacrylat (PMMA) 909 Polysomnographie 196 Polysomnographie, große 198 Polysomnographie, kleine 198 Positivliste 24 Positronenemissionstomograph (PET) 4 post processing 871 post-processing-Applikation 875 post stimulus time histogram 224 Potential, akustisch evoziertes 251 Potential, ereignisbezogenes (ERP) 191 Potential, evoziertes (EP) 184
N–Q
Potential, exzitatorisches postsynaptisches 224 Potential, motorisch evoziertes 189 Potential, transientes 251 Potential, visuell evoziertes (VEP) 276 – Blitz-VEP 276 – Muster-VEP 277 Potentialausgleich, zusätzlicher 55 Potentialverteilung, zweidimensionale 685 Power-Doppler 368 Präparat, bioaktives 901 Präzedenzeffekt 240 press-fit-Prinzip 906 pressure limited ventilation (PLV) 431 pressure support 488 priming 523 Prinzip, pulsatiles 608 Problem, inverses 324 Produktqualität 80 Prometheus-System 511 Prothetik, zahnärztliche 412 Prüfung, klinische 43 Pseudo-Wedge-Position 704 Psychoakustik 227 public access Defibrillation 448 public private partnership (PPP) 66 Pulmonaliskatheter 705 Puls-CO-Oxymetrie 716 pulse transit time 200 Pulskurven-Variabilitätsindex (PVI) 716 Pulsoxymetrie 713, 754 Pulsverfahren 358 Pumpenergie 460 Pumpprinzipien, physikalische 610 PVAD-Pumpe 613 PWC-Wert 128 pw-Doppler 366
Q Q-switching 458 Qualitätsmanagement 73-81 – Begriffe 73 – Elemente 76 – Implementierung 79 – organisatorische Gestaltung 77 – regulatorische Anforderungen 74 – Zielsetzung 74 Quanteninterferometer, supraleitendes 212, 671 Quellenableitung 160
1032
Sachverzeichnis
Quench 353 Quetscheffekt, quasistatischer 548 QWIP-Detektor 405
R Radiochirurgie, stereotaktische (SRS) 604 Radiographie, digitale 299-315 Radiographie, statische 310 Radiologie, interventionelle 417-419 Radionuklidtherapie 595 Radiotherapie, dynamisch adaptierte (DART) 604 Radonraum 325 RAID-Technologie 747 Rampenzeit 343 Ranking 71 Ranvier-Schnürring 157 Rapid-Strand-Technik 601 RARE 348 Raumlufttechnik (RLT) 93 Rauschen, elektromagnetisches 340 Ray-Traycing-Sensor 286 RDG 17 read-out Prozess 306 Reaktions-Audiometrie 225 Reaktions-Audiometrie, elektrische 251 Reaktionsmechanismus, photochemischer 464 Realität, virtuelle 881 Realtime-Verfahren 357 Realzeitarchitektur, objektorientierte 925 rebreathing-Methode 147 Recruitment 226 reduced lead set 695 Reflex, akustikofazialer 243 Reflexion 358 Reflexionsfactor 359 Reflexionsfotometrie 716 Reflexionskoeffizient 220 Reflexionsverfahren 358 Reformatieren, multiplanares (MPR) 330 Refraktärzeit, postventrikuläre atriale 639 regulatory affairs 73 Reiz, amplitudenmodulierter 255 Reizcharakteristik, wahrnehmungsphysiologische 854 Reizsequenz, nichtlineare 247
Reizstrom, stochastischer 659 Reizstromdiagnostik 655 Reizung, monokuläre 187 Rekonstruktion, algebraische (ART) 411 Rekonstruktion, sekundäre 330 Rekonstruktionsalgorithmus 340 Rekonstruktionsmathematik 321 Relaxation 340 Release-Phase 439 Remasking 305 Remodelling 903 Rendering 373 Rendering, haptische 854 Repetitionsfrequenz 366 Reproduktionsmedizin 7 Resektoskop 577 Resektoskopie 380 Residualkapazität, funktionelle 137 Residualvolumen 137 Residuum 140 Resistance 144 Resonanzfrequenz 340 Resonator 460 response to noise ratio (SNR) 252 Restrisiko 49 Resynchronisationstherapie, kardiale (CRT) 452 Retraktionsverlust 145 Retrieval 842 Rheobase 636 RIC-Charakteristik 655 Ringartefakt 327 Rinne-Test 230 Risikoanalyse 776, 928 Risikomanagement 776 RKI-Liste 19 Robotik, medizinische 916 Robotiksystem 855 Rohdateninterpolation 325 Röhrenspannung 333 Rollerpumpe 518 Röntgengerät 596 Röntgenlicht, polychromatisches 327 Röntgenröhre 322 Röntgenschublade 935 Röntgenstrahlung 322 Röntgenstrahlung, monochromatische 327 Röntgenstrahlung, ultraharte 592 Röntgentechnik, konventionelle 299 Rostock Kornea-Modul 275 Rotationsblutpumpe 611 Rotationsblutpumpe, axiale 615 Rotationsblutpumpe, zentrifugale 615
Rotationspumpe 608, 621 Rotationstest 214 Rotationstherapie, intensitätsmodulierte (IMAT) 605 Rubinlaser 466 Rückatemsystem 478 Rückdiffusion 505 Rückfiltration 504 Rückflusselektrode, passive 572 Rückprojektion, gefilterte 325 Rückwärts-Telemetrie 267 Ruhe, elektrische 179 Ruhehörschwelle 229 rule based system 697 runaway 434
S Sakkade 210 Sattdampf 18 Sauerstoffbindungskurve 759 Sauerstoffverhältnisüberwacher 481 Scanner, intraoraler 412 Schachbrettmuster 186, 276, 277 Schall 218 Schallgeschwindigkeit 219 Schallharmonie 362 Schallimpuls 361 Schallintensität 543 Schallleitungsgeschwindigkeit 359 Schallpegel 219 Schallpuls 219, 535 Schallquelle, elektrohydraulische 551 Schallquelle, elektromagnetische (EMSE) 552 Schallquelle, piezoelektrische 553 Schallschnelle 219 Schalltherapie 534 Schallwelle 358, 535 Scheimpflugkamera 290 Scheimpfluguntersuchung 290 Scheiner-Prinzip 276 Schere, bipolar 955 Schere, mikrochirurgische 945 Scherengang 954 Scherenstandzeit 944 Schichtdicke 326, 333, 370 Schichtdickenartefakt 371 Schießbaumwolle 496 Schlafapnoe 195 Schlafdiagnostik 194 Schlafdiagnostiksysteme 193-206 Schlafdiagnostikverfahren 198
1033 Sachverzeichnis
Schlaflabor 194 – Geräte 205 Schlaflatenztest, multipler (MSLT) 198 Schleifringtechnologie 320 Schlingenelektrode 577 Schlitztechnik 309 Schlüssellochchirurgie 380 Schmerztherapie, perkutane bildgestützte 922 Schmerzverdeckungseffekt 663 Schneiden, argonassistiertes 576 Schneidespannung 571 Schnittbild, tomographisches 357 Schnittstelle, biologisch technische 646 Schnittstellenstandard 764 Schock, inadäquater 453 Schockform, biphasische 447 Schockraum, virtueller 317 Schockwendel 454 Schrittmacher – antitachykarder 642 – dromotroper 642 – frequenzadaptiver 641 – VVI-Schrittmacher 637 – Zweikammer-Schrittmacher 638 Schrittmachersyndrom 638 Schrittmachersystem – Aufbau 630 – Auswahlkriterien 643 – Elektrode 631 – Programmiergerät 630 Stimulationsmodi 636 – biatriales Stimulationssystem 642 – biventrikuläres Stimulationssystem 642 Schulungsbeauftragter 47 Schutzklasse 51 Schutzleiter 51 Schutzziel 50 Schutzverpackung 953 Schwarzer Körper 404 Schwarzkörperstrahlung 403 Schwärzungskurve 300 Schwelle, anaerobe 150 Schwellenantwort, skotopische 279 Schwellwert, adaptiver 833 SCORM-Standard 865 search-coil-system 212 second harmonic imaging 362 seeds 600 Segmentierung 832, 851 Segmentierung, hybride 835
Segmentierung, kantenorientierte 834 Segmentierung, pixelorientierte 832 Segmentierung, regionenorientierte 834 Segmentierungsverfahren, hybrides 832, 835 Seitenstromverfahren 721 Sektor-Phased-Array-Verfahren 372 Sekundärmembran 504 Sekundärrekonstruktion 318 semantic gap 827 Sende-Array 344 Senden, paralleles (pTX) 344 sensation level 231 SENSE 344 Sensing-System 454 Sensor, paramagnetischer 490 Sensoraufnahme, digitale 825 Septikämie, katheterassoziierte 27 Seufzer 439, 440 Shannon`sche Abtasttheorem 327 shared network 777, 778 Shaver 390 shutter 143 Sicherheit, elektrische 49-59 side-lobe 362 SIDS 754 Sieb-Elektrode 646 Siebkoeffizient 506 Sigmarotorpumpe 516 Signal-Extraktions-Pulsoxymetrie 715 Signalintensität 347 Signalprocessing 165 Signalprozessor, digital echtzeitfähiger 648 Signal-zu-Rausch-Verhältnis (SNR) 340, 341 simple sampling recorder 123 Simulation, VR-basierte medizinische 850 Simulator, medizinischer 848 single-breath-Methode 142, 145 single-exposure-dual-detector-Technik 314 single failure safety 634 single fibre EMG 179 single lead-VDD-ICD 452 single port laparoscopic surgery 397 Sinogramm 325 Sinuspumpe 141 SISI-Test 234 skills lab 861 slew rate 343, 634 sliding-window-Technik 602
Q–S
slot-scan-Verfahren 309 slow-oscillation-messung 285 Snake-Ansatz 835 SNOMED 765 Snore Ex 205 Sobel-Kantenbild, isotropes 832 Sobel-Operator 831 Solochirurgie 923 solvent drag 499 sone 228 spacer yarns 501 Spallationseffekt 547 Spaltlampe 271 speckle reduction 374 speed of sound 360 Speicherfolie, digitale 305 Speichermanagementsystem, hierarchisches (HSM) 879 Spektralanalyse 729 Sphygmomanometer 698 Spin 339 Spin-Echo-Sequenz 346 Spiral-CT 321 Spiral-Multizeilen-CT 332 Spirometriesystem 131 – Gerätetechnik 132 – Lungenfunktionstests 140 – methodische Grundlagen 136 Spirozeptor 135 SPN-CPAP-Gerät 427 Sprachaudiometrie 235 Spraykoagulation 580 SQUID 175, 679 Stablinsensystem 383 stand-alone Monitor 690 Stapediusreflex 243 steady state 127 – Methode 147 steady state response 254 steered-compound-imaging (SCI) 374 Stehwellenbetrieb 598 Steintherapie, extrakorporale (ESWL) 550 Stentangioplastie 418 step-and-shoot-Technik (SS) 602 step-down unit 690 Stereoendoskop 385 Stereolaparoskop 398 Sterilbarrieresystem 952 Sterilisation – Anforderungen Sterilisatoren 23 – Formaldehydgas 23 – Methoden 19 – Verfahren 19 Steuerrechner 345
1034
Sachverzeichnis
Stickstoff-Washout-Verfahren 148 Stimulation – Ösophagus- 629 – transkutane 629 Stimulationsmonitor 343, 352 Stimulationspassagere intrakardiale 629 Stimulationssystem, biatriales 642 Stimulator, akustischer 186 Störgrößeneinkopplung 641 Störquelle, biologische 668 Stoßfrontdicke 537 Stoßwelle 533-560 Stoßwellentherapie, extrakorporale (ESWT) 554 Strahlenphysik – Grundlagen 591 – Strahlenarten 591 – Strahlenquelle 592 – Wechselwirkung 592 Strahlentherapie, atmungsgetriggerte (BART) 602 Strahlentherapie, bildgeführte (IGRT) 603 Strahlentherapie, intensitätsmodulierte (IMRT) 601 Strahlentherapie, medizinische 589-606 Strahlführungssystem 462 Strehl-Zahl 286 Streifenlichtscanner 852 Streustrahlenartefakt 328 Strichskiaskopie 287 Strom, diadynamischer 659 Stromfluss, transthorakaler 447 Stromquelle (Akkumulator) 57 Stromversorgung 56 Stromversorgung, unterbrechungsfreie (USV) 57 style-sheet 770 Subsekundenscanner 323 Subtraktionsangiographie, digitale (DSA) 302, 303, 417 sudden infant death syndrome (SIDS) 195 Superpulsmode 467 Surfactantmangel 751 susceptibility weighted imaging (SWI) 349 Suszeptibilität, magnetische 346 Swan-Ganz-Katheter 705 System – Performance 64 System, elektrisches 54 System, elektrodirektes 309
System, energieapplizierendes 390 System, nichtpulsatiles 615 System, optodirektes 309 System, pulsatiles 615 System, tutorielles 862 Szenenebene 826 Szintillationsdetektor 593
T T4-Gesetz 404 Taktwaschanlage 16 Tantal 905 target-controlled infusion (TCI) 733 TCI-Perfusor 733 TC-Schere 941 Technik in der Medizin 3-6 Technisierung, blinde 8 technology assessment 5 Teilinformationssystem 790 Telegammagerät 596 Telemanipulationssystem 398, 915 Telemanipulator, kommerzieller 920 Telematikinfrastruktur 809 Telemedizin 808-812 Telemetrie 94, 817 Telemetriemonitor 690 Telemonitoring 812 Telepathologie 811 Teleradiologie 878 Teleradiologieprojekt 811 Telestration 387 Teletherapie 594 Temperatursonden 725 template matching 124, 697 TENS 696 – Verfahren 659 ten-twenty-System 164 Terumodraht 584 Test, überschwelliger 234 Texturebene 826 TFT-Flachbildschirm 385 Theranostics 355 Therapie, chronobiologische 205 Therapie, perkutane 594 Therapie, photodynamische (PDT) 471 Thermistor 673, 725 Thermistorkatheter 705 Thermoablation 418 Thermographie 403 Thermokamm 116, 676
Thermolumineszentdosimetrie 593 Thermomessstreifen 727 Thermotherapie, laserinduzierte interstitielle (LITT) 471 Thoraximpedanz 447 Thoraxkompression, externe 445 Thoraxradiographie 313 Tiefenfilter 519 Tiefenhirnstimulation 645 Tiefpass 165 Tiffeneau-Test 131 time-of-flight – Impuls 136 – Prinzip 136 Tischsäule 891 tissue Doppler imaging (TDI) 368 tissue harmonic 362 Titanschere 942 Titansteckdose 617 Toco-Messverfahren 740 Tomogramm 326 Tomographieprinzip 318 Tomosynthese 318, 319 Tomotherapie 604 Tongenerator 186 Tonheit 228 Tonometrie 271 Tonope 272 Tonschwellenaudiometrie 230 Topologie-Effekt 838 Total Intravenöse Anästhesie (TIVA) 477 Tracer 336 Tracking-Untersuchung 680 Trackingverfahren, elektromagnetisches 853 Training, chirurgisches 849 Training, fallbasiertes 862 Trainingssimulator 853 Transducer, photoelektrischer 672 Transkapnode 757 Transmembrandruck 502 Transmissionsverfahren 358 Transoxode 758 Transparenzdarstellung 373 Transportinkubator 935 Transportmonitor 690 Trapezoid 374 Trapezoidtechnik 374 Traube-Hering-Mayer-Oszillation 735 Trenddarstellung 693 Trenntransformator 53 Treshold-Methode 415 Triangulation 331, 397
1035 Sachverzeichnis
Tribologie 909 Triplexmodus 367 TRK-Wert 22 Trokar 387 Trommelniere 498 TruST-Algorithmus 696 Tschering-Aberrometer 286 TSE 348 Tubuskompensation, automatische 440 Tumorperfusion 331 Tympanometrie 241
U Überdruckverfahren 22 Übertragung, optische transkutane 819 Übertragungsverhalten, nichtlineares 674 Überwachung, zentrale 694 Überwachungsstützpunkt, offener 86 UCUM 765 UHMWPE, elektronenbestrahltes 913 Ultrafiltration 499 Ultrafiltrationskoeffizient 502, 504 Ultraschall, digital kodierter 366 Ultraschall, dreidimensionaler 371 Ultraschallbiometrie 288 Ultraschallbiomikroskopie 273 Ultraschalldiagnostik 357-377 Ultraschallendoskop 395 Ultraschallkontrastmittel 363 Ultraschallmolmassenspirometrie 148 Ultraschallpachymetrie 288 Ultraschallpneumographie 140 Ultraschallsonde 358 Ultraschallsondentyp 368 Ultraschalltherapie 661 Ultraschalluntersuchung, endoskopgestützte 395 Umkehrosmose 28 Umsetzungskosten 62 undersensing 453 universal patient identifier 809 Unterdruckverfahren 22 Unterricht, programmierter (PU) 859 Unterschiedsschwelle 229 Unterstützung, intraoperative 849 Unterstützungssystem, biventrikuläres 610 urea reduction rate (URR) 501
usability – engineering 99 – test 103 Uvulopalatopharyngoplastik 205
V VAH-Liste 14 Validierung 16, 21, 124 vascular unloading technique 701 VDV-Verfahren 18, 20 vendor neutral archive (VNA) 878 vented system 611 Ventilation-Perfusion-Missverhältnis 720 Ventilator 482 Ventkatheter 520 Ventsauger 518 Verarbeitungsunterstützung 784 Verdrängungspumpe, pulsatile 610 Verfahren, agglomeratives 834 Verfahren, biostatistisches 684 Verfahren, multiskalen 835 Verfahren, polarographisches 717 Verfahren, statistisches multivariates 684 Verfahren, statistisches univariates 684 Verhältnis, gyromagnetisches 346 Vernebler 27 Vernetzung, autarke 94 Verpackungssystem 953 Versorgungssystem, deckengebunden 88 Verstärkungsfaktor 164 Vertäubung 229 Vertäubungsregel 233 Verträglichkeit, elektromagnetische (EMV) 58 Vertragsgestaltung 803 Verwischungstomographie 318, 319 Verzeichnung 829 Vestibularisprüfung, kalorische 214 VE-Wasser 949 Videookulographie (VOG) 212 Vigilanzsystem 34 Virtuelle Realität (VR) 847-857 Visante-OCT 274 visible human project 848 Visualisierung, intraluminale 884 Vitalkapazität 137 Vividiffusionsapparat 497 Voltaisation, bipolaire 567
S–W
volume clamp 701 Volumen – CT 334 – Rendering 330, 411 Volumenkalibration 138 Volumensignal 132 Volumentomographie, dentale digitale (DVT) 409-415 Volumentransducer, digitaler 135 Volumenvisualisierung, direkte 841 Volumen-Zeit-Steuerung 429 Vorgabedokument 79 Vorvakuumverfahren 20 Voxel 330 Voxelman 848 VR-Schleudertrauma 848
W Wachstation 83 Wahrnehmungsschwelle 634 Wanderwellenprinzip 598 Wandler, chemoelektrischer 670 Wandler, elektrischer 670 Wandler, mechanoelektrischer 671 Wandler, photovoltaischer 821 Wandler, piezoelektrischer 671 Wandler, potentiometrischer 670 Wandler, thermoelektrischer 672 Wärme, feuchte 15 Wärmeleitungsmethode, paramagnetische 491 warm-up, präoperatives 856 Wasserscheiden-Transformation 835 Wasserstoffperoxidplasma 23 WBT-System 864 Weaning 424 web-based Training (WBT) 859 WEB-Bildverteilung 774 Weber-Test 230 Wedge-Position 704 Weichstrahltherapie 596 Weißlicht-Interferometrie 395 Wellenfrontanalyse 286 Wellenfrontvarianz 286 Wellenwiderstand 358 Wellenzahl 219 Wichtung 345 Wiederaufbereitungsarbeit 12 Wiederaufbereitungsprozess 388 Wiedergabekurve, akustische 261 WiFi-Funknetzwerk 690 Wilhelm-Tell-Effekt 737
1036
Sachverzeichnis
Wilson-Stern 119 Winkelencoder-System 400 Wirkung, biophysikalische 463 work flow 79 work of breathing (WOB) 440 Wundinfektion, postoperative 26
X x-aus-y-Algorithmus 641 xDT 764 – Datenträger-Austauschformat 810 – Schnittstelle 764 Xenograft, modifiziertes 901 Xenonbogenlampe 276 Xenon-Hochdruck-Kurzbogen-Lampen 382 XML 765 – Dokument 765
Z Zahnheilkunde, chirurgische 413 Zeitkonstante, gewebespezifische 340 Zentralnervensystem 155 Zentrifugalpumpe 518 Zertrümmerungsbreite 547 Ziel, telemedizinisches 807 Zirkulation, extrakorporale (EKZ) 515-517, 523 Zone, tote 134 Zoomendoskop 395 Zumischgerät 14 ZVD-Kurve 704 Zweisensorsystem 641 Zweispektrenradiographie 314 Zweistufenkanüle 520
Farbteil
⊡ Abb. 11.10. Bildschirmdarstellung einer Bodyplethysmographie mit Resistance- und Verschlussdruckschleifen (Werksfoto: Ganshorn Medizin Electronic GmbH, Niederlauer)
R. Kramme (Hrsg.), Medizintechnik, DOI 10.1007/978-3-642-16187-2, © Springer-Verlag Berlin Heidelberg 2011
1038
Farbteil
⊡ Abb. 12.5. Charakterisierung von 128 Ag/AgCl-Elektroden über einen Zeitraum von 10 Tagen. Darstellung der Mittelwerte des Betrages der Impedanz aller Elektroden als Funktion der Signalfrequenz
⊡ Abb. 12.16. Beispiele für eine Signalanalyse
1039 Farbteil
⊡ Abb. 12.24. Schema zur Bestimmung der motorischen Nervenleitgeschwindigkeit (NLG) des N. medianus. Gereizt wird in der Ellenbeuge, neben der Sehne des M. biceps brachii, und am Handgelenk
medial der Sehne des M. palmaris longus. Die Ableitung kann mit Oberflächenelektroden über dem M. flexor pollicis brevis erfolgen
1040
Farbteil
⊡ Abb. 13.5. Polysomnographische Ableitung eines Patienten im Schlaflabor mit der Darstellung des Videobildes im oberen Fesnter. Folgende Biosignale sind dargestellt: das EEG C3:A1 und C4:A2, das
EOG, das EMG vom Mundgrund, der Flow, die Atemanstrengung, Schnarchgeräusche, die Sauerstoffsättigung, das EKG, die Herzfrequenz, das EMG vom Bein und die Körperlage
⊡ Abb. 13.6. Polysomnographische Darstellung insbesondere der respiratorischen Parameter einschließlich ihrer Bewertung durch die Markierung erkannter Apnoen oder Hypopnoen und Entsättigung
1041 Farbteil
⊡ Abb. 13.7. Darstellung von Ergebnissen der Auswertung insbesondere der neurophysiologichen Biosignale. Es sind die Klassifikation der Schlafstadien nach Rechtschaffen und Kales, die Frequenzanalyse des
EEG zweidimensional als Funktion der Zeit und das zeitliche Auftreten von alpha- und delta-Wellen im EEG wiedergegeben
1042
Farbteil
⊡ Abb. 16.1. OCT und Angiographie eines diabetischen Makulaödems
⊡ Abb. 16.2. Visante OCT – Aufnahme mit Darstellung von Kammerwinkel, Vorderkammertiefe und Hornhautdicke
⊡ Abb. 16.3a–c. Optikusvermessung und -analyse mittels HRT (a,b) und OCT (c). Der Patient hat einen deutlichen glaukomatösen Optikusschaden bei relativ großer Papille. In der Moorfield-Analyse (b) wird der Optikus als pathophysiologisch bewertet. Die Burk’sche(RB)und die Mikelberg’sche(FSM)-Diskriminante sind negativ und weisen ebenfalls auf einen Glaukomschaden hin
1043 Farbteil
⊡ Abb. 16.8a–e. Qualitative Muster in der Hornhauttopographie, eingeteilt nach Bogan et al. 1990. a rund; b oval mit angedeuteter Sanduhrform; c symmetrisch sanduhrförmig; d asymmetrisch sanduhrförmig; e irregulär
1044
Farbteil
a
b
d
c
e
f
⊡ Abb. 18.5a–f. a Moderne Hochleistungsröntgenröhre, b Anschnitt und c Prinzip der Röntgenröhre mit Drehanode (Philips), d Prinzip des Multizeilen-Detektors, e kompletter Detektor eines 64-Zeilen CT-
Systems (Siemens), f Realisierung eines 41 cm × 41 cm großen Flächendetektors mit 2048×2048 Pixeln (General Electric)
1045 Farbteil
⊡ Abb. 18.9a–i. Oben: Angiographie mit dem CT (CTA). a MaximumIntensity-Projection (MIP), b Volumen-Rendering, c Ausschnittsvergrößerung des Knies und Darstellung von der Rückseite, d Knocheneliminierung mit einer Bone-Removal-Technik. e Unten: Koronale Reformatierung, f–i Volumen- und Oberflächen-Rendering: i Virtuelle Endoskopie des Darms zusammen mit der g Darstellung der virtuellen Endoskop-Trajektorie und eines h virtuell aufgeschnittenen Darmstücks in Zylinderkoordinaten
⊡ Abb. 18.10a–d. a Perfusionsmessung bei Schlaganfallpatienten, b Abbildung eines Lungenemphysems, c Bildgebung (CTA) der Kopfgefäße und d Herzbildgebung (CTA): Koronarstent
1046
Farbteil
⊡ Abb. 20.11. Duplex-Doppler, B-Mode mit Sample-Volume (links) und PW-Spektrum (rechts)
⊡ Abb. 20.12. Farbdoppler mit Aliaseffekt
1047 Farbteil
⊡ Abb. 20.13. Vaskularisierung in fetalem Hirn, dargestellt mit eFlow-Technik
⊡ Abb. 20.14. Tissue Doppler Imaging (TDI) im intraventrikulären Septum
1048
Farbteil
⊡ Abb. 21.16. Virtuelle Chromoendoskopie; Weißlichtbild des Gaumens (links), hervorgehobene Gefäßstruktur (rechts). (Quelle: KARL STORZ GmbH & Co. KG)
⊡ Abb. 22.1. Das Spektrum der elektromagnetischen Wellen und seine typischen Bänder
⊡ Abb. 22.5a–c. Anwendungsbeispiele der IR-Bildgebung in der medizinischen Diagnostik. a Abkühlung der Hand als Reaktion der Gefäßverengung beim Rauchen, b Temperaturänderung der Oberschenkel bei sportlicher Belastung auf dem Ergometer (Arcangelo Merla: Functional Infrared Imaging Lab., University »G. d‘Annunzio«, Italien; Merla, Di Donato und Romani 2002) und c Wiedererwärmungssequenz eines Basalzellenkarzinoms nach Abkühlungsprovokation (Schumann et al. 2005)
1049 Farbteil
⊡ Abb. 23.4. Typische MPR-Darstellung einer DVT in der Betrachtungssoftware des Herstellers. (Quelle: orangedental)
⊡ Abb. 23.5. Typische VRT-Darstellung einer DVT in der Betrachtungssoftware des Herstellers. (Quelle: orangedental)
1050
Farbteil
⊡ Abb. 27.1. Medizinische Lasersysteme mit ihren Wellenlängen
⊡ Abb. 27.17. Eindringtiefe von Laserstrahlung in die Haut und mögliche Hautschäden in Abhängigkeit von der Wellenlänge [nm]
⊡ Abb. 27.18. Übersicht über die Laserklassifizierung (für eine Emissionszeiten von 103 s)
1051 Farbteil
⊡ Abb. 29.2. Die Dialysemembran übernimmt bei der Blutreinigung die Funktion der Filtrationseinheit der Niere, des Glomerulus. Bei Kapillarmembranen liegt die Membranfunktion in der Wand der Kapillare. Interessant ist die Beobachtung, dass die Dimensionen des Durchmessers eines Glomerulus und die des Innendurchmessers von Kapillarmembranen vergleichbar sind. Ein Dialysator enthält mehr als 10000 Kapillarmembranen, durch die das Patientenblut geleitet wird. Im Gegenstrom zum Blut wird dagegen die Dialysierflüssigkeit geführt
1052
Farbteil
⊡ Abb. 29.3. Schemata für Blutreinigungsverfahren. A: Hämodialyse; B: Hämodiafiltration, bei der die hohe Ultrafiltrationsrate durch eine Substitutionslösung kompensiert wird; C: Beim Online-HDF-Verfahren wird die Substitutionslösung über die Dialysemaschine direkt aus dem Dialysatkreislauf gewonnen. In den Kreislauf eingebaute Endotoxinfilter garantieren die notwendige Reinheit der Substitutionslösung
⊡ Abb. 29.6. Polysulfonmembranen sind in der Lage, Endotoxine zu adsorbieren, die von der Dialysatseite in die Membran transportiert werden. Das zeigt das Experiment mit fluoreszenzmarkierten Endotoxinen. Letztere werden in der Membran adsorbiert
1053 Farbteil
⊡ Abb. 31.7. Viele räumliche DruckpulsFeld-Parameter werden normgemäß aus den axialen und radialen Druckverteilungen des Überdrucks abgeleitet. Für die Bewertung der Zertrümmerungswirkung ist allerdings die Energie E12mm in der Zone innerhalb eines 12 mm Durchmessers sowie die Energie E5MPa in der Zone, in der der positive Druck 5 MPa übersteigt, von weitaus größerer Bedeutung
⊡ Abb. 31.8. Energien (Kreissymbol) werden durch räumliche Integration der Energieflussdichte (Rautensymbol) bestimmt. Bei kreissymmetrischer Schallquelle kann man die Energie in Abhängigkeit vom Radius der Querschnittsfläche im Fokus angeben. Biologisch wirksame Flächen sind diejenigen, deren Rand von Schwellwerten wie dem für Stressfaserbildung in Zellen (0,1 mJ/mm²) oder Endothelablösung (0,3 mJ/mm²) begrenzt wird. Auch für Konkrementzertrümmerung gibt es solche Grenzwerte. 1. Fokusenergieflussdichte 2. Radius r2 der Fläche, die Energieflussdichten größer als 0,3 mJ/mm² einschließt;
3. Radius r3 der durch die Druckhalbwertsbreite FWHM eingeschlossenen Fläche, Integration ergibt die Fokusenergie; 4. Radius r4 der Fläche, die Energieflussdichten größer als 0,1 mJ/mm² einschließt; 5. Radius r5 (hier 6 mm) der Fläche eines typischen Konkrements oder eines Standard-Modellsteins, Integration ergibt eine für die Steinzertrümmerung relevante effektive Energie; Die Integration bis zum Rand des messbaren Bereiches ergibt die Gesamtenergie im Fokus. Der Wert wird i. Allg. gut angenähert durch Integration bis zur 5 MPa Grenze (nicht im Bild gezeigt)
1054
Farbteil
⊡ Abb. 32.8. HF-chirurgische Schnitte mit unterschiedlichen Crestfaktoren. Oben: Mit unmoduliertem Strom resultiert ein »glatter« Schnitt (pure cut), der am Schnittrand nur eine minimale, thermische Wirkung zeigt. Mitte: Modulierter Strom verursacht einen »verschorften« Schnitt (blend cut), durch dessen thermische Wirkung am Schnittrand ein schmaler Koagulationssaum resultiert. Unten: Stark modulierter Strom verursacht einen »stark verschorften« Schnitt (super blend cut). Aus der kräftigen, thermischen Wirkung resultieren ein breiter Koagulationssaum und eine leichte Karbonisierung am Schnittrand
⊡ Abb. 33.9. Linearbeschleuniger Varian Clinac 21 EX® (links) mit Strahlführung (rechts) (Quelle: Fa. Varian Medical Systems/Palo Alto/USA)
1055 Farbteil
⊡ Abb. 33.10. Miniaturbeschleuniger Zeiss INTRABEAM® (links) mit Beschleunigersektion (rechts) (Quelle: Fa. Zeiss/Oberkochen)
⊡ Abb. 33.12. Ruthenium-106-Applikator mit Ausschnitt für die Hornhaut
⊡ Abb. 33.15. Multilamellenkollimator (MLC) (Quelle: Fa. Varian Medical Systems, Palo Alto/USA)
⊡ Abb. 33.14. Einfluss eines Stents auf das Zellwachstum; links ohne und rechts mit radioaktiver Beschichtung (Quelle: aus Vorlesungsskript ETH Zürich/CH)
1056
Farbteil
⊡ Abb. 34.2. EXCOR-Systemübersicht
⊡ Abb. 34.9. Thoratec HeartMate II LVAS, Anschluss an der Spitze der linken Herzkammer mit flexiblem Zufluss, Abfluss über Prothese zur Aorta
⊡ Abb. 34.6. SynCardia CardioWest TAH, Anschluss der linken und rechten Blutpumpe
1057 Farbteil
⊡ Abb. 34.16. Zusammenstellung der heute klinisch verwendeten pulsatilen und nichtpulsatilen Blutpumpen (größenmaßstäblich)
⊡ Abb. 34.21. Modell der Position von zwei HVAD als implantierbares BVAD
⊡ Abb. 34.18. Apikale Kanüle des DuraHeart in der linken Herzkammer mit thrombotischen »Wucherungen« und teilweise Granulationsgewebe
1058
Farbteil
⊡ Abb. 34.23. Verschiebung des Arbeitsbereichs der rechten Blutpumpe im Kennlinienfeld des HVAD durch Stenosierung ihrer Abflussprothese
a
⊡ Abb. 34.24. Neue Projekte der Firma HeartWare International. Von links: MVAD für rechtsseitige Thorakotomie, MVAD axial flow pump, heutiges Modell HVAD; unten: Trans AV-MVAD intrakardial
b ⊡ Abb. 38.27a,b. Thermographische Registrierung der Oberflächentemperatur des Handrückens einer 20-jährigen Probandin vor und 2 min nach dem Rauchen einer Zigarette. Die Verminderung der Temperatur infolge einer Reduzierung der Durchblutung ist gut zu erkennen
1059 Farbteil
⊡ Abb. 44.7. Beispiel von am CTG eingegebenen Notizen
⊡ Abb. 44.9. Beispiel eines intelligenten Alarms
1060
Farbteil
⊡ Abb. 44.10. Beispiel für eine Übersichtsdarstellung
⊡ Abb. 44.14. Dokumentationsbeispiel für einen Krankenblatt-basierenden Patientenbericht (Partogramm)
1061 Farbteil
⊡ Abb. 51.7. Multimodale Registrierung und Fusion. 1. Reihe: T1-gewichtete MR-Schnittbilder einer 66-jährigen Patientin mit rechts parietalem Glioblastom. 2. Reihe: korrespondierende PET-Schichten nach multimodaler Registrierung. 3. Reihe: Fusion der registrierten Schichten zur Planung des Operationsweges. 4. Reihe: Fusion der MR-Daten mit einer PET-Darstellung des sensomotorisch aktivierten Kortexareales. Das aktivierte Areal tangiert nur das perifokale Ödem und ist daher bei der geplanten Resektion nicht gefährdet (Klinik für Nuklearmedizin, RWTH Aachen, aus: Wagenknecht et al. 1999)
1062
Farbteil
a
b
c
d
e
f
g
h
⊡ Abb. 51.12a–g. Kantenbasierte interaktive Live-Wire-Segmentierung. Zunächst setzt der Benutzer mit dem Cursor (gelb) einen Startpunkt an der Grenze zwischen weißer und grauer Hirnsubstanz a. Sodann wird die jeweilige Verbindung zur aktuellen Cursorposition mit rot angezeigt b–e. Je nach Cursorposition kann die Kontur dabei auch zwischen ganz unterschiedlichen Verläufen im Bild hin und her
a
b
c
d
e
f
⊡ Abb. 51.13a–g. Hierarchische Region-Merging-Segmentierung. Die Röntgenaufnahme der Hand a wurde auf verschiedenen Auflösungsstufen (Multiskalen-Ansatz) segmentiert b, c und d. Je nach Größe der
springen d,e. So kann der Benutzer eine geeignete zweite Stützstelle auswählen. Das so fixierte Kurvensegment wird blau dargestellt. Mit drei weiteren Stützstellen e–g ist in diesem Beispiel die Segmentierung bereits abgeschlossen, und die Kurve wird durch Positionierung des Cursors in der Nähe des Starkunktes geschlossen (Institute for Computational Medicine, University Mannheim, nach König u. Hesser 2004)
g
Objekte können diese in der passenden Hierarchieebene lokalisiert e, mit Ellipsen approximiert f oder als Knoten in einem Graphen visualisiert g werden
1063 Farbteil
⊡ Abb. 51.15. Segmentierung mit einem dreidimensionalen Ballon-Modell. Der CT-Volumendatensatz aus dem Bereich der Wirbelsäule (links) wurde mit einem 3D-Ballon-Ansatz segmentiert. Der Bandscheibenvorfall (Prolaps) ist in der oberflächenbasierten 3D-Rekonstruktion nach automatischer Segmentierung deutlich erkennbar (rechts). Die Darstellung erfolgte mit Phong-Shading (vgl. Abschn. 47.9) (Bredno 2001a)
⊡ Abb. 51.16a–j. IDEFIX – Identifizierung DEntaler FIXturen. a In der Röntgenaufnahme des seitlichen Unterkiefers stellt sich ein dentales Implatant dar. b Zur Merkmalsextraktion wird das Bild mit einem lokal adaptiven Schwellwert binarisiert. c Die morphologische Filterung trennt einzelne Bereiche und eliminiert Störungen. d In diesem Beispiel wurden drei Regionen segmentiert. Die weitere Verarbeitung ist für das blaue Segment dargestellt. Nach dessen Ausblendung wird die morphologische Erosion c durch eine nachfolgende Dilatation kompensiert e und vom Zwischenbild b subtrahiert. Über eine beliebige Koordinate des blauen Segmentes aus d kann nun
das korrespondierende Objekt extrahiert g und durch KarhunenLoève-Transformation in eine Normallage gebracht werden h. Geometrische Dimensionen können nun als regionenbasierte Merkmale bestimmt und zu einem Merkmalsvektor zusammengefasst werden. Die Klassifikation im Merkmalsraum erfolgt mit dem statistischen kNN-Klassifikator i, der das blaue Segment zuverlässig als Branemark Schraubenimplantat identifiziert j. Im Rahmen des Trainings wurden zuvor die (hier: geometrischen) Merkmale verschiedener Implantattypen ermittelt und in den Merkmalsraum i als Referenz eingetragen (Lehmann et al. 1996)
1064
Farbteil
⊡ Abb. 51.19. 3D-Visualisierungen. Durch das dreidimensionale Modell der inneren Organe auf Basis des Visible Human (Spitzer et al. 1996) bietet der Voxel-Man 3D-Navigator eine bisher unerreichte Detaillierung und zahlreiche Interaktionsmöglichkeiten. In der direkten Volumenvisualisierung sind neben räumlichen Ansichten auch andere Darstellungen wie simulierte Röntgenbilder möglich. (Institut für Mathematik und Datenverarbeitung in der Medizin, Universität Hamburg; aus Pommert et al. 2001)
⊡ Abb. 52.2. Medizinische Simulation: Anwendungsfelder entlang des Reality-VirtualityKontinuums mit den beiden Polen realer und virtueller Umgebung
1065 Farbteil
⊡ Abb. 52.5. VR-Arthroskopietrainingssimulator ⊡ Abb. 52.3. Virtuelles Ohr (Phonak Acoustic Implants/Fraunhofer IGD)
⊡ Abb. 52.4. Bronchoskopie-Simulator mit individuellen CT-Daten
1066
Farbteil
a
⊡ Abb. 52.7. Planungssystem für die Knieendoprothetik (nach Müller et al. 2000)
b ⊡ Abb. 52.6a,b. a VR-Rhinoskopietrainingssimulator und b Hysteroskopietrainingssimulator
⊡ Abb. 52.11. Modellierung einer virtuellen Gebärmutter
1067 Farbteil
⊡ Abb. 52.13. Modellbasierte semi-automatische Segmentierung von Organen
⊡ Abb. 52.15. 3D-Rekonstruktion eines Kopfes mit Hilfe eines Streifenlichtscanners (Polygon Technology)
1068
Farbteil
⊡ Abb. 52.16. Graphical User Interface
⊡ Abb. 52.17. Haptische Simulation
⊡ Abb. 52.18. Medizinische Visualisierung auf Smartphone
1069 Farbteil
⊡ Abb. 55.3.
⊡ Abb. 55.8. Eine wichtige Erkenntnis in endoskopischen Bildern, real wie virtuell, ist, dass die Oberfläche interessante Strukturveränderungen der inneren Organoberfläche darstellt, jedoch häufig es noch relevanter und wichtiger ist, was sich unter der Oberfläche befindet. Die Farbgebung der endoluminalen Oberfläche ist völlig willkührlich und wird zur Diagnostik nicht genutzt. Zur Verbesserung der Detektionsrate von relevanten Schleimhautveränderungen geht man an jeder Oberflächeneinheit der endoluminalen Oberfläche mit einer für die Organgruppe spezifischen Tiefe, misst in dieser Tiefe die CT-Dichte und korreliert diese CT-Dichte mit einem Farbwert (z. B. die Farben einer Temperaturskala) und projiziert diesen farbkodierten Messwert auf die endoluminale 3D-Oberfläche. Hierdurch sieht man noch effektiver, an welchen Stellen sich pathologische Veränderungen zu entwickeln drohen
1070
Farbteil
⊡ Abb. 55.9. Mit einem einzigen virtuellen hochauflösenden Blick auf die Gefäße der Schädelbasis kann das Aneurysma im Bereich des hinteren Versorgungsbereiches des Schädels schnell und sicher diagnostiziert werden und zusätzlich für den Therapeuten in hilfreicher Darstellung im topographischen Kontext anderer anatomischer Strukturen visualisiert werden
⊡ Abb. 55.10. Die Kombination der 3D-Visualisierung mit mehreren CT-Datensätzen eröffnet weitere hochrelevante Visualisierungsformen, die bisher nur der DSA (= Digitale Subtraktions Angiographie) erschlossen waren und im Fall der CT-Subtraktion die Vorteile der DSA und der hochauflösende CT mit 3D-Visualisierung erschließen. Die hochauflösende Darstellung der Gefäßstrukturen auch im Verlauf der durch die Schädelbasis eröffnet neue Diagnose- und TherapieOptionen
1071 Farbteil
c
d ⊡ Abb. 57.4a–d. a Titanexplantate mit deutlicher knöcherner Integration, b Anwachsen auf grobgestrahlter Oberfläche, c Trabecular Metal™ und d spongiöser Knochen
Printing and Binding: Stürtz GmbH, Würzburg