Der Experimentator: Neurowissenschaften
In der Reihe DER EXPERIMENTATOR sind bereits erschienen: Mülhardt: Molekularbiologie/Genomics, 5. Auflage (ISBN 978-3-8274-2036-7) Müller/Röder: Mikroarrays, 1. Auflage (978-3-8274-1438-0) Luttmann et al.: Immunologie, 3. Auflage (ISBN 978-3-8274-2026-8) Rehm/Letzel: Proteinbiochemie/Proteomics, 6. Auflage (ISBN 978-3-8274-2312-2) Schmitz: Zellkultur, 2. Auflage (ISBN 978-3-8274-2108-1)
Guido Hermey, Claudia Mahlke, Michael Schwake, Tobias Sommer
Der Experimentator: Neurowissenschaften
Wichtiger Hinweis für den Benutzer Der Verlag, der Herausgeber und die Autoren haben alle Sorgfalt walten lassen, um vollständige und akkurate Informationen in diesem Buch zu publizieren. Der Verlag übernimmt weder Garantie noch die juristische Verantwortung oder irgendeine Haftung für die Nutzung dieser Informationen, für deren Wirtschaftlichkeit oder fehlerfreie Funktion für einen bestimmten Zweck. Der Verlag übernimmt keine Gewähr dafür, dass die beschriebenen Verfahren, Programme usw. frei von Schutzrechten Dritter sind. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Buch berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und MarkenschutzGesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Der Verlag hat sich bemüht, sämtliche Rechteinhaber von Abbildungen zu ermitteln. Sollte dem Verlag gegenüber dennoch der Nachweis der Rechtsinhaberschaft geführt werden, wird das branchenübliche Honorar gezahlt.
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Springer ist ein Unternehmen von Springer Science+Business Media springer.de
© Spektrum Akademischer Verlag Heidelberg 2010 Spektrum Akademischer Verlag ist ein Imprint von Springer 10
11
12
13
14
5
4
3
2
1
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Planung und Lektorat: Dr. Ulrich G. Moltmann, Bettina Saglio Herstellung und Satz: Crest Premedia Solutions (P) Ltd, Pune, Maharashtra, India Umschlaggestaltung: SpieszDesign, Neu–Ulm Titelfotografie: »Versicherung«, Öl auf Leinwand, 60 x 80 cm, Mai 2000 © Prof.Dr.Diethard Gemsa, Im Köhlersgrund 10, 35041 Marburg. E-Mail:
[email protected]
ISBN 978-3-8274-2368-9
V
Vorwort Als wir den EXPERIMENTATOR Neurowissenschaften planten, wollten wir weder mit einem mehrbändigen methodischen Kompendium enden, noch ein oberflächliches mit Anekdoten gespicktes Taschenbuch schreiben. Wir haben versucht, einen Mittelweg zu finden, und somit fügt sich das vorliegende Werk in seiner Konzeption in die Reihe der EXPERIMENTATORen ein. Der entstandene EXPERIMENTATOR Neurowissenschaften umfasst diverse methodische Ansätze, die selten alle parallel in einem einzigen Forschungslabor verwirklicht sind und en détail selten von einem EXPERIMENTATOR alleine beherrscht werden. Da wir dennoch ein möglichst breites Spektrum an Methoden kompetent und vor allem alltagsnah darstellen wollten, haben wir beschlossen, uns als Spezialisten aus verschiedenen Disziplinen zusammenzutun, um den EXPERIMENTATOR Neurowissenschaften zu schreiben. Herausgekommen ist ein Buch, welches, wie wir hoffen, dem Leser einen guten Überblick über das aktuelle neurowissenschaftliche Methodenspektrum liefert und durch die Spezialisierung der einzelnen Autoren darüber hinaus einen tieferen Einblick in die Durchführung und vor allem die Fallen und Probleme der einzelnen Methoden erlaubt. Dennoch, es gibt nichts, was nicht verbessert werden könnte. Daher freut sich das Autorenteam über Hinweise und Anregungen jeglicher Art, die den Neuro-Experimentator in Zukunft noch verbessern können. Kommentare bitte an:
[email protected] Die Autoren: PD Dr. Guido Hermey Zentrum für Molekulare Neurobiologie Hamburg Institut für Molekulare und Zelluläre Kognition Falkenried 94 20251 Hamburg Dr. Claudia Mahlke Zentrum für Molekulare Neurobiologie Hamburg Institut für Molekulare und Zelluläre Kognition Falkenried 94 20251 Hamburg PD Dr. Michael Schwake Biochemisches Institut der medizinischen Fakultät der Christian-Albrechts-Universität zu Kiel Olshausenstr. 40 24098 Kiel Dr. Tobias Sommer-Blöchl Institut für Systemische Neurowissenschaften Universitätsklinikum Hamburg-Eppendorf Martinistr. 52 20246 Hamburg
VI
Vorwort
Danken möchten wir allen, die in irgendeiner Form zum Zustandekommen dieses Werkes beigetragen haben. Für Hinweise, Korrekturen und Unterstützung bei Abbildungen danken wir Christian Alzheimer, Ralph Buchert, Christian Büchel, Jeff Dalley, Arne Engelsberg, Jürgen Finsterbusch, Thomas Friedrich, Christian Gaser, Oliver Gerhartz, Elke Gizewski, Jerome Gruhlich, Jakob Gutzmann, Irm Hermans-Borgmeyer, Tobias Huth, Martin Koch, Dietmar Kuhl, Mareike Menz, Stephanie Miceli, Matthias Nissen, Michael Rose, Michaela Schweizer, Wolfgang Weber-Fahr.
VII
Inhaltsverzeichnis 1
Auftakt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Guido Hermey
1
2
Molekularbiologische Techniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Guido Hermey
7
2.1 2.2 2.2.1 2.2.2 2.2.3 2.2.4 2.3 2.3.1 2.3.2 2.4 2.5 2.6 2.7 2.8 2.8.1 2.9 2.10 2.11
DNA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Manipulation von DNA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Restriktion von DNA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . DNA-Klonierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Alternative Klonierungsstrategien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Polymerase-Kettenreaktion (PCR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mutagenese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reverse Transkription-Polymerase-Kettenreaktion (RT-PCR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Woher bekomme ich ein Gen oder eine bestimmte cDNA? . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sequenzierung von DNA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . In silico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Genomische DNA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . RNA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Isolation von RNA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Expressionsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Microarrays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . RNA-Interferenz (RNAi) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur und World-Wide-Web-Links . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9 10 11 12 13 16 17 19 21 21 22 22 23 24 25 25 27 29 33
3
Analyse von Proteinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Guido Hermey
35
3.1 3.1.1 3.1.2 3.1.3 3.2 3.2.1 3.2.2 3.3 3.4 3.4.1 3.4.2 3.4.3 3.4.4 3.4.5 3.4.6 3.4.7 3.4.8
Antikörper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Antikörper-Herstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Das Antigen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reinigung von Antikörpern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reinigen und Nachweisen von Proteinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reinigung von Proteinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Nachweis von Proteinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Subzelluläre Fraktionierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Auffinden und Nachweisen von Proteininteraktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Immunpräzipitation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Co-Immunpräzipitation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Expression von Proteinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Protein-Tags . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Das Yeast-Two-Hybrid-System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Phagen-Display . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fluoreszenzbasierte Techniken zur Detektion von Proteininteraktionen . . . . . . . . . . . . . . . . . . SPR-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36 37 38 39 39 39 41 42 45 46 48 49 50 52 58 59 61
Literatur und World-Wide-Web-Links . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
VIII
Inhaltsverzeichnis
4
Zelluläre Neurobiologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Guido Hermey
67
4.1 4.1.1 4.1.2 4.1.3 4.1.4 4.2 4.2.1 4.2.2 4.2.3 4.2.4 4.2.5 4.3 4.3.1 4.3.2 4.3.3 4.3.4 4.4 4.4.1 4.4.2 4.4.3 4.5 4.5.1 4.5.2 4.6 4.6.1 4.6.2 4.6.3
Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ausrüstung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Medien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ungebetene Gäste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zellen des Nervensystems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zellkulturtypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Primärkulturen und Gewebekulturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zelllinien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Arbeiten mit Zelllinien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Herstellung von primären Zellkulturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Stammzellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Transfektion von Zellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Physikalischer Gentransfer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Chemischer Gentransfer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Viraler Gentransfer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Herstellung stabiler Zelllinien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . An- und Ausschalten von Genen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ausschalten von Genen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dominant-negative Varianten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Induzierbare Expressionssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Analyse von Proteinen in Zellkultur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Färben von Zellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fluoreszenzmarkierung von Proteinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Neuronale Aktivität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Induktion neuronaler Aktivität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Stimulation von Nervenzellen durch optische Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Nachweis neuronaler Aktivität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur und World-Wide-Web-Links . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
68 68 69 69 70 70 70 73 75 76 81 81 82 83 83 85 86 86 86 87 89 89 90 91 91 92 93 97
5
Elektrophysiologische Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 Michael Schwake
5.1 5.1.1 5.1.2 5.2 5.2.1 5.2.2 5.2.3 5.2.4 5.2.5 5.2.6 5.2.7 5.2.8 5.2.9
Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Biologische Membranen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ionentransport durch die Membran . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Elektrophysiologische Methoden zur Untersuchung von Ionenkanälen . . . . . . . . . . . . . . Zwei-Elektroden Spannungsklemme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Patch-Clamp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Messung von Aktionspotenzialen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Messung von postsynaptischen Potenzialen (PSP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Patchen an akuten Gewebeschnitten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Messung der synaptischen Plastizität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ableitung evozierter Summenpotenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Multielektrodenarrays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ableitung von Summenpotenzialen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
100 100 103 108 108 112 117 118 119 120 120 122 122
Literatur und World-Wide-Web-Links . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Inhaltsverzeichnis
IX
6
Anatomische Untersuchung des Nervensystems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 Claudia Mahlke
6.1 6.1.1 6.1.2 6.2 6.3 6.3.1 6.3.2 6.3.3 6.4 6.4.1 6.4.2 6.4.3 6.4.4 6.5
Gewebeaufbereitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Präparation, Fixierung und Einbettung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Schneidetechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Übersichtsfärbungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Nachweis und Lokalisation von Protein und mRNA im Nervensystem . . . . . . . . . . . . . . . . Immunhistochemie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Enzymhistochemie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . In situ-Hybridisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Nachweis neuronaler Aktivität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aktivitätsregulierte Gene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Autoradiographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reportermäuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cat-FISH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tracing-Verbindungsstudien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur und World-Wide-Web-Links . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
Mikroskopie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 Claudia Mahlke
7.1 7.2 7.3 7.4 7.4.1 7.4.2 7.5
Das Mikroskop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wichtige Parameter in der Mikroskopie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lichtmikroskopie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fluoreszenzmikroskopie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konfokale Mikroskopie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mikroskopie unterhalb der Beugungsgrenze (beyond diffraction limits) . . . . . . . . . . . . . . . . . . . Elektronenmikroskopie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur und World-Wide-Web-Links . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
Transgene Tiermodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 Guido Hermey
8.1 8.1.1 8.1.2 8.2 8.3 8.3.1 8.3.2 8.3.3 8.3.4 8.4
Transgene Invertebrata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Transgene Fliegen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Transgene Würmer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Transgene Mäuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gene Targeting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Knockout/Knockin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konditionale Mutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Large-Scale-Ansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reporter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . In utero-Elektroporation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur und World-Wide-Web-Links . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
Verhaltensbiologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 Claudia Mahlke
9.1 9.2 9.2.1
Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 Voraussetzungen für die verhaltensbiologische Untersuchung transgener Mäuse . . . 181 Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
126 126 127 127 129 130 134 134 136 136 138 139 139 140 142
146 146 149 150 151 154 155 156
158 158 159 159 163 168 169 172 176 176 176
X
Inhaltsverzeichnis
9.2.2 9.2.3 9.2.4 9.2.5 9.2.6 9.3 9.3.1 9.3.2 9.3.3 9.4 9.4.1 9.4.2 9.4.3 9.4.4
Genetischer Hintergrund . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gesundheitscheck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Motorische Fähigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sensorische Fähigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ängstlichkeit und Explorationsverhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lernen und Gedächtnis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Deklaratives Gedächtnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Nicht-deklaratives Gedächtnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Neurologische Erkrankungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Depression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Schizophrenie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Autismus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur und World-Wide-Web-Links . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
Neuroimaging: neuro-bildgebende Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 Tobias Sommer
10.1 10.2 10.2.1 10.2.2 10.2.3 10.3 10.3.1 10.3.2 10.3.3 10.3.4 10.3.5 10.3.6 10.4 10.4.1 10.4.2 10.4.3
Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Strukturelle Bildgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Computertomographie – CT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Magnetresonanztomographie – MRT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Diffusionstensorbildgebung – DTI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Funktionelle Bildgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Magnetresonanzspektroskopie – MRS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Single-Photon-Emissions-Computertomographie – SPECT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Positronenemissionstomographie – PET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Funktionelle Nahinfrarotspektroskopie – fNIRS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Elektroenzephalographie – EEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Magnetenzephalographie – MEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Funktionelle Magnetresonanztomographie – fMRT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Grundlagen der fMRT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . fMRT-Experimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Auswertung von fMRT-Daten: Vom BOLD-Signal zum Blob . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur und World-Wide-Web-Links . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
183 185 186 187 190 192 192 193 198 202 202 203 204 206 206
210 213 213 214 223 225 225 227 229 235 236 239 239 240 243 255 263
Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
1
Auftakt Guido Hermey
G. Hermey et al., Der Experimentator: Neurowissenschaften, DOI 10.1007/978-3-8274-2369-6_1, © Spektrum Akademischer Verlag Heidelberg 2010
1
2
1
Kapitel 1 • Auftakt
Die neurowissenschaftliche Forschung vereinigt Methoden diverser Disziplinen wie der Biologie, Biochemie, Physiologie, Medizin und Psychologie. Entsprechend groß ist das Methodenspektrum. Selten sind alle methodischen Ansätze in einem einzigen Forschungslabor etabliert. Häufig wird jedoch von einem EXPERIMENTATOR in den Neurowissenschaften erwartet, mehrere Disziplinen zu beherrschen, z. B. ein wenig Molekularbiologie, kombiniert mit Biochemie und Zellbiologie, um am Ende mit elektrophysiologischen Experimenten die eigentlichen Fragen zu beantworten. Wir wollen Studenten, Doktoranden und auch technischen Mitarbeitern helfen, sich methodisch zu orientieren und über den eigenen Tellerrand hinaus zu schauen. Natürlich bleiben wir in einigen Bereichen oberflächlich. Manch einer wird vielleicht Methoden vermissen. Nichtsdestotrotz bleibt es unser Ziel, die wichtigsten Verfahren zu nennen, die helfen können, neurowissenschaftliche Fragestellungen zu beantworten, vor konzeptionellen und experimentellen Umwegen zu warnen und methodische Abkürzungen aufzuzeigen. In den letzten Jahren haben sich die deutschen Universitäten sehr gewandelt. Die so genannte Bologna-Reform hat dazu geführt, dass es auch den Bachelor als eigenständigen Studienabschluss gibt. Auf diesem aufbauend ist es möglich, ein Masterstudium aufzunehmen und schließlich in einer Graduate School seine Ausbildung parallel zur Doktorarbeit fortzusetzen. So sind viele spezialisierte Studiengänge mit dem Fokus auf Neurowissenschaften entstanden. Weiterhin gibt es auch in allgemein gehaltenen Studiengängen neurowissenschaftliche Kurse, und natürlich gibt es immer noch neurowissenschaftlich ausgerichtete Doktorarbeiten und Labore mit technischen Mitarbeitern. Was ist die Motivation zur neurowissenschaftlichen Forschung? Viele rutschen zufällig hinein. Als Erklärung für die Wahl der Doktorandenstelle oder der Studienwahl geben diese an: »Der Prof war so nett«, »ich wollte in der Stadt bleiben« usw. An diesem Zufallsprinzip ist eigentlich nichts auszusetzen. Das Leben wird häufig durch Zufälle bestimmt. Trotzdem sollten einige Faktoren bedacht werden. Ist der Professor nur nett oder hat er auch Ideen? Wie ist die finanzielle Ausstattung, denn ohne Geld macht forschen nämlich keinen Spaß.
Veröffentlicht das Labor etwas? Gibt es nur den viel beschäftigten Professor oder auch noch einen weiteren Betreuer? All dies können Kriterien sein, die für die Auswahl einer Doktorandenstelle in Erwägung gezogen werden sollten. Nun gibt es aber gerade in den Neurowissenschaften auch weitere Motivationen, diese zu studieren oder gar darin zu promovieren. Da ist z. B. der anthropozentrische Ansatz: »Ich will die Menschen verstehen«. oder der egozentrische Ansatz: »Ich will mein ICH verstehen«. »Wie entsteht mein Wille?« »Was ist Bewusstsein?« Diese Ansätze können durchaus reizvoll sein, und es handelt sich mit großer Wahrscheinlichkeit um Themen, welche zukünftig einen Teil der Neurowissenschaften dominieren werden. Doch wer nur aus Zwecken der Selbsterkenntnis ein neurowissenschaftliches Studium auf sich nimmt, verschwendet vielleicht seine Zeit. Empfohlen sei in diesem Zusammenhang das Buch Zen and the Brain von James H. Austin, in dem versucht wird, Bewusstsein und die Vorgänge bei der Meditation durch neurowissenschaftliche Grundlagen zu erklären. Wer es nicht schafft, den wissenschaftlichen, sondern nur den Zen-Teil mit Begeisterung zu lesen, der sollte sein Seelenheil vielleicht lieber woanders suchen. Immer wieder wird versucht die Motivation, am Gehirn zu forschen, humorvoll zu begründen. Unter Männern ist in diesem Zusammenhang ein bestimmtes Zitat beliebt. Einer der Autoren dieses Buches hörte es zum ersten Mal vor vielen Jahren auf einer neurowissenschaftlichen Konferenz bei einem Vortrag eines in New York forschenden späteren Nobelpreisträgers. Dieser zitierte einen anderen New Yorker, Woody Allen, mit dem Satz: »Das Gehirn ist mein zweitliebstes Organ.« Zitiert ein bekannter New Yorker einen anderen bekannten New Yorker, kann dies durchaus sehr unterhaltsam und cool rüberkommen. Outet sich ein biederer deutscher Professor aus der Provinz mit dem gleichen Zitat, kann dies auch eine gewisse Komik haben, wenn man dem Mann eigentlich nur Gehirn zugetraut hätte. Also hüten Sie sich, als junger Experimentator allzu humorvolle Erklärungen abzugeben, dies könnte durchaus in die Hose gehen. Viele Neurowissenschaftler nennen das Verstehen des komplexesten Organs oder die Heilung verschiedener Erkrankungen als Motivation, sich
Auftakt
mit dem Thema auseinanderzusetzen. Dies sind auf jeden Fall edle Ziele, denen kaum etwas entgegenzusetzen ist. Eine große Motivation sollten Sie auf jeden Fall mitbringen, denn Sie müssen nicht nur eine ausreichende Frustrationstoleranz beim Durchführen Ihrer Experimente besitzen, sondern auch jede Menge Durchhaltevermögen an den Tag legen. Nach der Ausbildungsphase konkurrieren Sie mit vielen anderen Experimentatoren um begrenzte Ressourcen, Stellen und Forschungsmittel. Beim Kampf um diese Ressourcen sind andere Eigenschaften gefragt als beim Experimentieren. Manch einer, der diesen Wettbewerb als sinnlos empfand, hat sich von der Wissenschaft abgewandt. Eine allgemeine Hilfestellung zur Karriereplanung zu geben ist nicht einfach, es gibt unterschiedliche Bedürfnisse. Den meisten Studenten und späteren Doktoranden ist aber gemeinsam, dass der Weg in die Wissenschaft gleichzeitig auch die erste Berufserfahrung ist. Sie begegnen dann an den Universitäten, der Welt der edlen Wissenschaften, einem ebenso ausgewogenen Querschnitt von Charakteren, wie man sie auch in anderen Lebensbereichen antrifft. Es ist zwar oft desillusionierend, aber auch hier gibt es gute und böse Menschen. Für viele erscheint dies überraschend und die heile Seifenblase, in der sie bisher gelebt haben, zerplatzt. Seien Sie nicht enttäuscht, sondern suchen Sie sich lieber ein Umfeld, das zu Ihnen passt.1 Der inzwischen verstorbene Nobelpreisträger Alan Hodgkin bezeichnete Forschung einmal als »eine Mischung aus Zufall und Absicht«. Vielleicht sollte dies auch für die Lebens- bzw. Karriereplanung gelten. Überlassen Sie nicht alles dem Zufall, seien Sie aber nicht allzu enttäuscht, wenn manches anders kommt als geplant. Diese Offenheit ist auch bei wissenschaftlichen Experimenten gefragt, denn oft ist das Resultat anders als erwartet oder gewünscht. Sehr oft funktionieren Experimente auch gar nicht. Das ist dann wirklich ärgerlich, aber leider hilft ärgern nicht weiter. Schon oft hat ein kritisches Prüfen der Versuchsprotokolle einen
1
H. Rehm und C. Mülhardt geben in den Experimentator-Bänden Proteinbiochemie bzw. Molekularbiologie lesenswerte ausführliche Hinweise zur Karriereplanung und der Wissenschaftswelt.
3
1
entscheidenden kleinen Fehler aufdecken können. Manchmal funktioniert das jedoch auch nicht und bereits einfach erscheinende Ansätze funktionieren nicht. In diesem Fall ist Ausdauer gefragt. Aber was macht denn nun eigentlich einen guten Experimentator aus? Zunächst sollte der Experimentator seine Arbeit mögen. Bei einer grundsätzlichen Abneigung gegen experimentelles Arbeiten ist es schwer vorstellbar, dass dieses auch klappt. Er sollte also eine gewisse »Liebe zum Experiment« besitzen. Experimente sollten ausführlich geplant werden, und es sollten ausreichende Kontrollen und auch Wiederholungen durchgeführt werden. Der Experimentator sollte eine Ordnung beibehalten können, um systematisch seine Analysen durchführen und dokumentieren zu können. Dies scheint alles so selbstverständlich, dass es hier eigentlich gar nicht erwähnt werden müsste. Jedoch neigen einige Experimentatoren dazu, allzu schnell Schlussfolgerungen aus einem Experiment zu ziehen, das eigentlich nur bei zwei von zehn Versuchen geklappt hat und zu dem es keine Kontrollexperimente gibt. Auch wenn Sie noch so verzweifelt sind, folgen Sie solchen Beispielen nicht. Erlernen Sie möglichst viele Methoden. Dies ist das Handwerkszeug des Experimentators. Wenden Sie die Methoden aber nicht ziellos an. Überlegen Sie sich, was Sie eigentlich zeigen wollen. Neugier ist wichtig, stellen Sie die richtigen Fragen. Die meisten Fragen, die in den Neurowissenschaften gestellt werden, resultieren aus der Betrachtung eines gesamten Organismus. Dieser bleibt im Falle der Verhaltensforschung intakt, andere Forschungsansätze versuchen die molekularen und zellulären Mechanismen, die dem Verhalten oder der Physiologie zugrunde liegen, in verschiedenen, zum Teil isolierten Modellsystemen aufzudecken. Auf die unterschiedlichen Modellsysteme und ihre Manipulation wird ausführlich in den einzelnen Kapiteln eingegangen. Im vorliegenden EXPERIMENTATOR fokussieren wir uns hauptsächlich auf die Forschung an der Maus und am Menschen. Die Maus ist zu einem zentralen Modellsystem in der biologischen, medizinischen und inzwischen sogar der psychologischen Forschung geworden. Dies liegt einerseits daran, dass Mäuse genau wie Menschen Säugetiere sind und deshalb der Grundbauplan des Nervensystems relativ ähn-
4
1
Kapitel 1 • Auftakt
lich ist. Andererseits ist die genetische Manipulation von Mäusen sehr gut etabliert, was diverse experimentelle Analysen überhaupt erst ermöglicht. Viele der in diesem Buch genannten Techniken sind aber auch auf andere Tiere übertragbar. In der neurowissenschaftlichen Forschung können prinzipiell alle Tiere, die ein Nervensystem besitzen, studiert werden. Durch besondere Eigenschaften sind einige Tiere besonders beliebt und werden als Modellorganismen betrachtet. Coelenteraten (Nesseltiere) haben zwar ein als diffus bezeichnetes Nervensystem, besitzen aber eine außerordentliche Regenerationsfähigkeit. Einige Arten wie Hydra werden deshalb gerne von Entwicklungsneurobiologen studiert. Unter den Wirbellosen zeichnet sich der Nematode Caenorhabditis elegans durch Eutelie, eine genau definierte Anzahl von Zellen (959), aus. Diese Würmer besitzen ein einfaches Nervensystem, dessen Neurone (genau 302) und alle ihre Verbindungen beschrieben sind. Das Genom von C. elegans ist sequenziert und lässt sich leicht manipulieren, genau wie das von Drosophila melanogaster. Beide haben kurze Generationszyklen und eine hohe Anzahl an Nachkommen. Die Meeresschnecke Aplysia californica (kalifornischer Seehase) besitzt ein einfaches Nervensystem mit einer noch überschaubaren Anzahl von Neuronen (ca. 20 000). Viele grundsätzliche Lernvorgänge konnten bereits mit Hilfe von Aplysia erforscht werden. Bekannt wurde Aplysia vor allem als Studienobjekt des Nobelpreisträgers Eric Kandel. Weil die Embryonen sich vollständig außerhalb des Muttertieres entwickeln und die Eier durchsichtig sind, eignet sich der Zebrafisch (eigentlich Zebrabärbling), Danio rerio, für Entwicklungsstudien. Aber auch weitere, zunächst ungewöhnlich erscheinende Tiere können als Modellsysteme für bestimmte Fragestellungen von Nutzen sein. So wird beispielsweise das Neunauge als primitives Wirbeltier mit einem verhältnismäßig einfach organisiertem Nervensystem sowie sehr großen reticulospinalen Neuronen und Synapsen, von einigen Wissenschaftlern als Studienobjekt geschätzt. Beim Arbeiten mit Tieren und bei ihrer genetischen Manipulation können Sie allerdings nicht schalten und walten, wie Sie möchten. Sie müssen sich an gesetzliche Regeln halten. Die Forschung mit und an Tieren ist durch das Tierschutzgesetz
geregelt. Der Tierschutz ist als Staatsziel im Grundgesetz verankert und wird streng kontrolliert. Die gesetzlichen Regelungen bedeuten, dass die Arbeiten bzw. Experimente mit Tieren behördlich genehmigt sein müssen. Auch solche Tierexperimente, wie z. B. ein kognitiver Verhaltenstest, die ein Tier nicht offensichtlich beeinträchtigen, müssen erst genehmigt werden. Haben Sie vor, Tierexperimente durchzuführen, müssen Sie außer der Genehmigung für das Experiment selbst die erforderlichen Fachkenntnisse nachweisen. Diese können Sie entweder im Studium oder einem entsprechenden Kurs erwerben. Ein völliger Verzicht auf Tierexperimente erscheint in den Neurowissenschaften leider nicht möglich, denn viele Hypothesen können nur am lebenden Tier, z. B. in einem Verhaltenstest, bestätigt werden. Trotzdem wird immer wieder versucht, auf Tierexperimente zu verzichten und diese durch andere Methoden zu ersetzen. Weiterhin sollte gerade bei höher entwickelten Tieren versucht werden, ein mögliches Leiden der Tiere zu reduzieren. Dies kann z. B. durch das Ersetzen invasiver Methoden durch nicht-invasive Methoden erreicht werden. Darüber hinaus gibt es verschiedene andere Gesetzte und Verordnungen, die für den Experimentator relevant sein können. Diese sind einerseits Arbeitsschutzregeln, die ein sicheres und unfallfreies Arbeiten gewährleisten sollen. Es handelt sich im Wesentlichen um Arbeitnehmerschutz, der auch im Grundgesetz festgeschrieben ist und als wichtigstes Schutzziel die Gesundheit des Arbeitnehmers hat. Arbeiten Sie mit radioaktiven Stoffen, so brauchen Sie eine entsprechende Umgangsgenehmigung und müssen sich an die Strahlenschutzverordnung halten. Arbeiten Sie mit gentechnisch veränderten Organismen, so fallen ihre Arbeiten unter das Gentechnikgesetz, welches sich in mehrere Verordnungen, die z. B. die Sicherheit und Aufzeichnungspflicht regeln, aufgliedert. In der Praxis bedeutet dies für den Experimentator, dass er für radioaktive und gentechnische Arbeiten entsprechend belehrt werden muss. Dies tut der entsprechende Sicherheitsbeauftragte ihres Labors. Noch eine Anmerkung zu Anglizismen. Seit der zweiten Hälfte des letzten Jahrhunderts ist Englisch endgültig zur beherrschenden Fachsprache in den Wissenschaften geworden. Publikationen in allen
Auftakt
bedeutenden Fachzeitschriften und Vorträge auf internationalen Kongressen werden in englischer Sprache verfasst oder vorgetragen. Aufgrund dieser sprachlichen Dominanz sind viele Fachausdrücke englisch und werden kaum noch ins Deutsche übersetzt. Entsprechend werden im Laborjargon, ähnlich zur Computersprache (z. B. downloaden) sehr häufig englische Fachworte mehr oder weniger eingedeutscht verwendet. Von einigen Begriffen werden die Übersetzungen ins Deutsche eigentlich nie verwendet und klingen deshalb sehr künstlich und falsch, so dass wir auf den Versuch der Übersetzung in vielen Fällen verzichtet haben.
5
1
7
Molekularbiologische Techniken Guido Hermey
2.1
DNA – 9
2.2
Manipulation von DNA – 10
2.2.1 2.2.2 2.2.3 2.2.4
Restriktion von DNA – 11 Vektoren – 12 DNA-Klonierung – 13 Alternative Klonierungsstrategien – 16
2.3
Polymerase-Kettenreaktion (PCR) – 17
2.3.1 2.3.2
Mutagenese – 19 Reverse Transkription-Polymerase-Kettenreaktion (RT-PCR) – 21
2.4
Woher bekomme ich ein Gen oder eine bestimmte cDNA? – 21
2.5
Sequenzierung von DNA – 22
2.6
In silico – 22
2.7
Genomische DNA – 23
2.8
RNA – 24
2.8.1
Isolation von RNA – 25
2.9
Expressionsanalyse – 25
2.10
Microarrays – 27
2.11
RNA-Interferenz (RNAi) – 29 Literatur und World-Wide-Web-Links – 33
G. Hermey et al., Der Experimentator: Neurowissenschaften, DOI 10.1007/978-3-8274-2369-6_2, © Spektrum Akademischer Verlag Heidelberg 2010
2
8
2
Kapitel 2 • Molekularbiologische Techniken
Unter Molekularbiologie versteht man im Allgemeinen das Arbeiten mit Nucleinsäuren. Die Techniken werden klassischerweise von der Biochemie, dem Arbeiten mit Proteinen, der Zellbiologie und weiteren Bereichen abgegrenzt. Wir folgen hier dieser Einteilung, allerdings verschwimmt diese nicht nur in unseren Kapiteln, sondern auch im neurowissenschaftlichen Labor, denn hier werden verschiedenste Techniken häufig kombiniert, um die Forschungsziele zu erreichen. Im Jahre 2003 wurde das Humangenomprojekt beendet und in den folgenden Jahren Genome weiterer Spezies vollständig entschlüsselt. Die Bedeutung und Regulation aller Gene ist bei weitem noch nicht bekannt. Trotzdem bezeichnen inzwischen einige Forscher die Erforschung des Genoms als Forschung des letzten Jahrhunderts und jetzt, in diesem Jahrtausend, würde das alles entscheidende Proteom erforscht. Dies liegt sicherlich nicht nur an dem Geltungsdrang einiger Proteomforscher. Die Identifizierung neuer Gene hat lange Zeit einen ganzen Forschungszweig beschäftigt und genoss sehr viel Aufmerksamkeit. Dieser Forschungszweig wurde schließlich durch viele Großprojekte, die nur dem Aufdecken möglichst vieler Gensequenzen dienten, geradezu industrialisiert. Die Konsequenz ist, dass inzwischen eine neue Gensequenz nur noch ein gelangweiltes Achselzucken hervorruft. Für den neurowissenschaftlich arbeitenden Experimentator sind Gene aber immer noch von Bedeutung. Nicht nur weil durch Gene Proteine codiert werden und diese häufig funktionelle Schlüsselmoleküle des Gehirns sind. Die Aufklärung der zeitlichen und räumlichen Expression jedes einzelnen Gens im Nervensystem ist relevant und eine Fortsetzung des Genomprojektes. Weiterhin wird die Regulation der Expression neuronaler Gene erforscht. Letztendlich werden diese beschreibenden Ansätze durch Vergleiche bei unterschiedlichen Entwicklungsstadien, Aktivitätszuständen und Erkrankungen vervollständigt. Viele Versuchsansätze versuchen nicht mehr die Veränderung der Expression einzelner Gene zu beschreiben, sondern zielen auf globalere Aussagen ab. Es wird beispielsweise das Transkriptom, also die Identität aller exprimierten Gene eines bestimmten Gehirnbereichs, beschrieben. Die Folge ist die Erzeugung großer Datenmengen, die nur noch computergestützt ana-
lysiert werden können. Es handelt sich bei solchen Forschungsansätzen in der Regel um explorative, und nicht um Hypothesen-basierte Forschung. Diese explorativen Forschungsansätze dienen nicht nur der Katalogisierung, sondern können darüber hinaus zur Entdeckung neuer Ansatzpunkte, neuer Kandidatengene, führen. Als übergreifendes Ziel verfolgt man dabei, ein bestimmter Genotyp einen bestimmten Phänotyp, bestimmte Eigenschaften, determiniert. Mit anderen Worten, welche Gene beeinflussen eine bestimmte Eigenschaft oder eine Funktion, wie das Auswachsen eines Axons in Richtung eines Zielmoleküls oder ein bestimmtes Verhalten als Antwort auf einen Stimulus. Die genetische Information wird in Desoxyribonucleinsäure (DNA) gespeichert und mit Hilfe von Ribonucleinsäure (RNA) in biologisch wirksame Proteine übersetzt. Die Methoden zur Erforschung bzw. Manipulation von Genen, DNA und RNA werden nicht nur als molekularbiologische Techniken, sondern auch als Gentechnik bezeichnet. Ein Großteil unseres heutigen neurobiologischen Wissens ist mit Hilfe molekularbiologischer Techniken erforscht worden. Die Erkenntnis, dass die DNA Träger der Erbinformation ist, ist erst etwas mehr als ein halbes Jahrhundert alt. In den 70er Jahren wurde das Klonieren von DNA erfunden und einer wachsenden Gruppe von Forschern zugänglich. Rückblickend haben sich die molekularbiologischen Techniken rasant entwickelt und entwickeln sich immer noch weiter. Aufgrund der breiten Anwendungsmöglichkeiten geht diese Entwicklung auch mit einer zunehmenden Kommerzialisierung einher. Viele grundlegende Techniken werden von verschiedenen Firmen als komplette Baukästen, so genannte Kits, mit Puffern und allem Drumherum angeboten. Dies hat das Anwenden von molekularbiologischen Techniken erleichtert. Ein Nachteil ist, dass viele Benutzer dieser Kits gar nicht mehr wissen, was sie bei den einzelnen Reaktionsschritten tun. Ältere Experimentatoren benennen diese nachwachsende Generation von Experimentatoren auch gerne als Kit Kids. Das Benutzen von Kits ist aber nicht grundsätzlich anrüchig, es kann sehr sinnvoll und hilfreich sein. Weiterhin eignen sich viele molekularbiologische Techniken zur Automatisierung, was vor allem in der industriellen Forschung und in der Diagnostik ausgenutzt
2.1 • DNA
wird. In diesem Kapitel gehen wir auf die wichtigsten molekularbiologischen Techniken ein.
2.1
DNA
Die ultimative Quelle der genetischen Information ist die Desoxyribonucleinsäure (DNA), ein langes Polymer aus sich wiederholenden Einheiten, den Nucleotiden. Diese bestehen wiederum aus einer Phosphatgruppe, einem Zucker (2-Desoxyribose) und einer Base (Adenin (abgekürzt A), Cytosin (C), Guanin (G) und Thymin (T)). Die Kohlenstoffatome der Desoxyribose sind von 1 bis 5 nummeriert (. Abb. 2.1). Eine der vier Basen ist jeweils an das 1′-Kohlenstoffatom gebunden, am 5′-Kohlenstoffatom hängt der Phosphatrest. Zwischen der Phosphatgruppe und der OH-Gruppe am 3′-Kohlenstoffatom der Desoxyribose des folgenden Nucleotids wird eine Phosphodiesterbindung geknüpft. So entsteht eine Nucleotidkette mit einem freien Phosphatrest am 5′-Kohlenstoffatom der ersten Desoxyribose und einer freien OH-Gruppe am 3′-Kohlenstoffatom der letzten Desoxyribose. Somit besitzt ein DNA-Strang ein 5′-Ende (»fünf Strich Ende«) und ein 3′-Ende (»drei Strich Ende«) (. Abb. 2.1). Synthetisiert wird ein DNA-Strang immer von 5′ nach 3′, denn DNA-Polymerasen können Nucleotide immer nur an die OH-Gruppe am 3′-Ende anfügen, aber nicht ans 5′-Ende. Weiterhin kommt in der Regel DNA nicht als Einzelstrang, sondern als Doppelstrang vor. Dieser ist gewunden, man spricht von der DNA-Doppelhelix. Die beiden Stränge sind komplementär angeordnet, an jedem Ende der Doppelhelix hat einer der beiden Einzelstränge ein 5′-, der andere ein 3′-Ende. Die Basen sind einander zugewandt und bilden Wasserstoffbrücken aus, wobei immer A-T und G-C paart. Zwei Wasserstoffbrücken werden zwischen A und T ausgebildet, drei zwischen G und C (. Abb. 2.1). Dadurch ist die GC-Paarung fester und es muss mehr Energie aufgewendet werden, um diese zu trennen. Die Abfolge der Basen im Strang codiert die genetische Information. Gibt man eine DNASequenz an, so ist der allgemeine Konsens, die Sequenz von 5′ nach 3′ zu schreiben. Dies entspricht auch der Richtung, in welcher die genetische Information in eine Aminosäuresequenz übersetzt wird,
9
2
das 5′-Ende einer Gensequenz entspricht dem NTerminus eines Proteins. Die beiden DNA-Stränge einer DNA-Doppelhelix können problemlos voneinander getrennt werden, entweder durch das Zuführen von Energie oder enzymatisch. Man spricht vom Denaturieren der DNA. Eine kurze Erwärmung auf 95°C reicht dafür aus. Dieser Schritt ist in der Regel reversibel und die entsprechenden Basen können wieder paaren und einen Doppelstrang ausbilden, je nach experimentellem Zusammenhang spricht man vom Hybridisieren oder vom Annealen (Aneinanderlagern). Die genetische Information ist in der DNADoppelhelix gespeichert. Gene sind Abschnitte auf der DNA, die für ein Protein codieren, und bestehen aus Exons und Introns. Dieser Bereich wird zunächst in mRNA transkribiert, Introns durch Spleißen entfernt und dann wird die codierende mRNA an den Ribosomen in eine Aminosäuresequenz translatiert. Es wird aber nicht die gesamte mRNA translatiert, es gibt einen Bereich am 5′Ende, der nicht translatiert wird, die so genannte 5′ untranslatierte Region (5′-UTR) und einen Bereich am 3′-Ende, die so genannte 3′untranslatierte Region (3′-UTR). Den Bereich der mRNA, der in Aminosäuresequenz übersetzt wird, bezeichnet man als codierenden Bereich oder coding sequence (CDS), im richtigen Leserahmen auch als offenen Leserahmen oder open reading frame (ORF). RNA-Moleküle sind genau wie DNA aufgebaut, allerdings wird statt Thymin Uracil (U) und ein anderer Zucker, Ribose, verwendet. Deshalb die Bezeichnung Ribonucleinsäure (RNA). Weiterhin kommt RNA fast immer als Einzelstrang vor. Basenpaarungen können innerhalb des Einzelstranges stattfinden und bedingen so eine dreidimensionale Struktur. Man kann experimentell mRNA in DNA übersetzen – diese der mRNA komplementären DNA bezeichnet man als cDNA (complementary DNA). Manchmal wird auch komplementäre RNA verwendet, diese wird entsprechend als cRNA bezeichnet.
10
A
Kapitel 2 • Molekularbiologische Techniken
5’ OH CH2
O 1’
4’
2
5’ OH CH2
OH
3’
O
4’
2’
3’
OH
2’
OH
2’-Desoxyribose
B
OH 1’
OH
Ribose
5’-Ende
3’-Ende O NH2
OO
N
HN
N
P
N
O
O-
O
O
O
N
O
N
O
Thymin Adenin
O
O
-O
NH2
O O
P
N N
P
N
HN
O
O-
O
N
O
O N
O P NH2
O
-O
N
P O-
O
O
O
O
N
N
NH O O
O
N
N
O
NH2
O Cytosin
P O-
Guanin OH 3’-Ende
O
-O
5’-Ende
. Abb. 2.1 Molekulare Struktur der DNA. (A) Desoxyribose und Ribose, Nummerierung der Kohlenstoffatome ist indiziert. (B) DNA besteht aus einem Desoxyribose-Phosphat-Rückgrat, das auf der Innenseite Basen trägt. Diese formen Wasserstoffbrückenbindungen (gestrichelte Linien) mit den komplementären Basen und halten die komplementären Stränge zusammen. Die beiden DNA Stränge sind entgegengesetzt angeordnet, ein Strang von 5′ nach 3′, der andere von 3′ nach 5′
2.2
Manipulation von DNA
Das Molecular Cloning, die Manipulation von DNA, erlaubt es, spezifische DNA-Fragmente zu schneiden und zusammenzufügen, zu verändern, zu vermehren und zu isolieren. Wir werden zunächst auf
die inzwischen klassische Klonierung eingehen und dann auf neuere technische Möglichkeiten. Für den neurowissenschaftlich arbeitenden Experimentator sind diese Techniken wichtig, denn sie dienen dazu, identifizierte Gene zu manipulieren und z. B. in einen Modellorganismus einzubringen
11
2.2 • Manipulation von DNA
2
A SmaI
5’-CCC GGG-3’ 3’-GGG CCC-5’
EcoRV
5’-GAT ATC-3’ 3’-CTA TAG-5’
EcoRI
5’-G AATTC-3’ 3’-C TTAA G-5’
KpnI
5’-G GTAC C-3’ 3’-C CATGG-5’
BamHI
5’-G GATCC-3’ 3’-C CTAG G-5’
BamHI
5’-G GATCC-3’ 3’-C CTAG G-5’
B
C
Ligation von BamHI und BamHI Fragmenten resultiert in:
5’-G GATCC-3’ 3’-C CTAG G-5’
5’-G GATCC-3’ 3’-C CTAG G-5’
D BamHI
5’-G GATCC-3’ 3’-C CTAG G-5’
BgIII
5’-A GATCT-3’ 3’-T CTAG A-5’
Ligation von BamHI- und BglII- Fragmenten resultiert in:
5’-G GATCT-3’ 3’-C CTAGA-5’
5’-A GATCC-3’ 3’-T CTAGG-5’
. Abb. 2.2 Restriktionsenzyme. Beispiele für verschiedene Schnittstellen, die von Restriktionsenzymen erkannt werden. Die spezifischen Restriktionsenzyme sind angegeben. Die gestrichelten Linien zeigen an, wie die Trennung verläuft. Es gibt Restriktionsenzyme, die blunt ends erzeugen (A), oder sticky ends (B), wobei EcoRI einen 5′-Überhang und KpnI einen 3′-Überhang generiert. Gleiche Überhänge, die von einem Restriktionsenzym generiert wurden, paaren und können ligiert und von diesem auch wieder geschnitten werden (C). Gleiche Überhänge, die von verschiedenen Restriktionsenzymen generiert wurden, paaren und können ligiert werden (D), allerdings können diese nicht wieder geschnitten werden, weil die Erkennungssequenz verändert ist
oder ein Protein zu exprimieren. Der Großteil der molekularbiologischen Techniken ist relativ leicht zu erlernen und man braucht keine großen oder außergewöhnlichen Gerätschaften. Was trotzdem nicht heißt, dass diese immer sofort klappen.
2.2.1
Restriktion von DNA
Die Entdeckung von Restriktionsenzymen (oder Restriktionsendonucleasen), die DNA-Sequenzen spezifisch schneiden, hat rekombinante DNATechniken erst ermöglicht. Natürlicherweise werden Restriktionsenzyme in Bakterien gebildet. Sie dienen der Abwehr von Bakteriophagen. Die bakterielle DNA ist an den entsprechenden Erkennungssequenzen methyliert und wird nicht geschnitten. Die Bakteriophagen-DNA ist nicht methyliert und wird durch die Restriktionsenzyme fragmentiert.
Verschiedene Firmen stellen Restriktionsenzyme rekombinant her. Der bakterielle Ursprung ist an der Namensgebung noch erkenntlich, so entstammt z. B. das Restriktionsenzym EcoRI aus Escherichia coli (= Eco). Jedes Restriktionsenzym erkennt eine spezifische Sequenz aus 4–8 Nucleotiden, die normalerweise ein Palindrom ist. Palindrome sind Zeichenketten, die von links nach rechts und von rechts nach links gelesen gleich lauten. Die Wörter »Lagerregal« oder »Radar« und der Satz »O Genie, der Herr ehre Dein Ego!« sind z. B. Palindrome. Da die DNA als komplementärer Doppelstrang vorliegt, besitzen die Erkennungssequenzen eine zweifache Symmetrieachse (. Abb. 2.2). Die Erkennungssequenzen werden von den Enzymen unterschiedlich geschnitten. Entweder werden beide Stränge an der gleichen Stelle geschnitten, so entstehen glatte Enden (blunt ends) oder die Stränge werden um einige Basenpaare versetzt
Am pic illin
Pl ac
l ac Z
KpnI ApaI XhoI SalI HindIII EcoRV EcoRI PstI SmaI BamHI SpeI XbaI NotI/EagI SacI
Ampicillin
B
V P CM B GH p A
f1
A 0p
Der neurowissenschaftlich arbeitende Experimentator ist meistens nicht an einem einzigen DNAMolekül interessiert. Für fast alle Anwendungen soll DNA in ausreichender Menge zur Verfügung stehen, sie muss vermehrt werden. Das ultimative Werkzeug hierfür sind DNA-Vektoren. Diese replizieren autonom in einem Wirt und können mit DNA-Fragmenten kombiniert werden. Am häufigsten werden Plasmide als Vektoren verwendet. Plasmide sind kleine ringförmige DNA-Moleküle, die in Bakterien vervielfältigt werden, ohne in das bakterielle Genom zu integrieren. In der Regel werden nichtpathogene Stämme des Darmbakteriums Escherichia Coli verwendet. Vektoren sind meist
p UC o ri
S V4
Vektoren
f1 o ri
C ori
2.2.2
A
pU
geschnitten, so entstehen Überhänge (cohesive oder sticky ends). Man unterscheidet 3′- und 5′-Überhänge (. Abb. 2.2). Die Überhänge von DNA-Fragmenten, die mit dem gleichen Restriktionsenzym geschnitten wurden, können wieder miteinander paaren und mit Hilfe eines Enzyms, einer Ligase, zusammengefügt werden. So können auch DNAFragmente unterschiedlichen Ursprungs miteinander verbunden werden. Restriktionsenzyme, die die gleiche Sequenz erkennen und schneiden, bezeichnet man als Isoschizomere. Enzyme, die die gleiche Sequenz erkennen, aber unterschiedlich schneiden, bezeichnet man als Neoschizomere. Es gibt weiterhin Enzyme, die unterschiedliche Sequenzen schneiden, aber den gleichen Überhang erzeugen. Die gleichen Überhänge erlauben ein Zusammenfügen von DNAFragmenten, diese können aber in der Regel nicht wieder an der gleichen Stelle geschnitten werden (. Abb. 2.2). Bei der Verwendung von Restriktionsenzymen ist weiterhin zu beachten, dass viele nicht am äußersten Ende eines DNA-Fragmentes schneiden, sondern zusätzlich zur Erkennungssequenz mehrere flankierende Basen vorhanden sein müssen. Dies ist insbesondere bei einem Doppelverdau und beim Verdau von PCR-Fragmenten von Bedeutung. Sehr nützliche Hinweise zu einzelnen Restriktionsenzymen findet man z. B. auf der Homepage von New England Biolabs (NEB) oder Fermentas oder im Katalog von NEB.
Ze
oc i
n
o ri
2
Kapitel 2 • Molekularbiologische Techniken
NheI PmeI ApaI XbaI XhoI EcoRV PstI EcoRI BamHI KpnI HindIII
S V4 0
12
. Abb. 2.3 Karten eines typischen Plasmidvektors (A) und eines typischen eukaryotischen Expressionsvektors (B). Ampicillin, Ampicillin Resistenzgen; Ori, Replikationsursprung; lacZ, alpha-Fragment der beta-Galactosidase; plac, Lac-Promotor; Zeocin, Zeocin Resistenzgen; pCMV, CMV Promotor; BGH pA, Bovine Growth Hormone Polyadenylation Site
nach dem Baukastenprinzip aus verschiedenen funktionellen Modulen aufgebaut. Plasmide sind meist zwischen 3 und 5 kb (kilo Basenpaare) groß und können bis 25 kb Fremd-DNA aufnehmen. Es gibt auch Variationen, artifizielle Chromosomen, die bis zu 1 000 kb Fremd-DNA integrieren. Zur Vermehrung in Bakterien enthalten Plasmidvektoren entsprechende Module, einen Replikationsstart (origin of replication, ori), eine multiple Klonierungsstelle (multiple clonings site, mcs) und einen Selektionsmarker (. Abb. 2.3). Der Replikationsstart ist eine spezifische Erkennungssequenz, an der die Vermehrung des Vektors initiiert wird. Je nach Anwendung gibt es Unterschiede, üblicherweise verwendet man high-copy-Plasmide mit entsprechendem Replikationsstart, der zu hunderten von Plasmiden pro Bakterium und sehr hohen
2.2 • Manipulation von DNA
Ausbeuten bei der Plasmidpräparation führt. Bei low-copy-Plasmiden ist die Anzahl an Plasmidkopien wesentlich geringer (10–20), dies ist aber manchmal gewünscht, z. B. wenn besonders problematische große DNA-Fragmente kloniert werden. Natürlich ist dann auch die Ausbeute bei der Plasmidpräparation geringer. Die Multiple-Klonierungsstelle enthält mehrere Erkennungssequenzen für Restriktionsenzyme, die den Vektor nur an dieser Stelle schneiden und es ermöglichen, ein DNA-Fragment zu integrieren. Selektioniert werden Bakterien meist mit Antibiotika. Der Selektionsmarker entspricht dann einem Antibiotikaresistenzgen, welches den Bakterien Wachstum in Gegenwart eines Antibiotikums ermöglicht. Vektoren, die diese Elemente enthalten, eignen sich zum Zusammenfügen und zur Vermehrung von DNAFragmenten. Weitere Elemente können je nach Verwendungszweck in einem DNA-Vektor enthalten sein. Soll die DNA-Sequenz in vitro in RNA translatiert werden, so sollte die Multiple-Klonierungsstelle von RNA-Polymerase Promotorsequenzen flankiert sein. Die am häufigsten verwendeten Promotorsequenzen sind SP6, T3 und T7. Soll die DNA-Sequenz in Bakterien, Hefen oder Zelllinien exprimiert werden, so sollte ein entsprechender Promotor vorgeschaltet sein. Bei eukaryotischer Expression wird meist eine minimale 3′-UTR inklusive Polyadenylierungsstelle angefügt. Weitere Elemente leiten sich von den verschiedenen Anwendungen ab, so können Abschnitte, die dem Erzeugen von Fusionsproteinen dienen, angehängt sein. Bei der Wahl eines Vektors steht die Anwendung im Vordergrund. Die meisten Vektoren eignen sich sowohl zum Klonieren bzw. Vermehren in Bakterien, als auch für spezielle Anwendungen. Einige Firmen, die unterschiedliche Vektoren anbieten, sind im Anhang dieses Kapitels genannt, zudem einige Nonprofit-orientierte Quellen. Viele Experimentatoren modifizieren Vektoren selbst und stellen diese auf Nachfrage zur Verfügung.
2.2.3
DNA-Klonierung
Auf dem Papier ist es sehr leicht eine Klonierungsstrategie zu erarbeiten. Eine vorhandene DNA wird
13
2
mit einem Restriktionsenzym geschnitten, ebenso ein Plasmid mit dem gleichen Restriktionsenzym in der Multiplen-Klonierungsstelle. Beide Fragmente werden ligiert, in Bakterien eingebracht und anschließend kultiviert (transformiert). Das Plasmid wird in den Bakterien repliziert, isoliert, gereinigt und fertig ist der neue Vektor (. Abb. 2.4). Doch leider funktionieren diese Schritte gerade beim unerfahrenen Experimentator nicht problemlos. Im Folgenden gehen wir kurz auf die einzelnen Schritte ein. Verweisen möchten wir auch auf den Experimentator Molekularbiologie und auf »den Maniatis« (Sambrook et al.), in beiden Werken wird weitaus ausführlicher auf viele molekularbiologische Methoden eingegangen. Zu beachten ist auch die Vielfalt an Regeln, für viele in Stein gemeißelte Gesetze, die bei Molekularbiologen insbesondere für das Klonieren gelten. Der eingefleischte Molekularbiologe vertritt diese Dogmen mit großer Vehemenz und wer sich nicht nach diesen richtet, muss sich auch nicht wundern, wenn seine Klonierung nicht klappt. Wechseln Sie das Labor, so begegnen Sie dem nächsten selbsternannten MolekularbiologieGuru, der auf einmal andere Regeln dogmatisch vertritt. Trotzdem klappt die Kloniererei. Ein Beispiel ist der Hitzeschock für Bakterien nach der Transformation auf Eis. Es gibt Experimentatoren, die vertreten, 3 Minuten bei 37°C sei die einzig wahre Zeitdauer und Temperatur, andere schwören auf 2 Minuten 42°C, wieder andere beharren auf genau 90 Sekunden 42°C oder exakt 60 Sekunden 42°C usw. Sie werden immer jemanden finden, der vollkommen entsetzt ist, dass Sie von einer dieser Vorgaben abweichen könnten. Dementsprechend sollen viele der folgenden Hinweise der Orientierung dienen, den für Sie bestimmten Weg müssen Sie alleine finden. Restriktionsenzyme benötigen für eine optimale Aktivität unterschiedliche Pufferbedingungen, diese unterscheiden sich im Salzgehalt. Die meisten haben ihr Temperaturoptimum bei 37°C, aber es gibt auch Exoten, die z.B. am besten bei 30°C schneiden. Das Salz- und Temperaturoptimum kann sich auch noch bei den verschiedenen enzymproduzierenden Firmen unterscheiden, was gerade bei einem Herstellerwechsel zur Verwirrung führen kann. Geliefert werden Restritkionsenzyme mit dem entsprechenden Puffer, der nur verdünnt
14
Kapitel 2 • Molekularbiologische Techniken
Plasmidvektor ohne Insert
2
DNA-Fragment
Restriktionsverdau +
Ligation Bakterium Bakterienchromosom
Transformation in Bakterien
Plasmidvektor mit Insert
Teilung der Bakterien und identische Replikation der Plasmide
. Abb. 2.4 Prinzip der DNA-Klonierung. Ein relevantes DNA-Fragment wird in einen Plasmidvektor eingebracht. Dieser wird in Bakterien transformiert, wo der Plasmidvektor autonom repliziert. Beachten Sie, dass das Bakterienchromosom an die Zellwand angeheftet ist
2.2 • Manipulation von DNA
werden muss. Zu beachten ist auch, dass Restriktionsenzyme in einer Glycerinlösung geliefert werden. Dies verhindert das Gefrieren der Lösung bei der Lagerung bei –20°C. Wie alle Enzyme sollten auch Restriktionsenzyme nicht nur beim Lagern, sondern auch beim Pipettieren auf Eis oder in einem Kühlblock kalt gehalten werden. Für den Restriktionsverdau sollte man 1–2 μg DNA einsetzen. Mehr schmiert in der Regel zu stark auf dem folgenden Gel. Es gibt Situationen, in denen mehr verdaut werden muss, dann sollten aber auch Volumen und Enzymmenge erhöht werden. Die 1–2 μg DNA können in einem Volumen von 20–50 μl verdaut werden, aber es sollten nicht mehr als 5% (andere meinen 10%) Restriktionsenzym eingesetzt werden, da zu hohe Glycerinkonzentrationen zu unspezifischen Effekten führen können. Nach dem Restriktionsverdau werden die DNA-Fragmente elektrophoretisch in einem horizontalen Agarosegel getrennt. Die DNA wandert zur Kathode (positiv geladen). Da dieser Pluspol meist rot gekennzeichnet ist, hilft der Merksatz: DNA sieht immer rot. Größere Fragmente wandern langsamer als kleinere, so erfolgt eine Auftrennung nach der Größe. Zur Orientierung lässt man einen Größenstandard mitlaufen. Gerade für den Anfänger lohnt es sich parallel zum Verdauansatz auch eine unverdaute Kontrolle auf dem Gel mitlaufen zu lassen. So wird ersichtlich, ob die DNA vollständig geschnitten wurde. Sichtbar wird die DNA durch Färben des Gels mit Ethidiumbromid. Dies gilt als giftig und mutagen, deshalb werden immer häufiger alternative Farbstoffe, wie z. B. Gel-Red verwendet. Auch wenn diese als weniger giftig gelten, sollte der Experimentator bei allen Arbeiten mit Farbstoffen Handschuhe tragen. Sichtbar werden die Färbungen erst unter UV-Licht. Allerdings sollte hierbei schwaches UV-Licht verwendet werden, da nicht nur die Farbstoffe, sondern auch DNA empfindlich gegenüber UV-Licht ist und fragmentiert werden kann. Natürlich sollte sich auch der Experimentator vor dem UV-Licht schützen, sonst droht ein Sonnenbrand oder eine Schädigung der Augen! Das gewünschte DNA-Fragment wird aus dem Gel ausgeschnitten, unter Erwärmung wieder in Lösung gebracht und entweder durch Bindung an eine Anionenaustauschersäule oder Glasmilch
15
2
isoliert. Beide Verfahren sind als Kits von diversen Firmen erhältlich. Hat man Vektor und DNA (weil das Fragment in den Vektor eingesetzt wird auch als Insert bezeichnet) mit dem gleichen Restriktionsenzym geschnitten oder mit verschiedenen Restriktionsenzymen, welche den gleichen Überhang erzeugen, oder liegen blunt ends vor, so kann die DNA mit speziellen Enzymen, Ligasen, zusammengefügt werden. Hat man ein blunt und ein sticky end, so kann das sticky end durch eine fill in-Reaktion zu einem blunt end verändert werden. Dafür wird die DNA mit freien Nucleotiden und einer Polymerase gemischt. Es sei aber darauf hingewiesen, dass blunt ends häufiger Probleme bereiten als sticky ends. Die Ligationseffizienz ist meist geringer, auch gibt es häufiger multiple Insertionen in den Vektor. Verwendet man Überhänge gleicher Sequenz oder nur blunt ends, so kann das DNA-Fragment in zwei möglichen Orientierungen in den Vektor ligiert werden. Des Weiteren kann der Vektor ohne Insert ligieren. Dies verhindert man, indem der Vektor dephosphoryliert wird. Nach dem Restriktionsverdau bleiben an den 5′-Enden der DNA-Fragmente Phosphatreste zurück, die für die Ligation benötigt werden. Um eine Selbstligation des Vektors zu verhindern, entfernt man die Phosphatreste am Vektor mittels einer Phosphatase, z.B. Alkalische Phosphatase (calf intestine alkaline phosphatase, CIAP). Das zu klonierende Insert besitzt noch seine Phosphatreste und kann ligiert werden. Verwendet man zwei unterschiedliche Restriktionsenzyme, die unterschiedliche Überhänge produzieren, so ist eine Dephosphorylierung nicht nötig. Weiterhin bietet dies die Möglichkeit, ein Fragment in der Orientierung gerichtet in den Vektor zu ligieren. Bringt man DNA in einen Organismus ein, so spricht man bei Bakterien von einer Transformation, bei eukaryotischen Zellen von einer Transfektion. Auf Möglichkeiten der Transfektion wird in 7 Kap. 4 (Zelluläre Neurobiologie) eingegangen. Bei der Transformation von Bakterien ist darauf zu achten, dass ein für die Anwendung geeigneter Bakterienstamm verwendet wird. Bakterien müssen zur Transformation vorbereitet werden, kompetent sein. Die Kompetenz der Bakterien ist häufig ein kritischer Schritt bei der Klonierung.
16
2
Kapitel 2 • Molekularbiologische Techniken
Klassischerweise wird die chemische Kompetenz durch eine Calciumchlorid- oder Rubidiumchlorid-Behandlung erreicht, die kompetenten Bakterien werden anschließend bei –80°C gelagert. Die Transformation findet auf Eis statt und wird durch einen kurzen Hitzeschock beendet. Alternativ können Bakterien durch Elektroporation transformiert werden, man benötigt dafür allerdings ein entsprechendes Gerät. Transformiert man viel, sollten kompetente Bakterien selbst hergestellt werden, die Qualität ist bei einiger Übung ausreichend. Viele Firmen bieten kompetente Bakterien an, unter Umständen können diese eine schwierige Klonierung plötzlich ermöglichen. Hat man Bakterien transformiert, so werden diese zunächst auf Agarplatten vereinzelt, dann einzelne Bakterienklone in Flüssigmedium vermehrt. Anschließend werden die Bakterien pelletiert und die Plasmide isoliert. Bakterielle genomische DNA ist zirkulär und an der Bakterienzellwand befestigt. An diesem Bakteriengenom ist der neurowissenschaftliche Experimentator nicht interessiert. Bei der Plasmidisolation sollte eine Verunreinigung mit bakterieller genomischer DNA vermieden werden, da diese bei den meisten nachfolgenden Experimenten stört. Je nachdem, wie viel Bakterienkultur zur Vermehrung eingesetzt wird, werden unterschiedliche Plasmidmengen isoliert. Man unterscheidet die Minipräparation (1,5–2 ml Bakterienkultur ergibt bei high-copy-Plasmiden 2–10 μg Plasmid DNA) und die Maxipräparation (100–200 ml Bakterienkultur ergibt bei high-copy-Plasmiden mehr als 500 μg Plasmid DNA). Meist reicht eine Minipräp, vor allem, wenn es sich um einen Zwischenschritt zum endgültigen Konstrukt handelt. In der Regel wird die Plasmid-DNA durch alkalische Lyse isoliert. Die Bakterien werden zunächst pelletiert, resuspendiert und dann durch NaOH-Zugabe lysiert. Je nach Protokoll einige Minuten. Dies führt zu einer partiellen Lyse der Bakterien, die Plasmide werden aus den Bakterien freigesetzt und können von den Bakterienmembranen getrennt werden. Werden die Bakterien zu lange lysiert, führt dies zur Freisetzung der bakteriellen genomischen DNA. Diese wird man bei den folgenden Reinigungsschritten nicht mehr los, weshalb nicht zu lange lysiert werden sollte. Anschließend folgt
ein Neutralisierungschritt und die lysierten Bakterien werden entweder durch Zentrifugation oder bei Maxipräparationen durch eine Filtration abgetrennt. Dann wird die DNA entweder gefällt oder bei der Verwendung eines kommerziellen Kits an eine positiv geladene Matrix einer Säule gebunden und von dieser eluiert. DNA kann in Gegenwart eines Salzes gefällt werden. Hierfür wird entweder Ethanol oder Isopropanol verwendet, als Salz wird bei der Ethanolfällung meist Natriumacetat (3 M, pH 5) alternativ auch Lithiumchlorid verwendet. Die ausgefallene DNA wird pelletiert und das Pellet mit 70% Ethanol gewaschen und so von Salzen befreit. Gelöst wird die DNA in Wasser, die Zugabe von etwas Salz erhöht die Löslichkeit (z. B. 1 / 10 TE), viel Salz verbessert nicht nur Löslichkeit, sondern schützt die DNA vor DNasen (Tris-EDTA-Puffer, TE). Überlegen Sie sich, wofür Sie die gelöste DNA verwenden wollen – zu viel Salz ist häufig nicht erwünscht.
2.2.4
Alternative Klonierungsstrategien
Bei vielen Fragestellungen muss ein und dasselbe Gen oder DNA-Fragment für verschiedene Experimente in unterschiedliche Vektoren kloniert werden. Viele Experimentatoren sind deshalb dazu übergegangen durch die Verwendung der gleichen Restriktionsschnittstellen ein Fragment in unterschiedliche Vektoren zu klonieren. Dieses Verfahren ist natürlich einerseits durch die unterschiedlichen Multiplen-Klonierungsstellen der Vektoren begrenzt, andererseits durch das natürliche Vorkommen spezifischer Restriktionsschnittstellen in der relevanten DNA oder dem Gen. Man kann natürlich versuchen, sehr selten schneidende Restriktionsschnittstellen zu verwenden und diese in die Multiplen-Klonierungsstellen der relevanten Vektoren einzubringen. Dieses Prinzip wendet z.B. die Firma Origene an. Alle Gene, die die Firma anbietet, sind durch Schneiden mit den Restriktionsenzymen SgfI und MluI in die von Origene vertriebenen Shuttle-Vektoren in der Orientierung gerichtet zu klonieren. Dadurch kann relativ einfach und schnell zwischen den verschiedenen Vektoren gewechselt werden.
2.3 • Polymerase-Kettenreaktion (PCR)
Während dieses System immer noch auf den klassischen Klonierungsstrategien, der Verwendung von Restriktionsenzymen, beruht, wurden inzwischen weitere Klonierungsmethoden etabliert. Diese beruhen auf der Verwendung von Bakteriophagen-Rekombinasen aus den Bakteriophagen Lambda oder P1. Grundsätzlich wird das relevante DNA-Fragment bei diesen Systemen von Rekombinase-Erkennungssequenzen flankiert und in definierter Orientierung rekombiniert. Es gibt unterschiedliche kommerzielle Systeme, etwa CreatorTM von Clontech oder GatewayTM von Invitrogen. Diese unterscheiden sich in der verwendeten Rekombinase. Grundsätzlich wird mit einem Donorvektor gearbeitet, der bereits die relevante DNA enthält, und mit einem Akzeptorvektor entweder verschmilzt oder mit einem Teil des Akzeptorvektors ausgetauscht wird. Der Vorteil ist die leichte und schnelle Übertragung von einem Insert in viele verschiedene Vektoren.
2.3
Polymerase-Kettenreaktion (PCR)
Die Polymerase-Kettenreaktion (polymerase chain reaction, PCR) ist DIE Methode zur Manipulation von DNA und auch sie hat die Molekularbiologie revolutioniert. Sie basiert auf der Verwendung einer thermostabilen DNA-Polymerase, die einzelsträngige kurze Oligonucleotide an geringen Mengen einer Ausgangs-DNA (Template DNA) verlängert und so das DNA-Template vermehrt. Die Reaktion findet unter kontrolliertem und sich wiederholendem Erhitzen und Abkühlen statt. Die PCR eignet sich sowohl zum Aufspüren und Nachweisen von DNA, und dies sowohl qualitativ als auch quantitativ, aber auch zum gezielten Verändern bzw. Mutieren von DNA-Sequenzen und zum Umschreiben von RNA in cDNA. Auch bei den PCR-basierten Methoden gilt: Es gibt viele »Gesetze«, je nach Experimentator –finden Sie ihren eigenen Weg. Das Prinzip der PCR ist in der Theorie sehr einfach (. Abb. 2.5). Zur Vervielfältigung eines definierten Bereiches einer doppelsträngigen DNA benötigt man zwei Oligonucleotide, die komplementär zu den Enden des zu amplifizierenden Bereiches sind. Das Verfahren besteht aus drei Schritten, die
17
2
zyklisch wiederholt werden. Bei dem Denaturierungsschritt wird der Reaktionsmix auf 94°C erhitzt, dadurch wird der Doppelstrang des DNATemplates getrennt. Beim zweiten Schritt, dem Annealing, wird die Temperatur wieder gesenkt, so dass die Primer (Oligonucleotide) an die DNA-Einzelstränge hybridisieren können. Im dritten Schritt, der Elongation, wird die Temperatur wieder erhöht, und zwar auf das Temperaturoptimum der thermostabilen DNA-Polymerase (72°C). Diese verlängert die Oligonucleotide und synthetisiert so einen dem jeweiligen Template komplementären DNAStrang. Solch ein Zyklus wird mehrfach, in der Regel ca. 30 Mal, wiederholt. Dadurch wird die Template-DNA vervielfacht. Die Reaktionen finden in einem Thermocycler statt, ein programmierbarer Heizblock mit beheiztem Deckel, der für schnelle Temperaturänderungen optimiert ist. Der initiale Schritt beinhaltet eine verlängerte (2–5 Minuten) Denaturierungszeit. Dies soll gewährleisten, dass das Template vollständig denaturiert wird. Zwar wird eine thermostabile DNA-Polymerase verwendet, aber auch diese büßt bei sehr langer Erhitzung ihre Aktivität ein, deshalb sollte die Denaturierungsdauer möglichst gering gehalten werden. Die Polymerase verlängert die Oligonucleotide, indem sie am 3′-Ende Desoxyribonucleotidtriphosphate (dNTPs) anhängt. Diese müssen natürlich der Reaktion zugegeben werden. An den oben beschriebenen Zyklus schließt sich eine finale Elongation (ca. 10 Minuten bei 72°C) an, durch die sichergestellt werden soll, dass alle DNA-Produkte vollständig verlängert wurden. Bei den Primern handelt es sich um synthetisch hergestellte Oligonucleotide, die in der Regel gekauft werden. Diese haben meist eine Länge von 20–30bp. Bei dem Design der Primer folgen unterschiedliche Experimentatoren verschiedenen Regeln. Eigentlich muss jeweils empirisch ermittelt werden, ob ein Primer funktioniert. Ein paar Aspekte sollten aber beachtet werden, um dies wahrscheinlicher zu machen. Die Primer sollten eine ähnliche Schmelztemperatur haben. Diese liegt meist zwischen 50 und 72°C und wird vom GC-Gehalt und der Länge bestimmt. Es gibt verschiedene Methoden zur Berechnung der Schmelztemperatur, alles sind theoretische Annäherungen. Viele Firmen berechnen auf ihren Homepages die
18
Kapitel 2 • Molekularbiologische Techniken
mRNA Reverse Transkription
2 doppelsträngige DNA 5’ 5’
cDNA
Denaturierung
5’ 5’
Annealing der Primer Wiederhohlung des Zyklus, wobei neu synthetisierte DNAStränge als zusätzliche Templates zur Verfügung stehen
5’ 5’ 5’
5’
Elongation
5’ 5’ 5’ 5’
Amplifikation durch vielfache Wiederhohlungen
5’
5’
5’
5’
5’ 5’ 5’ 5’
5’ 5‘
5’ 5’
19
2.3 • Polymerase-Kettenreaktion (PCR)
Schmelztemperatur, wenn man Primer bestellt. Es gibt aber auch verschiedene Internetressourcen (siehe Kapitelende). Die Schmelztemperatur kann auch als Hinweis für die Annealingtemperatur genutzt werden. Die Primer sollten außerdem keine Dimere oder Haarnadelschleifen bilden, dies kann man auch mit verschiedener Freeware analysieren. Bei der Auswahl der DNA-Polymerase ist zu beachten, dass es unterschiedliche Produkte gibt. Generell kann zwischen der »normalen« Taq (TaqDNA-Polymerase isoliert aus Thermus aquaticus), die keine 3′-5′-Exonucleaseaktivität und deshalb keine fehlerkorrigierende Eigenschaften (proofreading activity) besitzt, und anderen Polymerasen, wie Pfu oder Pwo, die solch eine proofreading activity besitzen, unterschieden werden. Die Fehlerrate liegt bei der Taq-Polymerase bei ca. 10−5, bei den proofreading-Polymerasen bei ca. 10−6, diese machen also weniger Fehler. Die Fehlerrate ist aber grundsätzlich auch von den Reaktionsbedingungen abhängig. Neben der Fehlerkorrektur gibt es einen weiteren Unterschied. Die proofreading-Polymerasen erzeugen glatte Enden an den DNA-Doppelsträngen, während die Taq-Polymerase ein zusätzliches Adenosin an das 3′-Ende anhängt. Dies ermöglicht die so genannte TA-Klonierung von PCR Fragmenten, die mit der Taq-Polymerase erzeugt wurden. Hierbei verwendet man linearisierte Plasmide, die ihrerseits einen Thymidin-Überhang am 3′-Ende tragen. Die eine Base langen Überhänge führen meistens zu einer verbesserten Ligationseffizienz. Trotz des einfachen Prinzips funktionieren PCR Reaktionen häufig nicht auf Anhieb. Meist hilft es schon, die Annealing Temperatur zu verändern, wer Zeit sparen will, probiert im Gradienten-Cycler mehrere Temperaturen parallel aus. Mg2+ beeinflusst als Co-Faktor die Funktion der Polymerase. Gerne wird die Mg2+ Konzentration variiert und ist nicht in jedem mit der Polymerase gelieferten Puffer enthalten. Die einzelnen Komponenten des Reaktionsmixes haben einen Einfluss aufeinander.
2
So binden z. B. freie Nucleotide freies Mg2+, welches dann nicht mehr der Polymerase zur Verfügung steht. Beliebt sind auch weitere Zusätze wie Dimethylsulfoxid (DMSO). Gerade bei GC-reichen Sequenzen hilft bis zu 5% DMSO, das gewünschte Produkt zu erhalten. Es gibt übrigens PCR-Anwendungen, bei denen nicht nur zwei, sondern mehrere Primer eingesetzt werden. Dies bezeichnet man als Multiplex-PCR und kann z. B. bei der Genotypisierung von transgenen Tieren sinnvoll sein, bei der sowohl das Wildtyp-Allel als auch das veränderte Allel nachgewiesen werden soll.
2.3.1
Mutagenese
Häufig sollen DNA-Sequenzen spezifisch verändert, d. h. mutiert werden. Dabei kann es sich um Punktmutationen handeln, so dass in einem Expressionsvektor der genetische Code für eine bestimmte Aminosäure verändert ist. Es kann sich aber auch um eine Deletion handeln, um das Einführen von Restriktionsschnittstellen oder anderer Sequenzen. Die einfachste Variante ist, dass die Veränderung nahe dem 3′- oder 5′-Ende eingeführt werden soll. Dann trägt ein Primer eine Veränderung in der DNA-Sequenz. Die Modifikation sollte im 5′-Bereich des Primers liegen, denn so ist die Wahrscheinlichkeit geringer, dass die Polymerase die Modifikation nicht toleriert. Soll innerhalb einer DNA-Sequenz eine Modifikation eingefügt werden, so müssen drei PCR-Reaktionen durchgeführt werden. Wie in . Abb. 2.6 gezeigt, sollten zwei äußere Primer außerhalb von zwei Restriktionsschnittstellen liegen, die für die Klonierung des veränderten Fragmentes in die Ursprungs-DNA verwendet werden können. Zwei innen liegende Primer tragen die Modifikation. Die ersten beiden Reaktionen werden in getrennten Reaktionsansätzen mit jeweils einem äußeren und einem inneren Primer durch-
. Abb. 2.5 Prinzip der Polymerase-Kettenreaktion (PCR). Die PCR beginnt entweder mit einem doppelsträngigen DNA Template oder mit mRNA, die durch einen RT-PCR Schritt zunächst in cDNA überschrieben wird. Der weitere Verlauf besteht nach der initialen Denaturierung aus 3 Schritten, die zyklisch wiederholt werden. Eine Denaturierung der Doppelstränge, Annealen der Primer und die Elongation der Primer am 3′-Ende
20
Kapitel 2 • Molekularbiologische Techniken
A
C X
2
5’
5’ 5’
5’
X X
B PCR1
X
PCR
5’
5’ PCR2
5’
X
5’ RE1
RE2 Produkte über Gel reinigen
X X
X X
PCR3
DpnI-Verdau
Schneiden und in Vektor ligieren
X X RE1
X X RE2
. Abb. 2.6 DNA-Mutagenese mit modifizierten Primern. (A) Eine Mutation wird mit einem Primer eingeführt. (B) Mutation durch mehrere PCR Schritte. (C) Amplifikation eines vollständigen Vektors mit modifizierten Primern
geführt. Die zwei resultierenden DNA-Fragmente werden dann mit Hilfe der äußeren Primer in einer dritten PCR vervollständigt. Will man ein DNA-Fragment austauschen, besteht eine weitere Alternative darin, ein DNA-Fragment, welches die gewünschte Mutation trägt, synthetisieren zu lassen und über einen Restriktionsverdau in das relevante Plasmid einzufügen. Man spart sich dabei die PCR. Es lohnt sich inzwischen durchaus ein Preisvergleich. Die Synthese kurzer DNA-Fragmente kann eine kostengünstige Alternative sein. Eine weitere Methode nutzt zwei modifizierte Primer zur Amplifikation beider Stränge eines gesamten Plasmids (. Abb. 2.6). Anschließend wird der Reaktionsansatz mit dem Restriktionsenzym DpnI verdaut. DpnI schneidet spezifisch methylierte DNA. Das Template Plasmid entstammt Bakterien und ist methyliert, wird also verdaut. Das in der PCR amplifizierte und die Modifikation
tragende Plasmid ist nicht methyliert, wird somit nicht verdaut und kann zur Vermehrung wiederum transformiert werden. Das Verfahren ist vielen als Quick Change Mutagenese bekannt, benannt nach dem gleichnamigen Kit der Firma Stratagene. Diese Strategie, Mutationen einzuführen, kann weiter modifiziert werden. So stellen z. B. Chiu et al. ein Verfahren vor, bei dem 4 Primer verwendet werden, um ein Plasmid zu amplifizieren. Dadurch wird nicht nur eine Modifikation erreicht, sondern auch Deletionen und Insertionen. Grundsätzlich sollte bei der Amplifikation eines ganzen Plasmids darauf geachtet werden, nur wenige Zyklen zu fahren und somit die Wahrscheinlichkeit zu minimieren, ungewollte Mutationen zu generieren. Natürlich sollte in dem Fall unbedingt eine proofreading-Polymerase verwendet werden. Eine Sequenzierung des gesamten Plasmids ist je nach Anwendung in Erwägung zu ziehen.
2.4 • Woher bekomme ich ein Gen oder eine bestimmte cDNA?
2.3.2
Reverse TranskriptionPolymerase-Kettenreaktion (RT-PCR)
Als Template dient bei der RT-PCR mRNA, die amplifizierte DNA ist komplementär zur mRNA und wird als cDNA bezeichnet. Die Reverse Transkriptase synthetisiert zunächst an der mRNA einen komplementären cDNA-Strang. An diesem wird dann durch eine Polymerase ein Doppelstrang synthetisiert, dieser kann dann als Template für herkömmliche PCR Reaktionen dienen. So kann entweder eine bestimmte mRNA nachgewiesen oder aber eine cDNA zur weiteren Klonierung hergestellt werden.
2.4
Woher bekomme ich ein Gen oder eine bestimmte cDNA?
Die Zeiten, in denen cDNA-Banken nach neuen Genen gescreent wurden, sind langsam aber sicher vorbei. Neue Gene werden meist nur noch für exotische Organismen identifiziert und dies in der Regel durch groß angelegte Sequenzierungsprojekte. Das bedeutet aber nicht, dass der neurowissenschaftlich forschende Experimentator keine cDNAs mehr benötigt. Nahezu alle Gene des Menschen oder der Maus sind bekannt, allerdings ist die Funktion sehr vieler Gene überhaupt nicht beschrieben. Identifizieren Sie z. B. einen neuen Interaktionspartner oder ein Gen, welches unter bestimmten Bedingungen im Nervensystem exprimiert wird, und wollen Sie mit diesem Kandidatengen weiter arbeiten, so benötigen Sie eine cDNA, welche die gesamte codierende Sequenz repräsentiert. Die klassische Herangehensweise ist, diese selbst zu klonieren. Entweder screenen Sie eine entsprechende cDNA-Bank oder Sie reinigen mRNA aus Gewebe oder Zellen, welche ihr Gen stark exprimieren, designen spezifische Primer korrespondierend zum 5′-Ende und 3′-Ende und führen eine RT-PCR gefolgt von einer PCR durch. Natürlich können Sie auch andere Experimentatoren fragen, ob diese Ihnen eine bestimmte cDNA zur Verfügung stellen. Die meisten Wissenschaftler tun dies gerne. Es gibt aber auch Wissenschaftler, die auf eine entsprechende E-Mail gar
21
2
nicht reagieren. Eine wirklich schnelle und kostengünstige Alternative ist der Kauf von cDNA. Es gibt verschiedene Firmen und Nonprofit-orientierte Organisationen, die cDNAs anbieten. Zu nennen sind da einerseits alle Institutionen, die an Genomprojekten beteiligt sind bzw. waren. Aus diesen sind Firmen hervorgegangen, die sich um die kostengünstige Verteilung von cDNAs, aber auch von genomischen DNAs, kümmern. In Deutschland verkauft ImaGenes günstig cDNA-Banken und Klone. Eine weitere Quelle ist die Nonprofit-Organisation Addgene – eine Plattform zur Verteilung von Plasmiden, die publiziert wurden. Firmen wie Invitrogen oder Origene bieten ebenfalls viele cDNAs an (siehe Anhang). Eine weitere Möglichkeit, die eigene Herstellung einer spezifischen DNA zu umgehen, ist die DNA synthetisieren zu lassen. Eine Vielzahl von Firmen haben die DNA-Synthese in ihrem Programm. Ein Vorteil ist, dass gewünschte Modifikationen direkt vorgenommen werden können und man somit Zeit und Kosten für weitere Klonierungsschritte spart. Zurzeit ist die DNA-Synthese noch relativ teuer, doch ist zu erwarten, dass die Preise sinken werden. Berechnet wird nach Basenpaaren, somit steigt der Preis mit der Länge. Für kurze DNA-Fragmente ist die Synthese bereits heute eine nicht allzu kostenintensive Alternative. Und es deutet sich die Entwicklung an, dass gerade Labore, in denen nicht sehr viel kloniert wird, in Zukunft auf synthetisch hergestellte DNA zurückgreifen werden. Sucht man einen cDNA-Klon und ist die codierende Sequenz nicht sehr lang, so stehen meistens kostengünstige Klone aus cDNA-Banken zur Verfügung, aber auch die cDNA-Synthese wäre aufgrund der Länge nicht zu teuer. Problematisch wird es erst, wenn sehr lange cDNAs benötigt werden, die codierende Sequenzen von mehr als 3 000 Basenpaaren besitzen. Sehr lange cDNAs sind in den meisten cDNA-Banken unterrepräsentiert und deshalb selten. Häufig findet man nur partielle Klone, die angeboten werden, wenn man Glück hat kann man aus den Fragmenten die vollständige Sequenz zusammenfügen. Zieht man eine Synthese sehr langer DNA-Stränge in Erwägung stellt man fest, dass das Budget, welches einem Experimentator zur Verfügung steht, dafür selten reicht.
2
22
Kapitel 2 • Molekularbiologische Techniken
2.5
Sequenzierung von DNA
Die Sequenzierung von DNA, sei es von PCR-Produkten oder Plasmiden, wird in der Regel nicht mehr vom Experimentator selbst durchgeführt. An vielen Forschungsinstituten gibt es Sequenzierungsservices oder eine Firma wird mit der Sequenzierung beauftragt. Die Konkurrenz ist groß, die Preise inzwischen gering. Meist wird mit der Didesoxy-Methode nach Sanger sequenziert. Bei der Methode werden komplementäre DNA-Stränge wie bei einer PCR in vitro synthetisiert. Zusätzlich zu den Desoxyribonucleotidtriphosphaten enthält das Inkubationsgemsich noch ein 2′, 3′-Didesoxyanalogon eines Nucleotidtriphosphates. Der Einbau dieses Analogons blockiert die weitere Verlängerung des DNA-Stranges, weil ihm ein 3′-Hydroxylende fehlt, um die nächste Phosphodiesterbindung zu knüpfen. So entstehen Fragmente unterschieldicher Länge mit einem Didesoxyanalogon am 3′-Ende. Früher nutzte man radioaktiv markierte Didesoxyanaloga, heute werden in der Regel fluoreszierende Markierungen benutzt. Entweder wird der Primer markiert oder die Didesoxynucleotide werden mit vier unterschiedlichen Farbstoffen versehen, was inzwischen häufiger angewendet wird. Dann werden die unterschiedlich langen Produkte im Gel oder in linear polymerisierten Gelen in Glaskapillaren aufgetrennt. Verschiedene Firmen bieten eine voll automatisierte Sequenzierung an. Der Experimentator erhält dann seine DNA-Sequenz als so genannten Trace-File, in dem die Basenreihenfolge durch farbige Kurven dargestellt ist und mit Computerprogrammen mit bereits existierenden Sequenzen verglichen werden kann. Je nach Gerät und Qualität der DNA können Leseweiten von 500–1 000 bp erreicht werden. Neben dieser inzwischen als klassisch zu betrachtenden Sequenzierungstechnik hat sich das so genannte next-generation sequencing oder second-generation sequencing etabliert. Bei diesen Verfahren müssen die zu sequenzierenden Proben zunächst fragmentiert werden. Im Vergleich zur klassischen Sanger-Sequenzierung entfällt eine Klonierung in einen Vektor. Stattdessen werden Adaptoren an die Fragmente ligiert. Es werden dann je nach Methode und Gerät 30–400 bp lange
Sequenzen detektiert. Bei diesen Hochdurchsatzmethoden werden sehr schnell mehrere Reaktionen parallel analysiert. So liefert z. B. der Genome Analyzer II von Solexa/Illumina bis zu 270 Millionen kurze Sequenzen pro Lauf, bei einer Leselänge von 100 Basen. Es gibt weitere Gerätehersteller wie Roche oder Applied Biosystems, die alle eigene leistungsstarke Sequenzierungsstrategien entwickelt haben. Gemeinsam ist allen, dass Sequenzrohdaten im Gigabasenbereich in wenigen Tagen generiert werden, allerdings stellt die sich daran anschließende bioinformatische Auswertung eine große Herausforderung dar. Zur Anwendung kommen die neuen Technologien einerseits bei großen Sequenzierungsprojekten wie dem 1000 Genomes Project (http:// www.1000genomes.org), das als Ziel die Erforschung der individuellen Variabilität des humanen Genoms hat. Hierfür wird das Genom von mindestens 1000 Personen unterschiedlicher Ethnien analysiert. Da die Sequenzierung nicht nur schneller, sondern auch kostengünstiger wird, könnte am Ende die standardmäßige Sequenzierung ganzer Patientengenome stehen. Aber die Entwicklung ist nicht nur für Genomanalyse und Diagnostik relevant. Die schnelle de novo-Sequenzierung ermöglicht auch die Transkriptom-Analyse, und es lassen sich nicht nur qualitative, sondern auch quantitative Aussagen treffen. Somit stehen die neuen Sequenzierungstechniken in direkter Konkurrenz zur Microarray-Analyse.
2.6
In silico
Der enorme Umfang der zur Verfügung stehenden genetischen Information ist zum Teil nur mit computergestützten Analysen zu bearbeiten. Einerseits gibt es Computerprogramme, die das Planen und Analysieren von Klonierungsschritten ganz stark vereinfachen, so z. B. Lasergene von DNA-Star oder Vector NTI (war bis 2009 Freeware für den akademischen Bereich). Dem Experimentator, der viel klonieren muss, ist das Benutzen solcher Software zu empfehlen. Häufig müssen DNA-Sequenzen identifiziert, zugeordnet oder verglichen werden. Das National Center for Biotechnology Information (NCBI)
2.7 • Genomische DNA
stellt eine Reihe von freien Softwarewerkzeugen zur Verfügung. Unter anderem auch das Basic Local Alignment Search Tool (BLAST), das Programm vergleicht Nucleotid oder Proteinsequenzen. So können Sie eine unbekannte DNA-Sequenz mit diesem Programm zuordnen, die genomische Sequenz zu einer cDNA finden, aber auch eine Sequenz auf ihre Richtigkeit prüfen. Ein weiteres Hilfsmittel bietet das EnsemblProjekt. Der Ensembl-Browser ähnelt den BLASTFunktionen, es liegt aber ein großer Schwerpunkt auf genomischen Sequenzen. Die Genome etlicher Spezies sind hier annotiert. Neben genomischen Informationen finden sich auch Darstellungen und Verweise zu transkribierten Sequenzen, Splice-Varianten, und man kann sogar die Probesets der Microarrays von Affymetrix einzelnen Genen graphisch zuordnen. Es gibt die Möglichkeit, die präsentierten Elemente selbst zu wählen. Der Ensembl-Browser ist ein gutes Beispiel für die vernetzte Darstellung des gegenwärtigen Wissensstands im Internet und der technischen Ressourcen, die zur Verfügung stehen und derer man erst durch die vernetzte Darstellung gewahr wird.
2.7
Genomische DNA
Genomische DNA zeichnet sich durch ihre extreme Länge aus. Dem neurowissenschaftlichen Experimentator begegnet sie in der Regel als störender Schleim beim Lysieren von Gewebe oder Zellen, und meist ist er nicht an ihr interessiert. Arbeiten Sie allerdings an neurogenetischen Fragestellungen oder mit gentechnisch veränderten Mäusen und manipulieren Sie so das Genom, dann brauchen Sie genomische DNA als Ausgangsmaterial, z.B. um einen Targeting-Vektor zu konstruieren, oder Sie müssen genomische DNA isolieren, um den Genotyp zu bestimmen. Präpariert wird genomische DNA zur Bestimmung des Genotyps aus einer Schwanz- oder Ohrbiopsie. Diese können bis zur Aufarbeitung eingefroren werden. Das Gewebe wird in einem Proteinase K-Puffer (100 mM Tris pH 8,5, 5 mM EDTA, 0,2% SDS, 200 mM NaCl, 0,1 mg/ml Proteinase K) 4 Stunden bei 50°C oder über Nacht bei 37°C schüttelnd inkubiert. Dadurch wird das Gewebe
23
2
aufgelöst, die DNA bleibt intakt. Anschließend wird die Lösung 10 Minuten auf 95°C erhitzt, nach dem Abkühlen wird zur Beseitigung der RNA eine RNase-A-Lösung hinzugegeben. Nun folgt entweder eine Genotypisierung durch PCR-Reaktionen oder eine Phenol/Chloroform-Reinigung, gefolgt von einer DNA-Fällung. Dann eignet sich die genomische DNA auch für andere Analysen, wie z. B. einen Southern Blot. Phenol/Chloroform gilt als sehr giftig und ist unbedingt nur unter einem Abzug zu verwenden. Verschiedene Firmen bieten inzwischen ungiftige bzw. weniger giftige Alternativstoffe an. Der so genannte Southern Blot wurde von Edwin Southern entwickelt, daher der Name. Andere Blotmethoden wurden in Anlehnung an den Southern Blot als Northern- und Western Blot bezeichnet. Allgemein wird bei einem Southern Blot DNA durch Restriktionsenzyme in Fragmente geschnitten, diese werden elektrophoretisch im Agarosegel aufgetrennt, auf eine Membran übertragen und diese mit einem markierten relevanten DNA-Fragment hybridisiert (. Abb. 2.7). So kann die Anwesenheit des relevanten DNA-Abschnittes in einem DNA Gemisch nachgewiesen werden. Meist wird genomische DNA, die mit Restriktionsenzymen geschnitten wurde, auf diese Weise analysiert. Grundsätzlich kann aber auch jede andere DNA verwendet werden. Nach der Auftrennung im Gel wird dieses zunächst in HCl gebadet, dies verbessert die Übertragung großer Fragmente auf die Membran. Wichtig ist, dass die DNA im Gel als Einzelstrang vorliegt. Deshalb denaturiert man sie im Gel mit einer NaOH-Lösung. Übertragen (geblottet) wird die DNA durch die Ausnutzung von Kapillarkräften auf eine Nylonmembran. Dann wird die DNA auf der Membran durch Erhitzen (2 Std. 80°C) oder durch UVLicht-Bestrahlung fixiert. Die UV-Licht-Bestrahlung wird auch als Cross-Linken bezeichnet. Die auf die Membran fixierte DNA wird anschließend mit einem relevanten DNA-Fragment hybridisiert. Dieses kann radioaktiv mit P32 oder nicht radioaktiv z. B. mit Digoxigenin markiert sein. Abhängig von der Markierung erfolgt dann eine Detektion mittels Autoradiogramm oder Antikörper und Farbreaktion.
24
Kapitel 2 • Molekularbiologische Techniken
A
B Southern Blot
2
Northern Blot
DNA mit RestriktionsEnzymen geschnitten RNA
Denaturierung und Auftrennung im Gel
Blotten
Transfer der DNA oder RNA auf Membran
DNA oder RNA auf der Membran wird mit markierter DNA hybridisiert
Waschen
Visualisieren der Banden
. Abb. 2.7 Southern und Northern Blot. (A) Beim Southern Blot wird DNA zunächst mit Restriktionsenzymen verdaut. (B) Beim Northern Blot wird RNA direkt verwendet. Bei beiden Verfahren wird die Nucleinsäure denaturiert und elektrophoretisch aufgetrennt. Vom Gel auf eine Membran übertragen und diese mit einer markierten DNA Sonde hybridisiert sowie spezifische Banden nachgewiesen
2.8
RNA
RNA unterscheidet sich von der Molekülstruktur eigentlich nicht sonderlich von DNA. Beim experi-
mentellen Arbeiten gibt es aber einen sehr großen Unterschied. Dieser liegt in den Enzymen, welche die Nucleinsäuren abbauen. RNasen sind stabiler, weiter verbreitet als DNasen und brauchen kei-
2.9 • Expressionsanalyse
ne Co-Faktoren. Ursprung der Enzyme sind zum Teil wir selbst und die uns bewohnenden Bakterien. Deshalb besteht bei Arbeiten mit RNA immer die Möglichkeit, dass das Molekül, mit dem man arbeitet, währenddessen abgebaut wird. Schützen kann man sich davor durch sauberes Arbeiten, Handschuhe tragen, Lösungen und Gefäße nur für Arbeiten mit RNA reservieren. Häufig wird Wasser mit Diethylpyrocarbonat (DEPC) behandelt, um es RNase-frei zu bekommen. Das DEPC wird im Wasser gelöst und unter Rühren über Nacht bei Raumtemperatur inkubiert. Zu beachten ist, dass DEPC beim Autoklavieren in CO2 und Ethanol zerfällt. Weiterhin bindet DEPC an primäre und sekundäre Amine und ist deshalb nicht für alle Puffer geeignet (z.B. Tris-Puffer). Glas und Geräte kann man Hitzesterilisieren (Backen bei 180°) oder auch mit Wasserstoffperoxid behandeln.
2.8.1
Isolation von RNA
Gesamt-RNA kann sehr effektiv mit einer Guanidinisothiocyanat-Phenol-Extraktion isoliert werden. Zellen oder Gewebe werden mit der Reagenz inkubiert, dies denaturiert Proteine und inaktiviert somit auch RNasen. Die Methode wurde von Chomczynski und Sacchi beschrieben, sie benannten Guanidinisothiocyanat-Phenol als TRI-Reagenz, kommerziell wird es z. B. als TRIzol (Invitrogen) oder TRItidy (Applichem) vertrieben. Bei vielen Anwendungen ist eine Isolation der mRNA notwendig, hierfür empfiehlt es sich, einen der vielen kommerziell erhältlichen Kits zu nutzen. Die Elemente werden RNase-frei geliefert, gereinigt wird über Säulen.
2.9
Expressionsanalyse
Je nach apparativer Ausstattung und Fragestellung hat der Experimentator unterschiedliche Möglichkeiten, die Expression eines oder mehrerer Gene nachzuweisen. Möchten Sie einfach nur wissen, wann und wo ein Gen exprimiert wird, so lohnt sich zunächst eine Datenbankanalyse. Hilfreich ist z. B. die Homepage von Mouse Genome Informatics, MGI. Dort kann man nach der Expression von
25
2
Genen suchen. Verwiesen wird nicht nur auf relevante Literatur, sondern auch auf den Allen Brain Atlas, auf Gene Expression Omnibus, Geo und auf ArrayExpress Gene Expression Atlas. Häufig soll aber experimentell gezeigt werden, dass ein Gen exprimiert wird. Die klassische Methode ist der Northern Blot (. Abb. 2.7), der immer noch angewendet wird. Ähnlich wie beim Southern Blot, wird mRNA im Gel aufgetrennt. Da meist Gelkammern auch für andere Anwendungen verwendet werden empfiehlt es sich, diese gründlich zu reinigen, um RNasen zu eliminieren, z. B. mit Wasserstoffperoxid. Elektrophoretisch aufgetrennt wird RNA in der Gegenwart von denaturierenden Agenzien, wie Formaldehyd, weil die RNA-Stränge zur Bildung von Sekundärstrukturen neigen und diese das Wanderungsverhalten beeinflussen könnten. Weiterhin wird dem Probenpuffer meist Formamid zugesetzt, deshalb sollte das Gel auf jeden Fall unter einem Abzug laufen. Die aufgetrennte RNA wird dann auf eine Membran geblottet und diese mit einem radioaktiv markierten DNA-Fragment hybridisiert. Auch wenn andere Methoden wie die RT-PCR als sensitiver gelten, so wird der Northern Blot wegen seiner großen Spezifität immer noch gerne angewendet. Im Unterschied zu den im Folgenden dargestellten Methoden wird beim Northern Blot die mRNA nicht durch eine Polymerase in DNA umgeschrieben oder amplifiziert. Deshalb ist die Methode weniger anfällig für experimentelle Fehler. Auf die Möglichkeit, RNA im Gewebe durch in situ-Hybridisierungen nachzuweisen, wird im 7 Kap. 6.3.3 eingegangen. Eine weitere Möglichkeit, mRNA-Mengen zu quantifizieren, bietet die RT-PCR (Reverse Transkription-PCR). Zunächst kann man die RT-PCR zum qualitativen Nachweis von mRNA einsetzen. Bei der quantitativen RT-PCR werden zusätzlich zur Probe, die analysiert werden soll, Standards verwendet. Dieses sind DNA-Konstrukte, auf welche die Primer ebenfalls passen, aber bei der Amplifikation Banden anderer Größe als die zu quantifizierenden Banden ergeben. Einige Experimentatoren verzichten auf diese Standards. Die Reaktionen werden in einem Agarosegel analysiert. Allerdings gilt diese Methode, die auch als semiquantitativ bezeichnet wird, als nicht sehr zuverlässig.
26
Kapitel 2 • Molekularbiologische Techniken
Q
2
R
5’ 5’
Q
R 5’
5’
5’
5’
R Q 5’ 5’ 5’
5’
Q
5’ 5’
R
5’ 5’
. Abb. 2.8 Prinzip Quantitativen Real-Time-PCR unter Verwendung von TaqMan-Sonden. Wird die Oligonucleotidsonde von der Polymerase freigesetzt, sendet der Reporter ein fluoreszentes Signal aus
Die Quantitative Real-Time-PCR (qRT-PCR oder qPCR, die Abkürzung RT-PCR sollte in diesem Zusammenhang vermieden werden) ist eine beliebte Methode, um Nucleinsäuren zu quantifizieren. Allerdings braucht man ein entsprechendes Gerät, da die Amplifikation während der Reaktion verfolgt wird und nicht nach Abschluss der Reaktion auf einem Gel. Sie basiert auf der Detektion von fluoreszenten Signalen, die proportional zum PCR-Produkt während der Amplifikation generiert werden. Eine Möglichkeit besteht darin, einen Farbstoff, der sich unspezifisch an doppelsträngige DNA anlagert und dabei fluoresziert, der Reaktion zuzugeben, z. B. SYBR green I. Die Zunahme der Fluoreszenz ist dann proportional der Menge an doppelsträngiger DNA. Der Vorteil gegenüber anderen qPCR-Methoden ist, dass keine Reporteroligonucleotide verwendet werden und somit nicht gekauft werden müssen. Der Nachteil dieser Methode ist, dass auch unspezifisch amplifizierte PCR-Produkte zu einem Signal führen. Die Spezifität der PCR-Reaktion somit von entscheidender Bedeutung ist. Eine spezifischere Methode, TaqMan genannt, nutzt die 5′-3′-Exonucleaseaktivität der Taq-Polymerase aus (. Abb. 2.8). Dem Reaktionsmix wird neben den Gen-spezifischen Primern ein Gen-spezifisches Oligonucleotid zugegeben. Dieses Oligonucleotid ist an seinem 5′- und 3′-Ende mit je einem Floureszenzfarbstoff modifiziert. Während der Reaktion wird der Farbstoff am 5′-Ende (der Reporter) angeregt, dieser überträgt die aufgenommene Energie auf den Farbstoff am 3′-Ende (der Quencher). Dadurch wird kein Fluoreszenzsignal ausgesendet. Das Oligonucleotid kann an eine spezifische Sequenz des Templates binden. Wird dieser Bereich durch die Polymerase amplifiziert, so wird aufgrund ihrer 5′-3′-Exonucleaseaktivität der Reporter freigesetzt und das Oligonucleotid abgebaut. Dadurch sendet der Reporter Fluoreszenzsignale aus. Voraussetzung für das Funktionieren von Reporter und Quencher ist ihre große Nähe. Es wird Energie von einem fluoreszierenden Donormolekül auf ein fluoreszierendes Akzeptormolekül übertragen, dies bezeichnet man auch als Fluoreszenz Resonanz Energie Transfer (FRET) (7 Kap. 3). Da die freie Sonde kein Fluoreszenzsignal aussendet, kann diese im Überschuss eingesetzt werden.
2.10 • Microarrays
Die über die Entkopplung vom Quencher erzeugte Fluoreszenz ist proportional zur Amplifikation des gebildeten Doppelstranges und dient dem direkten Nachweis der Template-Menge. Es gibt weitere Analysesysteme, bei denen andere, modifizierte Reporter-Oligonucleotide verwendet werden. Wird als Ausgangsmaterial mRNA benutzt, so muss diese zunächst in cDNA umgeschrieben werden. Dies ist ein sehr kritischer Schritt, der entweder im gleichen Tube vorgenommen werden kann oder die Reverse Transkription und PCR-Amplifikation finden getrennt statt (Wong und Medrano, 2005). Die qPCR-Anwendungen, Auswahl von Standards und Genen zur Normalisierung der Daten sollte man gut planen. Es sollten mehrere Gene zur Normalisierung verwendet werden. Zu bedenken ist z. B., dass sich beta-Actin nicht in jedem Fall als endogene Kontrolle bei neuronalen Proben eignet, da beta-Actin selbst in Nervenzellen einer großen Dynamik unterliegen kann. Es wurden inzwischen Richtlinien für Publikationen vorgeschlagen, ein Berücksichtigen der Vorschläge kann vor bösen Überraschungen beim Publizieren schützen (Bustin et al., 2009).
27
2
Isolierung von RNA aus Gewebe oder Zellen
Synthese von markierter cDNA oder cRNA
Hybridisierung des Microarrays mit der markierten cDNA oder cRNA
Auslesen des Arrays Analyse der Daten
Darstellung der Daten z. B. als Cluster Analyse
kEinzelzell-PCR
Es gibt die Möglichkeit, Elektrophysiologie und Expressionsanalysen zu kombinieren. Wird eine Einzelzelle gepatched und elektrophysiologisch charakterisiert, so besteht die Möglichkeit, anschließend die Zelle in die Patch-Kapillare einzusaugen, die mRNA zu isolieren und in cDNA zu überschreiben. Man sollte bei der Planung dieser Experimente auf jeden Fall die geringen Mengen mRNA, die aus einer Zelle gewonnen werden können, in Betracht ziehen und eine sehr hohe Frustrationstoleranz besitzen.
2.10
Microarrays
Microarrays waren lange Zeit en vogue und entwickelten sich zum beliebtesten Werkzeug zur genomweiten Expressionsanalyse. Die Technologie eröffnete zum ersten Mal die Möglichkeit das gesamte Transkriptom eines Gewebes zu erfassen.
. Abb. 2.9 Ablauf eines Microarray-Experiments. Aus biologischen Proben, Gewebe oder Zellextrakt, wird RNA isoliert und je nach Verfahren in markierte cDNA oder cRNA überschrieben. Unterschiedliche Signalintensitäten werden detektiert und können zwischen verschiedenen Proben verglichen werden. Die Auswertung bedarf einer ausführlichen computergestützten Analyse
Bei der Microarray-Technologie (. Abb. 2.9) oder auch DNA-Chiptechnologie werden Einzelstrangoligonucleotide mit bekannter Sequenz in einem Punktraster auf einen Chip gespottet. Die Oligonucleotide haben meist eine Länge von 20– 25 bp, können aber auch länger sein und sind mit einer sehr hohen Dichte (im Extremfall mehr als 200 000 pro cm2) auf den Chip gepackt. In den seltensten Fällen stellt der Experimentator den Chip selbst her, meist steht auch kein Microarray-Scanner im Labor zur Verfügung, sondern eine ServiceUnit stellt diesen. Dadurch müssen Sie sich an die vorgegebene Versuchsanordnung anpassen. Vom
28
Kapitel 2 • Molekularbiologische Techniken
Gen
Transkript
Genom
Gen Expressions-Array
Exon-Array
Tiling-Array
2
. Abb. 2.10 Beispiele unterschiedlicher Microarray-Typen. Ziel kann die Detektion der Expression einzelner Gene sein, unterschiedliche Gentranskripte oder die Erfassung des gesamten Genoms und somit auch unbekannter Transkripte. In schwarz sind Gene schematisch dargestellt, Exons als Kästchen, Introns als Linie. Die grauen Balken zeigen, an welcher Stelle Probesets mit dem Genom übereinstimmen
Scanner hängen auch die Wahl der Hybridisierungssonden und deren Markierung ab. Man kann sowohl DNA- als auch RNA-Sonden verwenden. Zu bedenken ist, dass die Oligonucleotide auf dem Chip DNA-Moleküle sind und eine RNA/DNAHybridisierung stabiler ist als ein DNA/DNAHybridisierung, und deshalb unter stringenteren Bedingungen wie z. B. höheren Temperaturen ablaufen kann. Bei vielen kommerziellen Microarrays werden Oligonucleotide mehrfach gespottet. Diese werden auch als Probesets bezeichnet und ein Gen wird meist durch mehrere Probesets repräsentiert. Zur weiteren Kontrolle werden neben diesen perfect match-Oligonucleotiden auch so genannte missmatch-Oligonucleotide verwendet, die sich nur in einzelnen Nucleotiden unterscheiden. Aus dem Hybridisierungsmuster kann dann die Spezifität abgeleitet werden. Weiterhin ist zu beachten, dass in der Regel nur die komplementäre Sequenz mit den Oligonucleotiden hybridisiert werden kann. Somit muss das Endprodukt der Markierung cRNA oder cDNA sein. Markiert werden kann radioaktiv, fluoreszent oder mit Haptenen wie Biotin oder Digoxigenin. Aber wie schon erwähnt, haben Sie häufig keine Wahl. Entscheiden Sie sich z. B. für die Technologie der Firma Affymetrix, so müssen Sie eine Biotin-Markierung verwenden. Die Hybridisierung wird dann in Abhängigkeit vom verwen-
deten System detektiert. Anschließend erfolgt die Auslese des Microarrays. Im Gegensatz zur qPCR wird hier nicht die dynamische Hybridisierung verfolgt, sondern nur das Endergebnis der Hybridisierung erfasst. Die folgende bioinformatische Analyse ist der Schlüssel zur richtigen Interpretation der Ergebnisse. Man kann Microarrays in unterschiedliche Gruppen einteilen (. Abb. 2.10). Ein Typ zielt darauf ab, die Expression bestimmter Gene und spezifische Modifikationen dieser Genen nachzuweisen. Eine weitere Möglichkeit bieten Exon Arrays, die unterschiedliche Exons erfassen und so die Expression unterschiedlicher Splicevarianten nachweisen können. Während sich die beiden zuerst genannten Arraytypen auf bekannte, bereits klonierte cDNASequenzen beziehen, versuchen die so genannten Tiling Arrays die Komplexität des Transkriptoms ohne Vorannahmen zu erfassen. Weiterhin ist es möglich, auch nicht-polyadenylierte RNAs mit dieser Methode zu detektieren. Bei den Tiling Arrays decken Oligonucleotide gleichmäßig das Genom ab. Der Abstand zwischen den Olignucleotiden kann variieren, wird aber möglichst gering gehalten. Nur repetitive Sequenzbereiche des Genoms werden üblicherweise nicht präsentiert. Der Nachteil der Tiling Arrays ist, dass selbst modernste Methoden es nicht ermöglichen, alle Probesets auf
2.11 • RNA-Interferenz (RNAi)
einem Chip zu vereinigen. In der Regel braucht man mehrere Chips, um das gesamte Genom auf diese Weise abzudecken. Zum Vergleich: Ein Array reicht aus, um das gesamte bekannte Transkriptom der Maus abzudecken. Dabei werden mehr als 45 000 Probesets gespottet, die wiederum mehr als 30 000 Transkripte repräsentieren. Allerdings ist es sehr wahrscheinlich, dass nicht alle Splicevarianten aller Gene durch solche Arrays erfasst werden. Die Verwendung von Tiling-Arrays erhöht diese Wahrscheinlichkeit. Ermittelt werden bei Microarray-Experimenten relative Signalstärken, eine absolute Quantifizierung der Expression ist nicht gegeben. Auf die Identifizierung von Genen, die unterschiedlich exprimiert sind, muss unbedingt eine Validierung der Ergebnisse erfolgen. Hierfür wird gerne die veränderte Expression einzelner Gene durch qPCR überprüft. Es können aber auch in situ-Hybridisierungen oder Northern Blots zur Bestätigung durchgeführt werden. Als alternative Methode zur genomweiten Analyse der Transkription scheint sich das Next Generation Sequencing (siehe oben) zu etablieren. Im Gegensatz zu den Microarrays basieren die Ergebnisse nicht auf zuvor bekannten Sequenzen, die auf die Chips aufgebracht werden, sondern auf die schnelle und parallele Sequenzierung von DNAFragmenten, die auch unbekannter Natur sein können. Man sollte je nach Experiment und Möglichkeiten (nicht jedem steht ein Microarray-Scanner oder ein entsprechender Sequencer zur Verfügung) prüfen, welches die bessere Methode zur Transkriptom-Analyse ist. Beide Verfahren verlangen eine aufwendige Vorbereitung sowie eine aufwendige bioinformatische Analyse und Interpretation.
2.11
RNA-Interferenz (RNAi)
Es wurden in der Vergangenheit drei Nucleinsäurebasierte Verfahren entwickelt, um posttranskriptionell die Genexpression zu unterdrücken. Diese basieren entweder auf antisense-Oligonucleotiden, Ribozymen oder RNA-Interferenz (RNAi). Antisense-Oligonucleotide sind in der Regel ca. 20 Nucleotide lange DNA-Einzelstränge. Diese führen in Zellen durch die Hybridisierung an mRNA zum Abbau durch Ribonuclease H, einem Enzym, das spezifisch RNA-DNA-Duplexe abbaut.
29
2
Ribozyme sind katalytisch aktive RNA-Moleküle, die Ziel-RNA durch die Ausbildung von Wasserstoffbrückenbindungen binden und die Hydrolyse des Phosphodiester-Rückgrats der RNA katalysieren. Sowohl beim Benutzen von Antisense-Oligonucleotiden als auch von Ribozymen müssen relativ hohe Konzentrationen gewählt werden, um einen zuverlässigen Effekt zu erzielen. Die hohen Konzentrationen bedingen leider auch, dass unspezifische Nebeneffekte sehr häufig auftreten. Im Gegensatz dazu sind zum Reduzieren der Genexpression mittels RNA-Interferenz (RNAi) relativ geringe Konzentrationen von siRNA (small interference RNA) notwendig. Dies führt zu geringeren unspezifischen Effekten. Obwohl die Technik, mittels siRNA experimentell RNAi zu induzieren, nicht unproblematisch ist und viele Tücken birgt, so ist sie momentan die dominierende Anwendung zur posttranskriptionellen Gensuppression. Unter RNAi versteht man einen Prozess, bei dem durch doppelsträngige RNA die Expression einzelner Gene vermindert wird. Erfolgt dies experimentell, so bezeichnet man den Vorgang auch als RNA knockdown oder RNA silencing. RNAi wird durch kurze, nichtcodierende RNAs vermittelt. Diese können endogenen Ursprungs sein und werden micro RNA (miRNA) genannt oder können experimentell eingeführt werden. Dann werden sie als siRNA oder shRNA bezeichnet. RNAi vermindert die Genexperession auf der posttranskriptionellen Ebene, und ihre Spezifität wird durch Sequenz-komplementarität vermittelt. Die ersten Experimente, die zur Entdeckung von RNAi führten, wurden an Pflanzen (Petunien) und Wirbellosen (vor allem Nematoden) durchgeführt. Darauf folgte die Anwendung in Säugetieren, sowohl in kultivierten Zellen als auch ganzen Organismen. Die Schlüsselkomponenten der RNAi-vermittelten Gensuppression sind konserviert und in Wirbeltieren scheinen miRNAs wichtige Elemente zur Regulation der Genexpression zu sein. Allerdings zeigte sich, dass es auch Unterschiede in der Vermittlung der Effekte zwischen den verschiedenen Organismengruppen gibt. Eine wichtige Funktion der natürlichen endogenen miRNA beinhaltet bei den meisten Tieren die virale Abwehr. In Säugetieren wird diese Funktion jedoch von anderen molekularen Mechanismen, wie der antiviralen Interferon-Antwort, übernommen. Diese wird z. B.
30
Kapitel 2 • Molekularbiologische Techniken
Plasmid-basierte shRNA 5’ 3’
2 5’ 3’
synthetische doppelsträngige siRNA OH-3’ 5’-HO 3’-HO OH-5’
endogene miRNA Dicer ATP
ATP
ADP + Pi
ADP + Pi
5’-P 3’-HO
OH-3’ P-5’ siRNA ATP RISC
ADP + Pi
miRNA-Funktion
siRNA-Funktion
RISC 5’3’-HO
RISC AAAAA P-5’
RISC inkorporiert partiell komplementäre mRNA
translationale Repression
5’3’-HO
AAAAA P-5’ RISC inkorporiert Sense- und/oder Antisense-Strang
Degradation der Transkripte
. Abb. 2.11 RNAi-vermittelter Gen-Knockdown in Säugetieren. Die Prozessierung von hairpin miRNAs oder plasmid-basierter shRNA durch das Enzym Dicer führt zur Formation von siRNAs. Diese und synthetische siRNAs werden durch endogene Kinasen am 5′-Ende phosphoryliert. Die so aktivierten siRNAs assoziieren mit zellulären Proteinen und formen den RNAinduced silencing complex (RISC). Im Idealfall vermittelt der Antisense-Strang das RISC-abhängige Schneiden einer spezifischen Ziel-mRNA. Theoretisch kann aber auch der Sense-Strang eine Prozessierung vermitteln. Paart die siRNA nicht perfekt an eine Ziel-mRNA, so kann dies zu einer Unterdrückung der Translation führen
31
2.11 • RNA-Interferenz (RNAi)
bei der Aufnahme von doppelsträngiger RNA, die mehr als 30 bp lang ist, aktiviert. Sie vermittelt dann den Abbau sämtlicher RNAs und führt am Ende zum Zelltod. Obwohl RNAi in Säugetieren nicht der viralen Abwehr dient, konnte der Prozess in Säugetieren mit doppelsträngiger RNA, die kürzer als 30 bp sind, nachgewiesen werden. Der Mechanismus der RNAi-vermittelten Gensuppression in Säugetieren ist in . Abb. 2.11 dargestellt. Sowohl endogene miRNA als auch plasmidbasierte shRNA wird durch das evolutionär konservierte Enzym Dicer in 21–28 Nucleotide lange Fragmente geschnitten. Diese oder auch synthetische doppelsträngige siRNA werden in einem Proteinkomplex (RNA-induced silencing complex, RISC) in Einzelstränge überführt. Mit Hilfe von RISC paaren die siRNA-Einzelstränge mit komplementären mRNA-Transkripten der Zelle, die auch als Ziel-mRNA bezeichnet werden. Es gibt nun zwei Möglichkeiten, entweder die Stränge sind vollständig oder nur partiell komplementär. Eine Endoribonuclease schneidet die gepaarten RNAStränge, die vollständig komplementär sind, also perfekt zueinander passen. Dadurch kann die entsprechende mRNA nicht mehr in ein Protein translatiert werden. Es kommt also zu einem Sequenzspezifischen Abbau von komplementärer RNA (siRNA-Funktion) (. Abb. 2.11). Bei Säugetieren paaren miRNAs jedoch auch mit partiell komplementärer mRNA, dies führt nicht zum Schneiden der Ziel-mRNA, sondern lediglich zur Inhibition der Translation (miRNA Funktion). Dies bedingt, dass experimentell applizierte siRNA nicht nur die vollständig komplementäre Ziel-mRNA erkennt, sondern auch an ähnliche mRNA bindet und die Translation dieser mRNA inhibieren kann. Man spricht hierbei von Off-Target-Effects. Diese gelten als sehr schwer zu kontrollieren, insbesondere, weil dieses weniger spezifische Binden schwer vorhersagbar ist. Mögliche Faktoren, die eine solche Paarung beeinflussen, sind bisher nicht klar definiert. Außerdem wird vermutet, dass es kooperative Effekte gibt und mehrere miRNAs, die nicht-perfekt an eine Ziel-mRNA paaren, zur vollständigen Inhibition der Translation nötig sind. Experimentell gibt es zwei Möglichkeiten, einen RNAi-vermittelten Knockdown zu induzieren. Die Applikation von siRNA, also kurzen doppelsträn-
2
linearer RNA-Strang 5‘
3‘
5‘ 3‘ shRNA . Abb. 2.12 Short hairpin RNA (shRNA). Ein shRNA-Molekül besteht aus zwei komplementären Sequenzen, die durch einen kurzen Spacer getrennt sind. Das Molekül faltet sich selbst und besitzt eine Haarnadelstruktur
gigen RNA Molekülen, oder das Einbringen eines Vektors, der die entsprechenden RNA-Sequenzen auf einem Transkript vereinigt (. Abb. 2.12). Da in diesem Transkript die beiden komplementären Sequenzen durch einen Spacer voneinander getrennt sind, bildet sich eine Haarnadelstruktur (hairpin) aus und wird deshalb als short hairpin (shRNA) bezeichnet (. Abb. 2.12). Zellen können sowohl mit siRNA als auch einem shRNA-Vektor transfiziert werden. siRNA wird in der Regel durch eine Liposomen-basierte Transfektion in Zellen eingebracht. shRNA-Vektoren können mittels aller zur Verfügung stehenden Transfektionsmethoden in Zellen gebracht werden; es gibt auch Strategien, die Vektoren stabil in das Zellgenom zu integrieren und so einen dauerhaften Knockdown zu erreichen. Auf die verschiedenen Möglichkeiten, Zellen zu transfizieren, als auch auf RNAi in vivo-Anwendungen wird in späteren Kapiteln eingegangen. An dieser Stelle möchten wir aber einige Vor- und Nachteile der verschiedenen Knockdown-Strategien nennen. Es hängt natürlich von der Fragestellung, die der Experimentator behandelt ab, welches die geeignete Methode zum Knockdown ist. Der Vektor-basierte shRNA-Ansatz hat den Vorteil, dass keine spezielle Transfektionsmethode etabliert werden muss, es wird genau wie beim Transfizieren anderer Plasmide verfahren. Es besteht die Möglichkeit, die Expression eines Gens dauerhaft zu unterdrücken, indem man
32
2
Kapitel 2 • Molekularbiologische Techniken
entsprechende stabile Zelllinien oder Organismen herstellt. Außerdem kann man Vektoren verwenden, die eine induzierbare Expression ermöglichen. Nachteile gibt es aber leider auch. Häufig wird bei zu hoher Expression der shRNA die Interferonantwort aktiviert, wodurch die Zellen absterben. Wählt man den siRNA-basierten Ansatz, so kann man unspezifische Nebeneffekte aufgrund zu hoher Konzentrationen besser kontrollieren, da die applizierte Konzentration genau eingestellt werden kann. Weiterhin sind chemische Modifikationen sehr leicht bei den synthetisch hergestellten siRNAs anzufügen. Der Nachteil von siRNAs besteht in der kurzen Dauer des Knockdowns. Man sollte beim Designen von siRNAs und shRNAs einigen Regeln folgen. Die gewählte Sequenz sollte spezifisch sein, analysieren Sie mit Hilfe von BLAST, ob andere Gene mit dieser Sequenz homolog sind. Die Spezifität sollte für beide Stränge überprüft werden. Der GC-Gehalt sollte unter 50% liegen. Vermeiden Sie Intronsequenzen, 5′- und 3′UTRs und die ersten 74 Basen nach dem Startcodon. Empfohlen werden in der Regel 21 Nucleotide lange Sequenzen, die am 3′-Ende einen 2 Nucleotide Überhang haben. Einige Experimentatoren raten zur Verwendung von 2-Desoxythymidinen für diesen Überhang. Eine weitere Regel schlägt vor, dass am 5′-Ende mit zwei Adenosinen begonnen wird. Allerdings geben diese Regeln keine Garantien, dass es zum Knockdown kommt bzw. dass dieser nur das relevante Gen betrifft. Zu bedenken ist ebenfalls, dass Sequenzen, die als siRNA zu einem erfolgreichen Knockdown führen, nicht unbedingt als shRNA funktionieren und umgekehrt. Kontrollen sind natürlich extrem wichtig. Es sollte nicht nur nachgewiesen werden, dass eine spezifische mRNA nicht mehr vorhanden ist. Viel wichtiger ist, dass zu dem Zeitpunkt des Experiments das relevante Protein nicht mehr nachzuweisen ist, denn in der Regel untersucht man dessen Funktion. Häufig wird eine scrambled-Kontrolle verwendet. Dies ist eine siRNA mit gleicher Nucleotidzusammensetzung, aber mit einer anderen zufälligen Sequenz. Diese Kontrolle kann zwar zeigen, dass eine verwandte siRNA nicht den gleichen Effekt hat, kann aber off-target-Effekte nicht ausschließen. Deshalb werden häufig drei siRNAs, die spezifisch für unterschiedliche Regionen eines
Gens sind, designed, um identische Effekte zu zeigen. Arbeiten Sie allerdings mit einem Gen, welches viele homologe Gene besitzt, weil es z.B. zu einer großen Genfamilie gehört, so können Sie häufig nicht 3 spezifische und vielversprechende Sequenzen finden. Experimente sollten auf jeden Fall (wie immer!!!) mehrfach wiederholt werden. Die ultimative Kontrolle ist ein Vektor, der das Gen, das ausgeschaltet werden soll, in modifizierter Form trägt, so dass es nicht mit der siRNA paart. Wird dieses gemeinsam mit der siRNA appliziert, sollte der Knockdown-Effekt aufgehoben sein. Allerdings kann auch solch ein Rescue aufgrund von technischen Problemen scheitern, z. B. weil die Expression durch den Vektor nicht physiologisch ist. Bei einem RNAi-Screen wird eine große Anzahl von verschiedenen siRNAs appliziert und ihre Effekte untersucht. So können nicht nur siRNAMoleküle, die einen spezifischen Effekt haben, identifiziert werden, sondern weitere Gene, die mit diesen paaren. Für viele Gene sind funktionierende siRNAs oder shRNAs bekannt, es lohnt sich, auf diese für einzelne Experimente zurückzugreifen. Wer charakterisierte siRNAs oder shRNAs nutzen möchte, sollte aber beachten, dass in jedem Gewebe oder Zellverband die Wirkung prinzipiell anders sein kann. Viele Firmen bieten RNAi-nahe Dienstleistungen an. Dies reicht von der Synthese von siRNA bis hin zu fertigen Viruspartikeln zur Transfektion mit shRNA. Einige Firmen stellen ihre Vorhersagemethoden zur Verfügung, allerdings sind die Vorhersageparameter in der Regel nicht ersichtlich. Oft haben Firmen auch komplette shRNA-Sätze für ein Gen im Programm. Einige Anbieter gehen so weit, dass sie die Sequenzen, die für den Knockdown verwendet werden sollen, nicht einmal preisgeben. Auf diese sollte man aber bestehen, denn sonst fischt man wirklich im Trüben. Weiterhin sollten die angebotenen Sequenzen zusätzlich vom Experimentator selbst überprüft werden, denn vielfach stellen sich die angebotenen Werkzeuge als nicht sehr spezifisch heraus.
33
Literatur und World-Wide-Web-Links
Literatur und World-Wide-Web-Links Web Ressourcen: Allgemeine Links zu diversen biologischen und molekular biologischen Seiten/Ressourcen: http://www.biophys.uni-duesseldorf.de/BioNet/Pedro/ research_tools.html Restriktions Enzyme: http://www.neb.com/nebecomm/default.asp http://www.fermentas.com/en/products/all/conventional-restriction-enzymes Restriktionsschnittstellen: http://tools.neb.com/NEBcutter2/index.php http://rebase.neb.com/rebase/ http://rna.lundberg.gu.se/cutter2/ Vektoren, Plasmide, cDNAs: http://www.addgene.org/ (Ein Nonprofit-Plasmid Archiv für Wissenschaftler) Firmen die Vektoren anbieten: http://www.imagenes-bio.de/ http://www.clontech.com/ http://www.invitrogen.com/ http://www.stratagene.com/ http://www.genecopoeia.com/ (wird in Deutschland über ImaGenes vertrieben) http://www.origene.com/ (wird in Deutschland über AMS Biotechnologie vertrieben) PCR-Primerdesign: http://biotools.umassmed.edu/cgi-bin/primer3plus/ primer3plus.cgi http://molbiol-tools.ca/PCR.htm Sequenzanalysen: BLAST: http://blast.ncbi.nlm.nih.gov/Blast.cgi Ensembl: http://www.ensembl.org/ Expressionsanalysen: MGI: http://www.informatics.jax.org/ GEO: http://www.ncbi.nlm.nih.gov/geo/ UniGene: http://www.ncbi.nlm.nih.gov/unigene Allen Brain Atlas: http://mouse.brain-map.org/ Embl-Atlas: http://www.ebi.ac.uk/microarray-as/atlas/ GENSAT: http://www.gensat.org/index.html Real-time PCR: http://realtimepcr.dk/ http://www.gene-quantification.info/ Microarrays: Microarray Gene Expression Database: http://www. mged.org Minimal Information About a Microarray Experiment: http://www.mged.org/Annotations-wg/index.html Microarray and Gene Experiment: http://www.mged. org/mage miRNA: http://www.mirbase.org/ Allgemein: Mülhardt C (2006) Der Experimentator: Molekularbiologie/ Genomics, 5. Aufl, Spektrum Akademischer Verlag
2
Sambrook ER, Russel DW (2001) Molecular Cloning: A Laboratory Manual, 3rd Edition, Cold Spring Harbor Laboratory Press, Cold Spring Harbor, NY Rekombinase Systeme: Park J, LaBear J (2006) Recombinational Cloning. Curr. Prot. Mol. Biol. 3.20.1–3.20.22 Mutagenese: Chiu J, March PE, Lee R, Tillet D (2004) Site-directed, ligase-independent mutagenesis (SLIM): a single-tube methodology approaching 100% effiency in 4 h. Nucleic Acid Res. 32, 1–5. Real-Time PCR: Bustin SA, Benes V, Garson JA, Hellemans J, Huggett J, Kubista M, et al. (2009) The MIQE Guidelines: Minimum information for publication of quantitative real-time PCR experiments. Clin. Chem. 55, 611–622. Wong ML, Medrano JF (2005) Real-time PCR for mRNA quantitation. Biotechniques. 39, 75–82. Microarrays: Müller HJ, Röder T (2004) Der Experimentator: Microarrays, 1. Aufl, Spektrum Akademischer Verlag miRNA/siRNA: Dorsett Y, Tuschl T (2004) siRNAs: Applications in functional genomics and potentials as therapeutics. Nature Rev. Drug Discovery, 3, 318–329 Mittal V (2004) Improving the efficiency of RNA interference in mammals. Nature Rev. Genetics, 5, 355–365. Wang Z. (2009) MicroRNA Interfernce Technologie, Springer Verlag
35
Analyse von Proteinen Guido Hermey
3.1
Antikörper – 36
3.1.1 3.1.2 3.1.3
Antikörper-Herstellung – 37 Das Antigen – 38 Reinigung von Antikörpern – 39
3.2
Reinigen und Nachweisen von Proteinen – 39
3.2.1 3.2.2
Reinigung von Proteinen – 39 Nachweis von Proteinen – 41
3.3
Subzelluläre Fraktionierung – 42
3.4
Auffinden und Nachweisen von Proteininteraktionen – 45
3.4.1 3.4.2 3.4.3 3.4.4 3.4.5 3.4.6 3.4.7
Immunpräzipitation – 46 Co-Immunpräzipitation – 48 Expression von Proteinen – 49 Protein-Tags – 50 Das Yeast-Two-Hybrid-System – 52 Phagen-Display – 58 Fluoreszenzbasierte Techniken zur Detektion von Proteininteraktionen – 59 SPR-Analyse – 61
3.4.8
Literatur und World-Wide-Web-Links – 63
G. Hermey et al., Der Experimentator: Neurowissenschaften, DOI 10.1007/978-3-8274-2369-6_3, © Spektrum Akademischer Verlag Heidelberg 2010
3
36
3
Kapitel 3 • Analyse von Proteinen
Proteine haben eine Schlüsselstellung im Nervensystem, als Signalmoleküle, Rezeptoren oder Ionenkanäle. Proteine bestehen aus Ketten von Aminosäuren. 20 verschiedene Aminosäuren kommen in Proteinen vor und durch ihre unterschiedliche Kombination wird eine enorme strukturelle und funktionelle Vielfalt erreicht. Als das Proteom bezeichnet man die Gesamtheit aller in einer Zelle oder einem Lebewesen zu einem bestimmten Zeitpunkt vorliegenden Proteine. Im Gegensatz zum Genom ist es sehr dynamisch. Als Beleg für die Vorrangigkeit der Erforschung der Proteine verweisen einige Forscher aus der Proteom-Zunft gerne auf den Ursprung des Wortes »Protein«. Es leitet sich von dem griechischen Wort proteios, »grundlegend«, »an erster Stelle stehend«, ab. In diesem Zusammenhang sollte erwähnt werden, dass dieser Begriff auf Gerardus Mulder (1802–1880) und Jöns Berzelius (1779–1848) zurückgeht. Mulder nahm an, dass es einen »Grundstoff« gibt, welcher in allen damals bekannten stickstoffhaltigen Substanzen identisch sei und dieser »Grundstoff« nur um ein Schwefel- oder Phosphoratom verändert würde. Diesen Grundstoff würden Pflanzen den Tieren liefern. Somit hat die Bezeichnung Protein, die dann von Berzelius vorgeschlagen wurde, nichts mit dem Selbstverständnis, »wir sind die Nummer eins«, sondern mit einem zu dem Zeitpunkt unverstandenen, in der Nahrungskette »grundlegenden« und nur leicht modifizierten Grundstoff aller Eiweißmoleküle zu tun. Im Folgenden wollen wir auf wichtige Werkzeuge und Techniken zur Erforschung von Proteinen eingehen.
3.1
Antikörper
Antikörper sind sehr nützlich zur Erforschung von Proteinen. Sie ermöglichen den Nachweis oder die Isolation von Proteinen. Daher sollte der Experimentator diese Werkzeuge schätzen, aber nicht jeden Antikörper überschätzen. Dies kommt leider immer wieder vor, denn nicht jeder Antikörper, ob selbst hergestellt, gekauft oder geschenkt bekommen ist spezifisch oder für jede Anwendung geeignet. Es ist immer wieder erschreckend, mit welcher Naivität besonders immuncytochemische
Leichte Kette Papain-Spaltung Schwere Kette
Fc-Fragment konstanter Teil
variabler Teil
Fab-Fragment Disulfidbrücke
. Abb. 3.1 Schematische Darstellung der Struktur eines IgG-Moleküls
und immunhistologische Analysen durchgeführt und bewertet werden. Grundsätzlich sollte der Experimentator immer an Antikörpern zweifeln und versuchen, die Spezifität eines Antikörpers zu kontrollieren. Antikörper werden bei der humoralen Immunantwort gebildet. Sie bilden eine Proteinfamilie, die als Immunglobuline (Ig) bezeichnet wird. Innerhalb der Familie gibt es wiederum fünf Klassen, IgG, IgM, IgA, IgD und IgE. Die meisten immunchemischen Verfahren benutzen IgG, das 80 % der Serum-Immunglobuline ausmacht. Alle Immunglobuline setzen sich aus vier Polypeptidketten zusammen, wobei jeweils zwei identische leichte und schwere Ketten (light and heavy chains) gepaart sind. Je nach Schwere ihrer Ketten werden innerhalb der fünf Klassen Subklassen unterschieden. Wir gehen hier nur kurz auf IgG Moleküle ein. Für mehr Information sei auf einschlägige Lehrbücher verwiesen. Wie in . Abb. 3.1 dargestellt, sind die zwei jeweils identischen schweren und leichten Ketten eines IgG-Antikörpers durch Disulfidbrücken miteinander verbunden. Das proteolytische Enzym Papain spaltet einen typischen IgG-Antikörper in drei Fragmente, 2 identische Fab (antibody binding fragment) und ein Fc (crystalized fragment). Das Fc-Fragment bindet und aktiviert das Komplementsystem. In den einzelnen IgG Molekülen sind häufig viele der 100–110 Aminosäuren an den Nterminalen Enden sowohl der leichten wie auch der schweren Ketten ausgetauscht. Dieser Teil wird als variable Region bezeichnet. Die übrigen Sequen-
3.1 • Antikörper
zen der schweren und leichten Ketten sind innerhalb einer IgG-Unterklasse weitgehend gleich und werden als konstanter Teil bezeichnet. Einige Aminosäuren in der variablen N-terminalen Region, die besonders stark variiert werden (hypervariable Region), bilden die Spezifität der Antigenbindungsstelle aus. Eine hohe Affinität dieses Bereichs gegenüber dem Antigen zeichnet in der Regel einen guten Antikörper aus. Hochaffine Antikörper binden fester an das Antigen, werden bei Waschschritten nicht so leicht entfernt und können in geringeren Konzentrationen eingesetzt werden.
3.1.1
Antikörper-Herstellung
Methoden, bei denen Antikörper zum Nachweis für Proteine eingesetzt werden, bezeichnet man als immunologische Techniken. Traditionell werden die meisten für immunologische Techniken eingesetzten Antikörper durch Injektion einer Suspension des Antigens in Kaninchen erzeugt. Den Tieren wird Blut abgenommen und nach dem Gerinnen des Blutes wird das Serum abgetrennt. Obwohl die komplette Immunisierung und Blutentnahme in Eigenregie eine einschneidende Erfahrung ist, überlassen Sie es, wenn nur irgendwie möglich, einem Profi. Sonst findet sich der Experimentator unter Umständen mit einem gestressten Kaninchen auf dem Schoß sitzend wieder, ein Ohr des Kaninchens festhaltend, verzweifelt beruhigende Lieder singend, um Blut bettelnd das Ohr streichelnd. Irgendwann, das Kaninchen ist inzwischen entspannt, die Kollegen längst zu Hause, läuft das Blut ohne zu enden und Sie haben zu wenig Röhrchen greifbar, um das vermeintlich kostbare Rot aufzufangen. Diverse Firmen bieten inzwischen die Herstellung von polyklonalen Antikörpern kostengünstig an. Die Konkurrenz zwischen den Firmen ist groß. Sollten Sie geringe finanzielle Mittel haben, verhandeln Sie mit konkurrierenden Firmen oder warten Sie Jahresendangebote ab. Es ist nicht nur der enorme Aufwand, jemand muss die Tiere versorgen etc. Bedenken Sie, haben Sie keine ausreichende Erfahrung, so quälen Sie nicht nur sich, sondern mit großer Wahrscheinlichkeit auch das Tier. Darüber hinaus sollten Sie bedenken, so lange
37
3
Sie kein neues Verfahren entwickeln, wird das Herstellen eines Antikörpers heutzutage nicht mehr als eine große wissenschaftliche Leistung betrachtet, auch wenn dies sehr zeitaufwendig sein kann. Prüfen Sie deshalb immer, ob ein entsprechender Antikörper bereits zu kaufen ist oder ob jemand einen solchen bereits hergestellt hat und ihnen eventuell zur Verfügung stellt. Ist ein Antikörper bereits in einer Publikation erfolgreich verwendet worden, so kann dies ein Qualitätshinweis sein. Neben Kaninchen werden auch weitere Spezies zur Herstellung polyklonaler Antikörper benutzt, wie Schafe, Ziegen, Pferde, Meerschweinchen, Ratten, Hühner etc. Monoklonale Antikörper werden traditionell in Mäusen generiert. Seit einiger Zeit ist auch ein Verfahren zur Herstellung monoklonaler Antikörper in Kaninchen etabliert und wird von einigen Firmen angeboten. Beim Planen seiner Versuche sollte der Experimentator darauf achten, dass neben dem richtigen 1. Antikörper auch der jeweilig passende 2. Antikörper für die gewählte Spezies problemlos benutzt werden kann. Für alle, die im Detail mehr über die Herstellung von Antikörpern wissen möchten, verweisen wir auf die Experimentatoren Proteinbiochemie und Immunologie. kMonoklonal versus Polyklonal
Es gibt zwei Typen von Antikörpern, monoklonale und polyklonale (. Abb. 3.2). Polyklonale Antikörper werden wie oben beschrieben erzeugt. Eigentlich erhält man zunächst ein polyklonales Antiserum. Dies enthält eine Reihe von Antikörpern, die ein Antigen erkennen. Das Antigen weist verschiedene Epitope (Antigenbindungsstellen) auf, und diese werden von den unterschiedlichen Antikörpern des Serums erkannt. Die Antikörper stammen aus verschiedenen Plasmazellklonen, daher polyklonal. Es handelt sich also um eine Mischung von Antikörpern, die an unterschiedlichen Stellen das Antigen binden. Aus einem solchen Gemisch kann man keine homogene Population eines einzigen Immunoglobulinmoleküls heraus reinigen. Dies erreicht man nur durch die Herstellung eines monklonalen Antikörpers. Dabei handelt es sich um identische Immunoglobulinmoleküle, die aus einem einzigen Plasmazellklon stammen. Grundsätzlich haben beide Antikörpertypen Vor- und Nachteile.
38
3
Kapitel 3 • Analyse von Proteinen
. Abb. 3.2 Polyklonale Antikörper und monoklonale Antikörper. Polyklonale Antikörper stammen von unterschiedlichen Plasmazellklonen ab und erkennen verschiedene Epitope eines Antigens. Monoklonale Antikörper stammen von nur einem Plasmazellklon ab und erkennen nur ein Epitop
polyklonale Antikötper
Polyklonale Antikörper sind relativ leicht, schnell und kostengünstig herzustellen. Es werden verschiedene Epitope des Antigens erkannt, dies kann gewünscht sein. Häufig ist ein polyklonaler Antikörper für eine Vielzahl von Anwendungen geeignet, da bei Veränderungen einzelner Epitope durch beispielsweise eine Fixierung ein Teil der Epitope nicht mehr, aber andere Epitope immer noch erkannt werden können. Ein großer Nachteil ist, dass nicht nur Antikörper gegen das gewünschte Epitop im Antiserum enthalten sind, sondern auch in geringen Mengen weitere Antikörper und auch Serumproteine, die in dem Versuchstier zirkulieren. Weiterhin ist die Produktion eines polyklonalen Antikörpers endlich, weil das Tier stirbt, der Titer an gewünschtem Antikörpern zu Ende geht oder Geld nicht weiter investiert werden soll. Monoklonale Antikörper sind teurer und aufwendiger in der Herstellung. Hat man aber eine stabile Hybridomazelllinie, so steht ein monoklonaler Antikörper praktisch endlos zur Verfügung. Weiterhin hat man einen gleichbleibenden Antikörper, der nur ein Epitop bindet und so sehr reproduzierbare Ergebnisse liefern sollte. Allerdings kann dies auch zu einem Nachteil gereichen, da bestimmte monoklonale Antikörper nur für bestimmte Anwendungen funktionieren. Gehen Sie den langwierigen Weg und produzieren einen monoklonalen Antikörper selbst, so sollten Sie die unterschiedlichen Klone für alle relevanten Assays testen. Firmen, die die Herstellung anbieten, testen häufig nur in einem Assay, meist im ELISA (Enzyme-linked Immunosorbent Assay).
3.1.2
monoklonale Antikörper
Das Antigen
Egal, ob Sie einen Antikörper herstellen lassen oder dies selbst übernehmen, Sie benötigen ein Antigen. Ein Antigen ist eine Fremdsubstanz, die nach Injektion in die Gewebe eines Versuchstieres eine Immunantwort hervorruft. Meist handelt es sich bei dieser Fremdsubstanz um ein Protein, aber auch andere Stoffe, wie Lipide oder Polysaccharide, können immunreaktiv sein. Arbeiten Sie mit einem Protein, welches Ihnen gereinigt zur Verfügung steht, so können Sie dieses als Antigen verwenden. In der Regel ist dies aber nicht der Fall und das zu bearbeitende Protein steht nicht zur Verfügung. Häufig wird ein Peptid, das einem Teil des Proteins entspricht, ausgewählt und als Antigen eingesetzt. Es gibt verschiedene Vorhersagemethoden, um die Antigenität einer Peptidsequenz abzuschätzen. Unterschiedliche Programme werden dafür als Freeware im Internet angeboten. Das entsprechende Peptid wird dann synthetisiert, was kommerziell relativ schnell geht. Die Peptide sind klein und garantieren keine ausreichende Immunogenität und werden deshalb an einen Carrier gekoppelt, wie z. B. Keyhole Limpet Hemocyanin oder Sepharose. Bei dieser Methode wird in der Regel ein polyklonales Antiserum in sehr kurzer Zeit generiert. Allerdings ist dieses häufig nicht sehr spezifisch und erkennt andere Proteine, die ähnliche Epitope aufweisen. Somit ist Vorsicht geboten, aber manchmal, wenn man wirklich Glück hat, funktionieren gegen ein Peptid gerichtete Antikörper bei verschiedenen Anwendungen sehr gut. Eine Alternative, ein Antigen zu erzeugen, ist die rekombinante Expression des Proteins in Bak-
terien oder eukaryotischen Zellen. Häufig wird das Protein dann über ein Protein-Tag gereinigt (siehe Abschnitt unten). Hierbei werden mehr Epitope des spezifischen Proteins angeboten, was zu besseren Antikörpern führen kann. Negativ wirken sich aber Verunreinigungen aus, somit ist die Reinigung des Proteins ein kritischer Schritt. In den letzten Jahren wurde weiterhin die genetische Immunisierung etabliert. Hierbei wird ein geeigneter DNA-Vektor, der das Antigen-Gen trägt, zur Immunisierung benutzt.
3.1.3
. Tab. 3.1 Relative Bindungsstärke von IgG aus verschiedenen Spezies an Protein A und G
Reinigung von Antikörpern
Wie zuvor beschrieben, besteht ein großer Nachteil von polyklonalen Antiseren darin, dass nicht nur Antikörper gegen das gewünschte Epitop im Antiserum enthalten sind, sondern auch verschiedene Serumproteine sowie weitere Antikörper, die in dem Versuchstier zirkulieren. Mit Hilfe von bakteriellen Fc-bindenden Proteinen ist es jedoch relativ einfach, spezifisch IgG aus einem Serum aufzureinigen. Am häufigsten werden Protein A aus Staphylococcus aureus und Protein G aus Streptococcus verwendet. Beide Proteine binden reversibel sowohl monoklonale als auch polyklonale Antikörper, allerdings ist die Affinität abhängig von der Spezies und der IgG Unterklasse (. Tab. 3.1). Natives Protein G bindet außerdem Albumin, allerdings ist eine rekombinante Variante von Protein G kommerziell verfügbar, bei der die Albuminbindestelle deletiert wurde. Viele Firmen vertreiben an Sepharose-Beads gekoppeltes Protein A oder G oder eine Mischung aus beiden. In der Regel werden IgGs bei leicht alkalischen pH an die Säule gebunden und mit einem Glycin Puffer bei pH 2–3 eluiert. Am einfachsten ist der Nachweis, dass Sie Antikörper gereinigt haben, durch die Bestimmung der Proteinkonzentration der unterschiedlichen Fraktionen photometrisch bei 280 nm. Dem können dann weitere Nachweismethoden wie ein Western Blot folgen. Es besteht auch noch die Möglichkeit für das Antigen spezifische Antikörper zu reinigen. Für diese Affinitätsreinigung muss das Antigen an eine Matrix gekoppelt werden. Dann folgt eine Affinitätschromatographie. Das Serum wird auf die
3
39
3.2 • Reinigen und Nachweisen von Proteinen
Spezies
Protein A
Protein G
Ratte
–
+
Ziege
–
++
Schaf
–
++
Rind
–
++
Pferd
–
++
Mensch
++
++
Kaninchen
++
++
Maus
+
++
Meerschweinchen
++
++
–, keine Bindung; +, Bindung; ++, starke Bindung
Antigensäule gegeben, Antikörper, die das Antigen binden, werden nach mehreren Waschschritten mit saurem pH, eventuell auch noch mit sehr basischem pH eluiert. So kann man zwar sehr spezifische Antikörper erhalten, verliert jedoch die wirklich hochaffinen Antikörper, da diese schwer von der Antigensäule zu eluieren sind.
3.2
Reinigen und Nachweisen von Proteinen
3.2.1
Reinigung von Proteinen
Die Reinigung bestimmter Proteine kann für den neurowissenschaftlich arbeitenden Experimentator von Bedeutung sein. Sei es um Antikörper herzustellen, Proteinmodifikationen nachzuweisen, Bindungspartner zu identifizieren oder Interaktionen zu charakterisieren. Wichtig ist, dass Sie das gereinigte Protein nach der Reinigung mit einer geeigneten Methode nachweisen können und ein Ausgangsmaterial zur Verfügung steht, in welchem das zu reinigende Protein in hoher Konzentration vorkommt. Zur Reinigung von Proteinen werden häufig mehrere Techniken kombiniert. Zu beachten ist, dass die optimale Kombination für jedes Protein empirisch ermittelt werden muss. Dies kann sehr
40
3
Kapitel 3 • Analyse von Proteinen
langwierig sein. Die verschiedenen Möglichkeiten zur Proteinreinigung sollen hier nur kurz dargestellt werden. Sehr detaillierte Erläuterungen finden sich zu den einzelnen Schritten beispielsweise im Experimentator Proteinbiochemie. Meist dienen Zellen oder Gewebe als Ausgangsmaterial, das aufgeschlossen werden muss. Gewebe wird in der Regel zuvor zerkleinert und dann homogenisiert. Zellen und Gewebe kann man durch eine Ultraschallbehandlung, durch Einfrieren und durch enzymatische oder chemische Verfahren lysieren. Für die anschließende Reinigung wird in der Regel eine weitgehend partikelfreie Lösung benötigt. Diese erhält man durch Zentrifugations- oder Filtrationsschritte. Wichtig ist die Zugabe von Proteasehemmern, um das zu reinigende Protein vor Abbau zu schützen. Zur Hemmung verwendet man entweder eine selbst hergestellte Mischung aus PMSF (Phenylmethylsulfonylfluorid), Aprotinin, Pepstatin A, Leupeptin und EDTA oder einen käuflichen Mix von Proteasehemmern, der meist in Tablettenform angeboten wird. Beim Umgang mit Proteasehemmern sollten Sie beachten, dass diese sehr toxisch sind. Ein klassischer Reinigungsschritt ist die Ammoniumsulfatfällung. Man verwendet Ammoniumsulfat, weil dieses Salz bis zu hohen Konzentrationen löslich ist. Das Salz entzieht den Proteinen die Hydrathülle und fällt so die Proteine aus. Diese können dann durch Zentrifugation abgetrennt werden. Weil sich Proteine in ihren Lösungseigenschaften unterscheiden, können diese durch Fraktionierung voneinander getrennt werden. Da die Auftrennung aber sehr grob und der Verlust sehr groß ist, wird diese Methode nur noch selten als Reinigungsschritt angewandt. Bei der Ionenaustauschchromatographie werden die Proteine aufgrund ihrer Nettoladung voneinander getrennt. Die Auftrennung basiert auf der reversiblen Interaktion zwischen dem geladenem Protein und der entgegengesetzt geladenen Säulenmatrix. Nach dem Beladen und Waschen der Säule wird entweder durch Änderung der Salzkonzentration oder des pH-Wertes eluiert. Die Methode zeichnet sich durch eine hohe Ladekapazität und Auflösung aus und kann sehr gut in einem großen Maßstab angewandt werden.
Eine weitere Möglichkeit ist die Reinigung nach der Größe. Dies kommt bei der Größenausschlusschromatographie bzw. Gelfiltration zur Anwendung. Das Probengemisch wird auf eine Säule von porösen Kügelchen aufgetragen, diese bestehen aus einem hydratisierten Polymer wie Agarose, Dextran oder Polyacrylamid. Kleinere Moleküle können in diese Kügelchen eindringen, große Moleküle nicht. Die großen Moleküle passieren so schneller die Säule und werden zuerst eluiert. Die Affinitätschromatographie beruht auf der spezifischen und reversiblen Bindung eines Proteins an einen matrixgebundenen Liganden. Der Ligand wird dafür kovalent an einer Matrix immobilisiert. Das zu reinigende Protein bindet selektiv an diesen und wird durch kompetetive Verdrängung oder durch Änderung des pH-Wertes oder der Ionenestärke eluiert. Die Affinitätschromatographie ist eine sehr leistungsfähige Trennmethode. Allerdings hängt der Erfolg von der gewählten Matrix und dem Liganden ab. Neben spezifischen Liganden kann man Antikörper einsetzen (Immunoaffinitätschromatographie), hierbei ist die Spezifität des Antikörpers entscheidend. Andere Liganden binden ganze Gruppen von Proteinen. Nucleinsäuren binden Transkriptionsfaktoren oder Nucleasen, Lektine und Concavalin A binden Glycoproteine, Gelantine bindet Fibronectine und Calmodulin wird zur Reinigung Calcium-bindender Proteine eingesetzt. Ein besonderer Fall ist die Affinitätschromatographie von rekombinant hergestellten Proteinen, welche einen so genannten Tag besitzen. Darauf wird später in diesem Kapitel noch eingegangen. Bei den Chromatographie-Verfahren liegt das Protein nach der Reinigung meist gelöst in einem geringen Volumen vor. Trotzdem kann es nötig sein, das Protein anschließend weiter zu konzentrieren. Eine Möglichkeit zur Volumenreduktion ist die Fällung, allerdings ist der Proteinverlust dabei groß. Beim Gefriertrocknen wird gefrorenen Proteinlösungen Wasser entzogen (Sublimation). Bei dieser Methode sollte das relevante Protein unempfindlich gegen Einfrieren und Auftauen sein. Es ist aber auch möglich durch Zentrifugation das Volumen zu reduzieren, entweder durch das Zentrifugieren unter Vakuum, in einer so genannten Speed-Vac, oder über den Einsatz von speziellen
41
3.2 • Reinigen und Nachweisen von Proteinen
1
5
3
2
4
3 E
. Abb. 3.3 Western Blot. Proteine werden elektrophoretisch im Polyacrylamidgel aufgetrennt (1), elektrophoretisch auf eine Membran übertragen (2), diese mit einem spezifischen primären Antikörper inkubiert (3), dann mit einem enzymgekoppelten sekundären Antikörper inkubiert (4), durch eine enzymatische Reaktion wird das gesuchte Protein sichtbar gemacht (5)
Filtern. Solche Systeme werden kommerziell für ein breites Spektrum von Volumina angeboten (z. B. Amicon von Milipore). Es gibt unterschiedliche Filter, die Moleküle unterschiedlicher Größe passieren lassen. So ist auch eine weitere sehr einfache Trennung von Proteinen nach der Größe möglich. Allerdings eignen sich die Filter nur zur Abtrennung von Verunreinigungen, da sie bei sehr großen Proteinmengen zur Verstopfung neigen.
3.2.2
Nachweis von Proteinen
Nachdem Proteine in einem SDS-Gel elektrophoretisch aufgetrennt wurden, können diese sichtbar gemacht werden. Die Proteine werden zunächst im Gel fixiert. Meist wird dazu ein Ethanol/Essigsäure/ Wasser-Gemisch verwendet. Welche Färbung der Experimentator zum Nachweis eines Proteins anwenden sollte hängt von der Proteinmenge und den nachfolgenden Experimenten ab. Wollen Sie nachweisen, dass ein Protein ohne Verunreinigung in ihrer Probe vorliegt, sollten Sie dies mit einer Silberfärbung zeigen. In diesem Fall sollte nur eine Bande bei der zu erwartenden Größe
zu finden sein. Gibt es weitere Banden, so können diese Verunreinigungen sein, Abbauprodukte des relevanten Proteins oder das Protein ist Teil eines Proteinkomplexes, der die gesamte Reinigungsprozedur überstanden hat. Wer sicher gehen möchte, dass sich hinter einer Bande nicht mehrere Proteine verbergen, führt eine zweidimensionale Gelelektrophorese durch und färbt auch dieses Gel. Die Nachweisgrenze beim Silbergel liegt bei 5–20 ng pro Bande. Ähnlich sensitiv sind Fluoreszenzfarbstoffe wie SYPRO-Ruby oder Deep-Purple. Allerdings brauchen Sie ein entsprechendes Gerät, um die Färbung nachzuweisen. Wesentlich weniger empfindlich (100–400 ng pro Bande) ist eine Coomassie-Färbung. Während bei der Silberfärbung die Intensität der Färbung von Protein zu Protein variiert (einige Proteine werden kaum angefärbt), so ist dies bei der Coomassie-Färbung nicht der Fall. Deshalb eignet sich letztere eher zur quantitativen Abschätzung von Proteinmengen. Soll ein Protein nach der Auftrennung im Gel sequenziert oder durch Massenspektrometrie analysiert werden, so informieren Sie sich zuvor unbedingt, ob ihre Färbemethode für die Analyse geeignet ist. Es gibt besondere Variationen und Vorlieben. Die
42
3
Kapitel 3 • Analyse von Proteinen
meisten Herrscher über Massenspektrometer lieben Coomassie mehr als Silberfärbungen, einfach weil durch die Färbemethode allein schon größere Proteinmengen nachgewiesen werden und somit auch ausreichend viel Protein für die Analyse in der Probe sein muss. Es gibt aber auch spezielle Protokolle für Silberfärbungen, die Massenspektrometrie-tauglich sind. Eine weitere Möglichkeit ein Protein nachzuweisen ist der Western- oder Immunoblot (. Abb. 3.3). Dieser sagt allerdings nichts über die Reinheit des Proteins aus, sondern gibt Informationen über seine Identität. Ein Western Blot ist eine sehr sensitive Nachweismethode, die Proteinmengen im Pikogramm-Bereich detektieren kann. Die elektrophoretisch aufgetrennten Proteine werden vom SDS-Gel elektrophoretisch auf eine Membran (in der Regel Nitrocellulose oder Polyvinylidenfluorid [PVDF]) übertragen, ein Vorgang, der als blotten bezeichnet wird. Dabei sind drei Verfahren etabliert. Welches der Experimentator verwendet, hängt in der Regel von der Ausstattung des Labors ab. Haben Sie eine Auswahl, so haben Sie die Qual der Wahl, denn kein Verfahren ist wirklich schlecht. Es gibt den Nass-Blot (Wet Blot) oder auch Tank Blot genannt. Hierbei wird in einem Transferpuffer in einer gekühlten Kammer geblottet. Ein relativ schonendes Verfahren, dessen Nachteil in hohem Verbrauch von Transferpuffer (den man durchaus ein zweites Mal verwenden kann), einem aufwendigen Aufbau und einer langen Blotdauer liegt. Der Semi-Dry-Blot wird ähnlich aufgebaut, allerdings braucht man weniger Puffer und der Vorgang ist schneller. Schließlich gibt es noch den so genannten Dry Blot, welcher das Ionen-Reservoir im Gel ausnutzt, aber nicht wirklich komplett »dry« ist. Dieser ist am schnellsten. Allerdings müssen für das DryBlotten, wie beim iBlot System von Invitrogen, spezielle Puffer (im Set mit den Membranen) gekauft werden. Somit ist dies wohl die teuerste Möglichkeit zu blotten. Die Dauer des Blottingvorgangs ist abhängig von dem Verfahren, der angelegten Spannung, Stromstärke und der Proteingröße. Zu hohe Spannungen können die Geräte schädigen, auch sollte eine zu starke Erhitzung vermieden werden. Die Dauer des Blottens liegt meist beim Wet Blot bei 1–2 Stunden, beim Semi-Dry-Blot bei 30–60 Minuten und beim Dry Blot unter 10 Minuten. Bei
sehr großen Proteinen von über 150 kDa sollte man länger Blotten (beim Wet Blot bis zu 3 Stunden oder über Nacht, beim Dry Blot bleibt man bei ca. 10 Minuten). Nach dem Blotten wird der Blot geblockt (z. B. mit Milchpulver oder Albumin [Bovines Serum Albumin, BSA] kombiniert mit Tween 20), um ein unspezifisches Binden an den Blot zu reduzieren. Dann wird der Blot mit einem spezifischen Antikörper, der gegen das zu untersuchende Protein gerichtet ist, inkubiert (primärer Antikörper). Dieser kann übrigens innerhalb einer kürzeren Zeitspanne (bis zu Wochen) aufbewahrt und für weitere Blots wiederverwendet werden. Nach mehreren Waschschritten folgt die Inkubation mit einem speziesspezifischen Antikörper, der den konstanten Teil des primären Antikörpers bindet. An diesen sekundären Antikörper ist eine Reporter-Markierung gekoppelt, die den Nachweis des Proteins ermöglicht. Die Markierung kann ein Enzym sein, z. B. eine Peroxidase oder alkalische Phosphatase, ein Fluoreszenzfarbstoff oder auch ein radioaktiver Marker, wie 125I. Die radioaktive Markierung wird häufig für die Quantifizierung von Proteinmengen eingesetzt. Peroxidase katalysiert die Oxidation von Luminol und löst so Chemilumineszenz aus, die auf einem Röntgenfilm sichtbar gemacht werden kann oder mit Hilfe eines entsprechenden Imaging-Systems gleich digital abgespeichert wird. Luminolhaltige Detektionsreagenzien für ECL (Enhanced Chemiluminescence) Western werden von verschiedenen Firmen angeboten, man kann diese aber auch selbst herstellen (z. B. nach Haan und Bergmann, 2007). In jüngerer Zeit werden immer häufiger fluoreszenzmarkierte sekundäre Antikörper eingesetzt. Hat man eine entsprechende apparative Ausstattung, so kann man in einem Blot primäre Antikörper aus zwei unterschiedlichen Spezies mit zwei unterschiedlichen Farbstoffen nachweisen.
3.3
Subzelluläre Fraktionierung
In welcher Gehirnregion ein Protein vorkommt, kann man durch die Präparation spezifischer Hirnareale, die Homogenisierung des Gewebes und einen anschließenden Western Blot nachweisen. Dieser Nachweis sagt allerdings nichts über die
3.3 • Subzelluläre Fraktionierung
subzellulären Strukturen, in welchen das Protein lokalisiert ist, aus. Durch eine subzelluläre Fraktionierung kann der Experimentator einzelne zelluläre Komponenten anreichern und so im Western Blot die subzelluläre Lokalisation demonstrieren. Insbesondere ist beim Vergleich gleicher Proteinmengen auch eine quantitative Aussage über die subzelluläre Verteilung eines Proteins möglich. So können dynamische, aktivitätsabhängige oder krankhafte Veränderungen der Verteilung von Proteinen nachgewiesen werden. In Kombination mit Immunpräzipitationen können auch posttranslationale Modifikationen, wie Protein-Phosphorylierung, in Abhängigkeit von der subzellulären Verteilung untersucht werden. Einzelne Fraktionen können der Ausgangpunkt zur Reinigung von Proteinen sein. Weiterhin erlaubt die Methode einzelne Komponenten, wie synaptische Vesikel, aus den angereicherten Fraktionen zu charakterisieren. Die Ultrazentrifugation wurde von Svedberg bereits 1925 eingeführt und die Zentrifugation gilt heute noch als ein klassisches Trennverfahren. Bei der subzellulären Fraktionierung handelt es sich um eine Form der präparativen Zentrifugation. Sie dient allgemein der Trennung, Isolierung und Reinigung von ganzen Zellen, subzellulären Organellen, Plasmamembranen, Polysomen, Nucleinsäuren, Lipoproteinen oder Viren, um diese dann für weiterführende Untersuchungen einzusetzen. Im Gegensatz dazu dient die analytische Zentrifugation vorwiegend der Analyse von gereinigten Makromolekülen oder Partikeln. Auf sie wird hier nicht weiter eingegangen. Separation durch Zentrifugation beruht auf dem Verhalten von Teilchen in einem künstlichen Zentrifugalkraftfeld. In einer Lösung befindliche Teilchen verschiedener Größe, Dichte und Form setzen sich im Zentrifugalkraftfeld unterschiedlich schnell ab, sie sedimentieren. Diese Sedimentationsgeschwindigkeit hängt von den Eigenschaften der Teilchen sowie der sie umgebenden Lösung ab. Weiterhin von der eingesetzten Zentrifugalkraft, die im Radius des Rotors nach außen wirkt und durch die Winkelgeschwindigkeit des Rotors sowie durch den Abstand der Teilchen vom Mittelpunkt des Rotors definiert wird. Man kann das Verhältnis der Masse eines Teilchens im Zentrifugalkraftfeld zu dem Gewicht des gleichen Teil-
43
3
chens im einfachen Schwerkraftfeld ausdrücken. Dabei gibt man die relative Zentrifugalkraft (RCF, relative centrifugal force) als ein Vielfaches von der Gravitationskonstante g (980 cm pro s2) an. Folgt oder dokumentiert man eine Arbeitsanweisung, so ist es sinnvoll, diese für Zentrifugationsschritte in g anzugeben. Denn diese Angabe lässt sich auf alle Rotoren übertragen. Eine Beschreibung der Zentrifugation in U/min ist rotorspezifisch und sollte vermieden werden. Verwendet man die Angabe U/ min doch, so sollte diese in Kombination mit dem entsprechenden Rotor dokumentiert werden. Es gibt Festwinkel- und Swing-Out-Rotoren. In den Festwinkel-Rotoren stoßen Teilchen durch die Rotation auf die äußere Wandung des Zentrifugenröhrchens, rutschen die Wandung herab und bilden am Boden des Röhrchens ein Pellet (Niederschlag). Das Sediment bildet sich schnell, allerdings kann man Teilchen mit ähnlicher Sedimentationscharakteristik schwer voneinander trennen. Somit lassen sich auf diese Weise nur Teilchen mit sehr unterschiedlichen Sedimentationscharakteristika trennen. In Swing-Out-Rotoren (Ausschwingenden Rotoren) wandern Partikel fächerartig vom Rotormittelpunkt weg, treffen wiederum auf die Innenwand der Zentrifugenröhrchen und pelletieren. Durch Dichtegradienten, langsame Beschleunigung und langsame Abbremsung des Rotors kann man Konvektionen und Turbulenzen so weit unter Kontrolle bekommen, dass Teilchen mit ähnlicher Sedimentationscharakteristik relativ gut getrennt werden können. Alle Dichtegradienten verwenden eine tragende Flüssigkeitssäule, deren Dichte zum Boden des Röhrchens ansteigt. Bei der Dichtegradientenzentrifugation sedimentieren die Moleküle mit unterschiedlicher Geschwindigkeit im Lösungsmittel, bis die Dichte der Probe größer ist als die Dichte des Lösungsmittels. Je größer der Dichteunterschied zwischen den Proben, desto schneller erfolgt die Auftrennung. Beendet man die Zentrifugation zu einem geeigneten Zeitpunkt, so erhält man unterschiedliche Banden. Dichtegradienten stellt man entweder diskontinuierlich (Stufen-Gradienten) oder als kontinuierliche Gradienten her. Zur Herstellung eines diskontinuierlichen Gradienten legt man im Zentrifugenröhrchen Lösungen mit abnehmender Dichte übereinander, dann setzt man
44
3
Kapitel 3 • Analyse von Proteinen
die Probe auf die Schicht mit geringster Dichte auf und zentrifugiert unter geeigneten Bedingungen. Lässt man solch ein Röhrchen zu lange stehen, so vermischen sich die einzelnen Lösungen zu einem kontinuierlichen Gradienten. Die Vermischung lässt sich durch Rühren beschleunigen. Weiterhin gibt es Gradientenmischer zur Herstellung eines kontinuierlichen Gradienten. Diese bestehen aus zwei Mischkammern, die Lösungen unterschiedlicher Dichte enthalten und sich beim Füllen der Zentrifugenröhrchen langsam mischen. Zum Sammeln der unterschiedlichen Fraktionen kann man nach der Zentrifugation das Zentrifugenröhrchen mit einer Nadel unten anbohren und die Gradientenflüssigkeit auffangen. Es gibt leider keinen universellen Allzweckgradienten. Es werden je nach Anwendung unterschiedliche gradientenbildende Substanzen, wie Saccharose, Ficoll oder Percoll, mit unterschiedlichen Dichten eingesetzt. Traditionell wird ein Saccharose Gradient zur Separation und Konzentration von Organellen gewählt. Saccharose ist ideal, da sie eine geringe Dichte in Lösung aufweist und mit den meisten Makromolekülen nicht interagiert. Ein Nachteil der Saccharose ist ihre hohe Osmolarität in stark konzentrierten Lösungen und ihr geringes Molekulargewicht (342), weshalb sie in Zellen eindringen kann. Deshalb werden zum Trennen von Zellen, die intakt bleiben sollen, meist andere Trägersubstanzen benutzt. Die synthetische Polysaccharose Ficoll hat ein wesentlich größeres Molekulargewicht (400 000) als Saccharose, ist gut löslich und stark konzentrierte Lösungen haben eine hohe Dichte mit physiologischer Osmolarität. Alternativ wird auch eine kolloidale Suspension von Silica-Partikeln, die mit Polyvinylpyrrolidon beschichtet sind, verwendet (Percoll). Auch diese Dichtegradienten sind osmotisch inaktiv und durch die Beschichtung sind die SilicaPartikel nicht mehr toxisch für Zellen. Um subzelluläre Fraktionen aus Gehirngewebe zu isolieren, wird das Gewebe zunächst in einem isotonischen Sucrose-Puffer pH 7,4 mit Hilfe eines Potters homogenisiert und größere Gewebereste durch Zentrifugation bei sehr geringer Geschwindigkeit (z. B. 800 × g für 10 Minuten) abgetrennt. Bei der Differentialzentrifugation teilt man die zu trennende Probe in verschiedene Fraktionen durch eine stufenweise Erhöhung des Zentrifugalkraft-
feldes. Die Zentrifugationsgeschwindigkeit wird dabei so gewählt, dass charakteristische Anteile der Probe während der Zentrifugationszeit pelletiert werden (. Abb. 3.4). Anschließend werden Pellet und Überstand (Supernatant) voneinander getrennt und je nach Bedarf das Pellet gewaschen und resuspendiert. Durch eine Wiederholung eines Zentrifugationsschrittes unter gleichen Bedingungen kann eine bessere Trennung erreicht werden. Ausgangsmaterial für die meisten Reinigungsschritte ist der postnucleäre Überstand (PNS, postnuclear supernatant). Durch Homogenisierung und Lyse mit einer hypotonen Lösung lassen sich Synaptosomen und synaptische Vesikel gewinnen (. Abb. 3.4 und . Abb. 3.5). Verschiedene Protokolle nutzen Dichtegradienten, um Synaptosomen zu isolieren (Breukel et al., 1997; Hens 1997). Aus der Synaptosomen-Fraktion kann weiterhin die Postsynaptische-Dichte (PSD, post synaptic density) isoliert werden (Carlin et al., 1980). Hierfür wird die synaptosomale Membranfraktion mit 0,5 % Triton X-100 solubilisiert. Der unlösliche Teil entspricht dann der PSD-Fraktion, der durch erneute Zentrifugationsschritte abgetrennt und weiter gereinigt werden kann. Grundsätzlich sollte die Reinheit aller relevanten Fraktionen im Western Blot mit entsprechenden Marker-Proteinen (Proteine, die typisch für Organellen der Fraktion sind) überprüft werden. In der Regel werden die Komponenten einer Fraktion sehr stark angereichert, sehr selten liegen diese wirklich rein vor. Durch Fraktionierung lassen sich intakte synaptische Strukturen und Synapsenkomponenten präparieren. Verunreinigende Komponenten wie Mitochondrien können zwar weitgehend abgetrennt werden, doch sollte sich der Experimentator darüber im Klaren sein, dass diese Präparationen ein Gemisch verschiedener Synapsentypen darstellen und dies in mögliche Schlussfolgerungen mit einbeziehen. Wer noch weiter Reinigen möchte, kann z. B. durch eine Immunaffinitätsreinigung eine definierte Populationen von synaptischen Vesikeln isolieren und dann charakterisieren (Morciano et al., 2005; Urlaub et al., 2009).
3
45
3.4 • Auffinden und Nachweisen von Proteininteraktionen
Gehirnhomogenat in 250 mM Saccharose Lösung Zentrifugation 1000 g x 10 min
P1
S1
Zellkerne Zellbruchstücke
Zentrifugation 10.000 g x 20 min
P2
S2
Lyse mit hypotoner Lösung
Zentrifugation 165.000 g x 2 h
Zentrifugation im Saccharose Dichtegradienten 25.000 g x 20 min
LP1 Synaptosomale Membranen
P3
LS1 Zentrifugation 165.000 g x 2 h
LP2
Mikrosomen
S3 Cytosol
LS2
Synaptische Vesikel . Abb. 3.4 Beispielhaftes Protokoll zur subzellulären Fraktionierung von Gehirnhomogenat. S = Supernatant; P = Pellet. S1 wird auch als postnuclear supernatant (PNS) bezeichnet
3.4
Auffinden und Nachweisen von Proteininteraktionen
Die Gesamtheit aller Interaktionen einer Zelle wird seit einigen Jahren gerne als das Interaktom einer Zelle bezeichnet. Der Begriff wird häufig auf Wechselwirkungen zwischen Proteinen eingeschränkt. Das Auffinden und Nachweisen von Interaktionen zwischen Proteinen, von Proteinkomplexen und funktionellen Netzwerken liefert Informationen über die Funktion von Proteinen, über Signalwege, mögliche Prozessierungen, andere posttranslatio-
nale Modifikationen, oder über Transportvorgänge. Meist ist der Experimentator an einem bestimmten Protein interessiert und sucht Interaktionspartner oder will eine Wechselwirkung nachweisen. Hierfür gibt es eine Reihe von Techniken, die sich nicht nur methodisch unterscheiden, sondern unterschiedlich gut für verschiedene Arten von Interaktionen geeignet sind. So sind schwache oder transiente Interaktionen nicht mit jeder Methode leicht nachzuweisen. Ist eine neue Interaktion gefunden worden, so sollte diese mit einer zweiten Methode zum Nachweis einer Proteininteraktion
46
Kapitel 3 • Analyse von Proteinen
Synapse
3
AZ Axon
PSD Dendrit
Präsynapse
Postsynapse
Mitochondrium Synaptischer Vesikel . Abb. 3.5 Schematische Darstellung einer Nervenzelle. Eine Synapse ist vergrößert dargestellt (innerhalb der gestrichelten Linien). Einzelne Komponenten sind indiziert, wie die active zone (AZ), die post synaptic density (PSD), synaptische Vesikel und Mitochondiren
verifiziert werden: wurde also eine Interaktion z. B. im Yeast-2-Hybrid System gefunden, so sollte diese z. B. durch eine Co-Immunpräzipitation oder einen GST-pull down bestätigt werden.
3.4.1
Immunpräzipitation
Bei einer Immunpräzipitation wird ein Antigen, z. B. ein Protein, durch die Bindung an einen Matrix-gekoppelten Antikörper isoliert. Die Herkunft des zu präzipitierenden Proteins können Zellen oder Gewebe sein. Deshalb ist der erste Schritt das Herstellen eines entsprechenden Lysates. Parallel wird ein spezifischer Antikörper, der das zu präzipitierende Protein bindet, an Protein-A oder -G-Sepharose (Beads) gebunden (. Abb. 3.6). Anschließend sollten die Beads gewaschen werden, um überschüssige Antikörper zu entfernen. Dann werden die an die Beads gebundenen Antikörper mit dem Lysat inkubiert und so das spezifische Protein gebunden. Es folgen mehrere Waschschritte und schließlich wird das Protein durch eine Denaturierung bei hoher Temperatur (60–95° C) in Gegenwart von SDS und reduzierenden Agenzien
(Dithiotreithol oder β-Mercaptoethanol) eluiert. Der Erfolg der Präzipitation kann dann durch GelElektrophorese und Silber- bzw. Coomassie-Färbung oder auch einen Western Blot überprüft werden. Manchmal hilft es, das Lysat, bevor es mit dem gekoppelten Antikörper inkubiert wird, Protein-A oder -G-Sepharose zu inkubieren (Preclearing). Durch diesen Schritt sollten Proteine, die unspezifisch an die Beads binden, aus dem Lysat entfernt werden. Natürlich gibt es auch die Möglichkeit, Antikörper direkt an Beads zu koppeln, dann sollten die ursprünglichen Beads für das Preclearing eingesetzt werden. Zu bedenken ist bei einer direkten Kopplung der Antikörper an die Beads, dass an die zuvor aktivierten Matrices Antikörper nicht in einer bestimmten Orientierung an die Beads gekoppelt werden. Benutzt man dagegen Protein-A oder -G-Sepharose, so werden die IgG Moleküle spezifisch am Fc-Teil gebunden, somit gerichtet gekoppelt und alle Antigenbindungsstellen sind frei zugänglich. Letztere Methode sollte eine höhere Reproduzierbarkeit und Sensitivität gewährleisten. Es gibt Experimentatoren, die schwören darauf, zuerst den Antikörper mit dem Lysat zu inkubie-
47
3.4 • Auffinden und Nachweisen von Proteininteraktionen
3
Lysat
Bindung des Antigens
Pelletieren der Beads
Waschen
Elution
Antikörper an Protein A Beads Koppeln . Abb. 3.6 Immunpräzipitation
ren und anschließend mit Protein-A oder -G- zu präzipitieren. Das geht natürlich auch. Allerdings bietet die Kopplung an Protein-A bzw. -G, wie in . Abb. 3.6. dargestellt, Vorteile. Ungebundene Antikörper werden entfernt, somit ist sichergestellt, dass sämtliche Antikörper, die mit dem Lysat inkubiert werden, auch präzipitiert werden. Außerdem werden, wenn man mit einem polyklonalen Antiserum arbeitet, alle anderen Proteine aus dem Serum entfernt und man experimentiert nur mit IgGs. Dies führt meist zu einer Verringerung des Anteils unspezifisch gebundener Proteine im Präzipitat, also zu einer Verringerung des Backgrounds.
Bei der Immunpräzipitation können sich die Antikörper beweisen, denn sie ist sehr gut geeignet, ihre Spezifität nachzuweisen. Unspezifische Bindungen kann man auch durch Erhöhung der Ionenstärke (bis zu 1 M NaCl) oder dem Zugeben von Detergenzien (1 % Triton oder NP-40) verringern. Ein spezifischer Antikörper sollte nur ein Protein präzipitieren (unter bestimmten Bedingungen auch weitere Proteine Co-Präzipitieren, siehe unten). Die Antikörperketten erscheinen aber meist ebenfalls beim Nachweis im Gel. Hat das präzipitierte Protein ein vollständig anderes Molekulargewicht, so stört dies in der Regel nicht. Läuft es aber auf
48
3
Kapitel 3 • Analyse von Proteinen
der Höhe der leichten oder schweren Ketten, so ist dies ein Problem. Dem geht man aus dem Weg, indem man das zu präzipitierende Protein zuvor radioaktiv markiert. Im Autoradiogramm werden die nicht radioaktiv markierten Antikörper nicht sichtbar. Ist dies nicht möglich, so sollten Sie die Antikörper irreversibel an die Präzipitationsmatrix koppeln. Entweder koppeln Sie den Antikörper direkt an eine aktivierte Matrix (z. B. CNBr-aktivierte Sepharose) oder aber binden ihn an Protein-A oder -G-Beads und cross-linken dann Antikörper und Protein-A bzw -G (z. B. nach Gersten und Marchalonis, 1978). Allerdings lösen sich trotz der kovalenten Kopplung leider häufig einige Antikörper von den Beads ab. Um das Ablösen der Antikörper von den Beads zu minimieren, sollten Sie das zu präzipitierende Protein bei geringer Temperatur und ohne reduzierende Agenzien eluieren. Weisen Sie die Präzipitation im Western Blot nach, so können Sie für den Blot einen Antikörper aus einer Spezies (z. B. Ziege) und zur Präzipitation einen Antikörper aus einer anderen Spezies (z. B. Kaninchen) verwenden und hoffen, dass diese keine Kreuzreaktivität aufweisen. Eine weitere Möglichkeit ist die Biotinylierung des Antikörpers, der für den Western Blot verwendet werden soll. Dann weisen Sie diesen mit Peroxidase an Avidin gekoppelt nach.
3.4.2
Co-Immunpräzipitation
Die Immunpräzipitation eignet sich auch zum Aufspüren von neuen Interaktionspartnern oder zum Bestätigen von bereits identifizierten interagierenden Proteinen. Dann spricht man von Co-Immunpräzipitation. Bei dieser verfährt man genau wie bei der Immunpräzipitation, versucht aber anschließend Proteine, die zusammen mit dem Antigen präzipitieren zu identifizieren. Möchte der Experimentator eine Interaktion bestätigen, so bietet sich ein Western Blot als Nachweis an. Sollen neue Interaktionspartner identifiziert werden, so folgen meist ein Nachweis zusätzlicher Banden im Silber- oder Coomassie-Gel und eine Identifizierung durch Massenspektrometrie. Das Ausgangsmaterial kann ein Gewebe- oder Zell-Lysat sein. Soll eine bereits gefundene Interaktion bestätigt werden, können Zellen mit beiden
Proteinen transfiziert werden. Sollten keine Antikörper zur Verfügung stehen, so bietet es sich an mit Protein-Tags zu arbeiten. Die Lyse Bedingungen können von großer Bedeutung sein. Je nach Natur der Proteininteraktion können variierende Mengen von Salz und Detergens im Lysis-Puffer die Interaktion stören, auch kann die Geschwindigkeit und Effizienz der Lyse einen Einfluss haben. Dies gilt besonders für wenig lösliche Proteine, die mit makromolekularen Strukturen wie Membranen oder dem Cytoskelett assoziieren. Grundsätzliche Komponenten eines Lysis Puffers sind in der Regel: Tris oder Hepes (20–50 mM, pH 7.5) Detergens z. B. Triton-X 100 0,1–1 % (w/v), NP-40 oder Deoxycholat, Salz (NaCl oder KCl (100 mM–500 mM). Häufig werden Stabilisatoren verwendet, wie 1020 % (w/v) Glycerin, DTT (1 mM), EGTA oder EDTA (0,1–20 mM). Protease- und PhosphataseInhibitoren helfen meist. Arbeiten Sie mit löslichen Proteinen, so können Sie auch auf Detergenzien verzichten und Zellen durch das wiederholte Passagieren durch eine Kanüle aufschließen. Viel Beachtung sollten Sie beim Planen der Experimente den Kontrollen schenken. Eine Immunpräzipitation kontrollieren Sie durch die Verwendung eines irrelevanten Antikörpers im gleichen Experiment. Arbeiten Sie mit einem Antiserum, so können Sie zeigen, dass das Präimmunserum nicht präzipitiert. Nutzen Sie monoklonale Antikörper, so können Sie zeigen, dass ein anderes IgG nicht zum gleichen Resultat führt. Arbeiten Sie mit Zellen, so können Sie Zellen nutzen, die das Antigen nicht exprimieren. Eine weitere Kontrolle ist eine Präzipitation ohne spezifischen Antikörper, nur mit den entsprechenden Beads. Testen Sie außerdem, ob die Co-Immunpräzipitation in beiden Richtungen funktioniert. Können Sie Protein A mit Protein B präzipitieren, dann sollten Sie auch Protein B mit A präzipitieren können. Funktioniert einer der beiden Ansätze nicht, so kann dies natürlich auch experimentell bedingt sein, weil beispielsweise ein Antikörper ungeeignet ist. Zu bedenken ist weiterhin, dass die Co-Immunpräzipitation zweier Proteine noch kein endgültiger Nachweis für eine in vivo funktionelle Interaktion ist. Meist müssen Sie die Bedeutung der Interaktion durch zusätzliche Experimente unterstützen. So können Sie versuchen, eine Co-Lokalisation beider
49
3.4 • Auffinden und Nachweisen von Proteininteraktionen
A
B
Proteine zu zeigen oder einen funktionellen Nachweis erbringen. kBeads
Dem Experimentator eröffnet sich beim Arbeiten mit Beads ein Problem. Wie wasche ich meine Beads ohne großen Materialverlust? Gewöhnlich werden die Beads rotierend inkubiert und anschließend durch Zentrifugation pelletiert. Wird der Überstand abgenommen, landet häufig ein Teil der Beads in der Pipette und der Verlust an Beads ist bei wiederholten Waschschritten enorm. Einige Experimentatoren versuchen durch den Gebrauch von Kanülen das Problem zu kontrollieren, was aber nur bedingt funktioniert, da die Beads diese auch passieren oder verstopfen können. Andere zentrifugieren durch eine Fritte oder Membran, man kann z. B. Spin-Säulen verwenden und so Beads und Flüssigkeit trennen. Als wirkliche Alternative setzen sich immer mehr magnetische Beads durch. Diese werden durch einen Magneten an der Wand des Inkubationsgefäßes fixiert und die Flüssigkeit kann problemlos abgenommen werden (. Abb. 3.7).
3.4.3
Expression von Proteinen
Häufig stehen Proteine nicht zur Verfügung, weil eine Reinigung nicht etabliert ist. Um ein relevantes Protein trotzdem zu erhalten, kann dies heterolog exprimiert werden. Dafür wurden unterschiedliche Systeme entwickelt, von denen viele induzierbar sind. Man bringt Bakterien, Hefen, Insektenzellen, Säugerzellen oder Einzeller zur Bildung gewünsch-
C
3
. Abb. 3.7 Möglichkeiten, Lösungen von Beads abzutrennen. Mit Hilfe einer Pipette oder Kanüle nach einer Zentrifugation (A). Durch das Zentrifugieren der Lösung durch einen Membran (B). Abtrennung von magnetischen Beads mittels eines Magneten (C)
ter Proteine. Am häufigsten werden Bakterien eingesetzt, weil diese einfach zu manipulieren sind, ihre Kultivierung nicht aufwendig ist und auch die Kosten gering sind. Zur bakteriellen Expression gibt es unterschiedliche Systeme und es werden verschiedene Bakterien verwendet, meistens E.coli-Stämme. Die häufigsten Probleme bei der bakteriellen Expression sind, dass kein Protein gebildet oder nachgewiesen werden kann oder aber, dass es in Einschlusskörperchen, so genannten Inclusion-Bodies, akkumuliert. Es ist in der Regel schwer, Proteine aus den Inclusion-Bodies als aktive Proteine zu reinigen. Ein weiteres Problem der bakteriellen Expression ist, dass die Proteine nicht glykosyliert werden. Nutzt man Hefen zur Proteinproduktion, so kann man ähnliche posttranslationale Modifikationen wie im Säuger erwarten. Das gleiche gilt für den nicht pathogenen parasitären Einzeller Leishmania tarentolae, aber auch für Insektenzellen, wie den Sf9-Zellen, welche aus dem Nachtfalter Spodoptera frugiperda stammen. Diese werden in der Regel mit dem Baculovirus transfiziert. Auf die Transfektion und Proteinexpression in Säugerzellen wird im Kapitel Zellkultur eingegangen. Zur Isolierung rekombinanter Proteine werden meist Affinitäts-Tags eingesetzt und über diese in einem einstufigen Affinitätschromatographie-Schritt gereinigt. Nicht immer verläuft die heterologe Expression unproblematisch, denn man exprimiert in einem Organismus ein Gen aus einer anderen Spezies. Die Varianten des universellen genetischen Codes werden von verschiedenen Spezies unterschiedlich häufig verwendet. Bestimmte Codons des degenerierten genetischen
50
3
Kapitel 3 • Analyse von Proteinen
Codes werden in unterschiedlichen Spezies bevorzugt genutzt, was sich in der tRNA-Konzentration wiederspiegelt. Diese so genannte Codon-Usage spielt bei der Proteinbiosynthese eine große Rolle, seltene Codons können sich negativ auf die Translation auswirken. Bei der Planung einer heterologen Expression sollten Sie deshalb unbedingt auf die Codon-Usage achten, vergleichen Sie diesbezüglich das zu exprimierende Gen mit dem Expressionssystem. Sie können Unterschiede durch Mutagenese oder Gensynthese ausgleichen und ihr Gen so dem System anpassen, oder gleich ein anderes wählen. Wird ihr Protein posttranslational modifiziert, so sollten Sie von der bakteriellen Expression Abstand nehmen. Auch die Auswahl des Protein-Tags will wohl überlegt sein, einige große hydrophile Tags können z. B. die Löslichkeit eines Proteins verbessern und so den Einschluss in Inclusion-Bodies verhindern.
3.4.4
Protein-Tags
Als Protein-Tags oder Affinitäts-Tags werden Peptidanhänge bezeichnet, die zur Reinigung oder zum Nachweis rekombinant hergestellter Proteine dienen. Ausgangspunkt ist ein entsprechender Expressionsvektor, in dem die Sequenz, die für einen Tag codiert, einer cDNA vorangestellt oder angehängt wird, so dass der Tag N- oder C-Terminal mit dem Zielprotein fusioniert wird. Zunächst ist es wichtig, ein geeignetes Expressionssystem und einen entsprechenden Tag auszuwählen. Es gibt eine Vielzahl solcher Tags (. Tab. 3.2), allerdings besitzen diese je nach Anwendung Vor- und Nachteile. Es sollten die unterschiedlichen Größen der Tags, ihre mögliche Auswirkung auf die Struktur des Proteins, aber auch die Möglichkeiten der Reinigung und des Nachweises bedacht werden (. Tab. 3.3) Es kann passieren, dass ein Tag im Protein verborgen ist und so schwer erkannt wird. In anderen Fällen können Tags aber auch die Löslichkeit eines Proteins verstärken. Kleine Tags haben den Vorteil, dass sie eigentlich die Konformation eines Proteins weniger beeinträchtigen sollten als große. Allerdings sind die Bestandteile der Tags von enormer Bedeutung. Eines der zuerst beschriebenen Tags ist der Arg-Tag, welcher aus fünf bis sechs nach-
einander geschalteten Argininen besteht. Arginin ist die basischste Aminosäure, und solch eine Kette von Argininen kann durchaus die Tertiärstruktur des rekombinanten Proteins verändern, außerdem bindet der Arg-Tag hochaffin an Oberflächen und könnte somit in verschiedenen Tests eine Bindung vortäuschen. Beliebt zur Reinigung von Proteinen aus Bakterien sind Histidin- und Gluthation-S-TransferaseTags (GST-Tags). Die Reinigung erfolgt beim Histidin-Tag zunächst über eine Bindung der Imidazolringe der Histidine an Metallionen, die an eine Matrix gekoppelt wurden (z. B. Ni2+- oder Co2+Beads). Nach mehreren Waschschritten folgt eine Elution mit 20–250 mM Imidazol oder durch eine pH-Wert-Erniedrigung. Sollten sehr viele nicht erwünschte histidinhaltige Proteine beim Waschen mit einem Tris/NaCl Puffer an den Beads hängen bleiben, kann bereits dem Waschpuffer etwas Imidazol (z. B. 5 mM) zugegeben werden. Dies sollte Verunreinigungen beseitigen. GST-Fusionsproteine können an GlutathionBeads gebunden und anschließend durch Zugabe von reduziertem Glutathion eluiert werden. In PullDown-Experimenten werden GST-Fusionsproteine benutzt, um Interaktionspartner in Zellextrakten oder Gehirnlysaten zu binden und gemeinsam zu präzipitieren. Diese werden dann mittels Massenspektrometrie identifiziert oder im Western Blot nachgewiesen. Ein Nachteil bei der Reinigung kann durch die verwendete Matrix entstehen. So sind Matrices, die auf monoklonalen Antikörpern basieren, wie z. B. beim Anwenden von Flag- oder Myc-Tags, nicht immer stabil und die Antikörper lösen sich teilweise von der Matrix. Dies kann zur Folge haben, dass neben dem gewünschten Protein auch massenhaft schwere und leichte Ketten des verwendeten Antikörpers in der Reinigung auftauchen. Problematisch ist dies insbesondere beim Fehlschlagen der Reinigung oder bei einer sehr geringen Ausbeute. Läuft dann das gewünschte Protein im Gel auf der gleichen Höhe wie die leichten (25 kDa) oder schweren Ketten (55 kDa), kann dies zu erheblichen Verwirrungen führen. Schon manch ein Experimentator hat die detektierten Antikörper-Banden für sein zu reinigendes Protein gehalten. Wie man
3
51
3.4 • Auffinden und Nachweisen von Proteininteraktionen
. Tab. 3.2 Affinitäts-Tags Tag
Länge (Aminosäuren)
Sequenz
Größe (kDa)
Poly-Arg
5–6
RRRRR
0,8
Poly-His
2–10 (meist 6)
HHHHHH
0,84
FLAG
8
DYDDDDK
1,01
Strep-Tag II
8
WSHPQFEK
1,06
c-Myc
11
EQKLISEEDL
1,2
V5-Epitop
14
GKPIPNPLLGLDST
1,4
S-Tag
15
KETAAAKFERQHMDS
1,75
HAT
19
KDHLIHNVHKEFHAHAHNK
2,31
3x FLAG
22
DYKDHDGDYKDHDIDYKDDDDK
2,73
Calmodulin-Binde-Peptid
26
KRRWKKNFIAVSAANRFKKISSSGAL
2,96
Cellulose-Binde-Domäne
27–189
verschiedene Domänen
3,0–20,0
SBP
38
MDEKTTGWRGGHVVEGLAGELEQLRARLEHHPQGQREP
4,03
Chitin-Binde-Domäne
51
TNPGVSAWQVNTAYTAGQLVTYNGKTYKCLQPHTSLAGWEPSNVPALWQLQ
5,59
Glutathion S-Transferase
211
Protein
26,0
Maltose-Binde-Domäne
396
Protein
40,0
diesem Problem aus dem Weg gehen kann, ist im Abschnitt Immunpräzipitation geschildert. Manchmal ist es auch sinnvoll, das Fusionsprotein so zu konstruieren, dass der Tag mit einer Protease abzuspalten ist. Dafür muss zuvor die entsprechende Erkennungssequenz zwischen Tag und Protein eingeführt werden. Die am häufigsten verwendeten Proteasen sind: Enterokinase, TabakEtch-Virus (TEV) Protease, Thrombin und Faktor Xa. Bemerkenswerterweise hat der FLAG-Tag (DYKDDDK) eine interne Erkennungssequenz für die Enterokinase (DDDKX). Es besteht natürlich immer die Möglichkeit, dass eine Protease auch in dem zu untersuchenden Protein schneidet. Dies sollte grundsätzlich zuvor über eine Sequenzanalyse, aber auch experimentell ausgeschlossen werden. Weiterhin ist zu beachten, dass alle genannten Proteasen bei unterschiedlichen Temperaturen aktiv sind. Man kann auch mehrere Tags anwenden. Ein spezielles Multi-Tag System ist das so genannte tandem affinity purification-Tag (TAP-Tag). Dies soll die Analyse bzw. Identifizierung von Proteininteraktionen unter nativen Bedingungen ermög-
lichen. Ursprünglich wurde es zur Analyse des Hefe-Interaktoms entwickelt, es wird aber auch zur Identifizierung von Proteininteraktionen aus Zelllinien und sogar transgenen Mäusen angewandt. Der klassische TAP-Tag besteht aus einem Protein A-Tag, gefolgt von einer TEV-Protease-Erkennungssequenz und einem Calmodulin-Binde-Peptid (CBP). Dieser klassische TAP-Tag hat aber viele Nachteile, so ist die molekulare Masse relativ groß (21 kDa) und CBP kann mit Calcium-abhängigen Signalwegen interferieren. Andere, kleinere TAPTags werden inzwischen häufig verwendet, wie die Kombination Strep-Tag II und FLAG-Tag, oder HAT- und FLAG-Tag. Diese können jeweils durch eine Protease-Erkennungssequenz (z. B. TEV) voneinander getrennt werden. Bei vielen erfolgreichen Anwendungen des Systems wurden Tags mehrfach hintereinander geschaltet, z. B. HAT-Tag, TEV-, 3xFLAG-Tag. Ein entsprechender Vektor wird dann in eine Zelllinie transfiziert (am besten stabil), oder aber eine transgene Maus hergestellt. Die Reinigung aus Zell- oder Gehirnlysat erfolgt in vier Schritten: Bindung durch den ersten Tag, Abspaltung durch eine Protease oder Elution, Bin-
52
Kapitel 3 • Analyse von Proteinen
. Tab. 3.3
Matrices und Elutionsbedingungen für Affinitäts-Tags
Affinitäts-Tag
Chromatographie-Matrix
Elutionsbedingungen
Poly-Arg
Kationenaustauschchromatographie
Linearer NaCl Gradient (0–400 mM), pH 8
Poly-His
Metallaffinitätschromatographie: Ni2+-NTA, Co2+-CMA (Talon)
Imidazol 20–250 mM oder niedriger pH
FLAG
Anti-FLAG-Antikörper
pH 3 oder 2–5 mM EDTA oder FLAG-Peptid
Strep-Tag II
Strep-Tactin
2,5 mM Desthiobiotin (Biotin Derivat)
c-Myc
Anti-Myc-Antikörper
niedriger pH
V5-Epitop
Anti-V5-Antikörper
niedriger pH
S-Tag
S-Fragment der RNaseA
3 M Guanidinthiocyanat, 0,2 M Citrat, pH 2, 3 M Magnesiumchlorid
HAT
Co2+-CMA (Talon)
150 mM Imidazol oder niedriger pH
Calmodulin-BindePeptid
Calmodulin
EGTA oder EGTA mit 1 M NaCl
Cellulose-BindeDomäne
Cellulose
Familie I: Guanidin HCl oder Harnstoff > 4 M Familie II/III: Ethylenglycol
3
SBP
Streptavidin
2 mM Biotin
Chitin-BindeDomäne
Chitin
Fusioniert mit einem Intein: 30–50 mM Dithiothreitol, β-Mercaptoethanol
Glutathion S-Transferase
Glutathion
5–10 mM reduziertes Gluthation
Maltose-BindeDomäne
Amylose
10 mM Maltose
dung durch den zweiten Tag, Elution und Analyse auf einem Gel (. Abb. 3.8). Das ganze System sieht in der Theorie sehr überzeugend aus, allerdings ist zu beachten, dass für jedes Protein die Reinigungsprozedur ausprobiert werden muss, was sehr langwierig und mühsam sein kann. Sollen dann neue Interaktionspartner identifiziert werden, muss einerseits genug Material gereinigt werden, andererseits muss ein talentierter Kooperationspartner gefunden werden, der die Banden oder am besten gleich das gesamte Eluat analysieren kann.
3.4.5
Das Yeast-Two-Hybrid-System
Bei der Co-Immunpräzipitation und auch beim TAP-Tag-Ansatz werden Proteine aus ihrem natürlichen Kontext isoliert und Interaktionspartner oder auch Proteinkomplexe, die diese Prozeduren an das relevante Protein assoziiert überstehen, isoliert. Andere Methoden machen sich künst-
liche Systeme zunutze, in denen eine Interaktion zwischen zwei Proteinen detektiert und dann die entsprechende cDNA identifiziert wird. Dazu gehört das Yeast-Two-Hybrid (Hefe-Zwei-Hybrid)System. Viele eukaryotische Transkriptionsfaktoren bestehen aus zwei distinkten funktionellen Domänen. Aus einer DNA-bindenden Domäne (DNA binding domain, BD), die eine definierte Promotorsequenz bindet, und einer aktivierenden Domäne (activation domain, AD), die mit dem RNA Polymerase II Komplex interagiert und dadurch die Transkription aktiviert (. Abb. 3.9 A). Beim Yeast-Two-Hybrid-System macht man sich diese Eigenschaften zunutze. Exprimiert man einen transkriptionellen Aktivator als zwei physisch getrennte Domänen, so interagieren diese nicht und aktivieren nicht die Transkription eines Gens (. Abb. 3.9 B). Beim Yeast-Two-Hybrid-System werden die BD und AD jeweils als Fusionsproteine exprimiert. Die BD wird mit dem Bait-Protein (Köder-Protein) und die AD
53
3.4 • Auffinden und Nachweisen von Proteininteraktionen
3
A HAT
TEV
3xFLAG
B
U
Bindung an Talon Beads U
U
U
U HAT TEV 3xFLAG U
U S
U
U
S U
S
U U
S S
U
S
U Waschen und TEV-Protease Schnitt U
U HAT TEV
3xFLAG
S
S
S
S
U
S
S
Bindung an FLAG-Matrix
3xFLAG
S
S
S
S
S
S
Waschen und Elution mit FLAG Peptid
3xFLAG S
S S
S S
S
. Abb. 3.8 TAP-Tag-Aufreinigung. A) Schematische Darstellung eines TAP-Tag Konstruktes. HAT, HAT-Domäne; TEV, TEVProtease Erkennungssequenz; 3xFLAG, drei hintereinander geschaltete FLAG-Domänen, die schwarze Linie symbolisiert das getagte Protein. B) Präzipitation mittels TAP-Tag. S, spezifisch interagierende bzw. assoziierende Proteine, U, unspezifisch assoziierende Proteine
54
3
Kapitel 3 • Analyse von Proteinen
mit dem Prey-Protein (Beute-Protein) fusioniert. Exprimiert man die Fusionsproteine einzeln, so aktivieren sie nicht die Transkription (. Abb. 3.9 C, D). Exprimiert man die Fusionsproteine gemeinsam und interagieren Bait- und Prey-Protein, so aktivieren sie die Transkription eines Gens, dessen Promotor von der BD erkannt wird (. Abb. 3.9 E). Beim Yeast-Two-Hybrid-System verwendet man genetisch modifizierte Hefestämme. In diesen stehen Reportergene unter der Kontrolle von BD und AD. Im ursprünglich entwickelten System wurden die DNA-bindende Domäne und die aktivierende Domäne des Hefe GAL4-Proteins verwendet. Alternativ wurde ein Yeast-Two-HybridSystem entwickelt, das das bakterielle LexA-Protein verwendet. Dieses bindet an den LexA-Operator, welcher in den genetisch veränderten Hefen die Expression eines Reportergens kontrolliert. Es werden in den verschiedenen Systemen unterschiedliche Reportergene eingesetzt. Das LacZ-Gen vermittelt die Expression von β-Galactosidase und ermöglicht eine Blaufärbung der Hefen. Andere Reportergene erlauben das Wachstum auf selektiven Medien, indem sie die Synthese von essenziellen Substanzen vermitteln (auxotrophe Marker), wie Histidin oder Adenin. Man weist die Interaktion von Bait- und Prey-Protein somit entweder durch eine Farbreaktion oder durch Wachstum der Hefen nach. Analysieren Sie die Interaktion zweier bekannter Proteine, dann ist dies der Nachweis. Suchen Sie nach neuen Interaktionspartnern, so isolieren Sie die positiven Hefekolonien und extrahieren die PreycDNA, um den möglichen Interaktionspartner zu bestimmen. Von der Suche nach neuen Interaktionspartnern leiten sich auch die Bezeichnungen »Bait« und »Prey« ab. Egal, ob Sie mit dem Yeast-Two-Hybrid-System eine Proteininteraktion untersuchen oder neue Interaktionspartner finden wollen, Sie müssen sich zunächst für ein Analysesystem entscheiden. Diverse Firmen bieten diese bestehend aus modifizierten Vektoren, Hefestämmen und cDNA-Bibliotheken an. Es gibt kein Yeast-Two-Hybrid-System, das den anderen in allen Belangen überlegen ist. Es wird immer wieder beschrieben und wurde auch von uns beobachtet, dass einige Proteininteraktionen in einem System gefunden wurden, aber in einem anderen nicht. Die Ursachen dafür bleiben
A AD BD on
B AD
BD
off
C
Bait
BD off
D
AD Prey
off
E
AD Bait
Prey
BD on . Abb. 3.9 Das Two-Hybrid-System. AD, activation domain; BD, DNA binding domain; Bait, Köder-Protein; Prey, BeuteProtein; on, Transkription aktiviert; off, keine Transkription. Weitere Erläuterungen siehe Text
meist unklar und die unterschiedlichen Ergebnisse sind nicht vorhersagbar. Einige Experimentatoren bevorzugen das LexA-System, weil der Transkriptionsaktivator bakteriellen Ursprungs ist, deshalb in der Hefe keinen endogenen Interaktionspartner hat und dadurch weniger falsch Positive gefunden werden sollten. Andere Experimentatoren sind der Meinung, dass das Gal4-System sensitiver ist.
3.4 • Auffinden und Nachweisen von Proteininteraktionen
Sollten Sie mehr als eine Möglichkeit haben eine Interaktion nachzuweisen, z. B. Farbreaktion und Wachstumsselektion oder mehrfache Wachstumsselektion, so nutzen Sie diese Möglichkeiten, um die Anzahl an falsch Positiven zu reduzieren. Sie müssen sich weiterhin entscheiden, ob Sie die DNA-bindende Domäne N- oder C-Terminal an ihr Protein fusionieren. In manchen Fällen ist es vorhersagbar, dass die Funktion oder eine posttranslationale Modifikation durch die Fusion an einer Seite gestört wird, dann fusionieren Sie auf der anderen Seite. In anderen Fällen ist es nicht vorhersagbar, welche Form der Fusion bessere Ergebnisse liefert und Sie müssen empirisch vorgehen. In der Praxis wird die Bait-cDNA in einen Vektor kloniert, welcher ein Gen trägt, welches das Wachstum auf einem defizienten Medium ermöglicht, z. B. auf Leucin-freiem Medium. Als Kontrolle für eine erfolgreiche Transformation werden die Hefen auf diesem defizienten Medium plattiert. Der verwendete Hefestamm wächst nur, wenn er erfolgreich transformiert wurde. Dann folgt ein Test auf Autoreaktivität. Die transformierten Hefen werden auf das Medium übertragen auf dem die Interaktion nachgewiesen werden soll, z. B. Histidin freies Medium. Hier sollten die Hefen, die nur mit einem Vektor transfiziert wurden, nicht wachsen. Tun sie dies doch, dann haben Sie ein Problem Namens Autoreaktivität. Tritt dies auf, so haben Sie verschiedene Möglichkeiten, dem Problem auszuweichen. Eine Möglichkeit besteht im Wechsel des Systems, was manchmal hilft. Eine andere besteht in der Modifikation des Wachstumsmediums. Detektieren Sie mit Ihrem System die Interaktion auf Histidin-freiem Medium, können Sie diesem steigende Konzentrationen (üblicherweise 3–15 mM) 3-AT (3-Amino-1, 2, 4-Triazol) zufügen. 3-AT ist ein kompetitiver Inhibitor des His3-Proteins, welches den entsprechenden Hefe Stämmen (z. B. AH109) Wachstum auf Histidin-defizientem Medium ermöglicht. Somit sorgt 3-AT für stringentere Bedingungen und reduziert den Hintergrund. Es kann aber auch sein, dass ihr Protein eine transkriptionelle Aktivierungsdomäne besitzt, was sehr wahrscheinlich bei einem Transkriptionsfaktor der Fall ist. Dann kann es sehr hilfreich sein, die Aktivierungs-Domäne aus dem Konstrukt zu eliminieren. Allerdings ist bei vielen anderen Pro-
55
3
teinen, die eine Autoreaktivität zeigen, der Grund dafür nicht offensichtlich. Wollen Sie trotzdem mit dem Yeast-Two-Hybrid-System nach Interaktionspartnern suchen, so können Sie versuchen nur Teile bzw. bestimmte Domänen des Proteins für die Analysen zu verwenden. Eine weitere Alternative stellt das Membran-basierte Split-Ubiquitin-System dar, welches später erläutert wird. Führen Sie einen Yeast-Two-Hybrid-Screen durch, um neue Interaktionspartner zu identifizieren, so müssen Sie am Ende des Screens die Plasmide aus den positiven Hefekolonien isolieren. Es gibt große Unterschiede, einige Screens enden mit wenigen, andere mit sehr vielen positiven Hefekolonien. Bei sehr vielen Kolonien sollten Sie versuchen identische cDNAs durch einen Restriktionsverdau zu identifizieren. Dann brauchen nicht alle sequenziert zu werden. Wenige positive Kolonien bedeuten noch keinen Misserfolg. Unter den wenigen Positiven können relevante Interaktionspartner sein. Es gibt aber auch erfolglose Screens, ohne positive Hefekolonien. Ein Screen kann durchaus 8 Wochen und länger dauern. Deshalb sollte auch über solch einen Ausgang und mögliche Konsequenzen frühzeitig nachgedacht werden. In der Regel identifiziert man nur partielle Gensequenzen möglicher Interaktionspartner. Bei den Sequenzanalysen sollten Sie unbedingt darauf achten, dass im Hefevektor der richtige Leserahmen getroffen wurde und der identifizierte Sequenzabschnitt tatsächlich im offenen Leserahmen des Gens liegt. Wie bei anderen Screeningmethoden findet man Proteine, die eine Interaktion aufweisen, obwohl diese Interaktion physiologisch nicht relevant ist. Dies lässt sich nur durch zusätzliche Experimente untersuchen. Es tauchen aber auch falsch positive Proteine auf, die unspezifisch binden oder als Interaktionspartner gar keinen Sinn ergeben können. Interessanterweise sagt die Häufigkeit mit der ein Gen in einem Screen gefunden wird nichts über die funktionelle Relevanz der Interaktion aus. Es gibt weiterhin Gene, die immer wieder in Screens auftreten. Einige kodieren für »klebrige« Proteine und stehen immer wieder im Verdacht unspezifische Interaktion zu vermitteln, wie ribosomale Untereinheiten, Heat-Shock-Proteine oder Proteasomuntereinheiten (Serebriiskii und Golemis, 2001). Das Labor von Erica Golemis
56
3
Kapitel 3 • Analyse von Proteinen
hat sogar Listen mit häufigen falsch Positiven im Internet veröffentlicht (siehe Web-Links am Ende des Kapitels). Das Yeast-Two-Hybrid-System wurde erfolgreich zur Analyse und Identifizierung von einer Vielzahl von Protein-Interaktionen eingesetzt. Seine Anwendung wird allerdings durch eine Reihe von Faktoren begrenzt. Es wird nur eine direkte Interaktion zwischen zwei Proteinen analysiert. Diese müssen in den Kern transportiert werden können. Etwa ein Drittel aller eukaryotischen Proteine sind Membran-Proteine. Weil diese nicht in den Kern gelangen, können sie nicht mit einem herkömmlichen Yeast-Two-Hybrid-System untersucht werden. Weiterhin ist eine posttranslationale Modifikation von Proteinen, die nicht nativ in der Hefe vorkommen, nicht garantiert. Werden diese Modifikationen nicht realisiert und sind sie für eine Interaktion entscheidend, wird solch eine Interaktion nicht detektiert. Trotzdem ist der YeastTwo-Hybrid-Ansatz eine sehr ökonomische highthroughput-Methode, die auch transiente Interaktionen nachweisen kann. Es gibt verschiedene Variationen des Systems, die die möglichen Anwendungen erweitern. Durch das Yeast-Two-Hybrid-System wird nur eine direkte Interaktion zwischen zwei Proteinen detektiert. Viele Proteininteraktionen hängen aber von der Anwesenheit eines dritten Proteins ab, welches ebenfalls gebunden wird oder eine Konformationsänderung induziert. Beim Yeast-Three-HybridSystem wird deshalb zusätzlich ein drittes Protein exprimiert (. Abb. 3.10). Proteininteraktionen können durch das TwoHybrid-System auch in anderen Organismen als der Hefe nachgewiesen werden. Grundsätzlich führt dabei eine Protein-Protein und eine Protein-DNA-Interaktion zur Transkription eines Reportergens. Das bakterielle Two-Hybrid-System kann zur schnellen Identifikation und Analyse von Protein-Interaktionen, insbesondere zur Analyse verschiedener Mutanten, eingesetzt werden. Die Verwendung des Two-Hybrid-Systems in Säugerzellen (Mammalian Two-Hybrid System) hat den Vorteil, dass Säugerproteine in ihrer nativen Umgebung analysiert werden können. Weiterhin gibt es Variationen zur Analyse von Proteinen mit Nucleinsäuren. Beim Yeast-One-
A
Bait
Prey
AD
BD on
B Prey Bait
AD
BD on . Abb. 3.10 Das Yeast-Three-Hybrid-System. Es kann zum Nachweis eines Komplexes aus drei Proteinen oder zur Klonierung einer fehlenden Komponente genutzt werden, wobei die Interaktion von Bait und Prey von einem dritten heterolog exprimierten Protein vermittelt wird (A) oder aber das Prey-Protein eine zusammengesetzte Bindestelle erkennt (B)
Hybrid-System werden Proteine, die mit DNA interagieren, identifiziert. Das Yeast-Tri-Hybrid (oder Yeast-RNA-Three-Hybrid-System) dient der Identifizierung und Analyse von RNA- und Proteininteraktionen. kDas Split-Ubiquitin-System
Ubiquitin ist ein konserviertes Protein aus 76 Aminosäuren. Wird es mit einem anderen Protein verknüpft, signalisiert dies den Abbau dieses Proteins. Dabei wird der Ubiquitin-Anteil von Ubiquitinspezifischen Proteasen (UBPs) erkannt und das angehängte Protein zum Abbau abgespalten. Im Gegensatz zu vielen anderen Proteasen erkennen UBPs nicht eine spezifische Aminosäuresequenz, sondern die Struktur des Ubiquitinmoleküls. Ubiquitin kann in zwei Teilen exprimiert werden, einem N-terminalen (Nub, Aminosäure 1–34) und einem C-termnialen (Cub, Aminosäure 35–76). Aufgrund ihrer Affinität zueinander fügen sich Nub und Cub wieder zu einem Molekül zusammen
57
3.4 • Auffinden und Nachweisen von Proteininteraktionen
A
N
Cub
N
C
. Abb. 3.11 Das Split-UbiquitinSystem. Erläuterungen siehe Text
C
Cub
+
3
Nub
Nub
Split-Ubiquitin
B UBPs
N
N
Cub
C
Nub
Cub
C C
+
Nub Reporter
Split-Ubiquitin
C N Cub
C
N
Cub
C
+ NubG
NubG
D Prey
Bait +
Prey Bait
Cub
NubG
Cub NubG
(. Abb. 3.11A). Ist Cub mit einem Reporterprotein fusioniert und wird gemeinsam mit Nub in einer Zelle exprimiert, dann fusionieren Nub und Cub zu einem Ubiquitinmolekül und UBPs spalten das Reporterprotein ab (. Abb. 3.11B). Exprimiert man ein mutiertes Nub bei dem Aminosäure Isoleucin-13 durch Glycin ersetzt ist (NubG), so ist die Affinität von Nub und Cub herabgesetzt und sie assoziieren nicht mehr spontan (. Abb. 3.11C). Dies macht man sich beim Split-Ubiquitin-System zu nutze. Das Bait-Protein wird an Cub fusioniert, gefolgt von einem Reporterprotein, und das PreyProtein wird an NubG fusioniert. Wenn Bait- und Prey-Protein interagieren kommen NubG und Cub nah genug, um von UBPs erkannt zu werden. Dies mündet in der Freisetzung des Reporterproteins (. Abb. 3.11D). Das Split-Ubiquitin-System wurde weiter modifiziert, um Interaktionen von Membranproteinen analysieren zu können. Als Reporterprotein wird meist ein Fusionsprotein aus LexA und dem Transaktivator VP16 aus Herpes simplex verwendet.
Der Reporter ist mit Cub fusioniert. Cub wiederum ist an ein Membranprotein angefügt, welches als Bait verwendet wird. Prey-Proteine werden mit NubG fusioniert. Voraussetzung damit das System funktioniert ist natürlich, dass Cub und NubG auf der cytoplasmatischen Seite lokalisiert sind. Interagieren Bait- und Prey-Protein wird der Reporter abgespalten und aktiviert die Transkription eines Reportergens. Somit ermöglicht dieses System, Membranproteine im Two-Hybrid-Verfahren zu analysieren (. Abb. 3.12A). Außerdem eignet sich das Split-Ubiquitin-System zur Analyse von Proteinen, die im herkömmlichen Two-Hybrid-Verfahren autoreaktiv sind. Normalerweise frei im Cytosol vorkommende Bait-Proteine werden Nterminal an ein Transmembranprotein fusioniert exprimiert (. Abb. 3.12B). An den C-Terminus des Bait-Proteins schließt sich dann Cub, gefolgt vom Reporterprotein an. Prey-Proteine werden mit NubG fusioniert. Eine Interaktion von Bait- und Prey-Protein führt zur Assoziation von Cub und NubG, dies induziert die Abspaltung des Reporter-
58
Kapitel 3 • Analyse von Proteinen
. Abb. 3.12 Das membranbasierte Split-Ubiquitin-System. Erläuterungen siehe Text
A +
Extrazellulär oder Lumen Cytoplasma
3
Cub NubG
Cub NubG
B Extrazellulär oder Lumen +
Cytoplasma
Bait Prey Bait
Prey Cub NubG
Cub NubG
proteins und die Expression des Reportergens. Das Split-Ubiquitin-System ist somit zur Analyse von cytosolische Proteinen als auch von Membranproteinen geeignet. Die Interaktion von Transmembran-Proteinen kann auch dann detektiert werden, wenn diese nicht im Cytoplasma stattfinden, aber die cytoplasmatische Domänen nah genug zusammenführt. Ein Identifizieren von ausschließlich extrazellulären Liganden ist mit dieser Methode jedoch nicht möglich.
3.4.6
Phagen-Display
Phagen sind Viren, die spezifisch Bakterien befallen. Beim Phagen-Display werden Gene oder Genfragmente in die Gen-Sequenzen von Oberflächenproteinen filamentöser Phagen kloniert. Die Phagen bauen das kodierte Fusionsprotein in ihre Hüllen ein und werden auf der Phagenoberfläche präsentiert (displayed). Zum Auffinden neuer Proteininteraktionen wird das Protein, für das man einen Interaktionspartner sucht an eine Oberfläche, z. B. Beads, gebunden. Weiterhin werden geeigne-
te (Pilus-positive) Bakterien mit Phagen, die eine ganze Genbibliothek enthalten, infiziert. Die Phagen vermehren sich selbständig in den Bakterien, präsentieren eine Vielzahl von eingeschleusten Fremdproteinen auf ihrer Oberfläche und werden mit dem Zielprotein inkubiert. Nach Waschschritten, werden die Phagen, welche an das Zielprotein gebunden haben, eluiert, durch erneutes infizieren von Bakterien vermehrt und erneut an das Zielprotein gebunden. Dieses so genannte Biopanning wird in der Regel 3–4 Mal wiederholt. Es werden durch diese Methode die am besten bindenden Fusionsproteine angereichert. Anschließend wird die Phagen-DNA isoliert und der relevante Bereich der DNA des Fusionsproteins sequenziert. Auf diese Weise werden Gensequenzen von möglichen Interaktionspartnern identifiziert. Phagenpartikel überstehen erstaunlich raue Bedingungen, wie pH 2,2 oder hohe HarnstoffKonzentrationen ohne ihre infektiösen Eigenschaften zu verlieren. Dadurch können auch hochaffin bindende Proteine eluiert werden. Alternativ kann man auch durch Trypsin-Behandlung eluieren. Dann werden nur die Phagen gelöst, die tatsächlich
3.4 • Auffinden und Nachweisen von Proteininteraktionen
durch Protein-Interaktionen gebunden wurden. Ein Vorteil der Methode besteht in dem schnellen und effizienten Screenen von Genbibliotheken. Weiterhin können sehr seltene Interaktionspartner identifiziert werden. Der entscheidende Nachteil ist, dass nur kurze Peptide bis ca. 12 Aminosäuren auf der Oberfläche der Bakteriophagen präsentiert werden. Deshalb werden meist nur Fragmente von Proteinen identifiziert. Somit eignet sich die Methode vor allem zur Identifizierung von Peptiden als Liganden für Rezeptoren, um Protein-Protein Interaktionen zu charakterisieren, um synthetische Inhibitoren oder minimale Bindungssequenzen zu identifizieren. Interessant sind fertige Phagen Banken in denen 7 oder 12 Aminosäuren lange Peptide sämtliche möglichen Aminosäuren Kombinationen repräsentieren. Weiterhin gibt es Banken, die durch die Ausbildung von Disulfidbrücken Peptide mit Haarnadel-Schleifen präsentieren und so strukturelle Eigenschaften nachspielen (diese gibt es z. B. bei New England Biolabs).
3.4.7
Fluoreszenzbasierte Techniken zur Detektion von Proteininteraktionen
Seit der Reinigung des green fluorescent protein (GFP) durch Shimomura 1962 und der Isolierung der GFP-cDNA durch Prasher et al. 1992 sowie der Einführung von GFP als leuchtenden Protein-Tag durch Chalfie 1997 hat sich die Markierung von Proteinen mit GFP und GFP-Varianten zu einer Standardmethode entwickelt. Manch einer spricht sogar von der »grünen Revolution«. GFP ist ein fluoreszierendes Protein aus der Qualle Aequorea victoria. Wird GFP mit blauem Licht angeregt, so strahlt es grünes Licht ab. Es wird für diese Reaktion keinerlei Substrat benötigt (7 siehe auch Kap. 4, Zelluläre Neurobiologie). Da es sich um ein Protein handelt, kann die GFP-cDNA einfach vor oder hinter ein Gen kloniert und exprimiert werden. Es entsteht dann ein fluoreszierendes Fusionsprotein. Dies kann in allen Spezies gebildet werden, von Bakterien, Hefen, Pflanzen und Tieren, und sowohl in einzelnen Zellen in Kultur, als auch in Organen oder gesamten Organismen zur Markierung eingesetzt werden.
59
3
Auf die Entdeckung von GFP folgte seine Optimierung. Die Codon-Usage wurde für die Expression in Säuger Zellen verbessert. Diese enhanced GFP (EGFP)-Variante wird heute immer noch am häufigsten benutzt. Weiterhin wurden durch Mutagenese diverse Varianten erzeugt, die blau oder gelb leuchten. Und es wurde und wird immer noch nach neuen fluoreszierenden Proteinen gesucht. Man wurde in weiteren Nesseltieren, vor allem Korallen, fündig, und inzwischen deckt man mit fluoreszierenden Proteinen das gesamte sichtbare Lichtspektrum ab. Die entstandenen Variationen sind sehr vielfältig und für den Neuling schwer zu durchschauen. Bei der Auswahl spielen neben der Verfügbarkeit die Reifung des Proteins von der Translation bis zum Leuchten, die Photostabilität, die Helligkeit, sowie die Möglichkeit zur Analyse (sind entsprechende Filter vorhanden usw.) eine Rolle. Bei den grün fluoreszierenden Proteinen wird von den meisten Experimentatoren immer noch EGFP verwendet. Für bestimmte Anwendungen besitzen aber einige Varianten Vorteile. Das Derivat Emerald-GFP (durch Invitrogen vertrieben) besitzt vier zusätzliche Punktmutationen, die seine Faltung verbessern und es heller erscheinen lassen. Allerdings bleicht es leichter aus, was bei einigen Anwendungen stören kann. GFP besitzt immer noch das breiteste Anwendungsspektrum und ist nach wie vor beliebt. Häufig werden aber zusätzliche Fluorophore benötigt. Im blaugrünen Bereich gibt es das enhanced cyan fluorescent protein (ECFP). Heller und schneller faltend ist Cerulean, allerdings bleicht es schneller aus. Yellow fluorescent proteins (YFP) leuchten sehr hell, sind aber meist nicht sehr photostabil. EYFP wurde vielfach benutzt, allerdings gibt es immer mehr Experimentatoren, die mCitrine und Venus favorisieren. Orange fluoreszierende Proteine passen von ihrem Exzitations- und Emissionsspektrum zu vielen Standardfiltern an Mikroskopen (entsprechen nahezu Tetramethyl-Rhodaminisothiocyanat, TRITC, Filtern). Allerdings sind die Namensgebungen häufig irreführend, so besitzen DsRed, TagRFP (Tag-Red-Fluorescent-Protein) und tdTomato ein Emissionsprofil im orangen Bereich und nicht wie die Namen vermuten lassen im roten. DsRed gilt als sehr schwach leuchtend (Sha-
60
3
Kapitel 3 • Analyse von Proteinen
ner et al., 2005). mOrange ist sehr hell leuchtend, allerdings geht dies wiederum mit einer geringen Stabilität einher. Zuletzt beschrieben wurden rote Fluorophore. Diese besitzen, im Vergleich zu den meisten anderen, eine geringere Leuchtkraft. Ihr Vorteil besteht in der langwelligen Anregung. Das Licht kann tiefer in Gewebe eindringen und erweitert insgesamt die Möglichkeiten für Mehrfachfärbungen. Die als gut funktionierend beschriebenen mStrawberry und mCherry (Emissions Maxima bei 596 nm und 610 nm) gehören der so genannten Fruchtserie (Fruit Fluorescent Proteins) an. Diese wird durch mPlum ergänzt (Emissions Maximum bei 649 nm), welches allerdings nicht sehr hell strahlt, dafür aber sehr stabil sein soll (Fruit Fluorescent Proteins gibt es bei Clontech). Ein generelles Problem bei der Auswahl des richtigen Farbstoffes ist häufig, dass bestimmte Farbstoffe in der Literatur empfohlen werden, aber kommerziell (noch) nicht zur Verfügung stehen. Dies macht das Beschaffen der benötigten cDNA leider manchmal sehr mühsam. Im Anhang an dieses Kapitel finden Sie einerseits Internetseiten, die auf die unterschiedlichen fluoreszenten Proteine eingehen, andererseits eine Liste von Firmen bzw. Internetseiten, die Vektoren für die aufgeführten fluoreszierenden Proteine vertreiben. Egal welches Experiment Sie planen, versuchen Sie für die jeweiligen Exzitations- und Emissionsprofile möglichst optimale Filter zu verwenden. Nicht nur bei Mehrfachfärbungen geben die optimalen Filter bessere Ergebnisse. Bei Mehrfachfärbungen sollten Sie außerdem darauf achten, dass die Emissionsspektra nicht überlappen. Weiterhin gibt es eine neuere Generation von fluoreszierenden Proteinen, die entweder durch Licht von einem nicht-fluoreszierenden Zustand in einen fluoreszierenden umgewandelt werden (Photoaktivierung) oder die optisch konvertiert werden, von einer fluoreszierenden Form in eine andere (Photokonversion). Somit kann man fluoreszierende Proteine durch Bestrahlung mit Licht einer bestimmten Wellenlänge »anschalten« oder ihre Farbe verändern. Dies ermöglicht die Markierung bestimmter fluoreszierender Proteine und das Verfolgen ihres weiteren Verbleibs bzw. ihre Wanderung in der Zelle. Weiterhin gibt es pH-sensitive Varianten.
Mit ihnen lässt sich z. B. die Sekretion an Synapsen verfolgen. Ein Problem der fluoreszierenden Proteine ist, dass viele bei einer Überexpression zum Aggregieren neigen können. Dies kann die Funktion der Zelle beeinflussen. Wollen Sie die subzelluläre Lokalisation von Fusionsproteinen nachweisen, so sollten Sie diverse Kontrollen durchführen, um zu zeigen, dass beispielsweis durch Mutationen im fusionierten Protein eine andere subzelluläre Lokalisation beobachtet wird oder mit anderen ProteinTags die gleiche Lokalisation zeigen. Fluoreszierende Proteine lassen sich nicht nur zur Lokalisation von Fusionsproteinen oder für funktionelle Nachweise nutzen. Mit ihrer Hilfe ist es auch möglich Protein-Interaktionen in Zellen nachzuweisen. kFluoreszenz-Resonanz-Energie-Transfer (FRET)
Beim Fluoreszenz-Resonanz-Energie-Transfer (FRET) wird Energie von einem fluoreszierenden Donor Molekül auf ein fluoreszierendes Akzeptor Molekül übertragen (. Abb. 3.13A). Der Prozess wurde 1946 von Förster beschrieben und wird auch als Förster-Resonanz-Energie-Transfer-bezeichnet. Die Energie des angeregten Donorfluorophors wird nicht in Form von Fluoreszenz abgegeben, ein Photon ist nicht beteiligt, sondern strahlungslos über Dipol-Dipol-Wechselwirkungen auf den Akzeptor übertragen. Die Emission eines fluoreszierenden Akzeptors wird angehoben, indem das Donormolekül angeregt wird. Gleichzeitig reduziert sich die Emission des Donormoleküls. FRET kann somit über eine Abnahme der Donorfluoreszenz oder eine Zunahme der Akzeptorfluoreszenz detektiert werden. Wie effizient die Energie dabei übertragen wird, hängt vom Abstand von Donor und Akzeptor ab. Die Intensität des FRET-Signals nimmt mit der 6. Potenz des Abstandes ab. Der Förster-Radius beschreibt den Abstand zwischen beiden Fluorophoren, bei dem die Energieübertragung eine Effizienz von 50 % hat. Je höher dieser Wert, desto größer ist der Abstand, über welchen FRET detektiert werden kann. Der Förster-Radius ist normalerweise kleiner als 7 nm und beträgt für BFP-GFP 4 nm und für CFP-YFP 5 nm. Um eine Energieübertragung zu ermöglichen, muss das Emissionsspektrum des Donors mit dem Absorp-
61
3.4 • Auffinden und Nachweisen von Proteininteraktionen
tionsspektrum des Akzeptors überlappen. Sehr gut werden die FRET-Anforderungen von den fluoreszierenden Proteinpaarungen CFP-YFP, aber auch von BFP-GFP, erfüllt. Es gibt auch die Möglichkeit mit fluoreszierenden Antikörpern zu arbeiten, z. B. GFP-Cy3. Mit Hilfe der Fluoreszenzmikroskopie kann man FRET einfach nachweisen und messen. Man sollte Band-Pass Filter verwenden, um die verwendeten Fluorophore klar unterscheiden zu können. FRET kann genutzt werden, um Interaktionen zwischen zwei Proteinen nachzuweisen. Im Idealfall kann sogar der Abstand zwischen den Proteinen genau bestimmt werden. Hierzu wird an das erste Protein ein Donorfluorophor und an das zweite Protein ein Akzeptorfluorophor gebunden. Interagieren die beiden Proteine, so kann ein FRET-Signal detektiert werden, das je nach Abstand der beiden modifizierten Proteine variiert. Je näher die Moleküle zueinander liegen, desto höher ist die FRET-Effizienz. Mit der FRET-Technik erhält der Experimentator quantitative zeitliche und räumliche Informationen über die Bindung und Interaktion zwischen Proteinen in vivo. Indem man fluoreszierende Proteine verwendet kann man mittels FRET, die Interaktion intrazellulärer Molekülgruppen in intakten lebenden Zellen messen. Es gibt aber auch die Möglichkeit FRET in fixierten Zellen zu analysieren. Durch die Verwendung von fluoreszenzmarkierten Antikörpern ist es außerdem möglich mit dieser Methode posttranslationale Veränderungen, wie Phosphorylierungen, nachzuweisen. kBimolekulare Fluoreszenz-Komplementation (BiFC)
Die Bimolekulare Fluoreszenz-Komplementation ähnelt FRET, weil die Methode ebenfalls die Interaktion zweier Proteine durch die Entstehung von Fluoreszenz nachweist. Allerdings wird bei der BiFC nur ein fluoreszierendes Protein exprimiert, dieses aber in zwei Hälften, die jede für sich nicht fluoreszieren. Kommen beide Hälften zusammen, so geben sie ein fluoreszierendes Signal. Jede Hälfte wird mit einem Protein fusioniert. Interagieren die Proteine, so bilden die beiden Hälften des fluoreszierenden Proteins ein funktionelles Fluorophor und leuchten (. Abb. 3.13B). Da das fluoreszierende
3
Protein geteilt wird (splitting), bezeichnen einige Experimentatoren die Methode auch als Split-YFP. Meist wird EYFP verwendet und entweder nach Aminosäure 155 oder 173 geteilt. So entstehen die N-terminalen Hälften YN155 oder YN173 und die C-terminalen Hälften YC155 und YC173. Die zusammengelagerten EYFP-155-Fluorophore ergeben eine hellere Fluoreszenz. Andere Fragmente, wie die des fluoreszierenden Proteins Venus ergeben eine noch hellere Fluoreszenz, aber auch stärkere Hintergrundsignale, deshalb wird von diesen abgeraten (Kerppola 2008). Man kann auch ECFP verwenden und nach Aminosäure 155 teilen, es entstehen CN155 und CC155. Fusioniert man YN155, CN155 und CC155 jeweils mit einem Protein, so gibt es die Möglichkeit konkurrierende Interaktionen, die z. B. auf unterschiedliche Kompartimente beschränkt sind, zu visualisieren (mulitcolor fluorescence complementation). Denn bildet sich durch eine Proteininteraktion YN155/CC155, so wird gelbe Fluoreszenz detektiert. Bildet sich CN155/ CC155, so wird blaugrüne Fluoreszenz detektiert (. Abb. 3.13C). Genau wie mit FRET, können auch mit BiFC Interaktionen in lebenden Zellen beobachtet werden. Dadurch kann ausgeschlossen werden, dass die Interaktion auf Artefakten durch Zelllyse und das Mischen unterschiedlicher Kompartimente beruht. Die Verwendung lebender Zellen ermöglicht weiterhin die genaue Lokalisation der Interaktion. Somit vervollständigen diese Methoden die Möglichkeiten Interaktionen zwischen Proteinen in vivo zu untersuchen. Voraussetzung bei beiden Methoden ist allerdings, dass die Fusionierung mit einem fluoreszierenden Protein keinen negativen Effekt auf die Funktion oder Lokalisation der untersuchten Proteine hat.
3.4.8
SPR-Analyse
Wir sind in diesem Kapitel auf die verschiedenen Möglichkeiten eingegangen Interaktionen zwischen Proteinen zu finden und nachzuweisen. Durch sie kann der Experimentator nur zeigen, dass eine Interaktion vorliegt. Aber es gibt unterschiedliche Arten von Interaktionen: funktionelle und nicht-funktionelle, sowie hochaffine und nied-
62
Kapitel 3 • Analyse von Proteinen
A FRET P YF
CFP
CFP
YFP
3
B keine Fluoreszenz
C YN155
CC155
+
CN155
+
. Abb. 3.13 FRET und BiFC erlauben den Nachweis von Proteininteraktionen. (A) Zwei Fusionsproteine werden untersucht. An das weiß dargestellte Protein ist der FRET-Donor (CFP) fusioniert, an das schwarz dargestellte Protein der FRET-Akzeptor (YFP). Eine Anregung erfolgt mit Licht der Wellenlänge, die den Donor (CFP) anregt. Findet keine Proteininteraktion statt so wird Donorfluoreszenz (CFP) emittiert. Interagieren die Proteine und bringen so die zwei Fluorophore nah genug, so kann FRET entstehen und Akzeptorfluoreszenz (YFP) wird emittiert. (B) BiFC funktioniert ähnlich, allerdings sind an die relevanten Proteine je zwei Hälften eines fluoreszierenden Proteins fusioniert. Nur wenn die relevanten Proteine interagieren kommen die Hälften nah genug, so dass das fluoreszierende Protein Licht emittiert. (C) BiFC kann auch mit zwei alternativen Interaktionspartnern durchgeführt werden (multicolor fluorescence complementation). Das weiß dargestellte Protein kann alternativ mit dem grau oder mit dem schwarz dargestellten Protein interagieren. In Abhängigkeit zum fusionierten fluoreszierenden Protein wird entsprechendes Licht emittiert
rigaffine. Die meisten Experimentatoren suchen hochaffine, funktionelle Interaktionen. Ob eine Interaktion eine funktionelle Bedeutung hat, kann am besten durch in vivo-Methoden gezeigt werden. Die Affinität beschreibt die Stärke einer Bindung
und wird durch die Dissoziationskonstante KD quantitativ erfasst. Je kleiner der KD-Wert ist, mit dem ein Ligand an eine Bindungsstelle bindet, desto höher seine Affinität. Hochaffin sind Bindungen mit einem KD von 10 nM und kleiner. Die klassi-
63
Literatur und World-Wide-Web-Links
sche Methode, um die Affinität zu ermitteln, ist der Bindungstest. Das Protein wird mit einem radioaktiv markierten Liganden inkubiert. Der gebundene Ligand wird vom ungebundenen Liganden getrennt. Dies kann durch Filtration, Zentrifugation oder Absorption erfolgen. Nach der Quantifizierung der Radioaktivität des gebundenen Liganden wird durch mathematische Verfahren (Hill-Blot, Scatchard-Plot) die Dissoziationskonstante und die Zahl der Bindungsstellen ermittelt. Bei einem Bindungstest muss das bindende Protein nicht vollständig rein vorliegen, es kann sich z. B. um Membranfraktionen handeln. Jedem, der sich ausführlicher über Bindungstests informieren möchte, sei die entsprechende und umfangreiche Abhandlung im Experimentator Proteinbiochemie empfohlen. Als Alternative zu den Bindungstests hat sich immer mehr die surface plasmon resonance (SPR) Analyse durchgesetzt. Die dazu benötigten und am häufigsten benutzten Geräte, Biosensoren, stammen ursprünglich von der schwedischen Firma BIAcore (inzwischen GE-Healthcare), deshalb bezeichnen viele die Methode einfach nur als »Biacore«. Hierbei werden häufig gereinigte Proteine eingesetzt und sehr reproduzierbare Ergebnisse erzielt. Bei der SPR Analyse wird ein Bindungspartner an einen Sensorchip kovalent gekoppelt. Der Sensorchip besteht aus Glas und einer dünnen Goldschicht (48–50 nm) auf der sich eine einschichtige Matrix befindet. Auf dieser befindet sich eine Dextran-Schicht, die je nach Typ des Sensorchips, modifiziert ist. An diese Schicht wird der Bindungspartner an das carboxylierte Dextran gekoppelt. Es gibt aber auch Chips, die Tags binden und so heterolog exprimierte Proteine optimal präsentieren. Über den Sensorchip wird kontinuierlich Puffer gespült. So passiert der im Puffer enthaltene Bindungspartner diesen Sensorchip, assoziiert mit dem gebundenen Protein und dissoziiert wieder. Bei der Analyse wird der Brechungsindex des Lichtes, das auf den Sensorchip trifft, kontinuierlich gemessen. SPR tritt auf, wenn Licht von einem dünnen Film am Übergang zwischen zwei Medien mit unterschiedlichen Brechungsindices reflektiert wird. In den meisten Biosensoren ist der dünne Film die Goldschicht und das Glas und die Dextran-Schicht sind die zwei unterschiedlichen Medien. Der Brechungsindex und somit das Licht,
3
welches reflektiert wird, hängt von der Masse von an der Dextran-Schicht gebundenen Molekülen ab. So kann optisch die Bindung an den Sensorchip verfolgt werden und der Experimentator kann sehr schnell nachweisen welche Moleküle interagieren, sowie Affinität und Anzahl von Bindungsstellen quantifizieren. Wer sich ausführlicher über die SPR informieren möchte, dem sei die Web-Seite: http:// www.sprpages.nl/ empfohlen. Der Vorteil der Methode liegt in der Einfachheit der Anwendung. Es werden nicht nur hochaffine Bindungen erfasst, sondern auch Interaktionen niedriger Affinität. Im Gegensatz zum klassischen Bindungstest ist SPR radioaktivitätsfrei. Man braucht nur ein paar Mikrogram seines Proteins und kann inzwischen sogar die Bindung sehr kleiner Moleküle untersuchen, was früher bei der SPR Analyse als unmöglich galt. Außerdem kann man mit dem Biosensor auch auf Hochdurchsatz-Screenen sehr leicht die Pufferbedingungen ändern und so die Abhängigkeit der Bindung vom pH-Wert oder anderen Variablen analysieren. Allerdings scheinen Untersuchungen von schwer löslichen Proteinen zum Teil problematisch zu sein. Außerdem muss natürlich überhaupt ein Biosensor zur Verfügung stehen.
Literatur und World-Wide-Web-Links Web Ressourcen: Peptide und Antigene: http://immunax.dfci.harvard.edu/ Tools/antigenic.html Protein Sequenzdatenbanken: http://www.uniprot.org/ Protein Sekundärstruktur: http://molbiol-tools.ca/Protein_ secondary_structure.htm Protein Familien, Domänen, Funktionelle Sites: http://www. ebi.ac.uk/interpro/ Mammalian Protein-Protein Interaction Database: http:// mips.gsf.de/proj/ppi Biomolecular Interaction Network Database: http://www. bind.ca Database of Interacting Proteins: http://dip.doe-mbi.ucla. edu/dip/Main.cgi Two-Hybrid Analyse: http://www.fccc.edu/research/labs/ golemis/InteractionTrapInWork.html Protein Netzwerke: http://www.cytoscape.org/ HUPO Brain Proteome Project: http://www.hbpp.org/ Surface Plasmon Resonance: http://www.sprpages.nl/ BIAcore: http://www.biacore.com/lifesciences/index.html Fluoreszente Proteine: http://www.microscopyu.com/ articles/livecellimaging/fpintro.html
64
3
Kapitel 3 • Analyse von Proteinen
Fluoreszente Proteine: http://www.olympusfluoview.com/ applications/fpcolorpalette.html GFP: http://www.conncoll.edu/ccacad/zimmer/GFP-ww/ GFP-1.htm FRET: http://zeiss-campus.magnet.fsu.edu/articles/ spectralimaging/spectralfret.html BiFC: http://sitemaker.umich.edu/kerppola.lab/kerppola_ lab_bifc Quellen für Fluoreszierende Protein (FP) cDNA: http://www.addgene.org/ (Ein nonprofit Plasmid Archiv für Wissenschaftler. Bietet zahlreiche Vektoren für FPs an.) http://www.allelebiotech.com/ (FPs: mTFP1, mWasabi) (Vertrieb Deutschland: http://www.biozol.com/) http://www.bdbiosciences.com/ (Baculovirus transfer Vektoren mit BFP und YFP Varianten.) http://www.clontech.com/ (»Living colors« FP Linie: AcGFP1, AmCyan1, AsRed2, DsRed2, DsRed-Express, DsRed-Monomer, HcRed1, ZsGreen1, ZsYellow1, mFruits.) http://www.evrogen.com/ (»Turbo« und «Tag» FP Linien: TurboGFP, YFP, RFP, FP602; TagCFP, GFP, YFP, RFP; PhiYFP, JRed, TagRFP, mKate, dKatushka, PS-CFP2, Dendra2, KFP-Red, HyPer, KillerRed.) (Vertrieb Deutschlan: www. biocat.com) http://www.invitrogen.com/ (»Vivid colors« FP Linie: Emerald, Topaz, CFP, BFP Cycle 3 GFP.) http://www.lonzabio.com/ (»Amaxa« pmaxFP Linie: pmaxFPGreen, pmaxFP-Yellow, pmaxFP-Yellow-m, pmaxFP-Red.) http://luxbiotech.com/ (»NanoLight« FP Linie: Renilla mullerei GFP, Ptilosarcus GFP, Renilla reniformis GFP.) (Vertrieb Deutschland: http://www.pjk-gmbh.com) http://www.mblintl.com/ (»CoralHue» FP Linie: mAzami Green, mKusabira Orange, mKO2, Dronpa, Kaede, Kikume Green-Red, Keima Red, Midoriishi-Cyan.) (Vertrieb Deutschland: http://www.biozol.com/) http://www.nanolight.com/ (»NanoLight« FP Linie: Renilla mullerei GFP, Ptilosarcus GFP, Renilla reniformis GFP.) http://las.perkinelmer.com/ (BRET2 assay Vektoren FP Linie: GFP2 humanized codon vectors.) http://www.promega.com/ (»Monster green« FP Linie: phMGFP.) http://www.stratagene.com/ (Vitality FP Vektoren: hrGFP and hrGFPII Nuc, Mito, Golgi, Peroxy.) http://www.mobitec.de/ (EosFP – Green to Red Photoconvertible FP) Allgemein: Luttmann et al (2009) Der Experimentator: Immunologie, 3. Aufl, Spektrum Akademischer Verlag Rehm/Letzel (2009) Der Experimentator: Proteinbiochemie/ Proteomics, 6. Aufl, Spektrum Akademischer Verlag Tanford C, Reynolds JA (2003) Nature’s Robots: A History of Proteins, Oxford University Press Western Blot: Haan C, Behrmann I (2007) A cost effective non-commercial ECL-solution for Western blot detections yielding strong
signals and low background. J Immunol. Methods 318: 11–19 Kurien BT, Scofield RH (2003) Protein blotting: a review. J Immunol. Methods 274: 1–15 Immunipräzipitation: Bonifacino JS, Dell’Angelika EC (1998) Immunoprecipitation Current Protocols in Cell Biology 7.2.1–7.2.21 John Wiley & Sons, New York Elion EA (2006) Detection of Protein-Protein Interactions by Coprecipitation. Current Protocols in Neuroscience 5.25.1–5.25.10 John Wiley & Sons, New York Gersten DM, Marchalonis JJ (1978) A rapid, novel method for solid-phase derivatization of IgG antibodies for immune-affinity chromatography. J. Immunol. Methods 24: 305–309 Springer TA (1996) Immunoprecipitation Current Protocols in Immunology, John Wiley Subzelluläre Fraktionierung Breukel AIM, Besselsen E, Ghijsen WEJM (1997) Synaptosomes, a model to study release of multiple classes of neurotransmitters. Methods Mol. Biol. 72:33–47 Carlin RK, Garb DJ, Cohen RS, Siekvitz P (1980) Isolation and characterization of postsynaptic densities from various brain regions: enrichment of different types of postsynaptic densities, J. Cell Biol. 86: 831–843 Hallet PJ, Collins TL, Standaert DG, Dunah AW (2008) Biochemical fractionation of brain tissue for studies of receptor distribution and trafficking Current Protocols in Neuroscience 1.16.1–1.16.16 John Wiley & Sons, New York Hens JJH (1997) Preparation of synaptosomal plasma membranes by subcellular fractionation Methods Mol. Biol. 72:61–69 Morciano M, Burré J, Corvey C, Karas M, Zimmermann H, Volknandt W (2005) Immunoisolation of two synaptic vesicle pools from synaptosomes: a proteomic analysis, J. Neurochem. 95: 1732–1745 Urlaub H, Gronberg M, Jahn R (2009) Synaptische Vesikel als Model, BioSpektrum 15: 16–19 Affinitäts-Tags: Fernandez, E. et al. (2009) Targeted tandem affinity purification of PSD-95 recovers core postsynaptic complexes and schizophrenia susceptibility proteins, Mol. Systems Biology 5:1–17 Gloeckner CJ, Boldt K, Ueffing M (2009) Strep/FLAG affinity purification (SF-TAP) to study protein interactions, Current Protocols in Protein Science 19.20.1–19.20.19 John Wiley & Sons, New York Terpe K (2003) Overview of tag protein functions: from molecular and biochemical fundamentals to commercial systems. Appl. Microbiol Biotechnol 60:523–533
Literatur und World-Wide-Web-Links
Yeast-Two-Hybrid System: Johnsson N, Varshavsky (1994) Split ubiquitin as a sensor of protein interaction in vivio. Proc. Natl. Acad. Sci. 91:10340–10344. Putz U, Skehel P, Kuhl D (1996) A tri-hybrid system for the analysis and detection of RNA-protein interactions. Nucleic Acids Res. 24:4838–4840. Serebriiskii IG, Golemis EA (2001) Two-hybrid system and false positive: Approaches to detection and elimination. Methods Mol. Biol. 177:123–134. Stagljar I, Korostensk C, Johnsson N, Te Heesen S (1998) A genetic system based on split-ubiquitin for the analysis of interactions between membrane proteins in vivo. Proc. Natl. Acad. Sci. 95:5187–5192. Fluoreszente Proteine: Kerppola TK (2008) Bimolecular Fluorescence complementation (BiFC) analysis as a probe of protein interactions in living cells. Annu. Rev. Biophys. 37:465–487. Miesenböck G, De Angelis DA, Rothman JE (1998) Visualizing secretion and synaptic transmission with pH-sensitive green fluorescent proteins. Nature 394: 192–195 Prasher DC, Eckenrode VK, Ward WW, Prendergast FG, Cormier MJ (1992) Primary structure of the Aequorea Victoria green-fluorescent protein. Gene 111: 229–233. Shaner NC, Steinbach PA, Tsien RY (2005) A guide to choosing fluorsescent proteins. Nature Methods 2: 905–909 Shaner NC, Patterson GH, Davidson MW (2007) Advances in fluorescent protein technology. J Cell Science 120:4247– 4260. Wouters FS, Bastiaens PIH (2006) Imaging protein-protein interaction by fluorescence resonance energy transfer (FRET) microscopy. Current Protocols in Neuroscience 5.22.1–5.22.15 John Wiley & Sons, New York
65
3
67
Zelluläre Neurobiologie Guido Hermey
4.1
Allgemeines – 68
4.1.1 4.1.2 4.1.3 4.1.4
Ausrüstung – 68 Medien – 69 Ungebetene Gäste – 69 Zellen des Nervensystems – 70
4.2
Zellkulturtypen – 70
4.2.1 4.2.2 4.2.3 4.2.4 4.2.5
Primärkulturen und Gewebekulturen – 70 Zelllinien – 73 Arbeiten mit Zelllinien – 75 Herstellung von primären Zellkulturen – 76 Stammzellen – 81
4.3
Transfektion von Zellen – 81
4.3.1 4.3.2 4.3.3 4.3.4
Physikalischer Gentransfer – 82 Chemischer Gentransfer – 83 Viraler Gentransfer – 83 Herstellung stabiler Zelllinien – 85
4.4
An- und Ausschalten von Genen – 86
4.4.1 4.4.2 4.4.3
Ausschalten von Genen – 86 Dominant-negative Varianten – 86 Induzierbare Expressionssysteme – 87
4.5
Analyse von Proteinen in Zellkultur – 89
4.5.1 4.5.2
Färben von Zellen – 89 Fluoreszenzmarkierung von Proteinen – 90
4.6
Neuronale Aktivität – 91
4.6.1 4.6.2 4.6.3
Induktion neuronaler Aktivität – 91 Stimulation von Nervenzellen durch optische Methoden – 92 Nachweis neuronaler Aktivität – 93
Literatur und World-Wide-Web-Links – 97
G. Hermey et al., Der Experimentator: Neurowissenschaften, DOI 10.1007/978-3-8274-2369-6_4, © Spektrum Akademischer Verlag Heidelberg 2010
4
4
68
Kapitel 4 • Zelluläre Neurobiologie
4.1
Allgemeines
Das Nervensystem ist aus verschiedenen Zelltypen, Neuronen und Gliazellen aufgebaut. Diese Bausteine können entweder im intakten Gewebeverband im lebenden Tier oder aber isoliert mit Zellkulturtechniken untersucht werden. In vivo-Untersuchungen am lebenden Tier sind aufgrund der anatomischen und funktionellen Komplexität des Nervensystems auf zellulärer Ebene relativ schwer durchzuführen. Das Studium von funktionellen Einheiten, wie z. B. organotypischen Schnittkulturen, oder auch von Einzelzellen und Zelllinien ermöglicht zelluläre und molekulare Untersuchungen unter kontrollierten, genau definierten Bedingungen. Diese lassen sich relativ leicht verändern, da isolierte Zellen gut zugänglich sind, so dass sie problemlos manipuliert werden können. Kultivierte Zellen können leicht genetisch verändert, die Lokalisation und Wanderung von Proteinen in ihnen studiert werden, aber auch morphologische Veränderungen, wie das Auswachsen von Fortsetzen oder die Wanderung der Zellen selbst, kann in der Zellkultur analysiert werden. Trotz dieser Vorteile werfen Zellkulturstudien immer wieder Fragen auf, weil die Beobachtungen in der Zellkultur nicht immer mit in vivo-Daten in Einklang zu bringen sind. Der Experimentator sollte kultivierte Zellen immer als Modell oder gar nur als Werkzeug betrachten, denn grundsätzlich muss sich eine immortalisierte Zelllinie oder ein kultiviertes isoliertes Neuron nicht genau so verhalten wie eine entsprechende Zelle im intakten Organismus.
4.1.1
Ausrüstung
Egal, was für einen Zellkulturtypus Sie wählen, Sie betrachten Zellen isoliert von ihrem Gewebeverband. Somit berauben Sie die Zellen ihrer natürlichen Umgebung, die sich durch Zell-Zell-Kontakte, Nährstoffe und Wachstumsfaktoren auszeichnet. Sie benötigen zum Nachspielen der natürlichen Umgebung, dem Kultivieren von Zellen, nicht nur entsprechende Medien, sondern eine ganze Reihe von technischen Voraussetzungen und sollten möglichst steril arbeiten.
Zum sterilen Arbeiten benötigen Sie unbedingt eine Sterilbank (Reinraumwerkbank mit horizontalem oder vertikalem Luftstrom) oder laminar flow hood, gerne auch einfach nur als hood bezeichnet. Durch den in der Sterilbank erzeugten Luftstrom werden einerseits die sterilen Bedingungen innerhalb der Hood aufrechterhalten, andererseits auch der Experimentator geschützt. Die sterilen Arbeitsbedingungen sollten unbedingt eingehalten werden. In vielen Laboren werden Zellen in einem abgetrennten Raum, der nur dafür bestimmt ist, kultiviert. Kittel sollten nicht die gleichen sein, die Sie beim Arbeiten mit Bakterien oder Hefen tragen. Die meisten Experimentatoren tragen Handschuhe, es geht aber auch ohne. In jedem Fall sollte man die Hände desinfizieren, bevor man diese unter die Hood streckt. Die meisten Sterilbänke sind mit einem UV-Licht versehen, das angeschaltet wird, wenn die Sterilbank nicht benutzt wird. Dies hält die bestrahlten Oberflächen steril. Beachten Sie, dass eine UV-Lampe nach mehreren Jahren Benutzung nicht mehr diesen Zweck erfüllen könnte und deshalb rechtzeitig ausgetauscht werden sollte. Weiterhin sollten Gegenstände aus Plastik nicht dauerhaft mit UV-Licht bestrahlt werden, da diese sonst porös werden. Trotz UV-Licht sollten unbedingt vor jedem Gebrauch die Flächen der Sterilbank mit 70 % Ethanol abgewischt werden. Auch alle Gegenstände (Flaschen, Pipetten etc.), die von »Außen« unter die Hood gestellt werden sollten so »sterilisiert« werden. Weiterhin gilt: Einwegmaterialien verwenden, die steril vom Hersteller kommen (Pipettenspitzen etc.), Glaswaren hitzesterilisieren, Flüssigkeiten, die nicht steril gekauft werden, autoklavieren. Ein Zellinkubator wird zur Kultivierung der Zellen benötigt. Dieser spielt ein bisschen die in vivo-Situation nach, indem eine konstante Temperatur, hohe Luftfeuchtigkeit und ein definierter CO2-Gehalt herrscht. Durch den definierten CO2Gehalt wird der pH-Wert der Zellkulturmedien gepuffert und auf physiologischem Niveau gehalten. Die meisten Zellen werden bei 37°C und 5 % CO2 kultiviert. Es gibt aber auch Abweichungen, z. B. werden Insektenzellen bei 28°C gehalten. Weiterhin ist ein Wasserbad, in dem man Medien vorwärmen kann, von Vorteil. Ein Stickstoff-
69
4.1 • Allgemeines
tank zum Lagern von Zellen in flüssigem Stickstoff oder eine Gefriertruhe, die bis zu –152°C kühlt. Schließlich benötigen Sie Zellkulturflaschen oder Platten. Diese sind aus Plastik und so beschichtet, dass Zellen sich anheften können. Sie werden steril geliefert. Man erzeugt eine Menge Müll und der Kram ist auf Dauer nicht ganz billig, aber Sie kommen nicht darum herum. Am Ende landet alles, was mit den Zellen in Kontakt war, in der Autoklaviertonne. Zum Absaugen von Flüssigkeiten sollte eine Vakuumpumpe ihren festen Platz an der Sterilbank haben. Schlussendlich brauchen Sie ein Mikroskop, um die Zellen überhaupt betrachten zu können.
4.1.2
Medien
Zellen werden in Medien kultiviert, die Nährstoffe enthalten und Puffereigenschaften besitzen. Die Zellen wachsen umgeben von einer isotonischen Lösung, die gepuffert ist, um einen für den jeweiligen Zelltyp optimalen pH-Wert zu halten (meist pH 7,4). Die unterschiedlichen Medien können Zusatzstoffe wie Glucose, Glutamin, Na-Pyruvat oder essenzielle Aminosäuren enthalten. Weiterhin gibt es Medien mit einem Farbindikator und ohne diesen. Die Ausgangsstoffe für Medien können entweder als Pulver gekauft, gelöst und steril filtriert werden oder, und das ist einfacher, als fertige Lösung gekauft werden. Man unterscheidet Basalbzw. Minimalmedien, wie z. B. MEM (Minimum Essential Medium), DMEM (Dulbecco’s Modified Eagle’s Medium), HAM’s F-10 (Ham’s Nutrient Mixture) oder RPMI 1640 (Roswell Park Memorial Institute) und Komplettmedien. Die Komplettmedien sind gebrauchsfertig. Den Minimalmedien wird in der Regel neben einigen der oben genannten Zusatzstoffe Serum zugegeben. Dies liefert ein undefiniertes Gemisch von Wachstumsfaktoren. Die Seren stammen sehr häufig von Kälbern (Fetal Calf Serum, FCS) oder von Pferden. Je nach den Bedürfnissen der zu kultivierenden Zellen wird dieses zugegeben. Verschiedene Firmen bieten auch definierte und serumfreie Medien an. Diese sind meist auf spezielle Zelllinien zugeschnitten und ermöglichen das Arbeiten unter serumfreien Bedingungen. Dies ist z. B. von großem Vorteil, wenn Sie aus dem
4
Zellkulturmedium Proteine reinigen möchten oder aber unter genau definierten Bedingungen arbeiten wollen.
4.1.3
Ungebetene Gäste
Zellen sollen sich wohlfühlen, werden bei hoher Luftfeuchtigkeit, angenehmer Temperatur und in nährstoffreichem Medium gehalten. Dies ruft ungebetene Gäste, schmarotzende Lebewesen, auf den Plan. Den neurowissenschaftlich arbeitenden Experimentator interessieren diese Kreaturen nicht, denn diese besitzen nicht einmal ein Nervensystem! Er braucht auch gar nicht zu wissen, um wen es sich handelt, bis er doch einmal diesen Lebewesen begegnet. Sichtbar werden Bakterien, Hefen, sonstige Pilze und am gefürchtetsten die unsichtbaren Mycoplasmen. Kontaminationen können ein großes Problem in der Zellkultur sein. Manch ein Experimentator kämpft ständig mit ihnen, andere nie. Pilze sind häufig mit bloßem Auge zu sehen, Hefen und Bakterien erkennt man unter dem Mikroskop. Hefen sprossen gerne, bei den Bakterien kommt es darauf an, welche Sie erwischt haben. Gerne wuseln kleine Stäbchen unterm Mikroskop. Mycoplasmen aber sieht man im normalen Zellkultur Mikroskop nicht. Eine richtige Zellwand haben diese Schmarotzer nicht, greifen aber in den Zellstoffwechsel ein. Infizierte Zelllinien erleiden in größeren Abständen einen unerklärlichen Einbruch, sterben, erholen sich wieder, bis sie wieder unspezifische Probleme aufweisen. Nachweisen kann man eine Mycoplasmenkontamination mühelos durch eine DAPI-Färbung oder per PCR, allerdings gibt es diverse Stämme, so dass eine Reaktion meist nicht reicht. Wo kommen die Schädlinge her? Unsauberes Arbeiten ist eine Quelle. Nicht-steriles Gerät oder wir selbst. Wir sind ja bekanntlich von diversen Bakterien besiedelt. Mycoplasmen sind entweder humanen Ursprungs (z. B. Mycoplasma orale) oder werden über Seren eingeschleppt. Seren können auch der Ursprung von viralen Kontaminationen sein. Es gibt Menschen, die glauben, Mycoplasmen würden sich beim Lagern im flüssigen Stickstoff durch den Stickstoff verbreiten. Arbeiten Sie in
70
4
Kapitel 4 • Zelluläre Neurobiologie
einem Mycoplasma-freien Labor, so versuchen Sie diesen Zustand unbedingt zu erhalten. Es gibt sogar wissenschaftliche Zeitschriften, die verlangen, dass Autoren versichern, dass verwendete Zellkulturen frei von Myoplasmen sind. Interessant ist in diesem Zusammenhang, dass zwischen 15–90 % (die Angaben schwanken sehr und keiner weiß es genau!) der Zellkulturlabore Mycoplasma-verseucht sein sollen. Seien Sie also vorsichtig, wenn Ihnen jemand eine Zelllinie schenkt. Stellt es sich heraus, dass diese mit Mycoplasmen verseucht ist und Sie kultivieren diese, so kann das schlimme Folgen haben. Auch für Sie persönlich! Es gibt fanatische Mitarbeiter (meist alteingesessene leitende technische Mitarbeiter), die haben ein Auge auf so etwas. Kommt es heraus, dass Sie Mycoplasmen ins Labor eingeschleppt haben, so könnten an allen Geräten und Plätzen, die Sie in der Zellkultur nutzen, auf einmal große rote Schilder hängen: Mycoplasmenverseucht! Das richtet sich nicht gegen Sie, nein niemals, man will sich ja nur schützen. Ihr Ruf ist ruiniert, die befreundeten Kollegen machen sich über Sie lustig, erfinden urkomische Spitznamen, die irgendwie »Myco« oder »Plasma« mit Ihrem Namen variieren. Aus dieser Situation herauszukommen bedarf nicht nur Charakterstärke. Grundsätzlich sollten Sie, gerade wenn Sie zum experimentellen Nachwuchs zählen, vermeiden, mit alteingesessenen leitenden Mitarbeitern Konflikte zu haben. Egal womit Zellen kontaminiert sind, am besten ist es, die befallenen Zellen zu vernichten und noch einmal alle Reinheitsgebote in der Zellkultur abzurufen. Sollte eine nicht wieder herzustellende Kultur mit Mycoplasmen verseucht sein, dann können Sie versuchen, mit einem der vielen AntiMycoplasma-Mittelchen, die von diversen Firmen vertrieben werden, ihr Glück zu versuchen. Das hilft aber meist nicht. Zur Prävention verwenden viele Experimentatoren ein Gemisch aus Penicillin und Streptomycin, das dem Zellkulturmedium zugegeben wird. Gegen Mycoplasmen und große bakterielle Keimzahlen hilft dies im Allgemeinen nicht. Arbeiten Sie mit primären Kulturen, so sollten Sie auf jeden Fall Antibiotika verwenden, da bei der initialen Präparation keine absolute Keimfreiheit gewährleistet werden kann.
4.1.4
Zellen des Nervensystems
Während der Entwicklung des Nervensystems vermehren sich embryonale Stammzellen, werden zu Vorläuferzellen und differenzieren schließlich zu den Hauptzelltypen, den Neuronen und Gliazellen. Die neugebildeten Zellen, die sich nicht mehr teilen, wandern meist zu ihrem endgültigen Bestimmungsort und differenzieren, bilden Fortsätze und Zellkontakte aus. Unterschiedliche Typen von Synapsen werden gebildet. Am Ende der Entwicklung stehen verschiedene Typen von Gliazellen und von Neuronen (. Abb. 4.1). Glia teilt man in Astrocyten, myelinisierende Glia (Oligodendrogliazellen und Schwann-Zellen) und Mikroglia. Für Neurone gibt es sehr unterschiedliche Klassifizierungen, diese kann sich an der endgültigen Lage orientieren, aber auch aufgrund der Morphologie lassen sich Nervenzellen kategorisieren. So werden Neurone anhand der Anzahl der Neuriten unterschieden (unipolar, bipolar, multipolar), aufgrund der Dendriten bzw. Dendritenbäume (z. B. Sternzellen und Pyramidenzellen; oder Zellen mit Dornfortsätzen, »bedornt«, und ohne, »unbedornt«). Eine weitere Klassifizierung richtet sich nach den Verknüpfungen (sensorische und motorische Neuronen sowie Interneuronen), oder sie werden aufgrund der freigesetzten Neurotransmitter eingeteilt. Mit kultivierten Zellen lassen sich viele Aspekte der Entwicklung und Differenzierung von Zellen nachspielen, aber auch Aspekte der Signalübertragung zwischen verschiedenen Zellen können betrachtet werden. Weiterhin ist es möglich, molekulare Vorgänge innerhalb der Zelle zu analysieren. Je nach Fragestellung können Sie unterschiedliche Kulturtypen nutzen.
4.2
Zellkulturtypen
4.2.1
Primärkulturen und Gewebekulturen
Primäre Zellkulturen und Gewebekulturen werden direkt nach der Organentnahme kultiviert. Man unterscheidet organotypische Schnittkulturen, Mikroexplantatkulturen und primäre Zellkulturen (. Abb. 4.2).
71
4.2 • Zellkulturtypen
4
neuronale Stammzelle
Neuroblast
O-2A-Vorläufer Typ-I-Astrocyt Neuron
Oligodendrocyt
Typ-II-Astrocyt
. Abb. 4.1 Differenzierung von Zellen des zentralen Nervensystems. O2-A -Vorläufer = Oligodendrocyten-Typ-2A-Astrocyten-Vorläufer
Bei organotypischen Schnitten (slice cultures) handelt es sich um relativ dicke Schnitte von Gehirnarealen (250–400 μm), die mit einem Vibratom angefertigt werden. Diese Schnitte ermöglichen einen leichteren Zugang zu tiefer liegenden Gehirnregionen, wie z. B. dem Hippocampus, als im intakten Gehirn. Man unterscheidet akute Schnitte, die direkt kultiviert werden und keine Langzeitkultivierung durchlaufen, und organotypische Schnitte, die längere Zeit (Tage bis Wochen) kultiviert werden. Während akute Schnitte besonders in der Elektrophysiologie eingesetzt werden, dienen Langzeitkultivierungen z. B. der Untersuchung von morphologischen Veränderungen. Zur Kultivierung müssen die Schnitte mit Carbogen begast und von einer artifiziellen Cerebrospinalflüssigkeit (ACSF) umspült werden (siehe 7 Kap. 5, Elektrophysiologie). Der Vorteil dieser Kulturen ist, dass die lokale Gewebearchitektur erhalten bleibt und so eine Reihe von neuronalen Verschaltungen und Zellkontakten untersucht werden können. Der große Nachteil liegt aber in der Schnittpräparation selbst, die zu Verletzungen des Gewebes und
zum Durchtrennen von Zellfortsätzen führt. Bei Langzeitkultivierungen kommen Gewebeveränderungen aufgrund der Kultivierung hinzu, dadurch können einige Zellen oder Zellgruppen leichter zugänglich sein. Die Schnitte eignen sich neben elektrophysiologischen Untersuchungen auch für morphologische und histologische Studien, da verschiedene Färbungen, wie z. B. die Injektion von Farbstoffen, leicht möglich sind (siehe 7 Kap. 6.5 Anatomische Untersuchung des Nervensystems). Zum Herstellen von Mikroexplantatkulturen und primären Zellkulturen wird der gewünschte Gehirnbereich nicht gezielt in Scheiben geschnitten, sondern isoliert und mit einem Skalpell zerkleinert. Durch die grobe Zerkleinerung können bereitete Gewebefragmente kultiviert werden. Diese Explantatkulturen besitzen zwar nicht mehr die präzise Organisation des Ausgangsgewebes, aber die gleiche zelluläre Zusammensetzung. Viele Zellen bilden auch noch zusammenhängende Verbände. Im Gegensatz zu den organotypischen Schnittkulturen benötigen die Mikroexplantatkulturen keine besondere Begasung und werden wie
72
Kapitel 4 • Zelluläre Neurobiologie
4 Gewebe Zerkleinern
Schneiden
Schnittkultur
Kultur dissoziierter Zellen
Explantkultur
. Abb. 4.2 Grundlegende Schritte der Kultivierung von primärem Gewebe und primären Zellen
Einzelzellen im Medium kultiviert. Sie sind geeignet, um die Migration von Zellen oder das Auswachsen von Axonen im Zellverband zu untersuchen. Die Kulturen sind leicht manipulierbar, so kann die Wirkungsweise von Wachstumsfaktoren oder Zellerkennungsmolekülen auf diese Vorgänge analysiert werden. Je nach Fragestellung kann die zelluläre Heterogenität der Explantatkulturen ein Nachteil sein. Von primärer Zellkultur spricht man, wenn die Zellen eines Gehirnbereiches nach der Zerkleinerung in Einzelzellen dissoziiert und dann kultiviert
werden. Die Vereinzelung der Zellen kann mechanisch oder enzymatisch erfolgen. Kultiviert werden die Zellen dann in der Regel auf speziell behandelten Deckgläschen. Die dissoziierten Zellen behalten ihre ursprüngliche Identität und präsentieren Eigenschaften, die den gleichen Zellen, die aus derselben ursprünglichen Gehirnregion stammen, sehr ähnlich ist. Gibt man zu dem Medium entsprechende Wachstumsfaktoren hinzu, kann man bestimmte Zelltypen relativ unabhängig über lange Zeiträume (bis zu mehreren Wochen) kultivieren. Während der Kultivierungsdauer bilden primäre
4.2 • Zellkulturtypen
Neurone sämtliche Charakteristika von intakten Nervenzellen aus, sie entwickeln Axone und Dendriten, exprimieren charakteristische Proteine, bilden sogar Synapsen aus und zeigen spontane elektrische Aktivität. Da die Zellen vereinzelt vorliegen, können diese einzeln oder in Gruppen manipuliert und analysiert werden. Sie eignen sich für elektrophysiologische Untersuchungen, zur Analyse der Synapsenbildung, des Auswachsens von Neuriten, aber auch zur Lokalisation von Proteinen und dem Verfolgen von dynamischen Vorgängen wie Transportprozessen innerhalb der Zellen. Es gibt primäre Zellen, die sich noch teilen (z. B. Glia), Neurone jedoch sind postmitotisch, d. h. sie teilen sich also nicht mehr. Alle primär kultivierten Zellen haben eine begrenzte Lebensdauer und sterben irgendwann.
4.2.2
Zelllinien
Bei Zelllinien handelt es sich um immortalisierte Zellen. Diese wurden irgendwann einmal einem Tier oder Menschen entnommen, können aber permanent in Kultur überleben und sind unbegrenzt teilungsfähig, weshalb diese Kulturen auch als permanente Zellkulturen bezeichnet werden. Worauf beruht die »Unsterblichkeit« der immortalisierten Zellen? Es handelt sich entweder um Tumorzellen, die kultiviert wurden, oder um Zellen, die nach der Kultivierung transformiert wurden. Unter der Transformation kultivierter Zellen versteht man die spontane oder induzierte permanente phänotypische Veränderung als Folge von vererbbaren Veränderungen des Genoms und der Genexpression. Die Transformation erfolgt spontan, durch Mutation oder wird induziert durch eine stabile Transfektion oder retrovirale Infektion der Zellen. Am häufigsten wird hierfür ein virales Onkogen verwendet, z. B. das LT Gen (large T antigene) des Simian-Virus-40 (SV-40) oder der Ebstein-Barr-Virus (EBV). Meist wird beim EBV der gesamte Virus benutzt. In manchen Fällen wird auch mit dem Enzym Telomerase transfiziert. Weiterhin kann man zufällige Mutationen z. B. durch Bestrahlung erzeugen und die Zellen so transformieren. Die Transformation beinhaltet immer eine Veränderung der Zellen. Eine Folge ist die unbegrenzte Teilbarkeit
73
4
der Zellen und so die Unsterblichkeit, außerdem verändern sie ihre Wachstumseigenschaften, wie die Wachstumsrate oder Morphologie. Von Bedeutung ist auch, dass häufig Aneuploidie und Chromosomenaberrationen auftreten. Der Experimentator braucht sich eigentlich nicht um die Transformation und Erzeugung einer Zelllinie zu kümmern. Es gibt bereits genügend von ihnen. Arbeiten Sie allerdings mit transgenen bzw. Knockout-Mäusen, so könnten sie diese nutzen, um daraus Zelllinien zu etablieren. Häufig werden Fibroblasten aus den Tieren isoliert und mit dem SV40-T-Antigen transformiert. So können Sie eine Zelllinie kultivieren, der ein bestimmtes Gen fehlt oder das verändert ist. Es gibt viele Vorteile beim Arbeiten mit Zelllinien. Sie sind in der Regel leichter zu kultivieren als primäre Kulturen. Häufig sind sie gut charakterisiert. Sie sind homogen und leicht zu manipulieren. Genetische Veränderungen können dauerhaft erreicht werden durch die Herstellung stabil transfizierter Linien. Die Zelllinien werden beim Kultivieren vermehrt und immer wieder in neue Kulturgefäße überführt. Man bezeichnet dies als Passagieren. Zu beachten ist, dass viele Zelllinien bei zunehmender Passagenzahl ihre Eigenschaften verändern. Es gibt einige Neuroblastomalinien, wie z. B. SH-SY5Y, die mit zunehmender Passagenzahl ihre neuronalen Eigenschaften verlieren. Der größte Nachteil ist aber, dass immortalisierte Zellen nicht unbedingt die gleichen Eigenschaften besitzen wie Zellen im Gewebeverband. Zelllinien wie HEK, CHO oder COS sind sehr leicht zu kultivieren und zu transfizieren (. Tab. 4.1). Sollen Proteine in Zellen exprimiert und dann gereinigt oder co-immunpräzipitiert werden, so eignen sich diese Zelllinien besonders gut. Auch für eine grundsätzliche Lokalisationsstudie können Zelllinien genutzt werden. Man sollte allerdings Zellen verwenden, die ausreichend viel Cytoplasma präsentieren. CHO- und COS-Zellen besitzen einen sehr großen Kern, der von wenig Cytoplasma umgeben ist. Versucht man in solchen Zellen ein Protein, welches z. B. an Endosomen lokalisiert ist, nachzuweisen, so wird es schwierig, dies überzeugend darzustellen. Besser geeignet sind z. B. HeLa-Zellen.
Kapitel 4 • Zelluläre Neurobiologie
74
. Tab. 4.1
4
Häufig genutzte Zelllinien
Bezeichnung
Herkunft und Zelltyp
Eigenschaften
HEK-293 oder 293
Human embryonic kidney (=HEK)
leicht zu kultivieren und zu transfizieren, gut geeignet zur Proteinexpression und für biochemische Analysen
CHO
Chinese Hamster Ovary
leicht zu kultivieren und zu transfizieren, gut geeignet zur Proteinexpression und für biochemische Analysen, wenig Cytoplasma deshalb ungeeignet für Lokalisationsstudien
COS
Cercopithecus aethiops, origin-defective SV-40, Nierenzellen der Grünen Meerkatze
leicht zu kultivieren und zu transfizieren, gut geeignet zur Proteinexpression und für biochemische Analysen, wenig Cytoplasma deshalb ungeeignet für Lokalisationsstudien
3T3
3-day transfer, inoculum 3 × 105 cells Mouse embryonic fibroblasts
leicht zu kultivieren, zeigen Kontaktinhibition, Wachstum stoppt bei hoher Dichte
HeLa
Benannt nach der Patientin: Henrietta Lacks. Entstammen einem cervicalen Tumor, wachsen aber wie epitheliale Zellen
gut zu kultivieren und zu transfizieren, besitzen relativ viel Cytoplasma, eignen sich somit auch für Lokalisationsstudien, tritt als häufige Kontamination in anderen Zelllinien auf
MDCK
Madin Darby canine kidney Von Madin und Darby aus der Niere eines Cocker Spaniel isoliert
epitheliale Morphologie, häufig als Modell für epitheliale Zellen genutzt, sind polarisiert mit apikaler und basolateraler Seite, Modell zur Studie intrazellulärer Sortierungsund Transportvorgänge
SH-SY5Y
Human neuroblastoma Subklon der Zelllinie SK-N-SH aus einer Knochmarksbiopsie einer Patientin mit metasierendem Neuroblastoma
Modell für neuronale Differenzierung (z. B. mit Retinolsäure oder Phorbolester) Besitzt Dopamine-beta-Hydroxylase-Aktivität und kann Glutamat in den Neurotransmitter GABA überführen Verlust neuronaler Eigenschaften mit hoher Passagenzahl
PC12
Rat pheochromocytoma chromaffin cell
stammt von einem neuroendokrinen Nebennierentumor ab, neuronale Eigenschaften/Differenzierung kann durch NGF (nerve growth factor) induziert werden
Neuro2a oder N2a
Mouse neuroblastoma
Modell für neuronale Differenzierung (z. B. mit Retinolsäure oder Phorbolester)
NG108-15
Mouse neuroblastoma x Rat glioma hybrid
Modell für neuronale Differenzierung (Differenzierung z. B. durch Wachstum auf Laminin)
Nervenzellen sind komplexe polarisierte Zellen. Bei einigen Fragestellungen kann es hilfreich sein, auf polarisierte Zellen, die weniger komplex sind, zurückzugreifen. MDCK-Zellen sind polarisierte Zellen und eignen sich sehr gut zur Untersuchung von intrazellulären Transportvorgängen. Nutzt man MDCK-Zellen als Modell, so kann die basale Membran von MDCK-Zellen mit dem Zellkörper und den Dendriten und die apikale Membran mit dem Axon und den Nervenendigungen verglichen werden. PC12-Zellen sind neuroendokrine Zellen, die sich ebenfalls sehr gut für die
Untersuchung von Transportvorgängen und der Neurotransmitterfreisetzung eignen. Die meisten Neuroblastomazellen weisen beim Kultivieren keine ausgeprägten Nervenfortsätze auf, können aber durch Behandlung mit unterschiedlichen Faktoren differenzieren und Neurite ausbilden. Diese können aber nicht eindeutig in Axone und Dendriten unterschieden werden. Das Ausbilden der Fortsätze, die über 100 μM lang werden können, geht aber trotzdem mit einer veränderten Genexpression einher, und je nach Differenzierungsstadium können verschiedene neuronale Markerproteine nach-
75
4.2 • Zellkulturtypen
gewiesen werden, wie z. B. das growth associated protein of 43 kDa (GAP43). Induziert werden kann die Differenzierung der unterschiedlichen Neuroblastomazellen durch Verwendung verschiedener Protokolle, die für die jeweilige Zelllinie spezifisch sind. Appliziert werden entweder Wachstumsfaktoren (z. B. NGF), Retinolsäure oder Phorbolester. Bei NG108-15-Zellen kann Wachstum auf Laminin eine Differenzierung induzieren. Für verschiedene Neuroblastomazellen sind Protokolle etabliert, an die man sich zunächst am besten hält. Zu beachten ist, dass die differenzierten Zelllinien in der Regel einem bestimmten Neuronentyp entsprechen, z. B. PC12-Zellen differenzieren zu sympathischen Neuronen, außerdem bilden kultivierte differenzierte Zellen nicht unbedingt synaptischen Verbindungen untereinander aus.
4.2.3
4
A
B
Arbeiten mit Zelllinien
Die Zelllinien, mit denen der neurowissenschaftlich forschende Experimentator arbeitet, sind in der Regel adhärent. Sie wachsen also auf einem Substrat. Im Gegensatz dazu wachsen Suspensionszellen in Suspension und schwimmen im Medium. Für die meisten Zelllinien sind die Beschichtungen der Zellkulturgefäße ausreichend und sie heften sich auf den Oberflächen an. Die Zellen werden entweder in Zellkulturflaschen oder Schalen kultiviert und das Kulturmedium in regelmäßigen Abständen gewechselt. Dabei wird das alte Medium abgesaugt und durch neues ersetzt. Wie häufig, hängt es von den verwendeten Zellen ab, meist alle 2–3 Tage. Die Zellen teilen sich kontinuierlich und bilden einen dichten Zellrasen. Einige Zelllinien zeigen eine zelldichteabhängige Kontaktinhibition und teilen sich ab einer bestimmten Zelldichte nicht weiter. Andere wachsen sogar übereinander, was unerwünscht ist, da dadurch nicht für alle Zellen eine ausreichende Nährstoffversorgung gewährleistet ist. Ist eine hohe Zelldichte erreicht, so werden die Zellen passagiert (dies wird auch als splitten oder spalten bezeichnet). Dabei werden die Zellen von der Unterlage gelöst. Dies erfolgt abhängig vom Zelltyp enzymatisch durch eine Trypsinbehandlung (Trypsinieren) oder mechanisch durch Abklopfen
. Abb. 4.3 Kultivierte Zelllinien. (A) HEK-293 Zellen (B) SH-SY5Y Zellen, jeweils 100-fache Vergrößerung (Mit freundlicher Genehmigung von J. J. Gutzmann, Hamburg)
der Zellen. Beim Trypsinieren werden die Zellen zunächst mit sterilem PBS gewaschen und dann mit einer Trypsinlösung bei 37°C inkubiert. Die Inkubationszeit beträgt meist nur wenige Minuten. Das Ablösen der Zellen ist unter dem Mikroskop sichtbar, egal welche Morphologie die Zellen zuvor besaßen, anschließend sind sie kugelrund. Durch die Zugabe serumhaltigen Mediums wird die Reaktion abgestoppt. Die Serumproteine fangen die restliche Enzymaktivität ab. Dann werden die Zellen pelletiert (3–5 Minuten 300–500 g), das Pellet in Medium resuspendiert und der gewünschte Anteil der Suspension in ein entsprechendes Zellkulturgefäß überführt. Da viele Zellen nicht sehr stark adhärieren, können diese Zelllinien mechanisch abgelöst werden. Dazu wird mit dem Zellkulturgefäß sachte an eine Tischkante geklopft (nicht zu stark, das Plastik des Zellkulturgefäßes kann durchaus kaputt gehen oder das Medium überschwappen).
76
4
Kapitel 4 • Zelluläre Neurobiologie
Für einige Experimente, wenn z. B. sehr stark adhärierende Zellen nicht enzymatisch abgelöst werden sollen, kann auch ein Zellkulturschaber verwendet werden. Dies ist ein Stab mit einem beweglichen Kopf, an dessen Ende eine Gummilamelle sitzt. Mit diesem Gummi werden die Zellen »abgeschabt«. Dauerhaft gelagert werden Zelllinien im flüssigen Stickstoff. Eingefroren werden Zellen in einem Gemisch aus Kulturmedium, FCS und DMSO (Dimethylsulfoxid). Es gibt verschiedene Rezepturen, wichtig ist der DMSO-Anteil, dieser sollte bei 10 % liegen. DMSO ist zwar toxisch für die Zellen, wirkt aber beim Einfrieren als Gefrierschutzmittel, das die Bildung von Kristallen verhindern soll. Zum Einfrieren werden die Zellen wie zum Passagieren geerntet, z. B. trypsiniert, pelletiert und in Einfriermedium resuspendiert. Dann werden sie langsam tiefgekühlt. Es gibt hierfür spezielle Cryoröhrchen, die einen Schraubverschluss haben. Diese gibt es in unterschiedlichen Größen und diese sollten nur bis zum markierten Eichstrich gefüllt werden. Die Zellen werden langsam eingefroren. Hierfür gibt es verschiedene Verfahren, ja sogar Geräte, die die Zellen mit einer Kühlgeschwindigkeit von 1°C pro Minute herunterkühlen. In den meisten Laboren steht solch ein Gerät aber nicht zur Verfügung und die Experimentatoren behelfen sich mit dem –80°C-Schrank, in den die Zellen für ein paar Tage gestellt werden. Manche stellen die Zellen in einer Styroporkiste in den–80°C-Schrank. Dies soll ein langsames Abkühlen gewährleisten. Manch ein kühner Experimentator hat aber auch schon Zellen direkt in den flüssigen Stickstoff überführt und die Zellen waren auch nach dem Auftauen noch vital. Das Auftauen sollte im Gegensatz zum Einfrieren zügig durchgeführt werden. Das Cryoröhrchen am besten in Hand kurz anwärmen, dann durch Medienzugabe auftauen, abzentrifugieren, um das DMSO abzutrennen, Zellen resuspendieren und aussähen. Wo bekomme ich Zelllinien her? Eine Möglichkeit besteht darin, wie bei allen biologischen Materialien, andere Experimentatoren zu fragen, ob diese Ihnen eine bestimmte Zelllinie zur Verfügung stellen. Gerade wenn Ihre finanziellen Möglichkeiten begrenzt sind, kann dies die Möglichkeit der Wahl sein. Aber es ist Vorsicht geboten, denn die
Gefahr, sich so Mycoplasmen in die Zellkultur zu holen, ist groß. Die andere Möglichkeit kostet Geld. Entweder Sie kaufen bei einer Firma ein oder bei einer Non-Profit-Organisation. Von den letzteren gibt es unterschiedliche, es gibt eine deutsche (DSMZ), eine europäische (ECACC) und eine amerikanische (ATCC) Sammlung von Zelllinien. Alle versenden gegen Gebühr Zellen. Nicht alle Zelllinien sind in jeder Sammlung vertreten, auch sind die Preise manchmal sehr unterschiedlich. Firmen bieten häufig spezialisierte Zellen an, die für spezifische Produkte, z. B. zur Virenproduktion mit den Komponenten der gleichen Firma, optimiert sind.
4.2.4
Herstellung von primären Zellkulturen
Für die Herstellung von primären Zellkulturen werden neben Mäusen auch Ratten und Hühner genutzt. Es hängt von der Fragestellung ab, welche Spezies ausgewählt und welches Hirnareal zu welchem Zeitpunkt kultiviert werden soll. Prinzipiell kann sämtliches embryonale (E) und frühe postnatale (P) neuronale Gewebe genutzt werden. Allerdings sind die Phasen der Zellproliferation, Migration und Differenzierung von Zellen in allen Gehirnbereichen unterschiedlich. Einige Bereiche wie das Cerebellum entwickeln sich beispielsweise relativ spät und verschiedene Zellen proliferieren und wandern hier noch längere Zeit nach der Geburt. Sollen Neurone kultiviert werden, wählt man in der Regel eher embryonale Stadien, da postnatale stark differenzierte Neurone die Aufarbeitungsprozedur nicht unbedingt überstehen. Postnatale Gliazellen würden dies allerdings tun. Es können aber auch mit modifizierten Aufarbeitungstechniken erfolgreich Neurone aus adultem Gehirngewebe kultiviert werden. Neben dem Entwicklungszeitpunkt und der Hirnregion spielt die Dichte, in der die Zellen kultiviert werden sollen, eine Rolle. Durch verbesserte mikroskopische Verfahren wird die primäre neuronale Zellkultur in jüngster Zeit häufig für die subzelluläre Lokalisation und für Studien des Protein-Traffickings benutzt. Für solche Experimente sollten die Kulturen nicht zu dicht sein. Ist die Kultivierung primärer Zellen in Ihrem
4.2 • Zellkulturtypen
Labor etabliert, so sollten Sie den etablierten Protokollen unbedingt folgen. Muss der Experimentator eine Primärkultur erst etablieren und optimieren, so braucht er viel Geduld, denn dies kann durchaus mehrere Monate dauern. Primär kultivierte Neuronen sind empfindlich, werden Kleinigkeiten in der Kultivierung verändert, kann dies fatale Folgen haben. Auch wenn die primäre Kultivierung etabliert ist, gibt es immer wieder Kulturen, die einfach absterben. Die Kultur hippocampaler Neurone ist seit ca. 20 Jahren etabliert und wird vielfach genutzt. Ein Grund für die Beleibtheit ist, dass der Hippocampus auch im embryonalen Stadium morphologisch abgegrenzt und relativ leicht zu präparieren ist und dass die Organisation der Nervenzelltypen im Vergleich zu anderen Gehirnbereichen eher einfach ist. Weiterhin sind aufgrund der Bedeutung des Hippocampus für Lern- und Gedächtnisprozesse die Neurone in verschiedenen anderen Modellen gut beschrieben. Der Hippocampus einer Maus besteht am Embryonaltag 17 (E17) zu ungefähr 90 Prozent aus Pyramidenneuronen. Kulturen werden normalerweise an den späten embryonalen Entwicklungsstadien (Mäuse werfen nach E18) hergestellt, weil die Generierung der Pyramidenneuronen zu diesem Zeitpunkt abgeschlossen ist, aber die Proliferation der Körnerzellen des Gyrus dentatus erst beginnt. Somit erhält man einen relativ einheitlichen Neuronentyp. Außerdem enthält der Hippocampus zu diesem Zeitpunkt kaum Gliazellen. Es gibt aber auch Protokolle, die auf der Verwendung des adulten Hippocampus basieren. Idealerweise kultiviert man primäre Zellen in einem chemisch definierten Medium, dem je nach Zelltyp Wachstumsfaktoren zugegeben werden. Solche Medien sind aber insbesondere für hippocampale Kulturen nur bedingt etabliert. Deshalb werden die Neurone häufig gemeinsam mit Gliazellen kultiviert, die parakrin trophische Substanzen abgeben. Im Folgenden werden wir diesen Kultivierungstyp beschreiben. Trotzdem weisen wir darauf hin, dass es durchaus Medien gibt, die das Überleben von Neuronen fördern und gleichzeitig die Proliferation von Gliazellen hemmen. So kultivierte Nervenzellen können für lange Zeit in Kultur ohne Glia-Support überleben. Insbesondere die Arbeiten von G.J. Brewer, in denen das Serum-freie
77
4
B27/Neurobasal-Medium mit spezifischen Zusätzen verwendet wird, zeigen, dass hippocampale Neuronen auch in Abwesenheit von Glia kultiviert werden können. Grundsätzlich können Nerven- und Gliazellen gemeinsam kultiviert werden, dies bezeichnet man als gemischte Kulturen. So können Neuronen in hoher Zellzahl gemeinsam mit Gliazellen in serumhaltigem Medium kultiviert werden. Durch Behandlung mit Mitosehemmern wird die Proliferation der Glia unterdrückt, damit die Glia nicht die Neuronen überwächst. An solchen Kulturen können verschiedene physiologische Studien vollzogen werden, aber sie eignen sich z. B. nicht für Imaging-Analysen. Eine weitere Möglichkeit, Neurone und Glia gemischt zu kultivieren, besteht in der gemeinsamen Kultur auf getrennten Oberflächen. Wir beschreiben ein Verfahren, welches auf Protokollen von G. Banker beruht. Dabei werden dissoziierte hippocampale Neuronen auf Poly-L-Lysin-beschichteten Deckgläschen ausgesät, dann das Deckgläschen mit den adhärenten Neuronen in eine Schale mit kultivierten Astrozyten überführt (. Abb. 4.4). Die Astroglia sezerniert diverse Faktoren und liefert so ein konditioniertes Medium, welches ein optimales Wachstum der Neuronen ermöglicht. Man muss die Neuronenkultur nicht in eine mit Glia bewachsene Kulturschale geben. Es besteht auch die Möglichkeit, das Medium von der Glia abzunehmen und zu der Neuronenkultur zu geben. Dies kann in einigen Fällen sinnvoll sein. Die eigentliche Kultur bedarf einer ausführlichen Vorbereitung. Diese muss zeitlich auf die Verfügbarkeit einer trächtigen Maus oder Ratte abgestimmt sein. Es müssen silikonbeschichtete oder feuergeglättete Pasteurpipetten verwendet werden, diese werden zum Vereinzeln der Zellen benötigt. Die Wahl der Deckgläschen kann kritisch sein, manche Experimentatoren schwören auf bestimmte Produkte einer bestimmten Firma. Seien Sie beim Wechseln des Herstellers auf böse Überraschungen gefasst. Auf einigen Deckgläschen wachsen die Zellen zunächst gut an, sterben aber oder lösen sich bereits nach einigen Tagen. Die Deckgläschen müssen vorbereitet werden, in Regel werden diese mit HCl, Aceton, schließlich mit Ethanol gewaschen und dann autoklaviert. Diese
78
Kapitel 4 • Zelluläre Neurobiologie
Präparation Glia-Kultur
Vorbereitung Deckgläschen
P1 Gehirn
Reinigung der Deckgläschen
4 Dissoziation der Zellen Kultivierung
Aussaht für Neuronen Kultur
Wachstum bis >40% dann Serum freies Medium
Paraffinkügelchen aufsetzen
Präparation hippocampaler Kultur E17 Gehirn
Poly-L-Lysin Behandlung Präparation des Hippocampus Dissoziation der Zellen
Mediumzugabe
Plattieren auf Deckgläschen
Deckgläschen mit Paraffin-kügelchen und Neuronen nach unten zur Gliakultur geben . Abb. 4.4 Arbeitsschritte zur Präparation primärer hippocampaler Kulturen. (verändert nach Kaech und Banker 2006)
79
4.2 • Zellkulturtypen
Deckgläschen
Paraffinkügelchen
Neuron
gereinigten Deckgläschen werden mit Poly-L-Lysin beschichtet und mit Paraffinkügelchen bestückt. Paraffin wird dafür erwärmt und auf das Deckgläschen werden 3–4 Kügelchen geträufelt. Die Temperatur des Paraffins ist kritisch und sollte bei ca. 60°C liegen, wird es zu kalt, klappt das Träufeln nicht mehr. Die Paraffinkügelchen dienen später als Abstandshalter (. Abb. 4.5). Weiterhin müssen diverse Medien vorbereitet und zum Teil steril filtriert werden. Die Astroglia kann aus unterschiedlichen Geweben stammen. Häufig werden Cerebrale cortices von E16-17-Mäusen verwendet. Es können ebenfalls Cortices von Neugeborenen verwendet werden. Es gibt auch Experimentatoren, die grundsätzlich Glia neugeborener Ratten verwenden, da diese eine hohe Ausbeute verspricht. Ratten-Glia kann auch zur Kultivierung von Mausneuronen verwendet werden. Eine Präparation resultiert in der Regel in einer ausreichenden Anzahl von Gliazellen, überschüssige Glia kann in flüssigem Stickstoff eingefroren werden bis diese benötigt werden. Gliazellen werden im serumhaltigen Medium propagiert. Man kann Pferde- oder Rinderserum verwenden, es sollte aber auf jeden Fall getestet werden, ob die Zellen in dem verwendeten Serum gut und lange wachsen. Weiterhin gilt es zu beachten, bei der Isolierung von Gewebe aus Tieren möglichst steril zu arbeiten. Sterilität ist bei diesem Schritt nicht zu erreichen, aber der Schritt, Gewebe aus einem Tier zu isolieren, kann bereits zur bakteriellen Kontamination führen und ihre kompletten Kulturen ruinieren. Verwenden Sie deshalb nur autoklaviertes Präparationsbesteck, das so weit möglich nur diesem Zweck dient. Reinigen Sie alle Flächen mit 70 % Ethanol. Hippocampale Neurone werden von Mausembryonen an E17 (oder von Ratten an E18) isoliert. Die Hippocampi werden zunächst unter dem Mi-
Glia
4
. Abb. 4.5 Co-Kultivierung von Neuronen und Glia auf getrennten Wachstumsflächen. Deckgläschen werden mit Neuronen nach unten auf eine einschichtige Gliakultur gesetzt. Paraffinkügelchen sorgen für einen Abstand zwischen den Zelltypen
kroskop oder Binokular präpariert und dann dissoziiert. Dazu wird das Gewebe mit Trypsin oder Papain und Trituration (mehrmaliges auf und ab Pipettieren in einer siliconbeschichteten oder feuergeglätteten Pasteurpipette) aufgeschlossen. Dann werden die Neurone gezählt und auf die vorbereiteten Deckgläschen gegeben. Nach ca. 3 Stunden, wenn die Neurone adhäriert sind, werden die Deckgläschen kopfüber zur Gliakultur gegeben und in dem von der Glia konditioniertem Medium kultiviert. Nach drei Tagen wird der Mitosehemmer AraC (1-beta-D-arabinofuranosyl cytosin) dem Medium zugegeben, um die Proliferation der Glia zu reduzieren. Das Medium wird anschließend nur zu einem Drittel durch frisches Medium ersetzt. Die Neurone bilden in Kultur Axone und Dendriten aus und können mehrere Wochen so kultiviert werden. Es ist üblich, die Tage in Kultur zu zählen und man gibt diese als days in vitro (DIV) an (. Abb. 4.6). Ein weiteres Beispiel für eine gemischte neuronale Primärkultur ist die Kultur von Zellen des Cerebellums. Die Zelltypen des Cerebellums sind die sehr widerstandsfähigen Körnerzellen oder Granulärzellen (etwa 90 Prozent der Neurone), die Purkinjezellen (etwa 10 Prozent der Neurone), ein geringer Anteil von Interneuronen, sowie die Glia bestehend aus Astrocyten und Oligodendrocyten. Sollen Purkinjezellen kultiviert werden, wird das Cerebellum am Tag E18 präpariert. Für Körnerzellen gelten postnatale Stadien wie P6–8 als optimal. Kultiviert man einfach dissoziiertes Cerebellum, so finden sich zu Beginn vorwiegend Neurone in der Kultur. Diese sterben allerdings nach sechs bis neun Tagen ab und werden von proliferierender Astroglia überwachsen. So kann man sehr leicht eine Astrocytenkultur herstellen. Durch eine frühzeitige Behandlung der Kultur mit Mitosehemmern kann das Astrocytenwachstum unterbunden werden.
80
Kapitel 4 • Zelluläre Neurobiologie
A
4
B
. Abb. 4.6 Primär kultivierte Zellen. (A) Primär kultivierte hippocapale Neuronen (DIV 13) (B) Primär kultivierte Astroglia (mit freundlicher Genehmigung von J. Gruhlich, Hamburg)
Es gibt detailierte Protokolle zur Isolation einzelner Zelltypen des Cerebellums. Sollen z. B. Körnerzellen isoliert werden, so wird ein Cerebellum an P6–8 präpariert. Außer den Körnerzellen sind alle anderen Neuronentypen des Cerebellums bereits postmitotisch, d. h. sie teilen sich nicht mehr. Das Gewebe wird enzymatisch und durch Trituration aufgeschlossen und die Zellsuspension in einem Percoll-Dichte-Gradienten durch Dichtegradientenzentrifugation aufgetrennt. Zwei Fraktionen können so gewonnen werden, die obere enthält Purkinjezellen, Interneurone und Glia, die untere die angereicherten Körnerzellen. Die Fraktionen sind in den seltensten Fällen rein. Da Glia aber schneller adhäriert als Neurone kann die Körnerzellfraktion »vorplattiert« werden. Die Fraktion
wird auf eine Zellkulturschale mit wenig Poly-LLysin gegeben und der Überstand nach ca. 30 Minuten auf die tatsächliche Kulturfläche gegeben. Während sich die Glia im ersten Schritt absetzt, adhärieren die Körnerzellen erst im zweiten. Um eine höhere Reinheit zu erreichen, kann der Schritt auch wiederholt werden. In der Vergangenheit wurde Glia vor allem als Stützmaterial des Gehirns angesehen. Diese Sichtweise hat sich inzwischen geändert und die Bedeutung der Glia, die immerhin einen Großteil des Nervensystems ausmacht, wird vielfach untersucht. Wie bereits angedeutet, kann man auch Gliazellen kultivieren. Eine gemischte Kultur kann Ausgangspunkt zur Kultivierung unterschiedlicher Gliazelltypen sein. Häufig wird der cerebrale Cortex der Maus an P2 genutzt, die Neurone sind schon so weit differenziert, dass diese durch die Aufarbeitung so sehr geschädigt werden, dass sie die Kultivierung nur kurze Zeit überstehen. Sind die Neurone abgestorben, werden durch mechanisches Rütteln Mikrogliazellen, die nicht gut anhaften, entfernt oder separat kultiviert, wenn dies das Ziel ist. Bei der weiteren Kultivierung bildet sich ein Rasen von Typ-I Astrocyten auf diesen O-2A-Vorläuferzellen. Letztere lassen sich mechanisch durch Rütteln wiederum ablösen, abtrennen und kultivieren. Erfolgt die Kultivierung im serumhaltigen Medium, so entstehen aus den O-2A-Vorläufern Typ-II-Astrocyten, erfolgt die Kultivierung in serumfreiem Medium, so entstehen Oligodendrocyten (. Abb. 4.1). Die Vermarktung, wie sie für diverse Techniken bereits bekannt ist, erfolgt auch für die primäre Zellkultur. Erstaunlicherweise kann man Gehirngewebe und sogar primär kultivierte Neurone von Ratten und Mäusen bereits kaufen (http://www. brainbitsllc.com/). kUnterscheidung von Neuron und Glia
Ein wichtiger Schritt zum Kennenlernen seiner Kulturen ist es, zwischen Neuronen und Gliazellen unterscheiden zu können. Nervenzellen sind eigentlich klar zu identifizieren, wenn sie Axone und Dendriten ausgebildet haben (. Abb. 4.6). Aber gerade, wenn eine Kultur noch nicht differenziert ist, am Ausdifferenzieren ist oder zu viele Zellen zu dicht beieinander liegen, ist die Zuordnung schwer. Es gibt verschiedene zelltypspezifische
81
4.3 • Transfektion von Zellen
Markerproteine, die man nachweisen und so einen Zelltyp klassifizieren kann (. Tab. 4.2). Ein idealer Marker sollte stark in einem einzigen Zelltyp exprimiert sein. Leider wird die Idealsituation kaum erreicht und viele Marker, die zunächst als neurospezifisch galten, wurden inzwischen ebenfalls in bestimmten Gliazellen gefunden. Ein weiteres Problem ist der Entwicklungszustand. Während der Differenzierung verändert sich die Expression von Markerproteinen, die einen werden an- und die anderen abgeschaltet. Will man ganz sicher gehen, so sollte man versuchen mehrere Marker nachzuweisen. Eine geeignete Methode ist z. B. die Immuncytochemie, die weiter unten beschrieben wird.
4.2.5
Stammzellen
Stammzellen sind pluripotente Zellen, aus denen jeder Zelltyp (z. B. Nerven-, Muskelzellen) hervorgehen kann und die unbegrenzt teilbar sind. Letztere Eigenschaft teilen sie mit immortalisierten Zellen, andererseits können sie auch mit primär kultivierten Zellen verglichen werden, da sie direkt aus einem lebenden Organismus hervorgehen. Man klassifiziert Stammzellen nach ihrem Ursprung in embryonale oder adulte Stammzellen sowie nach dem Gewebe aus dem sie stammen. Nahezu das gesamte Nervengewebe formiert und differenziert sich während der Ontogenese. Neurogenese, die Entstehung neuer Nervenzellen, konnte aber auch im adulten Gehirn beobachtet werden. Multipotente neuronale Stammzellen zeichnen sich dadurch aus, dass sie aus sich selbst hervorgehen können und in alle neuronalen Zelltypen differenzieren können (. Abb. 4.1). Im adulten Gehirn tritt Neurogenese in zwei Hirnarealen, dem Hippocampus und der subventriculären Zone (SVZ) auf. Entsprechend werden adulte neuronale Stammzellen typischerweise aus dem Hippocampus oder der SVZ kultiviert. Zur Kultivierung neuronaler Stammzellen werden, nachdem die Gehirnareale isoliert sind, diese dissoziiert und zentrifugiert. Die Stammzellen können dann in speziellem Medium kultiviert und passagiert werden. Neuronale Stammzellen bilden Neurosphären aus, einen nicht-adhärenten Cluster von Zellen. Neben neuronalen Stammzellen können auch proliferie-
4
rende neuronale Vorläuferzellen Neurosphären bilden. Im Gegensatz zu Stammzellen besitzen Vorläuferzellen nicht die Fähigkeit aus sich selbst zu replizieren. Dies nutzt man aus, um die morphologisch ähnlichen Neurosphären zu unterscheiden. Zellen aus den Neurosphären werden subkultiviert. Stammzellen bilden erneut Neurosphären aus, so genannte sekundäre Neurosphären. Im Gegensatz dazu tun die Vorläufer Zellen dies nicht. Entfernt man bestimmte Faktoren (Wachstumsfaktoren wie EGF oder FGF) aus dem Medium, so können die neuronalen Stammzellen in Neurone, Astrocyten und Oligodendrocyten differenziert werden. Die Kultur neuronaler Stammzellen kann zur Erforschung entwicklungsneurobiologischer Fragestellungen genutzt werden. Durch verschiedene Strategien kann man bereits differenzierte Zellen auf die Stufe von Stammzellen zurückführen. Solche pluripotenten Zellen werden als induced pluripotent stem (iPS) cells bezeichnet. Meist werden durch virale Transfektionen spezifische Transkriptionsfaktoren in differenzierte Zellen eingeschleust, um iPS-Zellen zu erzeugen. Diese reprogrammierten Zellen exprimieren dann für Stammzellen spezifische Markergene.
4.3
Transfektion von Zellen
Das Einbringen von DNA in kultivierte eukaryotische Zellen bezeichnet man als Transfektion. Kombiniert man also die molekularbiologischen und zellbiologischen Techniken und stellt spezifische eukaryotische Expressionsvektoren her, so kann man rekombinant in der Zellkultur Gene exprimieren. Die Expression kann der Anreicherung und Reinigung eines Proteins dienen. Es können auch mehrere Proteine exprimiert und immunpräzipitiert werden, um so Protein-Protein-Interaktionen nachzuweisen. Exprimierte Proteine können schließlich weitergehend in der Zellkultur charakterisiert werden, dies kann elektrophysiologische Experimente beinhalten. Des Weiteren können Signaltransduktionswege, Transportvorgänge, Prozessierungen usw. in Zellkultur untersucht werden. Es gibt unterschiedliche Möglichkeiten DNAVektoren in Zellen einzubringen. Welches die geeignetste Methode ist hängt von der verwendeten
Kapitel 4 • Zelluläre Neurobiologie
82
. Tab. 4.2
4
Marker zur Unterscheidung von verschiedenen Zelltypen des Nervensystems
Marker
Zelltyp
Lokalisation
Neurofilament-Proteine (NF 160, NF200)
Neurone
Cytoskelett-Proteine
Klasse III beta-Tubulin (Neuronen-spez. Isoform von betaTubulin)
Neurone
Cytoskelett-Protein
Neuronen-spez. Enolase
Neurone
cytoplasmatisches Protein
GFAP (Glial Fibrillary Acidic Protein)
Astocyten (Typ I und II)
cytoplasmatisches Protein
A2B5
Neurone, O-2A Vorläufer und Typ-II Astrocyten
Zelloberflächen-Gangliosid
Galactocerobrosid (GalC)
Oligodendrocyten
Zelloberflächen-Glykolipid
Myelin-assoziiertes Glykoprotein (MAG)
Oligodendrocyten
Zelloberflächen-Glykoprotein
Vimentin
Astrocyten und Fibroblasten
Cytoskelett-Protein
OX42
Mikroglia
Zelloberflächen-Protein
O4
Oligodendrocyten und ihre Vorläufer
Antikörper gegen ein bisher nicht identifiziertes Zelloberflächen Glykoprotein
Zellkultur ab. Handelt es sich um eine primäre Kultur oder um eine Zelllinie, und wenn ja um welche. Man kann drei Strategien zum Einbringen von DNA unterscheiden: physikalisch, chemisch und viral. Allen Systemen ist gemeinsam, dass sie mehr oder weniger toxisch oder zellschädigend sind und die Zellen eigentlich keine fremde DNA aufnehmen wollen.
4.3.1
Physikalischer Gentransfer
Beim physikalischen Gentransfer handelt es sich in der Regel um die Mikroinjektion, die Elektroporation oder eine ballistische Technik. Bei der Mikroinjektion wird mittels einer dünnen Glaskapillare oder -nadel DNA in Zellen eingebracht. Die Glaskapillare ist für gewöhnlich sehr dünn und nachdem diese aus der Zelle gezogen ist, verschließt sich die Membran wieder. Mikroinjektionen werden unter einem Mikroskop durchgeführt. Zum präzisen Steuern der Glaskapillare wird ein Mikromanipulator benutzt und man braucht sehr viel Übung, um die Kapillare richtig zu setzen. Dadurch, dass jeweils nur eine Zelle auf einmal injiziert wird, handelt es sich um eine sehr arbeitsintensive Methode,
die sich nicht zum Hochdurchsatz eignet. Man kann die Methode auch zum Injizieren von RNA, Antikörpern oder Proteinen nutzen. Für Nervenzellen wird die Mikroinjektion selten benutzt, obwohl es erfolgsverspechende Protokolle gibt (Lappe-Siefke et al. 2008). Dem neurowissenschaftlich arbeitenden Experimentator begegnet sie aber beispielsweise ebenfalls bei der Herstellung transgener Mäuse, denn es ist die Methode der Wahl zur PronucleusInjektion (7 Kap. 8, Transgene Tiermodelle). Bei der Elektroporation wird durch einen elektrischen Puls das Membranpotenzial der Zelle kurzfristig gestört und die Membran wird porös. Die negativ geladene DNA wandert im elektrischen Feld und durch die kurzfristig entstehenden Poren in der Zellmembran gelangt die DNA in die Zelle. Es gibt eine Modifikation der Methode, die Nucleofection. Bei dem von der Firma Amaxa entwickelten Verfahren wird die Elektroporation mit zelltypspezifischen Lösungen kombiniert, die für eine verbesserte Aufnahme der DNA sorgen. Man kann nicht nur Zellen elektroporieren. Bei der ex vivoElektroporation wird ein isoliertes Gehirn einem elektrischen Feld ausgesetzt, anschließend werden Schnitte angefertigt und diese dann kultiviert.
83
4.3 • Transfektion von Zellen
Die dritte physikalische Transfektionsmethode ist der Partikel-Vermittelte-Gentransfer. Hierbei wird DNA zunächst auf Schwermetall- oder Goldpartikel aufgebracht. Das geht relativ einfach, denn die negativ geladene DNA klebt an den Metallpartikeln. Die Partikel werden dann in eine Gene-Gun geladen. Dies ist ein Schaft, durch den die Partikel mittels eines Gasdrucks und einer Plastikpatrone geschossen werden. Am Ende des Schafts befindet sich ein Filter, der die Patrone abblockt, aber die mit DNA beladenen Partikel durchlässt. Diese werden so mit großer Wucht auf biologisches Material, Zellen oder Gewebe, gefeuert, penetrieren die Zellmembranen und dadurch gelangt die DNA in die Zellen. Das Problem dieser Methode ist die Wucht, mit der die Partikel auf Zellen treffen. So kann DNA prinzipiell auch in tiefere Gewebeschichten eindringen, aber die Wucht führt immer zur Schädigung von Zellen und Gewebe. Der Nachteil aller physikalischen Methoden liegt in der Kostenintensivität, Sie müssen Zugang zu entsprechenden Geräten oder Apparaturen haben, deren Anschaffung sich in der Regel nur lohnt, wenn Sie diese häufig nutzen.
4.3.2
Chemischer Gentransfer
Es gibt verschiedene chemische Methoden zur Transfektion, die ohne zusätzliche Geräte auskommen. Das klassische chemische Verfahren ist die Kalziumphosphat-Methode. Die DNA wird mit Kalziumchlorid gemischt, anschließend gibt man eine zweite Lösung hinzu (HEPES-Puffer), die Phosphat enthält. Dann fällt Kalziumphosphat als Präzipitat aus. DNA, welche ja Phosphatgruppen besitzt, fällt ebenfalls aus. Zellen nehmen das Präzipitat auf, wie genau ist unklar, wahrscheinlich endocytisch. Obwohl diese Methode bereits 1973 von Graham und Ebb beschrieben wurde und seitdem etliche andere Methoden entwickelt wurden, ist sie immer noch bei vielen Experimentatoren beliebt und wird für nahezu alle Zelltypen eingesetzt. Weitere chemische Transfektionsmethoden nutzen kationische Polymere oder kationische Lipide. Kationische Lipide bilden in wässrigen Lösungen eine Lipiddoppelschicht aus, die man Liposomen nennt. Diese können mit DNA Komplexe
4
bilden, die von Zellen endocytisch aufgenommen werden. Die Lipide werden z. T. in die Membranen der Zelle integriert, lösen wahrscheinlich die Endosomen auf und geben so die DNA frei. Kationische Polymere, wie Polyethylimin, werden ähnlich eingesetzt. Alle chemischen Transfektionsmethoden sind einfach durchzuführen und lassen sich für nahezu alle Zelltypen standardisieren. Es gibt diverse kommerziell erhältliche auf Liposomen basierende Transfektions-Kits, die zum Teil auch für primär kultivierte Neuronen geeignet sind.
4.3.3
Viraler Gentransfer
Nutzt man virale Systeme, um DNA in Zellen einzuschleusen, so bezeichnet man dies als Transduktion oder Infektion. Manche Experimentatoren bezeichnen dies auch als virale Transfektion. Da die Transfektion primärer neuronaler Kulturen mit herkömmlichen Transfektionsmethoden meist schwierig ist und die Transfektionseffizienz oft sehr gering ausfällt, bedient man sich in der Grundlagenforschung seit einiger Zeit viraler Vektoren, um DNA in primäre neuronale Zellen einzuschleusen. Neben der Grundlagenforschung werden virale Vektoren auch in der Gentherapie eingesetzt. Dort werden sie verwendet, um genetisches Material zu therapeutischen Zwecken in vivo in Zielzellen des lebenden Organismus zu übertragen. Generell leiten sich virale Vektoren von verschiedenen Virentypen ab und besitzen je nach Ursprungsvirus unterschiedliche Eigenschaften. Sie unterscheiden sich zum Beispiel in der Menge an DNA, die sie übertragen können, in der Größe der gebildeten Virionen (infektiöse Viruspartikel, die sich außerhalb einer Zelle befinden) und in der Schwierigkeit, die Virionen zu produzieren und diese zu reinigen (. Tab. 4.3). Allen viralen Vektoren ist gemein, dass sie über genetische Manipulationen replikationsdefizient gemacht wurden, d. h., dass sie nach Intergration ins Wirtsgenom keine neuen Viruspartikel mehr bilden können. Für die Herstellung der Virionen werden modifizierte Virusvektoren, die das Zielgen tragen, zusammen mit Helferplasmiden, die die genetische Information für die Verpackung und Integration der Virus-DNA codieren, transfiziert (. Abb. 4.7). Daraufhin werden die gebildeten
84
Kapitel 4 • Zelluläre Neurobiologie
. Tab. 4.3
4
Übersicht viraler Vektoren
Vektor
Toxizität
Dauer der Expression
Kapazität in kb
Postmitotische Zellen
Virion Größe
Schwierigkeit der Herstellung
rAAV
Keine
>1 Jahr
≤5
Ja
20 nm
mittel
Adenoviral
Gering
>1 Jahr
≤ 37
Ja
80 nm
schwierig
Lentiviral
Keine
Dauerhaft
≤9
Ja
100 nm
leicht
HSV-1
Gering
Monate
≤ 150
Ja
150 nm
schwierig
[nach Osten 2007)]
. Abb. 4.7 Virusproduktion und Transduktion von Primärneuronen (Erläuterungen siehe Text)
viraler Vektor
Helfervektoren
Aufreinigung Virionen
Transduktion
Transfektion
HEK293T-Zellen
Viren, die entweder an das umgebende Medium abgegeben werden oder an der Membran assoziiert verbleiben, gereinigt. Für die Herstellung der Virionen werden häufig HEK293T-Zellen verwendet. Diese leiten sich von den HEK293-Zellen ab und exprimieren stabil das T-Antigen des SV40, wodurch SV40 origin of replication-tragende Plasmide in höherer Kopienzahl in einer Zelle hergestellt werden können. Allerdings scheint dies nicht der Hauptgrund zu sein, warum manche Virionen am effizientesten in HEK293T-Zellen vermehrt werden können. Vielmehr handelt es sich auch hier, wie bei vielen Dingen in der Wissenschaft, um Erfahrungswerte, die sich aus Beobachtungen ergeben und deren Ursachen nicht in letzter Konsequenz geklärt sind. Für die Produktion adenoviraler Viruspartikel sind HEK293T-Zellen jedoch besonders geeignet, da sie per se bestimmte adenovirale Proteine exprimieren. Am häufigsten werden zurzeit für die Infektion von Neuronen von Retroviren abgeleitete Vektoren genutzt. Retroviren sind RNA-Viren, die als cha-
Primärneurone
rakteristisches Merkmal eine Reverse Transkriptase besitzen, um ihr virales RNA Genom innerhalb der Zelle in eine virale Doppelstrang-DNA umzuschreiben. Diese wird dann stabil in das Genom der Wirtszelle integriert. In der Familie der Retroviren bilden die Lentiviren eine eigene Gattung. Der wohl prominenteste Vertreter dieser Gattung ist der human immunodeficiency virus, besser als HIV bekannt. Lentiviren haben den Vorteil, dass sie sehr einfach zu produzieren sind, eine sehr hohe Transduktionseffizienz besitzen und potenziell Fremd-DNA bis zu einer Größe von 9 kb einschleusen können. Ein Nachteil besteht darin, dass man nicht weiß, an welcher Stelle im Genom die zu übertragende DNA integriert wird, was unter Umständen die normale Transkription von zelleigenen Genen stören kann. Ein weiterer Nachteil besteht darin, dass man mit lentiviralen Vektoren nur in einem zugelassenen Labor der Sicherheitsstufe 2 (S2) arbeiten kann. Dies begründet sich darin, dass »natürliche« Lentiviren pathogen sind und man eine sehr unwahrscheinliche, aber potenziell mög-
4.3 • Transfektion von Zellen
liche Rekombination des ungefährlichen Vektors mit pathogenen Lentiviren und deren Freisetzung auf jeden Fall vermeiden möchte. Neben den Lentiviren werden vermehrt auch rekombinante adeno-assozierte virale (rAAV) Vektoren verwendet. Hier handelt es sich um humane Viren, deren Genom aus linearer einzelsträngiger DNA besteht. AAVs sind so genannte Dependoviren und gehören zur Familie der Parvoviren. Wie der Name schon sagt, benötigen die Dependoviren Helferviren, um sich zu replizieren. Bei den Helferviren handelt es sich meist um Adeno-, oder Herpes Simplex-Viren. rAAVs bieten gegenüber den Lentiviren den Vorteil, dass sie mit einer großen Präferenz im kurzen Arm von Chromsom 19 integrieren und auch in ihrer natürlichen Form nicht pathogen für den Menschen sind, d. h. man kann in einem Labor der Sicherheitsstufe 1 (S1) mit ihnen arbeiten. Aufgrund der sehr geringen Größe der Virionen (20 nm) und der damit einhergehenden guten Gewebediffusion eignen sie sich besonders, um Gene in vivo z. B. in das Gehirn einzuschleusen. Nachteilig sind die geringen Mengen an DNA, die eingeschleust werden können (≤5 kb), die anspruchsvollere Produktion und Reinigung der rAAVs und der episomale (extrachromosomale) Verbleib der Fremd-DNA in der akuten Phase nach Co-Infektion mit Helferviren. Neben diesen beiden am häufigsten angewendeten viralen Vektorsystemen kommen auch von Adeno- und Herpes Simplex-Viren abgeleitete Vektoren zum Einsatz. Diese können zwar größere Mengen an DNA einschleusen, sind jedoch in der Produktion und Reinigung sehr viel schwieriger zu handhaben.
4.3.4
Herstellung stabiler Zelllinien
Die rekombinante Expression kann transient, vorübergehend, oder aber stabil, dauerhaft, sein. Eine dauerhafte Expression wird durch eine Selektion von stabil transfizierten Zellklonen erreicht. Stabil transfizierte Zellklone haben den Vorteil, dass alle Zellen identisch sind und so zu reproduzierbareren Ergebnissen führen. Weiterhin muss nicht immer wieder neu transfiziert werden, wenn ein bestimmtes Konstrukt mehrfach in einer bestimmten Zelllinie benötigt wird.
85
4
Auf dem Vektorplasmid, das zur Transfektion eingesetzt wird, sollte sich ein Resistenzgen befinden und die Zellen nach der Transfektion mit dem entsprechenden Zellgift selektioniert werden. Die meisten Protokolle sehen vor, dass die Zellen sich nach der Transfektion zunächst teilen, damit der Vektor in das zelluläre Genom integrieren kann, und dann mit der Selektion begonnen wird. Dies bedeutet in der Regel, dass die Selektion etwa 48 Stunden nach der Transfektion beginnt. Es gibt verschiedene Selektionsagenzien. Da die Substanzen toxisch für eukaryotische Zellen sind, sollte der Experimentator vorsichtig mit den Stoffen umgehen, denn diese sind auch giftig für ihn. Die meisten sind ebenfalls toxisch für Bakterien und können auch für die Selektion von Bakterien verwendet werden, allerdings sind die Selektionsagenzien in der Regel teurer als herkömmliche Antibiotika. Ein häufig eingesetztes Selektionsagens ist G418 (Gentamycin), ein Aminoglykosid, das die Proteinsynthese inhibiert. Das dazugehörige Resistenzgen ist Neomycin. Das Neomycin-Gen vermittelt eine komplette Kreuzresistenz von Neomycin, Gentamycin und Kanamycin. Letzteres wird zur Selektion von Bakterien eingesetzt. Hygromycin B und Blasticidin S wirken ebenfalls bei Pro- und Eukaryoten und inhibieren auf unterschiedliche Weise die Proteinbiosynthese. Zeocin wirkt auch bei Pround Eukaryoten, interkaliert mit DNA und bewirkt eine Fragmentierung der DNA. Die optimale Konzentration zur Selektion stabil transfizierter Zellen muss für jede Zelllinie empirisch ermittelt werden. Für die gängigen Linien lohnt eine Literaturrecherche, so erhält man Hinweise, wie viel Selektionsagens von anderen eingesetzt wurde. Egal welche Zelllinie und welches Selektionsagens verwendet werden, die Vorgehensweise ist immer ähnlich. Die Zellen werden mit einem effektiven Standardverfahren transfiziert. Nach zwei Tagen wird mit der Selektion begonnen, anschließend werden Zellklone isoliert und auf die stabile Expression des relevanten Proteins überprüft. Zur Überprüfung der Expression bietet sich ein Western Blot oder die Immuncytochemie an. Bei der Immuncytochemie können Sie nicht nur überprüfen, ob die Zellen stabil das Protein exprimieren, sondern auch, ob es sich um einen homogenen
86
4
Kapitel 4 • Zelluläre Neurobiologie
Klon handelt und alle Zellen stabil exprimieren. Unterschiede im Verfahren ergeben sich aus der Wirkungsweise des Selektionsagens. G418 wirkt erst nach 10 Tagen, das Medium muss täglich gewechselt werden. Zeocin ist hingegen sehr effektiv und wirkt nach 2–3 Tagen. Es gibt beim Aussähen der Zellen zur Selektion unterschiedliche Strategien, entweder werden die Zellen in großen Flaschen und Schalen kultiviert. Die meisten Zellen sterben ab und es bilden sich Kolonien von Zellen. Diese müssen abgelöst und einzeln kultiviert werden. Verschiedene Firmen bieten Klonierungsringe aus unterschiedlichen Materialien an. Diese werden um die Kolonien gelegt, in den Ringen werden die Zellen trypsiniert und können überführt werden. Eine andere Strategie sieht das Verwenden von 96-Well-Platten vor. Die Zellen werden zur Selektion in mehreren 96-Well-Platten kultiviert. Ist die Zelldichte nicht zu hoch gewählt, sterben in den einzelnen Wells die meisten Zellen ab, wenige überleben und bilden Kolonien, die dann überführt und weiter kultiviert werden können.
4.4
An- und Ausschalten von Genen
Das Ziel vieler Forschungsansätze ist es, die Funktion von bestimmten Genen und den codierten Proteinen zu determinieren. In der Zellkultur können Gene wie oben beschrieben in Zellen eingeschleust und somit beliebige Proteine exprimiert werden. Dabei kann es sich um Wildtyp-Proteine handeln oder aber veränderte, mutierte Proteine. Diese Mutationen können dann dazu führen, dass das Protein seine eigentliche Funktion nicht mehr ausüben kann. Weiterhin kann das zu untersuchende Protein mit einem Protein bekannter Funktion kombiniert bzw. mit Teilen eines solchen Proteins fusioniert werden. Insbesondere bei Proteinen, die klar definierte Domänen besitzen, kann die Expression solcher Chimären (Proteine, die aus Teilen zweier Proteine zusammengesetzt sind) helfen, die Funktion eines unbekannten Proteins aufzuklären. Dies bietet sich insbesondere bei Transmembranproteinen an, weil die Proteinanteile jenseits der Membranen klar voneinander getrennt sind, sich die natürlichen Strukturen unabhängig ausbilden
sollten und deshalb oft ohne Weiteres ausgetauscht werden können. So lässt sich z. B. die Funktion einer cytoplasmatischen Domäne eines Rezeptors, für den kein Ligand bekannt ist, mit der extrazelluären Domäne eines charakterisierten Rezeptors kombinieren (. Abb. 4.8). Ein bekannter Ligand kann dann Effekte, welche durch die cytoplasmatische Domäne vermittelt werden, induzieren, z. B. die Internalisierung des Rezeptors oder die Aktivierung einer intrazellulären Signaltranduktionskaskade.
4.4.1
Ausschalten von Genen
Die Expression eines Proteins kann einerseits der Aufklärung seiner Funktion dienlich sein, aber genauso kann das gezielte Ausschalten der Expression eines Proteins einen Nachweis über seine Funktion liefern. Dafür können einerseits primäre Zellen aus Knockout-Mäusen transformiert werden und dann dauerhaft kultiviert werden (wie oben beschrieben). Eine weitere Möglichkeit ist der so genannte Knock-Down mittels RNAi. Wie im Abschnitt über Nucleinsäuren beschrieben (7 Kap. 2.11), können Zellen sowohl mit siRNA als auch einem shRNAVektor transfiziert werden. Durch Transfektion mit siRNA wird ein vorübergehender Knock-Down erreicht. Wählt man einen shRNA-Vektor, so besteht die Möglichkeit, stabil transfizierte Zellen zu erzeugen und somit einen dauerhaften Knock-Down zu erreichen. In jedem Fall sollten alle im Kapitel über molekularbiologische Techniken (2.11) beschriebenen Kontrollen durchgeführt und die Reduktion des Proteins z. B. mittels Western Blot dokumentiert werden.
4.4.2
Dominant-negative Varianten
Neben dem Ausschalten des Gens oder Transkripts gibt es die Möglichkeit, dominant-negative Varianten zu exprimieren. Dominant-negative Konstrukte codieren für Proteinvarianten, welche die normale Funktion des Wildtyp-Proteins stören. Die meisten dominant-negativen Varianten kompetieren für ein Substrat oder einen Bindungspartner, ohne die
87
4.4 • An- und Ausschalten von Genen
4
. Abb. 4.8 Chimäre Rezeptoren
Wildtyp extrazelluläre Domäne
Alternative extrazelluläre Domäne (charakterisiert)
Wildtyp cytoplasmatische Domäne
Wildtyp cytoplasmatische Domäne Wildtyp-Rezeptor (nicht charakterisiert)
chimärer Rezeptor
reguläre Funktion des Proteins zu erfüllen. Werden diese dann überexprimiert, so ist die WildtypFunktion ausgeschaltet oder zumindest reduziert. Durch verschiedene Methoden kann man gezielt versuchen, eine dominant-negative Variante zu finden, häufig werden diese jedoch zufällig gefunden oder von Erkrankungen abgeleitet. Abhängig von der Domänenstruktur des Proteins wird der reaktive Teil des Proteins mutiert, während der interagierende Teil unverändert bleibt. So kann bei einem Transmembranrezeptor die extrazelluläre Ligandenbindedomäne intakt, aber der cytoplasmatische, signaltransduzierende Anteil verändert sein. So werden zwar Liganden gebunden, aber der entsprechende Signaltransduktionsweg nicht mehr angeschaltet.
4.4.3
Induzierbare Expressionssysteme
Als Beispiel für ein induzierbares Expressionssystem stellen wir das Tet-System vor. Daneben gibt es weitere, ähnliche Systeme, die von verschiedenen Firmen angeboten werden (siehe Anhang). Grundsätzlich handelt es sich um Expressionssysteme, die aus Vektoren bestehen und in Zellen stabil exprimiert werden können. Durch Zugabe einer Substanz kann in den transfizierten Zellen die Expression eines Gens an- oder abgeschaltet werden. Das Tet-On und Tet-Off-induzierbare Genexpressionssystem basiert auf den regulatorischen Komponenten des E. coli-Tetracyclin-Resistenz-
Operons. Es wurde von Gossen und Bujard entwickelt und wird kommerziell von Clontech vertrieben. Das System besteht aus drei Elementen (. Abb. 4.9), dem transkriptionellen Regulator, einem Tetracyclin-responsiven Promotor und einem Antibiotikum aus der Tetracyclin-Familie. Der transkriptionelle Regulator besteht aus einem Tetracyclin-Repressor (tetR), der die Tetracyclin-abhängige DNA-Bindeaktivität liefert, fusioniert an eine Transkriptionelle-Aktivator-Domäne (TA) oder eine Transkriptionelle-Repressor-Domäne (TR). Die zweite Komponente, der Tetracyclinresponsive Promotor, besteht aus mehreren Kopien der tetR-Bindesequenz (tetO). Diese befindet sich vor einer TATA-Box (meist vom Cyotmegalovirus (CMV) Promotor) und einer Transkriptionsinitiationsstelle. Dahinter wird in den entsprechenden Vektor das zu induzierende Gen kloniert. Die dritte Komponente ist ein Antibiotikum der TetracyclinFamilie. Tetracycline sind kleine lipophile Moleküle, die leicht in eukaryotische Zellen durch passive Diffusion eindringen. Sehr häufig wird Doxycyclin (Dox) verwendet, vor allem wenn die Induktion in transgenen Tieren erfolgen soll, denn Doxycylin passiert sowohl die Plazenta als auch die Blut-HirnSchranke und bindet mit hoher Affinität an alle gebräuchlichen tetR Varianten. Für die regulierte Genexpression werden ein Plasmid mit tetR und eines mit dem relevanten Gen, dessen Expression durch tetO kontrolliert wird stabil in Zellen transfiziert (. Abb. 4.9). Das tetR-Plasmid vermittelt die Expression von tTA. Dies bindet an tetO und induziert die Expression
88
Kapitel 4 • Zelluläre Neurobiologie
Tet-Off-System
Promotor
TetR
Dox
tTA
4 tTA tetO
CMV
relevantes Gen
tetO
CMV
Expression
relevantes Gen
keine Expression
Tet-On-System
Promotor
rTetR
rtTA
Dox
rtTA tetO
CMV
relevantes Gen
Expression
tetO
CMV
relevantes Gen
keine Expression
. Abb. 4.9 Tet-System. Erläuterungen siehe Text
des relevanten Gens. Gibt man Doxycyclin hinzu, entsteht ein Doxycyclin-tTA-Komplex, der nicht mehr an tetO bindet und die Expression des relevanten Gens wird abgeschaltet. Dies wird als TetOff bezeichnet. Für das alternative Verfahren wird ein mutierter tetR Anteil, der einen umgekehrten Doxycyclin-Effekt vermittelt und für rtTA codiert (reverse tTA), verwendet. Dies bewirkt, dass Doxycyclin die Expression induziert, während in Ab-
wesenheit von Doxycyclin keine Expression des unter tetO-Kontrolle stehenden Gens erfolgt. Diese Variante wird als Tet-On bezeichnet. Schafft man es, ausreichende Expressionlevel in den stabil transfizierten Zellen zu erreichen, so funktioniert das System gut. Zu beachten ist, dass Tetracycline auch in der Veterinärmedizin benutzt werden und das scheinbar nicht zu knapp, denn es ist auch in vielen Seren, die in der Zellkultur
89
4.5 • Analyse von Proteinen in Zellkultur
verwendet werden, nachzuweisen. Auch wenn die Konzentrationen niedrig sind, so kann dies das Expressionssystem beeinflussen. Weiterhin gilt zu beachten, dass das mutierte tetR (rtTA), welches für die Tet-On-Variante verwendet wird, eine geringere Affinität zu Doxycyclin besitzt als die Wildtyp-Variante. Dadurch muss Doxycyclin bei Tet-On in weitaus höherer Konzentration appliziert werden als bei Tet-Off. In Zellkultur werden zwar noch keine toxischen Konzentrationen benötigt, weshalb das System noch gut funktioniert. Soll das Tet-On System in transgenen Tieren angewendet werden, kann es problematisch sein, die ausreichende Konzentration und somit höhere Expressionslevel zu erreichen. Diesem Problem kann der Experimentator ausweichen, und zwar durch die Verwendung eines alternativen transkriptionellen Modulators, rtTA-M2 – eine weitere, aber später entwickelte, Variante von rtTA. Es handelt sich ebenfalls um ein durch Mutationen modifiziertes tetR. Allerdings führen die Modifikationen zu dem »reversen« Phänotyp, ohne gleichzeitig die Affinität für Doxycylin zu verringern.
4.5
Analyse von Proteinen in Zellkultur
Proteine können immuncytochemisch in Zellen nachgewiesen werden, alternativ können Proteine mit einem fluoreszierenden Protein fusioniert werden und so sichtbar gemacht werden.
4.5.1
Färben von Zellen
kFärbung lebender Zellen
Es ist möglich, Zellen sowohl lebend als auch fixiert zu färben. Die Färbung lebender Zellen zielt in der Regel auf den Nachweis von Oberflächenproteinen ab. Man inkubiert die Zellen auf Eis, gibt zu den vorgekühlten Zellen den primären Antikörper in einer entsprechenden Verdünnung, wäscht, fixiert die Zellen auf Eis, wäscht und weist das Protein mit einem entsprechenden sekundären Antikörper, der fluoreszenzmarkiert ist, nach. Man führt die ersten Schritte auf Eis durch, um zu verhindern, dass der Komplex aus primärem
4
Antikörper und Rezeptor modifiziert wird. Bindet ein Antikörper an einen Oberflächenrezeptor, so kann dies zur Internalisierung oder gezielten Abspaltung (shedding) des Rezeptor-AntikörperKomplexes führen. Der Antikörper funktioniert dann wie ein Ligand. Beim Abkühlen der Zellen sollte verhindert werden, dass diese sich vom Untergrund ablösen. Sollten Sie dies beobachten, empfiehlt es sich, die Zellen nicht direkt aus dem Inkubator von 37°C auf Eis zu überführen, sondern erst auf Raumtemperatur zu bringen und dann auf Eis zu stellen. Eine zu große Zelldichte kann ebenfalls bedingen, dass, sobald sich einige Zellen ablösen, der gesamte Zellteppich abhebt. Bei einigen Zelltypen, z. B. primären Kulturen, sollte nur auf z. B. 10°C gekühlt werden, da die Zellen sich sonst zu leicht ablösen oder, falls sie adhärent bleiben, ihre Morphologie verändern. Möchte der Experimentator die Internalisierung mit einem Antikörper nachweisen, so sollten die Zellen zunächst auf Eis mit dem primären Antikörper inkubiert werden. In dieser Zeit bindet der Antikörper an ein definiertes Oberflächenprotein. Nach einem Waschschritt werden die Zellen für einen bestimmten Zeitraum bei 37°C inkubiert und anschließend auf Eis fixiert und mit sekundärem Antikörper inkubiert. Die Internalisierung ist ein relativ schneller Vorgang und ist meistens bereits nach wenigen Minuten abgeschlossen. Es bietet sich bei einem unbeschriebenen Oberflächenprotein eine Zeitreihe (0–30 Minuten) an, um nachzuweisen, wann die Internalisierung abgeschlossen ist. kFärbung fixierter Zellen
Bei der Fixierung handelt es sich um eine Quervernetzung und z. T. eine Koagulation von Proteinen. Somit können durch die Fixierung immunreaktive Strukturen verändert werden. Abhängig von der Art der Fixierung können unterschiedliche Epitope so verändert werden, dass diese von Antikörpern nicht mehr erkannt werden. Dies bedeutet, dass unter Umständen verschiedene Fixierungsmethoden ausprobiert werden müssen. Ziel der Fixierung ist, die Zellen fest auf der Oberfläche zu verankern, dabei sterben diese ab. Abhängig vom Fixativ wird auch die Zellmembran porös. Paraformaldehyd und Glutaraldehyd sorgen nur für eine Querver-
90
Kapitel 4 • Zelluläre Neurobiologie
. Tab. 4.4 genzien
Häufig verwendetete Fixativa und Deter-
Reagenz
Wirkung
Paraformaldehyd
fixierend (kreuzvernetzend)
Glutaraldehyd
fixierend (kreuzvernetzend)
Methanol
fixierend (schwach kreuzvernetzend, koagulierend), permeabilisierend
Saponin
Detergens, permeabilisierend (reversibel)
Digitonin
Detergens, permeabilisierend
NP-40
Detergens, permeabilisierend
4
Triton X-100
Detergens, permeabilisierend
Tween 20
Detergens, permeabilisierend
netzung (. Tab. 4.4). Sollen auch intrazelluläre Proteine nachgewiesen werden, müssen die Zellen auf jeden Fall noch permeabilisiert werden. Antikörper sind relativ große Moleküle, die die Zellmembran passieren sollen. Die Zellmembran muss also löchrig gemacht (permeabilisiert) werden. Dazu kann man verschiedene Detergenzien verwenden. Allerdings sollten die Detergenzien die Membranen nicht komplett auflösen, weil sonst Strukturen nicht mehr zuzuordnen sind. Deshalb werden milde Detergenzien in geringen Konzentrationen verwendet. Zur Fixierung von Zellen wird sehr häufig 4 % Paraformaldehyd (10–15 Minuten) benutzt. Anschließend werden die Zellen z. B. mit 0,5 % Triton X-100 oder Saponin permeabilisiert (10–20 Minuten). Saponin sollte möglichst frisch angesetzt werden, da nach einigen Tagen immer wieder Pilzwachstum beobachtet wird, weil das Pulver scheinbar nicht pilzsporenfrei hergestellt werden kann. Anschließend werden die Zellen mit primärem und sekundärem Antikörper inkubiert. Wird Saponin verwendet, so gilt zu beachten, dass Saponin mit dem Cholesterol der Zellmembran reagiert. Membrane, die keinen Cholesterolanteil besitzen, wie z. B. die innere Mitochondrienmembran, werden somit nicht permeabilisiert. Weiterhin ist die Permeabilisierung mittels Saponin reversibel und die Membranen verschließen sich in Abwesenheit von Saponin wieder. Deshalb sollten auch alle Antikörperlösungen in der Immuncytochemie
Saponin enthalten. Bei langen Inkubationszeiten schädigt Saponin die Membranstruktur irreversibel. Etwas Detergens bei der Antikörperinkubation stört grundsätzlich nicht, es reduziert sogar unspezifische Bindungen des Antikörpers Die fixierten Zellen werden zunächst mit einem entsprechenden primären Antikörper inkubiert, gewaschen und dann mit einem fluorezenzmarkierten sekundären Antikörper inkubiert. Außer etwas Detergens kann der Zusatz von BSA oder Serum unspezifische Antikörperbindungen und somit Hintergrundsignale reduzieren. Zur genauen Zuordnung der subzellulären Struktur, an der das relevante Protein nachgewiesen wird, kann parallel ein Protein mit bekannter Lokalisation analysiert werden. Dabei sollten die primären Antikörper verschiedenen Spezies entstammen und man nutzt unterschiedlich fluoreszierende Zweitantikörper (siehe 7 Kap. 6.3.1 und 6.3.2). Alternativ können verschiedene Strukturen mit Farbstoffen spezifisch angefärbt werden. Es gibt eine inzwischen schwer überschaubare Vielfalt an fluoreszierenden Verbindungen, die genutzt werden können, um zelluläre Strukturen zu erfassen. Darunter z. B. MitoTracker (zum Nachweisen von Mitochondrien), ER-Tracker (Nachweis des Endoplasmatischen Reticulums) oder LysoTracker (zum Nachweis von Lysosomen). Einige Farbstoffe dringen nicht nur in Zellen ein und färben die erwarteten Strukturen, sondern haften auch an Glas oder Plastik. Deshalb sollte mit möglichst geringen Konzentrationen gearbeitet werden. Manchmal hilft es auch, 5 % BSA (Bovine Serum Albumin) in die Färbelösung zu geben. Eine weitere Möglichkeit zum Markieren bestimmter Strukturen, besteht in dem Herstellen von fluoreszierenden Fusionsproteinen mit bekannter Lokalisation.
4.5.2
Fluoreszenzmarkierung von Proteinen
Proteine, wie z. B. Antikörper, lassen sich chemisch mit fluoreszierenden Farbstoffen markieren. Dies kann für manche Experimente notwendig sein. Sollen diese jedoch in Zellen aufgenommen werden, so ist dies schwierig. Die markierten Proteine
91
4.6 • Neuronale Aktivität
müssen entweder injiziert oder endocytotisch aufgenommen werden. Besser ist es, wenn die Zellen gleich das fluoreszierende Protein selbst herstellen. Wie in 7 Kap. 3.4.7 beschrieben, lassen sich durch die Klonierung geeigneter Expressionsvektoren fluoreszierende Fusionsproteine generieren. Werden diese mit der entsprechenden Wellenlänge angeregt, emittieren sie Licht einer spezifischen Wellenlänge. So lassen sich Proteine sowohl in lebenden als auch in fixierten Zellen lokalisieren. Der Experimentator kann ein Protein mit bekannter Lokalisation fluoreszenzmarkieren und zum Markieren bestimmter subzellulärer Strukturen z. B. synaptische Vesikel benutzen. Man kann aber auch zu charakterisierende Proteine markieren und durch Co-Lokalisationsstudien spezifischen Strukturen zuordnen. Alle Fluoreszenzfarbstoffe emittieren Licht einer bestimmten Wellenlänge (z. B. grün), nachdem sie mit Licht einer anderen Wellenlänge (z. B. blau) angeregt wurden. Ein Ausbleichen der Fluoreszenz tritt grundsätzlich auf, egal ob es sich um fluoreszenzmarkierte Antikörper oder fluoreszierende Proteine handelt. Fixierte Präparate sollten deshalb kühl und dunkel gelagert werden. Bei allen fluoreszierenden Proteinen beobachtet man eine Abnahme der Fluoreszenz über längere Zeiträume und ein Ausbleichen (photobleaching). Photobleaching kann entweder nach dauerhaftem schwachem Anregen oder durch kurze intensive Bestrahlung beobachtet werden. Eigentlich ist das unerwünscht, aber diese Eigenschaft fluoreszierender Proteine kann experimentell bei lebenden Zellen ausgenutzt werden. Eine spezifische Stelle einer Zelle, die ein fluoreszierendes Protein exprimiert, wird mit intensivem Laser bestrahlt. Die bestrahlte Stelle erscheint zunächst schwarz. Die Dauer der Rückkehr der Fluoreszenz an diese Stelle gibt Auskunft über die Beweglichkeit des Farbstoffes und somit des Proteins in der Zelle. Diese Methode wird als fluorescence recovery after photobleaching (FRAP) bezeichnet. Damit können Diffusionsgeschwindigkeiten und aktive Transportprozesse analysiert werden. Wie bereits erwähnt, gibt es eine neuere Generation von fluoreszierenden Proteinen. Diese werden entweder durch Licht von einem nicht-fluoreszierenden Zustand in einen fluoreszierenden um-
4
gewandelt (Photoaktivierung) oder optisch konvertiert, von einer fluoreszierenden Form in eine andere (Photokonversion). Somit kann man fluoreszierende Proteine durch Bestrahlung mit Licht einer bestimmten Wellenlänge »anschalten« oder ihre Farbe verändern. Dies ermöglicht die Markierung bestimmter fluoreszierender Proteine und das Verfolgen ihres weiteren Verbleibs bzw. ihre Wanderung in der Zelle. Die angeschalteten fluoreszierenden Proteine leuchten stärker bei weniger Hintergrundstrahlung, somit kann eine räumliche und zeitliche Markierung spezifischer Strukturen und ein Verfolgen dieser Fluoreszenz vor einem geringen Hintergrundleuchten erfolgen. Es gibt z. B. photoaktivierbare GFP und mCherry-Varianten (PA-GFP und PAmCherry1). Diverse photokonvertierbare Proteine wurden entwickelt, z. B. schaltet Kaede von grün nach rot. Andere sind reversibel aktivierbar, z. B. fluoresziert Dronpa grün, wird mit einer Wellenlänge von 470–510 nm abgeschaltet und kann durch Anregung mit 400 nm wieder angeschaltet werden. Dieser Aktivierungszyklus kann mehrfach wiederholt werden. Es gibt inzwischen eine Vielzahl solcher fluoreszierenden Proteine und es ist damit zu rechnen, dass diese weiter optimiert werden.
4.6
Neuronale Aktivität
4.6.1
Induktion neuronaler Aktivität
Ein zentraler Aspekt vieler neurowissenschaftlicher Forschungsansätze ist die Frage, welche Prozesse nach Aktivierung von Nervenzellen angeschaltet werden. Hierzu nutzt man die Tatsache, dass neuronale Aktivität in bestimmten Gehirnbereichen, Nervenbahnen oder einzelnen Zellen experimentell ausgelöst werden kann. Wie diese aktivitätsabhängigen Prozesse experimentell ausgelöst werden, hängt dabei vom jeweiligen Versuchsaufbau ab. In der Zellkultur lassen sich Nervenzellen durch unterschiedliche Verfahren stimulieren. So führt eine elektrophysiologische Stimulation zur Depolarisation der Membran und zur Öffnung spannungsabhängiger Calciumkanäle. Durch den Calciumeinstrom werden wiederum verschiedene intrazelluläre Signalkaskaden angeschaltet. Zu-
92
4
Kapitel 4 • Zelluläre Neurobiologie
dem wird Calcium aus intrazellulären Calciumspeichern aktivitätsabhängig freigesetzt. Neben der elektrophysiologischen Stimulation (7 Kap. 5 Elektrophysiologische Methoden) können Neurone auch weniger spezifisch aktiviert werden. Eine simple und beliebte Methode bedient sich der Veränderung des Membranpotenzials durch eine Veränderung des extrazellulären Milieus. Eine Erhöhung der KCl-Konzentration im Medium auf 50–100 mM bewirkt eine Depolarisation der Nervenzellmembranen und aktiviert dadurch diverse Signaltransduktionswege und führt sogar zu einer veränderten Genexpression. Abhängig vom verwendeten Zelltyp und der Fragestellung können auch andere Substanzen verwendet werden. Sehr gut etabliert ist die Stimulation von cortikalen und hippocampalen Neuronen durch die Applikation von Neurotransmittern, wie z. B. von Glutamat oder Glutamat-Analoga (NMDA, AMPA oder Kainat). Verschiedene Wachstumsfaktoren können ebenfalls zur Aktivierung von Neuronen herangezogen werden, insbesondere Neurotrophine wie BDNF oder NGF. Forskolin aktiviert die Adenylatcyclase und erhöht so den cAMP(cyclisches AMP)-Spiegel in Zellen. Der Experimentator sollte beachten, dass die verschiedenen Stimuli unterschiedliche zelluläre Antworten und somit die Aktivierung verschiedener Signalpfade bedingen. Es muss daher für jede Fragestellung geprüft werden, welche Form der Aktivierung am geeignetsten ist. Wer in Zellkultur aktivitätsabhängige Veränderungen analysieren will, ist nicht auf die primäre Zellkultur angewiesen. Viele Experimente wurden in der Vergangenheit mit Zelllinien, insbesondere an PC12-Zellen, durchgeführt. Greene und Tischler haben die Stimulation von PC12-Zellen mit verschiedensten Substanzen, wie NGF, EGF (Epidermaler Wachstumsfaktor), cAMP-Analoga und Neurotransmittern, etabliert.
4.6.2
Stimulation von Nervenzellen durch optische Methoden
Der Experimentator kann auch optische Methoden zur Stimulation von Zellen nutzen. So gibt es z. B. die Möglichkeit, photoaktivierbare Substanzen von außen zuzugeben oder aber genetisch codierte Ak-
tuatoren (in der Regel optisch gesteuerte Ionenkanäle) gezielt in Zellen zu exprimieren. kOptical uncaging
Diverse photoaktivierbare Substanzen sind etabliert. Dazu gehören modifiziertes Calcium, Neurotransmitter, wie Glutamat oder GABA, aber auch Calcium-Chelatoren und Aminosäuren. Die unterschiedlichen Substanzen werden mit photoreaktiven Gruppen chemisch so modifiziert, dass sie biologisch nicht aktiv sind. Dies bezeichnet man als caging. Es handelt sich also nicht um einen Käfig, in den das relevante Molekül gesperrt wird, sondern um eine kleine chemische Modifikation, die die Aktivität des Moleküls blockiert und durch Bestrahlung mit einer spezifischen Wellenlänge abgespalten werden kann. Das Abspalten, uncaging, setzt das aktive Molekül frei. Das Uncaging findet extrem schnell statt (Mikro- bis zu Millisekunden) und ist gut kontrollierbar. kGenetisch codierte optisch aktivierbare Ionenkanäle
Durch die kontrollierte Expression von optisch aktivierbaren Inonenkanälen lassen sich spezifisch bestimmte Gruppen von Nervenzellen manipulieren. Der Vorteil liegt vorwiegend in der in vivo-Anwendung. Sollen allerdings gesamte anatomische Strukturen oder Regionen stimuliert werden, sind andere Ansätze, wie elektrodenbasierte Stimulationen oder Läsionen zu bevorzugen. Bei allen genetisch codierten, optisch aktivierbaren Ionenkanälen werden Ionenkanäle mit lichtsensitiven Molekülen kombiniert, die durch die Illumination chemisch modifiziert werden und indirekt die Aktivität von Ionenkanälen regulieren. Das lichtsensitive Molekül ist entweder Retinal, ein endogenes Vitamin A-Derivat, oder ein exogenes lichtsensitives kleines Molekül. Ein Beispiel für die letztere Gruppe ist SPARK (synthetic photoisomerizable azobenzene-regulated-K+ channel), ein modifizierter K+-Ionenkanal, an den ein photosensitiver Linker ein Ammonium-Ion koppelt (. Abb. 4.10). Langwelliges Licht (500 nm, grün) verändert die Konformation des Linkers, so dass das Ammonium-Ion die Kanalpore verschließt, kurzwelliges Licht (380 nm, blau) sorgt für eine Verkürzung des Linkers, so dass die Kanalpore geöffnet wird. Ist
93
4.6 • Neuronale Aktivität
A
4
. Abb. 4.10 Optische kontrollierte Ionenkanäle. SPARK (A) und LiGluR (B) werden durch blaues Licht geöffnet, grünes führt zum Schließen der Kanäle
K+
grünes Licht 500nm 380nm
B
blaues Licht Glu
K+
Glu Glu
Glu
Na+
die Pore geöffnet, strömen K+-Ionen aus der Zelle und das Neuron wird hyperpolarisiert. Das Öffnen und Schließen der Pore lässt sich durch Licht reversibel steuern. Ähnlich konstruiert wurde LiGluR (light gated ionotropic glutamate receptor), bei dem über einen lichtsensitiven Linker ein Glutamat-Analogon in Kontakt mit der Glutamatbindestelle des ionotrophen Rezeptors gebracht werden kann (. Abb. 4.10). Ohne photosensitive Linker kommen die Retinal-basierten Moleküle aus. Die optisch regulierten Channelrhodopsin-2 (ChR2) und Halorhodopsin (NpHR) erlauben eine schnelle Aktivierung und Inhibierung und können so präzise kontrolliert werden. In der Theorie verbergen sich sehr nützliche Werkzeuge hinter diesen steuerbaren Ionenkanälen, aber leider ist bisher keiner perfekt. So heteromerisieren SPARK und LiGluR mit endogenen Ionenkanälen, SPARK verändert das Ruhepotenzial von Neuronen und induziert die kompensatorische Expression anderer Kanäle und ChR2 hat eine extrem niedrige Leitfähigkeit. Es gibt also noch viel zu optimieren.
4.6.3
neuronale Aktivität hervorgerufen werden können. In der Zellkultur können länger andauernde Veränderungen durch biochemische Analysen oder molekularbiologische Methoden erfasst werden. Dabei werden z. B. Proteinmodifikationen wie Phosphorylierungen im Western Blot gezeigt oder eine veränderte Genexpression mittels qPCR analysiert. Kurzzeitige Effekte können in lebenden Zellen durch elektrophysiologische Ableitungen (siehe 7 Kap. 5, Elektrophysiologische Methoden), aber auch durch optische Methoden nachgewiesen werden. Zur optischen Analyse eignen sich die Transmitterausschüttung, Veränderungen des Membranpotenzials, Veränderungen der intrazellulären Calciumkonzentration oder des pH-Wertes. Weiterhin können durch Lebendzellbeobachtungen am Mikroskop auch aktivitätsabhängige Proteintranslokationen sichtbar gemacht werden. Im Folgenden gehen wir auf verschiedene Möglichkeiten ein, optische Methoden zu nutzen, um neuronale Aktivität nachzuweisen. Dabei werden entweder fluoreszierende Farbstoffe, also Substanzen, die von außen zuzugeben werden, oder fluoreszierende Proteine, also genetisch codierte Sensoren eingesetzt.
Nachweis neuronaler Aktivität kBioindikatoren
Man unterscheidet Kurzeit- (wenige Minuten) und Langzeiteffekte (mehrere Stunden), die durch
Bioindikatoren sind fluoreszierende und lumineszierende Verbindungen, mit denen neuronale
94
4
Kapitel 4 • Zelluläre Neurobiologie
Aktivität nachgewiesen werden kann. Es gibt von ihnen eine nahezu unüberschaubare Vielfalt. Die Auswahl, welches der geeignete Farbstoff ist, hängt sehr von der Anwendung ab. Zu beachten ist, dass die Indikatoren sich in ihren optischen Eigenschaften, ihrer Phototoxizität und den Interaktionen mit anderen Molekülen beträchtlich unterscheiden. Eine große Gruppe der Bioindikatoren bilden calciumsensitive Farbstoffe. Intrazelluläres Calcium spielt eine zentrale Rolle bei diversen physiologischen Prozessen. In Nervenzellen wird elektrische Aktivität über den Anstieg der Calciumkonzentration in biochemische Prozesse umgewandelt. Veränderungen der intrazellulären Calciumkonzentration eignen sich somit zum Nachweis von neuronaler Aktivität. Calciumsensitive Farbstoffe, wie z. B. Fura-2, Indo-1, Fluo-4 oder Calcium-Green-1, werden beim so genannten Calcium-Imaging eingesetzt. Die Analysen werden am Fluoreszenzmikroskop durchgeführt und mit einer speziellen Kamera aufgezeichnet. Dabei binden die Indikatoren Calcium und verändern dadurch ihre fluoreszierenden Eigenschaften. Grundsätzlich unterscheidet man zwei Typen von Indikatoren, ratiometrische und nicht-ratiometrische. In Abhängigkeit davon, ob sie Calcium gebunden haben oder nicht, emittieren die ratiometrischen Indikatoren Licht unterschiedlicher Wellenlängen oder sie werden mit unterschiedlichen Wellenlängen angeregt und emittieren Licht einer Wellenlänge. Dadurch können Veränderungen in der Calciumkonzentration als Änderungen im Verhältnis (Ratio) ihrer Fluoreszenz mit zwei unterschiedlichen Wellenlängen gemessen werden. Sehr häufig wird Fura-2 verwendet. Dieser Indikator emittiert Licht bei 510 nm, kann aber in Abhängigkeit von der Calciumbindung unterschiedlich angeregt werden. So wird mit Licht der Wellenlänge 340 nm nur das an Calcium gebundene Fura-2 angeregt, bei 380 nm dagegen der ungebundene Farbstoff. Somit reflektiert die Veränderung des Verhältnisses des emittierten Lichts bei 340 nm zu dem bei 380 nm Veränderungen in der Calciumkonzentration. Der Vorteil bei der Verwendung ratiometrischer Indikatoren ist, dass Veränderungen in der Hintergrundfluoreszenz, Photobleaching und Variationen in der Indikatorkonzentration nicht zum Tragen kommen. Allerdings ist die Auswertung etwas
komplizierter. Nicht-ratiometrische Farbstoffe bilden Veränderungen in der Calciumkonzentration direkt in Veränderungen der Fluoreszenzintensität ab. Die Auswertung ist recht simpel, jedoch spielt die gleichmäßige Beladung der Zellen hier eine große Rolle. Die Indikatoren sind in der Regel nicht membrangängig und müssen daher entweder in Zellen injiziert werden oder z. B. über Elektroporation eingeschleust werden. Dies kann man durch chemische Modifikationen umgehen. Beliebt sind Acetoxymethyl-Ester-Modifikationen (AM, z. B. Fura-2-AM), weil sie ein nichtinvasives Laden der Zellen zulassen. Die AM-Modifikation ermöglicht die Passage durch die Zellmembran. In der Zelle spalten zelluläre Esterasen den AM-Anteil ab und der Indikator wird freigesetzt. Zur Untersuchung der neuronalen Aktivität bieten sich auch potenziometrische (spannungsabhängige) Farbstoffe, wie z. B. RH414 oder RH155, an. Unterschieden werden fast- und slow-response-Indikatoren. Die Schnellen lagern sich an die Membran und verändern ihre Fluoreszenz in Abhängigkeit vom umgebenden elektrischen Feld. Die langsamen verändern in Abhängigkeit vom Membranpotenzial ihre Verteilung an der Membran und ändern dabei ihre Fluoreszenz. Letztere sind eher für nicht-neuronale Zellen geeignet, weil an diesen in der Regel keine schnellen Potenzialänderungen gemessen werden sollen. Eine Möglichkeit, die Dynamik synaptischer Vesikel zu studieren, ist die Verwendung von lipophilen Farbstoffen, z. B. FM dyes (zuerst synthetisiert von Fei Mao, deshalb »FM«). Diese besitzen ein lipophiles und ein hydrophiles Ende und ein zentrales Fluorophor. Dieses fluoresziert nur, wenn das Molekül an Membranen gebunden ist. Wird der Farbstoff zu einer neuronalen Zellkultur gegeben, so lagert sich dieser an Membranen. Werden die Neuronen für 1–5 Minuten stimuliert, z. B. mit KCl (50–100 mM) oder hypertonisch mit Sucrose (500 mM) erfolgt eine aktivitätsabhängige Exocytose an den Nervenendigungen, welche von endocytotischen Prozessen gefolgt wird. Der Farbstoff gelangt so in die Vesikel. Nach einiger Zeit wird durch Waschen der überschüssige Farbstoff entfernt. Nun können die Vesikel unter einem entsprechenden Mikroskop verfolgt werden. Eine weitere
4.6 • Neuronale Aktivität
Stimulation führt zu erneuter Exocytose und Freisetzen des Farbstoffes. Es gibt auch pH-sensitive Fluorophore, wie z. B. BCECF oder LysoSensor Green, diese können ebenfalls für verschiedene aktivitätsabhängige Studien verwendet werden. Diverse Fluorophore sind z. B. bei Molecular Probes (inzwischen Invitrogen) erhältlich. Ein Blick in den sehr empfehlenswerten Katalog bzw. die Webseite lohnt sich für den interessierten Experimentator. Die Fluorophore besitzen jedoch einige Nachteile, die vor allem in den limitierten Applikationsmöglichkeiten liegen. In Zellkultur können die Substanzen weitestgehend problemlos eingesetzt werden. Sollen die Versuchsansätze jedoch auf in vivo-Systeme, also lebende Tiere übertragen werden, so wird dies sehr schwierig. Ein Problem liegt in der Applikation, die nicht selektiv für bestimmte Zellen oder gar Strukturen wie z. B. Dendriten erfolgen kann. Außerdem besitzen insbesondere die spannungsabhängigen Indikatoren einen sehr engen dynamischen Bereich und sind deshalb nur begrenzt einsetzbar. kGenetisch codierte Sensoren
Neuerdings erfreuen sich genetisch codierte Sensoren zunehmender Beliebtheit und gelten als die großen Hoffnungsträger. Grundlage für diese bereits von der Zelle selbst synthetisierten Sensoren sind wieder einmal GFP und seine Verwandten. Bevor wir auf diese eingehen, betrachten wir die Qualle Aequorea victoria. Wenn in der Qualle der intrazelluläre Calciumspiegel steigt, resultiert dies in Biolumineszenz, sie schimmert grün. Ausgelöst wird dies durch die Bindung des intrazellulären Calciums an das Photoprotein Aequorin. Dieses emittiert dann blaues Licht. In der Qualle wird das blaue Licht aber nicht frei. Die Energie wird direkt auf das in unmittelbarer Nähe befindliche GFP durch strahlungslosen Energietransfer (FRET) übertragen. Das angeregte GFP gibt nun die Energie als grüne Fluoreszenz ab. Die Eigenschaft von Aequorin zu illuminieren, wenn es Calcium gebunden hat, ohne einer weiteren Anregung zu bedürfen, nutzt man bereits seit den sechziger Jahren. So wurde es z. B. zum High Throughput Screenen von Liganden von GProtein-gekoppelten Rezeptoren eingesetzt. Bei
95
4
vielen G-Protein-gekoppelten Rezeptoren löst die Ligandenbindung eine Signalkaskade aus, die in einer Erhöhung des intrazellulären Calciumspiegels mündet. Zellen, die mit unterschiedlichen Rezeptoren stabil transfiziert wurden, können mit einem entsprechenden Detektor schnell gescreent werden. Der Nachteil des Aequorins ist, dass das ausgesendete Signal relativ schwach ist und deshalb verstärkt werden sollte. Somit ist es für Experimente in Zellkultur zwar zum Teil geeignet, aber für in vivo-Anwendungen wiederum nicht einsetzbar. Alternativ wurden calciumsensitive Sensoren aus GFP und seinen Verwandten entwickelt. Hierbei wurden zwei Strategien verfolgt (. Abb. 4.11). Bei der einen Gruppe von Sensoren wurde das Fluorophor (z. B. EYFP) zyklisch permutiert, das heißt es wurden die natürlichen N- und C-Termini miteinander verbunden und dafür an anderen Stellen zwei neue Termini generiert. An die Enden wurde dann ein Calciumsensorprotein fusioniert. Häufig wird Calmodulin kombiniert mit dem Calmodulin-bindenden Peptid M13 eingesetzt. Beispiele für diesen Sensortypus sind Camgaroo und G-CamP/ Pricam. Die andere Strategie erzeugt FRET-basierte ratiometrische Calciumsensoren. An ein zentrales Calcium-bindendes Protein, genutzt wird Calmodulin/M13 oder Troponin C, sind jeweils N- und C-Terminal zwei unterschiedliche GFP-Varianten (in der Regel CFP und YFP) fusioniert. Das Verhältnis der emittierten Wellenlängen zueinander ist abhängig von der intrazellulären Calciumkonzentration. Beispiele für diesen Sensor-Typus sind die so genannten Cameleons und TN-L15. Die genetisch codierten Calciumsensoren sind allerdings noch nicht vollends ausgereift, denn obwohl inzwischen eine Vielzahl von genetisch codierten Calciumsensoren zur Verfügung stehen, wurden diese in vivo bisher wenig genutzt und es scheint, als ob sie unter physiologischen Bedingungen nicht optimal einzusetzen sind. Nachteilig wirkt sich aus, dass Sensoren, die Calmodulin als Modul nutzen, dazu tendieren, mit zelleigenen Proteinen unspezifisch zu interagieren und so die Calciumsensitivität zu reduzieren. Die Moleküle sind außerdem wesentlich größer als die konventionellen Calciumindikatoren wie z. B. Fura-2. Um die Freisetzung synaptischer Vesikel sichtbar zu machen, kann eine pH-sensitive Varian-
96
Kapitel 4 • Zelluläre Neurobiologie
A
4 +
Ca2+
GFP
Ca2+
B CFP
P YF +
Ca2+
te von GFP (pHluorin) exprimiert werden. GFP wird in diesem Fall an den intra-vesikulären Teil von Proteinen, die in synaptischen Vesikeln vorkommen, fusioniert (z. B. Synaptobrevin oder Synaptophysin). Bei einem pH-Wert von 5–6 sendet pHluorin kein Fluoreszenzsignal. In synaptischen Vesikeln liegt der pH-Wert bei ca. 5,7. Durch Exocytose wird der GFP-Anteil in eine pH neutrale Umgebung entlassen und leuchtet. Da der Effekt reversibel ist, kann nicht nur die synaptische Transmission so angezeigt werden, sondern auch das Recycling von Vesikeln. Genetisch codierte spannungsabhängige Sensoren werden bereits seit Ende der neunziger Jahre entwickelt. Der zuerst entwickelte, FIaSH, basiert auf dem Drosophila Shaker K+ Kanal, an dessen C-Terminus ein GFP-Molekül fusioniert ist. Obwohl der Sensor an sich funktioniert, zeigt er eine langsame Kinetik und scheint in Säugerzellen nicht aktiv zu sein. Weitere Strategien basieren wie bei den Calciumsensoren auf permutierten Sensoren oder auf FRET. Zurzeit scheinen aber alle das gleiche Problem zu haben, sie werden nur zu einem geringen Teil zur Zellmembran von Neuronen transportiert. Trotzdem ist es absehbar, dass irgendwann der Durchbruch gelingt und ein funktionierender genetisch codierter spannungsabhängiger Sensor entwickelt wird. Zukünftig werden sicherlich auch noch weitere Sensoren für diverse physiologische und biochemische Prozesse etabliert werden. So gibt es bereits Sensoren zum Nachweis für die Messung verschiedener enzymatischer Aktivitäten wie z. B. Phosphorylierungsereignisse. kOptogenetics
Trotz des Optimierungsbedarfs der einzelnen Werkzeuge geistert seit einiger Zeit ein neuer Begriff durch die neurowissenschaftliche Literatur, Optogenetics. Dieser beschreibt die Kombination
FRET
CFP
Ca2+
YFP
. Abb. 4.11 Design genetisch codierter fluoreszenter Calciumsensoren. (A) Calciumsensor bestehend aus einem zyklisch permutierten fluoreszenten Protein fusioniert mit einem calciumbindenden Protein (B) FRET-basierter Calciumsensor aus zwei fluoreszenten Proteinen fusioniert mit einem calciumbindenden Protein
97
Literatur und World-Wide-Web-Links
Controller Optische Signale steuern Aktuatoren
Optische Signale emittiert von Sensoren
4
nen verspricht eine Einsatzmöglichkeit über zelluläre Studien hinaus, hin zu in vivo-Untersuchungen komplexer neuronaler Netzwerke.
Literatur und World-Wide-Web-Links Web Ressourcen:
. Abb. 4.12 Biologische Aktuatoren und Sensoren. Lichtgesteuerte Aktuatorproteine werden genutzt, um in genetisch veränderten Zellen Lichtsignale in De- oder Hyperpolarisation zu übersetzen. Lichtemittierende Sensorproteine signalisieren die Veränderungen im Membranpotenzial, intrazellulärer Kalziumkonzentration oder synaptischer Transmission
von lichtresponsiven Proteinen und Gentechnologie, bzw. die Kombination von Imaging-Technologien und Molekularbiologie. Die verwendeten Moleküle werden durch genetische Manipulationen in Zellen, Gewebe oder ganzen Organismen gezielt exprimiert, wobei zwei Typen von molekularen Bausteinen verwendet werden: lichtgesteuerte Aktuatore, die elektrochemische Signale kontrollieren, während lichtemittierende Sensoren Veränderungen anzeigen (. Abb. 4.12). Die Aktuatoren überführen somit optische Signale in physiologische Signale, die Sensoren übersetzen zellphysiologische Signale in optische Signale. Dadurch werden zelluläre Vorgänge durch optische Signale kontrollierbar und gleichzeitig detektierbar. Die Kombination beider Elemente ermöglicht die Steuerung und den gleichzeitigen Nachweis über die erfolgte Veränderung. Als Aktuatoren kommen die bereits erwähnten lichtgesteuerten Ionenkanäle in Frage, als Sensoren die ebenfalls zuvor beschriebenen spannungsabhängigen, calciumabhängigen oder pH sensitiven GFP-Varianten (wie FlaSh, Cameleon oder pHluorin). Exprimiert man die Elemente unter zelltypspezifischen Promotoren, wird es möglich, nur eine bestimmte Population von Zellen zu stimulieren und zu analysieren. Die Systeme sind noch nicht vollständig etabliert und es bleibt abzuwarten, mit welchen Einschränkungen Analysen durchgeführt werden können. Nichtsdestotrotz, die kombinierte Expression von lichtaktivierbaren Ionenkanälen mit lichtemittierenden Sensorprotei-
Zelllinien: Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH (DSMZ) http://www.dsmz.de/ European Collection of Cell Cultures (ECACC) http://www.hpacultures.org.uk/collections/ecacc.jsp American Tissue Culture Collection (ATCC) http://www.atcc.org/ in Deutschland Vertrieb über LGC: http://www.lgcstandards-atcc.org/ Transfektion: Amaxa: http://www.Lonzabio.com Biorad: www.bio-rad.com/ Biontex: http://www.biontex.com Induzierbare Expressionssysteme: Tet-System: Hermann Bujard’s trouble shooting guide: http://www.zmbh.uni-heidelberg.de/bujard/homepage. html Tet-System (Clontech): http://www.clontech.com/ clontech/tet/index.shtml Rheostat (NEB): http://www.neb.com/nebecomm/ products/productE3000.asp Ecdyson-System (Stratagene): http://www.stratagene.com/products/showProduct. aspx?pid=247 Q-mate (Q-Bio, in Deutschland über MP Biomedicals): http://www.qbiogene.com/products/gene-expression/ qmate_intro1.shtml Fluorophore: Molecular Probes: http://www.probes.com Bioluminescence Web Page: http://www.lifesci.ucsb. edu/~biolum/ Allgemein: Banker G, Goslin K (1998) Cultering nerve cells. 2nd edition, MIT Press Coté RJ (1999) Sterilization and filtration. Current Protocols Cell Biology. 1.4.1.–1.4.21 Freshney IR (2005) Culture of animal cells. A manual of basic technique. 5th edition, Wiley Phelan MC (2007) Basic techniques in mammalian cell tissue culture. Current Protocols Cell Biology. 1.1.1–1.1.18 Sato DJ, Kan M (1998) Media for culture mammalian cells. Current Protocols Cell Biology. 1.2.1–1.2.15 Schmitz S (2009) Der Experimentator: Zellkultur, 2. Aufl, Spektrum Akademischer Verlag
98
Kapitel 4 • Zelluläre Neurobiologie
Kultivierung primärer Neurone oder Glia: Brewer GJ (1995) Serum-Free B27/Neurobasal medium supports differential growth of neurons from the striatum, substantia nigra, septum, cerebral cortex, cerebellum, and dentate gyrus. J. Neurosc. Res. 42, 674–683. Brewer GJ (1997) Isolation and culture of adult rat hippocampal neurons. J. Neurosc. Methods 71, 143–155. Kaech S, Banker G (2006) Culturing hippocampal neurons. Nature Protocols. 1, 2406–2415
4
Virale Transduktion: OstenP, Grinevich V, Cetin A (2007) Viral vectors: a wide range of choices and high levels of service. Handb. Exp. Pharmacol. 178, 177–202. Mikroinjektion in Neurone Lappe-Siefke C, Maas C, Kneussel M (2008) Microinjection into cultured hippocampal neurons: a straightforward approach for controlled cellular delivery of nucleic acids, peptides and antibodies. J Neurosci Mehtods 175, 88–95. Neuronale Stammzellen: Ahlenius H, Kokaia Z (2010) Isolation and generation of neurosphere cultures from embryonic and adult mouse brain. Methods Mol. Biol. 633, 241–252. Deleyrolle LP, Reynolds BA (2009) Isolation, expansion, and differentiation of adult mammalian neural stem and progenitor cells using the neurosphere assay. Methods Mol. Biol. 549, 91–101. Rietze RL, Reynolds BA (2006) Neural stem cell isolation and characterization. Methods in enzymology 419, 2–23. Tet-System: Corbel SY, Rossi FMV (2002) Latest developments in vivo use of the Tet system: ex vivo and in vivo delivery of tetrycycline-regulated genes. Curr. Opinion Biotechnology 13, 448–452. Gossen M, Bujard H (1992) Tigh control of gene expression in mammalian cells by tetracycline-responsive promoters. Proc. Natl. Acad. Sci. 89, 5547–5551. Fluoreszente-Nachweise: Gaffield MA, Betz WJ (2007) Imaging synaptic vesicle exocytosis and endocytosis with FM dyes. Nature Protocols 1, 2916–2021 Miesenböck G, De Angelis DA, Rothman JE (1998) Visualizing secretion and synaptic transmission with pH-sensitive green fluorescent proteins. Nature 394, 192–195. Li IT, Pham E, Truong K (2006) Protein biosensors based on the principle of fluorescence resonance energy transfer for monitoring cellular dynamics. Biotechnol. Lett. 28, 1971–1982. Sjulson L, Miesenböck G (2008) Photocontrol of neural activity: biophysical mechanisms and performance in vivo. Chem. Rev. 108, 1588–1602.
Zhang F, Aravanis AM, Adamantidis A, de Lecea L, Deisseroth K (2007) Circuit-breakers: optical technologies for probing neural signals and systems. Nature Rev. Neuroscience 8, 577–581.
99
Elektrophysiologische Methoden Michael Schwake
5.1
Grundlagen – 100
5.1.1 5.1.2
Biologische Membranen – 100 Ionentransport durch die Membran – 103
5.2
Elektrophysiologische Methoden zur Untersuchung von Ionenkanälen – 108
5.2.1 5.2.2 5.2.3 5.2.4 5.2.5 5.2.6 5.2.7 5.2.8 5.2.9
Zwei-Elektroden Spannungsklemme – 108 Patch-Clamp – 112 Messung von Aktionspotenzialen – 117 Messung von postsynaptischen Potenzialen (PSP) – 118 Patchen an akuten Gewebeschnitten – 119 Messung der synaptischen Plastizität – 120 Ableitung evozierter Summenpotenziale – 120 Multielektrodenarrays – 122 Ableitung von Summenpotenzialen – 122
Literatur und World-Wide-Web-Links – 123
G. Hermey et al., Der Experimentator: Neurowissenschaften, DOI 10.1007/978-3-8274-2369-6_5, © Spektrum Akademischer Verlag Heidelberg 2010
5
100
5
Kapitel 5 • Elektrophysiologische Methoden
Elektrophysiologische Methoden sind das »Salz in der Suppe« in der neurowissenschaftlichen Forschung. Dies ist durchaus doppeldeutig zu verstehen, da zum einen die Anwendung der verschiedensten elektrophysiologischen Methoden dazu geführt hat, dass viele neurowissenschaftliche Phänomene sehr gut verstanden sind, und zum anderen besitzen Salze tatsächlich fundamentale Funktionen nicht nur beim Würzen von Speisen, sondern auch in erregbaren Zellen wie Neurone und Muskelzellen. Salze wissen (Elektro-)Physiologen seit der Arbeit von Sidney Ringer (1835–1910), auf dem die nach ihm benannte Perfusionslösung zurückzuführen ist, zu schätzen. Das erste elektrophysiologische Experiment hingegen hat wohl weitere hundert Jahre zuvor Luigi Galvani (1737–1798) mehr oder weniger bewusst an Froschschenkeln durchgeführt, indem er die Muskeln der Schenkel mit Hilfe von Elektrizität zum Zucken anregte. Allerdings war es schließlich erst Alessandro Volta (1745–1827) vorbehalten die richtigen Rückschlüsse zu ziehen. Wie dem auch sei, die Entwicklung elektrophysiologischer Methoden in der neurowissenschaftlichen Forschung war und ist von zentraler Bedeutung. Dabei ist sicherlich die so genannte PatchClamp-Methode hervorzuheben, die von Erwin Neher und Bert Sakmann entwickelt wurde und für die sie 1991 mit dem Nobelpreis für Medizin/Physiologie ausgezeichnet wurden (siehe Weblink im Anhang). Da diese Methode die Möglichkeit bietet die Aktivität von einem einzelnen Molekül in Echtzeit zu untersuchen, hat sie nicht nur die neurowissenschaftliche Forschung revolutioniert. Bevor wir uns aber mit dieser und anderen elektrophysiologischen Methoden beschäftigen können, müssen wir einige grundlegende Begriffe und Zusammenhänge klären und kommen so unter anderem zum Salz und dem Behältnis zurück, in dem sich die ganze Suppe befindet, der biologischen Membran.
5.1
Grundlagen
5.1.1
Biologische Membranen
Zellen jeglicher Art – vom Bakterium bis hin zum Neuron – sind von einer Membran umgeben, die
sie von ihrer Umgebung abgrenzt. Biologische Membranen sind flächige Gebilde, die hauptsächlich aus Proteinen und Lipiden bestehen. Die amphiphilen Lipide, d. h. sie haben sowohl polare (hydrophile) als auch unpolare (hydrophobe) Bestandteile, bilden die eigentliche Membran, indem sie sich zu einer Doppelschicht zusammenlagern. Zur inneren Seite der Doppelschicht richten diese ihre hydrophoben Kohlenwasserstoffketten, während die hydrophilen Kopfgruppen dem wässrigen Medium zugewandt sind. Zu den wichtigsten Lipiden der Zellmembran gehören die Phospholipide, deren Phosphatgruppen die polaren Köpfe bilden (. Abb. 5.1). In die Zellmembran sind Membranproteine integriert, die ebenfalls amphiphil sind (. Abb. 5.1). Die hydrophoben Bestandteile interagieren mit dem hydrophoben Inneren der Membran und ihre hydrophilen Bestandteile mit dem wässrigen Milieu innerhalb oder außerhalb der Zelle. Jeder Zelltyp besitzt eine unterschiedliche Art und Verteilung von Proteinen innerhalb der Membran, wodurch sich z. B. Nervenzellen von Zellen des Immunsystems unterscheiden lassen. Hinzu kommt, dass die Proteine in biologischen Membranen asymmetrisch angeordnet sind, so dass die dem Cytosol zugewandte Seite der Membran andere Charakteristika aufweist als die extrazelluläre. Von besonderer Bedeutung für die Elektrophysiologie und das Verständnis der Funktionsweise von Neuronen sind membrandurchspannende Proteine, die mindestens eine Pore oder einen Kanal durch die Membran bilden und die für bestimmte Ionen durchlässig sind. Deshalb nennt man diese Art der Proteine auch Ionenkanäle, die oft aus mehreren Untereinheiten bestehen, welche einen funktionsfähigen Kanal bilden. Ohne Ionenkanäle wären biologische Membranen Barrieren für die Passage von Ionen. Die Durchlässigkeit für die verschiedensten Ionen kann von der Zelle durch eingelagerte Proteine beeinflusst werden. Neben den Ionenkanälen gibt es noch andere Proteine, die Ionen und/oder polare Moleküle transportieren, welche als Ionenpumpen bzw. Transporter bezeichnet werden. Im Folgenden betrachten wir die Passage anorganischer Ionen über die Membran, da diese
101
5.1 • Grundlagen
A
B
polare »Köpfe«
5
C
unpolare »Schwänze«
Pore . Abb. 5.1 Biologische Membranen. (A) Phasenkontrastaufnahme einer eukaryotischen Zelle. (B) Schematische Darstellung eines Teils der Plasmamembran, die als Lipiddoppelschicht vorliegt und für wasserlösliche Ionen und andere polare Substanzen undurchlässig ist. Biologische Membranen setzen sich hauptsächlich aus Phospholipiden zusammen, die wiederum aus polaren Kopfgruppen und unpolaren Kohlenwasserstoffketten (unpolare »Schwänze« bestehen. (C) Schematische Darstellung eines Ionenkanals in der Membran. Ionenkanäle sind membrandurchspannende Proteine, die mindestens eine Pore durch die Membran bilden, die für Ionen permeabel ist
besonders wichtig ist für die Funktionsweise des Nervensystems. kDie Familie der spannungsabhängigen Kationenkanäle
Genauso wichtig wie Membranen sind Ionenkanäle für alle Zellen. Sie bilden eine der größten und in sich unterschiedlichsten bislang bekannten Proteinfamilien. Auf Grund der Größe und Diversität dieser Familie werden sie in Unterfamilien gruppiert. Zunächst einmal kann man Ionenkanäle nach dem Ion sortieren, welches sie vornehmlich und unter physiologischen Bedingungen leiten. Daraus ergibt sich eine grobe Einteilung in fünf Familien – Calcium, Chlorid, Kalium, Natrium und Protonenkanäle. Diese Gruppierung ist sehr allgemein und hinkt leider ein bisschen, da manche Kanäle mehrere Ionen leiten. Deshalb zieht man zusätzlich ihre strukturellen Gemeinsamkeiten und die Stimuli, die ein Ionenkanal benötigt, um sich zu öffnen, in Betracht. Manche Ionenkanäle werden durch extrazelluläre Liganden aktiviert (ligandengesteuerte Ionenkanäle), wie z. B. der nikotinische Acetylcholinrezeptor. Hierbei handelt es sich um einen unselektiven Kationenkanal, der durch Bindung von Acetylcholin (einem Neurotransmitter) aktiviert wird. Ein weiteres Beispiel ist der Glycinrezeptor (ein Chloridionenkanal), der durch extrazelluläre Glycinbindung zur Porenöffnung veranlasst wird. Andere Ionenkanäle werden aber auch von cytoplasmatischer Seite durch intrazelluläre Boten-
stoffe, wie cGMP, cAMP und Ca2+, oder durch Änderung des Zellvolumens reguliert. Eine weitere große Gruppe bilden diejenigen Ionenkanäle, deren Öffnung oder Schließung durch Änderungen des Membranpotenzials veranlasst wird und die selektiv Natrium, Kalium oder Calcium durchlassen. Deswegen wird diese Proteinfamilie als spannungsabhängige Kationenkanäle bezeichnet. Da diese Ionenkanäle für die Physiologie von Neuronen von besonderer Wichtigkeit sind, sollen sie an dieser Stelle kurz eingeführt werden. Der erste spannungsabhängige Kationenkanal, der kloniert wurde, war ein Natriumkanal (Noda et al., 1984). Dem folgten der erste Calciumkanal (Tanabe et al., 1987) und die ersten Kaliumkanäle des shaker-Genortes aus Drosophila melanogaster (Kamb et al., 1987; Papazian et al., 1987). Seitdem wurden sehr viele weitere spannungsabhängige Kationenkanäle entdeckt, wobei die Namensgebung drunter und drüber ging, weil die Kanäle nach Inhibitoren, Gendefekten, Expressionsmustern etc. bezeichnet wurden. Mittlerweile hat man sich auf eine einheitliche Nomenklatur geeinigt, demnach steht das chemische Symbol des Ions, für welches der Kanal permeabel ist, zusammen mit der Spannungsabhängigkeit für die Kanalfamilie. So werden z. B. spannungsabhängige Kaliumkanäle als Kv bezeichnet, wobei das V für voltage-dependent steht. Nachdem die α-Untereinheiten der spannungsabhängigen Kationenkanäle mehr und mehr entdeckt wurden, ist klar geworden, dass sie alle zu einer Genfamilie gehören, die sich wahrscheinlich
102
Kapitel 5 • Elektrophysiologische Methoden
A
außen + + + +
x4
N C
Kv
B
x1
5 außen + + + +
+ + + +
+ + + +
+ + + +
N C Cav und Nav
. Abb. 5.2 Topologiemodelle von α-Untereinheiten spannungsabhängiger Kationenkanäle. (A) Topologisches Modell der αUntereinheiten des Kv-Kanals. Dargestellt sind die Transmembransegmente S1–S6, die Porenschleife zwischen S5 und S6 und das Transmembransegment S4, welches positiv geladene Aminosäuren trägt, die wichtig sind für die Fähigkeit der Moleküle Membranpotenzialveränderungen wahrzunehmen. Vier dieser α-Untereinheiten müssen sich zusammenlagern, um eine funktionelle Kaliumkanalpore zu bilden. (B) Topologisches Modell der α-Untereinheiten von Cav und Nav-Kanälen. Dargestellt sind die 24 Transmembransegmente, die letztendlich einer vierfachen Wiederholung der α-Untereinheiten von Kv-Kanälen sehr ähnlich sind. Eine α-Untereinheit reicht in der Regel, um eine funktionelle Kanalpore zu bilden
aus gemeinsamen Vorläufern entwickelt haben. Folgende Grundstruktur ist ihnen gemein: Sechs Transmembransegmente (S1–S6), wobei S5 und S6 zusammen mit der Porenschleife die Pore bilden. Der Spannungssensor wird vermutlich zum Teil von den Segmenten S1 bis S4 gebildet, wobei dem vierten Transmembransegment S4, das innerhalb der α-Helix basische, positiv geladene Aminosäuren enthält, die in regelmäßigen Abständen angeordnet sind, eine besonders wichtige Funktion zugeschrieben wird. Diese hochkonservierte Struktur dient als Spannungssensor und induziert die Kanalöffnung bei Depolarisation der Membran . Abb. 5.2. Bei Kaliumkanälen müssen sich vier dieser Domänen (Untereinheiten) zusammenlagern, um einen funktionellen Kanal zu bilden. Diese Domänen bestehen aus unterschiedlichen Polypeptidketten, wohingegen Natrium- und Calciumkanäle aus einer Polypeptidkette bestehen und sich das
oben beschriebene Motiv viermal in der Primärstruktur wiederholt (. Abb. 5.2). Wie schon erwähnt, ist diese Proteinfamilie sehr groß und es sind mittlerweile zehn Cav-, neun Nav- und vierzig Kv-Kanäle bekannt, die sich wiederum auf Grund von Sequenzhomologien in mehrere Unterfamilien gruppieren lassen. Verschweigen möchten wir an dieser Stelle auch nicht, dass sich zu den porenbildenden α-Untereinheiten noch akzessorische β-Untereinheiten dazu gesellen können, die die Komplexität dieser Proteinfamilie noch zusätzlich erhöht. Ein tieferes Eindringen in die Materie können wir jedem Experimentator nur wärmstens ans Herz legen! Um einen Überblick zu bekommen, was einen erwartet, bietet sich die entsprechende Webseite im Anhang an.
103
5.1 • Grundlagen
5
Ionentransport durch die Membran
A
5.1.2
B
Die Passage von Ionen über die Membran hängt also von der Verfügbarkeit von Ionenkanälen ab, wobei diese Bedingung nicht zwangsläufig zu einem Durchfluss von Ionen durch die Kanalproteine führt. Dies hängt zum einen von Ionenkanalspezifischen Faktoren ab, wie die Selektivität der Kanäle für bestimmte Ionen und ob sie geöffnet oder geschlossen vorliegen. Zum anderen spielen physikalische Phänomene, wie Diffusion und Elektrizität eine sehr große Rolle. Aber der Reihe nach, betrachten wir erst einmal den elektrochemischen Gradienten!
-
+
+
-
-
+
-
-
+
+
-
-
+
+
+
-
-
+
-
+
+
-
-
+
+
kDer elektrochemische Gradient
-
+
+
-
-
+
-
-
+
+
-
+
+
-
+
-
-
+
+
+
-
-
C
-
+
+ +
+
-
+
-
-
+
-
+
-
+
-
+
-
+
-
+
-
+
+
-
Stellen wir uns ein Gefäß vor, welches durch eine nicht-durchlässige (impermeable) Membran in zwei gleiche Teile geteilt ist. Das linke Kompartiment enthält eine hohe Konzentration an z. B. Kaliumchlorid (KCl), während sich in dem rechten eine niedrige KCl-Konzentration befindet. Da die Membran weder für Kalium- noch Chloridionen durchlässig ist, wird sich an der Verteilung der Ionen nichts ändern. Erst wenn die Membran für ein Ion (z. B. Kalium) durch die Einlagerung eines Ionenkanals durchlässig gemacht wurde, werden die Kaliumionen dem Konzentrationsgradienten folgen und von dem Kompartiment mit der hohen Konzentration zu dem mit der niedrigen wandern (. Abb. 5.3). Da die Kaliumionen positiv geladen sind, lädt sich das linke Kompartiment negativ und das rechte positiv auf, wodurch ein elektrisches Feld über der Membran entsteht. Die Kaliumionen werden erst dann nicht mehr dem Konzentrationsgradienten folgen, wenn die negative Ladung des linken Kompartiments so groß geworden ist, dass sie auf Grund der Anziehungskraft von positiver
+
. Abb. 5.3 Die Entstehung eines elektrochemischen Gleichgewichtes. (A) Zwei Kompartimente sind durch eine undurchlässige Membran voneinander getrennt. In dem linken befindet sich eine hohe und in dem rechten eine niedrige Konzentration von gelöstem KCl. Zwischen den beiden Kompartimenten besteht keine Potenzialdifferenz, da die Summe der Ionenladungen in den beiden Komparti-
menten ausgeglichen ist. (B) In diesem Fall sind die beiden Kompartimente durch eine semipermeable Membran (selektiv permeabel für Kaliumionen) voneinander getrennt. Durch die Wanderung der Kaliumionen entlang ihres Konzentrationsgradienten lädt sich das linke Kompartiment negativ und das rechte positiv auf, wodurch eine Potenzialdifferenz entsteht. (C) Dieser Vorgang hält solange an, bis ein Gleichgewichtspotenzial erreicht ist, bei dem es keine Nettobewegung von Kaliumionen zwischen den Kompartimenten gibt
Kapitel 5 • Elektrophysiologische Methoden
104
. Tab. 5.1
5
Übersicht der Ionenkonzentrationen und Gleichgewichtspotenziale
Ion
Extrazellulär (mM)
Intrazellulär (mM)
Gleichgewichts-Potential (mV)
Natrium
135–145
12
+66 −93
Kalium
3,5–5
140
Calcium
2,25–2,52
10−7
+135
Chlorid
115
2,5–50
−42
Extrazelluläre Konzentrationen beziehen sich aufs Serum und intrazelluläre auf Säugetierzellen. Die Gleichgewichtspotenziale wurden bei 37°C berechnet. Als Grundlage dafür diente die mittlere Ionenkonzentration, wenn ein Konzentrationsbereich angegeben ist. Aufgeführt sind die physiologisch wichtigsten Ionensorten in einer Säugerzelle bzw. im menschlichen Blut (modifiziert nach Ashcroft).
und negativer Ladung dem Konzentrationsgradienten nicht mehr folgen können (. Abb. 5.3). Mit anderen Worten: Die Bewegung der Kaliumionen zwischen den beiden Kompartimenten erzeugt eine Potenzialdifferenz und sie wird erst dann aufhören, wenn der elektrische und der chemische Gradient ausgeglichen sind. kDas Gleichgewichtspotenzial und typische Ionen Konzentrationen
Nehmen wir weiterhin an, dass wir eine ideal semipermeable Membran vorliegen haben, d. h. diese ist nur für eine einzige Teilchensorte und Wasser durchlässig. Nur unter diesen Bedingungen stellt sich das so genannte Gleichgewichtspotenzial ein, bei dem sich die Kräfte des Konzentrationsgradienten und des elektrischen Feldes auf das Ion gerade aufheben. Das Gleichgewichtspotenzial wird durch die Nernst-Gleichung beschrieben, die der Nobelpreisträger Walther Nernst abgeleitet hat. Ex =
[X ]e 58 [X ]e RT ln = log . zF [X ]i z [X ]i
(1)
Sie besagt, dass für ein bestimmtes Ion X das Gleichgewichtspotenzial Ex (Einheit: Volt) abhängig von der Gaskonstanten R (8,314 J K−1 mol−1), der absoluten Temperatur T (in Kelvin), der Ladung des Ions z, der Farady‘schen Konstante und den extra- bzw. intrazellulären Konzentration des Ions X ([X]e und [X]i) ist (7 Gleichung 1). Diese Gleichung wird häufig in der vereinfachten Form geschrieben (7 Gleichung 1, rechts), in der Ex in mV und die Temperatur als 20°C (293°K) angegeben wird.
Nun sind die Verhältnisse in lebenden Organismen ungleich komplizierter, da es nicht nur eine einzige Ionensorte gibt und die Membran nicht ideal semipermeabel ist. . Tab. 5.1 fasst die typischen intra- und extrazellulären Konzentrationen von verschiedenen Ionen und die daraus resultierenden Gleichgewichtspotenziale zusammen. Die Konzentrationen der verschiedenen Ionen sind sehr unterschiedlich und werden durch eine Vielzahl von primär (ATP-abhängigen) oder sekundär (Ionenaustauscher) aktiven Transportprozessen aufrechterhalten, die die Zelle aktiv steuern kann. In diesem Zusammenhang sei erwähnt, dass der wichtigste aktive Transporter der Plasmamembran die Na+/K+-ATPase ist, ein Membranprotein, das für jedes hydrolysierte ATP-Molekül drei Natriumionen aus der Zelle hinaus- und zwei Kaliumionen in die Zelle hineinpumpt. Dies führt zu einem Nettotransport von einer positiven Ladung pro ATP-Hydrolyse, weswegen die ATPase auch als elektrogen bezeichnet wird und das Zellinnere sich etwas negativ auflädt. In manchen Zellen verbraucht die Na+/K+-ATPase ca. 60 % des gesamten ATPs, und ihre Hauptaufgabe ist die Aufrechterhaltung des Kationengradientens, der wiederum eine Vielzahl anderer Transportprozesse antreibt. Natürlich weisen biologische Membranen gegenüber mehreren Ionensorten unterschiedlich große Permeabilitäten auf und sind deshalb nicht als ideal semipermeabel anzusehen. Aus diesem Grund ist die Ausbildung eines Zustands, in dem sich die aus den verschiedenen Ionensorten bestehenden Systeme parallel im Gleichgewicht befinden, unmöglich. Unter bestimmten Annahmen
105
5.1 • Grundlagen
5 Offen
2 pA
Zu
50 ms . Abb. 5.4 Einzelkanalstrom. Exemplarische Darstellung eines Stroms, der durch einen einzelnen Ionenkanal fließt. Die meisten Ionenkanäle zeigen ein charakteristisches Öffnungs- und Schließverhalten. Beim Öffnen eines Ionenkanals fließen Ströme mit einer charakteristischen Größe, die von der treibenden Kraft (dem Membranpotenzial) und der Einzelkanalleitfähigkeit abhängig sind. Einzelkanalströme erreichen typischerweise Amplituden in der Größenordnung einiger Pikoampere (1 pA = 10−12 A). Der Anteil, mit dem die Kanäle im Mittel geöffnet sind, bezeichnet man als Offenwahrscheinlichkeit (P)
kann man jedoch trotzdem zur Formulierung eines »Quasi«-Gleichgewichtspotenzials gelangen. Eine derartige Herleitung geht auf Goldmann, Hodgkin und Katz aus den 1940er Jahren zurück. Da diese den Rahmen dieser allgemeinen Einleitung übersteigt, soll an dieser Stelle auf elektrophysiologische Lehrbücher, wie z. B. das von Bertil Hille verwiesen werden (siehe Kapitelende). kDie Stromspannungsbeziehung von Ionenkanälen
Kommen wir zurück auf unser Beispiel in . Abb. 5.3. Bewegen sich Kationen durch einen Ionenkanal von dem linken in das rechte Kompartiment erzeugen sie einen elektrischen Strom, da dieser nichts anderes ist, als eine gerichtete Bewegung von Ladungsträgern (. Abb. 5.4). Die Nettobewegung von Ionen ist in der Nähe ihrer Gleichgewichtspotenziale gleich null, d. h. es fließt kein Strom (. Abb. 5.3). Dies bedeutet wiederum, dass der der Strom beeinflusst wird, wenn sich das Membranpotenzial ändert. Solange sich die Ionenkonzentrationen auf beiden Seiten der Membran nicht massiv voneinander unterscheiden, gilt beim Stromfluss durch einen geöffneten Ionenkanal das Ohmsche Gesetz (7 Gleichung 2). i =
1 R
V
(2)
In diesem steht V (in Volt) für das Membranpotenzial, R (in Ohm) gibt den Widerstand des geöffneten Ionenkanals an und i (in Ampere) den Strom, der durch einen einzelnen Kanal fließt. Das Ohmsche Gesetz beschreibt eine lineare Beziehung zwischen dem Membranpotenzial und der Größe des Stroms, der durch einen Ionenkanal fließt. Die so genannte Einzelkanalleitfähigkeit (γ) ergibt sich aus der Steigung, sie ist demnach der reziproke Widerstand (γ = 1 * R−1). In der Regel werden die makroskopischen Ströme und Leitfähigkeiten durch I bzw. G angegeben. Die Membranströme, die bei den verschiedenen Spannungen gemessen werden, können gegen die Spannung aufgetragen werden, um so genannte Stromspannungskennlinien (IV-Kennlinien) zu erzeugen. Charakteristische Parameter der IV-Kennlinien sind Steigungen (Einzelkanalleitfähigkeiten) und Umkehrpotenziale (entspricht dem Potenzial, bei dem sich die Richtung des Stroms verändert und beträgt bei symmetrischen Ionenkonzentrationen 0 mV). Eine Änderung des Membranpotenzials zu positiveren Werten wird als Depolarisation und zu negativeren als Hyperpolarisation bezeichnet. kWeitere Eigenschaften von Ionenkanälen
Bislang haben wir die Einzelkanalleitfähigkeit als spezifische Eigenschaft eines Ionenkanals kennengelernt und haben dabei angenommen, dass die Bewegung eines Ions durch einen Kanal nur von
106
5
Kapitel 5 • Elektrophysiologische Methoden
dessen elektrochemischen Gradienten und/oder dem Membranpotenzial abhängt. Dem ist natürlich nicht so, es gibt noch weitere, sehr wichtige Faktoren und Eigenschaften. 5 Selektivität: Ionenkanäle sind nicht nur einfache Löcher in der Membran, durch die unterschiedliche Ionen hindurch treten können. Ganz im Gegenteil, viele Ionenkanäle weisen eine bemerkenswert hohe Selektivität gegenüber einer bestimmten Ionensorte auf. Z. B. sind Kaliumkanäle sehr durchlässig für K+, aber nicht für Na+, obwohl Na+ kleiner ist als K+. Na+ ist dafür aber in wässriger Lösung von sehr viel mehr Wassermolekülen (Hydrathülle) umgeben, weswegen die Ionen »real« größer erscheinen und somit Kaliumkanäle viel schlechter passieren können. Ionenkanäle besitzen in der Regel einen so genannten Selektivitätsfilter innerhalb der Pore, der aus den unterschiedlichsten Aminosäuren gebildet wird, die wiederum von verschiedenen Untereinheiten stammen können. 5 Gating: Ein Ionenkanal kann entweder geöffnet oder geschlossen sein (siehe . Abb. 5.4). Als Gating wird der Wechsel vom geschlossenen in den geöffneten Zustand (oder umgekehrt) bezeichnet. Viele Ionenkanäle sind unter bestimmten Bedingungen entweder geschlossen oder geöffnet, wobei verschiedene Stimuli existieren, die einen Ionenkanal öffnen, z. B. Änderungen im Membranpotenzial (spannungsabhängige Ionenkanäle) oder die Bindung eines Liganden (ligandengesteuerte Ionenkanäle). Als Maß für die Verteilung von geöffneten und geschlossenen Ionenkanälen in der Membran gilt die so genannte Offenwahrscheinlichkeit p, die wiederum von den unterschiedlichsten Stimuli abhängt. D. h. ein ligandengesteuerter Ionenkanal besitzt eine höhere Offenwahrscheinlichkeit im ligandengebundenen Zustand als ohne Ligand.
kMakroskopische Ströme
Bislang haben wir uns bei unseren Betrachtungen nur mit einem einzigen Ionenkanal beschäftigt, wie er mittels der Patch-Clamp-Methode (7 Kap. 5.2.2) aufgenommen und analysiert werden könnte. Es
liegt auf der Hand, dass die Zellmembran nicht nur einen, sondern sehr viele und verschiedene Ionenkanäle enthält. Messen wir die Ströme, die durch die Membranen von Zellen fließen, spricht man von Ganzzellmessungen und es werden makroskopische Ströme gemessen. Der Einfachheit halber betrachten wir eine Zelle, die nur eine Ionenkanalsorte in der Plasmamembran trägt. In dieser messen wir einen makroskopischen Strom (I), der ein Produkt aus der Einzelkanalleitfähigkeit (i), der Offenwahrscheinlichkeit (p) und der Menge (N) an Ionenkanälen in der Plasmamembran ist. I = N Pi
(3)
In den meisten Fällen ist die Offenwahrscheinlichkeit nicht konstant, sondern spannungs- oder ligandenabhängig (siehe vorheriges Kapitel), was sich dramatisch auf den makroskopischen Strom auswirkt. Betrachten wir z. B. einen spannungsabhängigen Kaliumkanal, der bei Membrandepolarisation (das Membranpotenzial wird positiver) öffnet. Wir messen für einen solchen Kanal bei ausreichender Depolarisation einen positiven makroskopischen Strom (. Abb. 5.5). Das bedeutet, dass positive Ladungsbewegung vom Inneren der Zellen nach außen stattfindet (oder negative nach Innen), in diesem Fall wandern Kaliumionen entlang ihres Konzentrationsgradienten. Wie in . Abb. 5.5 zu sehen ist, verändert sich der makroskopische Strom über einen längeren Zeitraum nach Beginn der Depolarisation und erreicht nur langsam nach mehreren Millisekunden einen fast stationären Zustand. Dieser Kurvenverlauf wird auch als Aktivierung bezeichnet und ist eine charakteristische Größe eines Ionenkanals. Nun bleibt die Frage, wie die Einzelkanalströme zu diesem Kurvenverlauf beitragen. Legt man nämlich die oben aufgeführte Gleichung zu Grunde, ist der makroskopische Strom einfach die Summe der Einzelkanalleitfähigkeiten und der Kurvenverlauf müsste demnach linear sein. Wie oben schon erwähnt, ist die Offenwahrscheinlichkeit eines spannungsabhängigen Kanals abhängig von dem Membranpotenzial und von der Zeit, denn je länger die Membran depolarisiert wird, desto mehr Kanäle gehen in den geöffneten Zustand über. Da sich viele Kanäle in der Plasma-
107
5.1 • Grundlagen
A
40 mV - 80 mV
B I (μ oder nA)
Zeit (ms)
C i
5
primieren. Deswegen ist natürlich der makroskopische gemessene Strom die Summe aller Ionenbewegungen über die Plasmamembran. Will man nun den makroskopischen Strom eines bestimmten Ionenkanals messen, ohne dass die Zelle den Kanal überexprimiert, muss man den Stromfluss, der von allen anderen Kanälen vermittelt wird, blockieren. Dies ist zum Teil möglich, da viele natürlich vorkommende Toxine oder pharmakologisch aktive Substanzen Ionenkanäle mehr oder weniger spezifisch blockieren. kDie Zellmembran als Kondensator
i
N Kanäle
i
i
i . Abb. 5.5 Makroskopischer Strom. (A) Exemplarischer Kommandopuls: Die Zelle wird vom Haltepotenzial von –80 mV auf einen Testpuls von 40 mV depolarisiert. (B) Schematische Darstellung des makroskopischen Stroms, der durch spannungsabhängige Kaliumkanäle fließt. Nach Depolarisation einer Zelle (siehe folgende Kapitel), die einen spannungsabhängigen Kaliumkanal exprimiert, ist ein makroskopischer Auswärtsstrom messbar, der je nach Zelle im μ- oder nA-Bereich liegt. (C) Der makroskopische Strom setzt sich aus N (hier sind fünf gezeigt) Einzelkanälen zusammen. Bei –80 mV sind die meisten Kanäle geschlossen, erst beim Anlegen der depolarisierenden Spannung öffnen die Kanäle zeitabhängig. Erst nach einer gewissen Weile der Depolarisation sind die meisten Kanäle geöffnet und der makroskopische Strom nähert sich bei der angelegten Spannung seinem Maximalwert
membran befinden und jeder Kanal unabhängig von den anderen, aber abhängig vom Membranpotenzial öffnet, nimmt die Stromkurve in . Abb. 5.5 ihren charakteristischen Verlauf an. Nun besitzen Zellen in der Regel viele verschiedene Ionenkanäle. Dies ist von besonderer Bedeutung, wenn man nicht mit Hilfe molekularbiologischer Methoden die Zellen dazu gebracht hat, einen bestimmten Ionenkanal der Wahl in sehr großer Menge in der Plasmamembran zu ex-
Die Zellmembran trennt das intra- und extrazelluläre Milieu. Da das Cytosol und das extrazelluläre mediumleitende Lösungen sind und die Lipiddoppelschicht als sehr dünne isolierende Schicht anzusehen ist, kann die Membran auch als Plattenkondensator betrachtet werden. Wie wir schon gelernt haben, besteht zwischen dem Inneren und dem Äußeren eine Potenzialdifferenz, d. h. das Innere ist negativ und das Äußere positiv aufgeladen. Demnach ist der Kondensator aufgeladen und die Zellmembran ist in der Lage, Energie in Form von elektrischer Ladung zu speichern. Die Kapazität (C) eines Kondensators gibt an, wie viel Ladung (Q) von der einen zur anderen Seite transferiert werden muss, um ein gewünschtes Potenzial zu erhalten und wird in Farad (F) angegeben. Biologische Membranen besitzen spezifische Kapazitäten von ca. 1 μF/cm2, damit wird auch deutlich, dass je größer eine Membran oder Zelle ist, desto größer ist ihre Kapazität. Die Kombination von Kondensator (Lipiddoppelschicht der Membran) und Parallelwiderstand (Ionenkanal) wird in der Elektrotechnik als RCSchaltkreis bezeichnet und wird als Modell eines Abschnittes einer biologischen Membran benutzt (. Abb. 5.6). Wir hoffen, dass diese kurze Einführung in die Grundlagen der Elektrophysiologie den geneigten Experimentator auf den Geschmack gebracht und nicht, um im Bild zu bleiben, die Suppe versalzen hat, ein bisschen Physik gehört nun mal dazu. Die folgende Darstellung verschiedenster elektrophysiologischer Methoden ist als Einführung und Überblick gedacht. Vielleicht weckt dies Ihre Lust am Erlernen und Anwenden elektrophysiologi-
108
Kapitel 5 • Elektrophysiologische Methoden
R
C
5
. Abb. 5.6 Elektrisches Modell einer biologischen Membran
scher Methoden, doch empfehlen wir, dass sich kein Experimentator ohne weitere fachliche Hilfe versuchen sollte.
5.2
Elektrophysiologische Methoden zur Untersuchung von Ionenkanälen
Zunächst werden wir eine elektrophysiologische Methode näher erläutern, die leicht verständlich ist und die eine Zellart (Oocyten) benutzt, die die zu untersuchenden Ionenkanäle im sehr großem Übermaß in ihrer Plasmamembran exprimieren, weswegen der gemessene Strom fast ausschließlich auf den gewünschten Kanal zurückzuführen ist. Außerdem erlaubt diese Methode viele Grundprinzipien der Elektrophysiologie verständlich zu erklären.
5.2.1
Zwei-Elektroden Spannungsklemme
Die Zwei-Elektroden Spannungsklemme (two-electrode voltage clamp, TEVC) erfreut sich einer gro-
ßen Beliebtheit, gerade wenn Struktur-Funktionsanalysen oder pharmakologische Untersuchungen an Ionenkanälen oder Transportern durchgeführt werden sollen. Für diese Methode werden klassischerweise Oocyten des südafrikanischen Krallenfroschs Xenopus laevis verwendet. Diese Frösche sind nicht nur bei Elektrophysiologen und Aquarianern gleichermaßen beliebt, sondern wurden auch früher als Schwangerschaftstest genutzt. Dazu wurde den weiblichen Tieren eine geringe Menge Urin von vermeintlich schwangeren Frauen gespritzt. Wenn der Frosch nach 1–3 Tagen laichte, war die »Urinquelle« vermutlich schwanger. Da dieser Test ausschließlich in Apotheken stattfand, wurden die Frösche umgangssprachlich auch Apothekerfrösche genannt. Elektrophysiologen sind auch an den Oocyten interessiert, allerdings aus einem anderen Grund. Bei Oocyten handelt es sich um nicht-ausgereifte Eier, die sich auf Grund ihrer Größe (ca. 1 mm Durchmesser) sehr gut für die Zwei-Elektroden-Spannungsklemme eignen, da zwei Elektroden in die Zelle eingeführt werden müssen (siehe unten). Hinzu kommt, dass sie eine breite Palette von fremden (heterologen) Membranproteinen exprimieren können, z. B. aus Pflanzen, Insekten, Würmern, Säugetieren und dem Menschen. Zunächst müssen aber erst einmal Oocyten präpariert werden und mit entsprechend modifizierter cRNA (komplementäre RNA) des gewünschten Proteins injiziert werden (z. T. wird auch mit Injektion von cDNA gearbeitet, diese muss allerdings in den Zellkern injiziert werden). kPräparation und Mikroinjektion von Xenopus laevis-Oocyten
Oocyten werden aus Ovargewebe der weiblichen Frösche isoliert, das durch eine einfache Operation am betäubten Frosch entnommen wird (Achtung, dazu braucht man eine Tierversuchsgenehmigung). Hierfür werden die Frösche mittels Tricainlösung anästhesiert. Danach wird der Frosch auf Eis auf dem Rücken auf feuchte Tücher gelegt und mit feuchten Tüchern abgedeckt, damit die Haut nicht austrocknet. Durch einen kleinen Einschnitt (1 cm) in den Bauch des Frosches können Teile des Ovars entnommen werden, das während der weiteren Versorgung des Frosches in Ca2+-freier
5.2 • Elektrophysiologische Methoden zur Untersuchung von Ionenkanälen
Oocyten-Ringer-2-Lösung (OR2-Lösung: 100 mM NaCl, 2,5 mM KCl, 1 mM CaCl2, 1 mM MgCl2, 5 mM Hepes, pH = 7,4) gelagert wird. Der Frosch wird anschließend mit Hilfe eines resorbierbaren Fadens zugenäht und in ein Aufwachbecken gelegt. Dabei sollte darauf geachtet werden, dass sich der Kopf des Frosches über dem Wasser befindet, da er sonst ertrinkt. Man sollte den Frosch nicht nur aus Gründen des Tierschutzes sorgsam behandeln. Da das entnommene Ovar und die Oocyten innerhalb weniger Monate nachwachsen, kann ein Frosch mehrfach zur Ovarentnahme herangezogen werden. Hierzu sollte von jedem Frosch ein Foto gemacht werden und die Daten (Datum der Ovarentnahme und Gewicht) der Operation und die Güte der Oocyten dokumentiert werden. Auf diese Weise kann der Bedarf an Versuchstieren klein gehalten werden, da die Tiere die Operation in der Regel gut überstehen. Nach der Versorgung des Frosches steht die Präparation der Oocyten an. Zunächst wird das ovariale Gewebe unter einem Binokular und mit Hilfe einer Pinzette und Schere in kleine Stücke zerschnitten (ca. 100 Oocyten pro Stück). Zur Entfernung der follikulären Zellen werden die Oocyten mit Collagenase A (2mg/ml) in Ca2+-freier OR2-Lösung auf einem Horizontalschüttler unter leichtem Schwenken und bei Raumtemperatur inkubiert (2–3h). Nach mehrmaligen Waschen in Ca2+-freier OR2-Lösung werden die Oocyten in Barths (100 mM NaCl, 1 mM KCl, 1mM CaCl2, 1 mM MgCl2, 5 mM Hepes, 1 mM Penicillin, 1 mM Streptomycin, pH = 7,4) Lösung überführt, selektioniert (Stadium V, ∅ 0,6-1 mm und Stadium VI, ∅ 1-1,2 mm) und mehrere Stunden oder über Nacht bis zur Injektion der cRNA bei 17°C inkubiert. kHerstellung von cRNA und Xenopus laevisOocyten-Injektion
Zur Herstellung der cRNA wird zunächst plasmidcodierte cDNA in komplementäre cRNA umgeschrieben. Dabei ist es wichtig, dass sich die cDNA in geeigneten Plasmiden befindet, die RNAPolymerase-Promotoren und seltene Restriktionsschnittstellen zur Linearisierung der DNA hinter dem 3′-untranslatierten Bereich besitzen müssen. Mit Hilfe einer dieser Schnittstellen wird die cDNA in dem jeweiligen Plasmid durch einen konventi-
109
5
onellen Restriktionsverdau linearisiert, anschließend mit einem DNA Aufreinigungs-Kit aufgereinigt und in RNAse-freiem Wasser eluiert. Die Menge an linearisierter DNA, die für die in vitroTranskription benötigt wird, hängt von dem Kit ab, mit dem die cRNA synthetisiert werden soll. Diese werden von verschiedenen Anbietern (z. B. Ambion und MoBiTec) angeboten, funktionieren aber nach dem gleichen Prinzip. Mit Hilfe von SP6-, T3- oder T7-spezifischer RNA Polymerase wird so genannte capped RNA synthetisiert, die am 5′-Ende ein 7-Methylguanosin als Cap-Struktur enthält und damit eukaryotischer mRNA stark ähnelt. Nach Konzentrationsbestimmung und Integritätsprüfung mittels Agarosegelelektrophorese wird die so erhaltene capped RNA in Oocyten injiziert. Für die Mikroinjektion werden spezielle Pipetten benötigt. Die Sparvariante sind manuelle Nanoliterpipetten, wohingegen elektrische Pipetten den Vorteil haben, dass akkurat immer das gleiche Volumen an RNA-Lösung in die Oocyten injiziert wird. Beide Pipetten benötigen zusätzlich einen Mikromanipulator, in den die Pipetten eingespannt, und Glaskapillaren, aus denen die eigentlichen Injektionsspitzen mit Hilfe von Pipetten- bzw. Elektroden-Ziehgeräten (so genannten pullern, siehe 7 Kap. 5.2.2) gezogen werden. Nach dem Ziehen werden sie Glasspitzen mit Silikon- oder Mineralöl gefüllt und in die bevorzugte Mikroinjektionspipette eingespannt. Von der hergestellten cRNALösung wird nun ca. 1 μl aufgenommen (am besten funktioniert dieses auf einem Stück Parafilm, das über eine kleine Plastikpetrischale gespannt wurde) und jeweils 50 nl (etwa 10 ng Gesamt-RNA) pro Oocyte injiziert. Nach der Injektion werden die Oocyten bei 17°C in Barth‘s Lösung gehalten, dies kann zwei bis drei Tage in Anspruch nehmen, je nachdem, wie gut das gewünschte Protein von der Oocyte exprimiert wird. kMessung der Oocyten
Der Stromfluss durch die Kanäle in der Oocytenmembran in Abhängigkeit vom Membranpotenzial kann durch das Verfahren der Zwei-ElektrodenSpannungsklemme gemessen werden. Diese Technik geht auf Arbeiten von Cole und Curtis (Cole, 1968) zurück und wurde von Stühmer (Stühmer et al., 1992) modifiziert. Die Glasmikroelektro-
110
Kapitel 5 • Elektrophysiologische Methoden
A
B
DE
Klemmverstärker Vm Ag/AgCl 1-3 M KCl
5
Ag/AgCl KCl
I
Kommandopuls
V
Potenzialverstärker
R
Im
Strom/Spannungsumwandler . Abb. 5.7 Zwei-Elektroden-Spannungsklemme. (A) Schematische Darstellung einer Mikroelektrode, wie sie für die ZweiElektroden-Spannungsklemme verwandt werden. Die ausgezogene Glaskapillare ist mit KCl gefüllt, in die ein chlorierter Silberdraht taucht. Bei der Referenzelektrode handelt es sich um eine Silber/Silberchlorid-Elektrode. (B) Vereinfachte schematische Darstellung einer Zwei-Elektroden-Spannungsklemme. Die Strom- (I) und die Spannungselektrode (V) sind in eine Xenopus-Oocyte eingestochen, die sich in der Messlösung befindet. Gemessen wird das Membranpotenzial Vm der Zelle und der Stromfluss Im, der zur Aufrechterhaltung von Vm nötig ist, wenn beim Anlegen von Kommandopulsen eine Änderung der Membranleitfähigkeit, z. B. durch Öffnen von Ionenkanälen, auftritt. Der induzierte Strom Im ist daher der Gesamtstrom durch alle zu einem bestimmten Zeitpunkt geöffneten Ionenkanäle zuzüglich dem Betrag anderer elektrogener Transportprozesse
den werden aus Glaskapillaren hergestellt, die mit einem Elektroden-Ziehgerät (puller) fein ausgezogen werden, so dass der Spitzendurchmesser nur wenige μm beträgt, damit sich die Zellmembran ohne große Schädigung durchstechen lässt. Nach Füllung mit KCl wird der elektrische Kontakt zur Verstärkerelektronik über einen chlorierten Silberdraht, der in die Elektrodenfülllösung eintaucht, hergestellt. Die Widerstände solcher Pipetten liegen im MΩ Bereich. Da die feinen Spitzen leicht brechen, ist bei der Handhabung dieser Mikroelektroden erhöhte Vorsicht angebracht. Als Referenz dient eine extrazelluläre Silber/Silberchlord (Ag/ AgCl) – Badelektrode (. Abb. 5.7). Wie in . Abb. 5.7 schematisch dargestellt, werden zwei dieser Mikroelektroden benötigt, die so genannten Spannungs- und Stromelektroden. Startet man nun die Messung, werden zunächst die beiden Elektroden in die Badlösung getaucht. Als nächstes werden eventuelle Potenzialdifferenzen an den Elektroden in Bezug auf die Referenzelektrode mit Hilfe des Verstärkers auf null Volt abgeglichen. Sticht man nun die Spannungselektrode in die Oocyte ein, misst man die aktuelle Potenzialdifferenz
zwischen dem Oocyteninneren und der Badlösung. Durch diese Spannungsmessung lassen sich erste Rückschlüsse auf vermutete Leitfähigkeiten ziehen, wobei eine genauere Charakterisierung der Leitfähigkeiten mit einer Spannungsmessung allein nicht durchgeführt werden kann. Dazu wird nun eine zweite intrazelluläre Glasmikroelektrode benötigt und eine zusätzliche, geerdete Badelektrode, durch welche die über die Membran transportierte Ladungsmenge abfließt. Das erste Elektrodenpaar (intrazelluläre Potenzialelektrode und die nicht-geerdete erste Badelektrode) misst also die an der Zellmembran tatsächlich anliegende Spannung (siehe oben). Das zweite Elektrodenpaar (intrazelluläre Stromelektrode und die geerdete zweite Badelektrode) verändert bzw. regelt aktiv, d. h. durch Anlegen einer Spannung, das Membranpotenzial. Über die Stromelektrode kann Ladung in die Oocyte injiziert werden, so dass der Oocyte ein vom Ruhezustand abweichendes Membranpotenzial aufgezwungen werden kann. Ein Rückkopplungsverstärker vergleicht ständig das »Ist-Potenzial« (V) mit dem vom Experimentator vorgege-
40 (mV)
A -30 (mV)
-80 (mV) -80 (mV)
B 15
10 Strom (μA)
benen »Soll-Potenzial« (Kommandopuls) und korrigiert entsprechend über die Stromelektrode (I) – man spricht von einer Spannungsklemme (voltage clamp). Zu einem gegebenen Zeitpunkt entspricht der gemessene Strom dann dem Gesamtfluss an geladenen Teilchen durch alle Ionenkanäle und etwaige andere elektrogene Transportprozesse oder Lecks in der Oocytenmembran. Bei starker Expression eines bestimmten Kanalproteins und Wahl geeigneter Versuchsbedingungen ist der Strom durch den zu untersuchenden Ionenkanal dominiert. Eine Computersteuerung lässt es zu, bestimmte Abfolgen von »Soll-Potenzialen« einzustellen, was als Pulsprotokoll bezeichnet wird. Ein exemplarisches Pulsprotokoll ist in . Abb. 5.8 dargestellt, welches zur Aufnahme der Stromspuren in . Abb. 5.8 genutzt wurde. Die Oocyte exprimiert sehr stark spannungsabhängige Kaliumkanäle, die sich aus den Untereinheiten Kv7.2 und Kv7.3 zusammensetzen. In vielen verschiedenen Neuronen ist der Strom, der durch diese Kanäle vermittelt wird, sehr wichtig für die Regulation der neuronalen Erregbarkeit. Wie dem auch sei, es ist deutlich ein positiver Strom zu erkennen, der, solange der Kommandopuls anliegt, zu messen ist, d. h. der Strom inaktiviert nicht. Positiver Strom bedeutet eine Bewegung von positiver Ladung, in diesem Fall Kaliumionen, vom Inneren der Zelle nach außen. Gebräuchliche Verstärker sind Geräte von NPI Instruments oder Molecular Devices. Für die Datenaufnahme und die Steuerung der Pulsprotokolle gibt es mehrerer Softwarepakete, wie z. B pCLAMP (Molecular devices) oder CellWorks, welches den großen Vorteil hat, dass es umsonst von NPI Instruments zusammen mit den Verstärkern vertrieben wird. Des Weiteren sollten die Messelektroden unter optischer Kontrolle durch ein Binokularmikroskop mittels Mikromanipulatoren bewegt werden. Obwohl die Zwei-Elektroden-Spannungsklemme gerade für Struktur-/Funktionsuntersuchungen oder pharmakologische Studien sehr viele Vorteile bietet, sollen an dieser Stelle nicht die zwei großen Nachteile verschwiegen werden. 1. Auf Grund der Größe der Oocyten besitzt ihre Plasmamembran eine sehr große Kapazität, weshalb sich das Membranpotenzial erst langsam nach dem Anlegen des Kommandopotenzials einstellt. Deshalb ist es schwierig, sehr schnell aktivierende und in-
5
111
5.2 • Elektrophysiologische Methoden zur Untersuchung von Ionenkanälen
5
0 0
1 Zeit (s)
2
. Abb. 5.8 Funktionelle Expression von Kv7.2 zusammen mit Kv7.3 in Xenopus laevis Oocyten. (A) Exemplarisches Pulsprotokoll, mit dem die Xenopus-Oocyte in (B) analysiert wurde. Ausgehend von einem Haltepotenzial von –80 mV werden der Oocyte nacheinander unterschiedliche Soll-Potenziale von –80 mV bis 40 mV (in 20 mV Schritten) aufgezwungen. Nach jedem Kommandopuls bei der entsprechenden Spannung schließt sich ein Spannungspuls bei –30 mV an. Anschließend wird die Oocyte für einige Zeit bei –80 mV gehalten, bevor der nächste Kommandopuls durchgeführt wird. Typische Stromspuren einer Oocyte, die 2–3 Tage zuvor mit der cRNA von Kv7.2 und Kv7.3 im Verhältnis 1:1 co-injiziert wurde
aktivierende spannungsabhängige Kanäle wie die Natriumkanäle zu messen. Die transienten Kapazitäten können minimiert werden, aber es bleibt sehr schwierig, kanalvermittelte Ströme innerhalb der ersten Millisekunden nach einem Spannungssprung zu messen. 2. Ein weiterer großer Nachteil ist, dass das intrazelluläre Milieu, das Cytoplasma der Oocyten, nur sehr schwierig verändert werden kann, weswegen bestimmte Studien nicht durchgeführt werden können. Eine Methode, diese Nachteile zu umgehen, ist die so genannte Cut-Open Oocyten-Spannungsklemme. Dabei wird die Oocyte in einer Messkammer analysiert, die die Oberfläche der Zelle in drei verschiedene Zonen unterteilt. Die obere Zone ist die, die auf eine bestimmte Spannung ge-
112
5
Kapitel 5 • Elektrophysiologische Methoden
klemmt wird und von der die Ströme aufgenommen werden. Die mittlere separiert die obere von der unteren, die wiederum entweder durch das Detergens Saponin permeabilisiert wird oder in die eine Kanüle eingeführt werden kann, wodurch der Intrazellulärraum der Oocyte perfundiert werden kann. Außerdem kann durch die Kanüle mit einem geringen Widerstand intrazellulär Strom injiziert werden, wodurch sich die transienten Kapazitäten minimieren lassen. Mit Hilfe dieser Technik können z. B. die sogenannten Gating-Ströme gemessen werden. Dies sind Ströme, die durch die Bewegung der positiven Ladungen der Spannungssensoren von spannungsabhängigen Kationenkanälen innerhalb der Membran entstehen. Allerdings sind diese nur dann messbar, wenn zuvor der Stromfluss durch die Pore blockiert wurde (Stefani and Bezanilla, 1998).
5.2.2
Patch-Clamp
Wie schon erwähnt, wurde die Patch-Clamp-Technik von Neher und Sakmann entwickelt (Neher und Sakmann 1976). Sie erlaubt es, Einzelkanäle und vereinfachte Ganzzellströme von sehr kleinen Zellen zu messen. U. a. weil diese Methode die Möglichkeit, die Aktivität von einem einzelnen Molekül in Echtzeit zu untersuchen, bietet, hat sie die elektrophysiologische Forschung revolutioniert. Bei der Entwicklung dieser Methode benutzten Neher und Sakmann eine Glaselektrode (Mikropipette), die einen Durchmesser von ca. 1 μM und einen elektrischen Widerstand im MΩ (0,5–25) Bereich besaß. Als sie sich mit einer solchen Glaselektrode der Zellmembran näherten, bemerkten sie, dass der Widerstand der Elektrode auf ca. 50 GΩ anstieg (. Abb. 5.9). Dies wiederum führten sie darauf zurück, dass die Zellmembran die Öffnung der Pipette dicht verschlossen hat. Dadurch waren sie in der Lage den Strom zu messen, der durch die Ionenkanäle fließt, welche sich innerhalb des Bereichs der Membran befanden, der von der Pipette umfasst wurde, dem so genannten patch. Da dieser Strom in der Regel nur wenige pA beträgt, ist es sehr wichtig, dass keine so genannten Leckströme fließen, die zwischen der Membran und der Pipette entstehen könnten, da diese sonst die Ionenka-
nalströme überlagern. Wenn die Zellmembran die Pipette fest verschlossen hat (ein so genannter Gigaseal mit einem Widerstand zwischen 1 und 100 GΩ), ist es möglich, das Membranpotenzial durch die Mikropipette zu verändern. kMessmöglichkeiten mit Hilfe der PatchClampTechnik
Im Grunde gibt es vier verschiedene Patch-ClampKonfigurationen: A) Cell-attached B) Inside-out C) Whole-Cell und D) Outside-out. Drei Modi erlauben es, Ströme von Einzelkanälen zu messen, die sich innerhalb des von der Pipette umschlossen Bereiches befinden, wohingegen die Whole-Cell Konfiguration den Strom misst, der durch alle Ionenkanäle in der Plasmamembran der Zelle fließt (. Abb. 5.9). Es wird grundsätzlich mit dem Cell-attachedModus angefangen. Dazu fährt man die Mikropipette mit Hilfe von (elektronischen) Mikromanipulatoren in die Nähe einer intakten Zelle und nähert sich ihr so lange, bis der Pipettenwiderstand steigt. Wenn dies geschieht, sollte man versuchen, durch Anlegen eines Unterdrucks in der Pipette einen Gigaseal hinzubekommen. Ist dieses gelungen, befindet man sich im Cellattached-Modus, in dem die Zelle intakt sein sollte. Demnach ist diese Konfiguration besonders geeignet, die Eigenschaften von Ionenkanälen unter physiologischen Bedingungen zu untersuchen. Da bei dieser Anordnung der Verschluss (Seal) der Mikropipette durch die Membran sehr fest ist und keinerlei Substanzen die Möglichkeit haben in die Pipette zu gelangen (und umgekehrt), kann z. B. untersucht werden, ob Hormone oder Neurotransmitter direkt auf Ionenkanäle wirken oder indirekt über cytosolische Second Messenger. Dennoch hat diese Methode zwei große Nachteile: 1. Die Zusammensetzung des Cytoplasmas und die damit möglichen Auswirkungen auf die Ionenkanalaktivität sind nicht bekannt. 2. Das Ruhemembranpotenzial der Zelle ist ebenfalls nicht bekannt, welches sich zum Kommandopuls addiert. Die beiden anderen Konfigurationen zum Messen von Einzelkanälen (Inside-out und Outsideout) sind möglich, da der Membranfleck, der die Pipette verschließt, aus der Zellmembran herausgetrennt werden kann, ohne dass er zerstört wird
5.2 • Elektrophysiologische Methoden zur Untersuchung von Ionenkanälen
Mikropipette (Öffnung ca. 0,5-1 μM)
niedriger Widerstand Membran
Unterdruck
A
Cell-attachedKonfiguration Gigaseal (1-100 GΩ)
Patch-Herauslösung durch Abziehen der Pipette
Patch-Zerstörung durch starken Sog
Unterdruck
B
Inside-outKonfiguration
C
Whole-CellKonfiguration
Umklappen der Membran durch Abziehen der Pipette
Outside-out-
D Konfiguration
113
5
. Abb. 5.9 Schematische Darstellung der vier Patch-Clamp-Konfigurationen. (A) Die Cell-attached-Konfiguration wird erreicht, indem ein Seal zwischen Pipette und Zellmembran hergestellt wird. (B) Wird die Pipette aus der Cell-attached-Konfiguration von der Zelle abgezogen, kann die Insideout-Konfiguration erreicht werden, in der ein Stück Membran aus der Zelle herausgerissen wurde. (C) Die Whole-Cell-Konfiguration wird erreicht, indem im Cell-attached-Modus in der Pipette ein starker Unterdruck angelegt wird, wodurch die Membran, die von der Pipette umschlossen wurde, zerrissen wird. (D) Aus dieser Konfiguration kann man durch Abziehen der Pipette zur so genannten Outside-out-Konfiguration gelangen
114
5
Kapitel 5 • Elektrophysiologische Methoden
(Inside-out) bzw. sich neu bildet (Outside-out). Ein Inside-out-Patch kann erreicht werden, indem die Pipette im Cell-attached-Modus von der Zelle abgezogen wird. Dadurch bleibt der Membranfleck, den die Pipette auf der Zelle umschlossen hat, im besten Fall an der Pipettenöffnung hängen und verschließt diese. Nun kann z. B. der Effekt von möglichen cytosolischen Regulatoren der Einzelkanalaktivität gemessen werden. Ein Outside-out-Patch kann hingegen erreicht werden, indem die Mikropipette in der Whole-Cell-Anordnung von der Zelle abgezogen wird, wodurch die Membran die Pipettenöffnung ebenfalls wieder verschließt, diesmal aber mit der Außenseite nach außen. Dadurch kann nun z. B. untersucht werden, wie Ionenkanäle durch extrazelluläre Liganden reguliert werden. Die Whole-cell(Ganzzell-)-Konfiguration erlaubt es den Strom zu messen, der durch alle Kanäle in der Zellmembran vermittelt wird. Standardmäßig wird bei dieser Methode die Membran, die von der Pipette umschlossen wird, durch einen starken Unterdruck zerstört, so dass das Zellinnere und die Pipettenlösung sich miteinander vermischen, wodurch die intrazelluläre Lösung veränderbar ist. Wenn dies unerwünscht ist, sollte man auf eine Abwandlung dieser Methode zurückgreifen. Dazu gibt man in die Pipettenlösung z. B. Amphotericin, welches die von der Pipette umschlossene Membran durchlässig macht für Kaliumionen und andere monovalente Kationen, nicht aber für Anionen, bivalente Kationen und ungeladene Moleküle. Man spricht nun von einem perforierten Patch, der den Vorteil hat, dass sich die Pipettenlösung und das Cytoplasma der Zelle nicht miteinander vermischen. Die Whole-cell-Konfiguration wird sehr häufig benutzt und es können Zellen bis zu einem Durchmesser von 50 μm mittels Spannungsklemme gemessen werden. . Abb. 5.10 zeigt vereinfacht eine Patch-Clamp-Anordung, aus der sofort ersichtlich ist, dass diese im Vergleich zur Zwei-ElektrodenSpannungsklemme nur mit einer Elektrode zur Kontrolle des Membranpotenzials und zur Strommessung auskommt, weshalb die unterschiedlichen Konfigurationen überhaupt erst möglich sind. Weitere Vorteile gegenüber der Zwei-Elektroden-Spannungsklemme ist die Schnelligkeit der Messung
Verstärker
Spannungspuls Mikropipette Referenz Badelektrode . Abb. 5.10 Schematische Darstellung eines Patch-ClampSchaltkreises. Die Patchpipette ist mit dem Vorverstärker verbunden, der in der Lage sein sollte, Ströme im pA Bereich aufzunehmen. Außerdem sollte die Reaktionszeit des Verstärkers, mit der der Zelle Spannungsänderungen aufgezwungen werden, im μs-Bereich liegen. Es gibt verschiedene Computerprogramme, die die Steuerung des Verstärkers übernehmen und mit denen Spannungsimpulse auf die Zelle appliziert werden können
und die geringeren kapazitativen Ströme, die bei der Patch-Clamp-Methode auftreten, da die Zellen und damit die Zellmembran meist kleiner sind. Apropos Zellen: Im Grunde kann jede Zelle gepatcht werden, wobei man gerade am Anfang auf Standardzelllinien wie z. B. humane embryonale Nierenzellen (HEK293, siehe 7 Kap. 4) zurückgreifen sollte. Diese können unter Standardbedingungen kultiviert werden, und wenn man die cDNA eines Ionenkanals zur Hand hat, der untersucht werden soll, können diese auch sehr leicht transfiziert werden, so dass sie den gewünschten Kanal überexprimieren. Nun sieht man den Zellen leider in der Regel nicht an, dass sie transfiziert sind, und die Transfektionsrate ist meist auch nicht sehr groß, weswegen lange gesucht werden müsste, bis man eine transfizierte Zelle erwischt und gepatcht hat. Es bietet sich deshalb an, cDNA von dem GrünFluoreszierenden Protein (GFP) co- zu transfizieren. Nun braucht man »nur noch« mit Hilfe eines Fluoreszenzmikroskops transfizierte Zellen zu suchen und zu patchen. Dieses Prozedere entfällt, wenn stabil- oder untransfizierte Zellen untersucht werden sollen. Im letzteren Fall exprimieren die Zellen meist aber nicht nur ein Kanalprotein, sondern viele verschiedene Ionenkanäle.
5.2 • Elektrophysiologische Methoden zur Untersuchung von Ionenkanälen
A
Faraday`scher Käfig
B Messkammer
Patchpipette
C Mikroskop
Patchpipette
115
5
. Abb. 5.11 Patch-Clamp Aufbau und gepatchtes Neuron. (A) Patch-Clamp-Aufbau in einem Faraday‘schen Käfig mit einem inversen Mikroskop, Mikromanipulator und Schwingungs-gedämpften Tisch. (Mit freundlicher Genehmigung von T. Huth.) (B) Messkammer mit der Patchpipette und dem Patchpipettenhalter. (Mit freundlicher Genehmigung von M. Nissen.) (C) Bild einer akut isolierten Pyramidenzelle mit einer aufsitzenden Patchpipette (Abbildung modifiziert nach Alzheimer et al., 1993)
Mikromanipulator Neuron Schwingungs-gedämpfter Tisch
kPatch-Clamp-Hardware
Wobei wir auch schon bei der Hardware wären, die man benötigt, um zu patchen. Man sollte sich ein Fluoreszenz-Mikroskop anschaffen, welches auf einem Schwingungs-gedämpften Tisch stehen sollte, um Erschütterungen zu vermeiden. Des Weiteren braucht man einen Mikromanipulator mit dem die Mikropipette ganz genau bewegt werden kann. Diesen ganzen Aufbau umgibt man am besten mit einem Faraday‘schen Käfig, damit äußere elektrische Felder abgeschirmt werden (. Abb. 5.11A). Außerdem braucht man natürlich einen PatchClamp Verstärker (z. B. bei HEKA oder Molecular Devices), der wiederum in der Lage sein sollte sehr kleine Ströme (im pA-Bereich) aufnehmen zu können (natürlich ist das noch nicht alles, da man noch eine Messkammer (. Abb. 5.11B), eine Möglichkeit zum Austausch von Messlösungen etc. benötigt). Etwas ausführlicher sollen an dieser Stelle die sogenannten Puller oder Elektroden-Ziehgeräte zur Herstellung der RNA-Injektionskanülen, den Mikroelektroden zur Messung der Oocyten und den Patchpipetten behandelt werden, da die Qualität dieser Kanülen und Elektroden die Experimente maßgeblich beeinflusst. Wichtig ist, dass die Elektrodenziehgeräte reproduzierbare Pipetten herstellen, damit nicht so viel Zeit darauf verwandt werden
muss, immer wieder die richtigen Einstellungen für die unterschiedlichen Pipetten und Glassorten zu finden. Außerdem sollte das Gerät in der Lage sein Pipetten zum Patchen mit Hilfe von Hitze zu polieren, damit es dem Experimentator überhaupt möglich ist einen Gigaseal hinzubekommen. kPatchen von primären Neuronen
Wie schon erwähnt, ist im Prinzip jede Zelle patchbar. Der neurowissenschaftlich interessierte Experimentator ist sicherlich hauptsächlich an Neuronen oder Gliazellen interessiert, die z. B. aus einer Primärkultur entstammen, wie in 7 Kap. 4 beschrieben. Wenn Neurone gepatcht werden sollen (. Abb. 5.11), muss sich der Experimentator klar sein, dass diese Zellen polarisiert sind und die unterschiedlichen zellulären Bereiche eines Neurons, Dendriten, Zellkörper (Soma) und Axone, sich in ihrem elektrophysiologischen Verhalten massiv unterscheiden können. Deswegen sollte man sich zuvor gut überlegen, welcher Bereich von Interesse ist, damit dieser gepatcht werden kann. Grundsätzlich sind alle Bereiche patchbar, wobei der Zellkörper sicherlich die kleinste Herausforderung darstellt. Damit der Strom gemessen werden kann, an dem der Experimentator interessiert ist, sollten möglichst viele »Fremdströme« blockiert
116
5
Kapitel 5 • Elektrophysiologische Methoden
werden. Dies ist besonders wichtig bei der Untersuchung von den spannungsabhängigen Ionenkanälen, da die meisten dieser Familie bei Depolarisation der Plasmamembran öffnen und wie wir ja schon wissen, der zu messende Strom die Summe aller Ionenbewegungen über die Membran ist (bei physiologischen Salzkonzentrationen). Eine Möglichkeit, bestimmte Ionenkanäle auszuschließen, ist der Einsatz von Ionenkanalblockern. Dies können natürlich vorkommende Toxine sein (siehe Exkurs), wie z. B. Tetrodotoxin (TTX) zum Blockieren von spannungsabhängigen Natriumkanälen oder chemische Substanzen, wie das Tetraehtylammoniumion (TEA), welches spannungsabhängige Kaliumkanäle blockiert. Bei der Verwendung von TEA muss man aber aufpassen, da diese Substanz eine relativ geringe Affinität gegenüber den Kanälen besitzt und nicht alle Kanäle blockiert. Neben dem Einsatz von mehr oder weniger spezifischen Ionenkanalblockern (oder Aktivatoren) können natürlich auch Zellen aus transgenen Tieren im Vergleich zu Wildtyp-Zellen untersucht werden. Nun können Sie sich vielleicht nach diesen Ausführungen vorstellen, dass es viel Übung und allerlei technische Geräte bedarf, um einen Patch mit einem Widerstand im Gigaohm-Bereich zu erhalten. Eine neuere deutlich weniger aufwendige Methode erlaubt es, zumindest Ganzzellmessungen (auch perforiert) durchzuführen und Einzelkanäle im Cell-attached-Modus aufzunehmen. z Port-a-Patch-Methode ®
Diese Methode ist ein auf das Notwendigste reduziertes Patch-Clamp-System und benutzt einen cleveren Trick. Anstatt die Zellen mit einer Mikropipette zu patchen, lässt man sie auf BorosilikatGlaschips wachsen, die ein Loch von 1 μm Durchmesser besitzen. Die Zelle wird zufällig mittels Unterdruck an den Chip gesaugt und heftet sich dort an (wegen der Zufälligkeit dieses Vorgangs sollten nur Zellen genommen werden, welche die zu untersuchenden Kanäle stabil oder endogen exprimieren). Danach wird ein Unterdruck an die Öffnung angelegt und der Membranfleck, der sich auf der Öffnung befindet, durchtrennt. Nun kann mit den Messungen in der Whole-Cell-Konfigu-
Zelle
Chip Lösung
. Abb. 5.12 Schematische Darstellung des Port-a-PatchSchaltkreises. Die Zelle wächst auf einem Glaschip und ist von einer Lösung umgeben, in welche die Referenzelektrode eingetaucht ist. Diese Lösung kann für pharmakologische Studien leicht ausgetauscht werden. Die untere Lösung ist äquivalent zur Pipettenlösung bei der Patch-Clamp-Methode
ration begonnen und die externe Lösung ausgetauscht werden (. Abb. 5.12). Diese Methode ist von der Firma nan]i[on entwickelt worden und ist gerade für die pharmazeutische Industrie von großem Interesse, da relativ einfach eine große Anzahl unterschiedlichster Substanzen an Ionenkanälen getestet werden können. kKapazitätsmessungen der Zellmembran
Die Patch-Clamp-Methode wurde weiter entwickelt, um die Kapazitäten von Zellen zu messen. Wie schon in der Einführung beschrieben, besitzen biologische Membranen spezifische Kapazitäten von ca. 1 μF/cm2 und je größer eine Zelle ist, desto größer ist ihre Kapazität. Aufgrund der Proportionalität der Kapazität und der Größe der Membran ist es möglich, Größenveränderungen der Plasmamembran zu untersuchen, wie sie z. B. bei sekretorischen Prozessen auftreten. Neuronale, hormonproduzierende und z. B. Mastzellen sezernieren unterschiedlichste Substanzen, die in membranumgebenen Vesikeln gelagert werden. Wenn solche Zellen stimuliert werden, wandern diese Vesikel zur Plasmamembran und fusionieren mit ihr, wodurch die Substanz freigesetzt wird. Dieser Vorgang wird als Exocytose bezeichnet und spielt z. B. eine sehr wichtige Funktion bei der Freisetzung von Insulin durch die β-Zellen des Pankreas oder bei der Freisetzung von Neurotransmittern an der präsynaptischen Membran. Umgekehrt
5.2 • Elektrophysiologische Methoden zur Untersuchung von Ionenkanälen
117
5
Tetrodotoxin und Co Im Laufe der Evolution haben sich eine erstaunliche Vielzahl von Ionenkanal-Gegenspielern, so genannte Antagonisten, entwickelt, die sehr spezifisch Ionenkanäle blockieren. Viele dieser Substanzen kommen in Giften vor, die von den unterschiedlichsten Kreaturen zum Schutz oder zur Jagd benutzt werden. Ein bekanntes und außergewöhnlich wirkungsvolles Gift ist das Tetrodotoxin (TTX), welches sehr spezifisch und mit hoher Affinität spannungsabhängige Natriumkanäle hemmt. Die wohl bekanntesten TTX-produzierenden Tiere sind Kugelfische (Tetraodonitae), in deren Haut, Leber und den Eierstöcken der weiblichen Fische hohe Konzentrationen des
Gifts zu finden sind. Eigentlich dient es den Fischen zum Schutz vor Fressfeinden, doch hat es sich für die Tiere in Japan als Bumerang erwiesen, da die Japaner gerade wegen des Kribbelns auf der Zunge den Verzehr eines Kugelfisches der Fugu-Arten sehr schätzen. Allerdings müssen die Fische von speziell ausgebildeten Köchen zubereitet werden, weil es sonst ein einmaliges kulinarisches Erlebnis werden könnte. Deswegen ist der Import solcher Kugelfische nach Deutschland verboten. TTXVergiftungen sind durch Lähmungen gekennzeichnet, die einen Atemstillstand zur Folge haben können. Interessanterweise findet sich das Gift in weiteren nicht ver-
können Zellen durch die Einschnürung von membranumgebenen Vesikeln Substanzen aus dem Extrazellulärraum aufnehmen, was als Endocytose bezeichnet wird. Erwin Neher ist es gelungen, die Veränderung der Oberfläche der Plasmamembran mit Hilfe der Patch-Clamp-Methode durch die Veränderung der Membrankapazität zu messen. Die Auflösung dieser Technik wurde soweit verbessert, dass es möglich ist, die Exo- und Endocytose eines einzelnen Vesikels mit der Plasmamembran nachzuweisen.
5.2.3
Messung von Aktionspotenzialen
Eine Besonderheit von Neuronen und anderen erregbaren Zellen ist die Ausbildung von Aktionspotenzialen. Diese werden von den Nervenzellen genutzt, um Informationen zum Teil über sehr weite Entfernungen zu transportieren. Ein Aktionspotenzial wird durch die Bewegung von Ionen durch spannungsabhängige Ionenkanäle erzeugt. Ein Einfluss von Natriumionen (und Ca2+) depolarisiert die Membran, wodurch, bei Überschreitung eines bestimmten Schwellenwertes, ein Aktionspotenzial ausgelöst werden kann. Durch die schnelle Inaktivierung der Natriumkanäle und
wandten Arten, wie z. B. bestimmten Kraken, Kröten oder Krabben, allerdings ist nicht klar, wie die Tiere zu dem Gift kommen. Eine Hypothese ist, dass die Tiere durch die Nahrung TTX-produzierende Bakterien aufnehmen. Für diese Theorie spricht wiederum, dass Fugu-Fische giftfrei werden, wenn sie mit einer Spezialfuttermischung gefüttert werden. Weitere Beispiele aus dem Giftschrank der Natur sind Bestandteile von Schlangengiften, wie z. B. das αBungarotoxin und die Cardiotoxine, oder Conotoxine, die von Meereskegelschnecken der Gattung Conus zur Beutejagd genutzt werden.
einem Ausfluss von Kaliumionen durch spannungsabhängige Kaliumkanäle wird die Membran wieder repolarisiert. Prinzipiell können Aktionspotenziale auf zwei verschiedene Arten gemessen werden, durch intrazelluläre und durch extrazelluläre Messungen (. Abb. 5.13). Für die intrazelluläre Messung ist es erforderlich, eine Mikroelektrode in das Neuron oder ihr Axon einzuführen. Es ist leicht vorstellbar, dass dies durch die geringe Größe der meisten Neurone nicht ganz so einfach ist. Die Entwicklung dieser Methode wurde an Riesenaxonen von Tintenfischen durchgeführt und geht auf die Arbeiten von Cole und Curtis zurück. Diese amerikanischen Wissenschaftler konnten parallel mit den Briten Hodgkin und Huxley in den 40er Jahren des letzten Jahrhunderts das erste Aktionspotenzial eines Axons mit einer intrazellulären Mikroelektrode messen. Neben ihrer Leistung zur Charakterisierung von Aktionspotenzialen entwickelte Kenneth Cole, wie schon erwähnt, dabei die so genannte Voltage-Clamp-Methode, in der der Experimentator eine Spannung an der Membran anlegt und die daraus resultierenden Ströme misst, wie im Abschnitt für Xenopus Oocyten beschrieben. Natürlich kann auch die Patch-ClampMethode zur Messung von Aktionspotenzialen genutzt werden, da sie ja in der Whole-Cell-Konfiguration einer intrazellulären Messung entspricht.
118
Kapitel 5 • Elektrophysiologische Methoden
Neuron anfängt solange Aktionspotenzial zu feuern, bis die Depolarisation aufhört!
5.2.4 intrazelluläre Elektrode
extrazelluläre Elektrode
5 . Abb. 5.13 Schematische Darstellung zur Messung von Aktionspotenzialen. Dargestellt ist ein Neuron, das mit einer intrazellulären Elektrode am Anfang des Axons, dem so genannten Axonhügel, angestochen wurde. Bei der extrazellulären Ableitung wird die Elektrode in die Nähe des Axons platziert. Beide Elektroden sind mit einem Verstärker verbunden und als Referenz dient jeweils eine Badelektroden
Die Mikroelektroden für die intrazellulären Ableitungen ähneln vom Aufbau ebenso denen, die für die Oocyten benutzt werden, nur müssen sie sehr viel feiner sein, um kleine Neurone anstechen zu können. Auch diese Elektroden werden mit einem Verstärker verbunden, der wiederum die Potenzialdifferenz zwischen Innen und Außen misst. Eine Darstellung der Aktionspotenziale erfolgt z. B. über ein Oszilloskop. Für die extrazelluläre Messung kann im Prinzip die gleiche Versuchsanordnung verwandt werden, nur wird die Messelektrode in der Nähe des Neurons platziert. Bei nicht vorhandener neuronaler Aktivität ist die Potenzialdifferenz zwischen der Mess- und der Referenzelektrode gleich null. Wurde die Elektrode richtig gesetzt, ist es möglich, auch extrazellulär Aktionspotenziale zu messen, weil dadurch messbare Potenzialdifferenzen zwischen der Mess- und Referenzelektrode entstehen, die aber sehr viel kleiner sind, als die intrazellulär gemessenen. Im Prinzip kann auch versucht werden zwei Elektroden, ähnlich den Strom- und Spannungselektroden bei der TEVC in ein Neuron zu platzieren. Über die Stromelektrode kann dann Strom injiziert werden, wodurch die Membran des Neurons über den Schwellenwert zur Auslösung eines Aktionspotenzials depolarisiert wird und das
Messung von postsynaptischen Potenzialen (PSP)
Nun ist ja eine Besonderheit von Nervenzellen, dass sie miteinander verschaltet sind. Die Verschaltung erfolgt durch Synapsen, die sehr wichtig sind für die Informationsübertragung von Neuronen. Im Grunde gibt es zwei Arten von Synapsen, elektrische und chemische, wobei die chemischen vermutlich eine wichtigere neurophysiologische Rolle spielen. Da die Grundlagen für die Informations- oder Signalübertragung an Synapsen den Umfang dieses Kapitels sprengen würden, beschränken wir uns auf die Methodik der Messung des Informationsflusses. Wie wir im vorangehenden Kapitel gelernt haben, kann man Aktionspotenziale messen und auslösen. Diese wandern dann entlang des Axons des Neurons bis zur präsynaptischen Membran, wo sie dann entweder eine Depolarisation oder eine Hyperpolarisation der postsynaptischen Membran des nächsten Neurons verursachen. Im Fall einer Depolarisation spricht man von exzitatorischen postsynaptischen Potenzialen (EPSP) und im Fall einer Hyperpolarization von inhibitorischen postsynaptischen Potenzialen (IPSP). Diese können mit Hilfe von elektrophysiologischen Methoden gemessen werden. Dazu wird eine Mikroelektrode in den postsynaptischen Bereich eingeführt, mit deren Hilfe man in der Lage ist die Potenzialveränderungen in dem Dendrit zu messen. Auch hier kann man bzw. sollte man auf die Patch-Clamp-Technik zurückgreifen. Die Apparatur, die man für solche Messungen benötigt, unterscheidet sich nicht von der zur Messung der Aktionspotenziale. Allerdings muss man aufpassen, dass man nicht ein so ganntes postsynaptisches Miniaturpotenzial für ein »echtes« PSP hält, da spontane postsynaptische Potenzialschwankungen auftreten können, die unabhängig von den präsynaptischen Reizungen sind. Die Amplituden dieser so genannten Minis sind aber um ein Vielfaches kleiner und in der Regel recht gut von den PSPs zu unterscheiden.
119
5.2 • Elektrophysiologische Methoden zur Untersuchung von Ionenkanälen
5.2.5
Patchen an akuten Gewebeschnitten
Bislang haben wir ausschließlich eine Zelle als verhältnismäßig einfaches Untersuchungsobjekt betrachtet und damit außer Acht gelassen, dass gerade die verschiedensten Neurone sehr komplex in den unterschiedlichsten Hirnarealen miteinander verschaltet sind. Eine Möglichkeit, die Zellen im Zellverband elektrophysiologisch zu analysieren, ist die Anfertigung von so genannten akuten Hirnschnitten, die aus den verschiedensten Hirnregionen hergestellt werden können. Es ist leicht vorstellbar, dass sich die Komplexität der elektrophysiologischen Untersuchungen dadurch stark erhöht. Im Prinzip können Hirnschnitte aus allen erdenklichen Hirnregionen oder aus dem Rückenmark, z. B. zur Analyse von Motoneuronen hergestellt werden. Dabei ist allerdings wichtig, dass in der Schnittebene die neuronalen Verbindungen erhalten geblieben sind. Nach der Präparation des gewünschten Gewebes wird es in der Regel in mit Carbogen (eine Gasmischung aus Sauerstoff und Kohlendioxid, die wichtig für die Zellatmung ist) begaster artifizieller Cerebrosinalflüssigkeit (ACSF; z. B. 121 mM NaCl, 1,2 mM NaH2PO4, 26 mM NaHCO3, 5 mM KCl, 1,3 mM MgCl2, 2,4 mM CaCl2, 10 mM Glucose, 5 mM HEPES, pH 7,4) gelagert, wobei die experimentellen Bedingungen auf die Fragestellungen und die unterschiedlichen Gewebe angepasst werden müssen. Auch kann es ratsam sein, an dieser Stelle schon bestimmte Ionenkanalblocker zuzusetzen oder bestimmte Ionen zu ersetzen, wie z. B. Calcium, um nicht gewünschte neuronale Erregungen zu minimieren. Als nächstes wird das Hirngewebe in 300–400 nm dicke Scheiben geschnitten, wozu z. B. ein Vibratom genutzt werden kann, welches sich durch eine vibrierende Rasierklinge auszeichnet, die das Gewebe zerschneidet. Zuvor muss allerdings das zu schneidende Material auf den Präparateträger des Vibratoms mit Hilfe von Gewebe- oder Sekundenkleber fixiert werden, damit es nicht davon schwimmt, denn das Ganze sollte in gekühlter ACSF-Lösung geschehen. Wenn die Gewebestücke zu klein sind, kann das Material in Agarose (niedrig schmelzende benutzten!!!!) eingebettet werden. Nach dem Schneiden können die Schnitte unter ständiger Begasung in erwärm-
5
Reizelektrode(n)
Mikropipette
Dendrit
Patchpipette
Soma . Abb. 5.14 Patch-Clamp in der CA1-Region des Hippocampus im Gewebeschnitt. Schematische Darstellung der Position der Pipetten für die Whole-Cell-Messung am Beispiel eines pyramidalen Neurons. Die Patchpipette sitzt auf dem Soma des Neurons auf. Der lange apikale Dendrit der Zelle zieht sich bis in die linke obere Ecke der Abbildung. An dieser Stelle ist eine Mikropipette positioniert, die zur Applikation von diversen Substanzen genutzt werden kann. Für die Aufnahme eines PSPs kann mit Hilfe einer Reizelektrode stimuliert werden. Dies simuliert synaptischen Input (Abbildung modifiziert nach Seeger and Alzheimer, 2001)
ter ACSF-Lösung für mehrere Stunden aufbewahrt werden. Die eigentliche Messung der Schnitte erfolgt in Kammern, die in ihrem Aussehen sehr stark variieren können. Es muss sichergestellt sein, dass die Temperatur der Kammer und der frisch begasten ACSF-Lösung, die zur Spülung benötigt wird, geregelt werden kann. Die Schnitte liegen in der Regel auf einem engmaschigen Nylonnetz und werden durch ein weitmaschiges zweites, oben aufliegendes Netz fixiert. Für die direkten Messungen an Neuronen kann nun wiederum die Patch-Clamp-Technik benutzt werden, um Ströme im Whole-Cell-Modus zu messen (. Abb. 5.14). Es ist leicht nachzuvollziehen, dass es nicht so einfach ist, die richtigen Zellen zu finden und das es dazu eine Menge Übung bedarf. Außerdem muss der Experimentator darauf achten, dass die Patchpipette nicht vorher verstopft, bevor die zu patchende Zelle erreicht wird. Um dies zu vermeiden, legt man einen Überdruck an die
120
5
Kapitel 5 • Elektrophysiologische Methoden
Patchpipette an, mit deren Hilfe auch störendes umliegendes Gewebe von den Zielzellen entfernt werden kann. Nachdem dies geschehen ist, wird die Pipette mit Hilfe eines Mikromanipulators an die Membran des Neurons geführt und durch Anlegen eines Unterdrucks gepatcht. Dies alles geschieht unter einem Mikroskops, dass zur Infrarot-SGCBildgebung (Scanning Gradient Contrast) befähigt ist, da diese optische Methode die Darstellung nicht gefärbter Zellen in dickem, streuendem Gewebe erlaubt. Nun kann mit der Messung im Whole-CellModus begonnen werden. Um die intrazelluläre Komposition des Cytosols der zu messenden Zelle nicht zu beeinflussen, kann auch hier wieder mit einem perforierten Patch gearbeitet werden. Durch einen Austausch der Badlösung können außerdem die verschiedensten Ionenkanalantagonisten appliziert werden. Wenn lokal Substanzen appliziert werden sollen, muss eine Mikropipette an die gewünschte Stelle eingeführt werden. Zusätzlich können noch Reizelektroden in den Versuchsaufbau integriert werden (. Abb. 5.14). Je nachdem, wo die Zelle gepatcht wurde, können in dieser Versuchsanordnung z. B. auch PSPs oder Aktionspotenziale gemessen werden.
5.2.6
Messung der synaptischen Plastizität
Lernen ist ein komplexer Vorgang im zentralen Nervensystem (ZNS) und wird mit einer Veränderung und Neubildung von Synapsen in Verbindung gebracht. Diese Lernvorgänge des Gehirns zu verstehen, fasziniert Neurowissenschaftler schon seit Jahren und wird auch in Zukunft von größtem Interesse sein. Neuronale Netzwerke bilden die Grundlage aller Leistungen des Gehirns und es erscheint, dass diese Netzwerke außerordentlich wandlungsfähig sind. Die Wandlungsfähigkeit besteht darin, dass Synapsen zwischen Neuronen neu geknüpft werden bzw. sich die Qualität der Verbindung der Synapsen im Zuge des Lernens verändert. Als ein Maß des Lernens auf zellulärer und molekularer Ebene wird die so genannte Langzeitpotenzierung (LTP) betrachtet, die vermutlich die Basis von Erinnerung und Lernen ist. Der umgekehrte Prozess wird hingegen als
Langzeitdepression (LTD) bezeichnet. LTP und LTD können mit Hilfe von Hirnschnittpräparaten in fast allen Regionen des Gehirns gemessen werden. Auf Grund der Wichtigkeit des Hippocampus bei Lernvorgängen, seinem recht einfachen Aufbau und seiner leichten Identifikation hat sich diese Hirnregion als Modellregion für LTP-Messungen etabliert. Außerdem lassen sich in hippocampalen Schnitten die Elektroden zur Messung von LTP und LTD sehr gut positionieren. Letztendlich ist die Messung von LTP nichts anderes als die Messung von EPSPs. Dazu wird eine Reizelektrode in die Region eingeführt, die angeregt werden soll. Eine zweite intrazelluläre Mess- oder Ableitelektrode wird in den postsynaptischen Bereich des Neurons eingeführt und misst die postsynaptischen Potenziale (. Abb. 5.15). Um LTP zu induzieren, wird z. B. mit Hilfe der Reizelektrode ein hochfrequenter Testreiz mit einer Frequenz von ungefähr 100 Hz (Reize pro Sekunde) über einen längeren Zeitraum in das Präparat appliziert und das EPSP vor und nach Stimulation gemessen. Wiederholt man diesen Versuch ist häufig eine Verstärkung des EPSPs zu registrieren. D.h. die Depolarisation der postsynaptischen Membran nimmt zu, was auf molekulare Veränderungen in den Synapsen zurückgeführt wird. Um LTD zu messen, kann im Prinzip der gleiche Versuchsaufbau verwendet werden, nur nutzt man in der Regel einen niederfrequenten Testreiz, was häufig mit einer Abnahme der synaptischen Übertragungsrate einhergeht.
5.2.7
Ableitung evozierter Summenpotenziale
Neben Einzelzellmessungen in Hirnschnitten können diese auch zur Messung von so genannten evozierten (hervorgerufenen, ausgelösten) Potenzialen herangezogen werden. Dabei handelt es sich um elektrische Signale, die von einer großen Anzahl von Zellen hervorgerufen werden (Summenpotenziale), wodurch wiederum die Komplexität steigt. Evozierte Potenziale sind mit Hilfe von Makroelektroden (Ableitelektroden) aus Nervengewebe ableitbar, und die Grundlage für die Entstehung ist die synchrone Aktivierung von Synapsen und
121
5.2 • Elektrophysiologische Methoden zur Untersuchung von Ionenkanälen
A
. Abb. 5.15 Versuchsaufbau zur Messung von LTP in der CA1-Region des Hippocampus. (A) Schematische Darstellung der LTP im Hippocampus der Maus. Die Schaffer-Kollateralen, die den dritten Verbindungsweg im Hippocampus bilden und aus der CA3-Region zu den Pyramidenzellen der CA1-Region führen, werden durch eine Reizelektrode elektrisch stimuliert (Zeitpunkt 0 in B). Mit Hilfe der Ableitelektrode können die postsynaptischen Potenziale als Antwort auf den Stimulus in den CA1 Neuronen gemessen werden. Mit freundlicher Genehmigung von A. Engelsberg. (B) Messung der EPSPs vor und nach Stimulation (0 min). Nach dem Stimulus wird die Amplitude der EPSPs deutlich stärker
Ableitelektrode
Reizelektrode
B EPSP Amplitude (in %)
5
300 200 100
0
10 Zeit (min)
Ionenkanälen. In Hirnschnitten dient als externer Reiz die elektrische Stimulation von Nervenzellen. Die Ursache der Summenpotenziale ist der Ionenund damit Stromfluss durch spannungs- oder ligandenabhängige Ionenkanäle in der Membran der einzelnen Neurone. Will der Experimentator aus definierten Hirnschnittregionen ableiten, muss die Ableitelektrode genau im Schnitt positioniert werden. Nach der Stimulation der Neurone mit Hilfe einer Reizelektrode, die ebenfalls genau platziert werden muss, können die Potenzialdifferenzen zwischen der Ableit- und der Referenzelektrode gemessen werden. Die gleichen Methoden wie wir sie in den beiden vorangegangenen Abschnitten vorgestellt haben, können im Prinzip auch in intakten Gehirnen an lebenden Tieren durchgeführt werden, wobei natürlich tierschutzrechtliche Gesichtspunkte berücksichtig werden müssen. Auch hier müssen Elektroden genau positioniert und im Falle von lebenden, frei beweglichen Tieren fixiert werden. Häufig werden in der tierexperimentellen Forschung monosy-
20
30
naptisch evozierte Potenziale untersucht, bei denen zwischen der Reizelektrode und dem Ableitort nur eine synaptische Verbindung liegt, wodurch im Idealfall andere synaptische Anteile ausgeschlossen werden. Ein Hauptproblem bleibt aber, dass die gemessenen Signale am lebenden Tier sehr schwer von den Signalen getrennt werden können, die von der normalen Aktivität des Tieres stammen, wenn es z. B. sein Verhalten ändert. Es gibt Möglichkeiten die evozierten Potenziale zu bestimmen, dazu bedarf es aber besonderer Erfahrung und gerade, wenn evozierte Potenziale über einen längeren Zeitraum aufgenommen werden sollen, muss auf ein möglichst gleichbleibendes Verhalten der Versuchstiere geachtet werden. Will der Experimentator diese Probleme umgehen, kann auch mit betäubten Tieren gearbeitet werden. Dabei ist aber besondere Vorsicht geboten, da viele Anästhetika ihre Wirkung entfalten, indem sie die synaptische Signalübertragung modifizieren und zum Teil direkt auf die Ionenkanäle wirken. Man kann sich leicht vorstellen, dass es unter diesen Versuchsbedingungen
122
Kapitel 5 • Elektrophysiologische Methoden
schwierig ist Veränderungen in den PSPs zu messen. Ob am betäubten oder am wachen Tier, am Ende des Experiments muss die genaue Lage der Elektroden überprüft werden, weswegen die Tiere getötet, das Gehirn entnommen und histologisch überprüft werden sollte (Vergleiche 7 Kap. 6) ob die Elektroden richtig positioniert waren. Auf die Reizelektrode kann verzichtet werden, wenn z. B. Sinnesorgane adäquat gereizt werden und die entsprechenden Nervenbahnen gemessen werden sollen.
5 5.2.8
Multielektrodenarrays
Eine weitere Möglichkeit, um die Aktivität von vielen Neuronen oder neuronalen Netzwerken zu messen, bieten die sogenannten Multielektrodenarrays (MEAs). Dabei handelt es sich um Plättchen, auf die Elektroden in geringem Abstand (100–500 μM) aufgebracht sind, die z. B. aus nicht-toxischem Titanium-Nitrit bestehen und nur 10–30 μM Elektrodendurchmesser besitzen. Damit erlaubt ein MEA dieser Bauweise die extrazelluläre Ableitung und Stimulation von einzelnen Neuronen und Netzwerken. In den Neurowissenschaften haben sich in den letzten Jahren eine Vielzahl von Anwendungen entwickelt und es können Primärzellkulturen aus dem Hippocampus oder dem Cortex, wie akute Hirnschnitte aus den gleichen Gehirnregionen untersucht werden. Neben den in vitro-Arrays wurden auch implantierbare in vivo-Array entwickelt, die sich im Aufbau unterscheiden, aber dem gleichen Messprinzip folgen. Die Elektroden der MEAs messen letztendlich extrazelluläre Aktionspotenziale, wie in 7 Abschn. 5.2.3 beschrieben. Durch die Anzahl der Elektroden kann nun aber die Aktivität von neuronalen Netzwerken in Primärkulturen oder Geweben besser untersucht und verstanden werden. Die zu messenden Signale hängen auch hier wieder von mehreren Faktoren ab, wie der MEAElektrode und den Kontakten zwischen dem Präparat und den Elektroden. Dieser sollte möglichst eng sein, damit ein gutes Signal-Rausch-Verhältnis gewährleistet ist. Eine Möglichkeit dies zu erreichen, besteht darin, gelochte MEAs zu benutzen,
mit deren Hilfe die Präparate an den Chip gesaugt werden können (ähnelt dem Prinzip der Port-aPatch-Methode). Der große Vorteil dieser Methode gegenüber anderen extrazellulären Ableitungen ist die Vielzahl der Elektroden, die zur Messung zur Verfügung stehen. Dadurch ist es möglich an mehreren Orten gleichzeitig Daten aufzuzeichnen. Mit Hilfe dieser Methode kann z. B. die synaptische Plastizität, neuronale Regeneration und Mikroelektroenzephalogramme gemessen werden. Auf Grund der sehr großen Bandbreite an Anwendungsmöglichkeiten, ist zu erwarten, dass sich die MEAs zu einer sehr wichtigen Methode in den Neurowissenschaften entwickeln werden.
5.2.9
Ableitung von Summenpotenzialen
Als letzte elektrophysiologische Methode soll hier die Elektroenzephalografie (EEG) kurz beschrieben werden. Das EEG, bei dem die Schwankungen der Summenpotenziale beim Menschen an der Kopfoberfläche mit Hilfe von Flächenelektroden aufgezeichnet werden (siehe auch 7 Kap. 10), finden tierexperimentell wenig Anwendung. Im Tierexperiment bestehen die Elektroden meist aus dünnen Drähten, die in tiefer liegende Hirnregionen eingeführt werden können, man spricht deshalb von einem »Tiefen«-EEG. Damit hat diese Form des EEGs das Problem, dass nur aus wenigen Bereichen abgeleitet werden kann und dass sie invasiv ist, was wiederum Hirnschädigungen hervorrufen kann. Beim Tier und beim Menschen kommen solche »Tiefen«-EEGs zum Einsatz, wenn z. B. Hirnregionen näher eingegrenzt werden müssen, die epileptische Aktivität besitzen, wobei sie beim Menschen häufig mit Oberflächen-EEG kombiniert werden. Die Oberflächen- oder »Tiefen«-EEG-Messungen ermöglichen eine kontinuierliche Aufzeichnung der Hirnaktivität über lange Zeiträume und werden häufig verwendet, wenn epileptische Anfälle oder ähnliche Phänomene am Menschen oder im Mausmodell untersucht werden sollen. Man kann sich vorstellen, dass das EEG nicht geeignet ist, um die Aktivität einzelner Zellen zu untersuchen.
Literatur und World-Wide-Web-Links
Literatur und World-Wide-Web-Links Web Ressourcen: Eine Auflistung von Ionenkanälen ist hier zu finden. http://www.iuphar-db.org/DATABASE/ VoltageGatedSubunitListForward Die Vorträge im Rahmen der Nobelpreis Verleihung von Neher und Sakmann sind hier zu finden. http://nobelprize.org/nobel_prizes/medicine/ laureates/1991/ Firmen: RNA-kits: http://www.ambion.com/ http://www.mobitec.de/ Injektions-Pipetten: http://www.drummondsci.com/ Patch-Clamp und Zwei-Elektroden Spannungsklemme Verstärker: http://www.heka.com/ http://www.moleculardevices.com/home.html http://www.npielectronic.com/ Glaskapillaren: http://www.sutter.com/products/product_sheets/ glass_list.html Elektrodenziehgeräte: http://www.sutter.com/products/product_sheets/ p1000.html http://www.zeitz-inst.homepage.t-online.de/ hauptteil_index.html Port-a-Patch Methode: http://www.nanion.de/ Multielektrodemarrays: http://www.multichannelsystems.com/ Bücher: Ashcroft FM (2000) Ion channels and disease, Academic press Hille B (2001) Ion channels of excitable membranes, Sinauer Associates, Inc. Numberger M und Draguhn A (1996) Patch-Clamp-Technik, Spektrum Akademischer Verlag Artikel: Alzheimer C, Schwindt PC, Crill WE (1993). Modal gating of Na+ channels as a mechanism of persistent Na+ current in pyramidal neurons from rat and cat sensorimotor cortex. J. Neurosci., 13, 606–673. Cole KS. (1968) Membrane Watching. J Gen Physiol., 51, 1–7. Hamill OP, Marty A, Neher E, Sakmann B, Sigworth FJ (1981). Improved patch-clamp techniques for high-resolution current recordings from cells and cell-free membrane patches. Pflügers Arch., 391, 85–100. Kamb A, Iverson LE, Tanouye MA. (1987) Molecular characterization of Shaker, a Drosophila gene that encodes a potassium channel. Cell, 50, 405–13.
123
5
Noda M, Shimizu S, Tanabe T, Takai T, Kayano T, Ikeda T, Takahashi H, Nakayama H, Kanaoka Y, Minamino N, et al. (1984) Primary structure of Electrophorus electricus sodium channel deduced from cDNA sequence. Nature, 312, 121–7. Neher E, Sakmann B. (1976) Single-channel currents recorded from membrane of denervated frog muscle fibres. Nature, 260, 799–802. Papazian DM, Schwarz TL, Tempel BL, Jan YN, Jan LY. (1987) Cloning of genomic and complementary DNA from Shaker, a putative potassium channel gene from Drosophila Science, 237, 749–53. Seeger T, Alzheimer C. (2001) Muscarinic activation of inwardly rectifying K+ conductance reduces EPSPs in rat hippocampal CA1 pyramidal cells. J Physiol, 535.2, 383–396. Stefani E, Bezanilla F. (1998) Cut-open oocyte voltage-clamp technique. Methods Enzymol., 293, 300–18. Stühmer W. (1992) Electrophysiological recording from Xenopus oocytes. Methods Enzymol., 207, 319–39. Tanabe T, Takeshima H, Mikami A, Flockerzi V, Takahashi H, Kangawa K, Kojima M, Matsuo H, Hirose T, Numa S. (1987) Primary structure of the receptor for calcium channel blockers from skeletal muscle. Nature, 328, 313–8. Tempel BL, Papazian DM, Schwarz TL, Jan YN, Jan LY. (1987) Sequence of a probable potassium channel component at Shaker locus of Drosophila. Science, 237, 770–5.
125
Anatomische Untersuchung des Nervensystems Claudia Mahlke
6.1
Gewebeaufbereitung – 126
6.1.1 6.1.2
Präparation, Fixierung und Einbettung – 126 Schneidetechniken – 127
6.2
Übersichtsfärbungen – 127
6.3
Nachweis und Lokalisation von Protein und mRNA im Nervensystem – 129
6.3.1 6.3.2 6.3.3
Immunhistochemie – 130 Enzymhistochemie – 134 In situ-Hybridisierung – 134
6.4
Nachweis neuronaler Aktivität – 136
6.4.1 6.4.2 6.4.3 6.4.4
Aktivitätsregulierte Gene – 136 Autoradiographie – 138 Reportermäuse – 139 Cat-FISH – 139
6.5
Tracing-Verbindungsstudien – 140 Literatur und World-Wide-Web-Links – 142
G. Hermey et al., Der Experimentator: Neurowissenschaften, DOI 10.1007/978-3-8274-2369-6_6, © Spektrum Akademischer Verlag Heidelberg 2010
6
126
6
Kapitel 6 • Anatomische Untersuchung des Nervensystems
Die Grundbausteine komplexer neuronaler Strukturen bilden Nerven- und Gliazellen. Obwohl das Wissen über diese kleinsten Einheiten des Nervensystems in den letzten Jahrzehnten exponentiell gewachsen ist, sind wir weit davon entfernt die komplizierten Mechanismen und Funktionen dieser Zellen in ihrer Gesamtheit zu verstehen. Noch viel weniger wissen wir, wie die vielen Zellen genau verknüpft sind und wie sie zusammenspielen, um Informationen zu verarbeiten, zu speichern und weiterzugeben. Auch wenn anatomische Untersuchungen eine vergleichsweise alte Technik darstellen, sind sie immer noch überaus wertvoll, da sie uns über die detallierte Analyse der Struktur Informationen über das Zusammenspiel und die Verbindungen der einzelnen Bausteine geben können. Die konsequente Weiterentwicklung dieser Methoden erlaubt heute eine noch feinere und detailliertere Untersuchung neuronaler Verschaltungen und bietet zusammen mit dem histologischen Nachweis von Proteinen und Gentranskripten direkt im Gewebe ein komplett neues Spektrum der funktionellen Analyse komplexer neuronaler Strukturen. Neben den vielen praktischen Aspekten der anatomischen Analyse ist das Gehirn auch ein überaus ästhetisches Organ und man muss schon »stumpfen Sinnes«1 sein, um sich nicht an der Schönheit zu erfreuen, die sich dem Auge bietet, wenn man Präparate des Gehirns unter dem Mikroskop betrachten darf.
6.1
Gewebeaufbereitung
6.1.1
Präparation, Fixierung und Einbettung
Da Nervengewebe sehr weich und verletzlich ist und zudem Abbauprozesse nach Gewebeentnahme sehr schnell einsetzen, ist es wichtig, das Gewebe schnell zu präparieren und nach der Präparation sofort zu fixieren. Durch die Fixation kann die Zersetzung des Gewebes aufgehalten werden. Proteine werden denaturiert und vernetzt und Lipide werden stabilisiert, wodurch Strukturen bes1
Zitat aus Kükenthal’s Leitfaden für das Zoologische Praktikum, 19 Auflage, 1984
ser erhalten bleiben und Färbungen der Gewebe deutlicher werden. Das am weitesten verbreitete Fixierungsmittel ist Formaldehyd. Formaldehyde besitzen die Eigenschaft, dass sie Proteine über so genannte Methylenbrücken vernetzen. Die Vernetzung ist kein sehr schneller Prozess und die Anzahl an Methylenbrücken nimmt über die Zeit zu. Man geht jedoch davon aus, dass die Bindung von Formaldehyd an Proteine nach ca. 24 h abgeschlossen ist. Häufig findet man Formaldehyd im Labor als Polymer, welches als Paraformaldehyd bekannt ist. Da man für die Fixierung Monomere benötigt, muss das polymere Paraformaldehydpulver vor der Anwendung gelöst, also in Monomere gespalten werden. Die Spaltung findet dabei sehr viel schneller in alkalischem Milieu statt und wird zudem über Erwärmung der Paraformaldehydlösung auf 60°C beschleunigt. Häufig findet man in Protokollen auch die Anweisung, das Gewebe mit Formalin zu fixieren. Formalin ist eine Lösung monomerer Formaldehyde, die durch die Zugabe von Methanol daran gehindert werden zu polymerisieren und auszufallen. Benötigt man eine stärkere Fixierung kann man auch Glutaraldehyd verwenden, welches pro Molekül zwei Aldehydgruppen besitzt, die über drei variable Methylenbrücken verbunden sind. Die Glutaraldehydfixierung wird häufig bei elektronenmikroskopischen Untersuchungen angewendet oder zum Nachweis von löslichen Aminosäuren wie Glutamat, GABA oder Glycin. Oft werden auch Mischungen aus den verschiedenen Aldehyden eingesetzt. Je nach Gewebegröße kann die Fixierung durch Einlegen in das Fixativ oder Fixierung der Organe über den Blutkreislauf (Perfusion) erfolgen. Bei größeren Organen, wie dem Gehirn, empfiehlt sich die Fixierung über den Blutkreislauf, da ansonsten das Fixativ von außen nach innen eindringen muss und es somit zu einer ungleichmäßigen Fixierung des Gewebes, mit stärker fixierten Bereichen an der Oberfläche und weniger stark fixierten Bereichen im Inneren, kommen kann. Die Fixierung mit Formaldehyden kann jedoch auch Nachteile haben. Viele Proteine verlieren durch die Fixierung ihre antigenen Eigenschaften, da die für die Antikörperbindung entscheidenden Proteinbereiche unter Umständen vernetzt oder maskiert wurden. In diesem Fall kann man versuchen, entweder eine
127
6.2 • Übersichtsfärbungen
etwas »leichtere« Fixierung vorzunehmen oder das Gewebe nach der Fixierung so behandeln, dass die Bindungsstellen wieder frei werden, ein Vorgang der als Antigen-Demaskierung bezeichnet wird und auf den in 7 Kap. 6.3 nochmal im Detail eingegangen wird. Neben der Fixierung mit Formaldehyden kann man eine Alkoholfixierung vornehmen oder das Gewebe »frisch«, also gleich nach der Präparation schockgefrieren. Alkohole, vor allem Ethanol fixieren das Gewebe über den Entzug von Wasser und maskieren die Antigenbindungsstellen dementsprechend weniger. Allerdings schrumpft das Gewebe durch den Wasserentzug und Alkohole können zudem das Gewebe weniger gut durchdringen, daher werden sie häufiger für die Fixierung von bereits geschnittenem Material eingesetzt. Auch wenn für die meisten Standardmethoden etablierte Fixierungsprotokolle existieren, muss man für viele neue Methoden erst einmal die optimale Fixierung ermitteln. Vor allem für den immunhistochemischen Nachweis von Proteinen über Antikörperbindung muss die Fixierung oft angepasst werden, um ein möglichst gutes Ergebnis zu erzielen.
6.1.2
Schneidetechniken
Das Gewebe muss für die lichtmikroskopische Analyse sehr dünn sein, und es wird daher mit Hilfe verschiedener Schneidetechniken in sehr dünne »Scheiben« geschnitten. Formaldehyd-fixiertes Gewebe ist sehr fest, fast gummiartig, und kann mit einem Vibratom geschnitten werden. In das Vibratom wird ein sehr scharfes Messer eingespannt, häufig eine Rasierklinge, wobei sich das Messer vibrierend durch das Gewebe bewegt. Die Schnitte werden dann in Puffer aufgefangen und können »schwimmend« weiterbehandelt werden. Vibratomschnitte sind meist 20–40 μm dick, in selteneren Fällen auch dünner. Benötigt man dünnere Schnitte, kommt meist ein Kryostat, auch Gefriermikrotom genannt, zum Einsatz. Schockgefrorenes Gewebe kann direkt geschnitten werden; Formaldehyd-fixiertes Gewebe muss erst über osmotisch wirksame Substanzen, z. B Sucrose, entwässert werden, um die Bildung von Eiskristallen zu verhindern. Mit Hilfe des Kryostats werden in der
6
Regel Schnitte zwischen 5 und 20 μm angefertigt, in Einzelfällen auch dünner. Mit Hilfe der Paraffineinbettung kann man sogar noch dünnere Schnitte anfertigen, hierzu muss das Gewebe entwässert, in Paraffin eingebettet und mit einem Mikrotom geschnitten werden. Für die elektronenmikroskopische Analyse werden Gewebestücke mit Kunstharz eingebettet, wodurch eine Schnittdicke im Nanometerbereich möglich wird. Dabei ist die Schnittdicke nicht immer ausschlaggebend für die Qualität einer Präparation. So ist z. B die Strukturerhaltung von Vibratomschnitten sehr viel besser als die von Kryoschnitten. Neben der Schneidetechnik spielt bei der histologischen Analyse des Gehirns die Schnittrichtung eine entscheidende Rolle. Man fertigt Horizontalschnitte an, wenn man bei einer Maus das Gehirn von dorsal (oben) nach ventral (unten) schneidet, Coronalschnitte werden von rostral (vorne) nach caudal (hinten) geschnitten und sagittal schneidet man von lateral nach lateral (. Abb. 6.1). Welche Schneiderichtung man wählt, hängt davon ab welche Region des Gehirns untersucht werden soll. Viele Regionen sind besonders gut in Schnitten einer bestimmten Schnittrichtung zu identifizieren, so kann man die verschiedenen Regionen des Hippocampus besonders gut in coronalen Schnitten sehen und für Untersuchungen des Hörcortex sind horizontale Schnitte am besten geeignet. Damit man sich in den Hirnschnitten zurechtfindet und die einzelnen Strukturen identifizieren kann, haben fleißige Wissenschaftler so genannte Atlanten (Maus, oder Ratte) erstellt, in denen exemplarisch Hirnschnitte dargestellt und die einzelnen Regionen wie Länder in einem Atlas bezeichnet sind. Neben den Atlanten in Buchform kann man mittlerweile auch viele Informationen frei zugänglich über das Internet erhalten (Links am Ende des Kapitels), allerdings sind die ursprünglichen Atlanten in Buchform meist sehr viel detaillierter.
6.2
Übersichtsfärbungen
Da man in einem ungefärbten Hirnschnittpräparat kaum Strukturen oder gar Zellen erkennen kann, müssen die Schnitte für die histologische Analyse gefärbt werden. Generell können alle für die Histo-
128
Kapitel 6 • Anatomische Untersuchung des Nervensystems
. Abb. 6.1 Schnittrichtungen
dorsal
rostral
caudal
ventral
6
sagittal
horizontal
coronal
logie etablierten Methoden auch für das Anfärben von Nervengewebe verwendet werden. Im Folgenden möchten wir nur kurz auf die gängigsten Übersichtsfärbungen in den Neurowissenschaften eingehen. Nissl-Färbung: Die durch Franz Nissl (1860– 1919) etablierte Färbetechnik beruht darauf, dass kationische (positiv geladene, basische) Farbstoffe sich an die im Gewebe vorliegenden anionischen (negativ geladenen, saure) Moleküle anlagern. Anionische Gruppen liegen vor allem in den Phosphatresten vor, die massenhaft in der DNA der Zellkerne, in der ribosomalen RNA des Nucleolus und im mit Ribosomen besetzten (»rauen«) endoplasmatischen Reticulum (rER; Nissl-Substanz) vorkommen. Die Anlagerung ist dabei pH-abhängig. Mit steigenden pH-Wert verstärkt sich die Dissoziation der Phosphatreste und der Farbstoff lagert sich besonders gut an. Ist der pH-Wert jedoch zu hoch, können auch die Carboxylgruppen dissoziieren und es kommt zu einer unspezifischen Bindung der Farbstoffmoleküle im gesamten Gewebe. Bei niedrigem pH entfärbt man den Schnitt, da die Dissoziation zurückgedrängt wird. Als Farbstoff wird heute häufig das Kresylviolett eingesetzt, welches zu einer violetten Färbung der Nucleinsäuren führt. HE-Färbung: Bei der Hämatoxylin-EosinFärbung (abgekürzt HE-Färbung) handelt es sich ebenfalls um eine Übersichtsfärbung neuronaler Strukturen. Hämatoxylin ist ein natürlicher, positiv geladener Farbstoff aus dem Blauholzbaum. Er
färbt, wie das Kresylviolett bei der Nissel-Färbung, alle negativ geladenen (»basophilen«) Strukturen blau (DNA; Zellkern; rER usw.). Eosin ist ein synthetischer, negativ geladener (saurer) Farbstoff, der alle basischen acidophilen Strukturen, also vor allem die Zellplasmaproteine, rot färbt. Nach der Hämatoxilin-Färbung erscheinen die Zellkerne zunächst rötlich-braun aufgrund des niedrigen pH-Wertes der Färbelösung. Durch Erhöhung des pH-Wertes (Bläuen) schlägt der Farbton in das typische blau-violett um. Gebläut wird durch Spülen in Leitungswasser. Anschließend folgt die Cytoplasma-Färbung in einer alkoholischen oder wässrigen Lösung von Eosin. Markscheidenfärbung: Myelinisierte Axone des Gehirns (weiße Substanz) können mit Hilfe von Markscheidenfärbungen dargestellt werden. Verwendet werden Eisenhämatoxylin (nach Weigert, Olivecrona oder Heidenhain-Wölcke) oder eine kombinierte Markscheiden und Zellfärbung (nach Klüver-Barrera). Dabei handelt es sich um einen Kombination der Nissl-Färbung mit einer Markscheidenfärbung durch Luxol Fast Blue, wodurch die markhaltigen Fasern tiefblau hervortreten, während die Zellkerne durch einen violetten Farbton zu erkennen sind. Golgi-Imprägnation: Hierbei handelt es sich wohl immer noch um die schönste Darstellung einzelner Nervenzellen. Die von Camillo Golgi (1843–1926) etablierte Färbung beruht auf einer »Versilberung« von Nerven- und Gliazellen und
6.3 • Nachweis und Lokalisation von Protein und mRNA im Nervensystem
lässt diese schwarz-braun auf gelbem Hintergrund erscheinen. Golgi-Zellen werden in ihrer Gesamtheit gefärbt, d. h. man kann sowohl Zellkörper als auch axonale Strukturen, dendritische Fortsätze und sogar die postsynpatische Dornenfortsätze (spines) mit ihr sichtbar machen. (. Abb. 6.2) Allerdings konnte bis heute nicht geklärt werden, warum sich manche Zellen mit der Golgi-Methode anfärben lassen andere aber nicht. Das etwas unzuverlässige Prinzip der Färbung beruht darauf, dass kleinere Stücke des Gehirns über mehrere Tage fixiert werden und dann in einem Gemisch aus Kaliumbicarbonat und Osmiumsäure mit Silbernitrat »versilbert« werden. Der berühmte Neurohistologe Santiago Ramón y Cajal (1852–1934) hat mit Hilfe der Golgi-Färbung und den von ihm eingeführten Abwandlungen neuronale Strukturen und Verbindungen mit großer Genauigkeit und Akribie beschrieben. Für ihre Arbeiten zur Struktur des Nervensystems erhielten Camillo Golgi und Santiago Ramón y Cajal zusammen 1906 den Nobelpreis für Medizin.
6.3
129
6
A
B
Nachweis und Lokalisation von Protein und mRNA im Nervensystem
Für viele neurowissenschaftliche Fragestellungen ist es wichtig zu wissen, wann und vor allem in welchen Bereichen des Nervensystems bestimmte Gene angeschaltet werden. So sind Entwicklungsbiologen z. B. unter anderem daran interessiert herauszufinden, welche Gene in welchen Stadien der embryonalen und postnatalen (nach der Geburt) Entwicklung exprimiert (angeschaltet) werden. Neben den verschiedenen Entwicklungsstadien kann die Genexpression aber auch auf ganz spezifische Teilbereiche des Nervensystems beschränkt sein oder Gene werden nur nach ganz spezifischen Aktivierungszuständen abgelesen. So findet man viele aktivitätsregulierte Gene vermehrt im Vorderhirn und dem für das Lernen wichtigen Hippocampus, wo sie vor allem dann angeschaltet werden, wenn die Zellen im Zusammenhang mit Lernvorgängen aktiviert werden. Um die Genexpression histologisch zu untersuchen, kann man entweder die mRNA über die in situ-Hybridisierung oder
. Abb. 6.2 Golgi-Imprägnation. (A) Cortikale Pyramidenzellen (B) Detailaufnahme eines Dendriten mit Dornenfortsatz (Pfeil). (Mit freundlicher Genehmigung von M. Schweizer, Hamburg)
das gebildete Protein über die Immunhistochemie nachweisen. Ist man während seiner Arbeit auf ein neues interessantes Gen gestoßen, lohnt es sich, auch die verschiedenen open-source-Datenbanken zu durchforsten, in denen die Expressionsprofile sehr vieler Gene bereits beschrieben sind (Links am Ende des Kapitels). Auch wenn das gewünschte Gen dort ausführlich beschrieben ist, ist es ratsam eigene Kontrollen durchzuführen, denn letztendlich sollte man vor allem an das glauben, was man selbst nach bestem Wissen und Gewissen produziert hat.
6
130
Kapitel 6 • Anatomische Untersuchung des Nervensystems
6.3.1
Immunhistochemie
Bei der Immunhistochemie handelt es sich um eine Kombination aus Histochemie und immunologischen Techniken. Primär werden damit Proteine in Schnittpräparaten direkt über Antigen-Antikörper-Reaktionen, oder indirekt über antikörpergekoppelte Markierungsreaktionen nachgewiesen. Die Immunhistochemie funktioniert in den Grundzügen wie der Nachweis von Proteinen über die Western-Blot-Analyse (7 Kap. 3.2.2). Allerdings kann man über die Immunhistochemie zusätzliche Informationen darüber erhalten, wo die Proteine genau lokalisiert sind. Immunhistochemische Nachweise sind sowohl an frischem, schockgefrorenem Material als auch an perfundiertem Gewebe durchführbar. Bei frischem Gewebe besteht jedoch die Gefahr, dass Proteine im Gewebe etwas diffundieren, wodurch die Information über die eigentliche Lokalistation der Proteine verfälscht werden kann. Darüber hinaus ist die Strukturerhaltung bei weitem nicht so schön wie bei Material, welches perfundiert und am Vibratom geschnitten wurde. Für viele Anwendungen kann frisches Gewebe jedoch auch von Vorteil sein. Die Durchführung ist z. B. sehr viel schneller, ein Punkt, der vor allem für die Diagnostik wichtig ist. Darüber hinaus ist die Fixierung bei der Verarbeitung von frischem Gewebe nicht so stark, wodurch Antikörperbindungsstellen weniger stark vernetzt werden (siehe auch unten). Frisches Gewebe wird beim Schneiden direkt auf Objektträger aufgebracht und dort auch gefärbt, während Vibratomschnitte durch ihre gute Fixierung frei schwimmend (free-floating) behandelt werden können und erst später auf Objektträger aufgezogen werden. Generell werden bei der Durchführung des immunhistochemischen Nachweises die Schnittpräparate mit einem gegen das Protein gerichteten Antikörper, auch 1., oder Primärantikörper genannt (wichtige Informationen zum Thema Antikörper finden sich in 7 Kap. 3.1) inkubiert. Dieser kann dann entweder direkt über gebundene Fluoreszenzmoleküle oder über einen enzymatischen Nachweis detektiert werden (direkte Methode). Für den enzymatischen Nachweis werden die Antikörper mit bestimmten Enzymen, meist Peroxidasen oder alkalische Phosphatasen, gekoppelt. Gibt man
das passende Enzymsubstrat dazu, wird dieses in ein farbliches Produkt umgesetzt, welches an der Stelle ausfällt, an der der Antikörper gebunden hat (. Abb. 6.4). Für die Peroxidasereaktion wird als Substrat am häufigsten Diaminobenzidin (DAB) eingesetzt, welches unter dem katalytischen Einfluss von Wasserstoffperoxid, welches dem Inkubationsmedium ebenfalls zugesetzt wird, zu einem schwarz-braunen Polymer oxidiert. Dank der Osmiophilie (Affinität zu Osmiumtetroxid) ist das Reaktionsprodukt auch elektronenmikroskopisch analysierbar. Für den Nachweis mit Hilfe der alkalischen Phosphatase werden organische Phosphatverbindungen als Substrat angeboten. Dabei spaltet die alkalische Phosphatase Phosphat ab und die freigesetzte Verbindung reagiert zu einem farbigen Endprodukt. Am häufigsten wird hier 5-Brom-4chlor-3-indoxylphosphat (BCIP) in Verbindung mit Nitroblau-Tetrazoliumchlorid (NBT) verwendet. Dabei wird BCIP zu 5-Brom-4-chlor-Indoxyl und Phosphat hydrolyisert. Das Indoxyl tautomerisiert zu einem Keton, welches dimerisiert und dadurch zum blauen Indigo wird. Bei diesem Vorgang werden Protonen frei, die dann NBT reduzieren, wodurch das purpurne Diformazan gebildet wird. Die Reduktion des NBT führt zu einer Farbverstärkung, welche in einer insgesamt dunkelvioletten Färbung resultiert (. Abb. 6.3). Liegt das nachzuweisende Protein jedoch in sehr geringen Menge vor, oder sind die benutzten Primärantikörper nicht sensitiv genug, so kann man das Signal verstärken, indem man einen Sekundärantikörper, auch Brückenantikörper genannt, verwendet, der gegen die Spezies gerichtet ist, aus der der Primärantikörper stammt. Da immer mehrere Sekundärantikörper an den Primärantikörper binden, wird das Signal so verstärkt. Möchte man das Signal noch weiter intensivieren, so werden die Sekundärantikörper meist mit Biotin (Vitamin H) gekoppelt. Biotin besitzt eine sehr starke Affinität zu Avidin (ein Glykoprotein aus dem Hühnerei), was in vielen biochemischen Verfahren ausgenutzt wird. Für die Immunhistochmie sind an das Avidin wiederum Peroxidasen oder alkalische Phosphatasen für den enzymatischen Nachweis gebunden. Die Tatsache, dass jedes Avidinmolekül 4 Biotinmoleküle binden kann, hat man sich bei der so genannten ABC-Methode (Avidin-Biotin-
A
NH2
H2N H 2N
H2O2
6
131
6.3 • Nachweis und Lokalisation von Protein und mRNA im Nervensystem
DAB
NH2
Peroxidase 2 H2O N
N H2N
NH2
N
N
NH2
H2N
H2N
NH2 N
B
Cl Br
O O P O O
N
Cl Br
N Phosphatase H
Cl
O
N H
Br 3H + PO 4 H
2H
O
N H
BCIP NO2
N N + N N
Br O Indigo
Cl
O2N
N N + N N NBT
CH3O
H N
NO2
O2N
OCH3 N NH
HN N
N N CH3 O
N N Formazan
OCH3
. Abb. 6.3 Substrate für die Immunhistochemie. (A) Diaminobenzidin (DAB) wird durch Peroxidasen und Zugabe von Wasserstoffperoxid in ein farbliches Produkt umgewandelt. (B) Von BCIP (5-Brom-4-chlor-3-indoxylphosphat) wird durch alkalische Phophatasen ein Phosphat abgespalten und es entsteht der Farbstoff Indigo. Dabei werden Protonen frei die NBT (Nitroblau-Tetrazoliumchlorid) reduzieren und es kommt durch die Bildung von Formazan zu einer Farbverstärkung
Peroxidase-Complex), die einen noch sensitiveren Nachweis darstellt, zunutze gemacht. Wie der Name schon sagt, werden hier größere Komplexe aus Avidin-Biotin-Peroxidase-Molekülen gebildet, die dann für eine maximale Verstärkung des Signals sorgen (. Abb. 6.4). Da Peroxidasen auch endogen im Gewebe vorkommen, kann es bei der immunhistochemischen
Untersuchung, in der Substrate für Peroxidasen verwendet werden, zu unspezifischen Markierungen kommen. Dem kann man vorbeugen, indem man die Schnitte vor der Inkubation mit der Primärantikörperlösung mit Wasserstoffperoxid (H2O2) inkubiert, wodurch die endogene Peroxidaseaktivität blockiert wird.
132
6
Kapitel 6 • Anatomische Untersuchung des Nervensystems
. Abb. 6.4 Immunhistochemie – direkter und indirekter Nachweis. (A) Für den direkten Nachweis werden die Primärantikörper direkt mit Fluoreszenzmolekülen oder Enzymen gekoppelt. (B) Der indirekte Nachweis ist sensitiver, da mehrere Brückenantikörper an einen Primärantikörper binden können und so das Signal verstärkt wird. (C) Am sensitivsten ist die ABC-Methode. Hier werden Komplexe aus Avidin und Biotin gebildet, an die viele Peroxidasen gekoppelt sind, wodurch das Signal noch weiter verstärkt werden kann
A
B
Schnittpräparat
C
Antikörper Protein farbliches Produkt Enzymsubstrat Enzym Fluoreszenzmolekül Biotin Avidin
kKontrollen – oder traue keinem Antikörper!
Ein sehr wichtiges Thema in der Immunhistochemie sind die Kontrollen. Leider halten viele kommerziell erworbene Antikörper nicht, was sie versprechen, und man tut gut daran, seine Experimente ausreichend zu kontrollieren. Dabei sollte man sowohl fehlende als auch unspezifische Signale ausreichend überprüfen. Zur Kontrolle nicht vorhandener Signale ist es am besten, wenn man bei der Durchführung der Experimente Gewebe mitlaufen lässt, in dem das gesuchte Protein definitiv vorhanden ist. Zudem kann man mit Western-Blot-Analysen überprüfen, ob eine Bande im Größenbereich des Zielproteins detektiert werden kann. Obwohl der Hersteller auf seiner Homepage Blots mit einer solchen Bande präsentiert, kann man diese in eigenen Experimenten leider oft nicht nachweisen und man fragt sich, wo der Hersteller die gezeigten Blots eigentlich her hat. Die Rückgabe eines Antiköpers ist generell möglich, jedoch meist mit einem größeren Zeitaufwand verbunden. Der Experimentator muss Beweisbilder liefern und viele »gut gemeinte« Tipps des Herstellers über sich ergehen lassen. Ist das alles nicht erfolgreich, bekommt man zunächst
den gleichen Antikörper aus einer neuen Charge nochmal. Leider funktioniert dieser meist auch nicht und man endet dann nach viel Zeitverlust mit einem Gutschein der Firma, mit dem man sich – juchhu! – einen neuen Antikörper kaufen kann. Der Grund, warum solche Firmen weiter Umsatz machen, liegt nach Meinung vieler Wissenschaftler nur darin begründet, dass der Zeitaufwand der Antikörperrückgabe viel zu groß ist und man daher lieber gleich einen neuen Antikörper kauft. Eine Firmenstrategie, die dringend überdacht werden sollte! Hat man jedoch Glück (das kommt durchaus auch vor) und kann im Western Blot das Protein auf der richtigen Höhe nachweisen, findet aber trotzdem kein Signal in den Schnittpräparaten, so wurden eventuell die Epitope, gegen die der Antikörper gerichtet ist, maskiert. Zu einer Maskierung der Epitope kann es bei der Fixierung kommen. Hier wird das Gewebe über die Vernetzung der Proteine stabilisiert, wodurch die Bindungsstellen für den Antikörper unter Umständen mit vernetzt werden und dann nicht mehr frei zugänglich sind. Um Antikörperbindungsstellen wieder frei zu le-
133
6.3 • Nachweis und Lokalisation von Protein und mRNA im Nervensystem
6
. Tab. 6.1 Substrate für die Immunhistochmie Substrat
Enzym
Farbe des Endproduktes
DAB (3,3-Diaminobenzidin)
Peroxidase
braun; mit Nickelverstärkung schwarz
AEC (3-Amino-9-Ethylcarbazol)
Peroxidase
rosenrot
CN (4-Chlor-1-Naphthol)
Peroxidase
blau
TMB (Tetramethylbenzidin)
Peroxidase
blau
Neufuchsin
Alkalische Phosphatase
rosarot
Naphthol-AS-MX-Phosphat
Alkalische Phosphatase
rot
BCIP (5-Brom-4-chlor-3-indoxylphosphat) mit NBT (Nitroblau-Tetrazoliumchlorid
Alkalische Phosphatase
dunkel-violett
gen, kann man versuchen, die Schnitte stärker durchlässig zu machen. Dieser Vorgang wird als Antigen-Retrieval, oder Antigen-Demaskierung bezeichnet. Hierbei werden Kombinationen aus enzymatischem Verdau und Hitzebehandlung mit Dampfhitze oder Mikrowellenöfen in so genannten Retrieval-Lösungen, meist Citratpuffer, oder TRISHCL (TRIS-EDTA), durchgeführt. Enzymatisch kann das Gewebe mit Trypsin, Pepsin oder Proteinase K behandelt werden. Möchte man das Gewebe nur etwas permeabilisieren, also für die Antiköper leichter durchgängig machen, kann man die Schnitte mit Detergenzien wie Triton oder Tween behandeln. Detergenzien besitzen Eigenschaften, die den Lipiden der Membranen ähnlich sind und sie können die feste Membranstruktur etwas auflösen, indem sie sich in die Membranen einlagern. Allerdings kann es auch vorkommen, dass der Antikörper nur an denaturierte Proteine, wie sie im Western Blot vorliegen, bindet und nicht an die nativen Proteine im Schnittpräparat. Die Hersteller geben in ihren Produktdatenblättern meist auch Information darüber, ob die Antikörper auch für die Histochemie getestet wurden, und der Experimentator sollte zumindest keinen kaufen, der nicht »nachweislich« histologisch getestet wurde. Neben einer fehlenden Markierung können immunhistochemische Untersuchungen auch zu unspezifischen Signalen führen. Diese können durch eine unspezifische Bindung der Primärantikörper, aber auch der Sekundärantikörper oder der weiteren eingesetzten Komponenten verursacht werden.
Um die Spezifität seines neu erworbenen Antikörpers zu testen, kann der Experimentator auch hier eine Western-Blot-Analyse machen. Findet man neben der gewünschten Bande noch zusätzliche Banden im Blot, dann ist das ein starker Hinweis darauf, dass der Antikörper auch noch an andere Proteine bindet. Um die Spezifität zu testen, kann man den Primärantikörper auch mit großen Mengen des zu detektierenden Proteins vorinkubieren. Es sollten dann keine Signale mehr im Schnitt zu detektieren sein. Die beste Negativkontrolle ist jedoch auch hier Material von einem Organismus, der das gewünschte Protein nicht bildet, z. B. einer Knockout-Maus. Unspezifische Bindungen der anderen Komponenten kann man kontrollieren, indem man einige Schnitte nicht mit der Primärantikörperlösung inkubiert. Findet man auch in diesen Schnitten ein Signal, dann kann man diese auf unspezifische Bindungen der weiteren Komponenten zurückführen. Generell hängen unspezifische Bindungen und nicht vorhandene Signale natürlich auch stark von der Konzentration des eingesetzten Antikörpers und der anderen Komponenten ab. Auch wenn die Immunhistochemie ein vergleichsweise einfaches Verfahren zum Nachweis von Proteinen in Schnittpräparaten ist, kann man bei Etablierung eines neuen Antikörpers einige Zeit mit der Optimierung des Protokolls verbringen. Dabei spielen vor allem die Stärke der Fixierung und die Konzentrationen der eingesetzten Lösungen eine entscheidende Rolle.
6
134
Kapitel 6 • Anatomische Untersuchung des Nervensystems
6.3.2
Enzymhistochemie
Neben unspezifischen Markierungen, die man vermeiden möchte, kann die endogene Enzymaktivität jedoch auch genutzt werden, um bestimmte Enzyme nachzuweisen. Hierzu werden die Schnitte mit einer Substanz inkubiert, die als Substrat für das jeweilige Enzym fungiert. Ein farbliches Nebenprodukt weist dann auf die Präsenz des Enzyms hin. Auf diese Weise häufig nachgewiesene Enzyme sind die Acetylcholinesterase, die Cytochromoxidase und die NADPH-Diaphorase/Stickoxidsynthethase. Der Nachweis eines bestimmten Enzyms kann helfen, bestimmte Zellen zu charakterisieren (Acetylcholinesterase, NADPH-Diaphorase/Stickoxidsyntethase) oder spezifische Strukturen im Gewebe selektiv darzustellen (Cytochromoxidase).
6.3.3
In situ-Hybridisierung
(Es lohnt sich, für das bessere Verständnis dieses Abschnitts auch 7 Kap. 2 zu Rate zu ziehen) Möchte man nicht das Protein, sondern die mRNA in neuronalem Gewebe nachweisen, kommt die in situ-Hybridisierung zum Einsatz. Hier werden die Gewebepropen (in situ) mit zur mRNA komplementären Nucleinsäuresträngen (Sonden) inkubiert und es kommt zur Verschmelzung (Hybridisierung) der mRNA und der Sonde. Die Nucleinsäuresonden sind so modifiziert, dass sie nach der Hybridisierung mit Hilfe verschiedener Detektionsmethoden nachgewiesen werden können und so die gewünschte mRNA sichtbar gemacht wird. Grundsätzlich unterscheidet man zwischen einer radioaktiven und einer nicht-radioaktiven in situHybridisierung. In situ-Hybridisierungsexperimente werden meist an Schnittpräparaten von frischem, gefrorenem Gewebe durchgeführt. Prinzipiell funktioniert sie aber auch an perfundiertem Gewebe. Für die Hybridisierung der Sonden müssen die Schnitte vorbereitet werden. Zunächst werden sie fixiert, dann werden die positiven Ladungen der Proteine im Schnittpräparat, über das Anhängen von Acetylresten (Acetylierung) abgeschirmt, da diese zu unspezifischen Bindungen der negativ geladenen Nucleinsäuresonden führen können. Im Anschluss
wird das Gewebe permeabilisiert, um so das Eindringen der Sonde ins Gewebe zu begünstigen. Für die Hybridisierung selbst muss eine optimale Hybridisierungstemperatur bestimmt werden, welche stark vom G-C-Gehalt der Sonde bzw. der mRNA abhängt. Zudem findet die Hybridisierung der Sonde in einem extra dafür entwickelten Hybridisierungspuffer statt. Dieser beinhaltet viele Komponenten, die eine Bindung der Sonde an die mRNA begünstigt wie z. B. eine definierte Salzkonzentration und wasserbindende Substanzen, wie Dextransulfat und Denhardts, welches wiederum aus Ficoll, Polyvinylpyrrolidon und BSA (Rinderserumalbumin) besteht. Nach der Hybridisierung werden die Schnitte mit Salzpuffern in sinkender Konzentration gewaschen (stringentes Waschen), wodurch unspezifisch gebundene Nucleinsäuremoleküle abgelöst werden. Je nachdem, wie die Sonde markiert wurde, kann sie über unterschiedliche Methoden detektiert werden (siehe unten). kDie Sonde
Für die Herstellung und Markierung der Sonde gibt es verschiedene Verfahren. Entweder man verwendet synthetisierte Oligonucleotide, an die bereits Fluoreszenzmoleküle gekoppelt sind (solche kann man kommerziell erwerben), Produkte einer PCRReaktion, oder in vitro transkribierte Nucleinsäureketten in die modifizierte Nucleotide zur Detektion bei der Synthese mit eingebaut werden. Die Sondenherstellung über die in vitro-Transkription ist das Mittel der Wahl, wenn man eine bestimmte mRNA häufiger detektieren möchte, denn man kann, sobald man die cDNA des Zielgens in den Transkriptionsvektor kloniert hat, diesen immer wieder verwenden und somit schnell und relativ kostengünstig immer wieder neue Sonden herstellen. Die cDNA kann man entweder aus Gewebe gewinnen, indem man die gesamte mRNA aus einer Gewebepräparation über die Verwendung einer Reversen Transkriptase in cDNA umschreibt und dann die gewünschte cDNA über eine PCR Reaktion vervielfältigt, oder man besitzt bereits einen Vektor, aus dem man die cDNA über einen Restriktionsverdau ausschneiden kann und in den Transkriptionsvektor hinein kloniert. Darüber hinaus kann man, wie auch schon in 7 Kap. 2 beschrieben,
6.3 • Nachweis und Lokalisation von Protein und mRNA im Nervensystem
für viele Gene die cDNA auch kommerziell erwerben. Bei der Sondenherstellung über die in vitroTranskription werden durch die Zugabe von RNA Polymerasen und Nucleotiden die gewünschten RNA-Stränge in vitro synthetisiert. Dabei entsteht je nach Transkriptionsrichtung entweder eine Sense- oder Antisense-Sonde. Die Antisense-Sonde bindet an die mRNA, die Sense-Sonde wird gerne als Kontrolle für unspezifische Bindungen verwendet. Damit man sowohl Sense- als auch AntisenseSonden von einem Transkriptionsvektor synthetisieren kann, muss der Vektor entweder auf der 5′ oder auf der 3′ Seite der cDNA geschnitten werden, und es muss 2 Startpunkte für 2 unterschiedliche Polymerasen geben, einen am 5′ und einen am 3′Ende (. Abb. 6.6). Je nach Nachweis werden in die Sonde entweder radioaktiv markierte Nucelotide (meist mit 35S markierte UTPs) oder Digoxiginin-markierte UTPs eingebaut. Der Nachweis der radioaktiven Sonde findet über das Auflegen eines Röntgenfilms auf die Schnitte statt. Dieser wird nach einer optimalen (muss man ermitteln) Expositionszeit entwickelt. Bereiche, in denen die Sonde gebunden hat, erscheinen auf den Filmen geschwärzt. Die radioaktive in situ-Hybridisierung ist relativ schnell durchführbar und liefert eine sehr schöne Übersicht über die Bereiche, in denen eine bestimmt mRNA vorliegt. Zudem ist das radioaktive Signal proportional zur Transkriptmenge und über die Verwendung von Standards definierter mRNA-Mengen kann eine quantitative Aussage gemacht werden. Allerdings bietet sie in der normalen Anwendung keine zelluläre Auflösung. Möchte man eine bessere Auflösung erreichen, kann man die radioaktiv markierten Schnitte in eine Filmemulsionslösung eintauchen (dippen) und es müssen dann die Schnitte selbst entwickelt werden. Über dieses Verfahren kann man eine zelluläre Auflösung über gebildete Silberpartikel, die direkt auf dem Schnitt sichtbar werden, erreichen. Möchte man oder darf man nicht radioaktiv arbeiten, oder möchte man eine noch bessere zelluläre Auflösung erreichen, kann man Digoxiginin (DIG) markierte UTPs verwenden und diese über ein immunhistochemisches Verfahren (siehe oben) mit Hilfe von Antikörpern nachweisen, die gegen DIG gerichtet sind. Hier kommen Antikörper zum Einsatz, die
135
6
entweder mit Fluoreszenzmolekülen (FISH- fluorescent in situ hybridization) oder mit Enzymen wie der oben beschriebenen alkalischen Phosphatase gekoppelt sind. Ein sehr sensitiver und hochaufgelöster Nachweis kann über das von Perkin Elmer erhältliche TSA (tyramid signal amplification)-System erreicht werden. Hier werden die gegen DIG gerichteten Antikörper mit einer Peroxidase gekoppelt. Die Peroxidase oxidiert die Tyramide, die so aktiviert werden und kovalent an die im Schnitt vorliegenden Proteine binden. An die Tyramide sind wiederum Fluorenszenzmoleküle gekoppelt, die dann mit Hilfe eines Fluoreszenzmikroskops nachgewiesen werden können. Die Auflösung ist mit diesem System so gut, dass man gerade transkribierte mRNA im Nucleus von mRNA, die bereits aus dem Zellkern hinaus geschleust wurde, unterscheiden kann. Dies hat zur Etablierung der so genannten cat-FISH (fluorescent in situ hybridization with cellular and temporal resolution)-Methode geführt, mit der man eine räumlich und zeitlich aufgelöste Aktivierung neuronaler Netze nachweisen kann (7 Kap. 6.4.4). Neben der Detektion der mRNA im Schnittgewebe kann man die Fluoreszenz-in situ-Hybridisierung (FISH) auch einsetzten, um die Lokalistation von mRNAs in primären neuronalen Zellen nachzuweisen, oder über eine DNA-DNA-Hybridisierung spezifische Genabschnitte auf Chomosomen sichtbar zu machen. Um Zellen, die bestimmte Gene exprimieren, näher zu bestimmen, können auch verschiedene Nachweismethoden kombiniert werden. Man kann z. B. über Fluoreszenzdoppelfärbungen sowohl das Zielprotein als auch zellcharakteristische andere Proteine nachweisen. Man kann die Fluoreszenzin situ-Hybridisierung mit einem immunhistochemischen Nachweis kombinieren oder die Lokalisation der nachgewiesenen Proteine im Schnitt über eine Übersichtsfärbung, wie der Nissl-Färbung, näher charakterisieren. Generell gilt dabei, dass je mehr unterschiedliche Verfahren kombiniert werden sollen, desto mehr Parameter müssen optimiert werden, und desto länger kann die Etablierung einer solchen Methode dauern.
136
Kapitel 6 • Anatomische Untersuchung des Nervensystems
kArbeiten mit RNA!!
A
Bei der Durchführung der in situ-Hybridisierung muss man darauf achten, dass die überall vorkommenden RNasen weder die Sonden noch die im Präparat zu detektierende mRNA abbauen. Daher sollte nur sehr sauberes Wasser verwendet werden, alle zu benutzenden Glaswaren sollten vorher sterilisiert werden und auch alle Arbeitsflächen sollten RNase frei sein. Da der Experimentator selbst auch einen Quelle für RNasen sein kann, sollten Sie stets mit Handschuhen arbeiten.
6
B 6.4
Nachweis neuronaler Aktivität
In 7 Kap. 10 können wir lernen, wie man neuronale Aktivität bei Menschen mit verschiedenen nichtinvasiven Imaging-Verfahren messen kann. In diesem Kapitel möchten wir kurz darauf eingehen, wie komplexe neuronale Aktivierungsmuster im Tiermodell entweder über den Nachweis bestimmter Markerproteine im Gewebe oder über die Verwendung radioaktiv markierter Glukose untersucht werden kann.
6.4.1
Aktivitätsregulierte Gene
Es ist bekannt, dass verschiedene Proteine immer nach Aktivierung einer Nervenzelle gebildet werden. Das c-fos Gen gehört zu dieser Gruppe und wurde bereits in vielen Studien benutzt, um die Aktivierung vieler Neurone eines neuronalen Netzes sichtbar zu machen, die z. B. nach verschiedenen sensorischen Stimulationen oder in verschiedenen Lernsituationen aktiviert werden. C-fos ist ein zelluläres Protoonkogen der Gruppe der immediateearly genes, welches direkt nach neuronaler Aktivierung gebildet wird und als Transkriptionsfaktor die Expression weiterer Gene reguliert. Der immunhistochemische Nachweis von c-fos ist sehr gut etabliert und daher sehr einfach durchführbar. Das c-fos Protein verbleibt im Zellkern und man kann den Zellkern der aktivierten Neurone sehr gut visualisieren (. Abb. 6.7). Um ein verlässliches Bild der gesamten Population aktivierter Neurone einer bestimmten Hirnregion oder gar des ganzen Gehirns zu erhalten, benötigt man jedoch spezialisier-
. Abb. 6.5 Immunhistochemie und in situ-Hybridisierung im Vergleich. Gezeigt sind coronale Schnitte des Gyrus Dentatus des Hippocampus , in denen das Arg3.1 Protein und die Arg3.1 mRNA nach synaptischer Aktivität nachgewiesen wurden. (A) Mit Hilfe der Immunhistochemie kann man das Protein mit zellulärer Auflösung nachweisen. (B) Bei der radioaktiven in situ-Hybridisierung kann die mRNA in bestimmten Hirnregionen nachgewiesen werden. Das Signal ist diffus und erreicht keine zelluläre Auflösung. Die radioaktive in situ-Hybridisierung bietet jedoch einen guten Überblick über die Genexpression im gesamten Gehirn und die Intensität des Signals ist proportional zur Transkriptmenge
te stereologische Verfahren, die eine dreidimensionale Interpretation der planaren Schnitte erlauben und über die die Zahl der aktivierten Neurone in den verwendeten Schnittpräparaten verlässlich bestimmt werden können. Neben dem c-fos Protein, das generell eher als Marker neuronaler Aktivität angesehen wird, kann man auch Marker für plastische Veränderungen verwenden, die mit neuronalen Lernprozessen, aber auch mit neurologischen Erkrankungen in Zusammenhang stehen. Als gutes Markerprotein für plastische Veränderungen hat sich mittlerweile das aktivitätsregulierte Protein Arg 3.1 (auch Arc genannt) etabliert. Auch
137
6.4 • Nachweis neuronaler Aktivität
6
cDNA
A NotI
SalI
Sp6 Polymerase
T7 Polymerase
SalI
NotI Restriktion
Sp6
T7
NotI
cDNA
SalI
SalI
cDNA
Antisense-Sonde
NotI
Sense-Sonde Sense
B
Antisense NotI
Sp6
SalI 5’
3’
5’
3’
T7
NotI RNA-Ploymerasen synthetisieren in 5’-3’ Richtung
3’ 5’ 3’
Antisense-Sonde 5’ Sense Antisense
T7
3’ 5’
. Abb. 6.6 Herstellung einer mRNA-Sonde für die in situ-Hybridisierung mit Hilfe der in vitro-Transkription. (A) Für die Herstellung von Sense- und Antisense-Sonden muss der Expressionsvektor auf der 5′ und der 3′ Seite der klonierten cDNA mit Hilfe von Restriktionsenzymen geschnitten werden (hier SalI und NotI). Zudem finden sich auf beiden Seiten der cDNA Startpunkte für zwei unterschiedliche RNA-Polymerasen (hier SP6 und T7). (B) Die Antisense-Sonde bindet an die komplementäre Sense-mRNA und wird durch Ablesen des Sense-Stranges der cDNA gebildet
138
Kapitel 6 • Anatomische Untersuchung des Nervensystems
A
B
6
. Abb. 6.7 Nachweis neuronaler Aktivität über das c-fos-Protein und radioaktiv markierte Glukose. (A) C-fos ist ein zellulärer Marker für neuronale Aktivierung. Das c-fos Protein kann mit Hilfe der Immunhistochemie im Zellkern aktivierter Neurone nachgewiesen werden. Es können somit einzelne aktivierte Zellen sichtbar gemacht werden. (B) Bei der Autoradiographie wird radioaktiv markierte Glucose nachgewiesen, die von aktiven Nervenzellen aufgenommen wurde und vermehrt an aktivierten Synapsen akkumuliert. Es können aktivierte Hirnareale ohne zelluläre Auflösung nachgewiesen werden
wenn Markerproteine viele Informationen über den Aktivitätszustand und die ablaufenden Veränderungen des Nervensystems liefern können, sollte man auch die Limitierung solcher Nachweise im Hinterkopf haben. So weiß man z. B. nicht mit Sicherheit, ob die Markerproteine tatsächlich in allen aktivierten Neuronen angeschaltet werden oder ob alle aktivierten Neurone tatsächlich das Makerprotein exprimieren. Zudem ist die zelluläre Funktion der beiden genannten Markerproteine noch lange nicht in allen Details geklärt.
6.4.2
Autoradiographie
Bei der Autoradiographie handelt es sich um eine Darstellung der neuronalen Aktivität, die der Positronenemissionstomographie (PET; siehe 7 Kap. 10), die als funktionelles bildgebendes Verfahren an Menschen angewendet wird, sehr ähnlich ist. Genau wie bei PET-Untersuchungen, die radioaktiv markierte 18F-Desoxyglucose als nachzuweisende Radionucleotide benutzen, wird hier mit 14C markierte Glucose injiziert. Man nennt
die Methode auch die 2-Deoxyglucose-Methode (2-DG), weil dabei radioaktiv markierte Glucose von aktiven Nervenzellen aufgenommen wird, aber wegen der fehlenden Hydroxylgruppe nicht weiter verstoffwechselt werden kann und sich deshalb in aktivierten Nervenzellen und dort vor allem an aktivierten Synapsen anhäuft. Im Gegensatz zu den PET-Untersuchungen, bei denen die Radionucleotide und damit die Aktivierung über einen PET-Scanner sichtbar gemacht werden können, müssen die Gehirne für die Autoradiographie entnommen und mit Hilfe des Gefriermikrotoms geschnitten werden (Schnittdicke 20–40 μm). Auf die Schnitte werden Röntgenfilme gelegt und man wertet wie bei den radioaktiven in situ-Hybridisierungsexperimenten anschließend die Schwärzung der Filme aus (. Abb. 6.7). Um quantitative Daten zu erhalten, muss man bei der 2-DG-Methode 14C-Standards definierter Konzentration mit exponieren, um hinterher den Grad der Schwärzung in Radioaktivität umrechnen zu können. Die 2-DGMethode ist eine vergleichsweise alte (70er Jahre) und einfach durchzuführende Methode, mit der neuronale Aktivierungsmuster untersucht werden
139
6.4 • Nachweis neuronaler Aktivität
können. Allerdings benötigt man ein Isotopenlabor, in dem man radioaktiv arbeiten darf und man muss aufgrund der sehr langen Halbwertszeit von 14C (5 730 Jahr) aufpassen, dass man sehr sauber arbeitet und weder sich noch andere gefährdet. 14C besitzt zwar eine sehr geringe Strahlung und kommt auch natürlich in der Atmosphäre vor (Grundlage für die Altersbestimmung über die Radiokarbonmethode), allerdings macht gerade diese sehr geringe Strahlung einen Nachweis über die normalen im Labor verwendeten Geigerzähler schwierig, und man kann daher Kontaminationen schlechter detektieren. Darüber hinaus kann die Auswertung der radioaktiven Filme sehr Zeit intensiv werden und es empfiehlt sich, jemand mit Programmierkenntnissen zu Rate zu ziehen, um die Analyse soweit wie möglich zu automatisieren. In den letzten Jahren wurden zunehmend auch PET- und MRI-Untersuchungen (7 Kap. 10) an Nagern durchgeführt. Solche Untersuchungen haben gegenüber der Autoradiographie den Vorteil, dass man an einem Tier mehrere Untersuchungen machen kann, z. B vor und nach einer Behandlung, wodurch eine optimale interne Kontrolle gewährleistet wird. Da es in Deutschland immer noch sehr wenige von diesen Geräten gibt, die für Nager verwendet werden können, und diese Untersuchungen vergleichsweise teuer sind, werden sie wohl in naher Zukunft nicht als Standardverfahren zur Untersuchung neuronaler Aktivität im Tiermodell verwendet werden. Darüber hinaus besteht ein Nachteil dieser Methoden darin, dass man Mäusen und Ratten nicht sagen kann, dass sie für eine bestimmte Zeit absolut stillhalten sollen, damit der Scan gelingt, sondern sie in den meisten Fällen für die Untersuchungen narkotisieren muss, wodurch die neuronalen Aktivitätsmuster stark beeinträchtigt werden können. Zudem ist die Auflösung bei den Scanverfahren (mm) wesentlich geringer als bei der Anwendung der 2-DG-Methode (μm).
6.4.3
Reportermäuse
Die Möglichkeit, Mäuse gentechnisch zu verändern und so neue Gene in das Mausgenom einzuführen (7 Kap. 8) hat unter anderem zur Etablierung von so genannten Reportermäusen geführt, die
6
bestimmte Reportergene unter der Kontrolle aktivitätsregulierter Promotoren, wie z. B. dem c-fos oder dem Arg 3.1 Promotor, bilden können. Als Reporter wird hier meist GFP (green fluorescent protein) eingesetzt, welches durch seine fluoreszenten Eigenschaften im Schnittpräparat ohne weitere histologische Methoden mit Hilfe der Fluoreszenzmikroskopie nachgewiesen werden kann. Neben der fluoreszenzmikroskopischen Auswertung der Schnittpräparate werden diese Mäuse auch benutzt, um in vivo, also im lebenden Organismus, die Aktivierung von Neuronenpopulationen über einen längeren Zeitraum mit Hilfe der konfokalen Mikroskopie zu untersuchen. Da es sich bei den GFP-Reportermäusen meist um transgene Tiere handelt und man nicht genau weiß, in welchem Teil des Genoms die Fremd-DNA integriert wird (7 Kap. 8.3), muss man, bevor man diese Mäuse für Imaging-Experimente verwendet, auf jeden Fall prüfen, ob das Reportergen in normalen physiologischen Mengen und nur nach neuronaler Aktivierung gebildet wird.
6.4.4
Cat-FISH
Die Cat-FISH (fluorescent in situ-hybridization with cellular and temporal resolution)-Methode wurde etabliert, um eine räumlich und zeitlich aufgelöste Aktivierung neuronaler Netze mit Hilfe der Fluoreszenz-in-situ-Hybridisierung und der Analyse über die konfokale Mikroskopie nachzuweisen. John Guzowski und Kollegen haben diese Methode initial verwendet, um nach Verhaltensexperimenten Gruppen von Neuronen nachzuweisen, die durch die Erkundung unterschiedlicher räumlicher Umgebungen aktiviert wurden (Guzowski, 1999). Grundlegend dabei war das Wissen, dass die nucleäre mRNA eines durch neuronale Aktivität angeschalteten Gens (hier Arg 3.1) bereits nach 5 Minuten nachweisbar ist, während die mRNA im Cytoplasma erst nach 30 Minuten detektiert werden kann. Setzt man nun eine Ratte oder eine Maus für 5 Minuten in eine bestimmte Umgebung und lässt sie nach einer Pause von 30 Minuten eine andere Umgebung 5 Minuten lang erforschen, so kann man hinterher die gesamte Population an Neuronen detektieren, die durch die Exploration der
140
6
Kapitel 6 • Anatomische Untersuchung des Nervensystems
. Abb. 6.8 Cat-Fish (fluorescent in situ-hybridization with cellular and temporal resolution). Mit Hilfe von cat-FISH kann man aktivierte Neuronenpopulationen mit zeitlicher Auflösung untersuchen (A) Mäuse oder Ratten werden im Abstand von 30 Minuten mit zwei verschiedenen räumlichen Umgebungen konfrontiert. (B) Schematische Darstellung der neuronalen Signale. Nach 5 Minuten liegt die mRNA nur im Zellkern vor, nach 30 Minuten nur im Cytoplasma. Wurde ein Neuron durch die Exploration in beiden Umgebungen aktiviert, so kann man sowohl ein nucleäres als auch ein cytoplasmatisches Signal nachweisen (C) Beispielbilder für ein ein cytoplasmatisches und ein nucleäres Signal
A
5 min Exploration
5 min Exploration
30 min
B
cytoplasmatisch
cytoplasmatisch und intranucleär
intranucleär
C
unterschiedlichen Umgebungen aktiviert wurde. Alle Neurone, die durch Umgebung 1 aktiviert wurden, zeigen ein cytoplasmatisches Signal, während alle Neurone, die durch Umgebung 2 angeschaltet wurden, ein nucleäres Signal zeigen. Neuronenpopulationen, die durch beide Umgebungen aktiviert wurden, zeigen sowohl ein cytoplasmatisches, als auch ein nucleäres Signal (. Abb. 6.8). Für die Auswertung der Schnittpräparate müssen hochaufgelöste, konfokale Bilder aufgenommen werden, und die quantitative Auswertung dieser Bilder kann leider ohne Probleme mehrere Diplomarbeiten in Anspruch nehmen.
6.5
Tracing-Verbindungsstudien
Bisher wurden in diesem Kapitel Methoden besprochen, mit denen man die Morphologie und die Lokalisation von Neuronentypen, das Gen/ Protein-Expressionsprofil oder die Aktivierung
von Neuronenpopulationen untersuchen kann. Da die neuronale Informationsverarbeitung jedoch nicht nur durch die Eigenschaften einzelner Neurone bestimmt wird, sondern auch durch die Verbindungen, die Nervenzellen innerhalb eines neuronalen Netzes miteinander haben, ist es unabdingbar, die Verbindungen zwischen Nervenzellen zu untersuchen, um die Funktion des Nervensystems besser zu verstehen. Woher Nervenzellen ihre Informationen bekommen und wohin sie diese weiterreichen, kann mit Hilfe von Tracing-Studien untersucht werden. Für Tracing-Experimente werden Substanzen entweder direkt in die Zelle injiziert oder in der Nähe der Zellen appliziert, von wo sie über aktive Prozesse von den Nervenzellen aufgenommen werden. In der Zelle angelangt, werden die Tracing-Substanzen entweder retrograd in Richtung Zellkörper oder anterograd in Richtung der Axonterminalien transportiert (. Abb. 6.9). Manche Substanzen können auch in beide Richtungen transportiert werden und markieren da-
6.5 • Tracing-Verbindungsstudien
A
anterograd
retrograd
B
. Abb. 6.9 Nachweis neuronaler Verbindungen über Tracing-Methoden. (A) Für den Nachweis neuronaler Verbindungen werden Tracing-Substanzen entweder in die Zelle injiziert oder in der Nähe der Zelle appliziert. Die Substanzen werden von der Zelle aktiv aufgenommen und entweder anterograd in Richtung Axonterminalien oder retrograd Richtung Zellkörper transportiert. (B) Einige Tracing-Substanzen können den synaptischen Spalt überwinden und werden über mehrere neuronale Schaltstellen über weite Bereiche im Gehirn transportiert. Hier werden durch den anterograden Transport die afferenten und durch den retrograden Transport die efferenten Projektionen markiert
durch die gesamte Zelle vom Dendritenbaum bis zum axonalen Endknöpfchen. Meist werden die Substanzen in vivo in das Gehirn von lebenden Tieren injiziert. Nach einigen Tagen kann das Gewebe dann entnommen und die Tracer nachgewiesen werden. Neben in vivo-Injektionen kann man auch dickere Gewebeschnitte, wie sie z. B für die Elektrophysiologie verwendet werden (7 Kap. 5), anfertigen, um die neuronalen Verknüpfungen zu untersuchen. Da die physiologischen Prozesse in einem Slice nicht so lange aufrechterhalten werden können und der Transport der applizierten Substanzen einige Zeit in Anspruch nimmt, können mit solchen Präparaten jedoch keine sehr weitreichenden Projektionen untersucht werden. Zudem
141
6
werden durch das Herstellen der Gewebeschnitte weitreichende Projektionen meist unterbrochen. Oft werden Tracing und Elektrophysiologie auch kombiniert. Man kann z. B. nach der elektrophysiologischen Messung einer Zelle eine Substanz über die Messelektrode injizieren und die untersuchte Zelle über die Zellmorphologie und ihre Verbindungen zu anderen Zellen im Anschluss näher charakterisieren. Die für die Tracing-Studien verwendeten Substanzen haben entweder fluoreszente Eigenschaften und können in Schnittpräparaten direkt nachgewiesen werden, oder sie sind an Peroxidasen gekoppelt und werden über einen Enzymreaktion nachgewiesen (7 Kap. 6.3.1). Eine Übersicht über einige häufiger verwendete Tracer-Substanzen findet sich in (. Tab. 6.2). Da man meist nicht nur die nächsten Nachbarn eines Neurons identifizieren, sondern gegebenenfalls auch die Verbindungen über mehrere Schaltstellen und ganzer neuronaler Netze untersuchen möchte, benötigt man Tracer, die von einer Zelle an die nächste weitergeben werden und somit den synaptischen Spalt überwinden können. Hier kommen entweder tritzierte, also mit Tritzium gekoppelte Aminosäuren zum Einsatz, die dann mit Hilfe der Autoradiographie nachgewiesen werden, oder Pflanzenlektine, die für den enzymatischen Nachweis an Peroxidasen gekoppelt sind. Darüber hinaus wurden in den letzten Jahren virale Systeme etabliert, die dazu in der Lage sind, in einer Zelle infektiöse Partikel zu bilden, welche dann wiederum Nachbarzellen befallen können. Meist werden Herpes- oder Rabiesviren verwendet, die je nach Spezies in anterograder oder retrograder Richtung wandern. Über die virale Infektion kommt es zur Expression von fluoreszierenden Proteinen und man kann so verbundene Neuronenpopulationen in Schnittpräparaten schnell identifizieren. Da es allerdings auch passieren kann, dass benachbarte nicht-synaptisch verbundene Zellen infiziert werden, versucht man über verschiedene gentechnische Manipulationen das virale Tracing soweit zu verbessern, dass es nur in wirklich verbundenen Zellen zu Expression der fluoreszenten Proteine kommt. Neben dem unspezifischen Befall benachbarter Nervenzellen kann auch die virale Infektion selbst ein Problem darstellen, denn es kann zum Absterben der Nervenzellen und zur Infekti-
142
Kapitel 6 • Anatomische Untersuchung des Nervensystems
. Tab. 6.2 Übersicht über häufig verwendete TracerSubstanzen Tracer
6
Richtung
Biocytin
retrograd und anterograd
Lucifer Yellow
retrograd und anterograd
DiI, DiO
retrograd und anterograd
Biotinylierte Dextranamine (BDA)
retrograd und anterograd
Meerrettichperoxidase
retrograd und anterograd
Weizenkeim-Agglutinin (WGA)
retrograd und anterograd; transsynaptisch
Phaseolus vulgaris- leucoagglutinin (PHA-L)
anterograd
Fluoreszente Mikropartikel
retrograd
Fluoro-Gold
retrograd
Diamidino Yellow
retrograd
Fast blue
retrograd
Cholera Toxin, Untereinheit B (CTB)
retrograd
Tetanus Toxin, Fragment C (TTC)
transsynaptisch
Pseudorabies Virus
transsynaptisch
Herpes Simplex Virus (HSV)
transsynaptisch
Tritzierte Aminosäuren (3H-Proline, 3H-Leucin)
transsynaptisch
wickelte GRASP-Technologie (GFP reconstitution across synpatic partners), die der Bimolekularen Fluoreszenz-Komplementation (BIFC; 7 Kap. 3.4.7) zur Untersuchung der Proteininteraktion sehr ähnelt. Bei GRASP nutzt man zwei Teilfragmente des grünfluoreszierenden GFP's, welche in zwei miteinander verbundene Zellen transfiziert werden. Über verschiedene genetische Modifikationen kann man erreichen, dass die Teilproteine an die Synapsen transportiert werden und dort in den synaptischen Spalt ragen. Da der synaptische Spalt nur 100 nm breit ist, kommen die beiden Teilfragmente in unmittelbare Nähe und können so gemeinsam das fluoreszierende Protein bilden und die synaptische Verbindung zwischen zwei Neuronen visualisieren. Auch wenn dieses System bisher nur für C. elegans etabliert ist, hat es großes Potenzial, und es ist nur einen Frage der Zeit, bis dieses Verfahren auch erfolgreich für Verbindungsstudien am Säugergehirn eingesetzt werden kann.
Literatur und World-Wide-Web-Links Web-Ressourcen:
on des zu untersuchenden Organismus kommen. Allerdings konnten durch neuere gentechnische Manipulationen die viralen Tracer bereits soweit verbessert werden, dass sie weniger pathogen sind, weniger unspezifisch nicht verbundene Nervenzellen infizieren und selektiver bestimmte Neuronentypen befallen.
Genexpression: http://mouse.brain-map.org www.gensat.org Anatomie des Gehirns: http://www.mbl.org/mbl_main/atlas.html http://www.hms.harvard.edu/research/brain/ http://www.brainnav.com/home Stereology: Glaser JR, Glaser EM (2000) Stereology, morphometry, and mapping: the whole is greater than the sum of its parts. J Chem Neuroanat 20, 115–126. Lucocq JM (2007) Efficient quantitative morphological phenotyping of genetically altered organisms using stereology. Transgenic Res 16, 133–145. Schmitz C, Hof PR (2005) Design-based stereology in neuroscience. Neuroscience 130, 813–831.
kGRASP
Da jede Nervenzellen nicht nur eine Verbindung zu einer Nachbarzelle hat, sondern tausende synaptische Kontakte ausbilden kann, hat der Experimentator es schwer, wenn er genau wissen will, über welche Synapsen zwei Neurone miteinander verbunden sind. Ein vielversprechender Ansatz, der im wahrsten Sinne des Wortes Licht ins Dickicht der Verbindungen bringt, ist die recht neu ent-
Nachweis neuronaler Aktivität: Barth A (2007) Visualizing circuits and systems using transgenic reporters of neural activity, Curr Opin Neurobiol. 7(5):567–571 Grinevich V, Kolleker A, Eliava M, Takada N, Takuma H, Fukazawa Y, Shigemoto R, Kuhl, D, Waters, J, Seeburg PH, Osten P (2009) Fluorescent Arc/Arg 3.1 indicator mice: a versatile tool to study brain activity changes in vitro and in vivo. J Neurosci Methods 184, 25–36.
Literatur und World-Wide-Web-Links
Sokoloff L, Reivich M, Kennedy C, Des Rosiers MH, Patlak CS, Pettigrew KD, Sakurada O, Shinohara M (1977) The [14C] deoxyglucose method for the measurement of local cerebral glucose utilization: theory, procedure, and normal values in the conscious and anesthetized albino rat. J Neurochem 28, 897–916. Zuschratter W, Gass P, Herdegen T, Scheich H (1995) Comparison of frequency-specific c-Fos expression and fluoro2-deoxyglucose uptake in auditory cortex of gerbils (Meriones unguiculatus). Eur J Neurosci 7, 1614–1626. CAT-FISH: Guzowski JF, McNaughton BL, Barnes CA, Worley PF (1999) Environment-specific expression of the immediate-early gene Arc in hippocampal neuronal ensembles. Nat Neurosci 2, 1120–1124. Tracing: Arenkiel BR, Ehlers MD (2009) Molecular genetics and imaging technologies for circuit-based neuroanatomy. Nature 461, 900–907. Cabantous S, Terwilliger TC, Waldo GS (2005) Protein tagging and detection with engineered self-assembling fragments of green fluorescent protein. Nat Biotechnol 23, 102–107. Callaway EM (2008) Transneuronal circuit tracing with neurotropic viruses. Curr Opin Neurobiol 18, 617–623 Feinberg EH, Vanhoven MK, Bendesky A, Wang G, Fetter RD, Shen K, Bargmann CI (2008) GFP Reconstitution Across Synaptic Partners (GRASP) defines cell contacts and synapses in living nervous systems. Neuron 57, 353–363. Seung HS (2009) Reading the book of memory: sparse sampling versus dense mapping of connectomes. Neuron 62, 17–29. Bücher Histologie: Luttman W, Bratke K, Küpper M Myrtek D (2009) Der Experimentator: Immunologie. 3. Aufl., Spektrum-Akademischer Verlag Mulisch M, Welsch U (2010) Romeis – Mikroskopische Technik. Spektrum- Akademischer Verlag Von Bohlen, Hlabach O, Dermietzel R (1999) Methoden der Neurohistologie. Spektrum-Akademischer Verlag Anatomie des Gehirns: Kaufmann MH (1992) The Atlas of Mouse Development. Academic Press Paxinos G (2004) The Rat Brain in Sterotaxic Coordinates. Academic Press Paxinos G (2003) The Mouse Brain in Sterotaxic Coordinates. Academic Press
143
6
145
Mikroskopie Claudia Mahlke
7.1
Das Mikroskop – 146
7.2
Wichtige Parameter in der Mikroskopie – 146
7.3
Lichtmikroskopie – 149
7.4
Fluoreszenzmikroskopie – 150
7.4.1 7.4.2
Konfokale Mikroskopie – 151 Mikroskopie unterhalb der Beugungsgrenze (beyond diffraction limits) – 154
7.5
Elektronenmikroskopie – 155 Literatur und World-Wide-Web-Links – 156
G. Hermey et al., Der Experimentator: Neurowissenschaften, DOI 10.1007/978-3-8274-2369-6_7, © Spektrum Akademischer Verlag Heidelberg 2010
7
146
7
Kapitel 7 • Mikroskopie
Das Mikroskop ist ein nicht wegzudenkendes Werkzeug der neurobiologischen Forschung. Schon im 17. Jahrhundert nutzten die Pioniere der Mikroskopie, Robert Hooke und Antonie van Leeuwenhoek, selbst gemachte Mikroskope, um Zelltypen verschiedener Organsimen zu studieren. Im späten 19. Jahrhundert nährte die Mikroskopie zusammen mit der Entwicklung der berühmten Golgi-Färbung (7 Kap. 6.2), die berühmte Debatte zwischen Camillo Golgi und Santiago Ramoń y Cajal, ob das Nervensystem aus einzelnen Zellen oder eher aus einem Zellverbund, einem Syncytium, aufgebaut sei. Dabei wurde das Mikroskop in der Vergangenheit vornehmlich dazu verwendet, die Struktur und zelluläre Morphologie in histologischen Präparaten zu untersuchen. Durch die konsequente Weiterentwicklung mikroskopischer Techniken haben wir heute die Möglichkeit, neben der relativ groben Auswertung neuronaler Strukturen zelluläre Bestandteile in einer Auflösung bis in den Nanometerbereich zu betrachten und sogar dynamische Prozesse über Untersuchungen an lebenden Zellen (live-cell-Imaging) zu verfolgen. Eine Übersicht über die Vergrößerungsleistung einzelner Mikroskopiemethoden findet sich in . Abb. 7.1. In diesem Kapitel werden wir kurz auf die grundlegenden Begriffe und Techniken der Mikroskopie eingehen und dann einige der moderneren Techniken vorstellen, die uns heute zur Verfügung stehen.
7.1
mit einem Standardmikroskop durch Objektiv und Okular eine Vergrößerung zwischen 50 und 1 000 fach erreichen. Um das Objekt sehen zu können, wird es über eine Lichtquelle durchleuchtet. Das Licht wird dabei über den Kondensor gebündelt und nach Durchtritt durch das Objekt über die Linsen vergrößert (. Abb. 7.2). Generell unterscheidet man zwischen einem aufrechten und einem inversen Mikroskop. Bei aufrechten Mikroskopen wird das Objekt direkt unter das Objektiv gelegt und man kann daher nur Proben untersuchen, die auf Glasobjektträger aufgebracht und sehr dünn sind. Möchte man sich Zellen in einer Zellkulturschale anschauen, ist es vernünftiger, ein inverses Mikroskop zu verwenden, da hier das Licht von oben einstrahlt und die Objektive unter der Probe angeordnet sind. Neben den normalen Lichtmikroskopen kommen Stereomikroskope für Präparationen, Operationen, Zellinjektionen oder die Vergrößerung größerer Objekte zum Einsatz. Hier wird das Licht über zwei verschiedene Linsensysteme geleitet, wodurch eine dreidimensionale Ansicht möglich wird. Wer zum ersten Mal unter Verwendung eines Stereomikroskops präparieren darf, wird für gewöhnlich einige Probleme haben, die nötigen motorischen Bewegungen zu koordinieren, da durch die Vergrößerungen alle Bewegungen ungewohnt schnell und grob erscheinen. Nach einiger Zeit gewöhnt man sich jedoch an die veränderten Relationen zwischen gefühlter und gesehener Bewegung.
Das Mikroskop 7.2
Die einfachste Form der Mikroskopie ist die Verwendung einer Lupe. Die Lupe hat ein konvexes Glas, eine Linse, welche Objekte vergrößert, indem die Lichtstrahlen, die von einem Objekt, ausgehend von der Linse so gebrochen werden, dass sie in einem fokussierten Punkt auf der anderen Seite der Linse gebündelt werden und das Objekt so größer erscheint. Richtige Mikroskope besitzen meist mindestens zwei solcher Linsen. Die erste Linse ist das Objektiv und führt je nach Beschaffenheit des Objektivs zu einer Vergrößerungen von 5x, 10x, 20x, 40x, 63x oder 100x. Die zweite Linse ist das Okular, welches in den meisten Fällen eine Vergrößerungsleistung von 10x hat. So kann man
Wichtige Parameter in der Mikroskopie
Die wichtigsten Parameter der Mikroskopie sind die Vergrößerung und die Auflösung. Die Vergrößerung bezieht sich darauf, wie viel größer im Vergleich zur Originalgröße ein Objekt erscheint, wenn man es durch ein Mikroskop betrachtet. In . Abb. 7.1 sind einige neuronale Strukturen, ihre Größe und die mikroskopische Technik dargestellt, mit der man sie sichtbar machen kann. Mit dem bloßen Auge können wir bis zu 0,2 mm große Objekte sehen und sind somit in der Lage, ganze Gehirne oder größere neuronale Strukturen mit bloßem Auge wahrzunehmen. Einzelne Neurone
147
7.2 • Wichtige Parameter in der Mikroskopie
100 mm
Auge
Mausgehrin 10 mm
1 mm
Einzelne Kerngebiete des Gehirns
7
. Abb. 7.1 Vergrößerungsleistung in der Mikroskopie. Die gestrichelte Linie zeigt die Auflösungsmöglichkeit über die normale Beugungsgrenze der Lichtmikroskopie hinaus, die Hilfe moderner mikroskopischer Verfahren erreicht werden kann. (super-resolution microscopy)
Elektronenmikroskop
Lichtmiksokop
100 μm Nervenzellkörper 10 μm Dendriten 1 μm Synapse 100 nm Vesikel 10 nm Rezeptor 1 nm DNA 0.1 nm
oder noch kleinere Strukturen, wie Axone oder Dendriten, würden uns ohne Vergrößerung verborgen bleiben. Die Auflösung hingegen beschreibt den minimal möglichen Abstand, den zwei Objekte haben dürfen, um sie gerade noch als 2 getrennte Punkte wahrnehmen zu können. Auch wenn man denken würde, dass eine größere Vergrößerung automatisch zu einer erhöhten Auflösung führt, ist dies nicht ganz richtig, denn die reine Vergrößerung verbessert nicht zwangsläufig die Klarheit und die Auflösung eines Objektes. Vielmehr kommen hier noch die numerische Apertur der verwendeten Objektive und die Wellenlänge des Lichtes als weitere Faktoren zum Tragen. Die numerische Apertur eines Objektivs beschreibt die Fähigkeit eines Objektivs, Licht einer untersuchten Probe zu sammeln. Ein Objektiv mit einer hohen numerischen Apertur kann mehr Lichtstrahlen sammeln und gewähr-
leistet dadurch eine höhere Auflösung. Die numerische Apertur eines Objektivs hängt davon ab, in welchem Winkel Licht in das Objektiv eintritt, und von dem Brechungsindex des Mediums, in dem das Objektiv arbeitet (. Abb. 7.2). Der Brechungsindex beschreibt dabei die Stärke der Abknickung eines Lichtstrahls, wenn der Lichtstrahl aus dem Vakuum auf ein bestimmtes Medium trifft, bzw. die Verzögerung, mit der der Lichtstrahl dieses Medium durchdringt. (1,0 für Luft, 1,33 für Wasser und 1,55 für Öl). Je größer der Brechungsindex, desto höher ist die numerische Apertur und desto mehr Licht kann einfallen. Da mikroskopische Präparate meist von einem Deckglas bedeckt werden, gibt es hier zwei Medienübergänge, einmal vom Präparat zum Deckglas und einmal beim Übergang vom Deckglas zum Objektiv. Treffen die Lichtstrahlen hier auf Luft, welche einen niedrigeren Brechungsin-
148
Kapitel 7 • Mikroskopie
. Abb. 7.2 Lichtmikroskopie. (A) Schematische Darstellung der Komponenten eines Lichtmikroskops. (B) Numerische Apertur (n = Brechungsindex des Mediums, 2α = Öffnungswinkel des Objektivs)
A Detektor Auge/Kamera
Okular
B α Objektiv Luft (n=1)
7
Probe Objektiv
Trockenobjektiv
Immersionsöl (n=1.55) Deckglas Immersionsobjektiv
Probe Kondensor
Lichtquelle
dex hat als Glas, dann kann es zur Totalreflexion kommen. Verwendet man jedoch sogenanntes Immersionsöl welches einen höheren Brechungsindex hat, wird das Licht weniger stark reflektiert. Ein Objektiv, dessen Linse in Öl getaucht ist, hat somit eine höhere numerische Apertur als ein Luftobjektiv und damit auch eine besseres Auflösungsvermögen. Der andere Faktor, der die Auflösung beeinflusst, ist die Wellenlänge des Lichtes, welches die Probe emittiert oder mit der sie beleuchtet wird. Bei der Lichtmikroskopie handelt es sich um Licht, mit der die Probe durchleuchtet wird, wohingegen es sich bei der Fluoreszenzmikroskopie um Licht handelt, welches die Probe selbst emittiert. Licht breitet sich mit einer bestimmten Wellenlänge aus, und den Abstand zwischen zwei Wellenmaxima bezeichnet man als Wellenlänge (λ) (. Abb. 7.3). Licht verschiedener Wellenlängen erscheint unserem Auge unterschiedlich farbig. Kurzwelliges Licht erscheint uns dabei blau-violett, während wir langwelliges Licht als rot empfinden. Die Wellenlänge
bestimmt auch, wie breit ein einzelner Lichtpunkt ist, dabei ist kurzwelliges Licht schärfer und hat eine bessere Auflösung als langwelliges Licht (siehe hierzu auch 7 Kap. 7.4.2). Somit bestimmen sowohl die Vergrößerung als auch die Auflösung die Größe eines Objekts, das gerade noch gesehen werden kann. Während theoretisch der Vergrößerung keine Grenzen gesetzt sind, so ist die optische Auflösung limitiert und bestimmt somit die maximale Vergrößerungsleistung, die in der Lichtmikroskopie bei 1 000 fach liegt, denn die maximale Auflösung beträgt ca. 0,2 μm und das bloße Auge kann Objekte bis 0,2 mm wahrnehmen. Mit Hilfe von Technologien wie der Elektronenmikroskopie, die kein Licht, sondern Elektronen zur Detektion verwenden, können jedoch noch kleinere Objekte sichtbar gemacht werden (7 Kap. 7.5).
149
7.3 • Lichtmikroskopie
. Abb. 7.3 Wellenlänge des sichtbaren Lichtes. (A) Lambda beschreibt die Wellenlänge, also den Abstand zwischen zwei Wellenmaxima. (B) Mit zunehmender Wellenlänge verändert sich der Farbeindruck von blau über grün zu rot. Fluorophore haben eine maximale Emission in unterschiedlichen Wellenlängenbereichen
A λ2
λ1
B
380 nm
7.3
blau
grün
DAPI
FITC GFP Alexa 488
7
orange/rot Cy3
Wellenlänge nimmt zu Energie nimmt zu
Lichtmikroskopie
Alle Mikroskope, die Licht verwenden, um Objekte oder Proben sichtbar zu machen, sind Lichtmikroskope. Dazu gehören Mikroskope, die weißes Licht aller Wellenlängen verwenden, genauso wie Fluoreszenzmikroskope (7 Kap. 7.4), die auf den Nachweis bestimmter Wellenlängen des Lichts optimiert sind. Meist wird der Begriff Lichtmikroskop jedoch ausschließlich für Nicht-Fluoreszenzmikroskope verwendet. Das gängigste Verfahren der Lichtmikroskopie ist die Hellfeldmikroskopie (brightfield), bei der Licht direkt durch die Probe fällt oder von ihr reflektiert wird. Die meisten Proben sind durch ihren hohen Wassergehalt durchsichtig und man kann Strukturen ohne eine vorherige Behandlung der Probe kaum differenzieren. Daher wurden eine Reihe von Färbemethoden etabliert mit denen man über eine Kontrasterhöhung spezifische Strukturen sichtbar machen kann (siehe auch 7 Kap. 6.2). Bei den meisten dieser Färbeverfahren werden die Zellen jedoch für die Behandlung fixiert und man kann daher keine lebenden Zellen beobachten. Um diesen Nachteil zu umgehen, wurden Methoden entwickelt, die es erlauben, einzig über die Manipulation des Lichtes den Kontrast zu erhöhen, um auch in lebenden Zellen einzelne Strukturen beobachten und analysieren zu können. Bei der Phasen-
Rhodamin Alexa 555 Cy5
750 nm
kontrastmikroskopie werden z. B. Unterschiede in der Dichte von Strukturen dargestellt. Dabei werden Objekte mit höherer Dichte und damit höherem Brechungsindex (z. B. Zellkern) normalerweise dunkler abgebildet als Strukturen mit geringer Dichte und damit kleinerem Brechungsindex (z. B. Plasma). Mit Hilfe der Phasenkontrastmikroskopie können somit auch dünne, transparente oder nur schwach gefärbte Objekte untersucht werden, und es wird daher häufig für die Untersuchung kultivierter Zellen eingesetzt (7 Kap. 4). Die Dunkelfeldmikroskopie verwendet indirektes Licht, das von der Seite auf das Objekt fällt. Strukturen, die kein Licht streuen, erscheinen dunkel, während Strukturen, die das Licht stark brechen, dieses stark streuen und es so auf das Objektiv fällt und sichtbar wird. Bei der Nomarski-, oder DIC-Mikroskopie (differential interference contrast) wird das Objekt von zwei senkrecht aufeinander stehenden Wellenzügen durchlaufen, wodurch, ähnlich wie beim Phasenkontrast, Unterschiede in der Dichte von Strukturen sichtbar gemacht werden. Im Gegensatz zum Phasenkontrast kann beim DIC der Kontrast allerdings stufenlos verstellt und so die Helligkeit und Farbe des Untergrundes verändert werden.
150
Kapitel 7 • Mikroskopie
. Abb. 7.4 Prinzip der Fluoreszenzmikroskopie
Okular
Filterblock Sperrfilter Lichtquelle
Dichroitischer Strahlteiler
7 Anregungsfilter Objektiv
Präparat
7.4
Fluoreszenzmikroskopie
Die Fluoreszenzmikroskopie macht sich zunutze, dass bestimmte Moleküle, so genannte Fluorophore, Licht bestimmter Wellenlängen absorbieren und Licht einer längeren Wellenlänge emittieren. So emittieren Stoffe, die blau absorbieren, grüne Fluoreszenz, und Stoffe, die grün absorbieren, rote Fluoreszenz. Fluorophore können dabei entweder an Antikörper gekoppelt sein, wodurch sie für die Immunhistochemie (7 Kap. 6.3.1) und Immuncytochemie (7 Kap. 4.5.1) einsetzbar sind, oder sie werden über molekularbiologische Methoden zusammen mit anderen Proteinen in der Zelle gebildet und ermöglichen so den Nachweis dieser Proteine in Zellen. Das Prinzip der Fluoreszenz besteht darin, dass durch die Absorption des Lichtes, also der Photonen, das Fluorophor in einen angeregten Zustand gerät. Nach kurzem (einige Nanosekunden) Verweilen im angeregten Zustand kann die Anregungsenergie sowohl in einem strahlenden Kanal (Fluoreszenz) als auch in einem nicht strahlenden (z. B. Schwingungsrelaxation) abgegeben werden,
woraufhin das Fluorophor in seinen Grundzustand zurückkehrt. Fluoreszenzmikroskope funktionieren prinzipiell so, dass sehr helles Licht so gefiltert wird, dass nur die Anregungswellenlänge eines bestimmten Fluorophores durch den Filter treten kann und so die Probe anregt. Die Emission, also die abgegebene Strahlung, wird dann wiederum durch einen Filter, den Emissionsfilter, geleitet, wodurch nur das emittierte Licht des Fluorophores zum Auge oder der Kamera geleitet wird (. Abb. 7.4). Über verschiedene Filtersätze ist es möglich, auch mehrfach markierte Proben getrennt voneinander zu detektieren. So kann man zum Beispiel verschiedene Moleküle mit unterschiedlichen Fluorophoren koppeln und so entweder die Kolokalisation zweier Proteine studieren oder das Vorhandensein eines Proteins in bestimmten zellulären Komponenten nachweisen. Wenn man ein neues Fluorophor einsetzen möchte oder an einem fremden Mikroskop arbeitet ist es wichtig, sich vorher zu informieren, welche Filtersätze in das Mikroskop eingebaut sind und wie die Anregungs- und Emissionsfilter zu den Fluorophoren passen, denn es kommt häufig vor,
151
7.4 • Fluoreszenzmikroskopie
dass der unerfahrene Experimentator Fluoreszenzmoleküle verwendet, die durch die vorhandenen Filter nicht getrennt dargestellt werden können, da es zu einer Überlappung der Anregungs- und/ oder Emissionsspektren kommt. Verschiedene Mikroskophersteller bieten auf ihrer Homepage Übersichten über Fluoreszenzfarbstoffe und Filtersätze an (Links am Ende des Kapitels). Obwohl die Fluoreszenzmikroskopie ein ganz wichtiges und wundervolles Werkzeug der Neurobiologie ist, hat sie auch ein paar Nachteile. Ein Nachteil besteht im so genannten photobleaching. Photobleaching bedeutet, dass die Fluoreszenzmoleküle bei längerer Anregung »ausbleichen« und dann nicht mehr angeregt werden können. Daher ist es notwendig, die Beleuchtung der Proben möglichst kurz zu halten und Bilder der Proben zu machen, bevor sie ausbleichen. Obwohl die Entwicklung dahin geht, immer stabilere Fluoreszenzmolküle zu entwickeln, und man heute bei der Durchführung von Fluoreszenzfärbungen nicht mehr akribisch darauf achten muss, dass die Proben sich möglichst immer im Dunklen befinden, sollte man trotzdem aufpassen, dass man die Proben nicht zu lange unnütz beleuchtet, vor allem dann, wenn die Probe bereits unter dem Mikroskop liegt und mit der jeweiligen Anregungswellenlänge beleuchtet wird. Photobleaching ist jedoch nicht nur negativ, sondern wird bei vielen Fluoreszenztechniken auch systematisch eingesetzt, um die Auflösung zu verbessern (7 Kap. 7.4.2), um Interaktionspartner zu untersuchen oder die Lokalisation eines Proteins besser zu bestimmen. Neben der Weiterentwicklung der herkömmlichen Fluorophore wurden auch ganz neue Moleküle für die die Fluoreszenzmikroskopie entwickelt. In einer Zusammenarbeit von Physikern und Biologen ist es gelungen, Halbleiternanokristalle, die so genannten Quantum Dots (QDs) als neue Generation von Fluoreszenzmarkern zu entwickeln. Sie bestehen aus einem Cadmium-Selen-Kern mit einer Zink-Sulfid-Hülle und können ihr Fluoreszenzlicht, welches auf den Halbleiter-Charakter zurückzuführen ist, abhängig von ihrer Größe über Monate hinweg in den unterschiedlichsten Farben aussenden. Dazu genügt die Anregung mit UVLicht. Schon allein durch diese Photostabilität besitzen sie einen unschlagbaren Vorteil gegenüber
7
den bisher in vitro und in vivo verwendeten Markern. Zudem sind sie auch sehr viel kleiner als herkömmliche Fluoreszenzmoleküle und können so eine bessere Auflösung gewährleisten. Für viele Anwendungen sind jedoch die herkömmlichen Fluorophore absolut ausreichend und man sollte den vorhandenen Laboretat nicht unnötig durch den Kauf der doch sehr viel teureren Q-dots belasten. Neben dem Photobleaching kann auch die Phototoxizität der Fluoreszenzmoleküle ein Problem darstellen. Durch die Aktivierung der Fluorophore kann es zur Bildung von freien Radikalen kommen, die für die Zellen toxisch sein können. Zudem kann die Autofluoreszenz vieler Substanzen die Auswertung fluoreszenzmarkierter Proben stören. Autofluoreszenz stellt dabei eine Art Hintergrundrauschen dar, und wenn das Autofluoreszenzsignal im gleichen Wellenlängenbereich emittiert wie das eigentliche Fluorophor, kann es schwierig sein, die beiden Signale voneinander zu unterscheiden. Die normale Fluoreszenzmikroskopie wird auch als Epifluoreszenz bezeichnet. Sie ist ein mächtiges Werkzeug, wenn man einzelne Zellen oder Strukturen an der Oberfläche von Gewebeschnitten beobachten möchte. Möchte man aber etwas tiefer in das Gewebe hineinschauen, hat man das Problem, dass Fluoreszenzsignale, die außerhalb der Fokusebene liegen, zu einem verschwommenen und unscharfen Bild führen. Mit Hilfe der Konfokalmikroskopie kann man diesen Nachteil der Epifluoreszenz ausschalten.
7.4.1
Konfokale Mikroskopie
Konfokal arbeitende Mikroskope produzieren klare Bilder von Strukturen innerhalb relativ dicker Proben, indem sie Licht aus einem sehr kleinen Bereich (<1 μm) sammeln. Es ist das Werkzeug der Wahl, wenn man zum Beispiel fluoreszenzgefärbte Nervenzellen in einem dickeren Hirnschnitt oder kleine intakte Organsimen, wie Fruchtfliegen oder Zebrafische, untersuchen möchte. Während unter Anwendung der Epifluoreszenz die gesamte Probe auf einmal beleuchtet wird und alle Fluorophore gleichzeitig angeregt werden, wird mit Hilfe der Konfokalmikroskopie das Licht eines Lasers über eine winzige Öffnung oder Lochblende (pinhole)
152
Kapitel 7 • Mikroskopie
. Abb. 7.5 Laserscanning-Mikroskopie (LSM). Die hellgrauen Linien zeigen schematisch den Weg der Lichtstrahlen, die außerhalb der Fokusebene generiert werden
Fotodetektor
pinhole
Lichtquelle
pinhole
Dichroitischer Strahlteiler
7 Objektiv
Präparat
so gebündelt, dass Fluorophore nur in einem kleinen Bereich in der Fokusebene anregt werden (. Abb. 7.5). Allerdings kann es auch hier zu einer weniger intensiven Beleuchtung anderer Bereiche kommen. Die emittierte Strahlung aus diesen Bereichen wird jedoch über ein zweites pinhole reduziert, bevor das Licht auf den Detektor trifft. Der Kern der konfokalen Mikroskopie sind somit die beiden pinholes, die so aufeinander abgestimmt sind, dass das zweite pinhole nur Strahlung aus dem Bereich empfängt, auf den das erste pinhole den Laserstrahl fokussiert, wodurch die Hintergrundstrahlung reduziert wird. Das detektierte Licht wird digitalisiert und kann dann mit Hilfe einer Bildverarbeitungssoftware auf einem möglichst rechenstarken Computer weiterverarbeitet werden.
Fokusebene
geführt. Das heißt, der Laser bewegt sich in definierten Abständen in der X-, Y- und Z-Ebene über das Präparat und kann so größere Bereiche in allen Dimensionen erfassen. Anschließend können die Bilder mit Hilfe von bildverarbeitenden Computerprogrammen rekonstruiert werden und man erhält so eine dreidimensionale Abbildung des untersuchten Präparates. Obwohl das Laser-Scanning-Verfahren sehr schöne Bilder von dickeren Geweben und kleinen Organismen liefern kann, hat sie den Nachteil, dass die Bildaufnahme mehrere Sekunden dauert und so die Aufnahme von sehr schnellen Prozessen in der Zelle, wie z. B. dem Transport von Vesikeln, nicht optimal erfasst wird. Zudem kommt es durch das Scannen der Probe zu einer starken Beleuchtung der Probe und Photobleaching-Effekte können stärker ausgeprägt sein.
kLaser-Scanning-Konfokalmikroskop
Da man meist nicht nur die Information eines einzigen Punktes eines Präparates abbilden möchte, wird die Konfokalmikroskopie in den meisten Fällen mit einem Laserscanning-Verfahren durch-
kSpinning-Disk-Mikroskope
Um das so genannte in vivo-Imaging auch für sehr schnelle Prozesse zu ermöglichen und Photobleaching-Effekte zu minimieren, wurde die Mikro-
153
7.4 • Fluoreszenzmikroskopie
7
. Abb. 7.6 Spinning-Disk-Mikroskop
Laser Rotation MikrolinsenArray
Mikrolinse
Linse
Fotodetektor
pinholeArray
pinhole
dichroitischer Strahlteiler
Objektiv
Präparat
skopie mit dem Spinning-Disk oder auch NipkowDisk-Verfahren entwickelt. Spinning-Disk-Mikroskope projizieren das Anregungslicht gleichzeitig durch Hunderte von kreisrunden Blenden in das Präparat und sammeln das emittierte Licht wieder durch dieselben konfokalen Blenden (. Abb. 7.6). Die Lochblenden befinden sich auf einer Scheibe (disk), die sich mit 1 800 bis 5 000 Umdrehungen pro Sekunde drehen und eine Bildaufnahme mit 1 000 Bildern (frames) pro Sekunde ermöglichen. Emissionslicht von außerhalb des Fokus wird von der Scheibe nahezu vollständig blockiert. Das so entstehende Bild stellt bereits ohne Softwarebearbeitung einen optischen Schnitt dar. SpinningDisk-Systeme sind parallel abtastende Konfokalsysteme; sie erfassen gleichzeitig viele Bereiche des Präparats mit hoher Geschwindigkeit bei geringen Auflösungsverlusten. Dadurch ermöglicht die Spinning-Disk-Mikroskopie die Aufnahme von sehr schnellen Prozessen in der Zelle mit minimalem Photobleaching. In der Neurobiologie wird das
Spinning-Disk-Mikroskop gerne verwendet, um intrazelluläre Transportprozesse zu beobachten. kZwei-Photonen-Mikroskopie
Die Zwei-Photonen Mikroskopie (two-photon imaging) oder auch Zwei-Photonen-Laser-ScanningMikroskopie beruht auf dem Effekt, dass die Fluoreszenzanregung statt durch Absorption eines energiereichen Photons auch durch die zeitgleiche Absorption zweier energieärmerer Photonen erfolgen kann. So kann statt kuzwelligem Licht (z. B. 375 nm) längerwelliges Licht (z. B. 750 nm) zur Anregung genutzt werden. Wenn ein Fluoreszenzmolekül gleichzeitig 2 Photonen mit geringerer Energie absorbiert, dann tragen beide Photonen zur Erregung des Fluoreszenzmoleküls bei, so als ob ein Photon mit der doppelten Energie, also der halben Wellenlänge absorbiert worden wäre. Der größte Vorteil liegt darin, dass das Zusammentreffen zweier Photonen sehr selten vorkommt und so die Fluoreszenzemission auf den Bereich in der Fo-
154
Kapitel 7 • Mikroskopie
kusebene begrenzt ist. Man erhält somit sehr viel klarere Bilder, da keine zusätzlich angeregten Fluoreszenzmoleküle aus anderen Bereichen das Bild unscharf machen. Zudem ist längerwelliges Licht wesentlich weniger schädigend für das Gewebe und bietet eine höhere Eindringtiefe (500–1 000 μm) in das Gewebe. Die sehr fokussierte Anregung, die geringe Phototoxizität und das minimierte Photobleaching machen die Zwei-Photonen-Mikroskopie zu einem wichtigen Werkzeug für die Untersuchung an lebenden Organismen. So kann man mit dieser Methode zum Beispiel die Ausbildung von Spines, den Dornenfortsätzen an den Dendriten, in vivo live beobachten, während sie zum Beispiel auf Grund eines Lernereignisses ausgebildet werden.
7
kTIRF-Mikroskopie
TIRF (total internal reflection microscopy) ist eine weitere Methode, die unscharfe Bilder durch störende Fluoreszenzsignale außerhalb der Fokusebene vermeidet. Mit TIRF wird die Exzitation auf einen Bereich der Fokusebene, hier die Fläche zwischen der Probe und dem Objektträger, begrenzt. Der Objektträger wird von hinten und in einem Winkel bestrahlt, der groß genug ist, dass eine Totalreflexion auftritt. Die Strahlung tritt zwar trotzdem in den Objektträger ein, wird aber dabei mit zunehmendem Weg immer stärker abgeschwächt (sog. evaneszente Welle) und erreicht so nur wenige Schichten fluoreszierenden Materials. TIRF eignet sich daher besonders, um Strukturen zu untersuchen, die sich sehr nahe (100–200 nm) an der Oberfläche eines Objektes befinden, also Prozesse, die z. B. an der extrazellulären Membran der Zellen ablaufen.
7.4.2
Mikroskopie unterhalb der Beugungsgrenze (beyond diffraction limits)
In 7 Kap. 7.2 haben wir gelernt, dass die Wellenlänge des Lichtes die Auflösung limitiert, also die Fähigkeit, zwei Lichtpunkte, die nah beieinander sind, als getrennt Punkte wahrzunehmen. Der Grund hierfür ist das Phänomen der Strahlenbeugung oder Diffraktion (diffraction). Hierunter versteht man
die Eigenschaft einer Lichtwelle, sich um Objekte herum zu beugen, während sie sich ausbreitet. Somit erscheint das Licht eines einzelnen Lichtpunktes, der durch das Objektiv eines Mikroskops fällt, nicht als einzelner Punkt, sondern ist umgeben von Kreisen geringerer Intensität. Diese Ringe werden als Beugungsscheibchen, oder Airy-Scheibchen (airy disks) bezeichnet. Diese Beugungsscheibchen beeinflussen die Auflösung, denn wenn sie überlappen, können zwei getrennte Lichtpunkte nicht mehr getrennt wahrgenommen werden. Man spricht daher auch vom diffraction limit, der Auflösung, welche bei einem normalen Fluoreszenzmikroskop berechnet werden kann, indem man die Wellenlänge der Probe mit 0,61 multipliziert und durch die numerische Apertur des Objektives teilt. So beträgt die Auflösung einer Probe, die im Grünbereich fluoresziert (ca. 480 nm) und unter Verwendung eines Ölobjektivs mit einer numerischen Apertur von 1,4 betrachtet wird, ungefähr 209 nm. Das heißt, zwei Lichtpunkte, die 209 nm voneinander entfernt sind, können gerade noch als getrennte Lichtpunkte wahrgenommen werden (0,61 × 480 nm/1,4 = 209 nm). Da zelluläre Strukturen jedoch häufig sehr viel kleiner sind, wurden Verfahren entwickelt, mit denen man eine Auflösung beyond diffraction limit, also über diese Grenzen der normalen lichtmikroskopischen Auflösung hinaus erreichen kann. Mit Hilfe von STED (stimulated emission depletion), GSD (ground state depletion) und SSIM (saturated structured-illumination microscopy) kann man solche Auflösungen über die Grenzen der normalen Diffraktion hinaus erreichen. Dies funktioniert, indem man das Exzitationslicht so modifiziert, dass die Airy- oder Beugungsscheibchen verkleinert werden. Mit Hilfe von STED konnte man so zum Beispiel die Bewegung einzelner Vesikel in einer lebenden Zelle mit einer Auflösung von 60 nm nachweisen. Möchte man eine noch größere Auflösung erreichen, kommen Verfahren wie PALM (photoactivated localization microscopy), FPALM (fluorescent photoactivated localization microscopy), oder STORM (stochastic optical reconstruction microscopy) zum Einsatz, mit denen man im super-resolution-Bereich (2–20 nm) auch einzelne Moleküle in einer Zelle nachweisen kann. Für diese Nachweise wird eine besondere Klasse
7.5 • Elektronenmikroskopie
von photoaktivierbaren fluorieszierenden Proteinen (photoactivatable fluorescent proteins, PA-FPs) verwendet. Die Fluoreszenz dieser Moleküle kann durch Licht bestimmter Intensität und Wellenlänge gezielt an- und abgeschaltet werden. Das Prinzip beruht darauf, dass man die Moleküle über zufällige Lichtblitze anschaltet. Dabei wählt man die Versuchsbedingungen so, dass die Wahrscheinlichkeit, dass bei einem Aktivierungsblitz zwei dicht nebeneinander liegende Moleküle gleichzeitig aktiviert werden, sehr klein ist. Bei fortschreitender Belichtung bleichen diese Fluoreszenzmoleküle aus, das heißt, die Fähigkeit zur Fluoreszenz geht in diesem Molekül unwiederbringlich verloren. Ein nächster Lichtblitz aktiviert wieder zufällig einige PA-FPs und der Vorgang wiederholt sich. Nach sehr vielen Durchgängen sind alle PA-FPs ausgebleicht. Da man während es gesamten Vorgangs Bilder der einzelnen Aktivierungszustände aufnimmt, kann man hinterher über einen mathematischen Algorithmus unter Anwendung der Punktspreizfunktion die genaue Position jedes Moleküls berechnen. Ein Computerprogramm führt dies für alle Teilbilder durch und erzeugt daraus das endgültige Bild. Ein Nachteil dieser Methode ist die lange Aufnahmedauer, die eine Analyse lebender Zellen unmöglich macht.
7.5
Elektronenmikroskopie
Bei der Elektronenmikroskopie verwendet man, wie der Name schon sagt, Elektronen statt Licht bestimmter Wellenlägen, um zelluläre Strukturen sichtbar zu machen. Während die Photonen des für uns sichtbaren Lichts in einem Wellenlängenbereich zwischen 400 und 700 nm schwingen, können Elektronen sich mit einer Wellenlänge von 0,005 nm ausbreiten. Somit bietet die Elektronenmikroskopie eine 100 000 mal feinere Auflösung. Für biologische Fragestellungen ist so eine hohe Auflösung jedoch ohne Wert, so dass üblicherweise in einem Bereich zwischen 3 000 und 20 000 gearbeitet wird. Mit Hilfe der Elektronenmikroskopie wird es somit möglich, sehr kleine Strukturen, wie Synapsen, synaptische Vesikel, Ionenkanäle und sogar einzelne Transmitter, sichtbar zu machen. Die größte Limitierung der Elektronenmikroskopie ist die Tatsache, dass Präparate für die Elektronen-
155
7
mikroskopie fixiert, dehydriert und chemisch behandelt werden müssen, so dass eine Beobachtung lebender Zellen unmöglich wird. Darüber hinaus können Artefakte sichtbar werden, die in lebenden Zellen nicht vorhanden sind. kTransmissionselektronenmikroskopie
Die konventionelle Durchstrahlungs- oder Transmissionselektronenmikroskopie (TEM) ist die für die Biologie, und hier speziell für die Neurobiologie, wichtigste Form der Elektronenmikroskopie. Kernstück des Mikroskops ist ein sehr hoher Tubus, in dem im Inneren ein Hochvakuum erzeugt wird und der somit fast luftleer ist. Über eine Glühkathode am oberen Ende des Tubus treten Elektronen aus und werden durch ein starkes elektrisches Feld beschleunigt. Ein magnetischer Kondensor bündelt wie die Linse beim Lichtmikroskop die Elektronenstrahlen und konzentriert sie auf das Präparat. Nach dem Durchdringen des Präparats werden die Elektronstrahlen wieder gebündelt und treffen entweder auf den am Tubusende angebrachten Leuchttisch, über den man das Präparat mit Hilfe eines Hilfsmikroskops sehen kann, oder auf einen Film. Statt auf den Film kann das Bild auch über eine CCD-Kamera abgebildet werden. Da die CCD-Elemente durch direktes Bombardement mit den recht hochenergetischen Strahlelektronen schnell zerstört werden würde, wird die Elektronenintensität zunächst mit einem Szintillator in Licht umgesetzt, das dann über eine Transferoptik (meist Lichtleitfaserbündel) zum CCD-Chip geführt wird. Da das Durchdringungsvermögen der Elektronen sehr gering ist, müssen ultradünne Schnitte angefertigt werden (<100 nm). Diese werden zur Kontrastierung mit Schwermetallen angefärbt. Schwermetalle lagern sich an bestimmte zelluläre Strukturen an und lassen die Elektronen weniger stark oder auch gar nicht mehr durch. Je nach Durchlässigkeit des Präparats kann man in elektronenmikroskopischen Bildern mehr oder weniger dunkle Bereiche detektieren. Als Schwermetalle werden meist Osmiumtetroxid (OsO4), oder auch Blei, oder Uransalze verwendet. TEM wird in der Neurobiologie häufig eingesetzt, um synaptisch Strukturen, wie die postsynap-
156
Kapitel 7 • Mikroskopie
tische Dichte, oder präsynaptische Strukturen, wie Transmittervesikel, zu analysieren. kRastererlektronenmikroskopie
7
Mit dem Rasterelektronenmikroskop können Oberflächenstrukturen abgebildet werden. Hierzu werden die Präparate zur Kontrastverstärkung mit einem dünnen Film aus Gold oder Platin beschichtet. Stark gebündelte Elektronenstrahlen werden punktförmig auf das Objekt gerichtet und führen dazu, dass aus der Objektoberfläche Sekundärelektronen »herausgeschlagen« werden. Diese Sekundärelektronen werden gesammelt, prozessiert und schlussendlich in Pixel umgewandelt. Das Scannen der gesamten Oberfläche lässt dann ein dreidimensionales Bild der Oberflächenstruktur entstehen. Die Anwendungsbereiche in der Neurobiologie sind jedoch sehr begrenzt, so dass man in der Literatur selten Bilder findet, die mit dem Rasterelektronenmikroskop erstellt wurden. kElektronentomographie
Die Elektronentomographie hat Ähnlichkeiten mit der in 7 Kap. 10.2.1 beschriebenen Computertomographie, bei der das bildgebende Equipment um den Patienten herum bewegt wird, um unterschiedliche Schnitte des Gehirns aufzunehmen und so ein dreidimensionales Bild zu kreieren. Bei der Elektronentomographie wird nicht das System, sondern die Probe so bewegt, dass mit Hilfe der TEM-Bilder aus allen Richtungen erstellt und ein dreidimensionales Bild erzeugt werden kann. Die Auflösung von 2–20 nm erlaubt die Analyse molekularer Strukturen und wurde zum Beispiel erfolgreich eingesetzt, um die Organisation synaptischer Vesikel in Axonterminalien zu untersuchen.
Literatur und World-Wide-Web-Links Web-Ressourcen: http://www.olympusmicro.com http://www.microscopyu.com http://www.zeiss.de/mikro Betzig E, Patterson GH, Sougrat R, Lindwasser OW, Olenych S, Bonifacino JS, Davidson MW, Lippincott-Schwartz J, Hess HF (2006) Imaging intracellular fluorescent proteins at nanometer resolution. Science 313, 1642–1645.
Lippincott-Schwartz J, and Patterson GH (2009) Photoactivatable fluorescent proteins for diffraction-limited and super-resolution imaging. Trends Cell Biol 19, 555–565. Patterson G, Davidson M, Manley S, Lippincott-Schwartz J Superresolution Imaging using Single-Molecule Localization. Annu Rev Phys Chem. Stephens DJ, Allan VJ (2003) Light microscopy techniques for live cell imaging. Science 300, 82–86. Wilt BA, Burns LD, Wei Ho ET, Ghosh KK, Mukamel EA, Schnitzer MJ (2009) Advances in light microscopy for neuroscience. Annu Rev Neurosci 32, 435–506.
157
Transgene Tiermodelle Guido Hermey
8.1
Transgene Invertebrata – 158
8.1.1 8.1.2
Transgene Fliegen – 158 Transgene Würmer – 159
8.2
Transgene Mäuse – 159
8.3
Gene Targeting – 163
8.3.1 8.3.2 8.3.3 8.3.4
Knockout/Knockin – 168 Konditionale Mutationen – 169 Large-Scale-Ansätze – 172 Reporter – 176
8.4
In utero-Elektroporation – 176 Literatur und World-Wide-Web-Links – 176
G. Hermey et al., Der Experimentator: Neurowissenschaften, DOI 10.1007/978-3-8274-2369-6_8, © Spektrum Akademischer Verlag Heidelberg 2010
8
158
8
Kapitel 8 • Transgene Tiermodelle
In den vorigen Kapiteln haben wir experimentelle Ansätze betrachtet, durch die auf molekularer und zellulärer Ebene neurowissenschaftliche Fragestellungen beantwortet werden können. Wie in der Einleitung beschrieben, gibt es diverse Tiermodelle, die als in vivo-Modelle in der neurowissenschaftlichen Forschung zum Tragen kommen. Die Transgene-Tier-Technologie, das Hinzufügen von Genen oder ihre gezielte Manipulation im lebenden Organismus kann einen weiteren, sehr bedeutsamen Beitrag zum Verständnis neuronaler Vorgänge liefern. Denn durch transgene Technologien ist es möglich, eine veränderte Genexpression sowie veränderte Gene und die von ihnen codierten Proteine im physiologischen Gesamtzusammenhang, im Organismus, zu studieren. Klassische genetische Forschungsansätze nutzen einen vorhandenden Phänotyp zur Identifizierung einer Genmutation, die diesen Phänotyp bedingt. Ein relevanter Phänotyp kann z. B. eine Erkrankung beim Menschen oder bei einem Modell-Tier sein. Das Aufdecken solch einer Mutation kann sehr langwierig sein, zunächst wird nur ein Chromosomenabschnitt identifiziert, dann ein einzelnes Gen, schließlich die Mutation. Dieser Ansatz dient jedoch der zielgerichteten Identifizierung von Genveränderungen, die einen spezifischen Phänotyp bedingen. Im Gegensatz zu diesem auch als forward genetics (vom Phänotyp zum Genotyp) bezeichneten Ansatz, verfolgt man bei reverse genetics (vom Genotyp zum Phänotyp) die umgekehrte Strategie. Ausgangspunkt ist ein Gen oder ein Protein und das Ziel ist die Aufklärung der Funktion des Gens bzw. des Proteins. Je nachdem, welcher Phänotyp bei dieser Strategie zu Tage tritt, kann die Analyse ebenfalls sehr langwierig sein. Transgene Tiere können mit dem gesamten Methodenspektrum, das in diesem Buch dargestellt ist, und mit weiteren darüber hinausgehenden Techniken erforscht werden. Durch den Vergleich von transgenen Tieren mit Wildtyp-Tieren können Aussagen über die Funktion des Wildtyp-Gens bzw. -Proteins getroffen werden. Darüber hinaus gibt es verschiedene transgene Tiere, die so genannte Reporter exprimieren, die für verschiedene neurowissenschaftliche Analysen genutzt werden können. Was sind denn nun Transgene? Per Definition wurde das Genom dieser Tiere mittels gentechno-
logischer Methoden so verändert, dass eine oder mehrere Mutationen an die Nachkommen übermittelt werden können. Es wurden von einer Vielzahl von Spezies Transgene generiert. Prinzipiell ist es möglich, jede Art genetisch zu manipulieren. Insbesondere die verschiedenen sehr gut etablierten Modellorganismen wurden mit unterschiedlichem Erfolg verändert. Es gibt verschiedene Methoden, transgene Organismen zu erzeugen. Eine weit verbreitete ist die Injektion von DNA in einzellige Embryonen (Zygoten). Das Einbringen von DNA in Spermatozoen ist technisch sehr aufwendig und hat meist eine geringe Erfolgsquote. Alternativ kann man einen virusvermittelten Gentransfer durchführen. Dieser ist zwar effizient, aber es können nur DNA-Fragmente geringer Länge integriert werden, zusätzlich beobachtet man eine genetische Instabilität. Bei Mäusen ist der Transfer von stabil transfizierten embryonalen Stammzelle (ES-Zellen) in Blastocysten sehr gut etabliert. Alle so erzeugten Tiere werden somit laut Definition als Transgene bezeichnet. Es gibt aber im üblichen wissenschaftlichen Sprachgebrauch eine Unterscheidung. Tiere, denen zusätzlich zu ihren natürlichen Genen ein fremdes Gen eingeschleust wurde, werden als Transgene bezeichnet. Tiere, bei denen durch homologe Rekombination gezielt ein spezifisches eigenes Gen ausgeschaltet oder manipuliert wurde, werden als Knockouts oder Knockins bezeichnet. Letztere sind durch so genanntes Gene-Targeting in ES-Zellen, die dann stabil transfiziert in Blastocysten transferiert werden, hervorgegangen. Das Gene-Targeting ist bisher eigentlich nur für Mäuse gut etabliert.
8.1
Transgene Invertebrata
8.1.1
Transgene Fliegen
Auch wenn der Fokus dieses Buches auf der Verwendung von Mäusen als Tiermodell liegt, so gehen wir doch kurz auf zwei weitere relevante Tiermodelle ein. Drosophila kann als eines der am besten genetisch charakterisierten Tiere betrachtet werden. Man nutzt zur Herstellung transgener Drosophila Transposons (springende Gene). Diese mobilen genetischen Sequenzen haben nur eine
159
8.2 • Transgene Mäuse
begrenzte Spezifität für eine Zielsequenz und können deshalb zufällig ins Genom inserieren. Die am häufigsten in Drosophila experimentell genutzten Transposons sind die so genannten P-Elemente. Um nun eine transgene Fliege zu erzeugen, wird ein relevantes Gen oder DNA-Fragment zwischen zwei terminale Sequenzen eines P-Elements kloniert. Die terminale Sequenz ermöglicht dann die genomische Integration in Gegenwart eines Enzym, der Transposase. Zwei Plasmidvektoren werden gemeinsam verwendet. Der eine Vektor enthält das von Transposonelementen flankierte Gen und ein Markergen, welches z. B. für die rote Augenfarbe codiert. Der andere Vektor codiert für die Transposase. Diese werden gemischt und in einen frühen syncytialen Embryo nahe dem posterioren Pol injiziert. In diesem Bereich liegen die primordialen Keimzellen. Dort ist die Wahrscheinlichkeit, dass das Transgen in die Keimbahn übertragen wird, am größten. Es werden häufig Embryonen von Fliegen mit einem mutierten Gen für die Augenfarbe verwendet. Die Nachkommen dieser Fliegen haben weiße Augen. Trägt der P-Element-Vektor zusätzlich zum relevanten Gen ein Gen, welches sich für rote Augen verantwortlich zeigt, so besitzen die späteren, durch eine weitere Verpaarung hervorgegangenen transgenen Tiere rote Augen und können anhand dieser leicht identifiziert werden. Fliegen sind, so erstaunlich es für einen unbeteiligten Beobachter auch sein mag, unter Experimentatoren durchaus beliebt. Es gibt sehr viele etablierte Techniken und Daten, auf die man zurückgreifen kann. Offensichtliche Vorteile sind aber auch die sehr kurzen Generationszeiten (10–11 Tage bei Raumtemperatur) und die Tatsache, dass Weibchen hunderte von Eiern legen, es gibt also Unmengen von Nachwuchs. Das Halten der Tiere ist im Vergleich zu Säugern sehr billig und genehmigt werden Experimente an Fliegen auch relativ problemlos. Genetisch sind die Tierchen sehr gut charakterisiert, Promotor- und Enhancer-Elemente sind bekannt, so können in transgenen Tieren auch spezifische Zelltypen gezielt manipuliert werden. Neurowissenschaftlich interessierten Experimentatoren steht ein übersichtliches Nervensystem zur Verfügung, an dem nicht nur anatomische, sondern auch elektrophysiologische Methoden angewendet werden können. An den Fliegen lassen
8
sich sogar verschiedenste Verhaltensparadigmen studieren, darüber hinaus eignen sie sich als Modelle für verschiedene menschliche Erkrankungen.
8.1.2
Transgene Würmer
Der Nematode Caenorhabditis elegans ist ein weiterer gut beschriebener Modellorganismus. Die Erzeugung transgener Tiere erfolgt ähnlich wie in Drosophila, nämlich durch die Injektion eines DNA-Konstruktes. Allerdings ist C. elegans Hermaphrodit, also ein Zwitter, und trägt die selbst befruchteten Eier mit sich herum. Zu dem Zeitpunkt, wenn die Embryonen sich teilen, wird ein DNA-Konstrukt in die Gonaden eines Tieres injiziert. Das DNA-Konstrukt kann dann entweder extrachromosomal exprimiert werden, somit wahrscheinlich nicht an die nächste Generation weitergegeben werden, oder durch Gamma- oder UVBestrahlung ins Genom integriert werden. Häufig wird als Marker für eine erfolgreiche Herstellung Transgener ein GFP-Konstrukt co-injiziert. Auch C. elegans ist genetisch gut charakterisiert. Diverse beschriebene Promotorelemente erlauben ein gezieltes Verändern von spezifischen Nervenzellen.
8.2
Transgene Mäuse
Unter den Säugetieren ist die Hausmaus (Mus musculus) das am besten untersuchte Tiermodell. Dies ist aber nicht der einzige Grund für die Beliebtheit der Mäuse in Experimentatorkreisen. Ein großer Vorteil gegenüber den wirbellosen Modellorganismen ist, dass Mäuse im Vergleich zu diesen dem Menschen relativ ähnlich sind, zumindest, was die grundsätzliche Struktur von Geweben und Organen, die Physiologie und einige Verhaltensweisen anbelangt. Auch werden Mäuse schon lange Zeit studiert und mutiert. Es gibt eine große Anzahl sehr gut charakterisierter Linien und Stämme. Weiterhin tragen Mäuse ca. 20 Tage, liefern je nach Stamm ca. 10 Nachkommen, sind für Säugetiere immer noch recht klein und relativ leicht und kostengünstig zu halten. Auch bei der Maus lassen sich transgene Tiere relativ leicht durch die Injektion von DNA in
160
A
Kapitel 8 • Transgene Tiermodelle
Pronuclei mit Nucleoli
Zona
Polkörperchen
B
8
. Abb. 8.1 Pronucleus-Injektion. (A) Durch eine Haltepipette, links im Bild, wird die Zygote angesaugt und zur Injektion in Position gebracht. Die zwei Pronuclei sind gut sichtbar. (B) Mikroinjektion, die Mikroinjektionsnadel kommt im Bild von rechts und wird in einen der Pronuclei der Zygote eingeführt. Dabei tritt unter konstantem Druck DNA aus. (Mit freundlicher Genehmigung von I. Hermans-Borgmeyer, Hamburg)
eine befruchtete Eizelle herstellen. Die Technik der Pronucleus-Injektion wurde in den frühen 80er Jahren etabliert und ist in einigen Laboratorien eine Standardprozedur (. Abb. 8.1). Abhängig vom verwendeten DNA-Konstrukt liegt die Effizienz bei der stabilen chromosomalen DNA-Integration zwischen 10–40 %. Als Pronucleus oder Vorkern bezeichnet man den Zellkern einer Eizelle und eines Spermiums während der Befruchtung, zu dem Zeitpunkt, nachdem das Spermium in die Eizelle eingedrungen ist, aber bevor die Zellkerne
miteinander verschmolzen sind. Gewonnen werden Zygoten im Pronucleus-Stadium durch eine Superovulation. Dafür wird Weibchen das Hormon Gonadotropin injiziert, dies stimuliert die Oocytenreifung. Superovulierte Weibchen werden mit Männchen verpaart. War die Verpaarung erfolgreich, ist dies am so genannten Befruchtungsplug in der Vagina des Weibchens zu erkennen. Plug-positiven Weibchen werden die Zygoten entnommen. Der Erfolg der Zygotenbereitstellung hängt vom Mausstamm, Alter, Gewicht und Zeitpunkt der Injektion ab. Die Wahl des Mausstammes ist kritisch. Für neurowissenschaftliche Experimente ist der Mausstamm C57BL/6 sehr gut geeignet. Dieser Inzuchtstamm reproduziert sich aber verhältnismäßig schlecht und eignet sich kaum zur Superovulation. Wegen der deutlich größeren Effizienz wird in der Regel auf Hybride der ersten Generation wie C57BL/6 x CBA oder C57BL/6 x DBA zurückgegriffen. Beliebt sind auch FVB/N, ein Inzuchtstamm, der sich durch besonders große Pronuclei auszeichnet. Den genetischen Hintergrund der Zygote gilt es unbedingt zu beachten, denn dadurch entstammt die Gründer- (Founder)-Generation meist einem Hybridhintergrund und sollte unbedingt für elektrophysiologische und verhaltensbiologische Experimente in den C57BL/6 Stamm über mehrere Generationen zurückgekreuzt werden (7 Kap. 9.2.2 Verhaltensbiologie). Nach der Pronucleus-Injektion werden die Zygoten entweder bis zum Zweizellstadium kultiviert und dann oder direkt nach der Injektion pseudoschwangeren Weibchen implantiert. Das sind Weibchen, die mit sterilisierten (vasektomierten) Männchen verpaart wurden. Diese Ammen tragen dann die Founder-Generation aus. Bei der Analyse der transgenen Tiere sind zwei Faktoren zu beachten. Erstens, der Ort der DNAIntegration ist zufällig, und zweitens, die Kopienanzahl, die integriert, ist schwer vorherzusagen und variiert. Jeder Nachkomme der Founder-Generation wird ein einzigartiges Integrationsmuster haben, welches sich in Integrationsort und Anzahl der Integrierten Kopien unterscheidet. Daher empfiehlt es sich, aus mehreren positiven Founder-Tieren unabhängige Linien zu generieren und diese bezüglich ihrer Integrationsorte und -zahl zu analysieren. Dies kann durch eine Southern-Blot-Ana-
8.2 • Transgene Mäuse
lyse von genomischer DNA aus Schwanzbiopsien erfolgen. Am besten wählt man unterschiedliche Restriktionsenzyme zum Verdauen der genomischen DNA und nutzt einen Teil des injizierten Fragments als Probe zur Hybridisierung. Erhält man nur eine Bande, liegt eine einfache Integration vor, bei mehreren Banden ist entsprechend häufiger integriert worden. Wenn man etwas Glück bei der Restriktionsenzymauswahl hatte, erscheinen die Banden im Southern Blot auf unterschiedlichen Höhen und zeigen somit unterschiedliche Integrationsorte an. So lassen sich unterschiedliche Linien unterscheiden. Es empfiehlt sich, mindestens zwei Linien zu etablieren, die stabil transgen sind, um bei Experimenten zu zeigen, dass Effekte nicht auf den Integrationsort zurückzuführen sind. Der Integrationsort kann erheblichen Einfluss auf die Expression des eingeführten Gens haben. Es ist durchaus möglich, dass das relevante Gen an einem Integrationsort nicht ausreichend exprimiert wird oder ein anderes lebenswichtiges Gen durch die Integration nicht mehr oder nur reduziert exprimiert wird. Es kann passieren, dass eine Founder-Maus einen bestimmten Phänotyp aufweist, der dem Integrationsort geschuldet ist. Dies sollte überprüft werden, bevor Sie sich für den Beibehalt einer transgenen Linie entscheiden. Bedenken Sie, jeder Founder ist unterschiedlich. Sie sollten die unterschiedlichen Founder-Tiere nicht miteinander verpaaren, sondern einzelne Unterlinien züchten. Zur Etablierung einer transgenen Linie wird ein Founder-Männchen mit Wildtyp-Weibchen, bei Neurowissenschaftlern in der Regel C57Bl/6, verpaart. Die Mehrheit der Founder wird ca. 50 % Transgene in der nächsten Generation erzeugen. Allerdings können Founder-Tiere auch einen mosaiken-genetischen Hintergrund haben (nur ein Teil der Zellen exprimiert das Transgen), dann wird das Transgen schlechter weitergegeben. Anschließend verpaart man transgene Männchen mit Wildtyp-Weibchen. Dies ist in der Regel produktiver als die umgekehrte Strategie, vor allem weil ein Männchen gleichzeitig mit zwei Weibchen in einem Zuchtkasten gehalten werden kann und dementsprechend für mehr Nachwuchs sorgt. Zur reinen Zuchterhaltung sollten die Tiere bezüglich des Transgens hemizygot gehalten werden, so wird
161
8
die Wahrscheinlichkeit von Komplikationen aufgrund einer Homozygotie minimiert. Probleme, die durch die Homozygotie auftreten können, sind z. B. ein stetiger Verlust der Fertilität. Transgen x Transgen-Verpaarungen sollten nur für Experimente angesetzt werden. In der Praxis kloniert und reinigt der neurowissenschaftliche Experimentator ein DNA-Konstrukt und übergibt dies einem Spezialisten, der ausreichend viel Erfahrung mit der Pronucleus-Injektion hat und die entsprechenden Zygoten selbst herstellt oder kauft. Der gesamte Vorgang kann natürlich auch kommerziell in Auftrag gegeben werden. In jedem Fall sollten Sie sich aber informieren, ob DNA auf eine bestimmte Art und Weise gereinigt werden soll. Auch wenn es so scheint, als ob jemand anderes einen großen Teil der Arbeit übernimmt, der Experimentator hat immer noch eine wichtige Aufgabe, er muss ein für seine Zwecke dienliches Konstrukt bauen. Da gibt es natürlich diverse Möglichkeiten und Fallstricke. Zuerst sollten Sie sich über ihre experimentelle Zielsetzung im Klaren sein. Es gibt verschiedene Gründe, eine transgene Maus herzustellen. Es kann z. B. ein Gen überexprimiert oder eine Variante eines Gens (z. B. dominant-negativ) exprimiert werden, eine shRNA zur Reduktion der Expression eines Gens injiziert oder ein Reportergen exprimiert werden. Ein DNA-Konstrukt zur Herstellung transgener Mäuse besteht zunächst aus einem Promotor. Diesen sollten Sie mit Bedacht auswählen. Es gibt drei Möglichkeiten: Sie wählen den genspezifischen Promotor, soweit er verfügbar ist, Sie nutzen einen anderen gewebespezifischen Promotor, der bereits durch andere Arbeiten gut charakterisiert wurde, Sie entscheiden sich für einen ubiquitären oder einen regulierbaren Promotor. Selbst wenn Sie einen ubiquitären Promotor wählen, der idealerweise für eine hohe Expression in allen Zellen und Geweben während aller Entwicklungsstadien sorgen sollte, so tritt dies wahrscheinlich nicht ein. Denn die Wirkungsweise der regulativen Elemente scheint von der genomischen Umgebung an der Integrationsstelle abzuhängen. Deshalb sollte der Experimentator darauf vorbereitet sein, mehrere transgene Mauslinien bezüglich des gewünschten Expressionsmusters zu analysieren. Häufig ge-
162
Kapitel 8 • Transgene Tiermodelle
A ATG Promotor B
3’UTR ATG
Promotor
cDNA
3’UTR
. Abb. 8.2 Vektorkonstrukte zur Erzeugung transgener Mäuse. (A) Konstrukt basierend auf genomischer Sequenz mit Introns (Linien) und Exons (Kästchen) (B) Konstrukt basierend auf cDNA. Zwischen cDNA-Sequenz und 3′-UTR wurde ein Intron eingeführt. 3′-UTR beherbergt grundsätzlich eine Polyadenylierungssequenz. Pfeile indizieren einzigartige Restriktionsschnittstellen
8
nutzte nahezu ubiquitäre Promotoren sind z. B. die von folgenden Genen: beta-Actin, Histon H4, CMV und der Promotor des Rosa26-Locus. Häufig genutzte Promotoren des Nervensystems sind z. B. CamKII, Thy1 oder GFAP. Hinter den Promotor wird das relevante Gen kloniert. Hierbei gilt es zu beachten, dass eine reine cDNA-Sequenz häufig zu einer wesentlich geringeren Expression führt als eine genomische Sequenz, die sämtliche Exons und Introns enthält. Intronsequenz scheint die Transkripte zu stabilisieren und sollte deshalb so weit möglich eingeführt werden. Die genomische Sequenz steht aber nicht immer als DNA zur Verfügung und das wahllose Einführen von künstlichen Introns führt nicht unbedingt zum Erfolg, da das dann generierte Transkript mit einiger Wahrscheinlichkeit nicht dem gewünschten entspricht. Falls Sie diese Strategie trotzdem verfolgen, sollten Sie die Transkripte im Transgen unbedingt überprüfen. Alternativ kann zumindest vor dem Teil der 3′-UTR, die eine Polyadenylierungssequenz enthält, ein Intron eingeführt werden. Eine Polyadenylierungssequenz sollte auf jeden Fall auch im Konstrukt vorkommen. Sonst gilt die Regel, je mehr genomische DNA im Konstrukt enthalten ist, desto besser. Sehr wahrscheinlich werden Sie ein Konstrukt mit Hilfe unterschiedlicher Plasmidvektoren klonieren. Diese enthalten verschiedene bakterielle Sequenzabschnitte. Die haben zwar keinen großen Effekt auf die Integrationseffizienz eines injizierten Gens, können aber die Expression eines Gens erheblich reduzieren. Deshalb ist es ratsam, diese Elemente am Ende, wenn Sie ihr Konstrukt fertig kloniert haben, zu entfernen. Am besten planen Sie das Konstrukt so, dass einzigartige Restrik-
tions-Schnittstellen das relevante Konstrukt direkt flankieren (. Abb. 8.2). Eine Ausnahme stellt hier allerdings die Injektion sehr großer, ganzer genomischer Abschnitte umfassender BACs, PACs oder YACs dar (s. u.). Hier ist der Vektoranteil so gering, dass er nicht ins Gewicht fällt. Vorausschauend sollten Sie auch einen möglichen Nachweis der Transgenität planen, also die Genotypisierung. Sie sollten die Founder-Generation auf jeden Fall per Southern Blot überprüfen können, später können Sie auf PCR zurückgreifen. Sie sollten auch ihr Transgen von einem endogenen Gen unterscheiden können, falls dies nötig ist. Sie können z. B. eine kurze Sequenz in die 3′-UTR einfügen, das Gen einer anderen Spezies verwenden und genetische Unterschiede in den Spezies ausnutzen. Alternativ können Sie auch das Protein nachweisen und eine Sequenz, die für ein ProteinTag codiert, anhängen. Ein Konstrukt zur Pronucleus-Injektion kann in einen herkömmlichen Vektor kloniert werden. Es gibt aber auch die Möglichkeit, sehr große genomische Abschnitte (130–200 kb) über Bacterial-, Yeast, oder P1-derived Artificial Chromosomes (BAC, YAC, PAC) zu klonieren und zur Erzeugung transgener Mäuse zu nutzen. Technisch läuft die Mikroinjektion genauso ab wie die Injektion kleinerer Konstrukte. Mit der gestiegenen Größe des Vektors steigt die Gefahr, das Konstrukt durch Scherkräfte zu zerkleinern. Dies kann bereits beim Präparieren der DNA durch das Benutzen von Pipettenspitzen mit größeren Durchmessern vermieden werden. Unter Umständen kann auch eine im Durchmesser größere Injektionsnadel verwendet werden. Bezüglich der Integrationsrate ist zu berücksichtigen, dass bei einem sehr großen Kons-
163
8.3 • Gene Targeting
trukt die Wahrscheinlichkeit der Integration und insbesondere der multiplen Integration ins Genom abnimmt. Der grundsätzliche Vorteil bei der Verwendung von BACs, YACs und PACs ist, dass diese ohne weiteres ein gesamtes Gen mitsamt all seiner regulatorischen Sequenzen beherbergen können. Dadurch werden mögliche Positionseffekte bei der Integration in das Mausgenom minimiert und viele so erzeugte Linien zeigen eine größere Übereinstimmung in der Expression eines Gens als bei herkömmlichen Konstrukten. Somit eignet sich die Methode zur Expression von Genen oder Reportergenen, zur Identifikation regulatorischer Elemente oder Sequenzen. Zu bedenken ist allerdings, dass sich häufig mehrere Gene auf einem solch großen Konstrukt befinden, dies kann je nach Experiment die Ergebnisse beeinflussen. Viele Studien zielen auf den gezielten Austausch von genomischen Elementen innerhalb eines genomischen Abschnittes des BACs oder ein Marker- oder Reportergen wird an Stelle eines relevanten Gens im BAC gesetzt. Dafür muss ein großer DNA-Abschnitt im BAC verändert werden. Herkömmliche Klonierungsstrategien sind dabei zum Scheitern verurteilt. Deshalb helfen Klonierungsstrategien, die auf Rekombinationssystemen basieren, z. B. werden BACs in rekombinations-defizienten Bakterien vermehrt und können mit Hilfe des Enzyms RecA modifiziert werden (siehe Yang et al., 1997 und Yang und Gong 2005). Es ist möglich, durch die Kombination der transgenen Technologie mit induzierbaren Expressionssystemen die Expression eines Transgens zu steuern. Am häufigsten kommt das in 7 Kap. 4, Zelluläre Neurobiologie, vorgestellte Tet-System zur Anwendung. So lässt sich durch Zugabe von Doxycyclin zum Futter die Expression von Genen an- und abschalten. Durch Verwendung entsprechender Mauslinien kann man so die Expression eines Transgens steuern und z. B. embryonale Letalität vermeiden. Wird eine entsprechende transgene Mauslinie in den korrespondierenden Knockout-Hintergrund gekreuzt, so kann das an- oder abgeschaltete Gen ohne endogen kontrollierte Expression des relevanten Wildtyp-Gens studiert werden.
8.3
8
Gene Targeting
Unter Gene Targeting versteht man das gezielte Ausschalten oder Verändern von Genen. Die Technik basiert auf der homologen Rekombination eines targeting-Vektors an einem definierten Genlocus in embryonalen Stamm (ES)-Zellen. Die Voraussetzungen für diese Technik wurden durch die Entdeckung der homologen Rekombination in Säugerzellen und die Isolation und Kultivierung von ES-Zellen der Maus, sowie die Entwicklung von chimären Mäusen aus diesen Stammzellen geschaffen. Die ersten Erfolge gelangen in den frühen 80er Jahren und eine Vielzahl von Forschern und Laboren trugen zur Entwicklung der Technik bei, schließlich wurden 2007 drei der führenden Köpfe auf dem Gebiet (Capecchi, Smithies und Evans) mit dem Nobelpreis für Medizin ausgezeichnet. Die Methode besteht aus drei Schritten, Konstruktion eines Targeting-Vektors, Kultivierung und Transfektion von ES-Zellen und schließlich deren Injektion in eine Blastocyste. Je nach Umfeld wird der Experimentator unterschiedliche Schritte selbst oder in Zusammenarbeit durchführen oder komplett abgeben. Zunächst stellen wir den gesamten Ablauf dar und gehen dann auf mögliche Abkürzungen ein, die sich je nach experimentellem Ansatz bieten. Widmen wir uns zuerst den ES-Zellen. Es gibt drei Möglichkeiten, wie Sie an ES-Zellen herankommen. Der erste und wohl häufigste Weg ist, dass Sie eine bereits etablierte und charakterisierte ESZelllinie von einem anderen Experimentator bzw. Labor erhalten. Der zweite Weg führt über kommerzielle Quellen. Und schließlich können Sie ESZellen selbst aus der inneren Zellmasse von Blastocysten isolieren, etablieren und charakterisieren. Jedem Experimentator ist sofort klar, der zuletzt genannte Weg ist der schwerste und aufwendigste. Wir raten auch davon ab, es sei denn, Sie möchten eine entsprechende Serviceeinrichtung etablieren. Die am häufigsten genutzten ES-Zellen stammen vom Mausstamm 129/Sv ab und die meisten Mauslinien wurden mit diesen Zellen generiert. In der neurowissenschaftlichen Forschung werden aber in der Regel C57Bl/6-Mäuse verwendet. ESZellen aus C57Bl/6-Mäusen galten jedoch lange
164
8
Kapitel 8 • Transgene Tiermodelle
Zeit als ungeeignet. Inzwischen gibt es auch etablierte C57Bl/6 ES-Zellen, die aus dem Unterstamm C57Bl/6N kommen und z. B. bei Large-Scale-Knockout-Ansätzen verwendet werden. Egal, wo die ES-Zellen herkommen und welchen genetischen Hintergrund sie haben, bei der Kultivierung ist einiges zu beachten. Um das pluripotente Potenzial der ES-Zellen zu erhalten, müssen diese unter optimalen Bedingungen kultiviert werden. Schafft man dies nicht, so drohen die ES-Zellen zu differenzieren. Dann geht die Wahrscheinlichkeit einer späteren Keimbahntransmission gegen Null. Optimale Bedingungen bedeuten eine ausreichende Zufuhr an Nährstoffen und Wachstumsfaktoren, eine optimale Zelldichte und selbstverständlich optimale Temperatur und CO2-Gehalt. Da die meisten etablierten ES-Zelllinien auf Wachstumsfaktoren angewiesen sind, die durch embryonale Mausfibroblasten (MEF) produziert werden, müssen sie auf einem entsprechenden Zellrasen co-kultiviert werden (. Abb. 8.3). Zur Gewinnung der MEF-Zellen wird Gewebe eines Mausembryos (E14-16) präpariert, dissoziiert und kultiviert (ähnlich wie andere primär kultivierte Zellen, siehe 7 Kap. 4, Zelluläre Neurobiologie). Aufgrund der späteren Selektion nach der homologen Rekombination sollten die MEF-Zellen nicht aus einer Wildtyp-Maus stammen, sondern aus einer Maus, deren Zellen resistent für Neomycin sind, also z. B. aus einer bereits vorhandenen Knockout-Maus. Meist werden die MEF-Zellen ein bis dreimal passagiert und dann portioniert eingefroren. Kultiviert werden MEF-Zellen in DMEM mit 10 % Serum, häufig wird 0,1 mM beta-Mercaptoethanol als Antioxidans hinzugegeben, das die Zellen vor Schädigung durch freie Radikale schützen soll. Zur Co-Kultivierung mit ES-Zellen werden die MEF-Zellen zuvor bei einer hohen Zelldichte mit einem Mitosehemmer (z. B. Mitomycin) behandelt, damit sie die ES-Zellen nicht überwuchern. Nach gründlichem Auswaschen des Mitoseinhibitors werden die ES-Zellen hinzugegeben. Das Kulturmedium für die ES-Zellkultur enthält leukemia inhibitory factor (LIF) und zusätzlich als Antioxidans beta-Mercaptoethanol. LIF ist ein Cytokin, welches die spontane Differenzierung von ES-Zellen inhibiert. Die ES-Zellen wachsen in Ko-
Aussähen von Feederzellen
Feederzellen bis zu hoher Dichte wachsen lassen
Mitomycinbehandlung
Kultivierung von ES-Zellen
. Abb. 8.3 Kultivierung von ES-Zellen auf einer FeederZellschicht aus embryonalen Mausfibroblasten (MEF-Zellen)
165
8.3 • Gene Targeting
Replacement-vektor
TK
homologe Rekombination TK
Neo
Neo
nicht-homologe Rekombination TK
Neo
gezielte Insertion
zufällige Insertion
Neo
TK
Mutation des relevanten Gens transfizierte Zellen sind resistent gegen Neomycin und Gancyclovir
relevantes Gen
8
Neo
keine Mutation des relevanten Gens transfizierte Zellen sind resistent gegen Neomycin, aber sensitiv für Gancyclovir
anderes Gen
. Abb. 8.4 Homologe und nicht-homolge Rekombination eines Gen-Targeting-Vektors. Ein Targeting-Vektor (hier Replacement-Vektor) wird in ES-Zellen transfiziert. Zwei Rekombinationstypen sind möglich. Die gewünschte homologe Rekombination, die zur Mutation des relevanten Gens führt. Und: Eine nicht-homologe Rekombination erfolgt zufällig an einer beliebigen Stelle des Genoms und ist nicht erwünscht
lonien, die, solange die Zellen undifferenziert sind, eine glatte Oberfläche aufweisen. ES-Zellen werden meist durch Elektroporation mit dem Targeting-Vektor transfiziert. Der Targeting-Vektor muss mehrere Anforderungen erfüllen. Er muss zum einen Sequenzen enthalten, die zu dem relevanten Genabschnitt homolog sind. Diese genomischen Sequenzen sollten aus der gleichen Mauslinie wie die ES-Zellen stammen (meist 129/ Sv). Dann sollte er einen positiven und negativen Selektionsmarker enthalten. Es lohnt sich, schon beim Planen des Vektors eine Strategie zur Genotypisierung zu entwickeln. Zunächst gehen wir auf einen replacementVektor ein. Ziel ist beim Verwenden eines solchen Vektors, ein Gen auszuschalten, indem Teile des Gens durch ein Resistenzgen ersetzt werden (. Abb. 8.4).
Grundsätzlich sollten Sie die Struktur des Gens, welches Sie ausschalten wollen, kennen. Glücklicherweise ist das Genom der Maus bereits sequenziert, deshalb reicht eine Datenbankrecherche. Nutzen können Sie dafür z. B. http://www.ensembl.org/ index.html, http://www.ncbi.nlm.nih.gov/projects/ genome/guide/mouse/ oder http://genome.ucsc. edu/. Dann benötigen Sie ein genomisches DNAFragment, das den Genbereich abdeckt. Noch einmal der Hinweis: Achten Sie darauf, dass diese DNA aus dem gleichen Mausstamm stammt wie die ES-Zellen, meist ist dies 129/Sv. Auch wenn Mäuse genetisch sehr ähnlich sind, so kann besonders im nicht-codierenden Bereich die Sequenz sehr stark abweichen und durch das Verwenden von genomischer DNA einer anderen Linie oder Stammes die Rekombinationseffizienz stark herabgesetzt werden. Der zur homologen Rekombination benötigte homologe Abschnitt ist mindestens 5–10 kb
166
Kapitel 8 • Transgene Tiermodelle
. Abb. 8.5 Positive und negative Selektion von rekombinanten ES-Zellen
Replacement-Vektor TK
Neo
Selektion: keine Rekombination keine homologe Rekombination homologe Rekombination Neomycin (positive Selektion)
8
Gancyclovir (negative Selektion)
ES-Zellen mit gezielter Deletion im relevanten Gen
genomische DNA. Je länger desto besser. Ein typischer Replacement-Vektor hat einen kurzen homologen Arm von 1–2 kb Länge (mindestens 0,5 kb) und einen separaten langen homologen Arm von 4–6 kb. Letzterer kann auch länger sein, allerdings scheinen Längen von 8–110 kb die Rekombinationseffizienz nicht zu erhöhen. Getrennt werden beide Arme von einem Gen, welches eine positive Selektion ermöglicht. Meist wird hierfür Neomycin verwendet, andere Zellgifte wie Hygromycin oder Puromycin können ebenfalls verwendet werden. Das entsprechende Resistenzgen wird mit einem eigenen Promotor und Polyadenylierungssignal versehen. Häufig wird die Sequenz des Resistenzgens in umgekehrter Richtung zur Transkription des zu verändernden Gens orientiert. Dies soll verhindern, dass ungewollte Transkripte entstehen. Ein Gen zur negativen Selektion wird in der Regel vor den kurzen Arm gesetzt. Hierfür eignet sich das Herpes-Simplex-Virus Thymidin-Kinase (HSVTK, oder TK)-Gen. Bei einer zufälligen Integration wird das TK-Gen mit großer Wahrscheinlichkeit ins Genom aufgenommen werden. Diese Zellen sind dann sensitiv für das Virostatikum Gancyc-
lovir oder FIAU und können dadurch abgetötet werden. Eine etwas modernere Strategie nutzt das Gen des Diphterietoxins (DT). Wird dieses durch zufällige Rekombination integriert, führt es zum Absterben der Zellen, ohne dass irgendwelche Zusätze zum Medium gegeben werden müssen. Der grundsätzliche Aufbau eines Replacement Vektors ist in . Abb. 8.4 dargestellt. Der Vektor wird durch Elektorporation in ES-Zellen transfiziert. Zwei Rekombinationstypen sind möglich. Zum einen eine homologe Rekombination, die zur gezielten Insertion und Veränderung des relevanten Gens führt. Zum anderen kann eine nichthomologe Rekombination auftreten. Diese führt zu einer zufälligen Insertion und der Veränderung irgendeiner Stelle im Genom. Dies Ereignis ist unerwünscht. Selbstverständlich liegen nach der Transfektion des Targeting-Vektors neben den ES-Zellen, in denen eine homologe oder eine nicht-homologe Rekombination erfolgt ist, auch ES-Zellen vor, in denen gar keine Rekombination stattgefunden hat. Letztere werden durch die Selektion mit einem Zellgift, wie Neomycin abgetötet (. Abb. 8.5). Neo-
A
8
167
8.3 • Gene Targeting
Targeting-Vektor
B
E
E TK
+/+
+/-
-/-
Neo WT
Wildtyp-Allel KO E
E
E mutiertes Allel
E
E
Neo Probe
. Abb. 8.6 Genotypisierungsstartegie. (A) Strategie: Restriktionsschnittstellen (E) und Probe für Southern Blot (Probe) sind eingezeichnet. (B) Im Southern Blot können aufgrund der unterschiedlichen Banden Genotypen zugeordnet werden. Genotypen: +/+ = Wildtyp, +/− = Heterozygot, −/− Knockout. Beachten Sie bitte, dass der Knockout-Genotyp erst durch das Verpaaren zweier heterozygoter Tiere entsteht. Beim Screenen von ES-Zellen findet man nur +/+ und +/−
mycin wird zehn Tage lang dem täglich zu wechselnden Medium zugegeben. Es überleben dann nur die ES-Zellen, in denen eine Rekombination erfolgt ist. Dann erfolgt durch eine negative Selektion das Abtöten der ES-Zellen, in denen eine nicht-homologe Rekombination stattgefunden hat. Wurde das TK-Gen für die negative Selektion gewählt, so wird Gancyclovir zugegeben. Wurde das DT-Gen gewählt, so sterben die Zellen von selbst. Nach der Selektion werden die ES-Zellen auf die erwartete homologe Rekombination überprüft. Dafür werden die ES-Zellkolonien nach der Selektion von den Zellkulturplatten in einzelne kleinere Kulturschalen überführt und vermehrt. Ein Teil jeder Kultur wird eingefroren, der andere Teil wird zur Analyse verwendet. Diese sollte durch Southern Blots erfolgen, einige Experimentatoren wählen auch PCR. Da der Rekombinationsort bekannt ist, sollte eine Probe für den Southern Blot außerhalb des Vektors liegen, am besten 5′vor dem kurzen Arm. Weiterhin sollte ein Restriktionsverdau gewählt werden, durch den das Wildtyp-Gen vom rekombinierten Gen eindeutig aufgrund der zu erwartenden Bande im Southern Blot zu unterscheiden ist (. Abb. 8.6). ES-Zellen, bei denen eine homologe Rekombination nachgewiesen wurde und deren Morphologie erwarten lässt, dass diese noch nicht differenziert sind (runde, klar abgegrenzte Kolonien), werden dann mittels einer Mikroinjektionsnadel in
Blastocysten injiziert (. Abb. 8.7). Die Blastocysten werden zuvor aus verpaarten Weibchen 3–4 Tage post koitum isoliert. Die ES-Zellen und die Blastocysten sollten aus unterschiedlichen genetischen Hintergründen kommen. Diese sollten sich einerseits in der Fellfarbe unterscheiden und andererseits sollten diese so weit zueinander passen, dass mit hoher Wahrscheinlichkeit aus den ES-Zellen ein Teil der Keimzellen der späteren Maus hervorgeht. Gerne werden 129/Sv ES-Zellen mit C57Bl/6 Blastocysten kombiniert. Die Blastocysten werden anschließend in ein pseudoschwangeres Weibchen implantiert (. Abb. 8.8). Die Effizienz der Implantation hängt stark von der Qualität der ES-Zellen ab. Die geborenen Nachkommen entsprechen dem Wildtyp der Blastocysten oder sind chimäre Mäuse. Die chimären Mäuse werden weiter verpaart. Da die meisten ES-Zellen genotypisch männlich sind, sind die meisten chimären Nachkommen ebenfalls männlich. Es lohnt sich, alle chimären Tiere, die 50 % und mehr die Fellfarbe aufweisen, die dem genetischen Hintergrund der ES-Zellen entspricht, weiter zu verpaaren. Die Nachkommen werden dann auf ihren Genotyp überprüft, d. h. es wird genomische DNA aus einer Schwanzbiopsie isoliert und diese dann in einer PCR oder Southern-Blot-Analyse auf die homologe Rekombination überprüft. Für die genotypische Veränderung positiv getestete Mäuse werden anschließend in den gewünschten Maus-
168
Kapitel 8 • Transgene Tiermodelle
A
Pipette zum Ansaugen
ES-Zellen
Mikroinjektionsnadel
Blastocycsten
Fibroblast
8
B
. Abb. 8.7 Injektion von ES-Zellen in Blastocysten. (A) Durch eine Pipette werden die Blastocysten angesaugt und gehalten. Die ES-Zellenwerden dann in eine Mikroinjektionsnadel gesaugt und anschließend injiziert. (B) Verlauf einer Injektion. (Mit freundlicher Genehmigung von I. Hermans-Borgmeyer, Hamburg)
stamm zurückgekreuzt. Durch die Verpaarung von heterozygoten Tieren erhält man homozygote Tiere (. Abb. 8.6), die in Experimenten auf einen Phänotyp untersucht werden können.
8.3.1
Knockout/Knockin
Durch die Verwendung eines Replacement-Vektors wird die Expression eines Gens unterbunden. Man spricht vom Gen-Knockout. Knockout-Mäuse sind wertvolle Werkzeuge, um die Funktion eines Gens nachzuweisen. Unabhängig vom Experiment, das zur Untersuchung des veränderten Phänotyps gewählt wird, sollten Knockout-Tiere immer mit
Wildtyp-Geschwistertieren verglichen werden. Es gibt unterschiedliche Szenarien bei der Analyse des Phänotyps. Es wird auf Anhieb kein Phänotyp gefunden. Das kann bedeuten, dass das entscheidende Experiment zum Aufdecken des Phänotyps noch nicht durchgeführt wurde oder dass die fehlende Expression des relevanten Gens durch die erhöhte Expression eines verwandten Gens kompensiert wird. Es gibt aber auch die Möglichkeit, dass der Knockout letal ist und homozygote Nachkommen werden gar nicht geboren oder sterben frühzeitig nach der Geburt. Es kann auch passieren, dass die Knockout-Mäuse nicht fertil sind. Manchmal hat der Experimentator auch viel Glück und findet einen spannenden Phänotyp.
169
8.3 • Gene Targeting
Blastocyste
Injektion von ES-Zellen
8
Implantation in pseudoschwangeres Weibchen
Rückkreuzung
Geburt chimärer Nachkommen
transgene Maus . Abb. 8.8 Herstellung einer transgenen Maus aus ES-Zellen. ES-Zellen einer Maus mit dunkler Fellfarbe werden in eine Blastocyste einer Maus mit weißer Fellfarbe injiziert. Diese wird einem pseudoschwangeren Weibchen implantiert. Die Nachkommen sind chimäre Mäuse, deren Gewebezellen teilweise der Blastocyste teilweise den ES-Zellen entstammen. Ob aus den ES-Zellen Keimzellen hervorgegangen sind, lässt sich durch eine Kreuzung nachweisen
cDNA
pA
Neo
cDNA
pA
Neo
TK
. Abb. 8.9 Knockin einer cDNA durch homologe Rekombination. pA = Polyadenylierungssequenz
Vom Knockout wird der Knockin unterschieden. Hier ist das Ziel nicht, die Expression eines Gens zu unterbinden, sondern das relevante Gen bzw. Protein zu verändern. Bei einem Knockin ist die Integration spezifisch über homologe Rekombination erfolgt und die Expression des eingeführten Gens wird vom endogenen Promotor des Genlocus reguliert. Dies ist der entscheidende Unterschied zu der weiter oben vorgestellten Technik zur Erzeugung von transgenen Mäusen. Bei diesen integriert der Vektor immer zufällig an einem Genlocus. Die Vorgehensweise bei einem Knockin ist also anders und erfordert auch mehr Zeit. Die Strategie ist die gleiche wie bei einer Knockout-Maus, man baut einen Vektor, der für das relevante Gen einen homologen Bereich besitzt und dieses auf bestimmte Art und Weise verändert (. Abb. 8.9). Dann bringt man diesen in ES-Zellen. Durch homologe Rekombination erfolgt eine spezifische
Integration des Vektors ins Genom. Darauf folgt die Selektion der ES-Zellen, der Transfer in Blastocysten und die Analyse chimärer Tiere. Die Gründe für die Erzeugung einer Knockin-Maus können unterschiedlicher Natur sein, z. B. soll ein getaggtes Protein exprimiert werden oder eine Mutation, wie sie in einer spezifischen Erkrankung gefunden wurde, soll eingeführt werden. Mit einem Knockin können aber auch regulatorische Elemente der DNA analysiert werden. Alternativ zur Knockin-Strategie kann man auch eine Knockout-Linie mit einer Linie, die für das deletierte Gen ein bestimmtes Transgen trägt, verpaaren. Dann wird nur das Transgen in Abwesenheit vom Wildtyp-Gen exprimiert. Der Nachteil ist, dass der Integrationsort des Transgens ein anderer als der des Wildtyp-Gens ist.
8.3.2
Konditionale Mutationen
Durch die Einführung der Cre/loxP-Methode haben sich die Möglichkeiten der genetischen Manipulation von Mäusen noch erweitert. Die Cre-Rekombinase aus dem Bakteriophagen P1 schneidet DNA, die sich zwischen zwei Erkennungssequenzen, so genannten loxP-Sites, befindet, heraus. LoxP-Sites sind 34 bp lange Nucleotidsequenzen mit einer 13 bp palindromischen Wiederholung und einer 8 bp zentralen Sequenz (. Abb. 8.10). Die Asymmetrie der zentralen Sequenz bedingt die Orientierung der loxP-Site. Obwohl die Cre-Rekombinase relativ empfindlich für Veränderungen
170
Kapitel 8 • Transgene Tiermodelle
. Abb. 8.10 Die loxP-Site. Schematisch wird eine loxP-Site meist durch einen Pfeilkopf dargestellt. Die spezifische Sequenz ist 34 bp lang
LoxP
5‘ - ATAAC T TCGTATAATGTATGC TATACGAAGT TAT 3‘ - TAT TGAAGCATAT TACATACGATATGC T TCAATA
-3‘ -5‘
= invertierte Wiederholungen (palindromic repeats)
ATGTATGC = asymmetrische zentrale Sequenz (legt Orientierung fest)
8
in der loxP-Sequenz ist, so gibt es doch einige Variationen, z. B. loxP66 besitzt eine Veränderung in der palindromischen Sequenz. Die DNA, die von zwei loxP-Sites umgeben ist, wird als floxed oder gefloxt bezeichnet. Befinden sich zwei loxP-Sites in gleicher Orientierung, so wird die dazwischen liegende DNA durch die Cre-Rekombinase aus dem Strang herausgeschnitten und dieser wieder zusammengefügt. Übrig bleibt nur eine loxP-Site (. Abb. 8.11). Besitzen die loxP-Sites eine entgegengesetzte Orientierung, so wird die zwischen den loxP-Sites gelegene DNA umgedreht. Ähnlich funktioniert eine weitere, ebenfalls immer populärer werdende Rekombinase, die FlpRekombinase (Flipase) aus der Bäckerhefe Saccharomyces cerevisiae. Die 34 bp lange Erkennungssequenz wird als FRT bezeichnet und hat die gleiche Struktur wie eine loxP-Site, aber eine andere Sequenz. Durch die Einführung von loxP-Sites lassen sich mehrere Probleme bei der bisher betrachte-
ten Deletion eines Gens umgehen. Die genannte Methode zur homologen Rekombination mittels eines Replacement-Vektors bedingt, dass eine Selektionskassette dauerhaft im Zielgen integriert ist (. Abb. 8.4). Auch wenn dies relativ unwahrscheinlich ist, so könnte das eingeführte Selektionsgen einen Phänotyp bedingen. Um dies zu umgehen, wurden Vektoren kreiert, bei denen die NeomycinKassette von loxP-Sites flankiert ist. Werden die nach der Selektion positiven ES-Zellen transient mit der Cre-Rekombinase transfiziert, so wird das Selektionsgen herausgeschnitten (. Abb. 8.12). Das Rekombinasesystem kann aber auch zum spezifischen zeitlichen und räumlichen Ausschalten von Genen genutzt werden, nämlich zur Herstellung von konditionalen Knockout-Mäusen. In . Abb. 8.13 ist die Strategie, die bei einem konditionellen Knockout angewendet wird, dargestellt. Sowohl die Neomycin-Kassette als auch ein Exon sind gefloxt, zusätzlich enthält der Vektor einen kurzen und einen langen homologen Arm und eine Gen-
invertierte loxP-Seqeunzen: loxP
loxP
loxP
loxP
Cre-vermittelte Rekombination loxP
loxP
loxP
. Abb. 8.11 Die Rekombination mittels der Cre-Rekombinase hängt von der Orientierung der loxP-Sites ab. Haben die loxPSites die gleiche Orientierung, so wird die dazwischen liegende DNA herausgeschnitten und wieder zusammengefügt. Sind die loxP-Sites unterschiedlich orientiert, so wird die dazwischen liegende DNA umgedreht
TK
Neo
Neo
Cre
. Abb. 8.12 Replacement-Vektor mit loxP-Sites. Ist die Neomycin-Kassette im Replacement-Vektor gefloxt, so kann diese durch die Cre-Rekombinase entfernt werden
kassette zur negativen Selektion (in der Abbildung weggelassen). Nach der homologen Rekombination werden ES-Zellen transient mit Cre-Rekombinase transfiziert. Drei unterschiedliche Rekombinationsereignisse sind möglich. Nur das gefloxte Exon
wird entfernt, nur die Neomycin-Kassette wird entfernt oder beide. Alle drei müssen durch SouthernBlot-Analysen unterschieden werden. Sind sowohl Neomycin-Kassette als auch das gefloxte Exon entfernt, so gehen daraus Knockout-Mäuse hervor. Ist nur die Neomycin-Kassette entfernt, so gehen mit großer Wahrscheinlichkeit Wildtyp-Mäuse daraus hervor, bei denen ein Exon gefloxt ist. Theoretisch können die verbleibenden loxP-Sites einen Einfluss auf Transkription oder Splicing haben und dies sollte überprüft werden, aber in sehr vielen Fällen entspricht dies der Wildtyp-Situation. Mäuse mit einem gefloxten Exon sind die Ausgangssituation für konditionelle Knockouts. Es wurden und werden diverse transgene Mauslinien erzeugt, die die Cre-Rekombinase unter einem spezifischen Promotor exprimieren. Diese Promotoren sorgen beispielsweise für die spezifische postnatale Expression von Cre im Vorderhirn. Verpaart man diese Mäuse nun mit konditionellen Knockout-Mäusen, also Tieren, bei denen ein Exon gefloxt ist, so wird dieses Exon entsprechend des verwendeten Cre-Promotors deletiert (. Abb. 8.14). In dem vorigen Beispiel würde dies bedeuten, dass das Exon und somit wahrscheinlich auch das Gen postnatal im Vorderhirn deletiert wird. Dies hat mehrere Vorteile. Zunächst gibt es
WT Gen
Exon 1
Exon 2
gefloxtes TargetingKonstrukt
Exon 1
Exon 2
Exon 3
Neo
Exon 3
homologe Rekombination/ transiente Cre-Rekombinase-Expression
In ES-Zellen:
Exon 1
8
171
8.3 • Gene Targeting
Neo
Exon 3
Exon 1
Exon 1
Exon 2
Exon 3
Exon 3
. Abb. 8.13 Targeting-Strategie für einen konditionellen Knockout. Im Targeting-Vektor ist sowohl ein Exon als auch die Neomycin-Kassette gefloxt. Nach der homologen Rekombination in ES-Zellen werden diese transient mit Cre transfiziert. Die drei gezeigten Ereignisse sind dann möglich
172
Kapitel 8 • Transgene Tiermodelle
. Abb. 8.14 Die Verpaarung einer konditionellen KnockoutMaus mit einer Cre-Maus. In der Cre-Maus wird die Cre-Rekombinase unter einem spezifischen Promotor exprimiert
konditionelle Knockout-Maus
Exon 1
Exon 3
Exon 2
Exon 1
8
viele Knockouts, die letal sind. Es gibt Schätzungen, dass etwa 15 % aller Knockouts betroffen sind. In solch einem Fall hilft das Herstellen einer konditionellen Knockout-Maus, bei der das relevante Gen erst postnatal deletiert wird. Weiterhin führt die regional begrenzte Deletion häufig zu einem ausgeprägteren Phänotyp. Insbesondere ist im Idealfall nur ein Organ oder Gewebe betroffen, z. B. das Gehirn, und alle Dysfunktionen, z. B. motorische Defekte, müssen auf Ursachen im betroffenen Gewebe zurückzuführen sein. Es gibt unterschiedliche transgene Mäuse, welche die Cre-Rekombinase (oder auch Flp-Rekombinase) unter spezifischen Promotoren exprimieren. Diese werden als deleter-Linien bezeichnet. Dabei kann die Expression stark begrenzt oder ubiquitär sein. Wird Cre unter einem generellen, ubiquitären Promotor exprimiert, so wird Cre zu allen Entwicklungszeitpunkten in allen Geweben gebildet. Verpaart man eine konditionelle Knockout-Maus mit solch einer Maus, resultiert dies im kompletten Knockout. Die spezifischen Cre-Mäuse muss man sich entweder selbst herstellen oder, und das ist zu empfehlen, von anderen Experimentatoren besorgen. Eine Reihe von interessanten Cre-Linien werden auch im Rahmen des Gene Expression Nervous System Projects (GENSAT) generiert (siehe Links am Ende des Kapitels). Es gibt auch eine Datenbank für Cre-Mäuse (Nagy Lab, siehe Links). Die transiente Transfektion mit Cre und anschließende Analyse der ES-Zellen ist nicht nur aufwendig. Häufig leiden die ES-Zellen unter der zusätzlichen Transfektion und zeigen anschließend eine geringe Eiffzienz bei der Keimbahntransmission. Kombiniert man die Cre-Rekombinase mit der Flp-Rekombinase wird das Leben leichter. Man baut sich einen Targeting-Vektor, bei dem die Neomycin-Kassette von FRT-Sites flankiert ist und zusätzlich das zu deletierende Exon sowie die
Cre-Maus
X
Promotor
Cre
Exon 3
Neomycin-Kassette von loxP-Sites umgeben sind (. Abb. 8.15). Nach einer homologen Rekombination und der Überprüfung der Rekombination können positive ES-Zellen direkt zur Erzeugung von konditionellen Knockout-Mäusen verwendet werden. Diese konditionellen Knockout-Mäuse werden dann mit einer transgenen Maus, die FlpRekombinase ubiquitär während aller Entwicklungsstadien exprimiert, verpaart. Dadurch wird die Neomycin-Kassette ausgeschnitten und man erhält eine konditionelle Mauslinie, der die Neokassette fehlt und ein Exon gefloxt ist. Anschließend kann durch die Verpaarung der Nachkommen mit transgenen Cre-Mäusen das Gen spezifisch deletiert werden. Weil eine transiente Transfektion der ES-Zellen mit Cre bei diesem Vorgehen nicht mehr nötig ist, sind die ES-Zellen bei der Blastocysteninjektion in der Regel wesentlich vitaler. Somit ist diese Methode deutlich effizienter. Technisch ist das Vorgehen ebenfalls einfacher, weil das Ausschneiden der Neokassette nicht aufwendig in Zellkultur induziert wird, sondern durch einfaches Verpaaren von Mäusen. Das Nutzen von zwei verschiedenen Rekombinasen hat den Vorteil, dass die gewünschten Rekombinationsereignisse besser zu steuern sind. Inzwischen gilt der kombinierte Einsatz von Flp und Cre als State of the Art. Es kann passieren, dass Ihnen reine Cre-Konstrukte, wie in . Abb. 8.13 dargestellt, angeboten werden. Auf diese sollten Sie aber verzichten, da dieses Verfahren langsam als veraltet gilt.
8.3.3
Large-Scale-Ansätze
Nach der erfolgreichen Sequenzierung verschiedenster Genome stellte die weltweite Forschergemeinschaft fest, dass die Sequenz der Gene zwar
8
173
8.3 • Gene Targeting
WT Gen
Exon 1
Exon 2
gefloxtes TargetingKonstrukt
Exon 1
Exon 2
Exon 3
Neo
Exon 3
DT
homologe Rekombination/ konditionelle Knockout-Maus
Verpaarung mit Flp-Maus Flp-Rekombinase
Exon 1
Exon 2
Exon 3
Verpaarung mit Cre-Maus Frt-Site
Cre-Rekombinase
loxP-Site Exon 1
Exon 3
. Abb. 8.15 Targeting-Vektor mit loxP- und FRT-Sites. Nach der homologen Rekombination werden Transgene Mäuse generiert. Dann mit einer Flp-Maus verpaart, die Flp-Rekombinase ubiquitär exprimiert. Dadurch wird die Neokassette herausgeschnitten. Das verbleibende gefloxte Exon wird konditionell durch Verpaarung mit einer Cre-Maus deletiert
einen Wissenszuwachs bedeutet, aber keinesfalls die Funktion der einzelnen Gene erklärt. Eine Mammutaufgabe in der postgenomischen Ära ist nun die Entschlüsselung der Funktion der Gene. Der Knockout eines Gens ist inzwischen eine Standardmethode zur Aufklärung der Funktion. Deshalb nahm man sich als nächstes Großprojekt die Herstellung von Knockout-Mäusen eines jeden Gens vor. Dies klingt nach viel Arbeit und ist auch nur durch ein Zusammenwirken der Weltgemeinschaft zu bewältigen und vor allem zu finanzieren. Zunächst wurden Möglichkeiten erdacht, um mit einer Hochdurchsatzmethode möglichst schnell viele Gene abzudecken. Die zuerst gewählte Methode waren gene traps. Das ist zwar nicht so spezifisch wie Gene-Targeting, aber durch zufällig eingeführte Mutationen, die anschließend einem Gen zugeordnet werden können, werden in kurzer Zeit eine große Anzahl von Genen deletiert. Eigentlich wurde die Gene-Trap-Methode entwi-
ckelt, um die Expressionsmuster von Genen nachzuweisen. Ein Promotorloses-Reportergen wird in einen Genlocus integriert und in Abhängigkeit vom Promotor des Genlocus exprimiert. Die Insertion eines Trapping-Vektors kann retroviral vermittelt werden. Die Vektoren können unterschiedlich aufgebaut sein, enthalten aber meistens eine Genkassette mit einer splice acceptor site, gefolgt von einem Selektionsmarker, einem Reporter und einem Polyadenylierungssignal (. Abb. 8.16). Als Selektionsmarker wird häufig beta-geo gewählt, eine Fusion aus dem beta-Galactosidase-Gen (LacZ) und dem Neomycin-Resistenz-Gen. Der Trap-Vektor inseriert zufällig ins Mausgenom. Erfolgt die Insertion in ein Intron, so sorgt die splice acceptor site dafür, dass ein Fusionstranskript aus den davor liegenden Exons und dem Reportergen entsteht. Dessen Sequenz ist durch ein RT-PCR nachzuweisen. Bei den Large-Scale-Ansätzen wird entsprechend verfahren. ES-Zellen werden retroviral transfiziert,
174
Kapitel 8 • Transgene Tiermodelle
. Abb. 8.16 Beispiel für einen Trap-Vektor. Der Trap-Vektor besteht aus einer Splice Acceptor Site (SA), einer Fusion aus betagalactosidase- und Neomycin-Resistenz-Gen (beta geo) und einem Polyadenylierungssignal (pA)
WT Gen
Exon 1
Trap-Vektor
TrapInsertion
Exon 1
SA beta geo pA
Exon 2
Exon 3
Exon 1 beta geo-pA
positive Zellen überstehen eine Selektion und färben sich durch die Expression des Reporters blau. Schließlich wird über RT-PCR das betroffene Gen ermittelt. Mit etwas Glück ist das Gen deletiert. Die ES-Zellen werden dann der Gemeinschaft der Experimentatoren gegen geringes Entgelt zur Verfügung gestellt. Die Gene-Trap-Methode hat allerdings ähnliche Probleme wie ein konstitutiver (genereller) Knockout, und in den meisten Fällen bietet ein konditioneller Knockout mehr Möglichkeiten, die Funktion eines Gens zu untersuchen. Weiterhin ist die Gene-Trap-Methode vom Ansatz her zufällig, es werden bei jedem Experiment erneut zufällig Gene deletiert. Nun scheinen einige Gene für eine zufällige Insertion des jeweiligen Trapping-Vektors
WT-Gen
Exon 3
SA beta geo pA
Translation des getrappten Locus
8
Exon 2
Exon 1
leichter zugänglich zu sein als andere. Die Folge ist, dass zwar 50–70 % aller Gene der Maus durch den Gene-Trap-Ansatz erfasst wurden, allerdings wurden viele Gene mehr als nur einmal getroffen. Weiterhin waren einige nicht-codierende Regionen Insertionsort und andere Gene wurden gar nicht erreicht oder zeigten eine verbleibende Restexpression. Deshalb wurden spezifischere Strategien erdacht, um Gene-Traps mit konditionellen Knockouts zu kombinieren. Eine dieser Strategien wird konditionelles Target-Trapping genannt. Der Target-Vektor ähnelt dem für die Herstellung eines konditionellen Knockout, besitzt aber auch Elemente eines TrapVektors. Es wird eine beta-geo-Kassette mit Splice Acceptor Site und Polyadenylierungssignal ver-
Exon 3
Exon 2
Trap-Vektor SA beta geo pA
Exon 2
DT
Flp-Rekombinase Exon 1 Frt-Site loxP-Site
Exon 2
Exon 3
Cre-Rekombinase Exon 1
Exon 3
. Abb. 8.17 Konditionelles Target-Trapping. Homolog rekombinierte Targeting-Vektoren können durch die beta-galactosidase-Expression detektiert werden. Durch das Einsetzen von Rekombinasen können unterschiedliche Elemente deletiert werden
175
8.3 • Gene Targeting
8
. Tab. 8.1 Internationale Knockout-Ressourcen Knockout-Konsortien
Zusammensetzung und Websites
verfügbare Kockouts
IGTC The international gene trap consortium (http://www.genetrap.org)
BayGenomics (http://baygenomics.ucsf.edu) SIGTR (http://www.sanger.ac.uk/ PostGenomics/genetrap) GGTC (http://tikus.gsf.de) CMHD (http://www.cmhd.ca.genetrap) TIGM (http://tigm.org)
14 000 Trapped ES-Zelllinien 11 800 Trapped ES-Zelllinien >40 000 Trapped ES-Zelllinien 1 000 konditionelle Traps 11 463 Trapped ES-Zelllinien 350 00 Trapped ES Zelllinien, die 10 000 Gene repräsentieren
IKMC (NIH KOMP, UNCOMM, NorCOMM)
KOMP (http://knockoutmouse.org)
3 500 Gene konventionell getargeted 5 000 Gene konditionell getargeted 250 Knockout-Mäuse von Deltagen und Lexicon Ziel 2 000 Gene zu targeten 1 413 getargetete ES-Zelllinien 2 572 Vektoren für konditionelles Targeting 4 565 Trapped ES-Zelllinien
NorCOMM (http://norcomm.org) UNCOMM (http://eucomm.org)
Weitere Knockout Maus Ressourcen
Lexicon (http://lexgen.com) PBmice (http://idmshanghai.cn/PBmice) MICER (http://www.sanger.ac.uk/ PostGenomics/mousegenomics) CreXMice (http://nagy.mshri.on.ca/cre)
270 00 Trapped ES Zelllinien, die ca. 9 000 Gene repräsentieren Ziel 10 000 mutierte Mäuse, die 70 % des Mausgenoms abdecken 93 960 Targeting-Vektoren 500 Cre-Mauslinien
Verändert nach Gaun et al. 2010, Stand März 2009
wendet, diese ist von FRT-Sites flankiert und gefloxt und wird von einem genspezifischen Abschnitt, der einem Exon entspricht, gefolgt (. Abb. 8.17). Dieser ist ebenfalls gefloxt. Eine homologe Rekombination lässt sich wiederum durch beta-Galactosidase-Färbung nachweisen. Auch kann durch Verpaarung der aus solchen ES-Zellen hervorgegangenen Mäusen mit Flp-Mäusen eine konditionelle KnockoutMaus hergestellt werden. Verschiedene Konsortien mutieren so ES-Zellen und stellen diese gegen geringes Entgelt zur Verfügung (. Tab. 8.1). Es gibt weitere Strategien in großem Stile Knockouts herzustellen. Das Chinese Mammalian Functional Genome Project plant z. B. 10 000 mutierte Mäuse, die 70 % des Mausgenoms abdecken, mit einer auf Transposons beruhenden Methode herzustellen. Dem Experimentator bieten sich neue Möglichkeiten für ein paar hundert Euro bereits rekombinierte ES-Zellen zu kaufen, eine konditionelle Knockout-Maus daraus zu generieren und dann die
wirklich wichtigen Experimente durchzuführen. War es vor ein paar Jahren noch üblich, in einer Doktorarbeit eine Knockout-Maus vom Lieblingsgen seines Professors herzustellen und am Ende der Doktorarbeit mal zu schauen, wie die so aussieht, weil die Promotionszeit aber zu Ende geht, die Analysen dem nächsten Doktorranden zu überlassen, so sollten diese Zeiten langsam aber sicher vorbei sein. Einen »einfachen« Knockout braucht man häufig nicht mehr selbst vollständig zu generieren. Sicherlich wird es ein paar Gene geben, die selten oder kaum erfasst werden, aber die meisten liegen schon in irgendeiner Form vor. Der Experimentator muss allerdings in Datenbanken suchen. Teilweise gestaltet sich dies nicht so einfach. Häufig hilft es, zunächst bei MGI oder ensembl zu schauen. Dort sind fast alle Ressourcen miteinander verlinkt. Eine weitere Hilfestellung soll . Tab. 8.1 geben. Hier sind verschiedenste internationale Knockout-Projekte aufgelistet. Die Liste war dazu verdammt, bereits beim Erstellen veraltet zu sein. Einige Konsortien
176
8
Kapitel 8 • Transgene Tiermodelle
aktualisieren ihren Datenbestand alle zwei Wochen. Zum Teil kann für einzelne Gene der Status abgefragt werden und Sie können sehen, ob bereits ein spezifischer Vektor existiert oder schon eine ESZelle. Warten kann sich durchaus lohnen. Es gibt natürlich immer noch Fragestellungen, die das Erzeugen einer gentechnisch veränderten Maus erfordern. Dies werden in Zukunft allerdings vermehrt Transgene oder Knockin-Mäuse sein, die z. B. eine Mutation, wie sie bei einer Erkrankung auftritt, einführen. Der Vorteil des Transgens ist, schneller und billiger zu sein. Der große Nachteil ist, der Integrationsort ist ein zufälliger. Das Wildtyp-Gen wird dadurch nicht verändert, außerdem können andere Gene getroffen werden und so einen Phänotyp erzeugen. Dagegen handelt es sich beim Knockin um ein Ersetzen eines spezifischen Gens durch homologe Rekombination. Dies ist also sehr viel zielgerichteter.
8.3.4
Reporter
Ein Reportergen kann jedes Gen sein, dessen codiertes Protein die Lokalisation eines anderen Proteins, Zelltyps oder einer Reaktion anzeigen kann. Häufig werden GFP und seine Varianten als Reporterproteine genutzt, weiterhin LacZ oder biolumineszierende Proteine wie Luciferase. Mäuse, die solche Reportergene unter einem generellen Promotor exprimieren, können zum Nachweis der gewebe- und entwicklungsspezifischen Expression und Wirkung von Rekombinasen wie Cre oder Flp genutzt werden, wenn die Reportergene von den entsprechenden Erkennungssequenzen flankiert sind. Soll eine ubiquitäre Expression erreicht werden, so ist der so genannte ROSA26-Locus interessant. Dieser Genlocus wurde durch Zufall bei einem genetrap-Ansatz gefunden. Er besitzt drei Exons, aber keinen offensichtlichen offenen Leserahmen, und die homozygote Mutation dieses Locus hat keinen bekannten Phänotyp. Der Locus besitzt aber eine sehr hohe Gen-Targeting-Effizienz und führt zur ubiquitären Expression, wenn eine spliceacceptorSequenz im Konstrukt vorhanden ist. Deshalb wird der ROSA26-Locus gerne zum Herstellen von Reportermäusen verwendet.
Die Expression von Cre kann auch durch induzierbare Expressionssysteme gesteuert werden. Häufig wird das bereits eingeführte Tet-System genutzt. Eine andere Möglichkeit ist die Fusion des Cre-Gens an ein modifiziertes Gen des Estrogenrezeptors. Dies wird translatiert und das CreEstrogen-Rezeptor-Fusionsprotein befindet sich im Cytoplasma. Injiziert man Tamoxifen, welches präferenziell vom modifizierten Estrogenrezeptor gebunden wird, so transloziert das Fusionsprotein in den Zellkern und Cre kann seine Zielsequenzen schneiden. Weiterhin kann die Cre-Expression durch die Injektion eines Virus, der Cre exprimiert, gesteuert werden.
8.4
In utero-Elektroporation
Eigentlich ist dies keine transgene Technik, aber eine weitere Möglichkeit, Gene in Mäusen zu exprimieren. Bei der in utero-Elektroporation werden zunächst Mäuseembryonen vorübergehend aus dem Mutterleib entnommen. DNA wird dann in die Ventrikel des Embryos injiziert und anschließend Elektroden an das Gehirn des Embryos angelegt, kurzzeitig ein elektrisches Feld erzeugt und dadurch die in die Ventrikel injizierte DNA in die benachbarten Zellen aufgenommen. Dann werden die Embryonen ins Muttertier zurückgesetzt. Nach mehreren Tagen werden die Embryonen entweder wieder per Kaiserschnitt entnommen oder das Muttertier wirft. Die Neuronen, die aus den ventrikelnahen Neuronen hervorgegangen sind, exprimieren dann die eingebrachte DNA. So kann z. B. DNA in Neuronen spezifischer Lagen des cerebralen Cortex eingebracht werden.
Literatur und World-Wide-Web-Links Web Ressourcen: Nagy Lab: http://www.mshri.on.ca/nagy/ Maus-Genom: http://www.ncbi.nlm.nih.gov/projects/genome/guide/ mouse/ http://www.ensembl.org/index.html http://genome.ucsc.edu/
Literatur und World-Wide-Web-Links
Cre-Linien: GENSAT: http://www.gensat.org/cre.jsp Nagy Lab: http://nagy.mshri.on.ca/cre_new/index.php Tetmouse Base: http://www.zmg.uni-mainz.de/tetmouse/index.htm International Knockout Mouse Consortium: http://www.knockoutmouse.org/aboutkomp MGI: http://www.informatics.jax.org/ European Mouse Mutant Archive: http://www.emmanet.org/ International Gene Trap Consortium: http://www.genetrap. org/tutorials/overview.html Allgemein: Hall B, Limaye A, Kulkarni A (2009) Overview: generation of gene knockout mice. Current Protocols Cell Biology 19.12.1–19.12.7 Limaye A, Hall B, Kulkarni A (2009) Manipulation of mouse embryonic stem cells for knockout mouse production. Current Protocols Cell Biology 19.13.1–19.13.24 Nagy A, Gertsenstein M, Vintersten K, Behringer R (2003) Manipulating the mouse embryo. Cold Spring Harbor Laboratory Press. 3rd Edition Torres RM, Kühn R (2004) Laboratory Protocols for conditional gene targeting. Oxford University Press BAC Transgene: Yang XW, Gong S (2005) An overview on the generation of BAC transgenic mice for neuroscience research. Current Protocols Neuroscience. 5.20.1–5.20.11 Yang XW, Model P, Heintz N (1997) Homologous recombination based modification in E. coli and germline transmission in transgenic mice of a bacterial artificial chromosome. Nature Biotechnology, 15, 859–865. Cre-Linien: Gong S, Doughty M, Harbaugh CR, Cummins A, Hatten ME, Heintz N, Gerfen CR (2007) Targeting Cre recombinase to specific neuron populations with bacterial artificial chromosome constructs. J. Neurosci. 27, 9817–9823. Large-Scale Mouse Mutagenesis: Godo Y (2008) Trends in large-scale mouse mutagenesis: from genetics to functional genomics. Nat. Rev. Genetics 9, 803–810. Guan C, Ye C, Yang X, Gao J (2010) A review of current largescale mouse knockout efforts. Genesis 48, 73–85.
177
8
179
Verhaltensbiologie Claudia Mahlke
9.1
Einführung – 180
9.2
Voraussetzungen für die verhaltensbiologische Untersuchung transgener Mäuse – 181
9.2.1 9.2.2 9.2.3 9.2.4 9.2.5 9.2.6
Allgemeines – 181 Genetischer Hintergrund – 183 Gesundheitscheck – 185 Motorische Fähigkeiten – 186 Sensorische Fähigkeiten – 187 Ängstlichkeit und Explorationsverhalten – 190
9.3
Lernen und Gedächtnis – 192
9.3.1 9.3.2 9.3.3
Allgemeines – 192 Deklaratives Gedächtnis – 193 Nicht-deklaratives Gedächtnis – 198
9.4
Neurologische Erkrankungen – 202
9.4.1 9.4.2 9.4.3 9.4.4
Allgemeines – 202 Depression – 203 Schizophrenie – 204 Autismus – 206
Literatur und World-Wide-Web-Links – 206
G. Hermey et al., Der Experimentator: Neurowissenschaften, DOI 10.1007/978-3-8274-2369-6_9, © Spektrum Akademischer Verlag Heidelberg 2010
9
9
180
Kapitel 9 • Verhaltensbiologie
9.1
Einführung
Im Gegensatz zu den bislang vorgestellten Methoden, mit denen zelluläre und molekulare Mechanismen neuronaler Verarbeitung untersucht werden können, stellt die Verhaltensbiologie einen systemischen Ansatz zur Untersuchung neuronaler Prozesse im intakten Organismus dar. Die Verhaltensbiologie oder auch vergleichende Verhaltensforschung wird in der Fachsprache als Ethologie (»die Lehre des Charakters«) bezeichnet und stellt als Teilgebiet der Zoologie eine Nachbardisziplin zur Psychologie dar. Die Verhaltensforschung hat eine lange Tradition und versucht seit mehr als 100 Jahren, mit Hilfe der systematischen Beobachtung von Mensch und Tier Rückschlüsse auf die evolutive Anpassung des Verhaltens an die Umwelt zu ziehen und Gesetzmäßigkeiten für bestimmte Verhaltensstrategien abzuleiten. Als Begründer der modernen Ethologie werden die Verhaltensforscher Karl Ritter von Frisch (1886–1982), Konrad Lorenz (1903–1989) und Nikolaas Tinbergen (1907–1988) angesehen, die in ihren Arbeiten die evolutiven und funktionellen Aspekte der Ethologie mit kausalen und mechanistischen Ansätzen zusammenbrachten. Für diese Arbeiten wurden die drei Forscher 1973 mit Nobelpreis für Physiologie oder Medizin ausgezeichnet. Tinbergen formulierte in seiner Arbeit On Aims and Methods in Ethology (1963) die vier Fragen der Verhaltensbiologie (»wie«, »was«, »wozu« und »warum«), welche sich sowohl mit den unmittelbaren (proximaten) als auch mit den grundlegenden (ultimaten) Ursachen beschäftigt. Unter den proximaten Ursachen versteht man, »wie« Verhalten auf chemischer, physiologischer, neurologischer, psychischer und sozialer Ebene funktioniert und »was« Entwicklungsstadien (z. B. Pubertät) und Umwelteinflüsse im Laufe der persönlichen Entwicklung (Ontogenese) bewirken. Als ultimate Ursachen werden die Adaptation, als der Wert den Anpassung für den Organismus hat, also »wozu« dient ein bestimmtes Verhalten und die Frage »warum« haben sich bestimmte Verhaltensweisen im Laufe der Stammesgeschichte (Phylogenese) entwickelt, angesehen. Die ethologische Forschung betrachtet dabei das Verhalten als output, welcher durch einen bestimmten Stimulus
ausgelöst wird. Weiterführend versucht die Neuroethologie zu klären, welche neurobiologischen Prozesse an der Ausbildung eines bestimmten Verhaltens beteiligt sind. Die Neuroethologie verbindet somit die Ansätze der Ethologie mit Methoden der Neurobiologie, Neurologie und Sinnesphysiologe. Sie stellt den Versuch dar, das Verhalten auf der Grundlage der neuronalen Verarbeitung zu verstehen und erweitert somit gleichzeitig die neurobiologische Forschung um den Aspekt, wie molekulare, biochemische und physiologische Prozesse in einzelnen Zellen oder bestimmten Geweben das Verhalten beeinflussen. Viele Erkenntnisse konnten dabei durch die gezielte Manipulation bestimmter Hirnregionen und die anschließende verhaltensbiologische Beobachtung gewonnen werden. So wurde z. B. durch spezifische Läsionen des Hippocampus von Ratten gezeigt, dass diese Region nicht nur an der Gedächtnisbildung beteiligt ist, sondern auch eine wichtige Rolle bei der räumlichen Orientierung der Nager spielt. Neben Läsionen kommen pharmakologische Manipulationen spezifischer Hirnregionen und Veränderungen einzelner Gene zum Einsatz. Die Entdeckung von Mario Capecchi im Jahr 1987 (Thomas und Capecchi 1987), dass durch homologe Rekombination in embryonalen Stammzellen der Maus Gene gezielt ausgeschaltet werden können, hat ein komplett neues Feld der neurobiologischen Forschung erschlossen und ermöglicht sowohl den Einfluss einzelner Gene auf das Verhalten als auch, auf Erkrankungen des Nervensystems in Mausmodellen zu untersuchen. Immer mehr Labore sind in der Lage, so genannte transgene und Knockout-Mäuse zu generieren (siehe auch 7 Kap. 8), und viele Firmen bieten gentechnisch veränderte Mäuse für die verschiedensten Fragestellungen an. Für die neurobiologische Forschung spielen dabei Mausmodelle zu neurologischen Erkrankungen und zur Untersuchung von Lernen und Gedächtnis eine übergeordnete Rolle. Die Zahl der generierten Mausmodelle steigt jedoch wesentlich rasanter als die Zahl der Forscher, die diese Tiere verhaltensbiologisch charakterisieren können. Daher haben wir beschlossen, ein Kapitel dieses Buches den Grundlagen der verhaltensbiologischen Analyse von gentechnisch veränderten Mäusen zu widmen. Das Kapitel erhebt dabei nicht den Anspruch der absoluten Voll-
9.2 • Voraussetzungen für die verhaltensbiologische Untersuchung transgener Mäuse
ständigkeit und präsentiert auch keine detaillierten Versuchsprotokolle, sondern möchte einen Überblick über die Standardverhaltenstests in der neurobiologischen Forschung geben und vor allem auf die Tücken bei der Durchführung und Interpretation verhaltensbiologischer Daten hinweisen. Ansonsten empfehlen wir bei der Etablierung von Verhaltensexperimenten unbedingt Experten zu konsultieren, denn wie bei vielen anderen Experimenten steckt die Tücke im Detail und die Details sind meist nicht in Forschungsartikeln publiziert.
9.2
Voraussetzungen für die verhaltensbiologische Untersuchung transgener Mäuse
9.2.1
Allgemeines
Neben der Möglichkeit, sie gentechnisch zu manipulieren besitzt die Maus als Modellorganismus den Vorteil, dass sie eine relativ hohe Reproduktionsrate hat (eine Maus kann theoretisch einmal pro Monat im Schnitt 6–10 Nachkommen produzieren). Zudem ist das Mäusegenom komplett entziffert und steht seit 2002 frei zur Verfügung. Darüber hinaus besitzt das Mäusegehirn, im Gegensatz zu anderen gentechnisch manipulierbaren Organismen wie der Fruchtfliege Drosophila, dem Zebrafisch oder dem Fadenwurm denselben Grundbauplan wie das Gehirn des Menschen, wodurch an Mäusen gewonnene Daten besser auf den Menschen übertragbar sind. Leider sind Mäuse nicht besonders klug, was sich dadurch bemerkbar macht, dass sie bei Lernversuchen relativ lange und intensive Trainingszeiten benötigen und manche Lerntests, die z. B. mit Ratten gut funktionieren, für Mäuse nicht anwendbar sind. Dennoch gibt es mittlerweile eine ganze Reihe an Verhaltenstests für Mäuse die, gewissenhaft durchgeführt, viele Informationen über den Einfluss einzelner Gene z. B. auf die Gedächtnisleistung zulassen. Dafür ist es jedoch notwendig, alle Störfaktoren und Unterschiede in der Versuchsdurchführung, die das Verhalten neben den manipulierten Genen beeinflussen können, auszuschließen. Experimente sollten z. B. vom selben Experimentator zur selben
181
9
Tageszeit durchgeführt werden. Der Experimentator sollte mit den Tieren vertraut sein (oder eher umgekehrt) und sollte bei der Durchführung der Experimente darauf achten, dass er das handling der Tiere möglichst wenig variiert. Neben den äußeren Störfaktoren sollte man versuchen, physiologisch und genetisch bedingte Unterschiede zu minimieren. Hier spielt neben dem Geschlecht der Tiere der allgemeine genetische Hintergrund der Mäuse eine große Rolle. Dieser sollte vor allem zwischen Wildtyp- und Knockout-Tieren nicht variieren. Neben den in 7 Kap. 9.2.2 beschriebenen Methoden zur Kontrolle des genetischen Hintergrunds sollte man unbedingt darauf achten, dass Wildtyp- und Knockout-Tiere dieselben Eltern haben und möglichst aus einem Wurf stammen. Viele Experimentatoren benutzen für Lerntests generell nur männliche Tiere, da gezeigt wurde, dass weibliche Ratten im Verlauf ihres Zyklus signifikante Schwankungen in ihrem Lernvermögen aufweisen. Tatsächlich zeigt sich aber, dass weibliche Tiere in manchen Lerntests besser abschneiden als männliche und es empfiehlt sich, soweit möglich, bei einem ersten Screen und der Etablierung neuer Experimente gleich große Gruppen an männlichen und weiblichen Geschwisterpaaren zu untersuchen und neben den Genotypunterschieden auch geschlechtsspezifische Unterschiede mit einem geeigneten statistischen Verfahren zu testen. Da trotz identischer Versuchsprotokolle und Haltungs- bzw. Durchführungsbedingungen Verhaltensdaten zwischen Laboren oft stark variieren, wurde in den letzten Jahren vermehrt darauf hin gearbeitet, Verhaltensuntersuchungen noch stärker zu standardisieren. Häufig geht eine Standardisierung jedoch mit einer Reduktion in den Haltungsbedingungen der Tiere einher, die dazu führt, dass die Mäuse einzeln in minimal ausgestatteten Käfigen gehalten werden. Neuere Untersuchungen stellen diesen Trend jedoch in Frage. Durch die reduzierte Haltung kann es bei den Mäusen zu einer gestörten Entwicklung und zu stereotypem Verhalten kommen. Beides kann die kognitiven Leistungen, die für viele Lernexperimente Voraussetzung sind, stark beeinträchtigen. Zudem konnte gezeigt werden, dass ein größerer Käfig mit einer abwechslungsreicheren Ausstattung (enriched environment) nicht zwangsläufig zu einer größeren Variabilität in den Verhal-
182
9
Kapitel 9 • Verhaltensbiologie
tensdaten führt. Darüber hinaus wird in Frage gestellt, ob eine laborübergreifende Standardisierung der Experimente überhaupt realisierbar ist, denn bestimmte Einflüsse der jeweiligen »Laborumwelt« wie z. B. Mitarbeiter, Räume und Laborgeräusche sind sowieso nicht vollständig standardisierbar, und da man davon ausgeht, dass ein beobachtbarer Phänotyp immer durch das Zusammenspiel der genetischen Prädisposition und der vorhandenen Umwelteinflüssen geprägt wird, könnte eine starke Standardisierung sogar dazu führen, dass der beobachtbare Effekt nur sehr lokal, nämlich unter diesen ganz bestimmten lokalen Umständen, zustande kommt. Solche lokalen Effekte können jedoch nicht verallgemeinert werden und bieten keine verlässliche Aussage über die Genotyp-Phänotyp-Beziehung. Um die Entstehung dieser lokalen Effekte zu verhindern wurde vorgeschlagen, systematische Variationen in den Versuchsbedingungen einzuführen. So könnten Gruppen von Tieren zum Beispiel unterschiedlich gehalten und in verschiedenen Räumen von unterschiedlichen Experimentatoren untersucht werden. Zwar würde die Anzahl an Tieren pro Experiment dadurch erst mal steigen, die Gesamtanzahl an eingesetzten Tieren würde jedoch gesenkt, da die Daten zwischen den Laboren nicht so stark schwanken würden und daher nicht so oft wiederholt werden müssten. Die größere Variabilität in den Versuchsbedingungen würde somit eine repräsentativere Aussage zulassen und wäre eher in Einklang mit Studien an Menschen, bei denen man auch versucht, eine z. B. für die Gesamtbevölkerung repräsentative Gruppe zu untersuchen, um eine allgemein gültige Aussage ableiten zu können (external validity). Jedoch sei hier auch erwähnt, dass, auch wenn die Theorie solcher Überlegungen sehr wertvoll ist, der wissenschaftliche Laboralltag und die praktische Anwendung meist anders aussehen. Verhaltensexperimente sind sehr langwierig und die Haltungskosten für die Mäuse enorm. Zudem ist der Konkurrenzdruck groß und die Wissenschaft oft ein Wettlauf mit der Zeit, sodass die meisten Experimentatoren froh sind, wenn sie mit so wenig Aufwand wie möglich einen Phänotyp finden, der publizierbar ist. Nichtsdestotrotz sollte man als guter Experimentator diese Aspekte bei der Planung und Durchführung der Experimente im
Kopf haben und seine Untersuchungen so sorgfältig wie nur irgend möglich durchführen. Zur korrekten Durchführung von Verhaltensexperimenten gehört auch eine verlässliche statistische Auswertung. Falls man, wie die meisten molekular arbeitenden Biologen, keine Ahnung von Statistik hat, empfiehlt es sich auch hier, zumindest am Anfang einen Experten zu Rate zu ziehen. Allerdings ist es langfristig unumgänglich, sich einige Grundkenntnisse und ein entsprechendes Computerprogramm anzueignen, denn auch für die Beantragung (siehe unten) solcher Experimente werden zunehmend biometrische Angaben verlangt. Für die meisten Verhaltenstests kann man das Equipment kommerziell erwerben. Eine Liste von Firmen, die Verhaltensapparaturen anbieten, findet sich im Literaturteil im Anschluss an dieses Kapitel. Hat man eine gute Werkstatt an der Hand, kann man sich viele Kosten sparen und einige der meist aus Kunststoff gefertigten Arenen nachbauen lassen. Für einige Anwendungen und komplexere Auswertprogramme hat man jedoch oft keine andere Wahl als auf das meist recht kostenintensive kommerzielle Equipment zurückzugreifen. In den letzten Jahren wurde zunehmend versucht, Verhaltensuntersuchungen zu automatisieren. Auch hier bieten einige Firmen Lösungen an, die allerdings das Budget der meisten Labore sprengen dürfte. Falls einem die Zeit und auch der finanzielle Aufwand der Etablierung eines eigenständigen Verhaltenslabors zu groß ist, man aber etwas Geld übrig hat, kann man den ersten (und auch weitere) Screen(s) einer Mauslinie auch von einer professionellen »Mausklinik« durchführen lassen. Billiger ist es jedoch, einen Kooperationspartner mit Erfahrung zu suchen und diesen für die eigenen Projekte zu begeistern. Des Weiteren sei darauf hingewiesen, dass,auch wenn Verhaltensuntersuchungen in den meisten Fällen keine sehr große Belastung für die Tiere darstellen, alle Experimente mit Tieren beantragt und genehmigt werden müssen. Die Bestimmungen sind von Bundesland zu Bundesland verschieden und man sollte sich vorab bei der jeweilig zuständigen Behörde über die Vorgehensweise bei der Beantragung der Experimente erkundigen.
9.2 • Voraussetzungen für die verhaltensbiologische Untersuchung transgener Mäuse
9.2.2
Genetischer Hintergrund
(Anmerkung: Für das bessere Verständnis empfiehlt es sich 7 Kap. 8.2 vor der Lektüre dieses Kapitels zu lesen) Hat man erfolgreich die ersten Nachkommen einer neuen Mauslinie hervorgebracht, ist es leider bis zu einer verlässlichen verhaltensbiologischen Charakterisierung meist noch ein langer Weg. Bei der Untersuchung von transgenen und KnockoutMäusen ist es wichtig, dass die untersuchten Tiere sich nur in einem, nämlich dem manipulierten Gen unterscheiden. Wie jedoch in 7 Kap. 8.3.1 angesprochen, werden für die Manipulation des Erbguts durch homologe Rekombination in den meisten Fällen embryonale Stammzellen der Linie 129/Sv eingesetzt. Diese stammen häufig von unterschiedlichen 129er-Unterstämmen ab, wodurch es zu einer unerwünschten Variabilität im genetischen Hintergrund der manipulierten Mäuse kommt. Ebenso werden Pronucleus-Injektionen zur Herstellung transgener Mäuse oft an Stammzellen aus einem Hybridhintergrund (Mischhintergrund zweier Inzuchtlinien) oder Stammzellen der Linie FVB/N durchgeführt. Die Hybridtiere weisen wiederum eine große Variabilität im genetischen Hintergrund auf. Zudem eignen sich die Mäuse der Linie FVB/N und viele Unterstämme der Linie 129/Sv nicht für Verhaltensexperimente, die den Einfluss einzelner Gene auf das Lernverhalten untersuchen, da sie auch ohne Manipulation in Lerntests nicht besonders gut abschneiden. Generell gibt es bei den kommerziell verfügbaren Inzuchtmauslinien große Unterschiede im Verhalten. Für Lerntests werden meist Mäuse der Linie C57Bl/6N eingesetzt. Häufig werden die durch homologe Rekombination veränderten embryonalen Stammzellen der Linie 129/ Sv in Blastocysten von Mäusen der Linie C57Bl/6N eingebracht. Die Nachkommen dieser Mäuse, auch Chimären genannt, haben somit einen gemischten genetischen Hintergrund und müssen, ebenso wie die transgenen Tiere, über mehrere Generationen in den Hintergrund einer homozygoten Inzuchtlinie, z. B. C57Bl/6N, zurückgekreuzt werden. Als Empfehlung wird eine Rückkreuzung über mindestens 10 Generationen vorgeschlagen (recommendations of the Banbury Conference on genetic background in mice, 1997), was bedeutet, dass heterozygote Nachkommen mindestens 10 Mal in
183
9
den Hintergrund einer homozygoten Inzuchtlinie rückgekreuzt werden müssen. Unter Berücksichtigung der Mendelschen Vererbungslehre geht man davon aus, dass nach 10 Rückkreuzungen eine so genannte kongene Linie vorliegt, bei der 99.9 % des Genoms der gewünschten Inzuchtlinie entspricht (. Abb. 9.1; . Abb. 9.2). Eine Ausnahme bilden die Regionen, die die Mutation direkt flankieren. Diese Regionen entstammen auch nach 10 Rückkreuzungen immer noch der Stammzelllinie. Diese flankierenden Regionen können somit ein Problem bei der verhaltensbiologischen Analyse der Tiere darstellen, und man sollte auch nach 10 Rückkreuzungen im Hinterkopf haben, dass der beobachtete Phänotyp durchaus durch den Einfluss dieser flankierenden Regionen zustande kommen kann. In den meisten Fällen wird dieses Problem jedoch ignoriert, da die möglichen Strategien zur Kontrolle eines flanking-gene-Effekts sowohl zeitals auch kostenintensiv sind. Darüber hinaus ist die Wahrscheinlichkeit, dass ein beobachtbarer Phänotyp tatsächlich auf den flankierenden Regionen beruht, statistisch gesehen relativ gering. Dennoch ist er nicht zu vernachlässigen und man sollte gegebenenfalls eine der in der Literatur empfohlenen Kontrollstrategien zur Anwendung bringen oder sich zumindest darüber informieren welche Gene das manipulierte Gen flankieren. Eine weitere Möglichkeit, den Einfluss der flankierenden Regionen auszuschließen, besteht darin, statt kompletten konstitutiven Knockout-Tieren konditionale Knockout-Mäuse zu benutzen (7 Kap. 8.3.2). Bei diesen Mäusen wird das Zielgen durch ein Konstrukt ersetzt, bei welchem es nur durch die Expression eines weiteren Gens, z. B. der Cre-Rekombinase (. Abb. 8.11; 7 Kap. 8.3.2) zu einer Deletion des Zielgens kommt. Kontrollmäuse tragen in diesem Fall dieselbe Mutation mit denselben flankierenden Regionen, das Zielgen wird aber nicht deletiert. Unabhängig davon, ob man eine konstitutive oder eine konditionale Knockout-Mauslinie etablieren möchte, muss man unter Verwendung der klassischen Rückkreuzungsstrategien einen Zeitrahmen von bis zu 3 Jahren veranschlagen. Wenn man bedenkt, dass eine Doktorarbeit im Idealfall gerade mal 3 Jahre dauern sollte, scheint eine verhaltensbiologische Untersuchung in diesem Zeitrahmen eher utopisch. Entweder man hat das Glück, in ein Labor zu kommen, in dem die »Vorarbeiten« bereits
184
Kapitel 9 • Verhaltensbiologie
129/Sv Keimbahn Chimäre
C57Bl/6N
F1 C57Bl/6N
C57lL/6N
F2 (erste Analyse)
10 Rückkreuzungen
C57lL/6N
9 F3 C57Bl/6N
F10 (kongene Linie)
Chromosom Position der Mutation chromosomale DNA der ES-ZellDonorlinie
Homozygote Knockout- und Wildtyp-Tiere für Experimente
flankierende Region
185
9.2 • Voraussetzungen für die verhaltensbiologische Untersuchung transgener Mäuse
100 90 80 70 60 50 40 30 20 10 0
99.2%
96.9%
75%
99.6%
98.4%
93.8% 87.5%
kongene Linie (N10+)
99.91%
99.99%
% Homogzygotie
50%
% Heterozygotie
1
2
3
4
5
6
7
8
9
speed congenics
99.98%
99.8% 99.95%
10 11 12
13
Generation
speed congenics: kongene Linie (N5+)
B
% Empfänger-DNA
% Donor/Empfänger-DNA
annähernd kongene Linie (N4-N9)
gemischter Hintergrund (N1-N4)
A
9
100 90 80 70 60 50 40 30 20 10 0
1 2 3 4 5
6 7 8 9 10 11 12 13
Generation
. Abb. 9.2 Rückkreuzung und speed congenics. (A) Bei der Rückkreuzung einer Mauslinie in einen neuen genetischen Hintergrund erhält man nach 10 Rückkreuzungen eine so genannte kongene Linie. (B) Mit Hilfe von speed congenics wird die Homozygotie des genetischen Hintergrunds bereits nach 5 Rückkreuzungen erreicht. (schwarze Dreiecke: Donor-DNA; weiße Dreiecke: Empfänger-DNA)
abgeschlossen sind, oder man muss das Verfahren etwas abkürzen. Eine Möglichkeit ist eine Art verhaltensbiologischer Vortest, den man bereits an der F2-Generation durchführen kann (. Abb. 9.1). Beobachtet man hier einen Phänotyp, dann lohnt es sich, die ganze Rückkreuzerei auf sich zu nehmen, um dann noch mal genau nachzuschauen. Findet man bereits hier keinen Phänotyp, kann man sich die ganze Prozedur vielleicht auch sparen. Die Anzahl an Rückkreuzungen kann jedoch auch durch ein Verfahren beschleunigt werden, welches als speed congenics bekannt ist. Hierbei macht man sich zu Nutze, dass für das Mausgenom mehr als 6 000 DNA-Mikrosatelliten-Marker bekannt sind und diese sich häufig zwischen den verschiedenen Mausstämmen unterscheiden. Mit Hilfe von PCRAnalysen kann man so die Tiere identifizieren, die einen möglichst großen Teil des gewünschten genetischen Hintergrunds tragen. Verpaart man nur diese Tiere weiter, kann man bereits nach 5 Generationen, also ca. in 12–14 Monaten, eine kongene Linie erhalten (. Abb. 9.2).
9.2.3
Gesundheitscheck
Bevor man mit den spezifischen Verhaltensuntersuchungen beginnen kann, muss geklärt werden, ob die Maus auch fit und gesund ist. Zunächst schaut man sich an, ob die Tiere sich normal verpaaren und ob der Nachwuchs sich gemäß der Mendelschen Gesetze verteilt. Das heißt, dass bei einer Verpaarung aus zwei heterozygoten Tieren 25 % Wildtypen, 25 % homozygot transgene Tiere und 50 % heterozygote Tiere geboren werden sollten. Dies stimmt zwar nicht für jeden Wurf, aber sollte sich tendenziell nach einigen Würfen so einspielen. Treten homozygot transgene Tiere sehr viel seltener auf, könnte das auf eine Störung während der Embryonalentwicklung hinweisen. Verläuft die Verpaarung normal, schaut man sich an, ob die Tiere irgendwelche Auffälligkeiten haben. Sehen Fell und Extremitäten normal aus, wie ist die Körpertemperatur, haben die Tiere ein normales Gewicht und bewegen sie sich normal? Als nächstes werden verschiedene neurologische Reflexe getestet. Beim
. Abb. 9.1 Rückkreuzungsschema nach den Empfehlungen der Banbury Konferenz. Mäuse, die die Mutation tragen (hier: 129/Sv Keimbahn Chimäre), werden in einen gewünschten genetischen Hintergrund (hier: C57Bl/6N) rückgekreuzt. Tiere der F2 Generation können in einem ersten verhaltensbiologischen Screen untersucht werden. Um eine so genannte kongene Linie (> 99 % des genetischen Hintergrunds von C57Bl/6N) zu erhalten, müssen die Chimären über mindestens 10 Generationen mit Tieren der Linie C57Bl/6N verpaart werden. Für die verhaltensbiologischen Untersuchungen kann man homozygote Wildtyp- und Knockout-Mäuse, die aus einem Wurf stammen, verwenden. Man sollte jedoch beachten, dass auch nach 10 Rückkreuzungen die Mutation flankierenden Regionen noch von der Donor-Mauslinie abstammen
186
9
Kapitel 9 • Verhaltensbiologie
Blinkreflex sollten die Tiere die Augen schließen, wenn ein Luftzug kommt oder wenn man ein Wattestäbchen auf ihre Augen zu bewegt. Sie sollten mit den Ohren zucken, wenn man die Ohren leicht berührt (ear twitch reflex). Wenn man die Schnurrhaare eines sich frei bewegenden Tieres berührt, sollte es die Bewegung der Schnurrhaare stoppen und sich vielleicht sogar in Richtung der Seite wenden, von der der Reiz kam (whisker twitch). Schüttelt man den Käfig sanft etwas hin und her sollte die Maus die Extremitäten so ausbreiten, dass sie eine aufrechte Position innhalten kann (postural reflex). Dreht man die Maus auf den Rücken, so sollte sie sich schnell zurückdrehen und auf die Beine stellen (righting reflex). Dann folgt eine Reihe von Beobachtungen, die etwas aufwendiger sind und etwas Equipment benötigen. Zum Beispiel würde man sich den Tag-/Nachtrhythmus der Tiere anschauen. Mäuse sind nachtaktiv und sollten daher in der Dunkelphase sehr viel aktiver sein als in der Hellphase. Des Weiteren interessiert das Fress- und Trinkverhalten, die soziale Interaktion mit anderen Tieren sowie das Putz- und Nestbauverhalten. An Geräten benötigt man hierzu mindestens eine Videokamera, die lichtsensitiv genug ist, um im Dunkeln (oder unter Rotlicht) aufnehmen zu können, und ein Videoabspielgerät. Hat man nicht genug finanzielle Mittel, um eine geeignete Analysesoftware zu kaufen, kann man die aufgenommenen Filme auch mit der Hand auswerten, das bedeutet jedoch, dass man stundenlang Filme auswertet und vorher festgelegte Parameter notiert. Da dies sehr mühsam ist und man für weitere Experimente sowieso eine geeignete Software und Geräte benötigt, kann man diese auch für die Voruntersuchungen einsetzen. Neben der Auswertung über Videofilme kann man für die Analyse der allgemeinen Aktivität auch auf Systeme zurückgreifen, die über Lichtschranken oder über Infrarotstrahlung die Bewegung der Mäuse detektieren. Generell sind den Möglichkeiten und auch den Investitionskosten für verhaltensbiologisches Equipment keine Grenzen gesetzt und man kann mittlerweile sogar Systeme erwerben, die eine Maus rund um die Uhr vollautomatisch beobachten und analysieren.
9.2.4
Motorische Fähigkeiten
Als nächstes werden die motorischen Fähigkeiten unter die Lupe genommen. Damit möchte man ausschließen, dass eine Störung der Motorik zu Fehlinterpretationen bei der Untersuchung anderer z. B. kognitiver Leistungen führt. Weiterhin können solche Störungen im Hinblick auf Mausmodelle interessant sein, die generell mit motorischen Defiziten einhergehen, wie z. B. Parkinson, Chorea Huntington, Amyothrophe Lateralsklerose und andere neurodegenerativer Erkrankungen. Man kann hier unterschiedliche Tests durchführen, die entweder die allgemeine Lokomotion (Bewegung) oder feinere motorische Fertigkeiten und das motorische Lernen betrachten. Für Bewertung der Lokomotion wird oft das so genannte open field verwendet (. Abb. 9.5). Die Untersuchung besteht darin, dass man eine Maus in eine Arena setzt und für einen bestimmten Zeitraum ihr Verhalten beobachtet. Verschiedene Parameter, wie horizontale und vertikale Bewegungen, zurückgelegte Gesamtstrecke oder die Bewegungsgeschwindigkeit, geben Aufschluss über die lokomotorischen Fähigkeiten. Verwendet man eine sehr große Arena und führt die Untersuchung in schwach beleuchteten Räumen durch, kann man zudem Informationen über die Ängstlichkeit und das Explorationsverhalten der Mäuse gewinnen, denn die Bereiche im Zentrum der Arena werden normalerweise zunächst gemieden. Überwiegt jedoch der Erkundungsdrang der Mäuse, verbringen sie im Verlauf des Experiments vermehrt Zeit im Zentrum der Arena. Darüber hinaus kann man im open field auch Habituationseffekte untersuchen, denn in Wildtyp-Mäusen vermindert sich die Explorationstätigkeit nach wiederholter Präsentation der neuen Umgebung und die Anzahl an vertikalen Bewegungen nimmt ab. So kann dieser sehr einfache Testaufbau bereits sehr viele Informationen über eine neue Mauslinie geben. Open fields können entweder mit Lichtschranken ausgestattet sein, die automatisch alle Bewegungen der Tiere registrieren, oder man benutzt alternativ ein so genanntes Videotracking-System, mit dem der gesamte Weg, den die Maus zurückgelegt hat, aufgezeichnet und ausgewertet werden kann.
9.2 • Voraussetzungen für die verhaltensbiologische Untersuchung transgener Mäuse
Um neben der allgemeinen Lokomotion Informationen über motorische Fähigkeiten wie z. B. die Greifkraft zu erhalten, kann man die Maus auf ein Gitter, am einfachsten den Käfigdeckel, setzen und diesen herumdrehen (hanging wire test). Eine gesunde Maus sollte in der Lage sein, sich ohne Probleme 5 Minuten festzuhalten ohne herunterzufallen. Damit die Tiere sich nicht verletzten, muss dafür gesorgt werden, dass sie sehr weich und nicht aus großer Höhe herunterfallen. Natürlicherweise werden die Mäuse versuchen, über den Rand an auf die Oberseite des Käfigdeckels zu gelangen, was verhindert werden kann, indem man am Rand einen Bereich von ca. 5 cm abklebt. Die normale Bewegungskoordination kann auch über die Fußabdrücke der Tiere überprüft werden. Dazu werden die Füße der Mäuse in Farbe getaucht und man lässt sie über ein weißes Papier laufen. Unnormale Bewegungsabläufe werden so auf dem Papier sichtbar. Des Weiteren kann man die Fähigkeit zu balancieren testen. Hierzu kann man die Maus in einem hell erleuchteten Raum auf die eine Seite eines ca. 1m langen Stabs setzen. Sie hat dann die Möglichkeit, über den Stab in eine dunkle Box auf der anderen Seite des Stabes zu entweichen. Ausgewertet wird hier, wie schnell die Maus den Stab überquert, aber auch, wie oft sie mit den einzelnen Extremitäten abrutscht. Den Stabdurchmesser kann man im Verlauf des Tests verkleinern. Schwieriger wird es für die Maus beim so genannten Rotorod-Test. Hierbei werden Motorkoordination, Balance und Gleichgewicht getestet. Die Maus wird auf eine Walze mit einer sich langsam beschleunigenden Drehung gesetzt und man misst die Zeit, bis die Maus herunterfällt. Um ein gutes Bild über die motorischen Fähigkeiten einer neuen Mauslinie zu bekommen, sollte man eine Kombination aus möglichst vielen dieser verschiedenen Tests anwenden.
9.2.5
Sensorische Fähigkeiten
kSehen
Wie sehen, hören, riechen und schmecken Mäuse, wie reagieren sie auf Berührung und wie empfinden sie Schmerzen? Um eine erfolgreiche verhaltensbiologische Untersuchung einer neuen Maus-
187
9
linie durchführen zu können, sollte man vorher klären, ob die Tiere ihre Umwelt »normal« wahrnehmen. Mäuse können einigermaßen gut sehen, allerdings ist ihre visuelle Wahrnehmung nicht mit der unseren vergleichbar, da »Sehen« für die nachtaktiven Tiere eher eine untergeordnete Rolle spielt. Zudem besitzen Mäuse eine andere Farbwahrnehmung als wir Menschen. Menschen und andere Primaten besitzen bekanntermaßen drei Sorten von Zapfen (S-Typ für Blau, der M-Typ für Gelb und der L-Typ für Rot), die ein trichromatisches Sehen ermöglichen. Mäuse und die meisten anderen Säuger besitzen nur zwei Zapfentypen (S-und M-Typ), wodurch ihre Farbwahrnehmung dichromatisch ist, sie allerdings mit den S-Typ-Zapfen bis in den ultravioletten Bereich sehen können. Dafür nehmen sie rot nicht wahr, was für viele Verhaltensexperimente, die oft im Dunkeln stattfinden, von Vorteil sein kann, da sowohl wir Experimentatoren als auch lichtsensitive Kameras unter Rotlicht die Mäuse beobachten können, während die Mäuse durch dieses Licht nicht gestört werden. Um zu überprüfen, ob eine Maus blind ist oder sehen kann, kann man zwei einfache Tests anwenden. Der einfachste ist der, dass man der Maus in einem hell erleuchteten Raum einen dunklen und hellen Bereich anbietet, wie z. B. bei der light-dark/box, die häufig auch verwendet wird, wenn man die Ängstlichkeit und das Explorationsverhalten der Tiere untersuchen möchte 7 Kap. 9.2.6. Eine normal sehende Maus würde relativ schnell den dunklen Bereich aufsuchen. Tut sie dies nicht, ist dies ein guter Hinweis darauf, dass sie nicht sehen kann. Allerdings könnten hier auch Motivation und verminderte Ängstlichkeit eine Rolle spielen, und man sollte auf jeden Fall weitere Tests durchführen, um ganz sicher zu gehen, dass tatsächlich das visuelle System betroffen ist. Ein weiterer Test ist der visual-cliff-Test, bei dem die Maus mit einem Abgrund konfrontiert wird, der zwar sichtbar, aber nicht zu ertasten ist. Wie in . Abb. 9.3 gezeigt ist, endet hier eine horizontale Plattform an einer nach unten abfallenden Steilwand, die wiederum an einer weiteren tiefer liegenden Plattform endet. Um die abfallende Kante zu betonen, kann man z. B. ein schwarz/weißes Schachbrettmuster verwenden. Über die obere horizontale Ebene und den »Abgrund« wird eine
188
Kapitel 9 • Verhaltensbiologie
. Abb. 9.3 Visual-cliff-Test. Mit Hilfe des visual-cliff-Tests kann man das Sehvermögen der Mäuse testen. Über dem »Abgrund« befindet sich eine durchsichtige Plexiglasscheibe. Eine sehende Maus würde den Abgrund wahrnehmen und an der Kante innehalten. Kann die Maus jedoch nicht sehen, würde sie den Abgrund ignorieren, da sie mit ihren Schnurrhaaren die durchsichtige Plexiglasscheibe ertastet und somit für sie kein Abgrund vorhanden ist. (Mit freundlicher Genehmigung von O. Gerhartz, Berlin)
9
durchsichtige Plexiglasscheibe gelegt. Kann die Maus normal sehen, wird sie am Rand des »Abgrunds« innehalten. Sieht sie den Abgrund nicht, wird sie sich auf der Plexiglasscheibe weiter über den Abgrund bewegen und sich allein mit Hilfe ihrer Schnurrhaare orientieren. Um die Genauigkeit der visuellen Verarbeitung im Detail zu untersuchen, kann man entweder visuelle Diskriminierungsexperimente durchführen oder die neuronale Verarbeitung mit Hilfe elektrophysiologischer Messungen im visuellen System überprüfen. Bei den Diskriminierungsexperimenten besteht das Problem allerdings darin, dass die Maus zunächst den Versuchsablauf erlernen muss, um dann bestimmte visuelle Reize zu unterscheiden. Dies beinhaltet, dass das Erlernen dieser Abläufe durch die vorliegende Mutation nicht gestört wird. Ebenso sind elektrophysiologische Untersuchungen sehr aufwendig und erfordern Spezialisten für die Durchführung, so dass auch diese Untersuchung nicht als ein Standardverfahren der Überprüfung der visuellen Fähigkeiten angesehen werden kann. kHören
Mäuse hören in einem weitaus hochfrequenteren Bereich als wir Menschen. Die Kommunikation zwischen Müttermäusen und ihren Nachkommen findet fast ausschließlich im für uns nicht wahrnehmbaren Ultraschallbereich statt, während sowohl Warnrufe als auch die so genannten wrig-
gling-calls, die Mäusebabies verwenden, um die Aufmerksamkeit der Müttermäuse beim Säugen zu wecken, auch für uns hörbar sind. Um das Hörvermögen einer Maus zu überprüfen, kann man den so genannten acoustic startle reflex untersuchen. Acoustic startle beruht auf einem Reflex, der dafür sorgt, dass man bei einem unerwarteten lauten Geräusch zusammenzuckt. Er kann sowohl bei Menschen als auch bei Mäusen gemessen werden. Während man jedoch bei Mäusen die Zuckung des ganzen Körpers mit Hilfe von kommerziell erhältlichem Equipment messen kann, wird beim Menschen meist nur die Zuckung des Augenlids gemessen. Die minimale Lautstärke in Dezibel, die den Zuckreflex auslöst, wird als acoustic startleSchwelle bezeichnet. Eine Maus mit vermindertem Hörvermögen hätte somit eine höhere Schwelle und taube Mäuse würden erst ab ca. 120 Dezibel reagieren, da bei dieser Lautstärke auch Vibrationen detektiert werden können. Um die Hörschwelle mit derselben Apparatur etwas genauer zu bestimmen, kann man das so genannte prepulse inhibition-Paradigma anwenden. Es beruht darauf, dass ein kurzes leiseres akustisches Signal, das kurz vor dem startle gegeben wird, den startle reflex vermindert. Auch hier kann dann die Schwelle bestimmt werden, bei der der startle reflex gerade noch vermindert wird. Allerdings beruht der startle reflex neben dem Hörvermögen auch auf der zentralnervösen Verarbeitung, die als sensorimotor gating bezeichnet wird und bei vielen psychischen Störungen gestört ist.
9.2 • Voraussetzungen für die verhaltensbiologische Untersuchung transgener Mäuse
Muss man das Hörvermögen der Mäuse für ein Experiment genau charakterisieren, sollte man eher auf elektrophysiologische Hörschwellenmessungen, wie z. B. der Messung von Hirnstammpotenzialen (ABR, auditory evoked brainstem response) zurückgreifen. kRiechen und Schmecken
Die Maus gehört zur Gruppe der Makrosmaten, die einen sehr ausgeprägten Geruchssinn und ein besonders großes Geruchsepithel haben. Um den Geruchssinn von Mäusen sehr einfach zu testen, kann man kleine Futterstücke wie Käse oder Erdnussbutter in der Käfigstreu verstecken. Die Maus sollte relativ bald anfangen in der Streu zu graben, um das Futterstück zu finden. Ebenso kann man ein riechendes Objekt in den Käfig stellen, oder etwas Duftstoff (Käse oder auch Urin des anderen Geschlechts) an einer Käfigwand applizieren. Man misst dann die Zeit, die die Maus an diesen Duftstoffen riecht und vergleicht sie mit der Zeit, die Mäuse riechend mit einem neutralen Duft wie z. B. Wasser verbringen. Weiterführend könnte man auch Geruchsdiskriminierungstests durchführen. Da diese jedoch komplexer sind und die Tiere hier die Abläufe lernen und behalten müssen, um die Aufgabe zu bewältigen, könnte ein verändertes Verhalten hier auch auf Schwächen beim Lernen und der Gedächtnisbildung hinweisen. Der Geschmackssinn kann über so genannte choice-Tests überprüft werden. Hierzu bekommt die Maus zwei Flaschen mit zwei verschiedenen Lösungen angeboten. Normalerweise würde sie eine Zuckerlösung gegenüber reinem Wasser vorziehen. Ebenso würde sie eine bittere Lösung vermeiden. Genauere Informationen kann man erhalten, wenn man die Konzentration der süßen und bitteren Lösungen verändert und misst, ab wann die Lösung bevorzugt oder vermieden wird. kSomatosensorische Wahrnehmung
Die somatosensorische Wahrnehmung kann über Reflexe, die auch schon weiter oben beschrieben wurden, getestet werden. Zum Beispiel sollten die Mäuse mit den Schnurrhaaren zucken, wenn man diese mit einem weichen Pinsel berührt, oder sie sollten zusammenzucken, wenn man einen Luftstoß auf sie richtet. Des Weiteren kann man die
189
9
Diskriminierungsfähigkeit von Oberflächen testen, wobei es sich auch hier um ein Lernexperiment handelt, welches erfordert, dass die Maus das Prozedere erlernt und auch behalten kann. kSchmerzwahrnehmung
Um die Schmerzwahrnehmung zu analysieren, gibt es eine Reihe gut etablierter Tests, die für die Anwendung von Schmerzmitteln entwickelt wurden. Dabei kommen entweder kurze, gebündelte Lichtstrahlen mit hoher Intensität und Hitzeentwicklung zum Einsatz, oder es werden Substanzen unter die Haut gespritzt, die die Schmerzfasern aktivieren. Für die Untersuchung von Lernen und Gedächtnis spielen diese Untersuchungen eine eher untergeordnete Rolle. Der einzige relevante Test ist die Furchtkonditionierung, bei dem eine Assoziation eines Tons mit einem Fußschock stattfindet. Hier kann man aber auch zunächst die Lernkurven der Mäuse betrachten; erst wenn die transgenen oder Knockout-Mäuse die Assoziation von vorneherein nicht lernen können, muss man überprüfen, ob dieses Verhalten auf eine verminderte Schmerzwahrnehmung zurückzuführen ist (7 Kap. 9.3.3). Dennoch möchten wir an dieser Stelle der Vollständigkeit halber auf einige Tests für die Überprüfung der Schmerzwahrnehmung eingehen. Mit dem so genannten tail-flick-Test kann man den spinalen Schmerzreflex testen. Man hält die Maus fest und fokussiert einen heißen, gebündelten Lichtstrahl, der in der Intensität variierbar ist, auf einen Punkt des Schwanzes. Sobald es der Maus zu heiß wird und sie leichten Schmerz empfindet, bewegt sie ihren Schwanz aus dem Lichtstrahl. Die abhängige Variable ist hier die Zeit, die vergeht, bis die Maus den Schwanz vom Lichtstrahl weg bewegt. Die Intensität des Lichtstrahls wird so angepasst, dass der tail flick nach 4 bis 6 Sekunden erfolgt. Spätestens nach 10 Sekunden wird das Experiment abgebrochen, um Gewebeschäden zu vermeiden. Der Hargraeves-Test funktioniert ähnlich, nur dass der Lichtstrahl auf die Hinterpfote gerichtet wird und man die Zeit misst, die das Tier benötigt, um den Fuß zurückzuziehen. Um den zentral vermittelten akuten Schmerzreflex zu testen, kann man den hot plate-Test zum Einsatz bringen. Hier wird die Maus auf eine Platte gesetzt, die man auf 52–55°C erwärmt. Man misst
190
9
Kapitel 9 • Verhaltensbiologie
die Zeit, die vergeht, bis die Maus eine Hinterpfote hebt und die Unterseite der Pfote leckt, was als ein deutliches Zeichen für Unbehagen gewertet werden kann. Manche Mäuse hüpfen oder vokalisieren stattdessen, und die meisten Experimentatoren sehen diese Reaktion als gleichwertig mit dem Lecken der Hinterpfote an. Die Temperatur wird so angepasst, dass die Reaktion in Kontrollmäusen innerhalb von 10 Sekunden erfolgt und spätestens nach 30 Sekunden wird das Experiment abgebrochen. Bei Mäusen, die mit analgetisch wirkenden Substanzen wie z. B. Morphin behandelt wurden, oder eine Mutation tragen, die einen hypoalgetischen Zustand hervorrufen, verlängert sich die Zeit bis zur Reaktion. Mit Hilfe des Formalin-Tests misst man die Reaktion auf eine gewebsschädigende Injektion von Formalin. Dabei wird eine 1 %ige Formalin-Lösung in einen Hinterfuß unter die Haut gespritzt und man beobachtet dann Reaktionen, die verschieden klassifiziert werden können. 1 = die Tiere heben den Fuß, damit weniger Gewicht auf ihm lastet, 2 = die Tiere heben den Fuß ganz, oder 3 = sie beginnen ihn zu lecken, beißen oder schütteln ihn. Man geht davon aus, dass in den ersten 10 Minuten Schmerzfasern akut aktiviert werden, während es ab 20 Minuten zur Schädigung des Gewebes kommt, die mit entzündlicher Hyperalgesie einhergeht.
9.2.6
Ängstlichkeit und Explorationsverhalten
Neben der allgemeinen Gesundheit, der Motorik und den sensorischen Fähigkeiten sollte vor einem Lernexperiment noch überprüft werden, ob die Mäuse besonders ängstlich sind und ob sie ein normales Explorationsverhalten zeigen. Immer auf der Suche nach neuen Futterquellen und potenziellen Paarungspartnern sind Mäuse generell sehr aktiv im Erkunden einer neuen Umgebung. Dabei versuchen sie zunächst, helle und offene Bereiche zu meiden und ziehen geschütztere und dunklere Bereiche vor. Erst nach einiger Zeit, wenn sie die offenen Bereiche eine Weile aus sicherer Entfernung beobachtet haben, beginnen sie den geschützten Ort zu verlassen.
Die meisten Tests, die Ängstlichkeit und Explorationsverhalten untersuchen, haben genau diesen Übergang von Vermeidung und Exploration im Fokus. Beim oben schon erwähnten open field werden die Mäuse in eine große, offene und schwach beleuchtete Arena gesetzt. Hier eignet sich zum Beispiel der Pool, der später für die water mazeExperimente genutzt werden kann (. Abb. 9.5). Die Maus wird sich in den ersten 1–2 Minuten am Rand der Arena aufhalten, erst danach wird sie sich in die ungeschützte Mitte der Arena begeben. Mit Hilfe eines Videotracking-Systems kann man den Weg, den die Maus gelaufen ist, aufzeichnen und später eine Reihe von Parametern berechnen lassen: z. B. die Zeit, die die Maus im Zentrum der Arena verbracht hat, die Geschwindigkeit, mit der sie sich bewegt hat, und wie oft sie während der Exploration innegehalten hat, um sich aufzurichten. Darüber hinaus wird die Anzahl an Köteln gezählt, die die Maus während des Experiments in der Arena ablegt, denn auch dies ist ein guter Hinweis darauf, wie ängstlich die Maus während der Exploration war. Auch der light/dark transition-Test oder die light/dark box geben Aufschluss über die allgemeine Ängstlichkeit. Hier wird eine sehr viel kleinere Arena verwendet, die einen sehr hellen und einen dunklen Bereich hat. Man setzt die Maus in den hellen Bereich und misst die Zeit, die die Maus benötigt, um sich in den sicheren dunklen Bereich zu begeben. Da Mäuse sehr helle Bereiche meiden, sollte dies innerhalb weniger Sekunden geschehen. Nach einiger Zeit wird die Maus jedoch Exkursionen in den hellen Bereich starten. Auch hier kann die Zeit in den dunklen und hellen Bereichen mit Hilfe eines Videotracking-Sytems gemessen werden. Eine Erweiterung oder Fortführung dieses Experiments besteht in der Untersuchung der Maus auf dem so genannten elevated-0-maze oder elevated-zero-maze (. Abb. 9.4). Dies besteht aus einem vom Boden erhöhten Ring, der in 4 gleich große Abschnitte unterteilt ist. Dabei sind zwei gegenüberliegende Bereiche durch Wände geschützt und dunkel und zwei ebenfalls gegenüberliegende Bereiche hell und nicht geschützt. Die Maus wird sich hier zunächst in dem dunklen Teil aufhalten, in dem man sie absetzt. Nach einiger Zeit wird sie auch die offenen Arme erkunden. Erst sehr zögerlich, denn bei diesem Test kommt zur Hellig-
9.2 • Voraussetzungen für die verhaltensbiologische Untersuchung transgener Mäuse
A
Wildtyp
B
191
9
C
Knockout
. Abb. 9.4 Tests für Ängstlichkeit und Explorationsverhalten. Mit Hilfe des elevated o-maze (A,B) und des plus maze (C) kann man untersuchen, ob die Mäuse besonders ängstlich sind und ob das Explorationsverhalten normal ist. Dabei kann man mit Hilfe eines Videotracking-Systems den Weg verfolgen, den die Mäuse gelaufen sind, und somit die Zeit bestimmen, die die Mäuse in dunklen und hellen Kompartimenten verbracht haben. In (B) ist der Weg dargestellt, den eine Wildtyp-Maus und eine besonders ängstliche Knockout-Maus zurückgelegt haben. (plus maze: Mit freundlicher Genehmigung von O. Gerhartz, Berlin)
keit auch noch hinzu, dass sie sich auf einem ungeschützten Steg über einen »Abgrund« bewegen muss. Es wird ausgewertet, wie viel Zeit die Maus in welchen Bereichen verbracht hat und wie oft sie den offenen Bereich überquert, um in den gegenüberliegenden geschützten Bereich zu gelangen, und wie viel Zeit vergeht, bis die Maus zum ersten Mal den geschützten Bereich verlässt. Darüber hinaus wird ausgewertet, wie oft die Maus über den Rand nach unten schaut und wie oft sie in einer so genannten stretched-attend-Haltung beobachtet wird, die die Hin- und Hergerissenheit zwischen Annäherung und Vermeidung der offenen Bereiche ausdrückt. Die meisten Labore benutzen jedoch statt dem elevated-0-maze ein erhöhtes plus maze. Das Prin-
A
zip ist hier das gleiche, nur dass es statt aus einem erhöhten Ring aus einem erhöhten Kreuz besteht, bei dem jeweils zwei der gegenüberliegenden Arme geschützt und dunkel sind, während zwei Arme ungeschützt und hell sind. Das o-maze wurde entwickelt, um möglichen Interpretationsproblemen aus dem Weg zu gehen, zu denen es kommen kann, wenn die Maus sich viel im Zentrum zwischen den Armen aufhält, und um eine ununterbrochene Exploration zu ermöglichen. Für anschließende Lerntests ist es natürlich wünschenswert, dass Knockout- oder transgene Mäuse und ihre Wildtyp-Geschwister keine signifikanten Unterschiede zwischen den gemessenen Parametern aufzeigen. Findet man doch Unterschiede, könnte dies auch auf einen interessanten
B
. Abb. 9.5 Für open field-Untersuchungen kann man z. B. den Pool verwenden, der auch für die water maze-Experimente verwendet wird (A). Der Weg, den die Mäuse gelaufen sind, kann man mit Hilfe eines Videotracking-Systems verfolgen und die Zeit und zurückgelegte Weglänge bestimmen, die die Maus am »sicheren« Rand der Arena verbracht und »mutig« das »unsichere« Innere der Arena untersucht hat. In (B) sind schematisch der Weg einer normalen und einer ängstlichen Maus dargestellt
192
Kapitel 9 • Verhaltensbiologie
Langzeitgedächtnis
explizit (deklarativ)
semantisches Gedächtnis (Fakten)
episodisches Gedächtnis (Ereignisse)
implizit (nicht-deklarativ)
prozedurales Gedächtnis (Fähigkeiten, Gewohnheiten)
Medialer Temporallappen (inklusive Hippocampus) Dienzephalon
Striatum
Priming (Bahnung)
assoziatives Lernen (klassische und operante Konditionierung)
nicht-assoziatives Lernen (Habituation, Sensitivierung)
Reflexbögen
Neocortex emotionale Reaktion
Amygdala
Skelett Muskulatur
Cerebellum
. Abb. 9.6 Gedächtnissysteme (nach Milner et al. 1998)
9
Phänotyp hinweisen, der z. B. mit Angststörungen (anxiety disorders) oder affektiven Störungen, wie Depression und bipolaren Störungen, in Zusammenhang stehen könnte (7 Kap. 9.4).
9.3
Lernen und Gedächtnis
9.3.1
Allgemeines
Es ist soweit, eine neue Mauslinie wurde erfolgreich generiert, die Tiere sind gesund, alle Voruntersuchungen sind positiv verlaufen und es gibt starke Hinweise darauf, dass das manipulierte Gen eine entscheidende Rolle bei der Gedächtnisbildung spielt. Spätestens jetzt sollte man sich mit der Frage beschäftigen, welche Form des Lernens betroffen sein könnte und was man genau untersuchen möchte. Das Gehirn besitzt verschiedene Gedächtnissysteme (. Abb. 9.6), welche unterschiedlichen Hirnregionen zugeordnet werden können, und die unterschiedliche Informationen verarbeiten. Man unterscheidet dabei das deklarative oder explizite Gedächtnis, welches per Definition mit einem bewussten Sich-Erinnern an das Gelernte einhergeht, und das implizite oder nicht-deklarative Gedächtnis, bei dem uns das Gelernte nicht unbedingt bewusst wird. Das deklarative Gedächtnis beinhaltet das Faktenwissen (semantisches Ge-
dächtnis) und das Wissen um Ereignisse in der eigenen Vergangenheit (episodisches Gedächtnis). Zum episodischen Gedächtnis wird auch das räumliche Gedächtnis gezählt, das es uns zum Beispiel ermöglicht, uns in einer neuen Stadt relativ schnell zu orientieren. Für die Ausbildung dieser expliziten Gedächtnisinhalte sind Bereiche des medialen Temporallappens verantwortlich, vor allem aber der Hippocampus. Das implizite Gedächtnis umfasst das assoziative Lernen, wie die klassische Furchtkonditionierung, und das operante Lernen, die abhängig von der neuronalen Verarbeitung in der Amygdala sind, aber auch das prozedurale Lernen, welches dem Striatum zugeordnet wird, das cortikale Priming und das nicht-assoziative Lernen über die Reflexbögen. Für all diese Gedächtnissysteme wurden spezifische Lerntests entwickelt, wobei wir uns im Folgenden verstärkt die klassischen Tests für Hippocampus- und Amygdala-abhängiges Lernen anschauen wollen und nur kurz auf das prozedurale Gedächtnis eingehen. Neben den verschiedenen Gedächtnissystemen muss man zudem noch zwischen Lang- und Kurzeitgedächtnis unterscheiden. Beim Kurzzeitgedächtnis wird die synaptische Übertragung der Nervenzellen über kovalente Veränderungen bestehender Proteine, vor allem der Rezeptoren an der Synapse, vorrübergehend verstärkt. Dieser Effekt hält nur wenige Stunden an. Im Gegensatz dazu müssen
193
9.3 • Lernen und Gedächtnis
9
. Abb. 9.7 Water maze. Mit Hilfe des water maze testet man die Fähigkeit der Tiere sich im Raum zu orientieren. Es besteht aus einem mit Wasser gefüllten Pool, in dem sich eine für die Mäuse unsichtbare Plattform etwas unter der Wasseroberfläche befindet. Die Maus wird während des Trainings von verschiedenen Punkten vorsichtig ins Wasser gesetzt und muss sich anhand der räumlichen Markierungspunkte, oder cues, orientieren, um die Plattform zu finden. Über eine Videokamera und eine so genannte Videotracking-Software werden die Schwimmpfade aufgenommen und ausgewertet
für die Ausbildung des Langzeitgedächtnisses neue Proteine gebildet werden, die langfristig anhaltende strukturelle Änderungen an der Synapse bewirken. Im Allgemeinen wird bei Mauslinien, die neue lernrelevante Gene betreffen, eine ganze Batterie an Verhaltenstests durchgeführt. Dabei können gegebenenfalls mehrere Experimente an einem Tier durchgeführt werden, allerdings sollte die Reihenfolge der Experimente auf jeden Fall so gewählt werden, dass die Experimente, die für das Tier weniger stressvoll sind, am Anfang stattfinden. Zum Beispiel kann man zunächst alle Voruntersuchungen durchführen und danach die Tests planen, die das deklarative Gedächtnis betreffen. Dieses Vorgehen empfiehlt sich auch deshalb, weil die Tiere sowohl an den Experimentator als auch an das allgemeine Handling gewöhnt sind und der Einfluss von Stress auf die Experimente so minimiert werden kann. Bei manchen Genen kann man eventuell schon im Vorfeld abschätzen, welche Experimente sinnvoll sind. Findet man z. B. eine spezifische Expression des Gens in einer bestimmten Hirnregion wie z. B. dem Hippocampus, der Amygdala, oder dem Striatum, kann man sich zunächst auf die Lernexperimente konzentrieren, die das betreffende Gedächtnissystem involvieren.
9.3.2
Deklaratives Gedächtnis
kWater maze
Das wohl bekannteste Experiment zum deklarativen Gedächtnis ist das vor mehr als 20 Jahren von Richard Morris etablierte water maze oder auch Morris Water Maze (Morris, 1984). Ursprünglich wurde es zur Untersuchung des räumlichen Gedächtnisses von Ratten entwickelt. In der Zwischenzeit wurden die Protokolle so angepasst, dass es auch für Mäuse benutzt werden kann. Beim water maze handelt es sich um einen mit Wasser gefüllten Pool, in dem sich eine Plattform befindet, die für die Maus nicht sichtbar ist, da sie sich unter der mit Milch oder anderen Zusätzen undurchsichtig (opaque) gemachten Wasseroberfläche befindet. Die Maus wird während des Trainings von verschiedenen Orten am Rand des Pools vorsichtig ins Wasser gesetzt und muss anhand von räumlichen Orientierungspunkten die versteckte Plattform finden (. Abb. 9.7). Am Anfang schwimmt die Maus dabei an der Wand des Pools entlang, bis sie sich nach einigen Versuchen traut, die schützende Wand zu verlassen und mehr im Zentrum die Plattform zu suchen. Hat sie die Plattform einmal gefunden, wird der Weg, den sie schwimmt, bzw. die Zeit,die sie braucht, um die rettende Plattform zu finden, mit zunehmendem Training kürzer. Um die Genauigkeit des räumlichen Gedächtnisses zu testen, wird die Plattform für einen Testtrial entweder entfernt oder an einen
194
Kapitel 9 • Verhaltensbiologie
thigmotactic
random
scanning
chaining
focal
direct räumliche Strategien
9
. Abb. 9.8 Schwimmstrategien. Schematisch dargestellte Schwimmpfade der Mäuse beim Erlernen der Plattformposition. Die Mäuse benutzen verschiedene Strategien, um die Plattformposition zu erlernen. Zunächst schwimmen sie immer an der Wand lang (wall hugging oder thigmotactic). Nach einer Weile erkunden sie unsystematisch auch die zentraleren Bereiche des Pools (random) und beginnen zunehmend systematischer die Plattform zu suchen (scanning). Manche Tiere schwimmen in konzentrischen Kreisen in einem bestimmten Abstand zur Wand (chaining), wodurch sie automatisch irgendwann auf der Plattform landen. Diese nicht-räumlichen Strategien werden nach zunehmender Trainingszeit von räumlichen Strategien abgelöst, die sich in einem gezielten Suchen in der Umgebung der Plattform (focal) und dem direkten zur-Plattform-Schwimmen zeigen (direct) (Lipp und Wolfer, 1998; Wolfer et al. 1998)
anderen Ort, meist die gegenüberliegende Seite, gestellt. Man misst dann die Zeit, die die Maus sich um die gelernte Plattformposition herum aufhält, bzw. wie oft sie diese Position überquert. Zusätzlich kann man in weiteren Trainingstrials untersuchen, wie schnell die Maus die neue Plattformposition erlernt. In den meisten Fällen wird entweder der Schwimmpfad oder die Zeit, welche die Maus zum Auffinden der Plattform benötigt, zwischen den Wildtyp- und Knockout- bzw. transgenen Tieren verglichen. Hierzu werden ebenfalls so genannte Videotracking-Systeme benutzt. Mit solch einem System kann man den gesamten Schwimmpfad der Mäuse aufzeichnen und neben der Zeit oder dem Weg, den die Maus zurückgelegt hat, auch eine Reihe von anderen Schwimmpfadmustern berechnen lassen. David Wolfer und Kollegen haben diese Auswertung erweitert, indem sie über die Analyse der Schwimmpfade von mehreren tausend Mäusen verschiedene Schwimmstrategien identifizierten, die Mäuse verwenden, während sie die Plattform-
position erlernen (Wolfer 1998, Lipp und Wolfer, 2001, Plath 2006) (. Abb. 9.8). Wildtyp-Mäuse schwimmen, wie schon erwähnt, am Anfang an der Wand lang, was als Thigmotaxis bezeichnet wird. Diese Strategie wird dann relativ schnell durch ein zufälliges Suchen ersetzt (random) und verändert sich weiter zu einem gezielteren Suchen (scanning). Manche Mäuse schwimmen auch einfach in einem bestimmten Abstand zur Wand (chaining) und treffen dann automatisch auf die Plattform. Alle bisher genannten Strategien sind keine räumlichen Strategien. Wenn die Mäuse die Plattformposition erlernt haben, suchen sie entweder ganz gezielt an einem Ort (focal) oder schwimmen von jedem Ort direkt zur Plattform (spatial oder direct). Erst über die detaillierte Analyse der Schwimmpfade kann man herausfinden, ob eine Maus wirklich räumliche Strategien benutzt, oder eventuell mit anderen Strategien, wie z. B. dem chaining, die Plattformposition lokalisieren kann. Die Analyse der Schwimmstra-
195
9.3 • Lernen und Gedächtnis
9
. Abb. 9.9 Barnes maze. Das Barnes maze stellt eine trockene Version des water maze dar. Hier muss die Maus über räumliche Merkmale ein Loch finden, unter dem sich eine Box befindet, in welche sie sich vor der hell erleuchteten Oberfläche retten kann
tegien ist etwas komplizierter und sollte in Zusammenarbeit mit den Experten durchgeführt werden. Das Programm für die Analyse kann man zwar als Freeware aus dem Netz herunterladen (http://www. dpwolfer.ch/wintrack/Pub/Pub.htm), die Analyse benötigt jedoch spezielle Skripte für die Ausführung. Bei der Durchführung von water maze-Experimenten muss man darauf achten, dass sich die cues, also die Orientierungspunkte im Raum, nicht verändern. Man lässt die Maus, nachdem sie die Plattform gefunden hat, kurz darauf sitzen, damit sie eine Chance hat, sich den Raum und die cues einzuprägen. Findet die Maus die Plattform nicht, bricht man den Durchgang nach spätestens zwei Minuten ab und leitet sie zur Plattform hin. Nachdem die Maus zu Wasser gelassen wurde, sollte sie den Experimentator nicht sehen können, denn obwohl er der Böse ist der die arme Maus ins Wasser setzt, ist er auch derjenige, der die Maus wieder aus dem kühlen Nass herausholt. Es passiert daher häufig, dass die Maus lieber Richtung Experimentator schwimmt als sich auf den Ort, an dem die Plattform steht, zu konzentrieren. Man sollte die Maus auch nicht am Schwanz festhaltend zu Wasser lassen, sondern ihr die Möglichkeit geben, aus einem Plastikgefäß herauszuschwimmen. Um die Maus wieder von der Plattform herunterzuholen, eignet sich ein langer Stab mit einem gitterartigen Ende, damit sich die Maus daran festhalten kann.
Manchmal sind die Mäuse so freudig erregt, wieder aus dem Wasser herauszukommen, dass sie in hohem Bogen dem erlösenden Gitter entgegenspringen, wenn man dieses nähert, was leider häufig zur Folge hat, dass sie ungewollt nochmal ins Wasser plumpsen, ein Vorgang der beim Experimentator liebevolles Mitgefühl auslösen muss, denn nasse Mäuse sehen einfach zu drollig aus. Damit den nassen Mäusen nicht zu kalt wird, sollte man sie nach jedem Schwimmdurchgang kurz unter eine Wärmelampe setzen. Das water maze ist jedoch nicht bei allen Forschern gleichermaßen beliebt. Kritiker werfen ein, dass schwimmen für Mäuse im Gegensatz zu Ratten nicht zum natürlichen Verhaltensrepertoire gehört und die Mäuse während des Trainings daher großem Stress ausgesetzt sind, welcher sich negativ auf ihre Performance und die zu detektierenden Effekte auswirken könnte. Trotzdem wurde das water maze in sehr vielen Studien erfolgreich angewendet, und es gehört auch heute noch zu den am häufigsten verwendeten Verhaltenstests, wenn das räumliche Lernen von transgenen und Knockout-Mäusen untersucht werden soll. kBarnes maze
Eine »Landversion« des water maze, welches dem natürlichen Verhalten von Mäusen näher kommt, ist das so genannte Barnes maze. Es wurde zwar ur-
196
Kapitel 9 • Verhaltensbiologie
. Abb. 9.10 Radial maze. Mit Hilfe des radial maze wird das räumliche Arbeitsgedächtnis untersucht. Da die Maus ungern auf die frei schwebenden Armen läuft, um sich eine Futterbelohnung abzuholen, wird sie versuchen, jeden Arm nur einmal zu besuchen. Daher muss sie sich genau merken, welchen Arm sie schon besucht hat. (Mit freundlicher Genehmigung von O. Gerhartz, Berlin)
9
sprünglich 1979 von Carol Barnes für Ratten entwickelt, ist aber für Mäuse besonders gut geeignet, da Mäuse natürlicherweise sehr gut darin sind, kleine Löcher zu finden, in die sie sich retten können (Barnes, 1979). Das Barnes maze für Mäuse besteht aus einer runden erhöhten Platte oder einem Tisch, an dessen Rand sich in gleichmäßigen Abständen 20 Löcher mit einem Durchmesser von 5 cm befinden (. Abb. 9.9). Unter einem der Löcher befindet sich ein Tunnel, der zu einer Zielbox führt, in die sich die Maus flüchten kann. Um die Maus zu motivieren, das Fluchtloch zu finden, sollte die Plattform am besten hell erleuchtet sein. Zusätzlich kann man laute Geräusche verwenden, die sofort abgestellt werden, sobald die Maus die Zielbox erreicht hat. Die Maus wird aus einer undurchsichtigen Box auf die Plattform entlassen und muss dann anhand der räumlichen Orientierungspunkte das Fluchtloch finden. Auch hier kann man zum einen die Zeit messen, welche die Maus benötigt, um die die Zielbox zu finden, oder die Pfadlänge, die sie gelaufen ist, und die Geschwindigkeit, mit der sie sich bewegt. Des Weiteren sollte man festhalten, wie oft die Maus ihre Nase in ein falsches Loch steckt. Auch für dieses Paradigma wurden verschiedene Suchstrategien beschrieben: spatial bedeutet die Maus läuft direkt zum Loch mit der Zielbox, mixed, die Maus läuft unorganisiert von einem Punkt zum nächsten und überquert dabei häufig das Zentrum der Plattform, serial, bevor die Maus das Loch mit der Zielbox aufsucht, werden
hintereinander mindestens zwei benachbarte Löcher im oder gegen den Uhrzeigersinn aufgesucht. Darüber hinaus kann man wie beim water maze nach einer gewissen Zeit einen Testtrial durchführen, indem man das Loch mit der Zielbox an einen anderen Ort, meist die gegenüberliegende Seite, positioniert. Auch hier wird die Anzahl an falsch besuchten Löchern verglichen und die benötigte Zeit zum Auffinden des Ziellochs festgehalten. Falls der Experimentator im Raum sein muss, um die Anzahl an falsch besuchten Löchern zu notieren, wird er selbst zum räumlichen Orientierungspunkt und sollte daher darauf achten, dass er sich immer an genau derselben Stelle im Raum befindet und möglichst gleich aussieht (Laborkittel). kRadial maze
Das radial maze bietet eine weitere Alternative, um das räumliche Gedächtnis zu testen. Es besteht aus einer zentralen Plattform, die sich mindestens 1 m über dem Boden befindet, und an der acht Arme befestigt sind (. Abb. 9.10). Während des Trainings wird die Maus auf die zentrale Plattform gesetzt und kann sich dann am Ende eines jeden Armes eine nicht sichtbare Futterbelohnung abholen. Da die Maus eher ungern auf die ungeschützten Arme hinausgeht, wird sie versuchen, keinen der Arme zweimal zu besuchen. Um dies zu bewerkstelligen, muss sie die erlernte räumliche Information flexibel für jeden Versuchsdurchgang neu anpassen. Aufgrund dieser Anforderung wird das radial maze
197
9.3 • Lernen und Gedächtnis
auch als Test für das räumliche Arbeitsgedächtnis angesehen. Manche Mäuse neigen dazu, einfach einen Arm nach dem anderen zu besuchen. Da es sich hierbei nicht um eine räumliche Strategie handelt, versucht man solches Verhalten zu unterbinden, indem man die Maus zwingt, für einige Sekunden im Zentrum zwischen den Armen zu verbleiben. Man kann hierfür Systeme verwenden, bei denen alle Arme des radial maze zwischen den Armbesuchen durch automatisierte Türen verschlossen werden. Da die Maus nicht still sitzt, sondern sich auf der Plattform hin und her bewegt, hat sie schnell vergessen, welchen Arm sie zuvor besucht hat, und muss sich, wenn die Türen geöffnet werden, anhand der räumlichen Markierungen neu orientieren. Beim Kauf eines solchen Geräts sollte man darauf achten, dass die Sicht der Maus nicht zu stark durch die Türen beeinträchtigt wird, da es sonst Probleme mit der räumlichen Orientierung geben könnte. Um die Motivation zu erhöhen, die Pellets von den Armen zu holen, kann man die Tiere auf Diät setzen. Die Stärke der Gewichtsreduktion kann dabei von Labor zu Labor sehr variieren. Während einige Experimentatoren den Tieren nur wenige Stunden vor dem Experiment das Futter wegnehmen, reduzieren andere das Gewicht der Tiere auf bis zu 15 % des ursprünglichen Körpergewichts. kT-maze
Das T-maze-Paradigma wird benutzt, um das Explorationsverhalten von Nagetieren zu untersuchen. Dabei wird das Tier auf einen Startarm gesetzt und kann dann einen von 2 Armen besuchen. Hat sie die Wahl, wird die Maus beim nächsten Durchgang häufiger den noch nicht besuchten Arm auswählen, was als Zeichen der Bereitschaft, neue Umgebungen zu explorieren, gewertet wird. Da eine gewisse räumliche Orientierungsfähigkeit für diesen Test von Nöten ist, kann man ihn auch einsetzen, um das räumliche Arbeitsgedächtnis zu testen. Hierbei werden die Zeiträume zwischen den beiden Durchgängen verlängert, um die Stärke des räumlichen Gedächtnisses zu testen. Grundsätzlich unterscheidet man zwei Variationen des Tests. Entweder man zwingt die Maus, beim ersten Durchgang einen bestimmten Arm zu besuchen, indem man den 2. Arm verschließt, two-trial-for-
9
ced-procedure, oder man lässt die Maus beim ersten Durchgang bereits selbst entscheiden, welchen Arm sie besuchen möchte, free-choice-procedure. Generell funktioniert der Test besser, wenn die Maus beim ersten Durchgang gezwungen wird, einen bestimmten Arm zu besuchen, und man sie nötigt, einige Zeit auf diesem Arm zu verbringen. Anscheinend erhöht dieses Vorgehen die Motivation, neue Umgebungen zu erkunden. Durch das Vorgeben eines bestimmten Arms kann man auch ausschließen, dass die Wahl des Arms durch gewisse räumliche Vorlieben beeinflusst wird. Durch Stress und erhöhte Ängstlichkeit nimmt die Alternierungsrate, also die Häufigkeit, beim 2. Durchgang den unbekannten Arm zu besuchen, deutlich ab. So kann der Test auch eingesetzt werden, um die Ängstlichkeit und das generelle Explorationsverhalten zu untersuchen. Möchte man das räumliche Gedächtnis testen, wird man feststellen, dass die Alternierungsrate abnimmt, wenn man den Zeitraum zwischen den Durchgängen verlängert. Bei räumlichen Untersuchungen sollte man unbedingt darauf achten, dass die Armwahl nicht durch Geruchsmarkierungen beeinflusst wird. kObjekterkennungslernen
Das Erkennen von Objekten, auch als novel object recognition bezeichnet, wird auch zu den deklarativen Gedächtnisformen gezählt, ist aber im Gegensatz zur räumlichen Orientierung nach neueren Erkenntnissen eher abhängig von der Funktion des entorhinalen Cortex, der auch Teil des medialen Temporallappens ist und direkte Verbindungen zum Hippocampus besitzt. Gegenstand des Tests ist die Fähigkeit, neue von schon bekannten Objekten zu unterscheiden. Als Maß gilt die Zeit, die sich eine Maus mit einem neuen im Vergleich zu einem (oder mehreren) bekannten Objekten beschäftigt. Versuchsprotokolle können dabei stark variieren, haben aber alle gemeinsam, dass die Maus zunächst an die Arena, in der die Experimente stattfinden, gewöhnt wird (Habituation), dann in einem oder mehreren Durchgängen mit zwei oder mehreren Objekten konfrontiert wird. In einem Testdurchgang wird ein bekanntes durch ein neues Objekt ersetzt und man misst die Zeit, die sich die Maus mit dem neuen im Vergleich zu den alten Objekten beschäftigt (. Abb. 9.11). Man
198
A
Kapitel 9 • Verhaltensbiologie
B
Training
Test
. Abb. 9.11 Novel object recognition. Beim novel object recognition-Test wird überprüft, ob Mäuse bekannte von neuen Objekten unterscheiden können. Für den Test sollten Objekte ungefähr gleicher Größe, aber unterschiedlicher Form benutzt werden, die z. B. aus Lego gebaut werden können (A). In einer Trainingsphase werden den Mäusen 3 Objekte präsentiert. Beim Test wird ein bekanntes durch ein neues Objekt ersetzt, und man misst die Zeit, welche die Maus mit dem neuen im Vergleich zu den alten Objekten verbringt (B). Der Zeitraum zwischen letztem Training und Test kann variiert werden, je nachdem, ob man das Kurz- oder Langzeitgedächtnis untersuchen möchte.
9
kann dann die Explorationszeit des neuen Objekts in Abhängigkeit von der Zeit, die die Maus mit den alten Objekten verbracht hat, darstellen. Als Objekte werden unterschiedliche Gegenstände vorgeschlagen. Viele Wissenschaftler verwenden Objekte ungefähr gleicher Größe (5–10 cm) aus Materialien mit unterschiedlichen Oberflächen wie Stein, Holz oder Plastik. Bei uns haben sich Objekte aus Lego in unterschiedlichen Farben und Formen bewährt (. Abb. 9.11). Man sollte jedoch auf jeden Fall darauf achten, dass man die Tiere in Gruppen einteilt und für jede Untergruppe ein anderes Objekt als neues Objekt verwendet wird. So kann man verhindern, dass man die Explorationszeiten aufgrund einer Objektpräferenz fehlinterpretiert. Der Vor-, aber gleichzeitig auch der Nachteil dieses Tests ist, dass als Motivation nur die »Neugier« der Mäuse dient. Das ist schön, weil man die Maus weder stressen, noch verängstigen, noch futterdeprivieren muss, allerdings erfordert er auch, dass die Maus den Experimentator, den Raum und die Arena gut kennt und sie das erforderliche Handling nicht verängstigt oder stresst, denn eine ängstliche Maus wird keine Objekte erkunden, sondern sich in irgendeiner Ecke verkriechen.
9.3.3
Nicht-deklaratives Gedächtnis
kKlassische Furchtkonditionierung
Die Furchtkonditionierung ist das bekannteste und am häufigsten genutzte Experiment zur Untersu-
chung des impliziten Gedächtnisses und wird der klassischen Konditionierung zugeordnet. Das Prinzip der klassischen Konditionierung wurde von dem russischen Wissenschaftler Iwan Petrowitsch Pawlow (1849–1936) entdeckt, der die Hypothese aufstellte, dass Verhalten auch auf Reflexen beruhen kann. Dabei unterschied er zwischen natürlichen und so genannten konditionierten, also durch Lernen erworbenen Reflexen. Sein berühmtestes als »Pawlowscher Hund« bekanntes Forschungsvorhaben beruhte darauf, dass er Hunden immer kurz vor der Nahrungsaufnahme einen Ton vorspielte und so nach einiger Zeit alleine durch den Ton den Speichelfluss bei den Hunden auslösen konnte. Er hatte somit durch die gleichzeitige Präsentation von Nahrung und Ton einen neuen Reflex antrainiert (konditioniert), nämlich den Speichelfluss als Reaktion auf den Ton. Dabei bezeichnete er die Nahrung als unkonditionierten Stimulus (US) und den Speichelfluss als unkonditionierte Reaktion (UR). Nach häufiger gleichzeitiger Präsentation des als konditionierten Stimulus (CS) bezeichneten Tons mit dem US, Nahrung, erfolgt schon bei Präsentation des CS, die sogenannte konditionierte Reaktion (CR), Speichelfluss. Die Konditionierungsexperimente für die Mäuse folgen dabei demselben Prinzip. Hier wird ein Ton (CS) mit einem milden Fußschock (US) gepaart. Bei anschließender Präsentation des Tons kann dann das Verhalten hervorgerufen werden, welches normalerweise auf den Fußschock folgt, nämlich das so genannte freezing. Freezing bedeutet, dass die
199
9.3 • Lernen und Gedächtnis
Mäuse nahezu bewegungslos verharren, wie eingefroren. Neben Fluchtverhalten zählt freezing zum natürlichen Verhaltensrepertoire, das bei Furcht ausgelöst wird. Ob eine Maus versucht zu fliehen oder sich durch Unbeweglichkeit »unsichtbar« zu machen, hängt unter natürlichen Bedingungen davon ab, ob sie die Möglichkeit zur Flucht hat und wie weit der Feind, z. B. ein Greifvogel, entfernt ist. In Furchtkonditionierungsexperimenten zeigt die Maus in den meisten Fällen eher eine freezingReaktion. Das Erlernen der Ton-/Fußschock-Assoziation ist abhängig von der Verarbeitung in der Amygdala. Neben der Ton-/Fußschock-Assoziation wird auch eine Assoziation zum Kontext gelernt, in dem die Konditionierung stattfindet. Die Kontext-/Fußschock-Assoziation ist dabei nicht nur von der Amygdala, sondern auch von der Verarbeitung im Hippocampus abhängig. Für Furchtkonditionierungsexperimente werden kommerziell erhältliche Boxen benutzt, die mit Licht, Lautsprechern und vor allem einem Metallgitter, über das man den Fußschock übertragen kann, ausgestattet sind. Entscheidend für die Experimente ist die zeitliche Nähe zwischen Ton und Fußschock. Meist lässt man den Schock mit dem Ende des Tons überlappen. Ein Versuchsprotokoll könnte dann folgendermaßen aussehen: Die Maus wird in die Box gesetzt und nach ca. 2 Minuten (diese Zeit ist wichtig für die Kontextassoziation) beginnt die Tonpräsentation. Der Ton dauert ca. 20 Sekunden und nach 18 Sekunden beginnt der Fußschock, der zusammen mit dem Ton nach weiteren 2 Sekunden beendet wird. Je nach Protokoll werden ein oder mehrere Ton-/ Schock-Präsentationen angeboten. Danach kommt die Maus zurück in ihren Käfig. Der Test für das implizite Gedächtnis kann entweder nach 24 Stunden oder auch zu einem früheren oder späteren Zeitpunkt durchgeführt werden. Um das Hippocampus-abhängige Gedächtnis zu testen, wird die Maus noch einmal in die Konditionierungsbox gesetzt und man misst die Zeit, in der die Maus bewegungslos verharrt. Möchte man die Ton-/Fußschock-Assoziation testen, modifiziert man die Box so weit, dass die Maus sie nicht mit dem Trainingskontext in Zusammenhang bringt und spielt ihr dann den gelernten Ton vor, um die freezing-Rate während der Tonpräsentation zu bestimmen (. Abb. 9.12).
9
A
B
C
. Abb. 9.12 Klassische Furchtkonditionierung (fear conditionig). (A) Die Maus wird für die Konditionierung in eine Box gesetzt und erhält am Ende der Präsentation eines Tons über ein Gitter einen leichten Fußschock. (B) Um die Erinnerung an den Kontext, in dem die Konditionierung stattgefunden hat, zu testen, wird die Maus nach einem definierten Zeitintervall erneut in die Box gesetzt. Über die freezing-Rate kann dann die Stärke der Konditionierung getestet werden. (C) Um die Erinnerung an den gelernten Ton zu testen, wird die Maus in eine neue Umgebung gesetzt und bekommt erneut den gelernten Ton vorgespielt. (Mit freundlicher Genehmigung von O. Gerhartz, Berlin)
200
9
Kapitel 9 • Verhaltensbiologie
Die Protokolle für die Versuchsdurchführung können leicht variieren. Vor allem die Anzahl an Ton-/ Schock-Präsentationen, die Tonfrequenz und die Schockstärke werden unterschiedlich gewählt. Verwendet man mehrere Ton-/Schock-Präsentationen sollte die freezing-Rate während der aufeinander folgenden Tonpräsentationen steigen und man kann somit überprüfen, ob die Tiere bereits beim Erlernen der Assoziation Unterschiede im Verhalten zeigen. Für die Ermittlung der freezing-Rate werden Systeme angeboten, die angeblich vollautomatisch über Lichtschranken oder Tracking-Software die Zeit bestimmen können, in der die Mäuse bewegungslos verharren. Dies empfiehlt sich jedoch nur für einen ersten Screen, denn die Erfahrung zeigt, dass die Auswertung eines trainierten Experimentators meist verlässlicher ist. Für die manuelle Auswertung werden Videofilme aufgenommen, die nach Beendigung des Experiments von einem oder besser zwei unabhängigen und trainierten Experimentatoren ausgewertet werden. Extrem wichtig ist dabei, dass die Person, die die Filme auswertet, keine Informationen über die Versuchsgruppen hat, also z. B. nicht weiß, welche Tiere welchen Genotyp haben, denn leider neigt man, auch wenn man noch so objektiv sein möchte, immer dazu das zu beobachten, was der eigenen Hypothese entspricht. Als interne Kontrolle wird für jedes Tier die freezing-Rate bestimmt, die sie in der Box vor der Konditionierung zeigt. Hiermit kann überprüft werden, ob die Maus eventuell auch ohne Konditionierung bereits Furchtreaktionen zeigt. Weiterhin macht es Sinn, sich nicht nur die freezing-Rate anzuschauen, sondern auch andere Verhaltensweisen auszuwerten, wie z. B. Fluchtreaktionen, Explorations- und Putzverhalten usw., um ein umfassenderes Bild und eine genauere Beurteilung der Experimente zu gewährleisten. kConditioned taste aversion oder antrainierte Geschmacksaversion
Auch die antrainierte Geschmacksaversion beruht auf einem natürlich Reflex der Mäuse. Sie dient der Vermeidung von Nahrung, die giftig oder unverträglich ist. Nimmt man Nahrung auf und es kommt kurz danach zu Übelkeit, so erlernt man diesen Geschmack und wird in Zukunft Nahrung mit diesem Geschmack vermeiden. Dies ist ein Verhalten, wel-
ches man durchaus auch an sich selbst beobachten kann. Die Autorin konnte zum Beispiel jahrelang kein indisches Essen mehr genießen, da sie nach einem Besuch eines indischen Restaurants an einer Darmgrippe erkrankte. Der arme Inder konnte nichts dafür, denn das angebotene Essen war zweifellos einwandfrei. Dennoch assoziiert man automatisch die letzte zu sich genommene Mahlzeit mit der Übelkeit. Auf demselben Prinzip basiert auch der Test an den Mäusen. Hier wird ein neuer Geschmack, in den meisten Fällen eine Zucker- oder Saccharinlösung, mit Übelkeit assoziiert, die über die Injektion von Lithiumchlorid künstlich ausgelöst wird. Auch in diesem Fall hat die Zuckerlösung selbst nicht die Übelkeit verursacht, dennoch wird der neue Geschmack mit der Übelkeit assoziiert. Wichtig für eine erfolgreiche Konditionierung ist, dass die Tiere eine ausreichend große Menge der Lösung mit dem neuen Geschmack aufnehmen. Daher werden sie in den Tagen vor der Konditionierung zunächst darauf trainiert, dass sie nur zu bestimmten Zeiten Wasser trinken dürfen. Das Wasser wird am besten in zwei Flaschen angeboten, und man lässt die Tiere zu festen Zeiten einmal am Morgen und einmal am Nachmittag trinken. Die Flaschen und die Mäuse werden gewogen, um die Flüssigkeitsaufnahme und den Gewichtsverlust der Tiere zu kontrollieren. Es eignen sich 15 ml-Plastikgefäße (Falcon), bei denen man den die Spitze mit einem glatten Schnitt entfernt. Wichtig ist, dass die Flaschen nicht tropfen und die Mäuse sich beim Trinken nicht verletzen. Am Tag der Konditionierung bietet man den Tieren nur eine Flasche mit einer Zucker-, oder besser Saccharinlösung an. Eine Stunde später werden die Tiere mit einer Lithiumchloridlösung injiziert. Normalerweise geht es den Tieren zwar nur kurze Zeit nicht gut, ein Test am selben Tag eignet sich jedoch nicht so gut, da die Tiere meist die Trinkflaschen ganz vermeiden und noch keine stabile Geschmacksaversion ausgebildet haben. Ab dem nächsten Tag kann man mit dem Test beginnen, indem den Tieren zwei Flaschen angeboten werden, eine mit Wasser und eine mit Zuckerlösung. Normalerweise würden die Mäuse die süße Lösung bevorzugen, da sie aber gelernt haben, dass ihnen von Nahrung mit solchem Geschmack schlecht wird, vermeiden sie die süße Lösung und
9.3 • Lernen und Gedächtnis
trinken lieber Wasser. Man bestimmt dann den Anteil an Zucker- oder Wasserlösung in Relation zur gesamten aufgenommenen Flüssigkeitsmenge. Die Geschmacksaversion ist eine sehr starke Konditionierung, die meist sehr lange hält und nur schwer auszulöschen ist. Man kann die Tiere daher mehrfach und auch nach langen Zeiträumen testen. An der Verarbeitung der Geschmacksinformation und der Ausbildung der Geschmacksaversion sind neben der Amygdala auch andere Hirnregionen beteiligt. Zu diesen gehören der Kern des Tractus solitarius, der Nucleus parabrachialis, der ventrale posteromediale Nucleus und der Geschmackscortex (Insular Cortex). kCross maze und das prozedurale Gedächtnis
Das cross maze wird häufig benutzt, um das prozedurale Gedächtnis zu testen. Das prozedurale Gedächtnis wird nach Milner dem nicht-deklarativen Gedächtnis zugeordnet (. Abb. 9.6). Es wird als Speicher für Bewegungsabläufe angesehen und umfasst das Lernen von Fertigkeiten und Gewohnheiten. Dinge, die wir im prozeduralen Gedächtnis abgespeichert haben, führen wir automatisch ohne bewusste Erinnerung durch. Es kann sogar passieren, dass das bewusste Abrufen des Handlungsblaufes die Durchführung eher stört und zu einer verschlechterten Leistung führt. Ein gutes Beispiel für prozedurales Lernen ist das Erlernen des Fahrrad- oder Autofahrens. Zunächst müssen Bewegungsabläufe bewusst einstudiert werden, nach einer Weile werden diese Prozesse automatisch durchgeführt. Dinge, die im prozeduralen Gedächtnis abgespeichert sind, werden schwer vergessen, und es erfordert ein aktives Umlernen, um manche Gewohnheiten abzulegen oder Handlungsprozesse anzupassen. Es dauert zum Beispiel eine ganze Weile, bis man als geübter Rechtsfahrer, der sich auf britischen Straßen mit einem englischen Wagen bewegt, nicht mehr automatisch mit der rechten Hand den Schalthebel bedienen möchte. Hirnregionen, die bei der Ausbildung dieser Gedächtnisform eine Rolle spielen, sind motorische Gebiete, wie z. B. das Kleinhirn, aber auch cortikale Regionen, die an der sensorischen Wahrnehmung beteiligt sind. Vor allem wird das prozedurale Gedächtnis aber dem Striatum als Teil der Basalganglien zugeordnet.
201
9
Das cross maze oder X-maze (. Abb. 9.13) besteht aus vier Armen, die mindestens einen Meter über dem Boden angeordnet sind und damit dem elevated-plus-maze und dem T-maze ähnelt. Im Gegensatz zum plus maze besitzt es jedoch keine verdunkelten Arme und alle Arme müssen durch Türen absperrbar sein. Es ist ein Paradigma mit dem man relativ einfach räumliche von nicht räumlichen, prozeduralen Suchstrategien unterscheiden kann. Man spricht hier auch von allozentrischer und egozentrischer Orientierung. Als allozentrisch bezeichnet man die Orientierung an äußeren räumlichen Merkmalen, wie z. B. das Suchen der Plattform beim water maze anhand räumlicher Orientierungspunkte (7 Kap. 9.3.2). Im Gegensatz dazu kann man sich auch über die eigene Position im Raum und innere Koordinaten orientieren (egozentrische Orientierung). So weiß ein blinder Mensch z. B. bei bekannten Wegen, nach welcher Strecke oder nach wie vielen Schritten eine Abzweigung kommt und ob er dann links oder rechts abbiegen muss. Während die allozentrische Orientierung von der Verarbeitung im Hippocampus abhängt, spielt für die egozentrische Orientierung die Verarbeitung im Striatum eine übergeordnete Rolle und sie wird dem prozeduralen Gedächtnis zugeordnet. Für die Durchführung dieses Experiments müssen die Mäuse hungrig sein, denn sie sollen Futterstückchen am Ende der jeweiligen Arme suchen. Es gibt einen Startarm und zwei Zielarme. Hat man ein X-maze mit vier Armen ist der vierte Arm während des Trainings geschlossen und wird erst für den Testdurchlauf geöffnet. Für das Training, bei dem man zwischen allozentrischen und egozentrischen Strategien unterscheiden möchte, sollten im Raum Orientierungspunkte angebracht sein. Die Maus wird auf den Startarm gesetzt und erhält nur auf einem z. B. dem rechten Arm eine Futterbelohnung. Die Arme können durch Türen verschlossen werden. Begibt sie sich in den richtigen Arm, wird die Tür hinter ihr verschlossen und sie darf in Ruhe die Futterbelohnung fressen. Entscheidet sie sich für den falschen Arm, wird die Tür auch geschlossen und die Maus muss in diesem Arm für 15 Sekunden verweilen, bevor sie zurück in ihren Käfig gesetzt wird. Nach einem moderaten Training von ca. sieben Tagen und vier Durchgän-
202
A
Kapitel 9 • Verhaltensbiologie
B
response
C
9
place
D
. Abb. 9.13 Cross maze. Das cross maze kann benutzt werden, um allozentrische von egozentrischer Orientierung zu unterscheiden (A+B), oder um die Fähigkeit zur Ausbildung einer Gewohnheit zu untersuchen (C+D). (A) Die Mäuse werden darauf trainiert, immer auf einem Arm, also z. B. immer rechts der Startplattform eine Futterbelohnung zu erhalten. (B) Bei einem Testdurchgang wird die Plattform um 180° gedreht. Suchen die Mäuse immer noch den rechten Arm auf, so orientieren sie sich nach inneren Koordinaten, man spricht dann von egozentrischer Orientierung. Orientieren sie sich aber nach den im Raum angebrachten Orientierungsgpunkten oder cues, so zeigen sie eine allozentrische, also nach außen gerichtete räumliche Orientierung. (C) Um die Ausbildung einer Gewohnheit zu testen, werden die Mäuse sehr viel ausgiebiger trainiert. Die Belohnung befindet sich auch hier immer auf einem Arm, hier wieder dem rechten. Die Startplattform wird während des Trainings in zufälliger Reihenfolge verändert. (D) Um die ausgebildete Gewohnheit zu testen, wird nach einiger Zeit die Futterbelohnung weggelassen und man schaut, wie lange die Tiere noch den trainierten Arm aufsuchen. (Mit freundlicher Genehmigung von S. Miceli, Berlin)
gen pro Tag sollten die Mäuse bei einem Testdurchgang, bei dem sie von der gegenüberliegenden Seite starten müssen, eine räumliche Strategie verfolgen, was bedeutet, dass sie die gleiche Richtung wählen, die beim Training belohnt wurde (place learning). Mäuse, die sich egozentrisch orientieren, würden sich hingegen in dieselbe Richtung wie beim Training bewegen, das heißt sind sie vorher rechts abgebogen, werden sie dies auch jetzt tun und würden somit auf dem bisher nicht belohnten Arm landen (response learning) (. Abb. 9.13). Möchte man gezielt das Striatum-abhängige prozedurale Gedächtnis testen, müssen die Mäuse länger trainiert werden, zudem wird die Startplattform bei jedem Durchgang geändert und die Maus erhält die Belohnung immer nur entweder auf dem Arm rechts oder links des Startarms. Zudem werden hier die räumlichen Strategien unterbunden,
indem man das X-maze mit dunklen Vorhängen umgibt. Um die Stärke der gelernten Gewohnheit zu testen, kann man die Futterbelohnung nach einiger Zeit weglassen und man misst, wie lange es dauert, bis die Maus beide Arme mit einer Wahrscheinlichkeit von nur 50 % aufsucht.
9.4
Neurologische Erkrankungen
9.4.1
Allgemeines
Unter dem Begriff »neurologische Erkrankungen« fasst man eine Vielzahl verschiedener Krankheiten zusammen, die entweder das zentrale (Gehirn und Rückenmark) oder das periphere (Nervenfasern außerhalb des Wirbelkanals) Nervensystem betreffen. Zu den häufigeren neurologischen Erkran-
203
9.4 • Neurologische Erkrankungen
kungen des zentralen Nervensystems zählt man z. B. Morbus Parkinson, Epilepsie, Multiple Sklerose, Alzheimer-Demenz, Schlaganfall, Migräne und Tinnitus, aber auch psychische Erkrankungen wie Depressionen, Schizophrenie, Angststörungen und Autismus. Zu den Erkrankungen des peripheren Nervensystems zählen Muskelerkrankungen (Muskeldystrophie und Myotonie), Motoneuronenerkrankungen (amyotrophe Lateralsklerose und spirale Muskelatrophie) und Störungen der neuromuskulären Übertragung (Myasthenie). Bei vielen dieser Erkrankungen werden Tiermodelle eingesetzt, die unter anderem durch verhaltensbiologische Untersuchungen zum Verständnis der Entstehung und Ursachen der Störung, aber auch zur Entwicklung neuer Therapieformen beitragen. Auch in diesem Bereich hat die Etablierung neuer Mauslinien durch gentechnische Manipulationen, die entweder einen mit der menschlichen Erkrankung vergleichbaren Genotyp besitzen oder zumindest phänotypische Parallelen mit dieser aufweisen, die Forschung um große Schritte vorangebracht. Inwieweit sind jedoch an Tiermodellen gewonnene Daten auf den Menschen übertragbar? Um ein Tiermodell diesbezüglich zu prüfen, legen Forscher verschiedene Kriterien an, um eine Aussage über die Validität (validity), also die Gültigkeit (Testgüte) einer Untersuchung oder eines Tiermodells zu machen. Die drei Hauptkomponenten der Validität bei der Anwendung von Tiermodellen zur Untersuchung menschlichen Verhaltens bestehen in der Augenscheinvalidität (face validity), der Konstruktvalidität (construct validity) und der Vorhersagevalidität (predictive validity). Ein Modell besitzt Augenscheinvalidität, wenn im Tiermodell dasselbe Verhalten wie bei erkrankten Menschen beobachtet werden kann. Zum Beispiel verbringen Mausmodelle für Autismus weniger Zeit mit sozialer Interaktion, ebenso wie es bei autistischen Menschen zu einer verminderten Interaktion mit anderen Menschen kommt. Konstruktvalidität bedeutet, dass Tiermodell und Mensch dieselben genetischen Mutationen oder zellulären Veränderungen aufweisen. Zum Beispiel stellt man Mauslinien her, die dieselbe genetische Mutation tragen wie z. B. an Alzheimer erkrankte Menschen. Die Vorhersagevalidität eines Tiermodells zeigt sich, wenn eine Behandlung, die an erkrankten Patienten er-
9
folgreich ist, auch im Tiermodell positive Ergebnisse liefert. So zeigen zum Beispiel verschiedene Antidepressiva, die Patienten verschrieben werden, im Tiermodell eine Reduktion von »depressiven« Verhaltenseigenschaften. Die Relevanz und der Wert eines Tiermodells ist daher umso größer, je mehr Formen der Validität es besitzt. Dennoch sollte man nicht vergessen, dass es sich bei neurologischen Erkrankungen, vor allem aber bei psychischen Störungen um sehr komplexe Veränderungen handelt, die unmöglich in ihrer Gesamtheit auf Tiermodelle übertragbar sind. Vielmehr handelt es sich bei den Tiermodellen meist um einzelne charakteristische Symptome einer Erkrankung, die man in verhaltensbiologischen Untersuchungen beobachten kann. Dabei kann man viele der bereits beschrieben Verhaltenstests auch für Tiermodelle zur Untersuchung neuronaler Erkrankungen anwenden. Zum Beispiel werden bei Alzheimer-Modellen häufig die kognitiven Fähigkeiten in Lerntests, die das deklarative Gedächtnis betreffen, untersucht (7 Kap. 9.3.2). Angststörungen zeigen verändertes Verhalten in Tests, die Ängstlichkeit und Explorationsverhalten zum Gegenstand haben (7 Kap. 9.2.6), und Störungen des peripheren Nervensystems führen zu einem veränderten Verhalten bei Tests für Lokomotion, motorisches Lernen und Balance (7 Kap. 9.2.4). Neben den bereits beschriebenen Verhaltenstests möchten wir in diesem Kapitel nur kurz auf einige Modelle eingehen, die vor allem bei der Untersuchung psychischer Störungen zum Einsatz kommen. Empfehlungen für weiterführende Literatur finden sich im Anhang an dieses Kapitel.
9.4.2
Depression
Ein ideales Tiermodell der Depression sollte mit Symptomatik, Verlauf und Behandelbarkeit der Depression übereinstimmen. Eine Reihe von epidemiologischen Untersuchungen zeigen, dass belastende Lebensereignisse depressive Störungen auslösen können. In Tiermodellen mit guter ätiologischer Validität (Faktoren, die die Krankheit beeinflussen) wird daher Stress eingesetzt, um der Depression analoge Verhaltensänderungen zu erzeugen. Eine weitere Problematik bei der Unter-
204
9
Kapitel 9 • Verhaltensbiologie
suchung psychiatrischer Erkrankungen mit Hilfe von Tiermodellen stellt die Tatsache dar, dass diagnostische Kriterien meist auf verbaler Mitteilung von Gefühlen und Gedanken beruhen. Dennoch gibt es physiologische Parameter und Verhaltensänderungen, die man durchaus messen kann. Ein zentrales Symptom der Depression ist z. B. die Anhedonie, d. h. der Verlust von Interesse und Freude, die über die Präferenz von süßen Lösungen gegenüber Wasser (Saccharin Preference) getestet werden kann. Darüber hinaus kann man vegetative Veränderungen beobachten, wie z. B. verminderte Aktivität und Konzentration, Verminderungen des Schlafes, des Appetits, des Gewichts und der Libido, und physiologische Veränderungen wie Störungen der HPA-Achse (Hypophysen-Nebennieren-Achse)-Aktivität, die in einem erhöhten Kortisolspiegel resultiert. Weiterhin gilt ein Ansprechen auf Antidepressiva als wichtiges Validitätskriterium eines Tiermodells der Depression. Verhaltenstests, die depressive Symptome zum Gegenstand haben, untersuchen meist das Vorhandensein einer Art Verzweiflung, die als so genanntes behavioral despair bezeichnet wird und sich darin äußert, dass die untersuchten Tiere scheinbar aufgegeben haben und nicht mehr versuchen einer unangenehmen Situation zu entkommen. kLearned helplessnes, oder erlernte Hilflosigkeit
Um erlernte Hilflosigkeit auszulösen, wird immer ein unkontrollierbarer und unvorhersehbarer aversiver Stimulus, meist elektrische Reize, die über Pfoten oder Schwanz vermittelt werden, verwendet. Mit einem avoidance- oder escape-Paradigma wird dann die erlernte Hilflosigkeit getestet. Bei Mäusen eignet sich hier eine so genannte ShuttleBox. In dieser können die Tiere den Strom vermeiden, indem sie durch ein kleines Tor von einem Kompartiment in ein anderes wechseln. Tiere, die zuvor unkontrollierbarem Stress ausgesetzt waren, oder die eine genetische Mutation tragen, welche zu einem depressionsartigen Phänotyp führt, zeigen keine oder eine verminderte Vermeidungsreaktion und ihr Verhalten wird mit behavioral despair (Hoffnungslosigkeit) erklärt.
kPorsolt forced swim test
Auch der Porsolt forced swim test (Porsolt et al. 1977) zielt darauf ab zu untersuchen, wie lange es dauert, bis eine Maus aufgibt, einer unangenehmen oder bedrohlichen Situation zu entkommen. Als Testapparatur wird ein Zylinder verwendet, der so weit mit Wasser gefüllt wird, bis eine darin schwimmende Maus den Boden mit dem Schwanz nicht mehr berührt. Nachdem sie ins Wasser gesetzt wurden, versuchen Mäuse normalerweise durch Schwimmen einen Ausgang zu finden, um der Situation zu entkommen. Da es keinen Ausgang gibt, wird die Maus nach einiger Zeit das Schwimmen aufgeben und sich auf der Wasseroberfläche treiben lassen, ein Vorgang, der mit floating bezeichnet wird. Generell wird gemessen, wie schnell eine Maus aufgibt und nicht mehr versucht, der Situation zu entkommen und wie viel Zeit sie nicht schwimmt, sondern sich auf der Wasseroberfläche treiben lässt. Dieser Test wird gerne für pharmakologische Screens verwendet, da er sehr sensitiv für Psychopharmaka ist, die Mäuse keine länger andauernden Verhaltensänderungen zeigen müssen und die pharmakologische Wirkung somit ohne Latenz akut messbar ist. kTail suspension-Test
Der tail suspension-Test hat einige Gemeinsamkeiten mit den bereits genannten Tests. Hierbei wird die Maus einfach am Schwanz hochgehalten oder befestigt. Normalerweise würde sie versuchen, der Situation zu entkommen, indem sie sich stark hin und her bewegt. Auch hier wird die Zeit gemessen, bis die Maus »aufgibt« und wie lange sie bewegungslos verharrt.
9.4.3
Schizophrenie
Auch bei Tiermodellen für schizophrene Störungen sollten idealerweise Ätiologie, Symptomatik, Verlauf und Behandelbarkeit mit der Erkrankung beim Menschen übereinstimmen. Leider sind sowohl die Ursachen als auch die Faktoren, die den Verlauf der Erkrankung bestimmen, weitestgehend ungeklärt, sodass die Forderung nach dem Modell der schizophrenen Maus zunächst Wunschdenken bleiben muss. Auch bei der Schizophrenie beruht die Diagnose vermehrt auf komplexen Empfindungen, die
9.4 • Neurologische Erkrankungen
im Tiermodell nicht adäquat simuliert werden können, und man ist daher darauf beschränkt, einzelne ausgewählte Symptome in Verhaltensexperimenten zu beobachten. Hierzu zählen vor allem Defizite in der sensorischen Verarbeitung, gestörtes Lernverhalten, erhöhte Lokomotion sowie gestörtes Sozialverhalten. kPräpulsinhibition des startle-Reflexes (prepulse inhibition) Die Präpulsinhibition wurde bereits in (7 Kap. 9.2.5)
angesprochen und dort im Zusammenhang mit Tests zum Hörvermögen vorgestellt. Es handelt sich hier um ein reflexartiges Zusammenzucken, welches durch die Präsentation eines sehr lauten Geräuschs (startle pulse) verursacht wird. Präsentiert man jedoch kurz vor dem startle pulse einen weiteren Ton, den so genannten Präpuls, dann vermindert sich die Schreckreaktion und die Tiere zucken weniger stark zusammen. Die Stärke des Zusammenzuckens kann über so genannte Beschleunigungsaufnehmer (accelerometer) quantitativ gemessen werden. Bei Patienten wird dieser Reflex jedoch meist über das Zucken des Augenlieds mit Hilfe eines Elektromyogramms gemessen. Sowohl bei schizophrenen Patienten als auch in Tiermodellen zur Schizophrenie kann eine verminderte Reduktion des startle pulse bobachtet werden, die durch eine Störung der sensomotorischen Verarbeitung (sensorimotor gating) zustande kommt. Allerdings ist die verminderte Präpulsinhibition kein Phänomen, welches nur bei schizophrenen Störungen beobachtbar ist, sondern kann auf generelle Aufmerksamkeitsstörungen hinweisen, die auch im Zusammenhang mit anderen psychischen Erkrankungen beobachtet werden z. B. bipolare Störungen, Autismus oder ADHS. kLatente Inhibition des Lernens (latent inhibition)
Ein weiteres Paradigma, das sowohl im Tiermodell als auch klinisch eingesetzt wird, ist die latente Inhibition des Lernens. Hier wird ein konditionierter Reiz CS vor der Konditionierung mehrfach ohne Verstärkung (US) präsentiert (Präexpositionsphase), wodurch es zu einer Abnahme des Lernerfolgs bei einer anschließenden Konditionierung kommt (Lernphase). Als Verhaltensparadigma kann man
205
9
hier z. B. die unter 7 Kap. 9.3.3 beschriebene Furchtkonditionierung verwenden. Die Stärke der latenten Inhibition hängt dabei generell von der Intensität der Präexposition und der Konditionierung ab. Man geht davon aus, dass die Fähigkeit zur selektiven Wahrnehmung für dieses Paradigma entscheidend ist, und es zeigt sich, dass sowohl Patienten als auch Tiermodelle zur Schizophrenie eine verminderte latente Inhibition in verschiedenen Lernexperimenten zeigen, wodurch die latente Inhibition als valides vergleichendes Tiermodell zur Untersuchung Schizophrenie-artiger Verhaltensstörungen verwendet werden kann. kSoziale Interaktion (social interaction)
Schwierigkeiten in Sozialverhalten und sozialer Interaktion sind ebenfalls häufig beobachtete Symptome der Schizophrenie. Es konnte gezeigt werden, dass schizophrene Patienten weniger in der Lage sind über Mimik und Körpersprache zu kommunizieren und in geringerem Maße die Gefühle und Gedanken anderer Menschen interpretieren können. Da Mäuse generell ein ausgeprägtes Sozialverhalten zeigen, können Tests zu sozialer Interaktion auch im Tiermodell durchgeführt werden. Hierfür gibt es verschiedene etablierte Verhaltenstests, die quantitativ die soziale Interaktion zwischen Mäusen untersuchen. Man kann hierfür beispielsweise zwei Nicht-Geschwistermäuse gemeinsam in eine neue Umgebung setzen und aufzeichnen, wie oft die Mäuse aufeinander zu gehen, sich beschnuppern, sich putzen oder aggressives Verhalten an den Tag legen. Das Verhaltensrepertoire wird hierbei zumeist manuell mit Hilfe von aufgenommenen Videofilmen analysiert. Weiterführend wurde eine drei-geteilte Box etabliert, in der das Sozialverhalten der Mäuse annähernd automatisch aufgezeichnet werden kann (Nadler, 2004). Die zu untersuchende Maus wird dazu in die Mitte der Box gesetzt. Sie hat freien Zugang zu zwei Kompartimenten, die sich links und rechts der zentralen Box befinden. In den beiden äußeren Kompartimenten befinden sich kleine Gitterboxen, deren Gitter so weit auseinander sind, dass die Mäuse sich problemlos beschnuppern können. Unter einer der Gitterboxen befindet sich eine Maus, die vorher an die Box und das Prozedere gewöhnt wurde. Die Maus, die getestet werden soll, wird zunächst
206
Kapitel 9 • Verhaltensbiologie
an den mittleren Raum gewöhnt. Danach werden die Türen geöffnet und man beobachtet, wie viel Zeit sie mit der fremden Maus verbringt. Darüber hinaus kann untersucht werden, ob die Maus sich lieber oder gleich lang mit dem neuen Objekt (Gitterbox ohne Maus) beschäftigt oder beide neuen »Objekte« vermeidet.
9.4.4
9
Autismus
Auch die Ursachen für autistische Störungen sind weitestgehend ungeklärt. Bei dieser Erkrankung handelt es sich um ein sehr komplexes Phänomen, weshalb in Tiermodellen somit nur Teilaspekte der Erkrankung nachgeahmt werden können. Die häufige Übereinstimmung zwischen eineiigen Zwillingen weist jedoch auf eine genetische Komponente der Erkrankung hin, was dazu ermutigt, Mausmodelle zu entwickeln, mit denen Mechanismen der Erkrankungen untersucht und Therapiestrategien entwickelt werden können. Klassische Symptome sind unnormales Sozialverhalten, gestörte verbale Kommunikation und repetitives Verhalten. Das soziale Verhalten kann mit denselben Methoden gemessen werden, die auch schon für schizophrene Störungen beschrieben wurden. kKommunikation
Verspätete Sprachentwicklung und verminderte Kommunikation sind grundlegend in der Diagnose von Autismus. Mäuse können zwar nicht sprechen, benutzen aber dennoch Kommunikationssignale zur Interaktion. Sie können akustische Signale generieren, die meist im Ultraschallbereich liegen, und olfaktorische Signale setzen, die ihre Artgenossen erkennen und auf die sie reagieren. Bisher sind Mausmodelle zur Untersuchung der Kommunikation von Mäusen mit »autistischen Störungen« noch nicht sehr gut etabliert, erste Ansätze versprechen aber Erfolg. So konnte z. B. gezeigt werden, dass männliche Mäuse einer Knockout-Mauslinie für ein Kandidatengen für Schizophrenie wesentlich weniger Ultraschalllaute emittieren, wenn sie auf weibliche Tiere im Östrus treffen, als ihre Wildtyp-Geschwister (Jamain et al., 2008). Ein weiteres Modell könnte über die Kommunikation von Babys und ihren Müttern etabliert werden. Mäusebabys
emittieren sehr hochfrequente (Ultraschallbereich: 50–70 kHz) Laute, wenn sie aus dem Nest genommen werden, was Muttermäuse dazu animiert sie wieder ins Nest zurückzutragen. Die Vorhersage wäre, dass »autistische« Mäusebabies weniger Laute emittieren bzw. ihre Mütter nicht auf die Rufe ihrer Babies reagieren.
Literatur und World-Wide-Web-Links Web-Ressourcen: Equipment: http://www.noldus.com/ http://www.med-associates.com/ http://www.lafayetteinstrument.com/ http://www.infra-e-motion.de https://www.stoeltingco.com https://www.myNeuroLab.com http://www.tse-systeme.com/ http://www.newbehavior.com Support: http://www.mousebehavior.com/ http://www.mouseclinic.de/ Verhalten allgemein (1997). Mutant mice and neuroscience: recommendations concerning genetic background. Banbury Conference on genetic background in mice. Neuron 19, 755–759. Bailey KR, Rustay NR, Crawley JN (2006) Behavioral phenotyping of transgenic and knockout mice: practical concerns and potential pitfalls. ILAR J 47, 124–131. Bothe GW, Bolivar VJ, Vedder MJ, Geistfeld JG (2005) Behavioral differences among fourteen inbred mouse strains commonly used as disease models. Comp Med 55, 326–334. Brown RE (2007) Behavioural phenotyping of transgenic mice. Can J Exp Psychol 61, 328–344. Crabbe JC, Wahlsten D (2003) Of mice and their environments. Science 299, 1313–1314. Crabbe JC, Wahlsten D, Dudek BC (1999) Genetics of mouse behavior: interactions with laboratory environment. Science 284, 1670–1672. Crawley JN (1999) Behavioral phenotyping of transgenic and knockout mice: experimental design and evaluation of general health, sensory functions, motor abilities, and specific behavioral tests. Brain Res 835, 18–26. Crawley JN (2008) Behavioral phenotyping strategies for mutant mice. Neuron 57, 809–818. Crawley JN, Belknap JK, Collins A, Crabbe JC, Frankel W, Henderson N, Hitzemann RJ, Maxson SC, Miner LL, Silva AJ et al. (1997) Behavioral phenotypes of inbred mouse strains: implications and recommendations for molecular studies. Psychopharmacology (Berl) 132, 107–124.
207
Literatur und World-Wide-Web-Links
Crusio WE (1999) Using spontaneous and induced mutations to dissect brain and behavior genetically. Trends Neurosci 22, 100–102. Doetschman T (2009) Influence of genetic background on genetically engineered mouse phenotypes. Methods Mol Biol 530, 423–433. Fossella JA, Casey BJ (2006) Genes, brain, and behavior: bridging disciplines. Cogn Affect Behav Neurosci 6, 1–8. Garner JP, Mason GJ (2002) Evidence for a relationship between cage stereotypies and behavioural disinhibition in laboratory rodents. Behav Brain Res 136, 83–92. Gerlai R, Clayton NS (1999) Analysing hippocampal function in transgenic mice: an ethological perspective. Trends Neurosci 22, 47–51. Gingrich JA, Hen R (2000) The broken mouse: the role of development, plasticity and environment in the interpretation of phenotypic changes in knockout mice. Curr Opin Neurobiol 10, 146–152. Hatcher JP, Jones DN, Rogers DC, Hatcher PD, Reavill C, Hagan JJ, Hunter AJ (2001) Development of SHIRPA to characterise the phenotype of gene-targeted mice. Behav Brain Res 125, 43–47. Lipp HP, Wolfer DP (1998) Genetically modified mice and cognition. Curr Opin Neurobiol 8, 272–280. Martin JE, Fisher EM (1997) Phenotypic analysis -- making the most of your mouse. Trends Genet 13, 254–256. Nelson RJ, Young KA (1998) Behavior in mice with targeted disruption of single genes. Neurosci Biobehav Rev 22, 453–462. Picciotto MR, Wickman K (1998) Using knockout and transgenic mice to study neurophysiology and behavior. Physiol Rev 78, 1131–1163. Richter SH, Garner JP, Wurbel H (2009) Environmental standardization: cure or cause of poor reproducibility in animal experiments? Nat Methods 6, 257–261. Rogers DC, Peters J, Martin JE, Ball S, Nicholson SJ, Witherden AS, Hafezparast M, Latcham J, Robinson TL, Quilter CA, Fisher EM (2001) SHIRPA, a protocol for behavioral assessment: validation for longitudinal study of neurological dysfunction in mice. Neurosci Lett 306, 89–92. Steele PM, Medina JF, Nores WL, Mauk MD (1998) Using genetic mutations to study the neural basis of behavior. Cell 95, 879–882. Thomas KR, Capecchi MR (1987) Site-directed mutagenesis by gene targeting in mouse embryo-derived stem cells. Cell 51, 503–512. Valor LM, Grant SG (2007) Clustered gene expression changes flank targeted gene loci in knockout mice. PLoS ONE 2, e1303. Wolfer DP, Crusio WE, Lipp HP (2002) Knockout mice: simple solutions to the problems of genetic background and flanking genes. Trends Neurosci 25, 336–340. Wolfer DP, Stagljar-Bozicevic M, Errington ML, Lipp HP (1998) Spatial Memory and Learning in Transgenic Mice: Fact or Artifact? News Physiol Sci 13, 118–123.
9
Wong GT(2002) Speed congenics: applications for transgenic and knock-out mouse strains. Neuropeptides 36, 230–236. Wurbel H (2001) Ideal homes? Housing effects on rodent brain and behaviour. Trends Neurosci 24, 207–211. Wurbel H (2007) Environmental enrichment does not disrupt standardisation of animal experiments. ALTEX 24 Spec No, 70–73. Lerntests Aggleton JP, Brown MW (2005) Contrasting hippocampal and perirhinal cortex function using immediate early gene imaging. Q J Exp Psychol B 58, 218–233. Barnes CA (1979) Memory deficits associated with senescence: a neurophysiological and behavioral study in the rat. J Comp Physiol Psychol 93, 74–104. Bermudez-Rattoni F, Ramirez-Lugo L, Gutierrez R, Miranda MI (2004) Molecular signals into the insular cortex and amygdala during aversive gustatory memory formation. Cell Mol Neurobiol 24, 25–36. Buckley MJ (2005) The role of the perirhinal cortex and hippocampus in learning, memory, and perception. Q J Exp Psychol B 58, 246–268. Crawley J, Goodwin FK (1980) Preliminary report of a simple animal behavior model for the anxiolytic effects of benzodiazepines. Pharmacol Biochem Behav 13, 167–170. Finn DA, Rutledge-Gorman, MT, Crabbe, JC (2003) Genetic animal models of anxiety. Neurogenetics 4, 109–135. Harrison FE, Reiserer RS, Tomarken AJ, McDonald MP (2006) Spatial and nonspatial escape strategies in the Barnes maze. Learn Mem 13, 809–819. Milner B, Squire LR, Kandel ER (1998) Cognitive neuroscience and the study of memory. Neuron 20, 445–468. Morris R (1984) Developments of a water maze procedure for studying spatial learning in the rat. J Neurosci Methods 11, 47–60. Patil SS, Sunyer B, Hoger H, Lubec G (2009) Evaluation of spatial memory of C57BL/6J and CD1 mice in the Barnes maze, the Multiple T-maze and in the Morris Water Maze. Behav Brain Res 198, 58–68. Reilly S, Bornovalova MA (2005) Conditioned taste aversion and amygdala lesions in the rat: a critical review. Neurosci Biobehav Rev 29, 1067–1088. Plath N, Ohana O, Dammermann B, Errington ML, Schmitz D, Gross C, Mao X, Engelsberg A, Mahlke C, Welzl H, et al. (2006) Arc/Arg3.1 is essential for the consolidation of synaptic plasticity and memories. Neuron 52, 437–444. Shepherd JK, Grewal SS, Fletcher A, Bill DJ, Dourish CT (1994) Behavioural and pharmacological characterisation of the elevated »zero-maze« as an animal model of anxiety. Psychopharmacology (Berl) 116, 56–64. Welzl H, D’Adamo P, Lipp HP (2001) Conditioned taste aversion as a learning and memory paradigm. Behav Brain Res 125, 205–213.
208
Kapitel 9 • Verhaltensbiologie
Winters BD, Saksida LM, Bussey TJ (2008) Object recognition memory: neurobiological mechanisms of encoding, consolidation and retrieval. Neurosci Biobehav Rev 32, 1055–1070. Wolfer DP, Madani R, Valenti P, Lipp HP (2001) Extended analysis of path data from mutant mice using the public domain software Wintrack. Physiol Behav 73, 745–753. Neurologische Erkrankungen
9
Brusa R (1999) Genetically modified mice in neuropharmacology. Pharmacol Res 39, 405–419. Chourbaji S, Vogt MA, Gass P (2008) Mice that under- or overexpress glucocorticoid receptors as models for depression or posttraumatic stress disorder. Prog Brain Res 167, 65–77. Crawley JN (2004) Designing mouse behavioral tasks relevant to autistic-like behaviors. Ment Retard Dev Disabil Res Rev 10, 248–258. Crawley JN (2007) Mouse behavioral assays relevant to the symptoms of autism. Brain Pathol 17, 448–459. Geyer MA (2008) Developing translational animal models for symptoms of schizophrenia or bipolar mania. Neurotox Res 14, 71–78. Holmes A (2001) Targeted gene mutation approaches to the study of anxiety-like behavior in mice. Neurosci Biobehav Rev 25, 261–273. Li L, Du Y, Li N, Wu X, Wu Y (2009) Top-down modulation of prepulse inhibition of the startle reflex in humans and rats. Neurosci Biobehav Rev 33, 1157–1167. Nadler JJ, Moy SS, Dold G, Trang D, Simmons N, Perez A, Young NB, Barbaro RP, Piven J, Magnuson TR, Crawley JN (2004) Automated apparatus for quantitation of social approach behaviors in mice. Genes Brain Behav 3, 303–314. Paylor R, Crawley JN (1997) Inbred strain differences in prepulse inhibition of the mouse startle response. Psychopharmacology (Berl) 132, 169–180. Porsolt RD, Bertin A, Jalfre M (1977) Behavioral despair in mice: a primary screening test for antidepressants. Arch Int Pharmacodyn Ther 229, 327–336. Porsolt RD, Le Pichon M, Jalfre M (1977) Depression: a new animal model sensitive to antidepressant treatments. Nature 266, 730–732. Seong E, Seasholtz AF, Burmeister M (2002) Mouse models for psychiatric disorders. Trends Genet 18, 643–650. Swerdlow NR, Weber M, Qu Y, Light G.A., Braff DL (2008) Realistic expectations of prepulse inhibition in translational models for schizophrenia research. Psychopharmacology (Berl) 199, 331–388. Weiner I, Arad M (2009) Using the pharmacology of latent inhibition to model domains of pathology in schizophrenia and their treatment. Behav Brain Res 204, 369–386. Bücher: Crawley JN (2000) What’s wrong with my mouse? Behavioral Phenotyping of Transgenic and Knockout Mice. John Wiley & Sons, Inc.
209
Neuroimaging: neurobildgebende Verfahren Tobias Sommer
10.1
Einleitung – 210
10.2
Strukturelle Bildgebung – 213
10.2.1 10.2.2 10.2.3
Computertomographie – CT – 213 Magnetresonanztomographie – MRT – 214 Diffusionstensorbildgebung – DTI – 223
10.3
Funktionelle Bildgebung – 225
10.3.1 10.3.2 10.3.3 10.3.4 10.3.5 10.3.6
Magnetresonanzspektroskopie – MRS – 225 Single-Photon-Emissions-Computertomographie – SPECT – 227 Positronenemissionstomographie – PET – 229 Funktionelle Nahinfrarotspektroskopie – fNIRS – 235 Elektroenzephalographie – EEG – 236 Magnetenzephalographie – MEG – 239
10.4
Funktionelle Magnetresonanztomographie – fMRT – 239
10.4.1 10.4.2 10.4.3
Grundlagen der fMRT – 240 fMRT-Experimente – 243 Auswertung von fMRT-Daten: Vom BOLD-Signal zum Blob – 255
Literatur und World-Wide-Web-Links – 263
G. Hermey et al., Der Experimentator: Neurowissenschaften, DOI 10.1007/978-3-8274-2369-6_10, © Spektrum Akademischer Verlag Heidelberg 2010
10
10
210
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
10.1
Einleitung
Dieses Kapitel des neurowissenschaftlichen Experimentators ist zweigeteilt: In 7 Kap. 10.2 und 10.3 werden die verschiedenen strukturellen und funktionellen neuro-bildgebenden Verfahren kurz vorgestellt. Dabei wird der Magnetresonanztomographie aufgrund ihrer Relevanz etwas mehr Platz eingeräumt. Das 7 Kap. 10.4 widmet sich dann ausschließlich der funktionellen Magnetresonanztomographie. Diese hat in den letzten 20 Jahren einen wahren Boom in Bezug auf die Anzahl der (populär-) wissenschaftlichen Veröffentlichungen erfahren und soll dementsprechend gewürdigt und anwendungsorientiert dargestellt werden. Der erste Abschnitt dieses Kapitels ist weniger praxisorientiert, was an einigen Besonderheiten der bildgebenden Methoden liegt. Zum Einen gibt es mittlerweile eine ganze Reihe verschiedener bildgebender Verfahren mit ganz unterschiedlichen Anwendungen (. Tab. 10.1 Überblick über die bildgebenden Verfahren). Es würde den Rahmen des Buches sprengen, sie alle im Detail vorzustellen. Darüber hinaus erfordern die meisten dieser Verfahren sehr teure Großgeräte, speziell ausgebildetes Personal und sind in ihrer Anwendung so komplex, dass viele Wissenschaftler lebenslang nur eine oder einige wenige dieser Methoden nutzen. Sie lassen sich also nicht ohne Weiteres als eine zusätzliche neurowissenschaftliche Technik z. B. neben der Elektrophysiologie in das persönliche Methodenportfolio integrieren. Zudem wurden die meisten bildgebenden Verfahren alle zunächst für den (klinischen) Einsatz am Menschen entwickelt, und werden erst seit einigen Jahren auch in der tierexperimentellen Forschung eingesetzt (. Abb. 10.1). In anderen Worten befinden sich die Tier-Bildgebungstechniken vergleichsweise noch in ihren Kinderschuhen und sind keine etablierten Standardverfahren. Diese Verfahren sollen daher im ersten Abschnitt so beschrieben werden, dass der Experimentator ihre Ergebnisse besser verstehen kann und einschätzen lernt, welche der Methoden für die eigene Fragestellung am ehesten in Frage kommen würde. Dann kann man immer noch die Fachliteratur bemühen, um die Details zu verstehen, und ggf.
die entsprechenden Spezialisten wegen einer Kooperation kontaktieren. Es werden daher die physikalischen und/oder physiologischen Grundlagen der verschiedenen Methoden so erklärt, dass die jeweiligen Möglichkeiten, Stärken und Schwächen zu verstehen sind. Das Ganze ist mit Anwendungsbeispielen und aktuellen Ergebnissen garniert. Eine gewisse Sonderrolle werden in diesem Kapitel aufgrund ihrer Verbreitung zwei Methoden der Magnetresonanztomographie einnehmen, nämlich die strukturelle und vor allem die funktionelle Magnetresonanztomographie. Die strukturelle Magnetresonanztomographie wird nicht nur beim Menschen häufig bei morphologischen Fragestellungen sowie in Kombination mit der funktionellen Magnetresonanztomographie eingesetzt, sondern ist auch in der tierexperimentellen Forschung die zurzeit wohl am weitesten verbreitete bildgebende Methode. Die funktionelle Magnetresonanztomographie ihrerseits ermöglicht es, ohne Nebenwirkungen mit einer hervorragenden Kombination von relativ hoher räumlicher und zeitlicher Auflösung das menschliche Gehirn bei der Arbeit zu beobachten. Der Erfolg dieser Methode wurde unterstützt durch die scheinbar für jedermann leicht verständlichen Ergebnisse in Form bunter Aktivierungskarten. Wahrscheinlich arbeiten auch nicht nur die meisten graduierten Wissenschaftler, sondern auch Diplomanden und Doktoranden in der Bildgebung mit dieser Methode. Daher wird ihr ein ganzes Kapitel gewidmet, in dem sie ausführlich und praxisnah vorgestellt wird. kWas versteht man unter (Neuro-) Bildgebung?
Zu den neuro-bildgebenden Verfahren zählen sehr unterschiedliche Methoden (. Tab. 10.1). Alle liefern auf ihre Art Bilder von neuronalen Strukturen und/oder Prozessen. Mit diesen Methoden kann man nicht nur ein dreidimensionales Bild des Gehirns aufnehmen, sondern auch Stoffwechselprozesse, Rezeptorbindungen oder den Blutfluss räumlich und teils zeitlich aufgelöst messen. Das »Neuro-Bild« entsteht dadurch, dass die aus diesen Messwerten abgeleitete Informationen helligkeitsoder farbcodiert visualisiert werden. Höheren Messwerten werden also z. B. hellere Graustufen zugeordnet, um so die Ergebnisse übersichtlicher zu machen. Dabei werden dreidimensionale Bilder
10.1 • Einleitung
211
10
. Abb. 10.1 Vergleich humaner und Kleintier-Scanner. Links: humaner PET/CT-Scanner (Philips Gemini GXL); rechts: Kleintier-PET-Scanner (Siemens F200 MicroPET). Fotos mit freundlicher Genehmigung von R. Buchert, Berlin, und J. Dalley, Cambridge
gemessen, die als zweidimensionale Schnittbilder durch das Gehirn (Tomogramme) abgespeichert werden. Beim Betrachten am Computerbildschirm werden dann wieder dreidimensionale Bilder rekonstruiert, durch die man mit dem Cursor hindurchnavigieren kann. Wenn man einen Prozess im zeitlichen Verlauf misst, wie etwa mittels der funktionellen Magnetresonanztomographie, kommt sogar noch als 4. Dimension die Zeit hinzu. Man zeichnet dann ähnlich einem Film, der ja aus vielen Einzelbildern besteht, viele dreidimensionale Bilder nacheinander auf, um so den zeitlichen Verlauf abzubilden. Diese Bilder bestehen – analog zu den Pixeln zweidimensionaler Computerbilder – aus Voxeln (Quadern), deren Kantenlänge die räumliche Auflösung bestimmt. Die bildgebenden Verfahren in den Neurowissenschaften beruhen auf ganz verschiedenen physikalischen und/oder physiologischen Phänomenen und haben dementsprechend verschiedene Stärken und Schwächen bei der Darstellung des Gehirns. Diese Methoden werden im Unterschied zu vielen anderen neurowissenschaftlichen Methoden häufig bei Menschen in Klinik und Forschung eingesetzt, da sie den Vorteil haben nicht-invasiv zu sein, wenn man von der Strahlenbelastung einiger Verfahren absieht. Die Bildgebungstechniken wurden tatsächlich zunächst für den humanen, klinischen Einsatz entwickelt und dann auch zunehmend in der humanen Grundlagenforschung angewandt. Schließlich wurden sie auch für die Arbeit
mit (Klein-) Tieren adaptiert, um so Grundlagen und translationale Forschung zu ermöglichen. Translational bedeutet in diesem Kontext, dass dieselbe Technologie sowohl in Tierexperimenten als auch der humanen Grundlagenforschung und klinischen Praxis durchgeführt werden. So können die Erkenntnisse aus den Tierversuchen relativ direkt auf den Menschen und insbesondere klinische Anwendungen übertragen werden (from bench to bedside). Die teils mehrere Millionen Euro teuren Großgeräte zur Durchführung der verschiedenen tomographischen Verfahren werden als Scanner bezeichnet. Tiere werden entweder in humanen Scannern oder in kleineren Tierscannern untersucht. Letztere haben den Vorteil, dass sie eine höhere Auflösung ermöglichen, weil die Röhre, in die die Tiere geschoben werden, einen kleineren Durchmesser hat und bestimmte Messparameter nur im Tierversuch möglich sind (. Abb. 10.1). Eine höhere Auflösung ist für die Darstellung der kleineren Gehirne der Tiere (es werden hauptsächlich Mäuse und Ratten gescannt) unbedingt notwendig, weil diese viel kleinere Gehirne haben. So ist z. B. ein Mäusegehirn nur ungefähr 1 cm groß. Tierscanner bzw. das Scannen von Tieren ist in der Neurowissenschaft allerdings noch nicht so weit verbreitet wie die humanen Anwendungen. Es gewinnt aber an Bedeutung, weil die räumlichen Auflösungen der Geräte weiter verbessert werden können und neue Möglichkeiten für die tierexperimentelle
212
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
. Tab. 10.1 Überblick über die bildgebenden Verfahren Strukturell bildgebende Verfahren 7 Abschn. 10.2.1
Computertomographie
CT
7 Abschn. 10.2.2
Magnetresonanztomographie
MRT
7 Abschn. 10.2.3
Diffusionstensorbildgebung
DTI
Funktionell bildgebende Verfahren im weiteren Sinn 7 Abschn. 10.3.1
Magnetresonanzspektroskopie
MRS
7 Abschn. 10.3.2
Single-Photon-Emissions-Computertomographie
SPECT
7 Abschn. 10.3.3
Liganden-Positronen-EmissionsTomographie
Liganden-PET
nuklearmedizinische Verfahren
Molekulare Bildgebung
Funktionelle Bildgebung im engeren Sinn
10
7 Abschn. 10.3.3
Wasser- Positronen-EmissionsTomographie
H2O-PET
7 Abschn. 10.3.4
Nah-Infrarot-Spektroskopie
NIRS
7 Abschn. 10.4
Funktionelle Magnetresonanztomographie
fMRT
7 Abschn. 10.3.5
Elektroenzephalographie
EEG
7 Abschn. 10.3.6
Magnetenzephalographie
MEG
Metabolische Verfahren
Als funktionell bildgebende Verfahren im engeren Sinn werden hier solche bezeichnet, mit denen es möglich ist, neuronale Aktivität des Gehirns im Zeitverlauf zu lokalisieren. Die weiter gefasste Definition funktioneller Bildgebung umfasst auch Methoden, die statische Bilder von biochemischen bzw. physiologischen Hirnfunktionen, wie Rezeptorbindungen, erzeugen.
Forschung entwickelt werden. Ein entscheidender Vorteil der bildgebenden Verfahren gegenüber z. B. der Autoradiographie (7 Kap. 6.4.2) liegt zudem darin, dass dieselben Tiere wiederholt untersucht werden können. Der Experimentator ist, wenn er ein bildgebendes Verfahren für seine Fragestellung einsetzen möchte, nicht nur auf die teuren Scanner, sondern auch auf speziell geschulte röntgen-technische Assistenten und/oder Physiker bzw. Techniker zur sachgemäßen Bedienung angewiesen. Diese werden ihn auch kaum alleine zum Herumprobieren an ihr kostbares Gerät lassen, denn wie heißt es so schön beim Umgang mit teuren Geräten: ‚Mann sollte Wissen nicht durch Mut ersetzen’. Bei den Scannern kommt neben dem Risiko, diese zu beschädigen noch die Gefahr für Leib und Leben des
Experimentators (und den Versuchspersonen bzw. -tieres) hinzu. kWelche bildgebende Verfahren gibt es?
Es gibt verschiedene Kriterien, nach denen man die aktuellen bildgebenden Verfahren gruppieren kann (. Tab. 10.1). Eine sehr grobe Einteilung wäre die Frage, ob sie räumlich aufgelöste morphologische Bilder des Gehirns liefern (strukturelle Bildgebung) oder ob sie biochemische bzw. physiologische Funktionen des Gehirns sichtbar machen. Bei Letzterem spricht man von funktioneller Bildgebung, auch wenn es sich um statische Aufnahmen z. B. die Dichte von bestimmten Rezeptoren handelt. Der Begriff funktionelle Bildgebung wird aber manchmal auch enger gefasst, in dem Sinne, dass unter Funktion des Gehirns mentale Prozesse verstanden werden. Der Begriff beschränkt sich dann
213
10.2 • Strukturelle Bildgebung
auf Techniken, bei denen zeitlich aufgelöst Bilder von Hirnfunktionen geliefert werden, man also buchstäblich das Gehirn bei der Arbeit beobachten kann. Die Unterteilung in funktionelle Bildgebung im weiteren und engeren Sinn ist allerdings keine scharfe Trennlinie. Sie soll nur einen Anhaltspunkt liefern, um die Anwendungsmöglichkeiten der verschiedenen Verfahren etwas zu sortieren. Das ist auch deshalb sinnvoll, weil funktionelle Bildgebung im engeren Sinne im Tierexperiment nur sehr begrenzt möglich ist. Die funktionellen Verfahren kann man in Abhängigkeit des zugrundeliegenden Messprinzips auf verschiedene, teils überlappende Weise, weiter unterteilen. Die nuklearmedizinischen Verfahren greifen auf radioaktiv markierte Liganden zurück. Der Begriff Molekulare Bildgebung fasst die Verfahren zusammen, bei denen bestimmte Moleküle, und zwar nicht nur radioaktiv markierte, lokalisiert werden. Metabolische Verfahren der funktionellen Bildgebung im engeren Sinne sind diejenigen, die Veränderungen im Stoffwechsel aufgrund neuronaler Aktivität sichtbar machen, und stehen denjenigen gegenüber, die direkt die elektrischen oder magnetischen Veränderungen in messen. Des Weiteren unterscheiden sich die bildgebenden Methoden in ihrer räumlichen und zeitlichen Auflösung sowie darin, für welche Strukturen des Gehirns sie besonders sensitiv sind bzw. welche Stoffwechselprozesse sie abbilden können. Um die Stärken der einzelnen Verfahren hinsichtlich der Auflösung und/oder des darzustellenden neuronalen Substrates zu kombinieren, bedient man sich zunehmend der multimodalen Bildgebung, bei der nacheinander oder parallel verschiedene Verfahren zum Einsatz kommen, teils in speziellen multimodalen Scannern wie dem PET/CT (. Abb. 10.1A). Es sei darauf hingewiesen, dass aus physikalischer Sicht, die vier Verfahren, die im Magnetresonanztomographen durchgeführt werden, eher Teilaspekte derselben Methode darstellen. Ähnliches gilt für die der Übersichtlichkeit halber unterteilten Anwendungen der Positronen-Emissions-Tomographie. Da hier aber der neurowissenschaftliche Experimentator im Mittelpunkt stehen soll, wurden die Verfahren anhand möglicher Einsatzgebiete klassifiziert.
10
Bei humanen Experimenten spielt die Frage, inwieweit die Messprozesse auf Röntgen- oder radioaktiver Strahlung basieren, eine wichtige Rolle bei der Entscheidung für eine der Methoden. Speziell in der humanen Grundlagenforschung müssen die möglichen Nebenwirkungen für die gesunden Versuchsteilnehmer minimiert werden. Insofern kommen dort hauptsächlich Methoden zum Einsatz, die als absolut nebenwirkungsfrei gelten. Ausnahmen von dieser Regel werden nur gemacht, wenn die wissenschaftliche Fragestellung die geringe Belastung der Versuchsteilnehmer mit Strahlung rechtfertigt und diese Frage durch keine andere Methode beantwortet werden kann. Über die Einhaltung dieser wichtigen Regeln (Deklaration von Helsinki) wachen die Ethikkommissionen, bei denen jedes Experiment beantragt und genehmigt werden muss.
10.2
Strukturelle Bildgebung
Zu den strukturellen Bildgebungstechniken gehören einerseits die Computertomographie und die Magnetresonanztomographie, die darauf zielen, anatomische Strukturen möglichst hochaufgelöst darzustellen. Des Weiteren die Diffusionstensorbildgebung, die ebenfalls in Magnetresonanztomographen durchgeführt wird und mittels derer man die Mikrostruktur der weißen Substanz abbilden kann.
10.2.1
Computertomographie – CT
Die Computertomographie (CT) ist ein Verfahren, das auf Röntgenstrahlung basiert. Aufgrund der Schädeldicke und der eher geringen Unterschiede in der Dichte der Gehirngewebetypen ist eine sehr hohe Strahlendosis notwendig, die ein Vielfaches einer normalen Röntgenuntersuchung beträgt. Daher wird dieses Verfahren fast nicht in der humanen Grundlagenforschung eingesetzt. In der klinischen Diagnostik ist die CT aber weiterhin äußerst verbreitet, da sie gegenüber der anderen strukturellbildgebenden Methode, der Magnetresonanztomographie, einige wichtige Vorteile bietet. So ist es ein relativ schnelles Verfahren, was die Narkosezeiten
214
10
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
verkürzt. Außerdem ist es vergleichsweise kostengünstig. Zudem ist es der MRT bei der Darstellung knöcherner Strukturen deutlich überlegen. Teils werden in der klinischen Diagnostik kombinierte PET/CT-Scanner eingesetzt, um sowohl räumliche als auch funktionelle Information über relevante Hirnregionen zu erhalten (. Abb. 10.4A). In der humanen Grundlagenforschung kommt die CT zum Einsatz, wenn Aufnahmen, die von Patienten aus klinisch-diagnostischen Gründen gemacht wurden, bei Läsionsstudien verwendet werden. Als Läsion wird untergegangenes, also abgestorbenes (z. B. in Folge eines Schlaganfalls) oder fehlendes Hirngewebe (z. B. in Folge einer chirurgischen Lobektomie) bezeichnet. Lädierte Hirnareale können ihre Funktion nicht mehr ausüben. Bei solchen Läsionsstudien werden beispielsweise die Schlaganfall bedingten Hirnläsionen, also Größe und Ort des abgestorbenen Hirngewebes, vieler Patienten verglichen und deren Lokalisation über die Patienten hinweg mit bestimmten kognitiven Ausfällen wie z. B. dem Neglect, also der Nichtbeachtung einer Raum- und Körperhälfte, korreliert. Über solche Läsions-Funktions-Korrelationen gewinnt man direkten, kausalen Aufschluss über die Funktion des Hirnareals. Diese kann man dann mit den Ergebnissen von funktionell bildgebenden Studien vergleichen. Häufig gibt es von einigen Patienten keine MRT-Bilder, so dass auf die CT-Bilder zurückgegriffen werden muss. Auch in der tierexperimentellen Forschung wird CT gern in Kombination mit den molekularen Bildgebungsverfahren, der Positronen-EmissionsTomographie und Single-Photonen-Spektroskopie, eingesetzt, um deren schlechte räumliche Auflösung auszugleichen.
10.2.2
Magnetresonanztomographie – MRT
Die Magnetresonanztomographie (MRT) ist das in der Wissenschaft deutlich weiter verbreitete strukturell bildgebende Verfahren. Außerdem beruhen drei weitere Methoden auf gleichen Phänomenen und werden im Magnetresonanztomographen durchgeführt, nämlich die Diffusionstensorbildgebung, die Magnetresonanzspektroskopie und
die funktionelle Magnetresonanztomographie. Deshalb wird die MRT, wie bereist angekündigt, hinsichtlich ihrer physikalischen Grundlagen, der Auswertung und möglicher Fragestellungen in diesem Kapitel ausführlich dargestellt. Die Verbreitung der MRT ist dem großen Vorteil geschuldet, völlig nebenwirkungsfrei zu sein. Somit sind auch wiederholte Untersuchungen derselben Person möglich, sei es zur klinischen Verlaufsdiagnostik oder bei wissenschaftlichen Längsschnittsstudien. MRT-Scanner stehen mittlerweile in fast jeder Klinik, so dass sie trotz der hohen Anschaffungs- und Wartungskosten auch für Grundlagenwissenschaftler relativ leicht zugänglich sind. Auch im Tierexperiment ist MRT aktuell die am weitesten verbreitete Bildgebungstechnik. Zunächst werden im nächsten Abschnitt die physikalischen Grundlagen der MRT kurz umrissen. Es wird also etwas kernphysikalisch. Der an Physik nicht interessierte Experimentator kann diesen Punkt einfach überspringen. Der Experimentator, der befürchtet nicht genug von Kernphysik zu verstehen, und deshalb den Drang verspürt, weiterzublättern, sei beruhigt: Die Prinzipien der MRT sind relativ leicht zu verstehen (und auch ausgesprochen interessant).
Grundlagen der MRT kProtonen rotieren im Hochmagnetfeld
Die MRT basiert auf dem Phänomen, dass Atomkerne mit ungerader Protonen- oder Neutronenzahl einen Kernspin aufweisen. D. h., sie besitzen einen Eigendrehimpuls, der durch die Rotation der Kernbestandteile entsteht. Deshalb ist ein anderer Name dieser Methode auch Kernspintomographie. Zu diesen Atomen zählen Kohlenstoff, Natrium, Phosphor, Helium, Xenon und Wasserstoff, die alle im Körper vorkommen. Diese Rotation der positiven Kernbestandteileladung führt zur Entstehung eines kleinen Stabmagnetfeldes. Wasserstoff weist von den genannten Atomen im Körper die höchste Konzentration auf und ist ein relativ starker Stabmagnet, weshalb primär sein Signal gemessen wird. Der MRT-Scanner erzeugt andererseits ein permanentes starkes äußeres Magnetfeld, in dem sich die kleinen Protonen-Stabmagneten ausrichten wie Kompassnadeln im Erdmagnetfeld. Dabei können sie sich sowohl parallel als auch antiparallel zum
10.2 • Strukturelle Bildgebung
äußeren Magnetfeld ausrichten. Ersteres stellt den energetisch geringfügig günstigeren Zustand dar, so dass minimal mehr Protonen (0,0007 %) in diese parallele Richtung ausgerichtet sind. Durch diesen kleinen Überschuss ergibt sich ein Gesamtmagnetisierungsvektor in Richtung des äußeren Hochmagnetfeldes (Longitudinalmagnetisierung). Die ausgerichteten Protonen bewegen sich (»präzedieren«) nun etwas schief um die Achse des äußeren Hochmagnetfeldes, so dass ihre Achse einen nach oben bzw. unten halb geöffneten Regenschirm beschreibt. Die Geschwindigkeit dieser Präzession wird als Frequenz angegeben, also Rotation pro Sekunde (Lamorfrequenz). Sie steigt mit zunehmender Stärke des externen Hochmagnetfeldes, die in der Einheit ‚Tesla‘ angegeben wird. Die Rotationsgeschwindigkeit hängt außerdem von der Art des Atomkerns ab. Wasserstoff hat eine Lamorfrequenz bei 1 Tesla von über 42 MHz, d. h. die Protonen rotieren mehr als 42 Millionen Mal pro Sekunde um die Hauptmagnetfeldachse. Bei der MRT wird, wie gesagt, fast ausschließlich Wasserstoff betrachtet, da es ein günstiges gyromagnetisches Verhältnis (Abhängigkeit der Lamorfrequenz von der Stärke des äußeren Magnetfeldes) aufweist und außerdem in allen Gewebetypen sehr häufig vorkommt. kMagnetfeld: Size matters
Üblich waren bis vor einigen Jahren Feldstärken von 1,5 Tesla, was ungefähr dem 30 000 fachen des Erdmagnetfeldes entspricht. Aktuelle Geräte für humane Anwendungen haben üblicherweise 3 Tesla. Es gibt auch schon eine ganze Reihe von 7 Tesla Forschungsscannern und 2009 wurde sogar ein 9,4 Tesla Gerät im Forschungszentrum Jülich in Betrieb genommen. Das entspricht dem 200 000 fachen des Erdmagnetfeldes. Bei Tierscannern sind bereits Feldstärken von bis zu 21 Tesla erreicht worden. Bei höheren Feldstärken können die Versuchspersonen nur langsam in die Scannerröhre hineingefahren werden, da sonst Wirbelströme entstehen, die über das Innenohr Schwindel und Übelkeit auslösen. Ein Beispiel aus der funktionellen Magnetresonanztomographie, wie sich eine höhere Feldstärke auf die Sensitivität auswirkt, ist in . Abb. 100.6 E für den 1,5 gegen 7 Tesla Vergleich aus dem E. L.-Hahn-Institut in Essen gezeigt.
215
10
Eine höhere Feldstärke verbessert das SignalRausch Verhältnis. Diese zu erreichen ist jedoch technisch aufwendig. Die Magnete basieren auf Supraleitung und müssen deshalb mittels flüssigen Heliums auf −269 ° tief-gekühlt werden. 1 Tesla kostet ca. 1 Millionen Euro bei humanen Scannern, so dass sich die Mehrkosten irgendwann nicht mehr rechnen. Außerdem nehmen mit steigender Feldstärke Feldinhomogenitäten zu, quasi Verzerrungen des Bildes. Abgesehen von all diesen Schwierigkeiten gibt es auch technische Grenzen, die heutzutage nicht viel über den erreichten 21 Tesla liegen. Aber auch mit den zurzeit weit verbreiteten 3-Tesla-Geräten kann man mit den richtigen Sequenzen (s.u.) hochauflösende anatomische Bilder machen. Es gibt aber auch 0-Tesla-Scanner. Diese sind aus Holz angefertigte Imitate, die den richtigen Scanner möglichst ähnlich sehen sollen. Der charakteristische Lärm einer MRT-Messung muss dann künstlich erzeugt werden. Eingesetzt werden diese in der pädiatrischen Bildgebung, d. h. wenn man junge Kinder (ab 4 Jahren) wissenschaftlich untersuchen möchte. Mit den Kindern kann man dann in entängstigender Atmosphäre im 0-TeslaScanner und ohne Kostendruck den Ablauf und vor allem das Stillliegen üben. Erfahrungsgemäß haben Kinder nach Überwindung der ersten Schüchternheit deutlich weniger Platzangst im Scanner als Erwachsene, bewegen sich dafür aber mehr. kHochfrequenzpuls kippt Protonen um
Um von den im Magnetfeld ausgerichteten Protonen ein Signal messen zu können, werden sie zunächst durch einen sehr kurzen Hochfrequenzpuls angeregt. Dieser Puls muss exakt die Lamorfrequenz haben, damit die Energie von den Protonen aufgenommen und später wieder abgegeben werden kann. Diese Energieaufnahme bei gleicher Frequenz wird als Resonanz bezeichnet und erklärt, warum die Methode Magnetresonanztomographie heißt. Die zugeführte Energie bewirkt nun einerseits, dass einige Protonen in den energiereicheren Zustand, antiparallel zum Hauptmagnetfeld, umkippen. Dadurch verringert sich die Longitudinalmagnetisierung. Andererseits werden die Rotationsbewegungen der Protonen synchronisiert, als wenn plötzlich alle Speichen des halb aufgeklappten Regenschirms an einer Stelle wären. Dadurch
216
10
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
heben sich die Magnetfelder zufällig gegenüber rotierenden Protonen nicht mehr auf und es entsteht senkrecht zum Hauptmagnetfeld auch ein Magnetisierungsvektor, transversale Magnetisierung. Wenn der kurze Hochfrequenzimpulses vorbei ist, geben die Protonen die Energie wieder als Hochfrequenzsignal ab. Dieses wird von der Empfängerspule des MRT aufgezeichnet, die um den Kopf der Versuchsperson angebracht ist. Gewebetypen unterscheiden sich darin, wie lange es nach Abschalten des Hochfrequenzpulses dauert, bis die Protonen in den ursprünglichen Zustand zurückkehren. Die T1-Zeit ist die Zeitkonstante, die beschreibt, wie lange es dauert bis die longitudinale Ausgangssituation wieder hergestellt ist und wie schnell die aufgenommene Energie an das Gewebe abgegeben werden kann. Wasser hat eine lange, Fett eine kurze T1-Zeit. Dagegen beschreibt die T2-Zeit, wann die transversale Ausgangsituation wieder besteht, d. h. die Protonen nicht mehr synchron rotieren (sich die Speichen des Regenschirms wieder gleichmäßig verteilt haben). Die T2-Zeit hängt von der Interaktion der Spins untereinander ab. Wasser hat eine lange, Flüssigkeiten, die größere Moleküle enthalten, noch längere T2Zeiten. Die T2*-Zeit (gesprochen »T2-Stern«) hängt zusätzlich noch von der Interaktion mit anderen Effekten wie der Megnetfeldhomogenität ab. Die drei Zeitkonstanten verhalten sich zueinander entsprechend T1 ≥ T2 > T2*. kOrtsauflösung: Wo befindet sich das Proton?
Bleibt die Frage, wie der Ort dieser Prozesse ermittelt werden kann. Dafür sei an die Tatsache erinnert, dass die Protonen die eingestrahlte Energie nur aufnehmen können, wenn diese exakt der Lamorfrequenz entspricht. Diese hängt neben der Art des Atoms nur von der Stärke des äußeren Magnetfeldes ab. Dies macht man sich zunutze und legt ein zusätzliches Gradientenfeld an, so dass sich das Hochmagnetfeld örtlich und zeitlich begrenz ändert. Es können dann zu einem Zeitpunkt nur die Protonen Energie aufnehmen, die an der Stelle liegen, wo das Gradientenfeld dafür sorgt, dass das Magnetfeld die richtige Stärke hat. So kann man schichtweise durch das Gehirn wandern. Innerhalb der Schicht wird der zweidimensionale Ort jedes Proton durch weitere Gradienten auf ähnliche Art bestimmt.
kMR-Sequenzen
Unter Sequenz versteht man Computerprogramme zur Steuerung des MR-Scanners, so dass die gewünschte Kombination aus Hochfrequenzpulsen und kurzen Pulsen der Gradientenfelder gesendet, Signale und die Rohdaten aufgezeichnet werden. Mit den Sequenzen beeinflusst man wesentlich die Eigenschaften der Messung und der daraus berechneten Bilder. Es geht also um Schnelligkeit, Kontrast, Anfälligkeit und Art möglicher Artefakte, Empfindlichkeit für Bewegungen und Blutfluss. Neue Sequenzen zu entwickeln, die für bestimmte Fragestellungen besonders sensitiv sind, ist ein Forschungsgebiet von MR-Physikern. Sie geben ihren Sequenzen dabei gerne lustige Akronyme wie die bereits 1985 in Deutschland entwickelte FLASH (Fast Low Angle Shot), die die Aufnahmezeit um Größenordnungen verkürzte. Ein etwas neueres Beispiel wäre GRAPPA, eine parallele Aufnahmetechnik (Generalized Autocalibrating Partially Parallel Acquisition Technique), was in der funktionellen Bildgebung eingesetzt wird, um Bildverzerrungen zu reduzieren. Eine sehr spezielle Sequenz wäre ALOHA (Anxiety Loss Offered by Harmonic Acqisition). Diese Sequenz lässt den Scanner die Melodien verschiedener Kinderlieder erzeugen, in die die Bildmessung eingestreut wurde, um so die Akzeptanz des MRT bei Kindern zu erhöhen. Diese Sequenz wurde auf einer Tagung auf Hawaii vorgestellt und laut Autoren war das Hauptproblem, einen sinnvollen Namen für das Akronym zu finden. Wenn man darauf verzichtet, mit dem Scanner auch noch MRT-Bilder aufzeichnen zu wollen, kann man ihn noch besser als Musikinstrument benutzen. So spielte einmal ein Philips-Mitarbeiter im Frack auf einem Scanner das Thema des Schlusschors aus Beethovens 9ter, eine schottische Arbeitsgruppe revanchierte sich mit einem Dudelsackkonzert. Vielleicht muss man allerdings MRT-Physiker kennen (und schätzen), um diese Vorstellung amüsant zu finden. Und für ein Musikinstrument ist ein Scanner auch ganz schön teuer. Andersherum haben die charakteristischen, rhythmischen Geräusche des MRT auch Künstler inspiriert, die aus klinischen Gründen mit der Kernspintomographie konfrontiert waren. So nannte 2009 die Schauspielerin und Sängerin
217
10.2 • Strukturelle Bildgebung
Charlotte Gainsbourg ihr drittes Album der Inspirationsquelle entsprechend IRM (Imagerie par Résonance Magnétique, produziert von Beck). Die Hamburger Künstlerin Susi Mahacke choreographierte im selben Jahr eine Performance zu MRTKlängen. Ein ganz wichtiger Parameter bei Sequenzen ist die Repetitionszeit (TR), die den Zeitraum zwischen zwei Hochfrequenzpulsen angibt. Anders formuliert gibt die TR in der funktionellen Bildgebung an, wie lange es dauert, bis das Gehirn ein Mal ganz aufgenommen wurde. Man spricht auch von einem Volumen. Je kleiner die TR desto größer die Abtastrate der Signalveränderungen über den Zeitverlauf (vergleichbar der Anzahl der Bilder pro Sekunde in einem Film). Die Echozeit (TE) ist ein weiterer bedeutsamer Kennwert einer Sequenz und gibt die Zeit an zwischen der Anregung und der Mitte der Signalauslesung. Verschiedene Sequenzen legen unterschiedlich viel Gewicht auf die verschiedenen Zeiten. T1-gewichtete Aufnahmen werden verwendet, um eine möglichst exakte Abbildung der Strukturen des Gehirns zu erreichen. Eine lange T1-Zeit führt bei diesen Sequenzen zu einem schwächeren Signal, also einem dunkleren Bildpunkt. T2-gewichtete Aufnahmen werden vor allem bei klinischen Fragestellungen, T2*- für funktionelle Messungen benutzt. Bei T1-gewichteten Bildern ist eine Auflösung von 1 mm3 für menschliche Gehirne üblich, etwas höhere Auflösungen sind aber möglich (bis ca. 0,4 × 0,4 × 2 mm).
10
xationszeiten umgegangen werden sollte. Schließlich wurde er bei der Preisvergabe übergangen, was er durch ganzseitige Anzeigen u. a. in der New York Times und der schwedischen Dagens Nyheter erfolglos zu verhindern versuchte. Er tröstete sich dann mit allerlei Verschwörungstheorien. Ein prominentes Beispiel für nicht ungewöhnliches Kompensationsverhalten von ehrgeizigen Wissenschaftlern, die ihre Leistung nicht entsprechend gewürdigt sehen. Dass die MRT eines Tages auf eine solche Erfolgsgeschichte zurückschauen würde, dürfte dabei den einzelnen Grundlagenforschern nicht unbedingt klar gewesen sein. Speziell der heutzutage selbstverständliche Einsatz des MRT in der klinischen Diagnostik muss für die experimentellen Atomphysiker unvorstellbar gewesen sein. Dies mag eine Ermunterung für den grundlagenwissenschaftlich arbeitenden Experimentator sein, der von Zweifeln an dem Nutzen seiner täglichen Mühe geplagt wird und das Gefühl hat, sich für seine »sinnlose« Forschung im Elfenbeinturm rechtfertigen zu müssen. Wer weiß, vielleicht wird ja auch die eigene Arbeit mal zu einem Nobelpreis beitragen (ansonsten kann man ja mit einer Zeitungskampagne versuchen, ein wenig nachzuhelfen) oder zumindest auf eine jetzt noch nicht vorstellbare Weise eine nützliche Anwendung finden. Allerdings ist ein gewisser Grundzweifel wohl die geeignete Geisteshaltung für einen Wissenschaftler.
Auswertung von MRT-Daten kVom (möglichen) Sinn der Grundlagenforschung
In der Geschichte der MRT hat es eine ganze Reihe von Nobelpreisen gegeben, die die Beschreibung der einzelnen physikalischen Phänomene gewürdigt haben. Zu nennen sind Isidor Isaac Rabi (1944, Physik) sowie Felix Bloch und Edward Mills Purcell (1952, Physik), die die kernphysikalischen Grundlagen beschrieben haben. Es folgten einige weitere bahnbrechende Entdeckungen auf dem Gebiet der Magnetresonanz und erst deutlich später, nämlich 1970, wurden die ersten MRT-Bilder von Paul C. Lauterbur und Sir Peter Mansfield aufgezeichnet. Den Medizin-Nobelpreis erhielten sie erst 2003, wohl weil sich das Komitee nicht einigen konnte, wie mit Raymond Damdians Entdeckung zu Rela-
kKonvertierung der Daten
Der Scanner liefert die Bilder, die man im DICOM-Format exportieren kann (Digital Imaging and Communications in Medicine). Dies ist ein Standard, der den Austausch von Daten erleichtern soll. Zunächst müssen diese dann in ein dreidimensionales Bild konvertiert werden, durch dessen Voxel am Computerbildschirm hindurchnavigiert werden kann. Diese Konvertierung übernehmen die Softwarepakete, mit denen man anschließend die strukturellen aber auch funktionellen MRTDaten auswerten kann. Die meisten Programme konvertieren in das NIfTI-1 Format, das ebenfalls den Austausch von bildgebenden Daten vereinfachen soll.
218
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
A
B
C
D
E
F
10 PRESS10 ms RAT-Hippocampus
NAA
Cr
Cho ml Glx Glu ml Tau Asp+NAA GABA Cr Gln
4.2 4.0 3.8 3.6 3.4 3.2 3.0 2.8 2.6 2.4 2.2 2.0 1.8 1.6 1.4 1.2 1.0
. Abb. 10.2 Drei bildgebende Verfahren mit einem Magnetresonanztomographen: strukturelle MRT, DTI und MRS. A) Humanes MRT: ein hochauflösendes T1-gewichtetes Bild (1 × 1 × 1 mm). B) Humanes DTI: obere Reihe: isotrope und anisotrope Diffusion; untere Reihe: fraktionelle Anisotropie-(FA-)Karte (links) und mittels Fiber-Tracking markiert Pyramidenbahn (rechts). Die FA-Werte und Fiber-Tracking-Ergebnisse sind normalerweise farbcodiert und besser zu erkennen. C) 4,7 Tesla MRT- Kleintier-Scanner. D) Experimenteller Aufbau beim Kleintier-MRT (9,4 Tesla–Scanner). E) Kleintier-MRT bei 9,4 Tesla: hochauflösendes T2*-gewichtetes Bild eines Rattenhirns (59 × 59 × 500 μm, links); hochauflösendes T1-gewichtetes Bild bei (117 × 117 × 334 μm, rechts). F) Kleintier-MRS: Single-Voxel 1H-MRS-Spektrum aus dem Ratten-Hippocampus bei 9,4 Tesla. Die Peaks entsprechen der Konzentration der einzelnen Metabolite. (Mit freundlicher Genehmigung von M. Menz, Hamburg (B), J. Dalley, Cambridge (C), und W. Weber-Fahr, Mannheim (D, E, F))
kSoftware-Pakete zur Analyse von (f)MRT-Daten
Es gibt mittlerweile viele solcher Softwarepakete, wobei die meisten von universitären Einrichtungen mit offenem Quellcode entwickelt werden. Man
kann sie also – wenn man die entsprechende Programmiersprache wie z. B. Matlab® einigermaßen beherrscht – verändern und an die eigenen Bedürfnisse anpassen. Außerdem lässt sich durch den
10.2 • Strukturelle Bildgebung
offenen Quellcode jeder Schritt nachvollziehen, so dass man selbst entscheiden kann, inwieweit dieser sinnvoll ist und inwieweit man dem zugrunde liegenden Algorithmus glaubt. Die meisten Softwarepakete sind frei verfügbar. Beispiele wären FSL (Oxford), AFNI (National Institute of Health, USA), Freesurfer (Harvard) oder Caret (Washington). Brain Voyager ist dagegen ein kostenpflichtiges Programm, das von dem Neurowissenschaftler Rainer Goebel und seiner Firma in Maastricht entwickelt wurde. Das zurzeit mit Abstand am weitesten verbreitete Softwarepaket mit der wohl längsten Entwicklungsgeschichte heißt SPM (statistical parametric mapping, s. Exkurs auf S. 200). SPM wird vom Functional Imaging Laboratory (FIL) in London unter der Leitung von Karl Friston entwickelt. In Deutschland sind neben SPM vor allem Brain Voyager und speziell bei DTI-Anwendern FSL im Einsatz. In den USA benutzen viele Wissenschaftler AFNI. Im Prinzip stehen natürlich alle Programme vor denselben Herausforderungen und lösen diese auch ähnlich. kNormalisierung – Überführung des Gehirns in ein Standardkoordinatensystem
Wenn man nun nur ein einzelnes Gehirn, z. B. das eines Tumorpatienten, anschauen möchte, ist die Auswertung der Daten nach der Konvertierung bereits beendet. Bei den allermeisten wissenschaftlichen Fragestellungen möchte man aber mehrere Gehirne oder zumindest ein Gehirn zu verschiedenen Zeitpunkten miteinander vergleichen. Im letzteren Fall, wenn man also z. B. das Gehirns eines Tumorpatienten zu verschiedenen Messzeitpunkten vergleichen möchte, muss man die Aufnahmen des Gehirns an den verschiedenen Messungen nur für die unterschiedliche Lage im Raum korrigieren, also so verschieben, dass sie exakt übereinander liegen (realignment). Dabei handelt es sich um eine reine Festköpertransformation (. Abb. 10.3). Nach dieser Re-Orientierung befinden sich die verschiedenen Hirnstrukturen bzw. die entsprechenden Voxel zu den verschiedenen Messzeitpunkten an exakt denselben räumlichen Koordinaten und man kann z. B. das Tumorwachstum in einer Region quantifizieren. Wenn man Datensätze einer Person »realignen« möchte, die in verschiedenen Modalitäten wie strukturel-
219
10
ler und funktioneller MRT aufgenommen wurden, spricht man von Coregistrierung. Im weitaus häufigeren Fall möchte man aber die verschieden geformten Gehirne mehrerer Individuen vergleichen und/oder die Aussagen über die gemessenen Gehirne zu anderen (publizierten) Daten in Beziehung setzen. Ein einfaches Realignment reicht dabei nicht aus, sondern die Gehirne müssen zunächst in einen gemeinsamen stereotaktischen Raum, also ein standardisiertes Koordinatensystem, gebracht werden. Dazu werden sie einerseits auf einen gemeinsamen Nullpunkt verschoben und andererseits absolute und relative Größen- und Formunterschiede ausgeglichen. Diese Transformation wird als Normalisierung bezeichnet. Dabei wird das Hirn gestreckt und geschert, um den Umrissen des Vergleichsgehirns zu entsprechen (affine Transformationen, . Abb. 10.3). Dazu kommen noch nichtlineare Größenänderungen, um die relative Größe von Substrukturen, wie z. B. den Ventrikeln oder der Basalganglien, anzupassen. Die komplexen Algorithmen der Normalisierung liefern eine Transformations-Matrize, in der für jedes Voxel das Ausmaß der Dehnung, Stauchung etc. festgelegt ist. Es existieren aktuell zwei Standardkoordiantensysteme, die zu leicht unterschiedlichen Koordinatenangaben führen. Der ältere Talairach-Atlas definiert die anteriore Kommissur als Nullpunkt des Koordinatensystems und wurde aus einer Hemisphäre einer 60-jährigen Patientin post mortem als Referenzgehirn erstellt. Eine Alternative ist das vom Montreal Neurological Institute (MNI) bereitgestellte Referenzgehirn (sog. MNI-Space), das durch die Mittlung von 305 anatomischen Aufnahmen entstanden ist. Diese wurden möglichst nah an die Talairach-Koordinaten angepasst, so dass ebenfalls die anteriore Kommissur als Nullpunkt dient (. Abb. 10.3). Die Koordinatenangaben beider Standardräume können durch Lineartransformationen ineinander überführt werden. Dazu existieren z. B. zwei Matlab-Funktionen (‚mni2tal‘ bzw. ‚tal2mni‘), die leicht im Internet zu finden sind. kQuantifizierung des Unterschieds zwischen verschiedenen Gehirnen
Es gibt verschiedene Verfahren, um die Größenunterschiede bestimmter Strukturen, region of interest (ROI), zwischen Gruppen oder zu mehreren Messzeitpunkten zu quantifizieren und zu verglei-
220
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
Statistical parametric mapping – SPM SPM wurde Ende der 80er Jahre von Karl Friston, damals noch an der MRC Cyclotron Unit (Hammersmith Hospital) in London, zur Analyse von PET Daten entwickelt und erstmals 1991 der Wissenschaftsgemeinde zugänglich gemacht. Schon damals wurden die Grundlagen der SPMAnalyse in zwei wissenschaftlichen Artikeln in Peer-Review-Journalen veröffentlicht und somit konnte sich jeder Wissenschaftler selbst sein eigenes Bild von ihrer Validität machen. 1995 wurde dann das Functional Imaging Laboratory (FIL) gegründet und es erfolgte die erste größere Revision (SPM 94), die noch hauptsächlich von Karl Friston konzipiert und programmiert wurde. SPM wurde dabei auf die Analyse von MRT- und fMRT-Daten erweitert. Alle späteren SPM-Versionen bis hin zum aktuellen SPM8 bauen auf die-
ser Version auf und repräsentieren die theoretischen und technischen Weiterentwicklungen. Dabei wurden alle Veränderungen veröffentlicht und somit nicht nur nachvollziehbar, sondern zudem auch im Peer-Review Verfahren von externen Wissenschaftlern kritisch geprüft. Seit SPM2 können auch EEG- und MEG-Daten mittels SPM ausgewertet werden. Außerdem bietet SPM seit einigen Versionen die Möglichkeit, Konnektivitäten von Gehirnaktivierungen zu untersuchen und auch Ansätze der Bayesschen Statistik können bei der Analyse verwendet werden. Seit langem tragen weltweit auch Wissenschaftler an anderen Instituten z. B. durch die Entwicklung von Erweiterungen, sog. Toolboxes, zu der Vielseitigkeit dieses Programms bei. Eine dieser Tool-
boxes, die speziell im Zusammenhang mit strukturellen MRT-Daten von großem Interesse ist, ist die »voxel-based Morphometry« oder VBM-Toolbox von Christian Gaser aus Jena. Diese Methode erlaubt die Quantifizierung und statistische Testung von subtilen morphologischen Unterschieden zwischen Gruppen oder Messzeitpunkten, wie bei den Anwendungsbeispielen gezeigt wird. Ein weiterer Vorteil von SPM ist die SPM-helpline im Internet, in der sich die Nutzergemeinschaft austauscht, deren riesiges Fragen-Antworten Archiv man durchstöbern kann und in der auch die Entwickler selbst zügig Fragen beantworten. Abschließend sei erwähnt, dass SPM mittlerweile auch in der klinischen Diagnostik und zur Analyse von SPECT-Daten eingesetzt wird.
10 chen. Diese unterscheiden sich u. a. im Maß der Automatisierbarkeit. Man kann entweder alle Voxel dieser Struktur in einem entsprechenden Programm, wie dem frei verfügbaren MRIcron, mit der Hand markieren. Alternativ lässt man sich von einem Programm unterstützten, das Hell-DunkelKanten hervorhebt und manuell gesetzte Punkte entlang dieser Kanten verbindet (semiautomatische Verfahren). Anschließend vergleicht man die Anzahl der Voxel innerhalb einer Struktur. Eine mittlerweile weit verbreitetet und akzeptierte Methode besteht in der voxelbasierten Morphometrie (Exkurs ‚statistical parametric mapping – SPM‘). Dabei werden die Bilder zunächst in Liquor, graue und weiße Substanz segmentiert. Bei der anschließenden speziellen Normalisierung werden die relativen Größenunterschiede der verschiedenen Hirnstrukturen nicht verändert. Daher kann man von einem voxel-weisen Vergleich der Bildintensitäten auf morphologische Unterschiede schließen. Diese Methode hat die Vorteile, dass sie sehr objektiv ist und sich auf große Datensätze anwenden lässt, weil sie gut automatisierbar ist und alle Strukturen des Gehirns berücksichtigt,
und zudem ausgesprochen sensitiv morphologische Unterschiede detektiert.
Humane strukturellen Magnetresonanztomographie In klinischen Studien ist der Krankheitsverlauf bei raumfordernden Prozessen (z. B. Tumorwachstum) von großem Interesse oder die Größe einer Läsion nach Schlaganfall im Zusammenhang mit den beobachtbaren kognitiven Ausfällen. Mittels der voxelbasierten Morphometrie wurden aber auch in großen Stichproben subtile geschlechtsspezifische und altersabhängige Unterschiede quantifiziert. Beeindruckende Beispiele für die Sensitivität dieser Methode liefern Befunde aus Längsschnittsstudien, die zeigen, dass bei Medizinstudenten während dreier Monate Physikumsvorbereitung der Hippocampus selektiv größer wurde. Es sollte angemerkt werden, dass aktuell nicht endgültig geklärt ist, warum genau die graue Subtanz zunimmt. Allerdings wurde mittels voxelbasierter Morphometrie auch gezeigt, dass sich die Größe des Hippocampus im Verlauf des weiblichen Zyklus signifikant ändert. Östrogen wirkt bekann-
221
10.2 • Strukturelle Bildgebung
A
B
10
Lineare Transformation
Verschiebung
Rotation
Skalierung
Scherung
C
Nichtlineare Transformationen
Deformation-Karte . Abb. 10.3 Normalisierung von MRT-Daten. A) Standardkoordinatenraum (Talairach- oder MNI-Space) mit dem Nullpunkt an der anterioren Commissur (CA), der y-Achse durch die posteriore Commissur (CP), der z-Achse in der ventral-dorsalen Ausrichtung und der x-Achse von rechts nach links. Nach der Normalisierung befindet sich das individuelle Gehirn in diesem Raum, so dass man es anhand von Koordinatenangaben mit anderen vergleichen kann. B) Affine, lineare Normalisierungsschritte: Verschiebung und Rotation sind Festköpertransformationen. Diese Schritte verändern nicht die Größe des Gehirns und werden auch beim Realignment und der Coregistrierung durchgeführt. Skalierung und Scherung verändern Form und Größe des Gehirns. C) Nichtlinearer Normalisierungsschritt: Relative Größenunterschiede einzelner Strukturen werden angepasst. Die Transformationsmatrize enthält für jedes Voxel den Grad der Ausdehnung bzw. Stauchung. (Mit freundlicher Genehmigung von C. Gaser, Jena)
termaßen im Hippocampus synaptogen, so dass diese Vermehrung der Synapsen die Grundlage der beobachteten Zunahme der grauen Substanz sein könnte. Unabhängig von den geschilderten Möglichkeiten misst man in der Regel auch bei funktionellen MRT-Studien bei jedem Probanden ein hochauflösendes anatomisches Bild (hochauflösend im Gegensatz zu dem so genannten Localizer, mit dem man die Lage des Hirns im Messfeld oder field of view des Scanners bestimmt). Dieses Bild kann sowohl bei der Normalisierung der funktionellen Bil-
der helfen als auch dabei, die Foci der Aktivierung ganz exakt der Anatomie der Person und nicht nur einem Standardhirn zuzuordnen.
Tierexperimentelle strukturelle MRT Es werden überwiegend Kleintiere, Mäuse und Ratten, und deutlich seltener größere Tiere wie Katzen und Affen im MRT gescannt. Erstere können sowohl in Kleintier-Scannern als auch in humanen Scannern untersucht werden. Kleintier-Scanner liefern die besseren Bilder, da der gesamte technische Aufbau für die kleineren Gehirne optimiert
222
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
Imaging Genetics
10
Imaging Genetics ist ein ungefähr 10 Jahre alter experimenteller Ansatz der Bildgebung, die mittlerweile mit allen bildgebenden Verfahren mit zunehmender Häufigkeit durchgeführt wird. Dabei ist auch hier die funktionelle Magnetresonanztomographie die häufigste Methode. Allein aufgrund ihrer Verbreitung darf diese Subdisziplin in einem Buch wie dem Experimentator nicht fehlen. Darüber hinaus bietet Imaging Genetics aber auch eine elegante Möglichkeit, wie zellphysiologische, tierexperimentelle und humane Neurowissenschaften translational zu einer neurowissenschaftlichen Fragestellung beitragen können. Dieser Ansatz bietet sich somit für interessante Kooperationen von Experimentatoren aller neurowissenschaftlicher Disziplinen an. Kurz gesagt geht es bei Imaging-Genetics-Studien darum, Genotyp-Phänotyp-Assoziationen zu finden. Bei den Genotypen handelt es sich meistens um die individuelle Ausprägung in einem bekannten genetischen Polymorphismus. Der Phänotyp der Versuchspersonen wird mit einem bildgebenden Verfahren bestimmt. Imaging-GeneticsStudien folgen größtenteils dem Kandidaten-Gen-Ansatz. Der Kandidaten-Gen-Ansatz beruht auf der hypothesengeleiteten Auswahl eines oder mehrerer Kandidatengene. Diese Gene codieren für Proteine, die möglicherweise die Ausprägung eines Bildgebungsphänotyps beeinflussen. Solche Phänotypen sind u. a. die Größe eines Hirngebiets, die Rezeptordichte oder das Ausmaß an neuronaler Aktivität. In vielen Genen wurden mittlerweile Polymorphismen beschrieben. Polymorphismen sind kleine Unterschiede der DNA-Sequenz, die in der Population häufig auftreten und seit Generationen weitervererbt werden. Der Kandidatengen-Ansatz wird im Folgenden an einem Beispiel des dopaminergen Transmittersystems, dem sich die meisten Imaging-Genetics- Studien widmen, genauer erläutert.
Dopamin ist ein wichtiger Neurotransmitter in bestimmten Gehirngebieten, u. a. dem Nucleus accumbens und dem präfrontalen Cortex. Eine naheliegende Hypothese ist daher, dass Polymorphismen in Genen des Dopaminstoffwechsels die Morphologie und Funktion dieser Gehirngebiete beeinflussen. Aufgrund des großen klinischen Interesses am dopaminergen System wurden schon früh Polymorphismen in diesen Genen identifiziert und hinsichtlich ihrer physiologischen Phänotypen charakterisiert. Einige der Polymorphismen beeinflussen die Bindungscharakteristik von Dopaminrezeptoren, die Aktivität des Dopamintransporters oder der abbauenden Enzymen. Einer der beliebtesten genetischen Polymorphismen befindet sich in der Catechol-O-Methyltransferase (COMT), die Dopamin abbaut. Die beiden Allele dieses Proteins unterscheiden sich in einer Aminosäure, so dass ihr enzymatisches Zentrum eine leicht unterschiedliche dreidimensionale Struktur aufweist. Diese führt zu unterschiedlichen enzymatischen Aktivitäten beider COMTAllele. In Imaging-Genetics-Studien werden die Versuchspersonen aufgrund ihres COMT-Genotyps in Gruppen eingeteilt. Die Ergebnisse der Bildgebung vergleicht man dann zwischen diesen Genotypgruppen. Mittels Liganden-PositronenEmmissions-Tomographie (PET) wurde so bestätigt, dass Menschen in Abhängigkeit ihres COMT-Genotpys tatsächlich in vivo eine unterschiedliche Dichte von Dopaminrezeptoren im präfrontalen Cortex aufweisen. Mehrere strukturelle Magnetresonanztomographiestudien, sowohl MRT als auch DTI, zeigten, dass der COMT-Genotyp auch die Größe einzelner Hirnstrukturen und Faserverbindungen beeinflusst. EEG-Studien haben den Einfluss des Genotyps auf verschiedene elektrophysiologische Parameter der Gehirnaktivität gefunden. Und schließlich haben zahlreiche funktionelle
Magnetresonanzstudien erfolgreich die Höhe der Gehirnaktivierung in den betreffenden Arealen zwischen den Genotypgruppen verglichen. Das COMT-Beispiel zeigt eindrucksvoll die Vielfältigkeit des Imaging-Genetics-Ansatzes, da Phänotypen fast aller bildgebenden Methoden eingesetzt wurden und so ein aufschlussreiches Gesamtbild ergeben. Ergänzt werden diese Befunde durch ganz andere experimentelle Ansätze zu diesem Polymorphismus, wie humane post mortem-Analysen und den Einsatz von transgenen Mäusen. Die Auswirkungen manch anderer Polymorphismen dagegen sind teils allerdings (noch) weniger gut replizierbar. Klassische Genetiker kritisieren den Ansatz daher auch gern für die Gefahr falsch positiver Ergebnisse. Eine häufig angewandte Möglichkeit, diesem Argument zu begegnen, ist die Replikation des Ergebnisses an zwei unabhängigen Stichproben innerhalb derselben Studie. Solch eine interne Replikation ist möglich, weil man für den Nachweis eines Genotypeffekts auf die Hirnaktivierung eines Areals nur relativ wenige Versuchspersonen benötigt (ab ca. 15 in jeder Genotypgruppe). Es handelt sich also um sehr sensitive Phänotypen, wenn man bedenkt, dass Genotpy-abhängige Unterschiede im Verhalten, also z. B. der Gedächtnisleistung, oft erst ab über 100 Versuchspersonen nachweisbar sind. Neben dem Kandidaten-GenAnsatz existieren noch alternative Vorgehensweisen, wie z. B. Zwillingsstudien oder die Untersuchung von genetischen Krankheiten wie dem Fragilen-X-Syndrom. Sicherlich werden in Zukunft, Whole Genome Association (WGA)-Studien, die nicht hypothesengeleitet vorgehen und daher weit größere Stichproben benötigen, zunehmen. Dies wird dadurch begünstigt, dass Microarrays und neue DNA-Sequenzierungsmethoden (siehe 7 Kap. 2, Molekularbiologische Techniken) und auch das Scannen günstiger werden.
223
10.2 • Strukturelle Bildgebung
ist und höhere Feldstärken möglich sind. So haben sie durch stärkere Gradientensysteme und kleinere Spulen eine höhere Auflösung und ein besseres Signal-Rausch-Verhältnis. Eine Auflösung von 0,33 mm3 ist aber auch im humanen Scanner möglich. Eine hochaufgelöste Kleintier-MRT stellt insbesondere in humanen Scannern allerdings immer noch eine gerätetechnische Herausforderung dar. Im 7-Tesla-Tier-Scanner der Charité in Berlin wurde eine Auflösung von 79 × 79 × 109 μm erreicht, allerdings bei einer Messzeit von 16 Stunden Diese ist natürlich keiner lebenden Maus zuzumuten und damit wenig ökonomisch. Normalerweise sind die Aufnahmezeiten aber wesentlich kürzer, ohne zu deutlich schlechterer Auflösung zu führen (. Abb. 10.2). Die 117 × 117 × 334 μm in . Abb. 10.2E wurden mit 9.4T in 12 min gemessen. Damit ist die Auflösung der Kleintier-MRT den anderen Methoden der Kleintier-Bildgebung deutlich überlegen. Ein großer Vorteil der Kleintier-Bildgebung gegenüber herkömmlichen anatomischen Untersuchungsmethoden liegt darin, dass man dieselben Tiere mehrfach im Zeitverlauf untersuchen kann, da sie für die Messung nur anästhetisiert werden müssen. So werden z. B. für neurologische und onkologische Forschung verschiedenste Tiermodelle eingesetzt und die Entwicklung der Krankheit teils über Jahre verfolgt. Im Rahmen der weit verbreiteten Schlaganfall-Forschung werden künstlich Gefäße verstopft und die Folgen ebenfalls longitudinal untersucht. Dies bietet auch die Möglichkeit zur Therapieforschung etwa mittels Stammzellinjektion. Stammzellen werden dabei mit Eisenpartikeln markiert, in das Gehirn injiziert und die Wanderung im MRT verfolgt. Die Mehrfachmessung desselben Tiers hat neben den wissenschaftlichen Vorteilen auch ökonomische, da es billiger und schneller ist, als verschiedene Tiere zu jedem Messzeitpunkt zu töten und aufwendige morphologische Schnitte anzufertigen. Außerdem benötigt man natürlich deutlich weniger Versuchstiere, was neben den ethischen Vorteilen auch die Genehmigung durch die Ethikkommission erleichtert. In einigen Scannern können dann auch noch mehrere Kleintiere gleichzeitig gescannt werden, was natürlich eine zusätzliche Zeit- und Kostenersparnis darstellt. Grundlagenwissenschaftliche Anwendungen der Tier-MRT in der Forschung liegen in der Ver-
10
wendung spezieller Kontrastmittel, wie dem sehr magnetische Gadolinium, die beim Menschen nicht oder wenn nur in der klinischen Diagnostik (z. B. zur Gefäßdarstellung) Verwendung finden können. Zu solchen Kontrastmitteln zählen auch superparamagnetische Eisenoxid-Nanopartikel (SPIO), deren Herstellung aber (noch) ziemlich aufwendig ist. Im Rahmen von Tierversuchen gibt es auch die Möglichkeit, Gadolinium an Antikörper zu binden und deren Bindungsstellen auf diese Weise in vivo zu lokalisieren. Andere Kontrastmittel, die nur durch sehr starke Hochfrequenzpulse sichtbar gemacht werden können, werden wegen der Menge der zuzuführenden Energie ebenfalls nur beim Tier eingesetzt. Eine weitere Möglichkeit, die das Tier-MRT bietet, ist die Injektion von Manganchlorid in Nervenzellen. Dieses wandert die Axone entlang, so dass man im MRT deren Verlauf in vivo sichtbar machen kann. Des Weiteren kann man mittels MRT in verschiedenen genetischen Mausmodellen morphologische Veränderungen lokalisieren und quantifizieren. Dabei kommt mittlerweile auch die voxelbasierte Morphometrie zum Einsatz. Diese scheint auch beim Kleintier sensitiver in der Detektion von Unterschieden zu sein als die herkömmlichen morphologischen Verfahren. Das MRT bietet dabei insbesondere die Möglichkeit, durch die relative Automatisierbarkeit der Auswertung explorativ und wiederholt im Verlauf der Entwicklung das ganze Gehirn zu untersuchen.
10.2.3
Diffusionstensorbildgebung – DTI
Grundlagen der Diffusionstensorbildgebung Die Diffusionstensorbildgebung (DTI) beruht auf der Messung der Diffusionsbewegung von Wassermolekülen mittels diffusionsgewichteter MRT-Sequenzen. In flüssigem Wasser diffundieren Wassermoleküle aufgrund der Brownschen Molekularbewegung zufällig in alle Richtungen (einige zig Mikrometer in 50 ms); die Diffusion ist isotrop. Im Gehirn ist die Diffusion aber teilweise durch die Zellmembranen eingeschränkt und somit nicht in alle Richtungen gleich ausgeprägt (anisotrope Dif-
224
10
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
fusion, siehe . Abb. 10.2B). Speziell in der weißen Substanz des Gehirns diffundieren Wassermoleküle fast ungehindert in Richtung der axonalen und dendritischen Faserverbindungen, quer dazu jedoch nur langsam. Die DTI erlaubt nun die Mobilität der Wassermoleküle in alle Raumrichtungen zu erfassen, so dass daraus sowohl die bevorzugte Diffusionsrichtung als auch der Grad der Anisotropie in einem Voxel berechnet werden kann. Das Ergebnis dieser Diffusionsmessung in die verschiedenen Raumrichtungen wird für jedes Voxel in einer Art zweidimensionale Matrix, dem Tensor, numerisch erfasst. Diesem verdankt die Technik auch ihren Namen. Beides, die Hauptdiffusionsrichtung und die Anisotropie in einem Voxel, sind dabei Durchschnittswerte über alle Wassermoleküle in diesem Voxel, auch wenn sich diese in ganz verschiedenen Zellen oder zwischen den Zellen befinden. In grauer Substanz erwartet man relativ isotrope Diffusion, je mehr Nervenfasern aber in einem Voxel in dieselbe Richtung verlaufen, desto größer wird die Anisotropie. Dieser Wert gibt also Auskunft über das Ausmaß der gleichen Ausrichtung von Axonen und Dendriten in einem Voxel. Die fraktionelle Anisotropie (FA) ist ein häufig verwendeter Index des Anisotropie Grades. Er gibt im einfachsten Fall Aufschluss darüber, wie geordnet, also in eine Richtung gebündelt, die Fasern in einem bestimmten Gebiet sind (. Abb. 10.2B). Neben der Parallelität beeinflussen aber auch die Faserdichte und der Myelinisierungsgrad die FA. Über die bevorzugte Diffusionsrichtung in einem Voxel kann man darauf rückschließen, in welche Richtung die Mehrzahl der Fasern in diesem Voxel führt. So zeigt dieser Wert in den Voxeln des Balkens (Corpus callosum) entlang der x-Achse, also links-rechts als Hauptfaserrichtung, in Voxeln der Pyramidenbahn von oben nach unten entlang der z-Achse. Wenn man diese Hauptfaserrichtung farblich codiert, z. B. rot für die x-, grün für die y- und blau für die z-Achse kann man sich schnell einen Überblick über ganze Hirnquerschnitte verschaffen. Mit Hilfe der Hauptdiffusionsrichtung jedes Voxels kann man auch versuchen den Faserverläufen über Voxelgrenzen hinweg zu folgen (Fiber Tracking), wenn man davon ausgeht, dass Nerven-
fasern nicht plötzlich abknicken und damit von einem Voxel zum anderen ihre Richtung zu stark ändern (. Abb. 10.2B). Diesen Prozess kann man automatisieren und gibt dann einfach ein Ausgangsvoxel an. Der entsprechende Fiber-Tracking Algorithmus sucht dann anhand der Hauptdiffusionsrichtung benachbarter Voxel die wahrscheinlichsten Faserverläufe und gibt eventuell verschiedene mögliche Zielgebiete an. Die Verbesserung dieser Algorithmen ist Gegenstand aktueller Forschung, da z. B. die Verfolgung von Nervenfasern über Faserkreuzungen ohne eindeutige Hauptdiffusionsrichtung hinweg eine Herausforderung darstellt. Damit bietet DTI die Möglichkeit, Faserverläufen in vivo zu folgen, ohne die oben erwähnte Injektion von Tracern wie dem Manganchlorid in der MRT. Auch wenn man mittels DTI nicht wie bei den konventionellen Tracer-Studien einzelne Axone verfolgen kann (7 Kap. 6.5), hat man hier dafür die Möglichkeit, die Stärke von Faserverbindungen zu quantifizieren. Für optimale Datenqualität benötigt man in Abhängigkeit von der gewünschten Auflösung und der Anzahl von Diffusionsrichtungen, die gemessen werden sollen, relativ lange Aufnahmezeiten. Das macht die Messung anfällig für Bewegungsartefakte, da man hier nicht bei der Auswertung wie bei der funktionellen Magnetresonanztomographie für Bewegungen kontrollieren kann. Des Weiteren haben die Bilder der häufig verwendeten Echo Planar Imaging (EPI)-Sequenzen oft Verzerrungen, besonders in der Nähe von luftgefüllten Hohlräumen.
Humane DTI Man kann das Ausmaß der fraktionellen Anisotropie (FA) mittels voxel-basierter Morphometrie zwischen Versuchspersonen vergleichen. So konnte gezeigt werden, dass bei Stotterern selektiv die Verbindung zwischen motorischem Sprach- und Sprachplanungsarealen weniger geordnet bzw. stark myelinisiert ist. Mit Hilfe von DTI kann man aber auch zeigen, wie im Verlauf der Amyotrophen Lateralsklerose, an der der deutsche Maler Jörg Immendorff 2007 verstarb, die motorischen Neurone und damit die Pyramidenbahnen des Hirns degenerieren.
225
10.3 • Funktionelle Bildgebung
Wissenschaftler nutzten DTI inklusive FiberTrackings auch, um das Striatum das vom Nucleus cautadus und Putamen gebildet wird, aufgrund der hauptsächlichen Projektionen zu verschiedenen anderen Hirnarealen funktionell weiter zu unterteilen. Die individuelle Stärke dieser Verbindungen von striatären Unterregionen zu bestimmten anderen Hirngebieten wurde darüber hinaus mit Persönlichkeitsmerkmalen korreliert. So war zum Beispiel die Stärke der Verbindung zum Hippocampus mit »Novelty Seeking«, also der Tendenz, neue Erfahrungen zu suchen, korreliert. Dazu sei angemerkt, dass »Verbindungsstärken« zu quantifizieren und diese miteinander zu vergleichen eine große analytische und statistische Herausforderung darstellt und nicht unumstritten ist.
Tierexperimentelle DTI DTI wird auch in der tierexperimentellen Forschung erfolgreich eingesetzt. Da die Tiere sehr lange still liegen können, wenn man sie anästhetisiert, sind sehr hohe räumliche Auflösungen möglich. So existiert z. B. im Internet ein frei verfügbarer DTI-Atlas des sich entwickelnden Mäusegehirns mit einer Auflösung von 40 ~ 45 μm3 (Biomedical Informatics Research Network). In einer aktuellen klinischen Studie wurden Gliomzellen in die Gehirne von Ratten injiziert und das Tumorwachstum mittels DTI longitudinal verfolgt. Allgemein wird DTI auch in anderen Krankheitsmodellen, wie Epilepsie, Parkinson oder Schlaganfall, genutzt, um in vivo die Konsequenzen auf das Axonwachstum zu untersuchen. Die Reorganisation von Nervenverbindungen nach einer Hirnschädigung des Hippocampus wurde als Beispiel neuronaler Plastizität mittels DTI in Ratten untersucht. Hier konnte gezeigt werden, dass die FA-Werte sehr gut mit histologischen Analysen derselben Tiere übereinstimmten, insofern als dass höhere FA-Werte mit einer höheren Dichte von myelinisierten Fasern einhergehen.
10
Zu den funktionell bildgebenden Verfahren kann man einerseits alle Verfahren zählen, die biochemische bzw. physiologische Funktionen des Gehirns lokalisiert quantifizieren, z. B. die Bestimmung der Dichte von bestimmten Enzymen. Manchmal ist aber eine engere Definition gemeint, nach der nur jene Verfahren als funktionell gelten, mit denen man mentale Funktionen lokalisieren kann. Im Folgenden werden zunächst die Methoden vorgestellt, die auch nach der weiter gefassten Definition dazu zählen, also die Magnetresonanzspektroskopie, die Single-Photon-Emissions-Computertomographie und bestimmte Anwendungen der Positronen-Emissions-Tomographie (. Tab. 10.1). Im Anschluss daran werden diejenigen Verfahren vorgestellt, mit denen es möglich ist, Funktionen des Gehirns zeitlich aufgelöst zu lokalisieren. Dazu gehören ebenfalls die Positronen-EmissionsTomographie sowie die funktionelle Nahinfrarotspektroskopie und die Elektro- sowie Magnetenzephalographie. Die Positronen-Emissions-Tomographie bietet je nach verwendeten Nukliden beide Möglichkeiten der funktionellen Bildgebung. Die funktionelle Magnetresonanztomographie wird dann in 7 Kap. 10.4 ausführlicher erläutert. Die funktionellen bildgebenden Verfahren im engeren Sinn benutzen die so genannte Subtraktionsmethode, d. h. man vergleicht den Zustand des Gehirns in verschiedenen experimentellen Bedingungen (s. Exkurs »Kognitive Subtraktionsmethode und funktionelle Bildgebung« S. 232). Allerdings vergleicht man auch bei den funktionell bildgebenden Verfahren im weiteren Sinne oft die Messwerte, z. B. die Rezeptorbelegung, unter verschiedenen Bedingungen, die dann voneinander subtrahiert werden.
10.3.1
Magnetresonanzspektroskopie – MRS
Grundlagen der MRS 10.3
Funktionelle Bildgebung
Auf die zwei unterschiedlich weit gefassten Definitionen des Begriffs »funktionelle Bildgebung« wurde bereits zu Beginn des Kapitels hingewiesen.
Die Magnetresonanzspektroskopie (MRS) ist in der neurobiologischen Forschung und Anwendung noch eine relativ junge Disziplin. Sie beruht auf ähnlichen physikalischen Phänomenen wie die MRT, analysiert aber die Intensitätsspektren von Frequenzsignalen. Dadurch liefert sie Informatio-
226
10
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
nen über die biochemische Zusammensetzung von Gehirnarealen. Auf diese Weise kann die Konzentration einer Reihe wichtiger Metaboliten über ihr 1H-, 13C-, 19F- oder 31P-Kernresonanzsignal ortsaufgelöst quantifiziert werden. Chemiker nutzen diese Methode schon länger zur nicht-invasiven Untersuchung der molekularen Struktur von Materialien. Aber erst die Entwicklung genügend großer MRTScanner mit Magnetfeldstärken von mindestens 1,5 Tesla ermöglicht einen Einsatz auch bei Menschen. Allgemein gilt, dass größere Feldstärken auch die Messung von Molekülen geringerer Konzentration erlauben. MRS kann man als endogene molekulare Bildgebungstechnik beschreiben. Deutlich seltener bei der sog. funktionellen Spektroskopie (s.u.) führt man aber auch exogen Moleküle zu. Bezüglich der Aufnahmetechnik unterscheidet man zwei verschiedene Verfahren, die Einzelvolumen-MRS und die MRS-Bildgebung. Bei Ersterer wird das Spektrum eines relativ großen Voxels gemessen, das in der Zielregion platziert wird. Die MRS-Bildgebung ist eine Weiterentwicklung dieser Technik und erlaubt es durch den Einsatz von Phasenkodierungsgradienten die Spektren in mehreren kleineren Voxeln parallel aufzunehmen und somit eine höhere räumliche Auflösung zu erzielen. Die Metabolitenkonzentrationen können dann in den einzelnen Voxeln farbcodiert und auf anatomische Bilder projiziert werden, so dass man metabolische Landkarten erhält. Dadurch kann man ohne den Einsatz der radioaktivmarkierten Liganden teils ähnliche Fragen wie mittels der Positronen-Emmissions-Tomographie beantworten. Die Einzelvolumenspektroskopie liefert zwar nur Informationen über ein einzelnes Voxel, ist aber genauer und schneller. Neben diesen beiden Aufnahmetechniken unterscheidet man die Verfahren aufgrund der gemessenen Atomkerne. Beim Menschen sind Protonen (1H)- und Phosphor (31P)-MRS am gebräuchlichsten. Bei der Protonenspektroskopie muss zunächst das sehr intensive, aber wenig interessante Signal des Wassers methodisch aufwendig unterdrückt werden. Dann ist es möglich, z. B. die Konzentration von N-Acetyl-Aspartat zu messen (stärkstes Signal nach Wasser). Dessen Höhe gilt als Marker für den Bestand morphologisch und funktionell intakter Neurone. Ein weiteres wichtiges
Signal stammt von verschiedenen cholinhaltigen Substanzen. Ein erhöhtes Signal wird als Marker für erhöhten Membranauf- und -abbau gewertet, wie er z. B. in Folge erhöhten Zelltods auftritt. Auch mittels der Phosphor-MRS lässt sich der Membran Turnover bestimmen, wobei hier mehrere cholinhaltige Substanzen getrennt voneinander quantifiziert werden können. Dadurch erlaubt die Phosphor-MRS eine Differenzierung in Auf- und Abbauprozesse. Allerdings steht sie noch vor einigen Schwierigkeiten, was die räumliche Auflösung und die Zuverlässigkeit des Signals betrifft. Für funktionelle Spektroskopie ist vor allem die 13C-MRS von Bedeutung. 13C ist mit einer natürlichen Häufigkeit von 1 % im Körper nur in geringer Konzentration vorhanden. Nach Injektion von 13C-Glukose kann man daher ähnlich bei PET die räumliche Verteilung der markierten Glukose untersuchen. Im Gegensatz zu PET kann in der 13CMRS zusätzlich beobachtet werden, in welcher Geschwindigkeit sich die markierte Glukose in welche Metabolite umwandelt, weil nach kurzer Zeit neben dem Signal der Glukose auch die Signale der Stoffwechselprodukte wie Glutamat, Glutamin oder GABA beobachtet werden können.
Humane MRS Die 1H- und 31P-MRS werden heute nicht nur in der Forschung, sondern auch in der klinischen Diagnostik sowie bei Verlaufskontrollen von Hirnerkrankungen eingesetzt. Lokale Konzentrationsänderungen spezifischer Metabolite wurden u. a. bei Demenzen, Hirntumoren, Epilepsie und bei schizophrenen Patienten beobachtet. Bei Schizophrenen konnte z. B. mittels 1H-MRS gezeigt werden, dass sie höhere Glutamatkonzentrationen in bestimmten Hirnregionen aufweisen. Klinisch etabliert ist die MRS in der prä-chirurgischen Diagnostik der Temporallappen-Epilepsie, denn dort haben ihre Ergebnisse erheblichen prognostischen Wert: Nur wenn die MRS einen elektrophysiologisch bzw. mittels PET ermittelten Herdbefund bestätigt, ist die Prognose einer teilweisen operativen Entfernung des Hippocampus gut. Ein Anwendungsbeispiel für den Einsatz in der grundlagenwissenschaftlichen Forschung ist die Kombination der MRS mit funktioneller Magnetresonanztomographie. Dabei wurde mittels MRS
227
10.3 • Funktionelle Bildgebung
die individuelle Konzentration des hemmenden Neurotransmitters GABA im anterioren Gyrus cingulus ermittelt. Dieses Hirngebiet ist dafür bekannt, dass es in die Hemmung einer naheliegenderen, sich aufdrängenden Reaktion involviert ist (s. Exkurs »Der Stroop Effekt«). Anschließend mussten die Versuchspersonen genau solche automatischen Reaktionen unterdrücken, während ihre Hirnaktivität im Gyrus cingulus mittels der funktionellen Magnetresonanztomographie gemessen wurde. Die individuelle GABA-Konzentration in diesem Hirnareal korrelierte mit der Größe der funktionellen Deaktivierung, so dass man davon ausgehen kann, dass GABA eine wichtige Rolle bei diesem Prozess der Hemmung spielt. Diese Studie offenbart auch einen großen Vorteil der MRS gegenüber den anderen molekularen Bildgebungstechniken, die sensitiver und bzgl. der nachweisbaren Moleküle flexibler sind. Die MRS wird in demselben Gerät wie die anatomische und funktionelle MRT sowie DTI durchgeführt und erlaubt somit relativ unaufwendig multimodale Bildgebung.
Tierexperimentelle MRS Auch Kleintiergehirne werden mittlerweile mit MRS untersucht, wobei durch die höheren Feldstärken Spektren mit einer deutlich verbesserten spektralen Auflösung akquiriert werden. So können im Tier Metaboliten-Signale, wie Glutamat und Glutamin, getrennt werden (. Abb. 10.2F). Bei einer Voxelgröße von 2 mm3 benötigt man für eine solche Messung bei 9,4 Tesla 17 Minuten. Zusätzlich können bei Kleintier-Scannern auch heliumgekühlte Empfangsspulen zum Einsatz kommen, mit denen eine deutliche Verbesserung des SignalRausch-Verhältnisses möglich ist. Die MRS Anwendung im Tier ist aber ein etwas neueres Gebiet, so dass noch nicht viele tierexperimentelle Experimentatoren diese Technik anwenden. Ein Beispiel aus der klinischen Forschung wäre eine kürzlich veröffentlichte Studie, die mit 1H-MRS in einem Tiermodell für Schlaganfall den Laktatspiegel maß und diesen mit dem Nervenzellschaden korrelierte, der zur gleichen Zeit in anderen Tieren ex vivo ermittelt wurde. In einer anderen Studie wurde in einem Mausmodell der ParkinsonKrankheit ebenfalls mit 1H-MRS eine Veränderung des Glutamat- und Cholinspiegels beobachtet.
10.3.2
10
Single-Photon-Emissions-Computertomographie – SPECT
Grundlagen der SPECT Die SPECT (manchmal auch als SPET abgekürzt), auf Deutsch Einzelphotonen-Emissions-Tomographie, zählt gemeinsam mit der Positronen-Emissions-Tomographie (PET) zu den nuklearmedizinischen Verfahren, weil sie auf Szintigrafie, der Messung ionisierende Strahlung, basiert. Nuklearmedizinische Verfahren zeichnen sich durch eine sehr hohe Sensitivität der zugeführten radioaktiven Markermoleküle aus. In der Regel sind diese deshalb weit unter der ggf. toxischen Konzentration messbar. Beide Verfahren werden ebenfalls der molekularen Bildgebung zugerechnet, da sie auf der Sichtbarmachung bestimmter Moleküle basieren. Die entsprechenden Moleküle werden mit radioaktiven Nukliden markiert, in die Armvene injiziert und dann ihre räumliche Verteilung im Gehirn gemessen. Beide Methoden basieren also im Prinzip auf ähnlichen physikalischen Phänomenen und ermöglichen zum Teil zumindest theoretisch die Beantwortung überlappender Fragestellungen. Allerdings haben beide spezifische Vor- und Nachteile, die sich am besten in der direkten Abgrenzung erklären lassen, wie es am Ende des Abschnitts über die PET zusammenfassend geschehen wird. Bei der SPECT kommt hauptsächlich metastabiles 99mTechnetium (Tc, Halbwertszeit (HWZ) 6,1 Stunden), das in Nuklidgeneratoren durch den natürlichen Zerfall von Molybdän (99Mo) gewonnen wird, und 123Iod (123I, HWZ ca. 13 Stunden), das im Zyklotron erzeugt wird, zum Einsatz. Selten werden 131I (HWZ 8 Tage) oder 125I (HWZ 58 Tage) genutzt. Die Stoffe geben beim Zerfall ein Photon (Gammaquant) frei, das von Gammakameras mit einem bis vier Detektorköpfen aufgezeichnet wird, die um die Versuchsperson rotieren. Vor diesen Kameras sind Kollimatoren angebracht, die alle Gammastrahlen bis auf diejenigen aus einer bestimmten Richtung abblocken. Kollimatoren sind somit ein funktionelles Äquivalent von optischen Linsen, beeinflussen die Auflösung des Bildes und sorgen so für ein relativ scharfes Bild. Aus den Daten wird computertomographisch das dreidimensionale Bild rekonstruiert. Die räumliche Auflösung ist allerdings ziemlich gering (bei der humanen SPECT ca. 1 cm).
228
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
Humane SPECT kPerfusionsmessung mittels SPECT
10
Kommerziell werden mit 99mTc markierte Ethylcysteindimer (ECD) und Hexamethylpropylenaminoxim (HMPAO) angeboten, mit denen die Hirnperfusion gemessen werden kann. Diese lipophilen Moleküle passieren die Blut-Hirn-Schranke bereits ca. 2 Minuten nach der Injektion in die Armvene. In Hirnzellen werden sie zu hydrophoben Abbauprodukten verstoffwechselt, weshalb sie dann für mehrere Stunden am Ort der Aufnahme verbleiben. Man spricht daher von frozen images, also Momentaufnahmen des Stoffwechsels. Das macht die Methode wenig anfällig für Bewegungsartefakte. Die Verteilung ist proportional zum Blutfluss. Es handelt sich um ein relatives Maß, mit dem man z. B. die Perfusion in verschiedenen Regionen vergleichen kann. Um auf Areale zurückzuschließen, die an bestimmten kognitiven Prozessen beteiligt sind, ist diese Methode wegen der langen HWZ und langsamen Dynamik eher ungeeignet. Es gibt daher nur sehr vereinzelt Studien, die mit SPECT die Durchblutung des Gehirns während kognitiver Aktivität mit der Ruhedurchblutung verglichen haben. Deshalb zählt man SPECT auch nicht zu den funktionell bildgebenden Verfahren im engeren Sinne. Häufigere Fragestellungen, die sowohl in klinischer Forschung als auch Diagnostik eine Rolle spielen, sind Perfusionsunterschiede zwischen depressiven und Kontrollpersonen, die differenzielle Diagnostik verschiedener Demenzformen, Lokalisation von epileptogenen Foci, die Beurteilung inflammatorischer Erkrankungen, aber vor allem natürlich Perfusionsdefizite in Folge cerebrovaskulärer Erkrankungen wie dem Schlaganfall. kLiganden-SPECT
Neben der Perfusionsbildgebung kann man mit SPECT mittlerweile diverse Neurotransmittersysteme darstellen. Hierfür werden die entsprechenden Moleküle radioaktiv markiert. Aus dem klinischen Interesse am dopaminergen System ist die Untersuchung seiner Komponenten mittels Liganden-SPECT am etabliertesten. Speziell in der klinischen Parkinson-Diagnostik wird die Quantifizierung des Dopamin-Trans-
porters (DAT) häufig durchgeführt, da diese eine hohe Sensitivität für die Detektion einer präsynaptischen dopaminergen Dysfunktion hat. Deshalb existiert eine ganze Reihe von DAT-Liganden. Diese haben unterschiedliche Eigenschaften, die darüber entscheiden, welcher bei der gegeben Fragestellung der geeignete ist. So weist beispielsweise das häufig verwendete Kokainderivat [123I]β-CIT eine sehr langsame Kinetik auf und kann daher erst über 20 Stunden nach der Injektion gemessen werden. Außerdem bindet [123I]β-CIT Striatum an DAT, im Mittelhirn aber an Serotonintransporter. Ein etwas neuerer DAT-Ligand, [123I]FP-CIT, hat eine deutlich schnellere Kinetik, so dass man bereits 3–6 Stunden nach Injektion die DAT Konzentration messen kann. Auch andere Störungen und Krankheiten, die mit einem dysfunktionalen dopaminergen System zusammenhängen, wie das Aufmerksamkeits-Defizit-Syndrom und die Schizophrenie, werden mittels DAT-SPECT erforscht. Ein wichtiger Dopamin-Rezeptor-Ligand wäre 123I-IBZM, das selektiv an D2-Dopmainrezptoren bindet. An diesen Rezeptor binden auch antipsychotische Pharmaka, weshalb der Ligand in der Schizophrenieforschung eingesetzt wird. Beispiele für nicht-dopaminerge SPECT-Liganden wären der NMDA-Rezeptor-Ligand [123I]CNS-1261 und [123I]IQNB, das an muskarinerge Acetylcholin-Rezeptoren bindet. Dieses sind nur Beispiele für aktuell verwendete Liganden und mögliche wissenschaftliche Fragestellungen, die mittels SPECT bei Menschen untersuchen werden können (Moresco and Fazio, 2005). Das Entwickeln neuer Liganden ist zwar möglich, aber sehr aufwendig und eine Wissenschaft für sich, was genauso für PET-Liganden gilt (Agdeppa and Spilker, 2009). Insgesamt fällt somit bei den aktuellen Anwendungen der SPECT auf, dass es sich durchweg um (prä-)klinische Fragestellungen handelt, wie die Grundlagen von Störungen, eine verbesserte (frühe und differentielle) Diagnostik sowie die Entwicklung von Pharmaka. Das liegt wohl daran, dass die Geräte in Kliniken weit verbreitet sind, eine SPECT-Messung relativ kostengünstig und wenig aufwendig ist. Somit können in klinischen Studien relativ schnell und einfach größere Fallzahlen erreicht werden.
229
10.3 • Funktionelle Bildgebung
Tierexperimentelle SPECT SPECT wurde genau wie andere Bildgebungstechniken zunächst für den humanen Einsatz entwickelt und erst dann für die Arbeit mir Kleintieren adaptiert, um Grundlagen und translationale Forschung zu ermöglichen. So können z. B. neue Liganden zunächst im Tierversuch getestet werden. Die relativ geringe räumliche Auflösung von StandardSPECT-Scannern macht eine Untersuchung von Kleintierhirnen eigentlich nur mit speziellen hochauflösenden Systemen sinnvoll, die eine Auflösung von 0,3–3 mm erreichen können. Der Einsatz in der präklinischen Erprobungsphase von neuen Pharmaka ist deshalb auch die treibende Kraft der Entwicklung von solch hochauflösenden SPECTGeräten. Mit diesen kann man in vivo überprüfen, wohin ein pharmakologisches Molekül sich im Gehirn bewegt. Erst vor ca. zehn Jahren begannen die ersten Arbeitsgruppen solche hochauflösenden Systeme zu entwickeln. Diese Techniken sind daher noch nicht wirklich als Standardverfahren zu bezeichnen, eine Übersichstarbeit von 2005 zählt weltweit nur 20 solcher Geräte. SPECT wird auch beim Tier gern mit der CT in kombinierten Scannern durchgeführt, um die Vorteile beider Verfahren zu kombinieren. Die einmaligen Vorteile von Kleintier-SPECT sind die Möglichkeit, endogene Biomoleküle, wie Peptide und Antikörper, als Liganden zu verwenden, weil sie relativ leicht mit Technetium und Iod markiert werden können. Die Iodisierung von diesen Molekülen erfordert in vielen Fällen nur einen Reaktionsschritt. Die Markierung mit Technetium kann kompliziert sein (für manche Tracer in der klinischen Patientenversorgung gibt es allerdings inzwischen Kits). Die lange HWZ von Iod und Technetium ist ein weiterer Vorteil, weil die relevanten Biomoleküle aufgrund ihrer relativen Größe zum einen nur langsam ins Gewebe diffundieren. Dies kann bei bildgebenden Studien Stunden bis zu Tagen dauern. Es dauert dann ebenso lange bis diese vom Blut ausgewaschen werden, und so die Hintergrundstrahlung abnimmt. Die lange HWZ erlaubt es außerdem, relativ langsame kinetische Prozesse zu untersuchen, z. B. Rezeptor-LigandenKomplexe mit geringen Dissoziationsraten. Schließlich bietet SPECT seit einiger Zeit die Möglichkeit, zwei und mehr molekulare Stoffwech-
10
selwege gleichzeitig zu untersuchen, indem man Isotope mit verschiedenen Energieniveaus einsetzt. Dieses »Duale Isotop-Imaging« kann z. B. eingesetzt werden, um zwei verschiedene, aber verwandte Rezeptoren (z. B. präsynaptische Dopaminaufnahme und postsynaptische Dopaminrezeptoren) zu untersuchen. Eine ebenfalls neue Anwendung ist das Studium von Genfunktionen und -regulation durch die Analyse von gentechnisch veränderten Tieren, z. B. durch die in-vivo-Sichtbarmachung von Reportergenen. Sichtbar gemacht werden können diese durch radiomarkierte Substrate, Antikörper oder Liganden. Möglicherweise kann dieser Ansatz auch auf radioaktiv-markierte Antisense-Moleküle für Detektion von mRNA erweitert werden. Die Zukunft gehört sicherlich solch anspruchsvollen Fragestellungen.
10.3.3
Positronenemissionstomographie – PET
Grundlagen der PET Genau wie die SPECT gehört die PET zu den nuklearmedizinischen, molekularen, funktionellen Bildgebungstechniken. Bei der PET werden Moleküle, die häufig natürlich im Körper vorkommen, wie Glukose, Wasser oder Dopamin mit Positronenstrahlern, also Radionukliden, markiert. Ihren Namen hat diese Methode, weil die Radionuklide beim Zerfall ein Positron freisetzen und Beta-Strahlung emittieren. Das Positron trifft sehr schnell auf ein Elektron und beide zerfallen im Annihilationsoder Vernichtungsprozess unter Aussendung von 2 Photonen. Diese zwei hochenergetischen Gammaquanten entfernen sich in Lichtgeschwindigkeit in entgegengesetzter Richtung voneinander. Der PETScanner enthält viele ringförmige um die Versuchsperson angeordnete Detektoren (. Abb. 10.4A). Diese erlauben es, die Richtung der beiden Photonen aus der Annihilation zu ermitteln. Im Computer kann dann ein dreidimensionales Bild des Verteilungsmusters (Ort, Zeit und Quantität) dieser Zerfälle errechnet werden. Die räumliche Auflösung von humanem PET beträgt 3–6 mm. Eine bessere räumliche Zuordnung und anatomische Information erhält man durch die Kombination mit CT-Scannern (Abb. 10.1) oder MRT (Abb. 10.4B),
230
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
A
B
C
D
10 . Abb. 10.4 Humane und Kleintier-PET. A) Humaner PET-Scanner mit entfernter Blende. B) Ein Kleintier-PET-MRT der Cambrigde University. C) Humane FDG-PET-Schnittbilder von dorsal nach ventral. D) humane und Kleintier- PET Bilder: FallypridBindung an Dopaminrezeptoren im Striatum auf hochauflösendem, anatomischen MRT-Bild. (Mit freundlicher Genehmigung R. Buchert, Berlin (A, C); J. Dalley, Cambridge (B, D))
wobei Letzteres aber eine ingenieurstechnische Herausforderung darstellt. Ähnlich dem SPECT kann man mittels PET je nach verwendeten Markermolekülen entweder indirekt über eine erhöhe Perfusion bzw. einen erhöhten Glukoseumsatz neuronale Aktivität oder aber auch die Konzentration von Neurotransmitterrezeptoren etc. lokalisieren und quantifizieren. Da beide Möglichkeiten in bildgebenden Studien zum Einsatz kommen, kann man PET sowohl zu den funktionell bildgebenden Verfahren im weiteren als auch engeren Sinne zählen. Es ist aktuell in der Forschung deutlich verbreiteter als die beiden anderen molekularen Bildgebungsmethoden MRS und SPECT. Die beim PET verwendeten Radionuklide zeichnen sich im Vergleich zu SPECT durch relativ kurze Halbwertszeiten aus, weshalb sie auch vor
Ort in einem Zyklotron durch die Bestrahlung der nichtradioaktiven Vorläufermoleküle gewonnen werden müssen. Diese Herstellung ist einerseits kostenintensiv, zum anderen erfordert sie speziell geschultes Personal, was ein deutlicher Nachteil der PET ist. Häufig verwendete Radionuklide sind zum einen 18F mit einer für PET relativ langen Halbwertzeit von 109 min, des Weiteren 15O (HWZ 2 min), 11C (HWZ 20 min) und 13N (HWZ 10 min). Die verschiedenen Radionuklide eignen sich unterschiedlich gut für die verschiedenen Fragestellungen (Ametamey et al., 2008).
Humane PET kIndirekte Messung der neuronalen Aktivität
Der regionale zerebrale Blutfluss kann mittels Wasser-PET (15O-H2O) und der Energiemetabolismus durch 15O-O2 oder 18F-Desoxyglukose (FDG) quan-
10.3 • Funktionelle Bildgebung
tifiziert werden, wobei 15O-O2 natürlich als Ausnahme nicht injiziert, sondern inhaliert wird. Sowohl Blutfluss als auch Glukoseumsatz sind eng an die neuronale Aktivität gekoppelt, wie weiter unten im Abschnitt über die physiologischen Grundlagen der funktionellen Magnetresonanztomographie ausführlich erläutert wird (7 Kap. 10.4). Funktionelle Bildgebung im engeren Sinne, d. h. die zeitlich und räumliche Lokalisation von neuronalen Prozessen im menschlichen Gehirn, ist prinzipiell mittels Sauerstoff-, FDG- und Wasser-PET möglich, wobei Letzteres das gebräuchlichste ist. Da man die neuronale Aktivität indirekt über die ausgelösten Stoffwechselprozesse beobachtet, spricht man bei diesem Verfahren wie auch der fMRT und der fNIRS von metabolischer Bildgebung. FDG wird von Zellen genauso aufgenommen wie Glukose, wird aber aufgrund der durch das Fluor ersetzten Hydroxylgruppe nicht weiter verstoffwechselt und reichert sich daher in aktivem Gewebe an. Die Verteilung von FDG im Körper erlaubt somit Rückschlüsse auf den Glukosestoffwechsel verschiedener Gewebe. Dieser Vorgang dauert ca. 30 Minuten, so dass man neuronale Aktivität nur gemittelt über diesen Zeitraum messen kann. Aufgrund der schnelleren Aufnahme von ca. 2 Minuten, der kürzeren Halbwertszeit und der geringeren Strahlenbelastung für den Probanden wurden aber die meisten Studien zur Lokalisation neuronaler Prozesse mit Wasser-PET durchgeführt. Die Aufnahmezeit beträgt bei einer solchen Wasser-PET-Studie je 40–120 s und man wartet ca. 5 Halbwertszeiten (10 Minuten) bis zur nächsten Messung, also der erneuten Injektion des Radiopharamakons. So kann man unabhängige Aktivierungskarten erheben und in angemessener Zeit beispielsweise 5 Mal die Blutflusszunahme während einer Kontrollbedingung und 5 Mal während einer Experimentalbedingung messen. PET war für einige Zeit die einzige Möglichkeit, mit einer gewissen räumlichen Auflösung das Gehirn bei der Arbeit zu beobachten. Deshalb wurde es vor Entwicklung der fMRT auch in der kognitiven Grundlagenforschung eingesetzt. Diese erlaubt es allerdings, die Gehirnaktivität auch ohne Radioaktivität zu messen und besitzt zudem eine bessere räumliche sowie zeitliche Auflösung. Seit der Entwicklung der fRMT und der leichter werden-
231
10
den Zugänglichkeit der Scanner für Grundlagenwissenschaftler wurden daher zusehends weniger Aktivierungsstudien mit PET veröffentlicht. Die Ethikkommission würde solche Experimente wohl auch mit Verweis auf die alternative, weniger belastende Methode fMRT ablehnen. Für bestimmte Fragestellungen ist der Einsatz von PET allerdings trotz der Strahlenbelastung unabdingbar. So hat PET als nuklearmedizinisches Verfahren eine wesentlich höhere Sensitivität als fMRT und ist dieser daher bei Fragestellungen, die nur wenige Wiederholungen der Experimentalbedingung erlauben, deutlich überlegen. Wiederholungen der experimentellen Bedingungen sind generell nötig, da die gemessene Gehirnaktivität nie nur von dem interessierenden Prozess verursacht wird (»Signal«), sondern es finden immer auch andere, nichtgewollte neuronale Prozesse statt. Zudem liegt auf jeder Messung ein gewisser unsystematischer Fehler, der u. a. in den physikalischen Grundlagen der Messmethode begründet liegt. Diese unkontrollierbaren, unsystematischen Beiträge zum gemessenen Signal werden als Rauschen bezeichnet. PET hat nun ein vergleichsweise gutes Signal-Rausch-Verhältnis, so dass man die interessierenden Bedingungen nicht so oft wiederholen muss, damit sich das systematische Signal gegen das unsystematische Rauschen durchsetzt. Aus der mittleren Aktivität über diese Wiederholungen kürzt sich das Rauschen heraus. Dieser Zusammenhang zwischen Signal und Rauschen und die daraus abgeleitete Notwendigkeit, Messungen zu wiederholen, ist natürlich keine Besonderheit der Bildgebung, sondern gilt für jedes Experiment. In der Abbildung . Abb. 10.5 wird der Effekt wiederholter Messungen auf das Signal bezogen auf das EEG visualisiert. Ein spannendes Beispiel für ein Experiment, das nur wenige Wiederholungen zulässt, entstammt den sog. sozialen Neurowissenschaften. Versuchspersonen sollten entscheiden, wie stark sie einen unfairen, egoistischen Mitspieler für seine Normverletzung bestrafen wollten. Die Normverletzung lag in einem Vertrauensmissbrauch, nämlich der Einbehaltung eines anvertrauten Geldbetrags. Die Bestrafung bestand in einer Reduktion des unrechtmäßig vergrößerten Gewinns. Kritischerweise mussten die Versuchspersonen, um den anderen zu bestrafen, selbst ebenfalls zahlen, wenn auch nur
232
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
Kognitive Subtraktionsmethode und funktionelle Bildgebung
10
Francis Donders schlug 1868 die serielle Subtraktionsmethode vor. Dabei misst man die Reaktionszeit bei der Bearbeitung von zwei Aufgaben, die sich um nur einen Verarbeitungsprozess unterscheiden, um herauszufinden, wie lange dieser Verarbeitungsschritt dauert. So kann man z. B. Versuchspersonen entscheiden lassen, ob zwei auf einem Bildschirm dargebotene Buchstaben gleich sind. Wenn man beide Buchstaben klein geschrieben präsentiert, z. B. a – b, reicht ein einfacher visueller Vergleich aus. Wenn man hingegen einen der beiden als Großbuchstabe präsentiert, also a – B, muss man die abstraktere, semantische Bedeutung des Buchstabens verstehen und kann erst dann die Entscheidung treffen. Wenn man serielle Verarbeitungsschritte annimmt, wäre also die messbare Zunahme an Reaktionszeit für die zweite Aufgabe genau die Zeit, die es braucht, um die semantische Bedeutung zu extrahieren. Dieses Experiment von 1978 heißt nach seinem Erfinder Posner-Buchstaben-Paradigma, bezüglich der Be-
deutung solcher experimentellen Paradigmen sei auf 7 Abschn. 10.4.2 verwiesen. Auf diesem Prinzip der mentalen Zeitmessung (mental chronometry) beruhen ein Großteil der kognitionspsychologischen und psychophysiologischen Forschung der letzten 150 Jahre. Dieses experimentelle Vorgehen wurde von den Pionieren der funktionellen Bildgebung, Michael Posner und Marcus Raichle, direkt in die kognitiv neurowissenschaftliche Forschung übertragen, wie sie in ihrem sehr lesenswerten Buch Bilder des Geistes beschreiben. Um bei dem Beispiel zu bleiben: Hier misst man die Aktivität des Gehirns während die Versuchsperson gleich geschriebene Buchstaben vergleicht, mit der Aktivität während sie unterschiedlich geschrieben Buchstaben vergleicht. Beide Experimentalbedingungen misst man mehrere Male und ermittelt dir durchschnittliche Aktivität des Gehirns in jeder Bedingung. Analog der kognitiven Subtraktionsmethode subtrahiert man die beiden Aktivierungszustände voneinander. Die Areale, die
die Hälfte der gewählten »Bestrafungssumme«. Viele Menschen sind in diesem Setting in der Tat bereit, selbst auf einen Teil ihres Gewinns zu verzichten, um den anderen für sein normverletzendes Verhalten zu bestrafen (altruistische Bestrafung). Die Studie konnte auch klären, warum wir dazu bereit sind, auf eigene Kosten die Regeln des Zusammenlebens zu verteidigen: Im Augenblick der Bestrafung ist das Belohnungssystem unseres Gehirnes aktiv, ein Zentrum, das ansonsten z. B. bei einem finanziellen Gewinn aktiviert ist. Bei einer solchen Fragestellung ist die Anzahl der möglichen Wiederholungen sehr begrenzt, weil nur eine Bestrafung pro Runde möglich ist und sich der Gegenspieler erst in einer Art Rollenspiel als unfairer Normverletzter verhalten muss. Eine solche Studie kann man daher mit fMRT nicht durchführen, und man müsste daher die Ethikkommis-
zusätzlich bei der zweiten Aufgabe aktiviert sind und somit nach der Subtraktion erhalten bleiben, sind dieser Logik nach an der semantischen Verarbeitung beteiligt. Dieses experimentelle Vorgehen machen sich die meisten funktionellen bildgebenden Studien zunutze. Es wurde allerdings schon bald verbessert, um der berechtigten Kritik zu begegnen. Kritisiert wurde diese Methode nämlich insofern, als dass kognitive Prozesse nicht notwendigerweise seriell stattfinden müssen und es zudem Interaktionen geben kann, d. h. sie nicht unabhängig voneinander sind. Dieser Einwand gilt umso mehr für die Aktivität im Gehirn, die mit diesen Prozessen assoziiert ist: Es ist nicht anzunehmen, dass diese linear mit zunehmenden kognitiven Prozessen zunimmt, sondern es sind ebenso nichtlineare und interaktionelle Abhängigkeiten vorstellbar. Um dieser Kritik zu begegnen, wurden in der fMRT unter anderem faktorielle und parametrische Experimental Designs eingeführt (7 Kap. 10.4.2).
sion überzeugen, dass der Erkenntnisgewinn den Einsatz von PET rechtfertigt. Die unfairen Mitspieler waren übrigens eingeweihte Schauspieler, um genügend Normverletzungen zur Auswertung zu haben. Diese Studie ist auch ein eindrucksvolles Beispiel für eine sehr kreative Übersetzung eines Alltagsphänomens in ein Experiment, das dann auch noch mit einem aufschlussreichen und relevanten Ergebnis (und einem Science-Artikel) belohnt wurde. Ein weiteres Einsatzgebiet von PET wäre die Untersuchung von Menschen mit metallenen Implantaten, die daher nicht in das Hochmagnetfeld des MRT-Scanner dürfen. Weiterhin ist der PET-Scanner deutlich leiser als das MRT, weshalb es manchmal für Schlafstudien bevorzugt wurde. Dabei ist anzumerken, dass es bei fMRT-Studien ein häufiges Problem darstellt, dass die Versuchs-
233
10.3 • Funktionelle Bildgebung
personen trotz des Lärms und sogar entgegen der Anweisung einschlafen anstatt die gewünschte kognitive Aufgabe durchzuführen. Doch dazu mehr im Abschnitt über die fMRT. Eine wichtige Rolle spielt PET weiterhin in der klinischen Forschung und Diagnostik, wo insbesondere FDG-PET eingesetzt wird, um den Glukosemetabolismus in verschiedenen Hirnregionen zu quantifizieren. In der klinischen Diagnostik wird es u. a. zur differenziellen Demenzdiagnostik verwendet, da es typische hypometabolische Regionen (Minderbelegung) auch schon zu Beginn einer dementiellen Entwicklung gibt. Aber auch in der Neuroonkologie, der Lokalisation von epileptogenen Foci und bei der Parkinson-Diagnose ist FDGPET hilfreich. Es handelt sich also um sehr ähnliche Fragestellungen der klinischen Forschung und Diagnostik wie bei der Perfusionsmessung mittels SPECT. kLiganden-PET
Wasser- und FDG-PET wurden wie beschrieben in der humanen, kognitiv-neurowissenschaftlichen Grundlagenforschung weitestgehend durch die funktionelle Magnetresonanztomographie abgelöst. Liganden-PET ist dagegen nach wie vor in der nicht-klinischen Forschung die Methode der Wahl, wenn es darum geht, Komponenten von Neurotransmittersystemen in vivo zu lokalisieren und zu quantifizieren. In der (prä-)klinischen Forschung wird Liganden-PET bei ähnlichen Fragestellungen wie SPECT eingesetzt und ist ihm dort in vielen Bereichen aktuell noch überlegen. Auch beim Liganden-PET nimmt die Untersuchung des dopaminergen Systems einen sehr wichtigen Platz ein, sowohl in klinischer Forschung und Diagnostik als auch in der Grundlagenforschung. Es lässt sich einerseits die Verteilung des Dopamintransporters (DAT) mittels verschiedener Liganden wie 11C-Kokain oder 11C-P21, quantifizieren. Andererseits gibt es für die verschiedenen Dopaminrezeptoren spezifische Liganden wie 11C-Raclorprid und [18F]-Fallyprid für D2/D3-Rezeptoren (. Abb. 10.4D). Mittels des Ersteren wurde gezeigt, dass die Dopaminfreisetzung im Belohnungssystem unseres Gehirns bei einem Videospiel ansteigt, was vermutlich die suchterzeugenden Eigenschaf-
10
ten mancher Spiele wiederspiegelt. Des Weiteren kann man durch die Injektion des Dopaminvorläufermoleküls 18F-L-Dopa die Aktivität der Dopamin-Decarboxylase quantifizieren, dem Enzym, das L-Dopa zu Dopamin metabolisiert. Mittlerweile sind aber auch andere Transmittersysteme wie das noradrenerge, serotonerge und cholinerge, mittels PET untersuchbar. Es wird auch versucht, je nach Fragestellung neue Liganden zu entwickeln, was allerdings wie bei der SPECT nicht ganz einfach ist (Ametamey et al., 2008; Agdeppa and Spilker, 2009). Beispiele wären [11C]DASB als selektiver Serotonin-Transporter-Ligand, und [11C] carfentanil, das an μ-Opioid-Rezeptoren bindet. Aber auch jenseits der Neutransmittersysteme erlaubt Liganden-PET wertvolle in vivo-Einblicke in das Gehirn. So wurden für die klinische Forschung und Diagnostik der Alzheimer Demenz Liganden entwickelt, z. B. [18F]FDDNP oder [11C]PIB, die sich spezifisch an die charakteristischen Amyloid-Plaques im Gehirn binden, und mittels derer man so den Krankheitsverlauf visualisieren kann.
Tierexperimentelle PET Tiere wurden seit Anfang der 90er Jahre in klinischen (humanen) Scannern untersucht, ab Mitte der 90er Jahre wurden dann spezielle KleintierPET-Scanner entwickelt. Kleintier-PET erreicht eine minimale Auflösung von etwas unter 1 mm, was allerdings die PET-Detektor-Technik an ihr Limit bringt. Für die anatomische Zuordnung legt man die PET Bilder oft über hochauflösende CToder MRT-Bilder desselben Tieres. Im Prinzip werden im Kleintier-PET mit ähnlichen Liganden verwandte Fragestellungen wie mit dem humanen PET erforscht, was translationale Ansätze begünstigt (. Abb. 10.4D). So kann man im Tier neue Liganden testen und somit die prä-klinische Phase bis zum Einsatz beim Menschen deutlich verkürzen. Außerdem erforscht man mittels Kleintier-PET verschiedene menschliche Krankheiten im Tiermodell, wie Parkinson, Epilepsie, Krebs oder Demenzen. Neue diagnostische Ansätze und Interventionen lassen sich relativ schnell in die prä-klinische Forschung übertragen. Kleintier-PET bietet hierbei wohl den effektivsten translationalen Nutzeneffekt der Tier-Bildgebung.
234
10
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
Relativ neu sind Kleintiermodelle für Drogenabhängigkeit. Zu diesem Thema wird allerdings schon länger mit Affen geforscht. So konnte man mit 11C-Raclorprid-PET den Zusammenhang zwischen mangelnder sozialer Belohnung und Drogenkonsum zeigen. Ranghohe Makaken haben weniger Interesse an Kokain aber mehr Dopaminrezeptoren im Belohnungssystem des Gehirns als die rangniederen Gruppenmitglieder. Dieser Effekt tritt aber nur auf, wenn man die Tiere in Gruppen hält, sie also das Ausleben ihres sozialen Status als Belohnung empfinden können. Wenn die Makaken über längere Zeit Zugang zu Kokain haben, werden aber auch irgendwann die ranghohen Tiere schwach, was sich wiederum in einer abnehmenden Dopaminrezeptordichte zeigt. Natürlich sind solche Experimente an größeren Tieren aufgrund ethischer Bedenken sowie des Aufwandes und Kosten der Tierhaltung eher die Ausnahme. Eine noch relativ neue Anwendung der Kleintier-PET ist die Ermittlung von Sättigungskinetiken von Rezeptoren oder Transportern durch wiederholte Messungen (Dupont und Warwick, 2009). Ebenfalls noch Neuland in den Neurowissenschaften ist die in vivo-Visualisierung von Genexpression ähnlich den Ansätzen in der Kleintier-SPECT. Dabei wird entweder ein Reportergen mittels eines Vektors in das Zielgewebe gebracht oder ein vom Experimentator gewählter Promotor aktiviert in transgenen Mäusen die Expression des Reportergens. PET-Reportergene sind entweder Enzyme, die einen PET-Liganden zu einem in der Zelle »gefangenen« Produkt metabolisieren, oder Rezeptoren, die einen PET-Liganden binden und damit ebenfalls »einfangen«. Die radioaktive Aktivität der Zellen, die ein bestimmtes Reportergen exprimieren, steigt dadurch graduell an in Abhängigkeit von der Menge des gebildeten Enzyms oder Rezeptors (Min und Gambhir, 2008). Eine Herausforderung bei der Kleintier PET liegt in den relativ langen Aufnahmezeiten, in denen sich das Tier natürlich nicht bewegen darf, damit das Bild nicht »verwackelt«. Die am weitesten verbreitete Methode ist eine Vollnarkose des Tiers. Diese verlagert aber leider das Problem nur, weil Anästhetika sich auf den Blutfluss etc. auswirken oder auch die neuronalen Folgen einer interessierenden Intervention verändern können. Die ein-
fachste Lösung besteht darin, die Liganden so lange vor dem Anästhetikum zu verabreichen, dass dieses erst wirkt, wenn die Liganden bereits gebunden haben. Allerdings ist dieses Vorgehen nur bei wenigen Fragestellungen einsetzbar. Eine weitere Möglichkeit besteht darin, die Tiere so zu trainieren, dass sie den Kopf still halten. Dieser muss trotzdem fixiert werden. Hierbei handelt es sich jedoch um eine sehr aufwendige Prozedur, die jedoch mit größeren Tieren (Katzen und Affen) bereits mehrfach durchgeführt wurde. Nur in einer Studie gelang es bisher Ratten innerhalb von 2 Wochen so weit zu trainieren, dass eine 60-minütige dynamische PETMessung möglich war.
Vergleich von PET und SPECT (und MRS) Wie in den Abschnitten über SPECT und PET dargestellt, überlappen sich sowohl die Fragestellungen, die man mit diesen Methoden beantworten kann, als auch ihre Anwendungsgebiete. Auch MRS, als endogene molekulare Bildgebungstechnik, beantwortet teils ähnliche Fragen. Letztere Technik hat natürlich zwei eindeutige Vorteile, es muss keine Radioaktivität zugeführt werden und die Methode kann im selben Gerät wie die MRT und DTI durchgeführt werden. Ersteres macht Untersuchungen und speziell longitudinale Mehrfachmessungen in der nichtklinischen Grundlagenforschung ethisch unbedenklicher. Der zweite Vorteil führt dazu, dass man leichter Bilder verschiedener Modalitäten einer Person bekommt, weil sie für die verschiedenen Messungen gleich im Scanner verbleiben kann und die Ergebnisse somit in denselben stereotaktischen Raum gebracht und ausgewertet werden können. Entscheidende Nachteile sind natürlich die momentan sehr begrenzte Auswahl an quantifizierbaren Molekülen und die deutlich geringere Sensitivität. Die Unterschiede zwischen PET und SPECT sind etwas subtiler, da sie beide nuklearmedizinische Verfahren sind und vom Experimentator gewählte Moleküle radioaktiv markiert werden können (die Anzahl etablierter Liganden ist allerdings noch begrenzt). Ganz wichtige, praktische Vorteile von SPECT gegenüber PET sind der Preis und Aufwand. Die Kameras und die Technik sind günstiger und es wird vor Ort kein Zyklotron und speziell geschultes Personal benötigt. Außerdem
235
10.3 • Funktionelle Bildgebung
ist die Strahlenbelastung für die Versuchspersonen mit SPECT geringer, wobei dies natürlich zudem von dem eingesetzten Tracer abhängt. Sehr langsame Stoffwechselprozesse kann man aufgrund der langen HWZ der verwendeten Nuklide jedoch nur mit SPECT sichtbar machen. Vorteile von PET gegenüber SPECT sind zum einen, dass bei PET so gut wie jedes natürlich vorkommende Molekül markiert werden kann, da die verwendeten Radionuklide in jedem Biomolekül vorkommen. PET hat außerdem eine deutlich bessere räumliche, aber auch zeitliche Auflösung. So ist eine funktionelle Messung neuronaler Aktivität im engeren Sinne, also ihre Korrelation mit kognitiven Prozessen aufgrund der zeitlichen Auflösung, nur mit PET möglich. Aktuell ist die Absolutquantifizierung mittels SPECT auch immer noch schwieriger und ungenauer als mit PET. Des Weiteren sind die PET-Kameras um ca. das 10–20fache sensitiver. Ein Teil der höheren Sensitivität kann SPECT allerdings durch die hohe Effizienz der Iodisierung wett machen. Dabei wird ein großer Anteil der ZielMoleküle tatsächlich iodiert. Und dadurch wird die Wahrscheinlichkeit erhöht, dass so ein markiertes Molekül z. B. an den Zielrezeptor bindet und nicht eines, das bei der Iodisierung zufällig nicht »erwischt« wurde. Die hohe Markierungseffizienz führt also dazu, dass ein höherer Anteil der Rezeptoren ein markiertes Molekül bindet und dadurch detektierbar wird. Bei der Kleintier-Bildgebung sind hochauflösende SPECT- den PET-Scannern bezüglich der Auflösung etwas überlegen (0,3 versus 1 mm). SPECT bietet ja zudem die Möglichkeit, Biomoleküle wie Antikörper zu untersuchen, und die längere HWZ der SPECT-Liganden ermöglicht darüber hinaus die Untersuchung langsamer kinetischer Prozesse. Alles in allem scheint es aktuell einen Trend hin zur Kleintier-SPECT zu geben, auch wenn PET nach wie vor die höhere Sensitivität besitzt. Abgesehen davon gibt es mittlerweile auch kombinierte Kleintier-PET/SPECT-Scanner, die die Vorteile beider Verfahren vereinigen.
10.3.4
10
Funktionelle Nahinfrarotspektroskopie – fNIRS
Zur optischen Bildgebung gehören zwei Methoden der funktionellen Bildgebung, die darauf beruhen, dass sich die optischen Eigenschaften von Hirngewebe abhängig vom Sauerstoffgehalt des Bluts und damit dem Aktivierungsgrad ändern. Diese beiden Methoden zählen zu den metabolischen Verfahren, weil sie ähnlich des Wasser-PET die Blutflussänderung in Folge neuronaler Aktivität messen. Mit diesen Methoden können nur zweidimensionale Bilder der Cortexaktivität erzeugt werden. Entweder werden dabei intrinsische Signale direkt von der Cortexoberfläche optisch abgeleitet oder die Reflexion infrarotnahen Lichts aufgezeichnet. Letzteres wird weit häufiger durchgeführt und als funktionelle Nahinfrarotspektroskopie (fNIRS) bezeichnet. Für die erste Methode muss ein Teil des Schädels entfernt werden, weshalb sie auf Tierversuche und speziell anästhetisierte Tiere beschränkt ist. Es gibt allerdings vereinzelt Untersuchungen an Patienten, denen bei einer Hirnoperation der Schädel aufgesägt worden war und die trotzdem bereit waren, an einem Experiment teilzunehmen. Dafür hat diese Methode eine sehr hohe räumliche und befriedigende zeitliche Auflösung, kann beim selben Tier wiederholt werden und ist insbesondere bei der Untersuchung des visuellen Cortex im Einsatz. Die fNIRS andererseits ist eine noch relativ neue Technik. Die Geräte zur Aufzeichnung des reflektierten Lichts unterscheiden sich in der Anzahl der Optode, die das Licht emittieren und das reflektierte Licht messen. Die Anzahl der Optoden nimmt tendenziell mit der Weiterentwicklung der Methode zu. Sie sind in einer Art Kappe befestigt, so dass sich auch die räumliche Auflösung bzw. die Größe der Abdeckung des Cortex verbessert. Vorteile der fNIRS sind ihre Unempfindlichkeit gegenüber Bewegung, der relativ günstige Anschaffungspreis, die Möglichkeit, sie in natürlichen Umgebungen einzusetzen, und die Anwendbarkeit auch bei Kleinkindern. Wichtige Nachteile sind die geringe räumliche Auflösung und die Tatsache, dass fast nur die Cortexoberfläche untersucht werden kann. So wird die fNIRS auch in Zukunft gegenüber der fMRT eher ein Nischendasein fristen, auch wenn damit zu
236
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
rechnen ist, dass die Zahl der Anwender noch deutlich steigen dürfte. Einige weitere Nachteile ergeben sich aus der Neuartigkeit des Verfahrens, wie das noch ungünstige Signal-Rausch-Verhältnis und die wenig etablierte statistische Auswertung der Daten. Abschließend sei erwähnt, dass unter optischer Bildgebung auch Verfahren der molekularen Bildgebung firmieren, bei denen bestimmte fluoreszierende Moleküle oder Reportergene, die für Luziferase codieren, in den Organismus eingebracht und deren Verteilung anschließend gemessen werden. Diese Methode gehört allerdings nicht zur NeuroBildgebung und soll daher hier auch nicht weiter erläutert werden.
10.3.5
10
Elektroenzephalographie – EEG
Auch die Elektroenzephalographie (EEG) und die Magnetenzephalographie (MEG) benötigen wie die optischen Bildgebungsmethoden keinen Tomographen und liefern zunächst einmal nur zweidimensionale Aktivierungskarten. Diese Verfahren basieren auf direkter Messung der elektrischen neuronalen Aktivität bzw. der dadurch verursachten magnetischen Effekte an der Schädeloberfläche. Ein Vorteil dieser beiden Verfahren gegenüber den metabolischen funktionell bildgebenden Methoden ist daher dass das gemessene Signal direkt die neuronalen Prozesse reflektiert. Außerdem zeichnet beide Methoden eine hohe zeitliche Auflösung aus, die im Millisekunden-Bereich liegt. Das EEG ist dabei das älteste, relativ kostengünstige, vergleichsweise wenig aufwendige neuro-bildgebende Verfahren und daher in Klinik und Forschung weit verbreitet. Da beide Methoden sehr anfällig für Bewegungsartefakte sind, können sie nicht im Tierexperiment durchgeführt werden.
Grundlagen der EEG Das EEG misst die postsynaptischen Potenzialschwankungen an den senkrecht zur Cortexoberfläche stehenden dendritischen Synapsen der Pyramidenzellen. Damit diese Schwankungen an der Cortexoberfläche messbar sind, müssen allerdings sehr viele Neurone (ca. 10 000) synchron arbeiten. Das spontane EEG zeigt sinusähnliche Schwingungsfolgen von 0 bis ca. 100 Hz. Man unterteilt
diesen Frequenzbereich in folgende Frequenzbänder: Theta 4–7 Hz, Alpha 8–13 Hz, Beta 14–30 Hz und Gamma >30 Hz. Die Amplitude des Signals ist sehr klein (maximal 100 bis 240 μV). Gemessen werden diese Spannungsschwankungen an der Schädeloberfläche durch bis zu 256 kleine Elektroden, die in einer – oft nach einem bestimmten System standardisierten – Anordnung an einer Haube befestigt sind. Damit diese Elektroden die sehr kleinen Spannungsschwankungen messen können, muss der Übergangswiderstand (Impedanz) zwischen Kopfhaut und Elektrode gesenkt werden. Das versucht der Experimentator durch sog. Elektrodengel oder -paste zu erreichen, die zwischen Elektrode und Kopfhaut aufgetragen wird. Das Gel hat enthält Elektrolyte und wirkt darüber hinaus wie eine Peeling-Creme, damit Hautschuppen und Fette entfernt werden. Bis alle Elektroden einen genügend kleinen Übergangswiderstand aufweisen, kann man abhängig von Anzahl der Elektroden und Haarstruktur ganz schön lange herumwerkeln, indem man mit einem Wattestäbchen das Gel einmassiert. Seit einigen Jahren gibt es als Alternative zu den klassischen Elektrodenhauben geodätische Netze mit kleinen Schwämmchen anstelle der Elektroden, die zuvor in eine leitende Flüssigkeit getaucht werden. Das Netz kann dann sehr schnell über den Kopf gestülpt werden, was allerdings auch einige Übung erfordert. Außerdem trocknen die Schwämmchen natürlich nach einige Zeit aus und müssen nachbefeuchtet werden. Die Prozedur ist, gerade wenn der Versuchsleiter kaltes Wasser verwendet, auch nicht wirklich angenehm. Gemessen wird die Spannung zwischen jeder Elektrode und einer Referenzelektrode, die entweder über einem elektrisch relativ inaktiven Ort (unipolare Ableitung, z. B. Mastoidknochen hinter dem Ohr) oder seltener über einem elektrisch aktiven Ort (bipolare Ableitung) liegt. Alternativ kann man auch die Differenz relativ zum gemittelten Signal aller Elektroden messen. In Abhängigkeit zur Referenz unterscheidet sich natürlich die gemessene Spannung. Die Elektroden messen auch Potenzialverschiebungen aufgrund muskulärer Aktivität (Nackenmuskulatur, Blinzeln der Augen), Hautleitfä-
10.3 • Funktionelle Bildgebung
higkeitsveränderungen, des Elektrokardiogramms (EKG) und durch Augenbewegungen. Diese unerwünschten Einflüsse, Artefakte genannt, mitteln sich teilweise einfach durch die Wiederholungen eines Experiments heraus oder man korrigiert bzw. entfernt die Zeitintervalle, in denen sie aufgetreten sind. So ist es zum Beispiel üblich die massiven Potenzialschwankungen, die durch Augenblinzeln entstehen, automatisch aus der EEG-Messstrecke zu entfernen. Das reduziert dann häufig die Länge der verwendbaren EEG-Aufzeichnung drastisch und kann dazu führen, dass man einzelne Versuchspersonen gar nicht auswerten kann. Man sollte also die Versuchsperson unbedingt instruieren, möglichst ruhig zu sitzen und auch auf Zwinkern zumindest zum Zeitpunkt der Reizdarbietung zu verzichten. Um störende Einflüsse von außen und durch den Wechselstrom der elektrischen Leitungen zu vermeiden, erhebt man EEGs entweder in extra abgeschirmten EEG-Kabinen oder extra konstruierten Räumen, die wie ein Faradayscher Käfig abgeschirmt sind und in denen man den Strom abstellen kann.
Anwendungen der EEG kEreigniskorrelierte Potenziale
Wenn man untersuchen möchte, wann und in gewissen Grenzen auch wo ein bestimmter kognitiver Prozess im Gehirn stattfindet, präsentiert man den auslösenden Reiz häufig nacheinander und bildet dann den Mittelwert des EEG-Signals, das auf diesen Reiz folgt. Diese EEG-Strecken bestehen dann zum einen aus sehr vielen zufällig stattfindenden Potenzialverschiebungen, zum anderen aber auch aus der spezifischen Antwort des Gehirns auf den präsentierten Reiz. Durch das Übereinanderlegen vieler EEG-Reaktionen auf denselben Reiz mitteln sich die zufälligen EEG-Bestandteile heraus und nur die spezifische Antwort auf den Reiz bleibt übrig. Dies nennt man das ereigniskorrelierte Pozential (EKP, oder ERP event-related potential). Dieses dauert ca. 1 Sekunde und weist eine erheblich kleinere Amplitude als das Spontan-EEG auf (wenige μV). Um das Signal-Rausch-Verhältnis zu verbessern, wiederholt man jeden Stimulustyp so häufig wie möglich. In . Abb. 10.5 ist das EKP für einen sowie gemittelt über zwanzig und hundert Reizdarbietungen gezeigt. Man sieht deutlich, dass das
237
10
Signal mit zunehmender Anzahl an Durchgängen weniger verrauscht wird. Dieses Prinzip, die neuronale Aktivität über viele, möglichst ähnliche Ereignisse zu mitteln, nutzt man auch bei den anderen funktionell bildgebenden Verfahren im engeren Sinn. Die EKPs weisen typische Wellenformen auf, wobei die charakteristischen Komponenten, also Wellenberge und -täler, nach der Ausrichtung (P = positiv, N = negativ) und dem Zeitpunkt, z. B. N1 oder N100 oder P300, benannt sind. Man sollte beachten, dass das EKP häufig mit den negativen Werten nach oben dargestellt wird. Die N1 zeigt also nach oben. Die früheren (bis ca. 100 ms) dieser Komponenten werden von den physikalischen Eigenschaften des Reizes bestimmt, die späteren von psychologischen Faktoren wie Aufmerksamkeit oder Aufgabe während der Verarbeitung. Man vergleicht nun die Topographie, Amplitude, Latenz oder auch die Fläche unter diesen Komponenten bei verschiedenen Versuchsbedingungen und versucht so etwas über den zeitlichen und räumlichen Verlauf der neuronalen Verarbeitung herauszubekommen. Als Beispiel für eine charakteristische, oft untersuchte EKP-Komponente kann die Mismatch-Negativity (MMN) dienen. Diese Negativierung, die ca. 100 ms nach Reizdarbietung beginnt, entsteht als Reaktion auf einen leicht abweichenden Ton in einer Reihe ansonsten gleichförmiger Töne. Die MMN hat frontal ihre maximale Amplitude und entsteht auch, wenn die Versuchsperson sich auf etwas ganz anderes konzentriert und bei Säuglingen sogar während des Schlafes. Ein anderes sehr charakteristisches ereigniskorreliertes Potenzial ist das Bereitschaftspotenzial, eine negative Potenzialwelle die, ca. 1 Sekunde vor einer Bewegungsausführung über motorischen Cortexarealen beginnt und unter seinem deutschen Namen auch in der englischen Literatur bekannt ist. kQuellenlokalisation von EEG-Signalen
Ein Schritt in Richtung einer dreidimensionalen Lokalisation der neuronalen Prozesse ist die sog. Quellenanalyse der verschiedenen EKP-Komponenten. Dabei versucht man, mit verschiedenen mathematischen Algorithmen von der Verteilung der Potenzialschwankungen auf der Oberfläche auf
238
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
A
C
μV
-20 0 20
0
800 ms
0
800 ms
0
800 ms
μV
B
-20 0 20
10
μV 122 ms - 154 ms -10.00 μV
0.00 μV
-20 0 20
. Abb. 10.5 EEG. A) Versuchsperson mit verkabelter Elektrodenkappe in einem EEG-Stuhl. B) Verteilung der Amplitude der N100 (gemittelt von 122–154 ms nach Präsentation eines Fotos) über die Kopfoberfläche. Das Maximum ist über okzipitalen Arealen, in denen sich die Sehrinde des Cortex befindet. C) EKP an einer okzipitalen Elektrode als Reaktion auf die Präsentation eines Fotos zum Zeitpunkt 0. Oben: einzelner Durchgang, Mitte: gemittelt über 20 Durchgänge, unten: gemittelt über 100 Durchgänge und auf den Nullpunkt verschoben. Die Kurve wird deutlich glatter mit steigender Anzahl an gemittelten Durchgängen. Der graue Balken in der untersten Grafik zeigt das Zeitintervall an, dessen durchschnittliche Amplitude in Abbildung C) auf die Kopfoberfläche projiziert ist. (Mit freundlicher Genehmigung von M. Rose, Hamburg)
die generierenden neuronalen Verbände im Gehirn zu schließen. Dies nennt man das inverse Problem, das unendlich viele Lösungsmöglichkeiten hat. Um eine solche Zuordnung mathematisch lösbar zu machen, müssen deshalb bestimmte Vorannahmen in das Modell gesteckt werden. Anatomische Vorannahmen können z. B. auf fMRT-Studien, die
denselben kognitiven Prozess lokalisiert haben, aufbauen. kFrequenzanalyse
Eine andere Information, die das EEG liefern kann, ist die relative Stärke der verschiedenen Frequenzbänder, also Theta, Alpha etc., innerhalb eines ge-
239
10.4 • Funktionelle Magnetresonanztomographie – fMRT
wissen Zeitraumes. Um vom Spontan-EEG zu dieser Spektralanalyse zu gelangen, müssen die Daten einer sog. Fourier-Transformation unterzogen werden, d. h. das Signal wird in die Frequenzbänder zerlegt. Dadurch erhält man ein Power-Spektrum, das angibt, wie stark jedes Frequenzband in einem Zeitfenster vertreten war und wie sehr es zum Signal beigetragen hat. Der Anteil des Alpha-Bandes steigt zum Beispiel im entspannten Wachzustand an. Von größtem wissenschaftlichem Interesse dürften aktuell die hochfrequenten Gamma-Bänder sein. Einflussreiche Theorien besagen, dass durch diese auch weit entfernte Neurone »gebunden« werden, welche verschiedene Aspekte (z. B. Farbe und Ort) eines Objekts prozessieren. Gleichphasige Gamma-Oszillationen solch weit entfernter Neuronenpopulationen dienen danach als universelles Integrationsprinzip. Dieses gleichzeitige Feuern der Neurone wird als Kohärenz bezeichnet. Gamma-Oszillationen scheinen auch bei der Gedächtnisbildung eine wichtige Rolle zu spielen. Zeit-Frequenz-Analysen erlauben sogar die Veränderungen sowohl der Frequenzanteile als auch der Kohärenzen im zeitlichen Verlauf zu betrachten und so zu bestimmen, zu welchem Zeitpunkt nach Reizdarbietung welche Frequenz eine Rolle spielt. Dabei kommen sog. Wavelet-Analysen zum Einsatz, da Fourier-Analysen eine gewisse zeitliche Strecke benötigen und so ungeeignet sind, Änderungen oder gar Korrelationen von Frequenzanteilen über die Zeit zu berechnen.
10.3.6
Magnetenzephalographie – MEG
Die Magnetenzephalographie beruht auf den durch die postsynaptischen Potenzialschwankungen induzierten Magnetfeldschwankungen. Diese sind naturgemäß in einem 90° Winkel zu den das EEGSignal generierenden Dendritenpotenzialen ausgerichtet, so dass das MEG komplementäre Information zum EEG liefert. Diese Magnetfelder sind sehr schwach (ca. 10–15 Tesla), so dass man zu ihrer Messung extrem empfindliche, mittels Helium gekühlte Sensoren benötigt, so genannte SQUIDs (superconducting quantum interference devices). Diese Sensoren werden wie der Magnet bei der MRT durch
10
flüssiges Helium auf –269° C gekühlt, so dass die elektrischen Widerstände minimiert werden. Die 100–300 Sensoren sind dabei in einer Art Helm so angebracht, dass sie den Kopf von allen Seiten umschließen. Moderne MEG-Geräte sind deutlich teurer als EEG (> 1 Millionen Euro) und müssen noch aufwendiger magnetisch abgeschirmt werden. Zur Stimuluspräsentation eignen sich also nur Geräte, die keine kleinen Magnetfelder induzieren. Der deutliche Vorteil gegenüber dem EEG basiert auf der Tatsache, dass die Verbreitung der elektrischen Aktivität im Gehirn durch unterschiedliche Leitfähigkeit der verschiedenen Strukturen im Gehirn beeinflusst wird. Dies trifft nicht auf die induzierten Magnetfelder zu, weshalb mittels MEG eine bessere Quellenlokalisation möglich ist. So kann man mit dem MEG sogar Reaktionen der Amygdala (Mandelkern) erfassen, die sehr tief im Gehirn versteckt ist und dort u. a. Emotionen verarbeitet. Mögliche Artefakte, die Art der Fragestellung und die Art der Auswertung (EKPs, Spektralanalysen, Zeit-Frequenz-Analyse, Kohärenzen) unterscheiden sich ansonsten nicht vom EEG.
10.4
Funktionelle Magnetresonanztomographie – fMRT
Mit der fMRT wurde Anfang der 90er Jahre eine Methode etabliert, neuronale Aktivitätsveränderungen zu messen, die der PET in ihrer räumlichen und zeitlichen Auflösung deutlich überlegen ist und darüber hinaus als völlig nebenwirkungsfrei gilt. Letzteres erlaubt auch in der Grundlagenforschung die Mehrfachmessungen derselben Versuchspersonen und die Untersuchung von Kindern, um die Entwicklung von Hirnfunktionen zu verfolgen. Diese Vorteile und Intuitivität der statistischen Karten, mit denen die Ergebnisse der komplexen Analysen visualisiert werden, haben der fMRT zu ihrem teils geneideten Siegeszug verholfen. Diese steile Entwicklung spiegelt sich in der Anzahl der wissenschaftlichen Veröffentlichungen wieder, die die fMRT nutzen. Waren es in ihrem ersten Jahr 1992 noch ganze drei, so ergibt eine Literatursuchesuche mit »fMRI« und dem Publikationsdatum 2009 bereits 23 491 Treffer. Aufgrund dieser Popu-
240
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
Phrenologie und Blobologie Anfang der 19. Jahrhunderts entwickelte Franz Josef Gall seine Lehre der Phrenologie, nach der es einen Zusammenhang zwischen Schädelform und den Eigenschaften und Fähigkeiten gäbe. Er postulierte 27 verschiedene Organe im Gehirn, jedes der Sitz einer bestimmten Funktion. Der Charakter einer Person sollte sich aus dem Größenverhältnis dieser Organe ergeben und daher direkt von der Schädelform abgeleitet werden können. Obwohl es natürlich für seine Theorie keinerlei Belege geben konnte, war sie in ihrer Zeit sehr populär und einflussreich.
10
Als Blob (deutsch Klecks) bezeichnet man das farbcodierte Ergebnis der statistischen Analyse von Hirnaktivierungsstudien. Gehirngebiete, deren Aktivität statistisch signifikant mit einer bestimmten Funktion korreliert ist, erscheinen dabei als farbige Flecken. Der Begriff Blobologie implizierte einerseits, dass die Bildgeber ähnlich den Phrenologen ein Signal analysieren, dessen neuronales Korrelat empirisch nicht gesichert war. Andererseits wurde der Zunft ebenfalls in der Tradition der Phrenologie eine zu naive, unwissenschaftliche Interpretation
larität in der Wissenschaft, aber auch in den Medien wird diese Methode daher hier gesondert ausführlich behandelt werden. Viele Neurowissenschaftler warfen den »Bildgebern« gerade zu Beginn vor, sie würden quasi über Nacht bedeutungslose farbige Karten des Hirns erstellen, eine Art moderner Phrenologie oder Blobologie (s. Exkurs »Phrenologie und Blobologie«) und dafür auch noch mit Science- und Nature- Artikeln überhäuft werden. Die Methode galt auch als unseriös, weil man lange nicht wirklich wusste, auf welchen neuronalen Prozessen das gemessene Signal beruhte. Auch von der anderen Seite stand die Methode unter Beschuss. So kritisierten kognitive Experimentalpsychologen den geringen Mehrwert der Lokalisation bestimmter Funktionen für die psychologische Theoriebildung. Mittlerweile ist relativ genau bekannt, welchen elektrophysiologischen Prozessen auf neuronaler Ebene das fMRT-Signal entspricht (elektrophysiologisches Korrelat) und welche zellphysiologischen Kaskaden diese Prozesse mit einer Veränderung des Blutflusses verbinden (neuro-vaskuläre Kopplung). Diese neuen Erkenntnisse werden daher im Folgenden relativ ausführlich behandelt. Auch gehen aktuelle fMRT-Studien über eine einfache Kartierung, das reine Zuordnen von Prozessen zu Hirnregionen hinaus, sondern charakterisieren die Areale und ihre Interaktionen funktionell. Außer-
dieser statistischen Karten vorgeworfen, die nicht berücksichtige, dass Funktionen immer von ganzen Netzwerken vermittelt werden, und darüber hinaus ohne theoretischen Mehrwert wäre. Und natürlich teilte die Bildgebung mit der Phrenologie ihren großen populärwissenschaftlichen Erfolg. Ansonsten hätte sich wohl auch kaum jemand an ihren Kinderkrankheiten gestört.
dem sind sie deutlich theoriegetriebener als in den Anfangsjahren, wie ebenfalls im Abschnitt über die verschiedenen Analyseverfahren vorgestellt wird.
10.4.1
Grundlagen der fMRT
Physiologische Grundlagen kDie fMRT beruht auf zwei Phänomenen
Das Signal, auf dem die fMRT basiert, beruht im Prinzip auf zwei Phänomenen. Einerseits weist der Hirnstoffwechsel die Besonderheit auf, dass in aktiviertes neuronales Gewebe mit dem Blut mehr Sauerstoff transportiert als verbraucht wird. Dadurch reichert sich Sauerstoff in Abhängigkeit vom Aktivierungsgrad in Neuronenverbänden lokal an. Dieser Effekt, auch als Entkopplung von Blutfluss und Sauerstoffverbrauch, Luxusperfusion oder funktionelle Hyperämie bezeichnet, wurde erstmals 1986 beschreiben. Das zweite Phänomen, das sich die fMRT zunutze macht, ist die Tatsache, dass Hämoglobin nach Sauerstoffbindung als Oxyhämoglobin andere magnetische Eigenschaften im Hochmagnetfeld des MRT-Scanners besitzt. Sauerstoffreiches Blut führt zu weniger lokalen Feldinhomogenitäten im Hochmagnetfeld des MRT-Scanners und damit zu einem Signalanstieg. Dadurch lässt dich die Sauerstoffan-
241
10.4 • Funktionelle Magnetresonanztomographie – fMRT
reicherung im aktivierten Hirngewebe im Kernspintomographen sichtbar machen und lokalisieren. kDas Signal korreliert mit synaptischen Prozessen
Dieses Signal, der sog. blood oxygen level dependent (BOLD)-Effekt ist allerdings nur ein indirektes Maß für neuronale Aktivität, weil die metabolischen Konsequenzen von neuronaler Aktivität gemessen werden. Lange wusste man nicht, über welche Ereignisse auf zellulärer Ebene die Höhe dieses Signals Auskunft gibt, Aktionspotenziale oder synaptische Übertragung. Erst 15 Jahre später gelang es 2001 Nikos Logothetis vom Max Planck Institut in Tübingen in einer wichtigen Arbeit zu zeigen, dass dieses Signal stärker mit synaptischer Übertragung als den Aktionspotenzialen korrelierte. Dazu implantierte er Elektroden im visuellen Cortex eines Affen, setzte diesen anästhetisiert in einen MR-Scanner und maß gleichzeitig die elektrophysiologischen Signale und den BOLD-Effekt bei visueller Stimulation. Viele weitere Untersuchungen mit verschiedensten Methoden bestätigten diesen Befund, so dass wir heute wissen, dass die fMRT in der Tat synaptische Prozesse misst, die in einem Areal bei der Verarbeitung von Information auftreten. kGlutamat und Astrocyten als Stars der Show1
Es scheint sich dabei primär um glutamerge Synapsen zu handeln, die für über 80 % des cortikalen Energieumsatzes im aktiven Gehirn verantwortlich sind. Dort arbeiten Astrocyten funktionell eng mit den Neuronen zusammen, so dass man von der dreiteiligen Synapse bestehend aus prä- und postsynaptischen Neuronen und eben dem Astrocyten spricht. Astrocyten sind für die Inaktivierung des ausgeschütteten Glutamats essenziell, weil nur sie es aus dem synaptischen Spalt wieder aufnehmen und dann unter Energieverbrauch zu Glutamin abbauen können. Glutamin wird zurück in das präsynaptische Neuron transportiert und dort wieder zu Glutamat aufgebaut. Der ansteigende Energiebedarf der Astrocyten wird durch Glykolyse gedeckt, das dabei anfallende Lactat wird ebenfalls in die 1
Übersetzung des Titels eines euphorischen Review-Artikels über die Relevanz von Astrocyten (Astron = Stern)
10
Neurone transportiert und deckt deren Energiebedarf durch oxidative Phosphorylierung. Diese Zusammenarbeit zwischen Neuronen und Astrocyten wird auch als neurometabolische Kopplung bezeichnet. Der auch extrazellulär ansteigende Lactatspiegel hat zudem eine wichtige Funktion bei der neurovaskulären Kopplung. kDie neurovaskuläre Kopplung
Glutamat wird aber nicht nur aufgenommen, sondern bindet auch an metabotrophe Glutamatrezeptoren des Astrocyten, was über eine second messenger-Kaskade zur Freisetzung von Calciumionen führt. Diese Calciumwelle wandert durch den Astrocyten bis in seine Endfüßchen, die die Kapillaren eng umschließen. Dort kommt es infolge des erhöhten Calciumspiegels zum Abbau von Arachidonsäure, aus der verschiedene vasoaktive Substanzen (Prostaglandin, HETEs, EETs) gebildet werden. Diese Substanzen bewirken eine Veränderung des Calciumspiegels in der glatten Muskulatur, die dadurch erschlafft oder angespannt wird. Dies führt zur Dilatation bzw. Konstriktion der Kapillare. Der erhöhte Lactatspiegel unterstützt diese Prozesse, weil Lactat die Wiederaufnahme von Prostaglandin verhindert. Ob sich die Kapillare erweitert (positiver BOLD-Effekt) oder verengt (negativer BOLDEffekt), liegt an dem Lactat-, dem Stickstoffmonoxidspiegel und der Vorspannung der Muskulatur. kFunktionelle Hyperämie
Auch der Grund für die Sauerstoffüberversorgung aktiven Hirngewebes wird anschaulich, wenn man sich die Arbeitsteilung an den Synapsen anschaut. Die Glykolyse an den Astrocyten ist sehr schnell, aber wenig effektiv. Sie verbraucht viel Glukose und keinen Sauerstoff, so dass sich Sauerstoff anreichert, bis die oxidative Phosphorylierung in den Neuronen anspringt. Übrigens sind Physiologen an diesen Zusammenhängen natürlich nicht interessiert, weil sie für die Anwender der fMRT die Grundlage der neurovaskulären Kopplung aufklären möchten, sondern weil ein besseres Verständnis des Hirnstoffwechsels wichtig ist, um z. B. effektiver bei Minderversorgung durch Schlaganfälle oder Hypoxien reagieren zu können. Es gibt sogar ein wichtiges Journal of Cerebral Blood Flow and Metabolism aus dem Na-
242
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
ture-Verlag, das sich aus diesem Grund nur dieser Thematik annimmt. Aus diesem Grund sind allerdings bisher auch größtenteils die Vorgänge an den häufigen glutamergen Synapsen untersucht worden. Über die neurovaskuläre Kopplung an Synapsen, die andere Transmitter nutzen, ist deutlich weniger bekannt.
Eigenschaften des Signals kSignalverlauf
10
Die dargestellten Prozesse, die von einer Zunahme synaptischer Übertragung zum Anstieg des Blutflusses und der messbaren Erhöhung der Sauerstoffsättigung führen, benötigen natürlich etwas Zeit und führen zu einem typischen Verlauf des BOLD-Signals. Während die synaptische Übertragung nur einen sehr kurzen Zeitraum einnimmt, erstrecken sich die dadurch ausgelösten Veränderungen des BOLD-Signals über insgesamt 25–30 Sekunden. Diesen Zeitverlauf muss man bei der Planung eines Experimentes unbedingt berücksichtigen. Der typische zeitliche Verlauf der BOLD-Antwort beginnt mit einer kurzen initialen Absenkung (initial dip, . Abb. 10.7). Danach steigt das Signal recht steil an und erreicht nach ca. 5–6 Sekunden seinen Höhepunkt. Danach klingt es wieder langsam ab und fällt für eine gewisse Zeit unter die Grundlinie (post-stimulus undershoot), um sich nach 25–30 Sekunden wieder ganz zu erholen. Die Begriffe BOLD-Antwort, BOLD-Signal sowie BOLD–Effekt, aber auch hämodynamische Antwortfunktion, meist in der englischen Abkürzung HRF (hemodynamic response function), werden dabei oft austauschbar verwendet. kKanonische hämodynamische Antwortfunktion
Der beschriebene prototypische Verlauf der BOLDAntwort wurde ermittelt, indem das Signal über dem auditiven Cortex nach akustischer Stimulation wiederholt gemessen und der Signalverlauf zeitlich gekoppelt zu dem auditorischen Input gemittelt wurde (ähnlich wie beim EKP des EEGs). Die genaue Form des Signalverlaufs entsteht durch komplexe Interaktionen von den beschriebenen physiologischen Prozessen, aber auch physikalischen Gegebenheiten wie der Elastizität der
Kapillarwände etc. Mathematisch kann man diesen Verlauf mit einer komplizierten Windkessel- oder Ballonfunktion beschreiben. Allerdings kann man die Antwortfunktion näherungsweise auch sehr gut mit zwei einfachen Gammafunktionen definieren. Daraus resultiert dann die so genannte kanonische hämodynamische Antwortfunktion, die der Analyse der meisten fMRT-Experimente zugrunde gelegt wird. Früher war es durchaus üblich, für jede Versuchsperson die individuelle hämodynamische Antwortfunktion zu Beginn eines Experiments zu ermitteln. Es konnte aber gezeigt werden, dass die Verwendung der kanonischen HRF nicht zu schlechteren Ergebnissen führt, weil die interindividuellen Unterschiede nicht so groß sind. Das Erheben individueller HRFs hat natürlich bei speziellen Gruppen mit einer veränderten vasomotorischen Antwort seine Berechtigung wie z. B. Alzheimer-Patienten. kZeitliche und räumliche Auflösung des Signals
Trotz dieser zeitlichen Latenz von 5–6 Sekunden ist der BOLD-Effekt aber sehr genau an das auslösende neuronale Ereignis gekoppelt, d. h. das Maximum der BOLD-Antwort erreicht in einem Hirnareal immer genau zur gleichen Zeit nach dem auslösenden Ereignis ihr Maximum. Man kann beispielsweise sogar die unterschiedliche Leitungsgeschwindigkeit von schnellen Ad- und langsameren nicht-myeliniserten C-Schmerzfasern über die Latenz der mit dem Schmerz assoziierten BOLDAntwort zeitlich auflösen. Die räumliche Auflösung ist neben der Messtechnik durch die Physiologie bestimmt. Die Blutflusszunahme ist dabei ein lokal sehr begrenztes Phänomen, so dass die Physiologie des Effektes schon bei 1,5 Tesla eine räumliche Auflösung von okularen Dominanzsäulen (800 μm) ermöglicht. Sie scheint für viele Hirnareale absolut ausreichend zu sein, weil z. B. cortikale Kolumnen aus mehreren Tausend Neuronen bestehen, die eine ähnliche funktionelle Spezifizität besitzen. Eine Auflösung in deren Größenordnung genügt somit, um viele Funktionen im Cortex exakt zu lokalisieren und gegeneinander abzugrenzen. Um die theoretisch mögliche räumliche Auflösung auch auszunutzen, muss man sich geschickte experimentelle Designs überlegen, die geeignet sind, die Subprozesse be-
243
10.4 • Funktionelle Magnetresonanztomographie – fMRT
nachbarter Areale gegeneinander abzugrenzen. Und das ist tatsächlich eine echte Kunst, von der weiter unten noch die Rede sein wird.
Die Messung des Signals Gemessen wird das BOLD-Signal mit speziellen MRT-Sequenzen. Die am weitesten verbreiteten fMRT-Sequenzen wurden bereits weiter oben im Kapitel über MRT erwähnt: die FLASH- und die EPI–Sequenz (. Abb. 10.6C). Die FLASH–Sequenz benutzt für jede Linie des Bildes einen separaten Anregungspuls und benötigt so in der Regel einige Sekunden für die Aufnahme eines fMRT-Schnittbildes. Die EPI-Sequenz hat eine deutlich geringere Bildakquisitionszeit (typischerweise 50 ms pro Schnittbild), da nur ein einziger Anregungspuls benutzt wird, um alle Schichten zu messen. Wegen diesem Geschwindigkeitsvorteil hat sich EPI als Standardsequenz für das fMRT durchgesetzt (. Abb. 10.6C). Im Vergleich zu den langsameren Techniken hat EPI eine etwas schlechtere räumliche Auflösung und ist empfindlicher gegenüber Magnetfeldinhomogenitäten. Die T2*-Wichtung kann darüber hinaus zu Auslöschungen und räumlichen Verzerrungen führen. Für Gehirngebiete, die dicht an luftgefüllten Hohlräumen liegen, wie die Amygdala oder der orbitofrontale Cortex, und daher besonders gefährdet für solche Auslöschungen sind, gibt es spezielle Einstellungen, die diese Artefakte minimieren und die Sensitivität maximieren. Bei der Messung des gesamten Gehirns, eines Volumens, mittels gängiger EPI-Sequenzen werden z. B. 40 Schichten in etwa 2–3 Sekunden gemessen. Es entsteht eine typische Auflösung innerhalb einer Schicht von 2–3 mm und einer Schichtdicke von etwa 2–4 mm. Somit resultieren z. B. kubische Voxel von meist 2–3 mm Kantenlänge. Soll nur ein spezifischer Ausschnitt des Gehirns untersucht werden, können schnellere Messungen mit weniger Schichten durchgeführt werden und/oder die räumliche Auflösung deutlich verbessert werden (bis zu 1,5 mm3). Es gibt allerdings eine untere Grenze der räumlichen Auflösung, an der das Signal-Rausch-Verhältnis zu schlecht wird. Eine schnellere Sequenz, also eine kürzere Repetitionszeit TR, in der der Scanner ein Mal alle Schichten des Gehirns misst, hat den Vorteil, dass das BOLD-Signal in jeder Schicht öfter gemessen
10
und damit feiner abgetastet wird. Durch solch eine höhere Sampling Rate lässt sich der Verlauf und die Höhe der hämodynamischen Antwort genauer abschätzen. Eine Weiterentwicklung ist die parallele Bildgebung, bei der mehrere Empfangsspulen in einem Tomographen für eine schnellere Bildaufzeichnung und damit potenziell eine höhere räumliche und zeitliche Auflösung sowie weniger Artefakte sorgen.
10.4.2
fMRT-Experimente
Experimentelle Paradigmen Das Ziel eines typischen fMRT-Experiments ist es, Areale des Gehirns zu identifizieren, deren Aktivität mit Phänomenen des Erlebens und Verhaltens korreliert. Solche Phänomene können basale Prozesse wie die Richtungssensitivität von bestimmten visuellen Neuronenpopulationen, aber auch komplexe soziale Verhaltensweisen wie die altruistische Bestrafung aus dem PET-Beispiel in 7 Kap. 10.3.3 sein. Dazu muss man diese Alltagsphänomene zunächst in Versuchsbedingungen übersetzen, die man gezielt während des Experiments manipulieren kann. Dabei folgte die fMRT der Logik der kognitiven Subtraktionsmethode. Nach Möglichkeit versucht man dabei die Experimentalbedingungen so zu wählen, dass sie sich in nur genau einem Prozess unterscheiden, weil man nur dann die beobachteten Unterschiede in Hirnaktivität diesem Prozess zuordnen kann (s. auch Exkurs zur kognitiven Subtraktionsmethode S. 232). Dabei ist oft die Kreativität des Experimentators gefragt, da es sehr schwierig sein kann, diese Alltagsphänomene so nachzustellen, dass nicht wichtige Aspekte und damit die so genannte ökologische Validität verloren gehen. Eine solche Übersetzung eines kognitiven, emotionalen, sensorischen, motorischen, sozialen etc. Phänomens in ein Experiment wird auch (experimentelles) Paradigma genannt. Ein gelungenes Paradigma zu entwickeln, kann einer echten Kunst gleichkommen. Manche Paradigmen werden in Variationen auch von anderen Wissenschaftlern über viele Jahre benutzt. Und wie echte Kunstwerke bleiben sie häufig auf immer mit dem Namen
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
B
A
semi-transparenter Schirm Spiegel
Mauer
244
Beamer
Spule Scanner
D
C
do
rs
ale
r
Auge ventraler visuelle Verarbeitungswege
10 E
10
20
8
15
6 10 4 5
2 0
1,5 T
0
7T
. Abb. 10.6 Funktionelle Magnetresonanztomographie. A) Versuchsperson auf der Liege eines 3 Tesla MRT-Scanners (mit dem Kopf in der Spule). Die Liege wird für die Messung in die Bohrung gefahren. B) Schematische Darstellung der visuellen Stimuluspräsentation: Da kein Metall in das Magnetfeld des Scanners gebracht werden darf, steht der Videobeamer im Nachbarraum. Das Bild wird auf einen Spiegel im 45 °-Winkel über den Augen der Versuchsperson projiziert. C) funktionelles MRT-Bild (EPI-Sequenz, 3 × 3 × 3 mm). D) Statistische Aktivierungskarte des dorsalen und ventralen visuellen Verarbeitungsweges auf ein hochauflösendes anatomisches Bild projiziert. Dieses Aktivierungsmuster entsteht, wenn Versuchspersonen ein Bild (ventraler visueller Verarbeitungsweg, »Was«-Pfad) an einem Ort (dorsaler Verarbeitungsweg, »Wo«-Pfad) sehen Die statistischen Werte sind üblicherweise farbcodiert und in der Schwarz-weiß-Abbildung nicht gut zu erkennen. E) Vergleich des Aktivierungsmusters während Fingerbewegung der rechten Hand bei 1,5 und 7 Tesla fMRT. Bei 7 Tesla ist die Kleinhirnaktivierung deutlich prominenter und zusätzlich werden der Thalamus und ipsilaterale motorische Areale identifiziert. Zudem weisen die Ergebnisse des statistischen Vergleichs Bewegung gegen Ruhe deutlich höhere t-Werte auf, wie die Skala zeigt. (Mit freundlicher Genehmigung E. Gizewski, Essen (E))
des Schöpfers verbunden, wie z. B. der berühmte Stroop-Test (s. Exkurs »Der Stroop-Effekt«). Die funktionelle Bildgebung konnte auf einen ganzen Schatz an Paradigmen aus fast 150 Jahren kognitiv-
psychologischer Forschung zurückgreifen. In den letzten Jahren kamen im Rahmen des verstärkten Interesses am Entscheidungsverhalten und sozialen Prozessen auch Paradigmen aus der Verhaltens-
245
10.4 • Funktionelle Magnetresonanztomographie – fMRT
B
Signalanstieg in zufälligen Einheiten
A
δ-Funktion (Stick-Funktion)
Zeitverlauf Faltung HRF
hypothetische hämodynamische Antwortfunktion
0
5
10
15
20
Zeitverlauf in Sekunden
C 0,3
25
ISI 30 Sekunden
Zeitverlauf
D
0,3 10 Sekunden 0,3 5 Sekunden 0,7 2 Sekunden 0,5
Zeitverlauf in Sekunden
Signalanstieg in zufälligen Einheiten
10
gemischt 0,7
Zeitverlauf in Sekunden
140
. Abb. 10.7 Hämodynamische Antwortfunktionen. A) Kanonische hämodynamische Antwortfunktion: Verlauf der typischen BOLD-Antwort bei der Verarbeitung eines Stimulus. Die kurzfristig erhöhte synaptische Übertragung wird von einer etwas verzögerten Erhöhung des Blutflusses und des Sauerstoffgehalts gefolgt. Die Einheit der y-Achse ist häufig nicht skaliert (zufällige Einheiten oder arbitrary units), da es bei der FMRT keine eindeutige Baseline gibt und es sich um relative Änderungen handelt. B) Hypothetischer hämodynamischer Signalverlauf, wenn zwei Stimuli nacheinander verarbeitet werden. Die Stimulusverarbeitung führt zu einer kurzfristigen Erhöhung der synaptischen Übertragung. Diese wird durch eine Stick- oder δ-Funktion beschrieben. Den hypothetischen Verlauf des BOLD-Signals erhält man durch »Faltung« (ein Begriff aus der Matrizenalgebra) der Stick-Funktion mit der kanonischen hämodynamischen Antwortfunktion. C) Die BOLDAntwort in Reaktion auf einander folgende neuronale Ereignisse addiert sich auf, wenn die Ereignisse kurz nacheinander stattfinden. Bei 5 Sekunden beginnt sich bereits ein Plateau zu bilden. Die kleinen Striche auf der x-Achse symbolisieren die Zeitpunkte, zu denen Information verarbeitet wurde und es daher zu einer kurzen Steigerung synaptischer Aktivität kommt. Man beachte die relative Skalierung der y-Achsen. In der untersten Zeile kann man die Amplitudenunterschiede zwischen der BOLD-Antwort auf einzelne Stimuli und mehrerer, kurz aufeinander folgende Stimuli sehen. D) Die zu erwartenden Verläufe des BOLD-Signals werden oft grauwertskaliert abgebildet: helle Schattierung steht für relativ hohe Werte, dunklere für niedrigere. Dadurch kann man mehrere nebeneinander abgebildete Signalverläufe besser visualisieren
ökonomie (»Neuroeconomics« und »Neuromarketing«), Sozialpsychologie und Spieltheorie dazu. Das Anpassen eines Paradigmas an die Erfordernisse einer fMRT-Messung kann dabei abermals
einem Kunststück gleichkommen, wie im Folgenden gezeigt wird. Als Stimuli werden in einem Experiment die Abstufungen des sensorischen Inputs, also Wörter,
246
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
Der Stroop-Effekt
10
Ein prominentes Beispiel für ein Paradigma ist der Stroop-Test, der 1935 von John Ridley Stroop veröffentlicht und seitdem in fast 1 000 wissenschaftlichen Publikationen verwendet wurde. Beim Stroop-Test werden den Versuchspersonen Worte präsentiert, die in verschiedenen Farben (rot, gelb, grün und blau) dargestellt sind. Die Aufgabe ist es, nicht das Wort zu lesen, sondern jeweils möglichst schnell die Farbe zu nennen, in der es erscheint. Die kritische experimentelle Manipulation besteht nun darin, dass auch die Farbworte rot, gelb, grün und blau in den verschiedenen Farben gezeigt werden. Der Stroop-Effekt besteht darin, dass es zu einer deutlich spürbaren Verlangsamung und erhöhten Fehlerrate kommt, wenn die Farbe der Buchstaben nicht zu dem Farbwort passt, also zum Beispiel das Wort »rot« in grün erscheint. In dieser inkongruenten Bedingung muss die automatisierte Reaktion, nämlich das Vorlesen des Farbwortes, zu Gunsten des nicht automatisierten Benennens der Buchstabenfarbe unterdrückt werden. Üblicherweise vergleicht man der kognitiven Sub-
traktionsmethode folgend diese inkongruente mit der kongruenten Bedingung, in der die Farbworte in der richtigen Farbe auftauchen. Mit Variationen dieses Versuchsaufbaus haben Psychologen in den letzten 75 Jahren viel über die Inhibition von Verhalten gelernt. Die zahlreichen Studien mit bildgebenden Verfahren, die den Stroop-Test benutzen, haben als Kontrollzentrum für diese Unterdrückung einer automatisierten Reaktion den anterioren Gyrus cingulus ausgemacht. Dieses Hirngebiet arbeitet in der inkongruenten Bedingung stärker als in der kongruenten. Allerdings lässt sich sowohl der Stroop-Effekt als auch diese Aktivierung des Gyrus cingulus durch posthypnotische Suggestion völlig eliminieren (»Du wirst die Buchstaben nicht lesen können. Sie entstammen einer fremden Schrift.«). Eine der vielen kleinen Variationen dieses Paradigmas. Der Stroop-Test wird aber nicht nur zu Forschungszwecken eingesetzt, sondern auch in der neuropsychologischen Diagnostik. So kann beispielsweise nach einem Schädel-Hirn-Trauma die Fähig-
Bilder, Töne, Sätze, Schmerzen, Gerüche etc. bezeichnet, die die Versuchspersonen dabei im Rahmen der experimentellen Bedingungen verarbeiten soll. Schon diese kurze Aufzählung lässt erahnen, dass die Menge möglicher Stimuli unbegrenzt ist und ganz von der Fragestellung und dem Einfallsreichtum des Experimentators abhängen.
Experimenteller Aufbau Die Kreativität des Experimentators wird bei der Anpassung oder Entwicklung von Paradigmen für die fMRT durch die besonderen Umstände der fMRT-Messung und die Natur des BOLD-Signals abermals gefordert. Aufgrund des permanenten Hochmagnetfeldes des MRT-Scanners, das auch zwischen den Messungen angeschaltet ist, dürfen
keit, naheliegende Reaktionen zu inhibieren, gestört sein. Das Ausmaß dieser im Alltag hinderlichen Inhibitionsschwäche kann man mit dem Stroop-Test quantifizieren. Mittlerweile ebenfalls berühmte Derivate des Stroop-Tests wäre der emotionale Stroop- und der ZahlenStroop-Test. Letzterer kann sogar von Makaken durchgeführt werden, was interessante Inter-Spezies-Vergleiche ermöglicht. Der Stroop-Test ist sicher ein außergewöhnlich erfolgreiches Paradigma, aber ein umso schöneres Beispiel für ein gelungenes kognitionspsychologisches und kognitiv-neurowissenschaftliches Experiment: Er macht ein alltägliches, wichtiges Phänomen, die Inhibition automatisierter Reaktionen, experimentell erforschbar, hat eine hohe ökologische Validität, wie sich in den Befunden zu Patienten zeigt, lässt sich gut variieren und auf diese Weise, sogar bei Tieren einsetzen. Wie viele geniale Ideen, haben solche Paradigmen oft die Eigenschaft, dass sie fast trivial einfach wirken, wenn sie erst einmal jemand anderes beschrieben hat.
keine magnetisierbaren Materialen in die Nähe des Geräts gebracht werden. Das betrifft natürlich auch die Apparaturen, die man benötigt, um den Versuchspersonen die experimentellen Stimuli zu präsentieren, also z. B. Kopfhörer, Bildschirm oder Laser, sowie um die geforderten Reaktion auf die Stimuli aufzuzeichnen. Mittlerweile hat sich eine ganze kleine Industrie entwickelt, die MRT-taugliche Stimulations- und Antworterfassungsgeräte, wie z. B. kleine Bildschirme, Kopfhörer, Laser, Computermäuse, Ergometer, EEG-Hauben oder Blickbewegungskameras, vertreibt. Diese Produkte sind oft sündhaft teuer, weshalb man sich selbst helfen muss. Das muss man sowieso immer, wenn das geplante Experiment eher ungewöhnliche Stimuli, wie z. B. Gerüche, verlangt
10.4 • Funktionelle Magnetresonanztomographie – fMRT
(obwohl man mit genügend Geld mittlerweile auch custom made MRT-taugliche Produkte kaufen kann). Daher gehen so manchen Experimenten ausgedehnte Werkstattaufenthalte voraus. Das häufigste Beispiel für diese Stimulationstechnik Marke Eigenbau betrifft die visuelle Reizdarbietung, die nur selten direkt über teure MRT-taugliche Bildschirme geschieht, sondern meistens durch handelsübliche LCD-Projektoren, die das Bild auf eine Leinwand in der Scannerbohrung präsentieren (. Abb. 10.6B). Dort kann es die Versuchsperson dann über einen kleinen Spiegel, der im 45° Winkel über den Augen an der Spule befestigt ist, sehen. Die Tatsache, dass keinerlei magnetisierbares Material in die Nähe des Scanners und kein metallisches, auch wenn es nicht magnetisierbar ist, während einer Messung in den Scanner kommen darf, gilt natürlich auch für die Versuchspersonen. Menschen haben oft solcherlei Materialien in bzw. an sich, wie einen Herzschrittmacher, der verstellt werden könnte, oder Piercings oder Schrauben in Gelenken, die sich erwärmen könnten. Allgemein werden magnetisierbare Materialien vom Scanner angezogen, nicht-magnetisierbare Metalle können sich während der Messung erwärmen und empfindliche Geräte wie Uhren können kaputt gehen. Lose Metallteile können auf ihrem Flug in den Scanner Menschen ernsthaft verletzen und die Erwärmung kann zu Verbrennungen führen. Und selbst wenn nichts dergleichen geschieht, können diese Materialien zu Artefakten im fMRT-Bild führen. Es ist also unbedingt notwendig, die Versuchspersonen intensiv über Metall im oder am Körper zu befragen. Die klinische Atmosphäre, die Vorsichtsmaßnahmen wegen des Magnetfeldes, die Apparaturen zur Versuchsdurchführung, der Lärm der Messung und die Tatsache, dass die Versuchspersonen den Kopf nicht bewegen dürfen, um die Bilder nicht zu verwackeln, führt dazu, dass fMRT-Experimente in einer eher unwirtlichen, realitätsfernen Umgebung durchgeführt werden. Diese Umgebung scheint viele Versuchspersonen aber weniger zu stören, als man befürchten sollte. So gibt es sogar einige Studien, die Versuchspersonen während eines Orgasmus gescannt haben, sowohl mittels MRT als auch PET. Darüber hinaus stimmen die fMRT-Resultate sehr gut mit Ergebnissen von Läsionsstudien
247
10
oder elektrophysiologischen Experimenten überein. Auch unterscheiden sich die Leistung und das Verhalten der Versuchspersonen im Scanner nicht qualitativ von demselben Experiment, wenn es am Schreibtisch durchgeführt wird. Allerdings ist die Leistung z. B. im Gedächtnistest oft etwas geringer. Um nun seine experimentelle Idee umzusetzen, benötigt man neben der entsprechenden Hardware auch die Software, die die Stimuli in der gewünschten Reihenfolge und zum gewünschten Zeitpunkt darbietet und die Antworten der Versuchsperson aufzeichnet. Das Ganze muss dann auch mit dem Scanner synchronisiert sein, damit man später weiß, welches Bild der Hirnaktivität zu welchem Zeitpunkt des Experiments gehört. Es existiert eine ganze Reihe von konkurrierenden Programmiersprachen, die extra zu diesem Zweck entwickelt worden sind. Zu nennen wäre z. B. E-Prime, Presentation, Psyscope oder die Matlab-basierten Psychtoolbox und Cogent. Diese Programmiersprachen sind relativ leicht zu erlernen und es ist auf jeden Fall die anfängliche Mühe wert, weil man dann Programme schnell den Bedürfnissen anpassen kann.
Länge eines Experimentes In der Regel vergleicht man bei fMRT-Studien die neuronale Aktivität, gemessen als Höhe der BOLDAntwort, zwischen den verschiedenen experimentellen Bedingungen seines Paradigmas (s. Exkurs »Kognitive Subtraktionsmethode und funktionelle Bildgebung«). Umgangssprachlich wird dabei auch im deutschen die Darbietung eines Stimulus, z. B. das zu lesende Wort auf dem Bildschirm und die Aufzeichnung der entsprechenden Reaktion der Versuchsperson als Trial oder Event bezeichnet. Ein Trial ist also jede Wiederholung einer experimentellen Bedingung. Die Höhe der BOLD-Antwort in einem Trial wird dabei natürlich nicht nur von den »erwünschten« neuronalen Prozessen beeinflusst, sondern es gibt psychische (z. B. Aufmerksamkeitsschwankungen) und physikalische Störgrößen, die unsystematisch auftreten, so dass auf dem Signal ein deutliches Rauschen liegt. Ähnlich zu den ereigniskorrelierten Potenzialen beim EEG (. Abb. 10.5B) ist man daher bestrebt, dass Signal-Rausch-Verhältnis zu verbessern, indem man die gemessene BOLD-Antwort über möglichst vie-
248
10
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
le Trials jeder experimentellen Bedingung mittelt, so dass sich die zufällig auftretenden Schwankungen herausmitteln. Dabei stößt man, was die Anzahl der Wiederholungen und damit die Dauer des Experiments betrifft, an Grenzen. Zum einen lässt die Aufmerksamkeit von Versuchspersonen relativ schnell nach, insbesondere weil die allermeisten Experimente nicht spannend sind (zumindest nicht für die Versuchspersonen). Um den Grad der Wachheit im Verlauf des Experiments objektiv ermitteln zu können, empfiehlt es sich daher unbedingt das Experiment so zu planen, dass auf jeden wichtigen Reiz eine Antwort gegeben werden muss, deren Richtigkeit und Geschwindigkeit man erfassen kann. Ein weiteres Problem sind vermehrt auftretende unwillkürliche Kopfbewegungen. Egal, wie bequem man die Versuchspersonen auf der Liege des Scanners mit den zur Verfügung stehenden (Vakuum-) Kissen, Decken, Nackenpolstern etc. bettet, irgendwann bekommen fast alle Versuchspersonen das Bedürfnis, die Liegeposition leicht zu ändern, wobei oft der Kopf mit bewegt wird. Man kann zwar diese Kopfbewegungen aus den Daten im Rahmen der Vorverarbeitung herausrechnen, aber durch die dabei notwendigen Interpolationen werden diese auch nicht besser. Neben dem langen Liegen ist auch der permanente Geräuschpegel trotz Ohrenstöpsel und Lärmschutzkopfhörern ein Stressor, der sich mit der Dauer des Experiments zunehmend nachteilig auf die Performanz der Versuchspersonen auswirkt. Gegen diese Schwierigkeiten hilft es, zumindest zu versuchen, das Experiment so interessant wie möglich zu gestalten. Schon das Vermeiden längerer Leerlaufzeiten, so genannte Interstimulus-Intervalle (ISI), zwischen Stimuli kann helfen. Hilfreich dagegen sind echte Pausen, die dadurch entstehen, dass man das Experiment in einzelne Abschnitte oder sog. Sessions oder Runs unterteilt. Zwischen den einzelnen Sessions kann der Scanner ausgeschaltet werden, so dass es ruhiger wird und die Versuchsperson für einige Minuten die Augen schließen kann. Man kann sie sogar für einen Gang zur Toilette, ein Glas Wasser, ein paar Dehnübungen etc. aus dem Scanner herausholen. Trotzdem wird in der Regel wohl ab einer Gesamtlänge von ca. 60 Minuten die Performance der Versuchsper-
sonen deutlich nachlassen, und man sollte sich gut überlegen, ob man das Experiment nicht anders gestalten kann.
Experimentelle Designs kSubtraktionslogik in der fMRT
Die frühen fMRT-Studien beruhten auf der seriellen Subtraktionsmethode, d. h. man übertrug diese Methode 1:1 aus der kognitiven Psychologie in die Neurowissenschaften, nur dass hier nicht die Zunahme der Reaktionszeit, sondern die des BOLD-Signals die abhängige Variable war (s. Exkurs »Kognitive Subtraktionsmethode und funktionelle Bildgebung«). Allgemein kann man das Stimulusmaterial zwischen den Experimentalbedingungen manipulieren, was am besten für automatische Prozesse wie das Lesen funktioniert, z. B. in der beschriebenen Posner-Buchstaben-Aufgabe wo man Buchstaben vergleichen soll, die entweder gleich, wie a – b, oder unterschiedlich geschriebenen sind, wie a – B. Oder man gibt verschiedene Aufgaben vor in den Experimentalbedingungen, was am besten für kontrollierte Prozesse funktioniert, wie z. B. Entscheiden, ob ein Wort großgeschrieben ist oder ob es etwas Lebendiges beschreibt. Es kann dabei nicht überbetont werden, dass sich die verschiedenen Bedingungen um wirklich nur einen mentalen Prozess oder Verarbeitungsschritt unterscheiden. Ansonsten hat man hinterher große Schwierigkeiten, die Ergebnisse zu interpretieren. Ebenfalls sollten sich die Bedingungen nie zu sehr in ihrer Schwierigkeit unterscheiden. kBaseline-Bedingungen
Man sollte bei der Planung auch beachten, dass in sog. Baseline- oder Ruhebedingungen das Gehirn nicht aufhört zu arbeiten. Im Gegenteil werden manche Areale sogar besonders aktiv, wenn das Experiment mal keine Reaktion erfordert. Dies betrifft zum einen das sog. default mode network des Gehirns, das Areale umfasst, die aktiv werden, wenn keine Anforderungen von außen gestellt werden. Darüber hinaus fangen die Versuchspersonen aber auch an, sich aktiv an den gestrigen Tag zu erinnern, den nächsten Einkauf zu planen, ihren Körper genauer wahrzunehmen etc. Diese Ruheaktivierung verschiedenen Ursprungs ist nicht kontrollierbar und kann im
10.4 • Funktionelle Magnetresonanztomographie – fMRT
schlimmsten Fall den gewünschten Effekt maskieren, weil in der Experimentalbedingung die gleichen Areale aktiv gewesen sind. Als Alternative kann man aktive Baselines nutzen. In einer aktiven Baseline-Bedingung muss die Versuchsperson eine einfache Aufgabe ausführen, so dass es nicht zu der geschilderten unkontrollierbaren Hirnaktivität kommt. Solche Aufgaben könnten die Entscheidung, ob ein Pfeil nach links oder rechts zeigt, sein. Die Auswahl hängt von dem hauptsächlich interessierenden Prozess ab. kAddition kognitiver Prozesse und neuronale Aktivität
Die Logik der kognitiven Subtraktionsmethode in der Bildgebung beruht auf der Annahme der reinen Insertion. Danach ruft jede kognitive Komponente einen weiteren Aktivierungsanstieg hervor, und dieser Anstieg ist unabhängig von möglicher paralleler Informationsverarbeitung, also dem Kontext (s. Exkurs »Kognitive Subtraktionsmethode und funktionelle Bildgebung«). Auch im Rahmen kognitiver Studien wurde diese Annahme kritisiert, weil sie davon ausgeht, dass der bereits existierende Prozess durch den zugefügten nicht verändert wird. Das hieße, es gäbe keine Interaktionen, sondern nur eine reine Addition der Prozesse. Diese Kritik gilt umso mehr bei bildgebenden Studien, weil anzunehmen ist, dass selbst wenn die Prozesse nicht interagieren, die Aktivität in den zugrunde liegenden Neuronenverbänden durchaus Interaktionen zeigen können. Neuronale Dynamik verhält sich nicht linear, so dass man die Struktur der kognitiven Komponenten nicht 1:1 (isomorph) auf deren physiologische Implementierung im Gehirn übertragen kann. Diese Zusammenhänge sind ausgesprochen wichtig, da sie bereits die Planung eines Experiments betreffen, also später nicht korrigiert werden können. Wenn man dies versäumt, kann es zu Schwierigkeiten bei der eindeutigen Interpretation der Ergebnisse kommen. Um diese zu vermeiden und weil Interaktionseffekte nicht leicht intuitiv nachvollziehbar sind, soll an dieser Stelle ein ausführliches, praktisches Beispiel die theoretische Erklärungen unterstützen. Zudem verdeutlicht es die grundsätzlichen Überlegungen beim Design eine fMRT-Studie.
249
10
kGrenzen der Subtraktionsmethode – Beispielstudie
Dieses Beispiel für die Grenzen der Subtraktionsmethode und die Bedeutung von Interaktionen wurde 1996 von dem bereits gewürdigten Karl Friston veröffentlicht (Friston et al., 1996). Die Studie sollte die Frage beantworten, inwieweit der inferiore Temporalcortex in den phonologischen Abruf nach der Objekterkennung involviert ist. Als phonologischen Abruf bezeichnet man das Finden des Namens für das bereits erkannte Objekt. Bis es zum phonologischen Abruf kommen kann, müssen bereits zwei Prozesse stattgefunden haben, nämlich die Analyse des visuellen Inputs und die Objekterkennung. Der dann folgende phonologische Abruf lässt sich nur über einen weiteren Prozess beobachten, nämlich die Produktion des sprachlichen Outputs, also die Nennung des Namens. Die verschiedenen experimentellen Bedingungen, durch deren geschickte Subtraktion man die Areale des phonologischen Abrufs identifizieren möchte sind in . Abb. 10.8 dargestellt. Entsprechend der seriellen Subtraktionslogik würde man zunächst Areale der Objekterkennung identifizieren, indem man die durchschnittliche Aktivierung während der Bedingung 1 von 2 subtrahiert. Areale, deren Aktivität in Bedingung 2 signifikant größer als in Bedingung 1 ist, »überleben« diese Subtraktion. Dazu gehört der inferiore Temporalcortex. Die Zunahme an neuronaler Aktivität zwischen den beiden Bedingungen in diesem Hirngebiet würde man dem Prozess der Objekterkennung zuschreiben. Wenn man nun Bedingung 2 von 3 subtrahiert, bliebe als Prozess nur der phonologische Abruf übrig. Der inferiore Temporallappen überlebt allerdings diese Subtraktion nicht, d. h. er aktiviert nicht stärker durch den zusätzlichen phonologischen Abruf als er es bereits beim Objekterkennen getan hat. Die zwingende Schlussfolgerung gemäß der seriellen Subtraktionslogik wäre, dass der inferiore Temporallappen nicht in den phonologischen Abruf nach Objekterkennung involviert ist. Diese Folgerung basiert auf der Annahme der reinen Insertion, nämlich dass die Aktivierung aufgrund von Objekterkennung gleich groß und unabhängig davon ist, ob zusätzlich ein phonolo-
250
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
A Experimentelle Bedingungen Bedingung
10
Stimulus
Aufgabe
Prozesse
1
»Ja« Sagen
1. visuelle Analyse 2. sprachlicher Output
2
»Ja« Sagen
1. visuelle Analyse 2. Objekterkennen 3. sprachlicher Output
3
Benennen der Objekts
1. visuelle Analyse 2. Objekterkennen 3. phonologischer Abruf 4. sprachlicher Output
4
Benennen der Farbe
1. visuelle Analyse 2. phonologischer Abruf 3. sprachlicher Output
B Faktoren Objekterkennung: ja
Objekterkennung: nein
Bedingung 3 Bedingung 2
Bedingung 4 Bedingung 1
phonologischer Abruf : ja phonologischer Abruf : nein
. Abb. 10.8 Faktorielle Designs. A) Experimentelle Bedingungen der Beispielstudie. B) Experimentellen Bedingungen als Faktorstufen eines 2 × 2 faktoriellen Designs. (Erläuterungen im Text)
gischer Abruf stattfindet oder nicht. Es muss nun nicht zwangsläufig so sein, dass neuronale Aktivität entsprechend dieser Annahme zunimmt. Wenn die Aktivierungszunahme durch Objekterkennung bei zusätzlichem phonologischem Abruf relativ kleiner werden würde, wäre dieses kontextabhängige Verhalten durch die geschilderte Subtraktion nicht detektierbar. Um diese Annahme empirisch zu prüfen, müsste man testen, zu welchen Aktivierungsunterschieden phonologischer Abruf mit und ohne Objekterkennung führt. Man müsste also eine weitere experimentelle Bedingung einführen (Bedingung 4, . Abb. 10.8A) und wäre damit bei einem sog. faktoriellen Design.
Faktorielle und parametrische Designs kFaktorielle Designs
bestehen mindestens aus zwei Faktoren, hier Objekterkennung und phonologischer Abruf, die in allen Kombinationen im Experiment vorkommen (. Abb. 10.8B). Man kann dann zum einen die Haupteffekte der Faktoren untersuchen, die zeigen wo z. B. Objekterkennung unabhängig vom Kontext phonologischer Abruf bzw. phonologischer Abruf unabhängig vom Kontext Objekterkennung zu einem Aktivierungsanstieg führen. Man kann aber auch die Interaktion untersuchen und damit zeigen, wo beide Haupteffekte einander modulieren.
10
251
10.4 • Funktionelle Magnetresonanztomographie – fMRT
Objekterkennung: ja Objekterkennung: nein
A Interaktionen
Bed. 2 Bed. 4
Bed. 1
Bed. 4
Bed. 3
ja nein phonologischer Abruf
Aktivierung
Bed. 2
Aktivierung
Aktivierung
Bed. 3
Bed. 1
Bed. 3
Bed. 1
Bed. 4
ja nein phonologischer Abruf
Bed. 2
ja nein phonologischer Abruf
P0
P1
P2 P3
P4
Aktivierung
Aktivierung
Aktivierung
B Parametrische Designs
P0
P1
P2 P3
P4
P0
P1
P2 P3
P4
. Abb. 10.9 Interaktionelle Effekte und parametrische Designs. A) Interaktionen: Alle drei möglichen Aktivierungsunterschiede in den vier Bedingungen können statistisch signifikante Interaktionen ergeben. Um eine Interaktion interpretieren zu können, muss man also ermitteln, welche Aktivierungsunterschiede die Interaktion treiben. B) Parametrisches Design (Erläuterung im Text): P0 kennzeichnet die Bedingung, in der keine Sensation wahrgenommen wurde, P1 wahrgenommene Sensation, P2 leichten, P3 mittleren und P4 starken Schmerz. In einem kategoriellen Design würde man nur Schmerz (P4) gegen P0 vergleichen
Was Interaktionen anschaulich und auch mathematisch bedeuten, wird an dem Beispiel nun erläutert. Dabei schließen sich Anschaulichkeit und Mathematik keinesfalls aus. kWas sind Interaktionen?
Die Aktivierungszunahme aufgrund von Objekterkennung ohne phonologischen Abruf war ja die Differenz zwischen Bedingungen 2 und 1. Die Aktivierungszunahme aufgrund von Objekterkennung in Anwesenheit phonologischen Abrufs wäre die Differenz zwischen Bedingungen 3 und 4 (. Abb. 10.8A). Nach der Annahme der reinen Insertion müssten beide Aktivierungsunterschiede gleich groß sein, da bei beiden als kognitive Komponente nur die Objekterkennung übrig bleibt. Tatsächlich ist aber der Aktivierungsunterschied aufgrund von Objekterkennung bei zusätzlichem phonologischem Abruf größer. Anders ausgedrückt,
gibt es einen Unterschied zwischen den beiden Aktivierungsunterschieden. Und nichts anderes bedeutet mathematisch betrachtet eine Interaktion: die Differenz der beiden Differenzen ist größer als null oder auch (Bed. 3 – Bed. 4) – (Bed. 2 – Bed. 1) > 0. Statistisch würde man diese inhaltliche Frage auch genau so formulieren, nämlich ob sich die Differenz der beiden Differenzen signifikant von null unterscheidet. Inhaltlich bedeutet solch ein Ergebnis, dass phonologischer Abruf die objekterkennungsabhängige Aktivierung im inferioren Temporallappen moduliert. Und auch die umgekehrte Interpretation wäre zulässig, nämlich dass Objekterkennung die Aktivierung aufgrund phonologischen Abrufs in diesem Hirnareal moduliert. Wichtig ist, dass eine signifikante Interaktion noch nichts über die Art der Modulation aussagt (. Abb. 10.9A). Man kann in der Abbildung klar
252
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
erkennen, dass in allen drei Grafen die Gleichung (Bed. 3 – Bed. 4) – (Bed. 2 – Bed. 1) > 0 stimmt, inhaltlich müsste man diese aber unterschiedlich interpretieren. Dafür kann man sich z. B. die Haupteffekte in der Hirnregion anschauen oder noch besser direkt die Daten, d. h. die durchschnittliche Aktivierung in den einzelnen Bedingungen, wie gezeigt anschauen (und natürlich auch unbedingt in dem entsprechenden Artikel über die Studienergebnisse präsentieren). kParametrische Designs
10
Parametrische Designs sind eine andere Möglichkeit damit umzugehen, dass die Annahme der reinen Insertion nicht stimmen muss. Bei parametrischen Designs variiert man zwischen den verschiedenen Bedingungen die Menge der Prozessierung, womit die Aufgabe gleich bleibt und keine Interaktionseffekte auftreten können. Parametrische Abstufungen der erforderlichen Prozessierung sind natürlich nicht bei jeder Fragestellung durchführbar. Z. B. Ließe sich nur schwer ein Experiment mit mehr oder weniger viel phonologischem Abruf vorstellen. Zudem unterscheiden sich mögliche Abstufungen auch oft in ihrem Schjwierigkeitsgrad. Wenn man mehr als zwei Abstufungen des interessierenden Prozesses in das Experiment einschließt, kann man bei parametrischen Designs darüber hinaus auch etwas über die Art des Zusammenhangs zwischen Hirnaktivierung und Prozess sagen. So wurden z. B. in einer Schmerzstudie den Versuchspersonen verschieden starke Laserreize appliziert, die in den Empfindungen zwischen nicht wahrgenommen (P0) über wahrgenommen (P1) und leicht bis relativ stark schmerzlich waren (P2 bis P4) (Buchel et al., 2002). Anhand ihrer Antwortfunktion ließen sich Areale identifizieren, die nur zwischen wahrgenommen und nicht wahrgenommen differenzierten (links, . Abb. 10.9B), solche Areale, die die Stimulusintensität codieren, unabhängig von der Schmerzhaftigkeit (Mitte) und solche, die spezifisch Schmerzintensität codieren (rechts). kKombination faktorieller und parametrischer Designs
Natürlich kann man parametrische und faktorielle Designs auch kombinieren. Allerdings führt das
schnell zu sehr vielen experimentellen Bedingungen, z. B. bei 2 je dreifach abgestuften Faktoren zu 3 × 3 = 9 Bedingungen (oder Zellen). Bei gleicher Gesamtdauer des Experiments führt das zu weniger Trials pro Bedingung, so dass diese mit mehr Zufallsrauschen gemessen werden und die Höhe der BOLD-Antwort daher ungenauer ermittelt wird.
Zeitliche Anordnung des Experimentes Nachdem man sich aufbauend auf den vorgestellten Kriterien überlegt hat, welche experimentellen Bedingungen man miteinander vergleichen möchte, stellt sich die Frage, in welcher zeitlichen Anordnung und Reihenfolge die Trials der verschiedenen Bedingungen sinnvollerweise präsentiert werden. Dabei gibt es zum einen physiologische Parameter zu beachten, insbesondere den zeitlichen Verlauf der BOLD-Antwort. Zum anderen spielen natürlich psychologische Faktoren eine wichtige Rolle und schließlich sollte man auch mathematische Aspekte der Analyse bereits bei der Planung der Stimulusabfolge mit einbeziehen. Große Bedeutung hat bei der Planung der zeitlichen Anordnung der Stimuli und erforderlichen Reaktionen der Versuchsperson insbesondere der zeitliche Abstand, das sog. Inter-Stimulus-Intervall, kurz ISI. Bis zum vollständigen Abklingen benötigt die hämodynamische Antwort ca. 15–20 Sekunden (. Abb. 10.7A). Wenn man Stimuli in kürzerem Abstand präsentiert, addieren sich die hämodynamischen Antworten auf einander folgende Stimuli auf (. Abb. 10.7C). Diese Aufsummation ist bis zu einem zeitlichen Abstand, also einem ISI, von ca. 2 Sekunden linear, danach kommt es zu komplexeren Interaktionen. Man sollte also kürzere Abstände zwischen den Stimuli tunlichst vermeiden, weil man sonst die gefundenen Aktivierungen nicht gut interpretieren kann. kBlock-Design
Zu Beginn der fMRT wurden wie bei PET-Studien ausschließlich Serien von Trials einer experimentellen Bedingung präsentiert, wobei solch ein Block bis zu ungefähr einer Minute dauern konnte. Die geblockte Darbietung von Reizen, die von einem neuronalen Areal verarbeitet werden, führt dazu, dass sich die hämodynamische Antwort auf die einzelnen Stimuli in den entsprechenden Gehirn-
10.4 • Funktionelle Magnetresonanztomographie – fMRT
arealen bis zu einem Plateau addieren und erst nach dem Block wieder abklingt (. Abb. 10.7C, 2 Sekunden Abstand der Stimuli). In den Analysen wird dann die Höhe der durchschnittlichen Aktivierung in einem Block der verschiedenen Bedingungen miteinander verglichen. kEvent-related-Design
Mitte der 90er Jahre wurden dann so genannte Event-related, also ereigniskorrelierte Designs in die fMRT eingeführt, vergleichbar den EKP-Studien bei EEG und MEG (s. 7 Kap. 10.3.5). Das Event, also das Ereignis, bezieht sich dabei immer auf das Auftreten eines Trials einer experimentellen Bedingung. Man erwartet dabei eine kurzfristige Erhöhung synaptischer Übertragung, gefolgt von einer BOLD-Antwort. Bei den ersten Event-related-Designs präsentierte man zunächst die Stimuli mit einem genügend großen zeitlichen Abstand, so dass die BOLD-Antwort auf jeden einzelnen Stimulus abklingen konnte. Dabei hat man aber nicht 25–30 Sekunden gewartet, sondern nur 10–15, also bis der Peak der BOLD-Antwort vorbei war (. Abb. 10.7C, 10 Sekunden). Diese Art der Präsentation hat gegenüber dem geblockten Design den großen Vorteil, dass man die Höhe der BOLD-Antwort auf einzelne Stimuli messen kann. Viele Fragestellungen ließen sich erst auf diese Weise beantworten, wie z. B. Überraschungseffekte durch selten auftretende Stimuli, also ein z. B. X in einer Serie von Os, sog. Oddballs. Bei vielen Fragestellungen kann man die Events auch erst nach dem Experiment einer der Faktorstufen zuordnen, weil diese Einteilung individuell von der Reaktion der Versuchspersonen abhängt. Zum Beispiel könnte man Events in einem Schmerzexperiment in Abhängigkeit vom subjektiven und situativen Rating der Versuchsperson in verschiedene Schmerzstufen einteilen oder in einem Experiment zum Stroop-Test (s. Exkurs »Der Stroop Effekt«) in Abhängigkeit von der Richtigkeit der Reaktion. Ein mittlerweile klassisches Design in der Gedächtnisforschung, welches nur event-related durchgeführt werden kann, ist das sog. Difference due to MemoryParadigma (s. Exkurs »Der Difference due to Me mory(DM)-Effekt: Die Entwicklung eines Paradigmas«). Die Einführung der Event-related-Designs hat es ermöglicht, weitere Paradigmen aus der kogni-
253
10
tionspsychologischen, aber auch EEG-Forschung zu importieren. Abgesehen von diesen inhaltlichen Vorteilen ist es für die Versuchspersonen auch deutlich weniger langweilig, wenn die Stimuli verschiedener Bedingungen durchmischt und nicht geblockt präsentiert werden, und es treten keine Erwartungseffekte auf, die das Verhalten beeinflussen können. kRapid Event-related Design, Jittern und Null-Events
Die Wartezeiten von 10–15 Sekunden zwischen den Stimuli bis zum Abklingen der BOLD-Antwort sind ziemlich ermüdend für die Versuchspersonen. Deshalb wurden bald rapid Event-related Designs eingeführt, die kürzere ISIs von minimal 2 Sekunden hatten. Trotz der Aufsummation lassen sich bis zu dieser unteren ISI-Grenze die Höhe der BOLD-Antwort auf die individuellen Stimuli gut extrahieren, da es sich ja um eine lineare Addition der einzelnen BOLD-Antworten handelt. Um Erwartungseffekte weiter zu reduzieren, kann man die Länge der ISIs noch variieren, sog. ‚jittern‘ (flackern, flimmern). Dabei lässt man das ISI zwischen z. B. 3 und 6 Sekunden schwanken lassen. Solche rapid Event-related Designs eignen sich hervorragend, um die Höhe des BOLD-Signals zwischen zwei Bedingungen zu vergleichen, z. B. weniger gegen mehr Schmerz (differenzielle Effekte). Da das Signal jedoch in den Arealen, die mit der Analyse der Stimuli, also z. B. Schmerz, beschäftigt sind, nicht mehr auf die Baseline absinkt, kann man mit diesen Designs nicht den Haupteffekt »Schmerz« gegen Ruhe vergleichen. Das kann manchmal von Interesse sein, auch wenn passive Ruhe- oder Baseline-Bedingungen wie oben erwähnt mit Vorsicht zu genießen sind. Um dieser Unzulänglichkeit der rapid Eventrelated Designs zu begegnen, wurden sog. NullEvents eingeführt. Dabei werden in den Strom der Stimuli von Zeit zu Zeit längere ISIs einfügt, in denen das BOLD-Signal auf die Baseline absinken kann. Zu Beginn hatten diese längeren ISIs die Länge eines normalen Events, nur dass eben kein Stimulus präsentiert wurde (deshalb der Name NullEvent). Mittlerweile hat man genügend Erfahrung gesammelt und variiert die Länge der ISIs flexibler wie z. B. in . Abb. 10.7C unterste Zeile zu sehen ist.
254
10
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
Echte Block-Designs von einer Länger von über 30 Sekunden und rapid Event-related Designs stellen nur noch die Extremata aller möglichen zeitlichen Abfolgen von Stimuli dar und auch gezielte Kombinationen von Block- und Event-related Designs sind für manche Fragestellungen eingesetzt worden. Dabei ist ausgesprochen wichtig, dass man nie die BOLD-Antwort auf Events und Blöcke miteinander vergleicht, da letztere durch die Aufsummation der Effekte eine tendenziell höhere Amplitude haben. Dies ist in der relativen Skalierung der y-Achse in . Abb. 10.7C und insbesondere in der untersten Zeile deutlich zu sehen. Durch diese höhere zu erwartende Amplitude sind Block-Designs sensitiver. Deshalb sollte man, wenn es die Fragestellung irgendwie erlaubt, die Stimuli einer Bedingung geblockt vorgeben, auch wenn das erstmal weniger elegant wirkt wie ein Event-related Design. Viele Fragestellungen erfordern sogar eine geblockte Darbietung, weil sich die interessierenden Prozesse über einen längeren Zeitraum erstrecken oder nicht zeitlich genau genug lokalisierbar sind, um eine Ereignis korrelierte Auswertung zu ermöglichen. Die Abfolge der Stimuli erfolgt häufig pseudorandomisiert, d. h. innerhalb gewisser Grenzen zufällig. Diese Grenzen können z. B. bedeuten, dass nicht mehr als maximal drei Stimuli einer Bedingung in Folge auftreten dürfen, um Erwartungseffekte zu vermeiden. kKorrelation von Regressoren
Bleibt zum Schluss ein wichtiger statistischer Faktor, den man bei der Planung der zeitlichen Abfolge der Stimuli unbedingt beachten sollte. Dazu muss einerseits hier im Text auf den Abschnitt über die Analyse von fMRT-Daten vorgegriffen werden und andererseits sollte man dies selbst in der Wirklichkeit bei der Planung eines Experiments auch tun. Wenn man diesen Punkt nicht schon bei der Planung eines Experimentes beachtet, kann es sein, dass man alle seine Versuchspersonen gemessen hat und dann feststellt, dass die Daten nicht auswertbar sind. (Ähnlich den Schwierigkeiten, die sich bei Zeitabständen von unter 2 Sekunden bei der Auswertung ergeben.)
Bei der Auswertung von fMRT-Daten bedienen sich die verschiedenen Programme des sog. Allgemeinen Linearen Modells (ALM). Dabei versucht man die Änderungen des BOLD-Signals in den Voxeln über den zeitlichen Verlauf des Experiments durch sog. Prädiktorvariablen oder Regressoren zu erklären. Ein Regressor beinhaltet die Events einer experimentellen Bedingung, genauer gesagt besteht ein Regressor aus einer hypothetischen Folge von BOLD-Antworten, die man bei der gegebenen zeitlichen Abfolge der Stimuli erwarten würde. Er könnte zum Beispiel so aussehen wie die BOLDSignal-Verläufe in . Abb. 10.7C. Der Regressor, also der durch eine experimentelle Bedingung erwartete Signalverlauf, ist somit festgelegt durch die im Design gewählte Abfolge der Stimuli (die kleinen Striche auf der x-Achse in . Abb. 10.7C). Wenn nun Regressoren miteinander korrelieren, weil z. B. immer Events der Bedingung A und der Bedingung B genau aufeinander folgen, dann wirkt sich dies negativ auf die Sensitivität dieser Regressoren aus, d. h. es wird schwieriger oder unwahrscheinlicher einen Effekt zu finden. Mathematisch formuliert wird die Varianz in den Daten, die von beiden Regressoren erklärt wird, also deren Kovarianz, keinem der Regressionsgewichte der beiden Regressoren zugeschrieben. Diese sind also einfach kleiner, als wenn es den anderen korrelierten Regressor nicht gäbe und man unterschätzt die Varianz, die sie erklären könnten (Suppressionseffekt). Man sollte deshalb unbedingt schon bei der Planung der zeitlichen Abfolge der Stimuli darauf achten, dass die aus dieser Abfolge resultierenden Regressoren möglichst gering korrelieren. Korrelationen kann man z. B. durch das oben erwähnte Jitteren der ISIs verringern. (Der Leser, dem dieser Zusammenhang an dieser Stelle unverständlich erschien, sollte vielleicht nach dem Lesen des Kapitels über die statistische Auswertung nochmals zurückblättern.)
Stichprobengröße Eine letzte Frage bei der Planung einer fMRTStudie betrifft die notwendige Stichprobengröße. Aufgrund der relativ hohen Kosten einer fMRTMessung möchte man diese natürlich so gering wie möglich halten, ohne Gefahr zu laufen, einen vorhandenen Effekt nicht nachweisen zu können. Bei
255
10.4 • Funktionelle Magnetresonanztomographie – fMRT
10
Der Difference due to Memory (DM)-Effekt: Die Entwicklung eines Paradigmas Dieser Effekt ist ein schönes Beispiel, um zu illustrieren, wie ein kognitiv-neurowissenschaftliches Paradigma fast zufällig entwickelt und dann erfolgreich als Standardverfahren etabliert wurde. Zudem ist es ein Beispiel für ein Paradigma, das nur mit bildgebenden Verfahren funktionieren kann. Und zwar sollte eigentlich 1980 in einer EEG-Studie untersucht werden, wie sich die Verarbeitungstiefe, d. h. ob man Worte nur hinsichtlich physikalischer Merkmale (»Ist es in Großbuchstaben geschrieben?«) oder auch inhaltlich (»Handelt es sich um ein Lebewesen?«) bewertet, auf die ereigniskorrelierten Potenziale während dieser Verarbeitung auswirkt. Die Wissenschaftler kamen nach dem Experiment auf die Idee, die EKPs während des Lesens und Verarbeitens der Wörter auch danach zu sortieren, ob diese Worte später in einem Gedächtnistest erin-
nert wurden. Sie fanden tatsächlich eine größere Amplitude der EKPs für die Worte, die anschließend erinnert wurden, als für diejenigen, die später vergessen waren. Diese Differenz in den EKPs, die offensichtlich der erfolgreichen Einspeicherung ins Gedächtnis geschuldet waren, nannten sie dann ‚Difference due to Memory‘- oder kurz DM-Effekt (ein anderer Ausdruck lautet subsequent memory effect). In der Folge wurden dann zahlreiche DM-Effekt Studien mit EEG durchgeführt und der Dm-Effekt wurde dort zum Standardparadigma, um die neuronalen Korrelate erfolgreicher Gedächtnisbildung zu untersuchen. Vor der Erfindung der Event-related fMRT-Designs wurde das Prinzip bereits in Blockdesign-Studien adaptiert. Es wurden einfach kurze Listen von Worten in einem Block präsentiert und anschließend ermittelt, wie viele Worte eines jeden
einer Größe von 20–25 Personen erreichen sowohl die Reliabilität, also die Verlässlichkeit der Messung, als auch die Effektstärken ein befriedigendes Maß, die mit größeren Stichproben nur noch langsam zunehmen. Selten findet man Studien, die 50 und mehr Versuchspersonen untersucht haben. Speziell Imaging Genetics Studien (s. Exkurs »Imaging Genetics«) haben allerdings häufig größere Stichproben, so dass jeder Genotyp mit ca. 15 Versuchspersonen vertreten ist.
10.4.3
Auswertung von fMRT-Daten: Vom BOLD-Signal zum Blob
Es gibt mittlerweile eine ganze Reihe von Programmen für die Analyse von fMRT-Daten, die im 7 Kap. 10.2.2 über die strukturelle MRT aufgezählt wurden. Im Prinzip stehen diese alle vor denselben Herausforderungen: Sie müssen zuallererst die Daten der – in der Regel mehreren – Versuchspersonen vorverarbeiten, so dass man die unter-
Blocks erinnert wurden. Verglichen wurden dann »erfolgreichere« mit »weniger erfolgreichen« Blöcken, und auf diese Weise wurden die Areale des Gehirns identifiziert, die an der erfolgreichen Gedächtnisbildung beteiligt sind, u. a. das Zentrum der Gedächtnisbildung, der Hippocampus. 1998 wurden in einer Ausgabe der Zeitschrift Science zwei Artikel veröffentlicht, die den DM-Effekt in Event-related fMRT-Studien eingesetzt hatten, die eine mit Bildern, die andere mit Wörtern als Stimuli. Seitdem wurden Variationen dieses Paradigmas in über 100 fMRT-Studien zu verschiedenen Aspekten der Gedächtnisbildung verwendet und es hat maßgeblich dazu beigetragen, dass wir heutzutage besser verstehen, welche Gebiete des Gehirns wie zusammenarbeiten, damit wir uns erfolgreich etwas merken können.
schiedlichen Gehirne überhaupt vergleichen kann. Erst danach kann die eigentliche statistische Analyse erfolgen, bei der getestet wird, ob es in Abhängigkeit von den experimentellen Bedingungen statistisch bedeutsame (signifikante) Signalveränderungen gibt.
Vorverarbeitung Die Vorverarbeitung muss unabhängig von dem konkreten Auswerteprogramm die Daten durch eine Reihe von räumlichen und zeitlichen Korrekturschritten für die statistische Analyse vorbereiten. Es gibt dabei einige Variationen bzgl. der Anzahl und der Reihenfolge der Schritte, die von den Daten, dem Ziel der Analyse (z. B. Gruppen oder Einzelfallstudie, Patienten oder gesunde Versuchspersonen) und auch dem persönlichen Geschmack des Auswertens abhängen. Beruhigenderweise haben die frei wählbaren Schritte und Einstellungen erfahrungsgemäß keinen substanziellen Einfluss auf die Ergebnisse. Empfohlen wird, den Erfolg der einzelnen Vorverarbeitungsschritte zumindest
256
10
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
stichprobenartig zu kontrollieren. Vor Beginn der Vorverarbeitung ist es notwendig die ersten Volumen der Messung (ca. 10 Sekunden, Dummy-Scans) zu entfernen, da diese durch den so genannten Sättigungseffekt noch eine andere Kontrastverteilung haben. Außerdem schwankt die Signalstärke zu Beginn, es muss ich erst ein Gleichgewichtszustand einpendeln. Außerdem sollte man die Daten am besten schon an der Scanner-Konsole auf Artefakte hin kontrollieren. Artefakte können sich darin äußern, dass einzelne Schichten in einzelnen Volumen deutlich andere Intensitäten haben. Artefakte treten in der Regel unsystematisch auf, gehen daher als Rauschen in die Statistik ein und machen ein signifikantes Ergebnis unwahrscheinlicher. Ab wann man Messungen aufgrund von Artefakten verwirft, hängt von der Kostbarkeit der Probanden ab (z. B. seltene Patientengruppen) aber auch davon, inwieweit die Ergebnisse in den konkreten Probanden im Vergleich zu den übrigen gelitten haben. Für SPM gibt es einige Toolboxes, die Artefakterkennung und sogar –»reparatur« anbieten. Im Folgenden sei ein Standardablauf der Vorverarbeitung beschrieben. Insbesondere bei der Bewegungskorrektur und der Normalisierung gibt es gängige Alternativen. Beide wurden auch bereits bei der strukturellen MRT kurz erwähnt. kAkquisitionszeitkorrektur
Zunächst muss dafür korrigiert werden, dass die verschiedenen Schichten des Hirnvolumens bei der Messung nicht gleichzeitig aufgezeichnet wurden, sondern verteilt über die gesamte Repetitionszeit. Bei einer TR von zum Beispiel 3 Sekunden wird das Signal in der ersten Schicht fast 3 Sekunden vor der letzten Schicht gemessen. Wenn ein Stimulus zu Beginn der ersten Schicht präsentiert wurde, hat sich das ereigniskorrelierte Signal in diesen 3 Sekunden deutlich verändert. Während der statistischen Auswertung wird dann aber davon ausgegangen, dass das Signal in allen Voxeln aller Schichten des Gehirns gleichzeitig gemessen wurde. Diese Korrektur ist allerdings nur bei Event-related Designs notwendig, bei denen man ja das BOLD-Signal zeitlich gekoppelt an einen möglichst exakten Zeitpunkt messen möchte. Der Nutzen der Akquisitionszeitkorrektur angesichts des Interpolations-
fehlers ist mittlerweile angesichts der Entwicklung von Sequenzen mit kürzeren TRs etwas umstritten. kBewegungskorrektur – Realignment
Unverzichtbar ist die Bewegungskorrektur. Diese ist notwendig, weil sich der Kopf einer Versuchsperson im Laufe eines Experiments unwillkürlich bewegt. Durch diese Bewegung verschieben sich die Hirnareale im Verlauf der Messung relativ zu den Voxeln, die ja im Field of View des Scanners ein statisches Raster bilden. Das ist insofern äußerst problematisch, weil somit in einem Voxel über die Zeit das Signal unterschiedlicher Neuronenverbände gemessen wird. Bei der Bewegungskorrektur werden die einzelnen Volumen deshalb so gedreht und gekippt, dass sie alle exakt über dem Referenzvolumen (häufig das erste der Messung) zu liegen kommen. Die Kippung in mm bzw. Drehung in Grad, um die jedes Volumen bewegt werden muss, werden als sog. Bewegungsparameter gespeichert und können später in Augenschein genommen werden. kNormalisierung
Wenn man die funktionellen Daten in einen der oben erwähnten Referenzraum, also z. B. den MNISpace überführen möchte, muss man wie bei der strukturellen MRT die Daten normalisieren. Bei der Normalisierung wird die Größe des Gehirns und seiner Strukturen, wie Liquor–Räume oder subkortikale Kerngebiete, an das Referenzgehirn angepasst, so dass man das BOLD-Signal an den Koordinaten innerhalb der Stichprobe und mit anderen Studien vergleichen kann. Bei der Normalisierung muss das Gehirn zunächst auf den Nullpunkt des Standardraumes verschoben und orientiert werden. Zusätzlich wird es in der Größe verändert, geschert und skaliert, um so die äußere Form des Referenzhirnes zu bekommen. Außerdem sind nichtlineare Transformationen notwendig, um Unterschiede zum Referenzgehirn auszugleichen. kGlättung
Als letzter Schritt werden die Daten räumlich mit einem Filter geglättet. Das Verfahren ähnelt einem gleitenden Mittelwert in drei Dimensionen, der benachbarte Werte einer Gauss’schen Glockenkurve entsprechend gewichtet. Die Breite des Filters wird
10.4 • Funktionelle Magnetresonanztomographie – fMRT
in Full-Width-Half-Maximum (FWHM in mm) der Gauss Kurve angegeben und muss mindestens die 2–3 fache Voxelgröße betragen. Man glättet und verschmiert die Daten aus drei Gründen. Zum einen werden durch die Glättung interindividuelle Unterschiede zwischen Probanden ausgeglichen, die auch nach der Normalisierung bestehen bleiben. So überlappen Aktivierungen in den gleichen Hirnarealen verschiedener Probanden. Des Weiteren verbessert die Glättung das Signal- Rausch-Verhältnis, und außerdem ist die Glättung notwendig, damit die Voraussetzungen für eine parametrische Statistik, nämlich die Normalverteilung der Fehler, gegeben ist.
Statistische Auswertung – Eine Lanze für die Statistik Wahrscheinlich löst allein diese Überschrift bei vielen Lesern den Impuls aus, das Buch schnell zuzuklappen oder zumindest den Abschnitt zu überspringen. Statistik gilt als langweilig und kompliziert. Vor allem haftet ihr das Vorurteil an, man könne alles mit ihr »beweisen«, getreu dem Zitat »Ich glaube nur der Statistik, die ich selber gefälscht habe«. Dass dieses Zitat wohl von Joseph Goebbels Winston Churchill angedichtet wurde, um diesen zu diskreditieren, ist bezeichnend dafür, wie unrecht der Statistik getan wird. Dabei berechnet man mittels Statistik die objektive Wahrscheinlichkeit, dass ein Messwert von Bedeutung und nicht zufällig zustande gekommen ist. Fälschungsresistent ist Statistik damit natürlich nicht, aber ungefälscht auf jeden Fall objektiv, äußerst relevant und in ihren Grundideen sehr gut nachvollziehbar. Die Lebensnotwendigkeit von Statistik zeigt sich auch darin, dass auch unser Gehirn unwillkürlich und permanent »Statistiken« über unsere Umwelt berechnet. Basierend auf diesen statistischen Wahrscheinlichkeiten trifft es dann Entscheidungen, die unser Überleben wahrscheinlicher machen. Auch für das Überleben als fMRT-Wissenschaftler ist es äußerst vorteilhaft, den statistischen Ansatz der Analysen zumindest intuitiv zu verstehen. Ansonsten ist man darauf angewiesen, dass andere aus Freundschaft oder (finanzieller) Abhängigkeit das eigene Unwissen ausgleichen. Einige Zusammenhänge der Analyse sollten zudem schon bei der Planung eines Experiments beachtet werden, wie die Vermeidung korrelierter Regressoren.
257
10
Eventuell kommt somit die Hilfe bei der Auswertung auch zu spät. Für das nötige intuitive Verständnis reicht aber zum Glück schon ein sehr überschaubarer und vor allem anschaulicher Teil der Statistik aus. Auch der zahlenscheue Experimentator sollte also den Mut aufbringen weiterzulesen. Zahlen und Formeln braucht man nämlich nicht, um den statistischen Ansatz der fMRT zu verstehen, auch wenn dieser den abschreckenden Namen »Allgemeines Lineares Modell« (ALM) trägt. In einem kurzen Anhang wird das ALM dann auch in der üblichen Matrizenschreibweise sowie die zwei grundlegenden Formeln vorgestellt. Auch für den mathematisch unerfahrenen Leser kann diese Darstellung das ALM anschaulicher machen. Ein weiteres Argument, warum die statistische Auswertung zu Recht so relativ viel Raum dieses Kapitels einnimmt, ergibt sich aus der relativen Menge an Zeit, die ein fMRT-Wissenschaftler mit ihr zubringt. So führt ein »normaler« Doktorand in den drei Jahren seine Promotion im Schnitt ca. zwei fMRT-Studien durch und verbringt dabei wohl mindestens zwei Jahre mit der Auswertung der Daten. kMulti- und univariate Analyseverfahren
Bei der statistischen Analyse von fMRT-Daten kann man grundsätzlich zwischen uni- und multivariaten Ansätzen unterscheiden. Ersterer wird überwiegend angewendet und daher gleich ausführlich erläutert. Die unterschiedlichen Analyseverfahren erlauben es, verschiedene Fragen an die Daten zu stellen. Der geplante Analyseweg muss bei der Planung des Experiments schon berücksichtigt werden. Die Verfahren sind manchmal auch kombinierbar. Multivariate Ansätze wie die Hauptkomponenentenanalyse (PCA), das Partial Least SquareVerfahren oder die Mustererkennung sind von Natur aus explorativer, weil weniger Vorannahmen in die Analyse einfließen. Insbesondere die Mustererkennung wird aktuell zunehmend zur Auswertung eingesetzt. Die Universität Princeton bietet für diese Art der Auswertung die Multi-Voxel-Pattern Analysis (MVPA)-Toolbox an, die ständig weiterentwickelt wird. Allerdings gilt trotzdem zurzeit, dass diese Verfahren (noch) nicht so komfortabel
258
10
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
von Auswerteprogrammen unterstützt und vielleicht auch deshalb seltener verwendet werden. Multivariat bedeutet, dass die Aktivierungsmuster vieler Voxel gleichzeitig bei der Analyse berücksichtigt werden. Ohne solide mathematische und programmiertechnische Vorkenntnisse wird man aber insgesamt bei den multivariaten Verfahren nicht weit kommen. Sie sind also eher nicht für den Einsteiger in die fMRT geeignet. Die Softwarepakete zur modelbasierten Analyse von fMRT-Daten beruhen auf dem Allgemeinen Linearen Modell (ALM) und einem univariaten Ansatz, d. h. zunächst wird der Signalverlauf in jedem Voxel einzeln betrachtet. Auch wenn die univariaten, modellbasierten Verfahren wie SPM mittlerweile im Bedienerkomfort und der Intuitivität deutlich besser geworden sind, hilft es dem Experimentator auch hier, zumindest etwas Kenntnisse in der jeweiligen Programmiersprache, wie z. B. Matlab, zu erwerben. Durch das Programmieren von automatisierten Auswerteroutinen oder Skripten kann man die Auswertung sehr viel weniger arbeitsaufwendig und weniger fehleranfällig durchführen. Außerdem eröffnen Programmierkenntnisse manche Auswertemöglichkeiten, die einem ansonsten verschlossen blieben. kDas Allgemeine Lineare Modell in der fMRT
Die statistische Auswertung von fMRT-Daten erfolgt in der Regel univariat, modellbasiert und unabhängig von dem gewählten Sofwarepaket mittels des Allgemeinen Linearen Modells (ALM). Das ALM wurde Ende der 60er Jahre aus der multiplen Regressionsanalyse entwickelt und ist ein vereinheitlichender statistischer Ansatz, mit dem viele verschiedene statistische Fragestellungen bearbeitet werden können (empfehlenswerte Einführung: Moosbrugger, 2002). Es stellt damit eine Alternative zu (multiplen) Regressionsanalysen, den verschiedenen t-Tests und (Co-) Varianzanalysen der klassischen Statistik dar. Auch kommerzielle Statistikpakete wie SPSS oder STATISTIKA bieten Analysen über das ALM an, die Ergebnisse sind identisch zu denen der klassischen Statistik. Bei der statistischen Auswertung funktionellbildgebender Studien werden zwei Ebenen der Analyse unterschieden, die beide im Rahmen des ALM ausgewertet werden. Als erstes erfolgt die
Auswertung der einzelnen Versuchspersonen, die single-subject -oder first-level-Analysen. Falls eine Gruppenauswertung vorgesehen ist, schließt sich daran die second-level oder Gruppenauswertung an. Es handelt sich auf beiden Analyse-Ebenen um univariate Statistiken. Um das Verständnis zu erleichtern, sollte man sich also am besten zunächst immer nur ein Voxel vorstellen, in dem ein Messwert steht.
First-Level-Analyse kSpezifizierung und Schätzung des Modells
Bei der First-Level-Analyse handelt es sich um eine multiple Regression. Man möchte die in einem Voxel über den Zeitverlauf gemessenen Werte durch mehrere Regressoren möglichst gut erklären. Die Regressoren entsprechen in der fMRT den hypothetischen hämodynamischen Antwortfunktionen der verschiedenen experimentellen Bedingungen. Diese sind hypothetisch, weil man sie nicht kennt, sondern erwarten würde, wenn jeder Stimulus von einer kanonischen BOLD-Antwort gefolgt wäre. So ein Regressor könnte also aussehen wie einer der hypothetischen BOLD-Verläufe in . Abb. 10.7C, wobei die kleinen Striche auf der x-Achse jeweils einer Stimuluspräsentation entsprächen. Die Aktivität in einem Voxel, das diesen Stimulustyp verarbeitet, sollte mit diesem Regressor korrelieren. Die Gesamtheit der vom Experimentator ausgewählten Regressoren wird als Modell bezeichnet, ihre Auswahl als Modellspezifikation. Beim Aufsetzen des Modells ist es äußerst wichtig, darauf zu achten, dass zumindest die interessierenden Regressoren nicht miteinander korreliert sind, weil dadurch die zu erwartenden Parameter »künstlich« verkleinert werden. Dies muss man wie oben erwähnt bereits bei der Planung des Experimentes berücksichtigen. Bei der anschließenden Modellschätzung wird für jeden Regressor des Modells ein Regressionsgewicht errechnet, so dass die Summe der gewichteten Regressoren die Messwerte über den Zeitverlauf möglichst genau voraussagen. Und zwar sagt das Modell bzw. sagen die Regressoren zusammen mit ihrem Gewicht multipliziert für jeden Messzeitpunkt (=fMRT-Bild) einen Wert voraus. »Möglichst genau voraussagen« bedeutet, dass der mittlere Unterschied zwischen den durch das Modell
259
10.4 • Funktionelle Magnetresonanztomographie – fMRT
vorhergesagten und den gemessenen Werten über alle fMRT-Bilder minimiert wird. Mathematisch formuliert werden Regressionsgewichte ermittelt, so dass die gewichtete Linearkombination der Regressoren die Summe der Abweichungsquadrate über die Zeitserie minimiert. Der Anteil des Signalverlaufs in dem Voxel, der nach der Schätzung nicht durch das Modell erklärt werden kann, ist die Fehlervarianz des Modells. Die Größe der Regressionsgewichte der einzelnen Regressoren sagt etwas über die Höhe der Korrelation mit dem gemessenen Signalverlauf aus und kann auch als relative Amplitude der BOLD-Antwort oder relative Aktivierung der entsprechenden Experimentalbedingung interpretiert werden. Andere Bezeichnungen für Regressionsgewichte wären β-Gewichte oder Parameter. Letzterer Begriff ist weniger intuitiv, wird aber in der fMRT überwiegend verwendet. Bei der Modellspezifikation ist man bestrebt, die Fehlervarianz des Modells zu minimieren. Bei der späteren Entscheidung, ob eine Aktivierung signifikant oder nur zufällig zustande gekommen ist, wird nämlich die Größe des Regressionsgewichts an der Fehlervarianz und damit der Unsicherheit des Ergebnisses relativiert. Je größer die Fehlervarianz, desto wahrscheinlicher kann ein Regressionsgesicht der entsprechenden Größe auch einfach zufällig auftreten. Um die Fehlervarianz des Modells zu minimieren, versucht man möglichst viel der neuronalen Aktivität durch Regressoren zu erklären. So werden auch Regressoren in das Modell mit aufgenommen, die für die Hypothese nicht von Interesse sind, aber erwartete neuronale Aktivität erklären können. Man schließt also z. B. Regressoren in das Modell ein, die für die Fragestellung unwichtige motorische Antworten der Versuchspersonen oder uninteressante Trials mit falschen Antworten beinhalten. kKontraste und Ergebnisdarstellung
Man kann die Größe der Regressionsgewichte miteinander vergleichen, um zu sehen, welche experimentelle Bedingung zu einer höheren Aktivität geführt hat. Formal testet man solche gerichteten Hypothesen als t-Test im ALM durch die Spezifizierung von Kontrastvektoren. In Kontrastvektoren steht für jeden Regressor des Modells ein Kontrast-
10
gewicht, mit dem das entsprechende Regressionsgewicht (oder Parameter) multipliziert wird. Wenn man im einfachsten Fall testen möchte, ob eine der zwei Bedingungen, Bed. 1 und Bed. 2, zu größerer Aktivierung führt, würde der Kontrastvektor [1 −1] mit dem Parametervektor [β1 β2] multipliziert, was [1 * β1 + (−1) * β2] = [β1–β2] ergibt. Dass heißt, es wird die Differenz zwischen den beiden Regressionsgewichten berechnet. Da die Regressionsgeweichte der relativen Aktivierung entsprechen, bedeutet diese Differenz nichts anderes als der Aktivierungsunterschied beider Bedingungen. Das Ergebnis jedes Kontrastes wird für jedes Voxel in ein neues ‚Kontrast‘-Bild geschrieben und gespeichert. Dieser Wert wäre größer 0, wenn Bedingung 1 in der Tat zu einer größeren Aktivitätszunahme als Bedingung 2 führen würde. Um zu testen, ob dieser Unterschied auch statistisch bedeutsam ist, relativiert man die Differenz an der Fehlervarianz des Modells und bekommt einen t-Wert. Auch die t-Werte jedes Voxels werden in einem neuen Bild gespeichert. Die t-Werte werden bei der farbigen Ergebnisdarstellung in statistische Wahrscheinlichkeiten umgerechnet, die aussagen, wie wahrscheinlich es ist, dass ein so großer Unterschied zwischen Bedingung 1 und 2 zufällig zustande kommt angesichts der gegebenen Unsicherheit (Fehlervarianz des Modells). Die Wahrscheinlichkeits- oder p(probability) Werte werden farbskaliert (je höher, je gelber) und erst ab einem frei wählbaren Schwellenwert von z. B. p < 0.001 voxelweise dargestellt. Diese statistischen Karten sind das Ziel einer jeden fMRT-Analys. Man kann sie auf das Bild eines Standardgehirns projiziert und somit die signifikanten Aktivierungen lokalisieren (. Abb. 10.6D). kInteraktionskontrast
Als Beispiel für eine kompliziertere Fragestellung bietet sich die bereits zuvor ausführlich erklärte Interaktion in dem Beispiel über den phonologischen Abruf im inferioren Temporalcortex an. Eine Interaktion von zwei Faktoren bedeutet ja nicht anderes, als dass die Differenz in der Aktivierung zwischen zwei Bedingungen (Bed. 3 – Bed. 4) größer ist als die zwischen den anderen beiden Bedingungen (Bed. 2 – Bed. 1). Es soll also gelten (Bed. 3 – Bed. 4)
260
10
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
– (Bed. 2 – Bed. 1) > 0 oder nach Ausmultiplizieren der Klammern Bed. 3 – Bed. 4 – Bed. 2 + Bed. 1 > 0. Um diese Fragestellung statistisch zu testen, würde man zunächst ein Modell mit je einem Regressor für jede der vier Bedingungen spezifizieren und somit nach der Modellschätzung vier Regressionsgewichte als Parametervektor [β3 β4 β2 β1] erhalten. (Die Reihenfolge der Regressoren spielt dabei keine Rolle.) Die Interaktion testet man durch Multiplikation dieses Vektor mit dem Kontrastvektor [+1 −1 −1 +1], der sich aus den dargestellten Überlegungen ergibt. Getestet wird dann also [+1 * β3 + (−1) * β4 + (−1) * β2 + 1 * β1] > 0 oder vereinfacht [β3 − β4 − β2 + β1] > 0. Um zu prüfen, ob das Ergebnis signifikant größer als 0 ist, wird es an der Fehlervarianz des Modells relativiert. Für die Interpretation einer signifikanten Interaktion muss man wie oben beschrieben unbedingt das Aktivitätsmuster in Augenschein nehmen . Abb. 10.9A. Das Modell mit den genannten vier Regressoren bietet aber auch die Möglichkeit, einzeln die Aktivierungsunterschiede sowohl zwischen Bed. 3 und Bed. 4 als auch zwischen Bed. 2 und Bed. 1 zu testen. Für den ersten Vergleich würde man einen Kontrastvektor [+1 −1 0 0] spezifizieren, der nach der Multiplikation mit dem Parametervektor in der gewünschten Differenz β3 – β4 resultiert. Voxel, in denen der zweite Aktivierungsunterschied signifikant ist, würde man dementsprechend durch den Kontrastvektor [0 0 +1 −1] identifizieren. Für beide Kontraste würde ein Kontrast-Bild herausgeschrieben werden, das für jedes Voxel die entsprechende Aktivierungsunterschiede enthielte. kKorrektur für multiple Vergleiche
Bis hierher wurde jedes Voxel einzeln betrachtet, d. h. es wurden parallel viele Tausend statistische Tests durchgeführt. Das übliche Signifikanzniveau von p < 0,01 bedeutet, dass man ein Ergebnis als bedeutsam akzeptiert, wenn die Wahrscheinlichkeit, dass es zufällig zustande kam, kleiner als 1 % beträgt. Wenn man diese Schwelle für jedes der Voxel des Gehirns zugrunde legen würde, würde der Aktivierungsunterschied rein zufällig in 1 % aller Voxel, also mehreren hundert, als signifikant ausgewiesen werden. Man muss also eine deutlich niedrigere Schwelle einführen, um nicht viele falsch positive Ergebnisse zu erhalten. Nach dem klassischen Korrekturansatz für multiple Verglei-
che, der Bonferroni-Korrektur, würde man das Signifikanzniveau durch die Anzahl der durchgeführten Tests, also die Anzahl der Voxel, teilen. Dieses Verfahren wird allerdings den fMRT-Daten nicht gerecht, da die Tests benachbarter Voxel nicht unabhängig voneinander sind. Die Abhängigkeit liegt an der Glättung während der Vorverarbeitung und der dem Signal zugrunde liegenden Physiologie. Deshalb wird die tatsächliche Anzahl unabhängiger Tests nach der Theorie der Gaußschen Zufallsfelder geschätzt und das Signifikanzniveau entsprechend nach unten korrigiert. Meist erwartet man den Effekt nur in einem ganz bestimmten Teil des Gehirns. Man hat aufgrund von bereits publizierten fMRT-, Läsionsoder auch Tierstudien Hypothesen bezüglich seiner Lokalisation. Man würde also am liebsten auch nur diesen Bereich des Gehirns scannen z. B. den Hippocampus in einer Gedächtnisstudie, weil man an den restlichen Voxeln nicht interessiert ist. Da dies nicht geht, kann man in diesem Fall den Suchraum im ganzen Hirn hypothesengeleitet auf die interessierenden Areale einschränken und die Korrektur für multiple Vergleiche nur für die Anzahl der Voxel bzw. die Anzahl unabhängiger Tests in den entsprechenden Arealen durchführen. Das Ergebnis des statistischen Tests in jedem einzelnen Voxel dieses Suchvolumens wird dann mit dem korrigierten Signifikanzniveau verglichen. kKopplung von Arealen und funktionelle Konnektivität
Im Abschnitt über Auswertemöglichkeiten des EEG wurde bereits über Kopplung gesprochen, also die Tatsache, dass teils weit entfernte Hirnareale bei der Analyse von Informationen zusammenarbeiten. Ähnlich der Kohärenz Analyse beim EEG kann man auch das BOLD Signal in verschiedenen Arealen korrelieren, bzw. den Signalverlauf in einem Startareal als Regressor in eine First-Level Analyse verwenden und so Areale identifizieren, in denen das BOLD Signal, also auch die neuronale Aktivität, ähnlich verläuft. Das Softwarepaket SPM bietet darüber hinaus bei Block-Designs die Analyse von psycho-physiologische Interaktionen (PPIs) an, um zu testen, inwieweit sich die Korrelation zwischen Arealen kontextsensitiv ändert. Für Event-related Designs wur-
10.4 • Funktionelle Magnetresonanztomographie – fMRT
de das sehr viel komplexere Dynamic Causal Modelling (DCM) für SPM entwickelt, das letztendlich ähnliche Fragestellungen beantworten hilft. Dieser Ansatz bedarf exakter anatomischer Modelle, wie die verschiedenen beteiligten Areale miteinander verknüpft sind. Ein entscheidender Baustein dieser Modellierung ist die Rückrechnung des neuronalen Signals aus den gemessenen BOLD-Signal verlauf mittels eines so genannten Vorwärtsmodells. Das Modell schätzt dann die Gewichtung der einzelnen Verbindungen unter verschiedenen Kontexten. DCM wurde mittlerweile auch für die Analyse von EEG- bzw. MEG-Daten eingeführt.
Second-Level-Analyse Die Second-Level- oder Gruppenanalyse entspricht im ALM einem t-Test oder Varianzanalyse. Dabei kann man sich auch auf dem Second-Level zunächst auf ein einzelnes Voxel konzentrieren, weil die Tests wieder zunächst unabhängig voneinander, also univariat berechnet werden. Als abhängige Variable, die durch das Modell erklärt werden soll, gehen die First-Level Ergebnisse der einzelnen Versuchspersonen ein. Diese Ergebnisse sind in den jeweiligen Kontrast-Bildern gespeichert. Wenn man z. B. auf dem First-Level für jede Versuchsperson den Kontrast Bed. 1 – Bed. 2, also β1 – β2, berechnet und als Kontrast-Bild gespeichert hat, kann man auf dem Second-Level testen, in welchen Voxeln diese Aktivierungsdifferenz über die Versuchspersonen hinweg signifikant größer als 0 ist. Gleiches kann man für den komplizierteren Interaktionskontrast tun. Der einzige Unterschied ist, dass in dem Voxel der Kontrast-Bilder nun das Ergebnis der Interaktionskontrastes [β3 − β4 − β2 + β1] steht und man testet ob dieser in der Stichprobe signifikant größer als 0 ist. Die Bedeutung von Second-Level Regressoren wird an Hand einer alternativen Möglichkeit erklärt, die oben dargestellte Interaktion zwischen vier Bedingungen zu testen. Die Interaktion von vier Bedingungen kann man nun auch statistisch testen, indem man die beiden differentiellen Kontrast-Bilder des First-Levels, β3 – β4 sowie β2 – β1, erst auf dem Second-Level mittels eines weiteren differentiellen Kontrasts miteinander vergleicht. Man erinnere sich: Interaktion entsprechen der Differenz zweier Differenzen. Von jeder Versuchsperson gehen damit zwei unterschiedliche
261
10
Kontrast-Bilder in das Second-Level Modell ein. Second-Level Modelle beinhalten so viele Regressoren wie inhaltlich unterschiedliche Kontrast-Bilder aus dem First-Level in die Analyse eingehen. Die Aufgabe der Second-Level Regressoren besteht nämlich darin, die First-Level Kontrast-Bilder eindeutig den Bedingungen zuzuordnen. Zu diesem Zweck wird eine Dummy-Codierung durchgeführt, d. h. in dem jeweiligen Regressor steht eine 1, wenn das betreffende Kontrast-Bild zu seiner Bedingung gehört, und eine 0, wenn es zu der anderen Bedingung gehört. Wenn nur eine Art von KontrastBildern auf das Second-Level ‚gehoben‘ wurden, steht in dem einzigen Regressor dieser Codierung folgend immer eine 1. Die Modellschätzung erfolgt nun analog zum First-Level. Der t-Test auf dem Second-Level entspricht nämlich nach der Codierung ebenfalls einer (multiplen) Regression. Es werden also wieder für die Regressoren Regressionsgewichte (oder Parameter) gesucht, so dass die Fehlervarianz des Modells minimiert wird. Die berechneten Regressionsgewichte entsprechen auf dem Second-Level dem über die Versuchspersonen gemittelten Werten der Kontrastbilder der jeweiligen Bedingung. Statistische Fragen werden auch auf dem SecondLevel als Kontrastvektoren formuliert, die mit den Parametervektoren multipliziert werden. Wenn das Modell aus nur einem Regressor besteht, kann der Kontrastvektor nur eine 1 oder –1 enthalten. Man testet, ob der mittlere Wert der Kontrastbilder in dem Voxel signifikant größer bzw. kleiner als 0 ist. Einen differenziellen Kontrast über zwei SecondLevel Regressoren spezifiziert man analog al [+1 −1] und testet damit in dem Interaktionsbeispiel ob die ersten Aktivierungsdifferenz größer als die zweite ist. Die t- und p-Wert-Berechnung, die Korrektur für multiple Vergleiche und die Einschränkung des Suchvolumens werden ebenfalls analog dem FirstLevel durchgeführt. Dieser Einheitlichkeit der Berechnung so verschiedener Fragestelllungen macht das ALM so beliebt.
Anhang: ALM in Formelschreibweise Das ALM wird üblicherweise (nicht nur in der Bildgebung) in Matrizenschreibweise formuliert. Matrizen sind Mengen geordneter Elemente, d. h. Werte werden in Zeilen und Spalten angeordnet, wobei alle Spalten bzw. alle Zeilen einer Matrize die
262
Kapitel 10 • Neuroimaging: neuro-bildgebende Verfahren
gleiche Länge haben, so dass ein Rechteck entsteht (s. erste Beispielformel). ⎤ ⎡ x11 x21 x31 X = ⎣ x12 x22 x32 ⎦ x13 x23 x33 ⎤ x11 x = ⎣ x12 ⎦ x13 ⎡
x = [x11
10
x21
x31]
Matrizen mit nur einer Spalte oder einer Zeile heißen Vektoren (Spalten- bzw. Zeilenvektoren, s. mittlere und untere Beispielformel); Matrizen mit nur einem Wert Skalar. In Formeln bezeichnen kleine Buchstaben in der Regel Vektoren und Skalare, große Buchstaben Matrizen mit mehreren Zeilen und Spalten. Für Matrizen gelten spezielle Rechenregeln, die Matrizenalgebra, wobei der interessierte Leser an einführende Fachliteratur (z. B. Mossbrugger, 2002) verwiesen sei.
Modellschätzung etwas darüber aus, wie eng der Regressor mit der Kriteriumsvariable zusammenhängt, wie stark er gewichtet werden muss, um die Kriteriumswerte optimal zu erklären. Auf dem First-Level der fMRT-Analyse kann man die Größe des Parameters direkt als relative Aktivierungszunahme der entsprechenden Bedingung interpretieren. In jeder Zeile des ALM in Vektorschreibweise stehen die Werte in den Regressoren, die zu einem Kriteriumswert gehören, also z. B. y1 = β1*x11 + β2*x12 + …βn*xn1 + β0*1 + ε1. Aber natürlich wird das Modell so geschätzt, dass es im Durchschnitt über alle Beobachtungen in der Kriteriumsvariablen diese mittels der Regressoren optimal, also mit minimalem Fehler vorhersagt. ⎡
⎤ ⎤ ⎤ ⎡ ⎡ y1 x11 x21 ⎢ y2 ⎥ ⎢ x12 ⎥ ⎢ x22 ⎥ ⎢ ⎥ ⎥ ⎥ ⎢ ⎢ ⎢ y3 ⎥ ⎥ ⎢ x13 ⎥ ⎢ ⎢ ⎥ = β1 ∗ ⎢ ⎥ + β2 ∗ ⎢ x23 ⎥ + · · · ⎢ .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥ ⎣ . ⎦ ⎣ . ⎦ ⎣ . ⎦ ym x1m x2m ⎤ ⎡ ⎤ ⎡ ⎤ ε1 xn1 1 ⎢ xn2 ⎥ ⎢ 1 ⎥ ⎢ ε2 ⎥ ⎥ ⎢ ⎢ ⎥ ⎢ ⎥ ⎥ ⎢ ⎢ ⎥ ⎢ ⎥ + βn ∗ ⎢ xn3 ⎥ + β0 ∗ ⎢ 1 ⎥ + ⎢ ε3 ⎥ ⎢ .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥ ⎣ . ⎦ ⎣. ⎦ ⎣ . ⎦ xnm εm 1 ⎡
kALM in Vektorschreibweise
Um das ALM in der Matrizenschreibweise zu verstehen, ist es sinnvoll mit der Vektorschreibweise zu beginnen, weil diese stärker an die aus der Schule bekannte Gradengleichung erinnert. Die Werte y1 bis ym der zu erklärenden, abhängigen Kriteriumsvariable y werden in einem Spaltenvektor notiert, der so viele Einträge m hat, wie es Beobachtungen gibt. Auf dem First-Level einer fMRT-Analyse stehen in diesem Vektor die Messwerte (BOLD-Signal) in einem Voxels über den Zeitverlauf des Experimentes. Die x-Werte der unabhängigen Prädiktorvariablen oder Regressoren werden ebenfalls in Spaltenvektoren notiert, deren Anzahl n der Anzahl an Regressoren in dem Model entspricht. Man bezeichnet die x-Werte eindeutig mit zwei Indizes, einem ersten für den Regressor (1 bis n) und einem zweiten für die Zeile (1 bis m). Im ersten Regressor wäre dies also x11 bis x1m, im zweiten x21 bis x2m etc. Auf dem First-Level einer fMRT-Analyse entsprechen die Regressoren den hypothetischen hämodynamischen Signalverläufen der experimentellen Bedingungen. Jeder Regressor wird mit einem in der Modellschätzung zu ermittelnden Regressionsgesicht β multipliziert. Die Größe des β sagt nach der
kDas ALM in Matrizenschreibweise
Zunächst kann man die oben notierte mit den β gewichtete lineare Addition der n Regressoren der Matrizenalgebra folgend auch folgendermaßen notieren: ⎡
⎤ β1 y1 ⎢ ⎥ ⎢ y2 ⎥ ⎢ β2 ⎥ ⎢ ⎥ ⎢ β3 ⎥ ⎢ y3 ⎥ ⎢ ⎥ ⎢ ⎥ = ⎢ .. ⎥ ⎢ . ⎥ ⎢ . ⎥ ⎥ ⎣ .. ⎦ ⎢ ⎣ βn ⎦ ym β0 ⎡ x11 ⎢ x12 ⎢ ⎢ ∗ ⎢ x13 ⎢ .. ⎣ . x1m ⎡
⎤
x21 x22 x23 .. . x2m
··· ··· ··· .. . ···
xn1 xn2 xn3 .. . xnm
⎤ ⎡ ⎤ 1 ε1 ⎢ ε2 ⎥ 1⎥ ⎥ ⎢ ⎥ ⎢ ⎥ 1⎥ ⎥ + ⎢ ε3 ⎥ .. ⎥ ⎢ .. ⎥ .⎦ ⎣ . ⎦ εm 1
Literatur und World-Wide-Web-Links
Die Matrizenrechenregeln besagen nämlich, dass man bei der Multiplikation eines Spaltenvektors mit einer Matrize zunächst das erste Element des Vektors, also β1, mit den Elementen der ersten Spalte der Matrize, also den Elementen des ersten Regressors x11 bis x1m, multipliziert. Dazu addiert man dann das Produkt des zweiten Elementes des Spaltenvektors, also β2, mit den Elementen der 2. Spalte der Matrize, also dem 2. Regressor x21 bis x2m, und so weiter. Man sieht, dass der Spaltenvektor immer genau so viele Zeilen haben muss, wie die Matrize Spalten, damit die Multiplikation funktioniert. Wenn man dann den Spaltenvektor mit der Matrize ausmulitpliziert, erhält man wieder das ALM in der Vektorschreibweise. Wie gesagt werden in Matrizenschreibweise Vektoren mit kleinen und zweidimensionale Matrizen mit Großbuchstaben gekennzeichnet, so dass man das ganze kürzer notieren kann: y = βX + ε. X wird dabei auch als Designmatrize bezeichnet, weil in den Spalten von X ja die einzelnen Regressoren und damit Versuchsbedingungen stehen. Und diese werden ja durch das experimentelle Design festgelegt. Abschließend zu diesem kurzen mathematischen Exkurs sei angemerkt, dass die optimalen Regressionsgewichte β für das gegebene Modell bei den gegebenen Daten y immer über die sehr einfache Formel β = (XTX)−1XTy ermittelt werden. Man multipliziert also einfach in einer bestimmten Form die Designmatrize und die Daten y. Das hochgestellte T bedeutet dabei, dass die Matrize transponiert wird, die Potenz −1, dass man die Inverse der Matrize benutzt. Wer wissen will, was Inverse und Transponierte sind, sei an die einführende Fachliteratur verwiesen. Wichtig an dieser Formel ist hier, dass man nur die Daten und die Designmatrize benötigt, und vor allem, dass alle Regressionsgewichte unabhängig von der Reihenfolge in der Designmatrize gleichzeitig geschätzt werden.
Literatur und World-Wide-Web-Links Web Ressourcen: fMRT-Auswerteprogramme: SPM http://www.fil.ion.ucl.ac.uk/spm/
263
10
Brain Voyager http://www.brainvoyager.com Freesurfer http://surfer.nmr.mgh.harvard.edu FSL http://www.fmrib.ox.ac.uk/fsl/ AFNI http://afni.nimh.nih.gov/afni/ Musterkennungs-Toolbox http://code.google.com/p/ princeton-mvpa-toolbox/ MRICron http://www.cabiatl.com/mricro/mricron/index. html Online Version des Buches Human Brain Function http:// www.fil.ion.ucl.ac.uk/spm/doc/books/hbf2/ Programme zur Präsentation von Experimenten Presentation http://www.neurobs.com/ Cogent http://www.vislab.ucl.ac.uk/cogent_2000.php E-Prime http://www.pstnet.com/ Psychotoolbox http://psychtoolbox.org/wikka.php? wakka=HomePage Einführung in Matlab (Buch) http://www.matlab-behave. com/ Biomedical Informatics Research Network (u. a. Maus DTIAtlas) http://www.birncommunity.org/ Agdeppa ED, Spilker ME (2009) A review of imaging agent development. Aaps J 11, 286–299. Ametamey SM, Honer M, Schubiger PA (2008) Molecular imaging with PET. Chem Rev 108, 1501–1516. Buchel C, Bornhovd K, Quante M, Glauche V, Bromm B, Weiller C (2002) Dissociable neural responses related to pain intensity, stimulus intensity, and stimulus awareness within the anterior cingulate cortex: a parametric single-trial laser functional magnetic resonance imaging study. J Neurosci 22, 970–976. Dupont P, Warwick J (2009) Kinetic modelling in small animal imaging with PET. Methods 48, 98–103. Friston KJ, Price CJ, Fletcher P, Moore C, Frackowiak RS, Dolan RJ (1996) The trouble with cognitive subtraction. Neuroimage 4, 97–104. Min JJ, Gambhir SS (2008) Molecular imaging of PET reporter gene expression. Handb Exp Pharmaco, 277–303. Moosbrugger H (2002) Lineare Modelle: Regressions- und Varianzanalysen, 3. Edition. Bern: Huber. Moresco RM, Fazio F (2005) SPET in psychopharmacology. Q J Nucl Med Mol Imaging 49, 205–214. Posner MI, Raichle ME (1996) Bilder des Geistes. Spektrum Akademischer Verlag.
265
Stichwortverzeichnis
G. Hermey et al., Der Experimentator: Neurowissenschaften, DOI 10.1007/978-3-8274-2369-6, © Spektrum Akademischer Verlag Heidelberg 2010
266
Stichwortverzeichnis
A ABC-Methode 130 ABR (auditory evoked brainstem response) 189 N-Acetyl-Aspartat 226 Acetylcholinesterase 134 Acetylcholin-Rezeptor 228 Acetylierung 134 acoustic startle 188 – reflex 188 ADHS 205 affektive Störungen 192 Affinität 62 Affinitätschromatographie 40 Affinitätsreinigung 39 Airy-Scheibchen (airy disks) 154 Akquisitionszeitkorrektur 256 Aktionspotenziale 117, 241 Aktivierungskarten 236 aktivitätsregulierte Gene 129, 136 akustische Signale 206 akute Gewebeschnitte 119 akzessorische β-Untereinheiten 102 alkalische Phosphatase 130 Alkoholfixierung 127 Allgemeines Lineares Modell (ALM) 254, 257f allozentrisch 201 allozentrische Orientierung 201 ALM 258 Alpha-Frequenzbänder 236, 239 Alzheimer 202, 233 – Modelle 203 Ammoniumsulfatfällung 40 Amplitude 259 Amygdala 192, 199, 201 Amyloid-Plaque 233 amyotrophe Lateralsklerose 203 Analysesoftware 186 Ängstlichkeit 186f, 190f, 197 Angstsstörungen 203 Anhedonie 204 anisotrop 223 Anisotropie 224 Annealen 9 Annealing 17 Anregungs- und Emissionsfilter 150 Anregungswellenlänge 150 anterograd 140 Antidepressiva 203f Antigen 38, 46 – Antikörper-Reaktion 130 – Demaskierung 127, 133 – Retrieval 133
Antigenbindungsstelle 37 Antikörper 36, 39, 46, 48, 130, 229 Antikörperbindung 126f Antikörperbindungsstelle 130 Antikörperrückgabe 132 Antisense-Sonde 134, 137 anxiety disorders 192 Arbeitsgedächtnis 197 Arg-3.1 136, 139 artifizielle Cerebrosinalflüssigkeit 119 Assoziation 199 assoziatives Lernen 192 Astrocyten 241 3-AT (3-Amino-1, 2, 4-Triazol) 55 Ätiologie 204 ätiologische Validität 203 Auflösung 146, 154f Aufmerksamkeits-Defizit-Syndrom 228 Aufmerksamkeitsstörungen 205 aufrechtes Mikroskop 146 Augenscheinvalidität (face validity) 203 Auswertprogramme 182 Auswertung – von fMRT-Daten 255 – von MRT-Daten 217 Autismus 203, 205f Autoradiographie 138 Autoreaktivität 55 aversiver Stimulus 204 Avidin 48, 130 avoidance-Paradigma 204 Axon 115
B Bait-Protein 52 Balance 187 ballistische Technik 82 Banbury Conference 183, 185 Banker, G. 77 Barnes maze 195 Baseline 248, 253 Beads 49 behavioral despair 204 Belohnungssystem 233f Bereitschaftspotenzial 237 Beta-Frequenzbänder 236 – Strahlung 229 Beugungsgrenze (diffraction limit) 154 Beugungsscheibchen 154 Bewegungskoordination 187 Bewegungskorrektur 256
BiFC 62 Bildgebung 210 Bildverarbeitungssoftware 152 bimolekulare Fluoreszenz-Komplementation (BiFC) 61 Bioindikator 93 Biotin 130 bipolare Störungen 192, 205 BLAST 23 Blasticidin S 85 Blastocysten 158, 163, 166–168, 183 Bläuen 128 Blinkreflex 186 Block-Design 252–254 blood oxygen level dependent (BOLD) 241 BOLD – Antwort 242, 247 – Signal 242f, 248, 254 Brechungsindex 147f 5-Brom-4-chlor-3-indoxylphosphat (BCIP) 130 Brückenantikörper 130
C Caenorhabditis elegans 4, 159 Calciumkonzentration 94 Capecchi, M. 180 cat-FISH 135, 139f C57Bl/6 160f, 163 C57Bl/6N 183 cDNA 9, 17, 19, 21, 134 Cell-attached-Konfiguration 112–114 Cerebellum 76, 79, 192 c-fos 136 Chimäre 183, 185 choice-Test 189 cholinerg 233 CHO-Zellen 73 Co-Immunpräzipitation 48 Cole, K. 117 Computerprogramme 22 Computertomographie (CT) 213 conditioned taste aversion 200 construct validity 203 Coomassie-Färbung 41 Coronalschnitte 127 cortikales Priming 192 COS-Zellen 73 Cre/loxP 169 Cre-Promotor 171 Cre-Rekombinase 169, 183 cross maze 201f CT 213, 229, 233
267
Stichwortverzeichnis
Curtis 117 Cut-Open-Oocyten-Spannungsklemme 111 Cytochromoxidase 134
D days in vitro (DIV) 79 default mode network 248 deklarativ 192 deklaratives Gedächtnis 192, 203 deleter-Linien 172 Demenz 226, 228, 233 Demenzdiagnostik 233 Denaturierung 9, 17 Dendrit 115 dendritische Fortsätze 129 2-Deoxyglucose-Methode 138 DEPC 25 Depression 192, 203f depressive Störungen 203 Desoxyribonucleinsäure (DNA) 8f Detergenzien 133 2-DG-Methode 138 Diaminobenzidin (DAB) 130 Dichtegradienten 43 DIC-Mikroskopie (differential interference contrast) 149 Dienzephalon 192 Difference due to Memory – Effekt 255 – Paradigma 253 differenzielle Effekte 253 diffraction limit 154 Diffraktion (diffraction) 154 Diffusionsrichtung 224 Diffusionstensorbildgebung (DTI) 214, 223 Diformazan 130 Digoxiginin 135 Diphterietoxin 166 dippen 135 Diskriminierungsexperimente 188 Dissoziationskonstante 62 DNA 10, 13, 15f, 23 – Klonierung 14 – Mikrosatelliten-Marker 185 – Polymerase 17, 19 – Synthese 21 – Template 17 – Vektoren 12 dominant-negativ 86 Donor-Mauslinie 185 dopaminerg 222, 228, 233 Dopamin – Rezeptor 228, 233
– Transporter (DAT) 228, 233 Dornenfortsätze 129 Doxycyclin 87, 163 Drogenabhängigkeit 234 Drosophila 4, 158 DTI 223 duales Isotop-Imaging 229 Dummy-Scans 256 Dunkelfeldmikroskopie 149
E ear twitch reflex 186 EEG 236, 239, 255 egozentrische Orientierung 201 Einbettung 126 Einzelkanalleitfähigkeit 105 Einzelkanalstrom 105 Eisenhämatoxylin 128 EKP 237, 239, 255 elektrochemischer Gradient 103 Elektrode 236 Elektroden-Ziehgerät (puller) 110 Elektroenzephalographie (EEG) 122, 236 Elektronen 155 Elektronenmikroskopie 155 Elektronentomographie 156 Elektroporation 16, 82 elevated o-maze 190f elevated zero-maze 190 Elongation 17 embryonale Mausfibroblasten (MEF) 164 embryonale Stammzellen (ESZellen) 158, 163, 183 Embryonalentwicklung 185 Emission 149 Emissionsfilter 150 3’-Ende 9 5‘-Ende 9 enriched environment 181 Ensembl-Projekt 23 entorhinaler Cortex 197 Entwicklungsstadium 129 Enzymhistochemie 134 Enzymsubstrat 130 Eosin 128 Epifluoreszenz 151 Epilepsie 203, 225f, 233 epileptogen 233 EPI-Sequenz 243 episodisches Gedächtnis 192 Epitope 37, 132 ereigniskorrelierte Potenziale 237 Erkundungsdrang 186
A–F
erlernte Hilfslosigkeit 204 ERP (event-related potential) 237 escape-Paradigma 204 Estrogenrezeptor 176 ES-Zellen 158, 164, 168f Ethanol 16, 127 Ethidiumbromid 15 Ethologie 180 Ethylcysteindimer 228 event-related-Design 252f evozierte Summenpotenziale 120 experimentelles Paradigma 243 explizit 192 explizites Gedächtnis 192 Explorationsverhalten 186f, 190f, 197 Explorationszeit 198 Expressionsprofile 129 external validity 182
F face validity 203 Faktenwissen 192 faktorielle Designs 250 Farbwahrnehmung 187 Faserverläufe 224 18F-Desoxyglucose (FDG) 138, 230 FDG-PET 233 fear conditioning 199 Fehlervarianz 259 Feldinhomogenität 240 Feldstärke 215 Fertigkeiten 201 Fiber Tracking 224 Filmemulsion 135 Filter 150 Filtersätze 150 First-Level-Analyse 258 FISH (fluorescent in situ hybrdization) 135 Fixation 126 Fixierung 89, 126 flanking-gene-Effekt 183 floating 204 Flp-Rekombinase (Flipase) 170, 172 fluorescence recovery after photobleaching (FRAP) 91 Fluoreszenz 150f – in situ-Hybridisierung (FISH) 135, 139 – Resonanz-Energie-Transfer (FRET) 60 Fluoreszenzdoppelfärbung 135 Fluoreszenzmikroskopie 150f Fluoreszenzmoleküle 130, 134f, 151
268
Stichwortverzeichnis
Fluorophor 150f FM dyes 94 fMRT 239 fNIRS 235 Formaldehyd 126 Formalin 126, 190 forward genetics 158 Founder-Generation 160, 162 Fourier-Transformation 239 FPALM (fluorescent photoactivated localization microscopy) 154 fraktionelle Anisotropie (FA) 224 free-choice-procedure 197 freezing 198–200 Frequenzanalyse 238 Frequenzbänder 236, 238f – Alpha 236, 239 – Beta 236 – Gamma 236, 239 – Theta 236, 239 FRET 62 Frisch, K. R. von 180 frozen images 228 FRT 170 – Site 172 funktionelle Bildgebung 212, 225, 232 funktionelle Hyperämie 240f funktionelle Konnektivität 260 funktionelle Magnetresonanztomographie (fMRT) 214, 239 funktionelle Nahinfrarotspektroskopie (fNIRS) 235 funktionelle Spektroskopie 226 Fura-2 94 Furchtkonditionierung 189, 198f, 205 Furchtreaktion 200
G G418 (Gentamycin) 85 GABA 226 Gadolinium 223 GAL4 54 Galvani, L. 100 Gamma-Frequenzbänder 236, 239 Gammaquant 227 Gating 106 – Ströme 112 Gedächtnis 192 Gedächtnisbildung 189, 192 Gedächtnisleistung 181 Gedächtnissysteme 192 Gefriermikrotom 127 Gehirn 126
Gelfiltration 40 gene gun 83 Gene Targeting 158, 163 gene traps 173 Gene-Trap-Methode 173f genetischer Hintergrund 181, 183, 185 genetischer Polymorphismus 222 Genexpression 129, 234 genomische DNA 23 Genotyp 158, 203, 222 – Phänotyp-Beziehung 182 Genotypsierung 167 Geruchssinn 189 Geschmack 200 Geschmacksaversion 200f Geschmackscortex 201 Geschmackssinn 189 Gewebe 127 β-Gewicht 259 GFP (green fluorescent protein) 91, 95, 139 – reconstitution across synpatic partners (GRASP) 142 Glättung 256 Gleichgewichtspotenzial 104 Glia 70, 77, 80 Gliazelle 76 Glutamat 226, 241 Glutamin 226, 241 Glutaraldehyd 126 Glutaraldehydfixierung 126 Gluthation-S-Transferase-Tags (GST-Tags) 50 Glycinrezeptor 101 Glykolyse 241 Golgi, C. 128 – Färbung 129 – Imprägnation 128 – Methode 129 GRASP 142 green fluorescent protein (GFP) 59 Greifkraft 187 Größenausschlusschromatographie 40 grün-fluoreszierendes Protein (GFP) 114 GSD (ground state depletion) 154 Gültigkeit 203
H Habituationseffekte 186 Halbleiternanokristalle 151 Haltungsbedingungen 181 Hämatoxylin 128
– Eosin-Färbung 128 – Färbung 128 hämodynamische Antwortfunktion 242 Hargraeves-Test 189 Haupteffekt 253 HE-Färbung 128 HEK293-T-Zellen 84 HeLa-Zellen 73 Helferplasmide 83 Helferviren 85 Hellfeldmikroskopie (brightfield) 149 Herpesviren 141 heterologe Expression 49 Heterozygotie 185 Hexamethylpropylaminoxim 228 hippocampale Neuronen 77, 79 Hippocampus 129, 192, 197, 199, 201 – abhängiges Gedächtnis 199 Hirnstammpotenziale 189 Hirntumor 226 Histidin-Tag 50 Histochemie 130 hochaffine Antikörper 37 Hochfrequenzpuls 215 Hochfrequenzsignal 216 Hochmagnetfeld 214, 240 homologe Rekombination 158, 165f, 183 homozygot transgene Tiere 185 Homozygoten 183 Homozygotie 185 Hooke, R. 146 Hören 188f Horizontalschnitte 127 Hörschwellenmessung 189 Hörvermögen 188 hot plate-Test 189 HPA-Achse 204 HRF (hemodynamic response function) 242 Hybridhintergrund 183 Hybridisierung 9, 134 Hybridisierungspuffer 134 Hybridisierungstemperatur 134 Hygromycin B 85 Hypophysen-Nebennieren-Achse 204
I Imaging Genetics 222 immediate-early genes 136 Immersionsobjektiv 148
269
Stichwortverzeichnis
Immersionsöl 147 Immunglobuline 36 Immunhistochemie 129f Immunoblot 42 immunologische Techniken 37 Immunpräzipitation 46f impermeabel 103 implizit 192 implizites Gedächtnis 192, 198f in situ-Hybridisierung 129, 134 in utero-Elektroporation 176 in vitro-Transkription 134f, 137 in vivo-Imaging 152 induced pluripotent stem (iPS) cells 81 induzierbares Expressionssystem 87 Infrarotstrahlung 186 Insert 15 Inside-out-Konfiguration 112–114 Insular-Cortex 201 Integrationsort 161 Intensitätsspektrum 225 Interaktion 249–251 Interstimulus-Intervall (ISI) 248, 252 inverses Mikroskop 146 inverses Problem 238 Inzuchtlinie 183 Inzuchtmauslinie 183 Iod 227 Ionenaustauschchromatographie 40 Iongitudinal 223 Isopropanol 16 isotrop 223
J Jittern 253
K Kaliumkanal 101 Kalziumphosphat-Methode 83 Kandidaten-Gen-Ansatz 222 kanonische hämodynamische Antwortfunktion 242 Kapazitätsmessung 116 kationische Lipide 83 kationische Polymere 83 Kernresonanzsignal 226 Kernspintomographie 214 klassische Furchtkonditionierung 192, 198f
klassische Konditionierung 198 Kleintier – Bildgebung 223, 235 – PET 233 – Scanner 221 – SPECT 229 Klüver-Barrera 128 knockdown 31, 86 Knockin 169 Knockout 169, 181 – Mäuse 169 – Mauslinie 183 kognitive Fähigkeiten 203 kognitive Leistungen 181, 186 kognitive Psychologie 248 kognitive Subtraktionsmethode 232, 243, 249 kognitiv-psychologisch 244 Kohärenz 239 Kommunikation 206 Kondensor 146 konditionale Knockout-Mäuse 170, 183 konditionale Mutationen 169 konditionelles Target-Trapping 174 konditioniert 198 Konditionierung 199, 205 konfokale Mikroskopie 151 kongene Linie 183, 185 konstitutive Knockout-Tiere 183 Konstruktvalidität (construct validity) 203 Kontext 199 – Fußschock-Assoziation 199 Kontextassoziation 199 Kontraste 259 Kontrasterhöhung 149 Kontrastvektoren 259 Kontrollen 132 Konvertierung 217 Konzentrationsgradient 103 Kopplung 260 Korrelation von Regressoren 254 Kortisolspiegel 204 Krankheitsmodelle 225 Krebs 233 Kresylviolett 128 Kryostat 127 Kunstharz 127 Kurzzeitgedächtnis 192
L Langzeitdepression (LTD) 120 Langzeitgedächtnis 193 Langzeitpotenzierung (LTP) 120
F–M
large T-antigene 73 Laser-Scanning – Konfokalmikroskop 152 – Mikroskopie (LSM) 152 Läsionsstudien 214 latente Inhibition (latent inhibition) 205 learned helplessnes 204 Leeuwenhoek, A. van 146 Lentiviren 84 Lernen 189, 192 Lernexperimente 181 Lerntest 181, 183, 203 leukemia inhibitory factor (LIF) 164 LexA 54 Lichtmikroskop 146 Lichtmikroskopie 149 Lichtschranken 186 Liganden – PET 233 – SPECT 228 light/dark – box 187, 190 – transition-Test 190 Linsen 146 Lochblende (pinhole) 151 Lokomotion 186 lokomotorische Fähigkeiten 186 longitudinal 234 Lorenz, K. 180 loxP-Site 169f Luftobjektiv 148 Luxol Fast Blue 128
M Magnetenzephalographie (MEG) 236, 239 Magnetresonanzspektroskopie (MRS) 214, 225 Magnetresonanztomographie (MRT) 214 makroskopischer Strom 107 Manganchlorid 223 Markerproteine 138 Markscheidenfärbung 128 Mausgenom 185 Mausklinik 182 Mausmodelle 180 MDCK-Zellen 74 medialer Temporallappen 192 MEG 236, 239 Mendelsche Gesetze 185 Mendelsche Vererbungslehre 183 metabolische Bildgebung 231 metabolische Verfahren 213, 235
270
Stichwortverzeichnis
Metabolitenkonzentration 226 Methanol 126 micro-RNA (miRNA) 29 Microarray 23, 27f Migräne 203 Mikroexplantatkultur 71 Mikroinjektion 82 Mikroskop 146 Minimalmedien 69 miRNA 30 Mismatch-Negativity 237 Modellspezifikation 258 molekulare Bildgebung 213, 227 molekulare Bildgebungstechnik 234 Molybdän 227 monoklonale Antikörper 38 Morbus Parkinson 203 Motorik 186 motorische Fähigkeiten 186f motorisches Lernen 186 Motorkoordination 187 mRNA-Sonde 137 MRS 225, 234 MR-Sequenz 216 MRT 214, 233 – Sequenz 243 multicolor fluorescence complementation 61f Multielektrodenarray (MEA) 122 multimodale Bildgebung 213 multiple Klonierungsstelle (multiple clonings site) 12f, 16 Multiple Sklerose 203 multiple Vergleiche 260 Multiplex-PCR 19 multivariat 258 Muskeldystrophie 203 Muskelerkrankungen 203 Mutagenese 19f Myasthenie 203 Mycoplasma 69 Myelinisierungsgrad 224 Myotonie 203
– Kassette 170 Nernst, W. 104 – Gleichung 104 Nervengewebe 126 Nervenzellen 128 Neuroblastomzellen 75 neurodegenerative Erkrankungen 186 Neuroeconomics 245 Neuroethologie 180 Neurogenese 81 neurologische Erkrankungen 202 neurologische Reflexe 185 neurometabolische Kopplung 241 neuronale Aktivität 91, 93 Neuronen 70, 77 Neuroonkologie 233 Neurosphäre 81 neurovaskuläre Koppplung 241 next-generation sequencing 22, 29 NG108-15-Zellen 75 nicht-assoziatives Lernen 192 nicht-deklarativ 192 nicht-deklaratives Gedächtnis 192, 198, 201 nikotinischer Acetylcholinrezeptor 101 Nipkow-Disk-Verfahren 153 Nissl, F. 128 – Färbung 128 – Substanz 128 Nitroblau-Tetrazoliumchlorid (NBT) 130 NMDA-Rezeptor 228 Nomarski-Mikroskopie 149 noradrenerg 233 Normalisierung 219, 256 Northern Blot 24f novel object recognition 197f Nucleinsäuresonde 134 Nucleus parabrachialis 201 nuklearmedizinisch 213, 234 nuklearmedizinische Verfahren 227 Nuklidgenerator 227 Null-Event 253 numerische Apertur 147
N NADPH-Diaphorase/Stickoxidsynthetase 134 Na+/K+-ATPase 104 National Center for Biotechnology Information (NCBI) 22 Natriumkanal 101 Neher, E. 100 Neocortex 192 Neomycin 85, 166
O Objekterkennungslernen 197 Objektiv 146 Objektpräferenz 198 Objektträger 130 Ölobjektiv 147 Offenwahrscheinlichkeit 105
off-target-Effekte 31f Ohmsches Gesetz 105 Okular 146 olfaktorische Signale 206 Oligonucleotide 17, 26, 28, 134 Oocyten 108 open field 186, 190f operantes Lernen 192 μ-Opioid-Rezeptor 233 optische Eigenschaften 235 Optode 235 Optogenetics 96 organotypische Schnitte 71 Ortsauflösung 216 Outside-out-Konfiguration 112–114 oxidative Phosphorylierung 241 Oxyhämoglobin 240
P Palindrom 11 PALM (photoactivated localization microscopy) 154 Paradigma 243 Paraffin 127 Paraffineinbettung 127 Paraformaldehyd 89, 126 Parameter 259 parametrische Designs 250, 252 Parkinson 225, 227f, 233 Passagieren 73 Patch-Clamp 100, 112 – Konfiguration 112–114 – Methode 112 Pawlow, I. P. 198 Pawlowscher Hund 198 PCR 19f – Reaktion 134 PC12-Zellen 74, 92 Pellet 44 Peptide 229 Perfusion 126 Perfusionsmessung 228 peripheres Nervensystem 202f Permeabilisierung 90 Peroxidase 130 Peroxidasereaktion 130 PET 229, 234 Phagen-Display 58 Phänotyp 158, 182f, 204, 222 pharmakologische Screens 204 Phasenkontrastmikroskopie 149 pHluorin 96 Phosphor 226
271
Stichwortverzeichnis
photoaktivierbare fluoreszierende Proteine (photoactivatable fluorescent proteins, PA-FPs) 155 photoaktivierbare Substanzen 92 Photoaktivierung 60, 91 Photobleaching 91, 151f Photokonversion 60, 91 Photon 227 Photostabilität 151 Phrenologie 240 physikalischer Gentransfer 82 place learning 202 Plasmid 12f, 16 Plasmidpräparation 13 Plasmidvektor 12 pluripotente Zellen 81 plus maze 191 polyklonale Antikörper 37f Polymerase-Kettenreaktion (PCR) 17 Porsolt forced swim test 204 Port-a-Patch-Methode 116 Positronenemissionstomographie (PET) 229 Positronenstrahler 229 postnucleärer Überstand 44 postsynaptische Potenziale (PSP) 118 postsynaptische Potenzialschwankungen 236, 239 postural reflex 186 Power-Spektrum 239 Präparation 126f Präpuls 205 Präpulsinhibition 205 predictive validity 203 prepulse inhibition 188, 205 Prey-Protein 54 Primärantikörper 130, 133 primäre Zellkultur 70, 72, 76 Primer 17, 19 Priming 192 Pronucleus-Injektion 82, 160–162, 183 Protease 51 Proteasehemmer 40 Protein – Interaktion 45, 51, 56, 59, 81 – Tag 39, 50, 59 Protein A 39, 46f, 48 Protein G 39 Proteom 36 Protonen 214, 226 prozedurales Gedächtnis 192, 201f prozedurales Lernen 192, 201 psychiatrische Erkrankungen 204 psychische Erkrankungen 203
Pull-Down-Experimente 50
Q Q-dots 151 quantitative Real-Time-PCR 26 Quantum Dots (ODs) 151 Quellenlokalisation 237, 239
M–S
ROSA26-Locus 176 Rotlicht 186 Rotorod-Test 187 RT-PCR 21 Rückkreuzung 184f Rückkreuzungsschema 185 Rückkreuzungsstrategie 183
S R Rabiesviren 141 radial maze 196 Radionuklide 229 Ramón y Cajal, S. 129 Rasterelektronenmikroskopie 156 räumliche Orientierungsfähigkeit 197 räumliches Arbeitsgedächtnis 197 räumliches Gedächtnis 192f realignment 219, 256 Reflexbogen 192 Reflexe 198, 200 region of interest (ROI) 219 Regressionsgewicht 258 Regressoren 258 rekombinante adenoassoziierte virale Vektoren 85 rekombinante Expression 85 rekombinante Proteine 49 Rekombinase 17 Repetitionszeit (TR) 217, 243 Reportergene 139, 176, 229, 234 Reportermäuse 139 Resonanz 215 response learning 202 Restriktionsenzyme 11–13, 17 Restriktionsverdau 15 retrograd 140 Retroviren 84 reverse genetics 158 Reverse Transkriptase 134 Ribonucleinsäure (RNA) 8f Riechen 189 Riesenaxon 117 righting reflex 186 Ringer, S. 100 RNA 24f – Interferenz (RNAi) 29 – Polymerase 135, 137 RNAi 30f RNA knockdown 29 RNase 24f, 136 Röntgenstrahlung 213
Saccharin Preference 204 sagittal 127 Sakmann, B. 100 Saponin 90 Sättigungskinetik 234 Sauerstoffgehalt 235 Schizophrenie 203f, 226, 228 Schlaganfall 203, 223, 225, 227f Schmecken 189 Schmerzwahrnehmung 189 Schneidetechniken 127 Schwimmpfad 193f Schwimmstrategien 194 Schwingungsrelaxation 150 second-generation sequencing 22 Second-Level-Analyse 261 Sehen 187f Sekundärantikörper 133 Sekundärelektronen 156 Selektion 85 Selektivität 106 semantisches Gedächtnis 192 Sense-Sonde 135, 137 sensorimotor gating 188, 205 sensorische Fähigkeiten 187 Sequenzierung von DNA 22 serotonerg 233 Serotonin-Transporter 228, 233 shaker 101 short hairpin-RNA (shRNA) 31 shRNA 30–32 Shuttle-Box 204 Signal-Rausch-Verhältnis 223, 237 Silberfärbung 41 Silberpartikel 135 Single-Photon-Emissions-Computertomographie (SPECT) 227 siRNA (small interference RNA) 39, 32 social interaction 205 Software 218, 247 Soma 115 somatosensorische Wahrnehmung 189 Sonden 134 Southern Blot 23f, 160
272
Stichwortverzeichnis
soziale Interaktion 186, 203, 205 Sozialpsychologie 245 Sozialverhalten 206 spannungsabhängige Kaliumkanäle 101 spannungsabhängige Kationenkanäle 101 SPECT 227, 233f speed congenics 185 Spektralanalyse 239 SPET 227 Spieltheorie 245 spines 129 Spinning-Disk 152f – Mikroskopie 152f SPIO 223 spirale Muskelatrophie 203 Split-Ubiquitin-System 56, 58 SPM (statistical parametric mapping) 219f SSIM (saturated structured-illumination microscopy) 154 Stadardisierung 181 Stammzellen 81 Stammzellinjektion 223 Standardkoordinatensystem 219 startle 188 – pulse 205 – reflex 188, 205 statistical parametric mapping (SPM) 220 statistische Auswertung 182, 257 STED (stimulated emission depletion) 154 stereologische Verfahren 136 Stereomikroskop 146 Sterilbank 68 Stichprobengröße 254 Stimuli 245 STORM (stochastic optical reconstruction microscopy) 154 Strahlenbeugung 154 Stress 203f Striatum 192, 201f stringentes Waschen 134 Stroop-Effekt 244, 246 strukturelle Bildgebung 212f Substrat 134 Subtraktionsmethode 225, 248 subzelluläre Fraktionierung 43–45 subzelluläre Strukturen 43 Südafrikanischer Krallenfrosch 108 Superovulation 160 superparamagnetische EisenoxidNanopartikel (SPIO) 223 super-resolution 154 Suppressionseffekt 254
Supraleitung 215 surface plasmon resonance (SPR) 63 Symptomatik 204 synaptische Übertragung 241 synaptische Vesikel 43, 95 Szintigrafie 227
T Tag-/Nachtrhythmus 186 tail flick-Test 189 tail suspension-Test 204 TA-Klonierung 19 Talairach-Atlas 219 Tamoxifen 176 tandem affinity purification-Tag (TAP-Tag) 51 Targeting-Vektor 165 Technetium 227 Tesla 215, 239 Testgüte 203 Tetracyclin 87 Tetraethylammoniumion (TEA) 116 Tetrodotoxin (TTX) 116 Tet-System 87, 176 Thermocycler 17 Theta-Frequenzbänder 236, 239 Thymidin-Kinase 166 Tiermodell 203 Tierscanner 211, 215 Tierschutz 4 Tinbergen, N. 180 Tinnitus 203 TIRF-Mikroskopie (total internal reflection microscopy) 154 T-maze 197 Tomogramme 211 Ton-/Fußschock-Assoziation 199 T7-Polymerase 137 TR 217 Tracer 141 Tracing 140 – Studie 140 Tractus solitarus 201 Transfektion 15, 81, 83 Transfektionsrate 114 Transformation 15, 73 Transgene 158 transgene Tiere 158 Transkriptionsfaktor 136 Transkriptionsvektor 134f translational 233 translationale Forschung 211, 229 Transmissionselektronenmikroskopie (TEM) 155
Transposons 158 Trial 247 Trockenobjektiv 148 TSA (tyramid signal amplification) 135 t-Wert 259 two-trial-forced-procedure 197 Tyramide 135 T1-Zeit 216f T2-Zeit 216
U Übersichtsfärbungen 127 Überstand 44 ultradünne Schnitte 155 Ultraschallbereich 206 univariat 257 α-Untereinheiten spannungsabhängiger Kationenkanäle 102 UTP 135
V Validität 203 Validitätskriterium 204 Vektor 13, 16 ventraler posteromedialer Nucleus 201 Vergrößerung 146 Verhaltensapparaturen 182 Verhaltensbiologie 180 verhaltensbiologische Charakterisierung 183 Verhaltensforschung 180 Verhaltensökonomie 244f Verhaltenstest 181 Vermeidungsreaktion 204 Versuchsdurchführung 181 Verzweiflung 204 Vibratom 127 Vibratomschnitte 127, 130 Videokamera 186 Videotracking 193f – System 186, 190f virale Tracer 142 viraler Gentransfer 83 Virionen 83 visual-cliff-Test 187f visuelle Verarbeitung 188 visuelles System 188 Volta, A. 100 Voltage-Clamp-Methode 117 Vorderhirn 129
Stichwortverzeichnis
Vorhersagevalidität (predictive validity) 203 Vorverarbeitung 255 Voxel 211, 243, 258 voxelbasierte Morphometrie 220, 223f
W Wasser-PET 230 Wasserstoff 214 water maze 191, 193, 195 Wellenlänge 148f – des Lichtes 147 Western Blot 41f whisker twitch 186 Whole-Cell-Konfiguration 112 Wildtyp 158, 181
X Xenopus laevis 108 X-maze 201f
Y Yeast-Two-Hybrid-System 52. 54–56 Yeast-Three-Hybrid-System 56
Z Zeit-Frequenz-Analyse 239 Zellfärbung 128 Zellkörper 115 Zelllinie 73, 85 zentrales Nervensystem 202 Zentrifugation 43f Zeocin 85 zerebraler Blutfluss 230 Zwei-Elektroden-Spannungsklemme 108 Zwei-Photonen-Laser-ScanningMikroskopie 153 Zwei-Photonen-Mikroskopie (two photon imaging) 153 Zygote 158, 160
273
S–Z