Udo Kuckartz Einführung in die computergestützte Analyse qualitativer Daten
Udo Kuckartz
Einführung in die computerg...
190 downloads
2171 Views
3MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Udo Kuckartz Einführung in die computergestützte Analyse qualitativer Daten
Udo Kuckartz
Einführung in die computergestützte Analyse qualitativer Daten 3., aktualisierte Auflage
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
. .
3., aktualisierte Auflage 2010 Alle Rechte vorbehalten © VS Verlag für Sozialwissenschaften | GWV Fachverlage GmbH, Wiesbaden 2010 Lektorat: Frank Engelhardt VS Verlag für Sozialwissenschaften ist Teil der Fachverlagsgruppe Springer Science+Business Media. www.vs-verlag.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Druck und buchbinderische Verarbeitung: Ten Brink, Meppel Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in the Netherlands ISBN 978-3-531-16661-2
Inhalt
Vorwort zur dritten Auflage ................................................................. 8 1 Software für die qualitative Datenanalyse: Leistungen, Anwendungsfelder, Arbeitsschritte ............................................... 12 1.1 Was leistet QDA-Software .............................................................................. 12 1.2 Anwendungsfelder und methodische Orientierungen ................................. 15 1.3 Arbeitsschritte mit einem QDA-Programm.................................................. 20
2 Die Texte: Transkription, Vorbereitung und Import ................... 29 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9
Allgemeines zu Texten und ihrer Formatierung ........................................... 29 Texte im Textverarbeitungsprogramm (Word)............................................. 32 Textvorbereitung............................................................................................... 34 Texte einscannen............................................................................................... 37 Texte transkribieren, Transkriptionsregeln und Transkriptionssysteme ... 38 Analyseeinheiten und Textgestaltung ............................................................. 48 Vorstrukturierte Textformen........................................................................... 49 Zusammenfassung: Die Vorbereitung von Texten ...................................... 50 Praktische Hinweise für MAXQDA .............................................................. 53
3 Die Kategorien und das Codieren von Texten ............................. 57 3.1 3.2 3.3 3.4
Über Kategorien ............................................................................................... 57 Kategorientypen ................................................................................................ 60 Codieren mit QDA-Software .......................................................................... 64 Praktische Hinweise für MAXQDA .............................................................. 68
4 Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse ................................................................................... 72 4.1 4.2 4.3 4.4
Theoretisches Codieren: Die Grounded Theory .......................................... 73 Thematisches Codieren .................................................................................... 84 Zusammenfassende qualitative Inhaltsanalyse .............................................. 92 Typenbildung und typologische Analyse ....................................................... 97
5 Text-Retrieval: codierte Textstellen wiederfinden ...................... 108
5.1 Das Grundprinzip des Text-Retrievals ........................................................ 108 5.2 Text-Retrieval und Modelle der Interviewauswertung............................... 109
6
Inhalt
5.3 Einfaches Retrieval: Alle Segmente einer Kategorie zusammenstellen ... 111 5.4 Kontrastierendes Retrieval: Segmente ausgewählter Kategorien gegenüberstellen .............................................................................................. 112 5.5 Verknüpfendes Retrieval: Suche nach gemeinsamem Vorkommen von Codes ........................................................................................................ 113 5.6 Code-Hierarchien im Retrieval ..................................................................... 114 5.7 Code-Übersichten und Häufigkeiten ........................................................... 116 5.8 Praktische Hinweise für MAXQDA ............................................................ 119
6 Textexploration: Volltext-Recherche........................................... 121 6.1 6.2 6.3 6.4 6.5
Stichworte im Kontext ................................................................................... 121 Texte explorieren ............................................................................................ 123 Automatisches Codieren von Fundstellen................................................... 127 Stärken und Schwächen der lexikalischen Suche ........................................ 128 Praktische Hinweise für MAXQDA ............................................................ 130
7 Die Memos: Eigene Ideen aufzeichnen und organisieren .......... 133 7.1 7.2 7.3 7.4
Notizen und Aufzeichnungen im Forschungsprozess ............................... 133 Systematisches Arbeiten mit Memos in der Grounded Theory ............... 134 Memos im QDA-Programm ......................................................................... 140 Praktische Hinweise für MAXQDA ............................................................ 142
8 Die Fallvariablen: Strukturierte Übersicht .................................. 146 8.1 8.2 8.3 8.4 8.5
Sinn und Zweck von Fallvariablen ............................................................... 146 Forschungsbeispiel: Adult Attachement Interviews .................................. 148 Forschungsbeispiel: Strukturierende Inhaltsanalyse ................................... 150 Weiterarbeit mit Fallvariablen in SPSS......................................................... 151 Praktische Hinweise für MAXQDA ............................................................ 154
9 Komplexe Formen des Text-Retrievals ....................................... 157 9.1 9.2 9.3 9.4 9.5 9.6 9.7 9.8
Subgruppen von Daten vergleichen ............................................................. 157 Themenmatrix ................................................................................................. 159 Die Suche nach Mustern von Codierungen ................................................ 161 Sequenz- und Entfernungsoperatoren ......................................................... 162 Überschneidungs- und Einbettungsoperatoren .......................................... 163 Mengenoperatoren.......................................................................................... 166 Hypothesenprüfung ........................................................................................ 166 Praktische Hinweise für MAXQDA ............................................................ 173
10 Daten-Display und Visualisierung .............................................. 178 10.1 Sinn und Zweck von Visualisierungen ......................................................... 178 10.2 Visualisierung bei der Arbeit mit der QDA-Software................................ 179 10.3 Visualisierung von Analyseergebnissen........................................................ 181
Inhalt
7
10.4 Konzept Maps und Mapping Tools ............................................................. 184 10.5 Visuelle Repräsentation von Zusammenhängen ........................................ 189 10.6 Praktische Hinweise für MAXQDA ............................................................ 195
11 Praktisches Arbeiten mit Kategoriensystemen............................ 198 11.1 11.2 11.3 11.4
Typen von Kategoriensystemen ................................................................... 198 Konstruktion von Kategoriensystemen: induktiv oder deduktiv? ........... 200 Wie viele Kategorien sind notwendig? ......................................................... 203 Einfaches Kategoriensystem in einer leitfadenorientierten Interviewstudie ................................................................................................ 205 11.5 Kategoriensystem einer Argumentationsanalyse ........................................ 207 11.6 Kategoriensystem in einer Leitbildanalyse................................................... 210 11.7 Praktische Hinweise für MAXQDA ............................................................ 214
12 Wortbasierte Analysefunktionen ................................................. 218 12.1 12.2 12.3 12.4
Wortlisten und Diktionäre ............................................................................. 218 Das Prinzip diktionärsbasierter Inhaltsanalyse ........................................... 220 CUI und qualitative Datenanalyse ................................................................ 222 Praktische Hinweise für MAXQDA ............................................................ 223
13 Kombination mit statistischen Verfahren: Ähnlichkeiten, Muster und Typologien ...............................................................227 13.1 13.2 13.3 13.4
Über Klassifikationsverfahren....................................................................... 227 Ähnlichkeiten zwischen Personen ermitteln ............................................... 230 Typenbildung durch Clusteranalyse ............................................................. 237 Codemuster erkennen: Faktorenanalyse von Codierungen....................... 243
14 Die Zukunft der computergestützten qualitativen Datenanalyse ...............................................................................247 Anhang.............................................................................................. 251
Übersicht QDA-Software ....................................................................................... 251 Interessante Internet-Seiten rund um QDA-Software und qualitative Datenanalyse .................................................................................................... 255
Literatur ............................................................................................258 Index .................................................................................................266
Vorwort zur dritten Auflage
Diese dritte Auflage des erstmals 1999 unter dem Titel „Computergestützte Analyse qualitativer Daten“ erschienenen Bandes ist an vielen Stellen aktualisiert und erweitert worden. Die Struktur dieses Lehrbuchs und seiner Kapitel folgt der Logik der Datenauswertung in einem empirischen Projekt, d.h. die verschiedenen Arbeitsschritte der Analyse werden nacheinander durchlaufen. Am Ende jedes Kapitels wird in einem Abschnitt „Praktische Hinweise“ eine Anleitung gegeben, wie die zuvor beschriebenen Verfahren mit dem Computerprogramm MAXQDA umgesetzt werden können. Auf MAXQDA habe ich dabei aus vier Gründen zurückgegriffen: Erstens weil es im deutschsprachigen Raum neben ATLAS.ti das am weitesten verbreitete Programm ist, zweitens weil hierzu auch eine deutsche Version mit deutschem Handbuch existiert, drittens weil der Einstieg in MAXQDA über ein online verfügbares Tutorial und regelmäßig angebotene E-Learning Kurse sehr leicht ist und viertens weil mir als Entwickler dieses Programm natürlich besonders gut vertraut ist. Ferner sind rund um MAXQDA eine Menge Anwendungsbeispiele in deutscher Sprache verfügbar (z.B. in Kuckartz/Grunenberg/Lauterbach 2004; Kuckartz/Grunenberg/Dresing 2007; Kuckartz u.a. 2008) und die Tagungsbände der jährlich stattfindenden Benutzerkonferenzen CAQD1 enthalten zahlreiche Beiträge aus Forschungszusammenhängen, die das Spektrum der Einsatzmöglichkeiten deutlich machen. Der Ausgangspunkt dieses Buches lässt sich gut durch ein Zitat der amerikanischen Sozialwissenschaftler Anselm Strauss und Juliet Corbin illustrieren (1996: IX): „Wie aufregend Ihre Erfahrungen bei der Datenerhebung auch sein mögen, es kommt der Tag, an dem die Daten analysiert werden müssen.“
1
Die Tagungsbände der CAQD-Konferenzen können kostenfrei unter www.caqd.de heruntergeladen werden.
Vorwort
9
In diesem Zitat klingen zwei Dinge an, zum einen dass der qualitative Forschungsprozess ein sehr interessanter, ja aufregender und abenteuerlicher sein kann (man denke an Feldstudien in prekären Settings oder an ethnologische Forschung in fremden Kulturen), zum anderen, dass es irgendwann im Projektverlauf einen Zwang zur Datenanalyse, nämlich zu eher trockener Schreibtischarbeit, gibt, die nicht selten als ein Gegenstück zur aufregenden Feldarbeit empfunden wird. Als Strauss den obigen Satz in der Zeit seiner aktiven Forschungsarbeit formulierte, ist ihm sicherlich noch nicht in den Sinn gekommen, Computersoftware für die Analyse seiner Daten einzusetzen. In den Sozialwissenschaften fand die Frage einer Methodik zur Auswertung von qualitativen Daten ohnehin lange Zeit nur wenig Beachtung. Man interessierte sich vor allem für die Datenerhebung und für Probleme der Feldarbeit. Die dominanten Fragen lauteten etwa: Wie gestaltet man die Interviewsituation? Wie lockt man Erzählungen hervor? Wie vermeidet man es, als teilnehmender Beobachter zu sehr zum Teil des untersuchten Feldes zu werden? Dieser Text befasst sich nicht mit Fragen der Feldarbeit und der Datenerhebung, sondern nur mit der Datenauswertung, und zwar mit computergestützten Techniken des Datenmanagements und der Datenanalyse, die im letzten Jahrzehnt entwickelt worden sind. Für die einschlägigen EDV-Programme hat sich im englischen Sprachgebrauch die Bezeichnung „QDA-Software“ bzw. „CAQDAS“ durchgesetzt. QDA steht hierbei für „Qualitative Data Analysis“, CAQDAS für „Computer Assisted Qualitative Data Analysis Software“. Dieses Buch will bewusst einen schnellen Einstieg in diese Analysetechniken geben, d.h. die Leserinnen und Leser sollen in die Lage versetzt werden, die Basisfunktionen zu verstehen und selbst anzuwenden. Das Buch beschäftigt sich bewusst nicht mit wissenschaftstheoretischen Voraussetzungen oder methodologischen Kontroversen, sondern vertritt den Standpunkt der Pluralität von Methoden. Methoden sollten in Abhängigkeit von der Fragestellung und den zur Verfügung stehenden zeitlichen und finanziellen Ressourcen gewählt werden, eine beste oder einzig gültige Vorgehensweise gibt es nicht. Dieses Buches ist ein praktisches Arbeitsbuch für Leser und Leserinnen unterschiedlicher Disziplinen mit unterschiedlichen methodischen Ansätzen. Im Mittelpunkt steht das Problem, Textdaten methodisch kontrolliert auszuwerten. Dabei werden sowohl aus den Sozialwissenschaften stammendes methodisches Background-Wissen als auch praktische Fertigkeiten vermittelt. Qualitative Datenanalyse, die lange Zeit eher nach dem Prinzip selekti-
10
Vorwort
ver Plausibilisierung und episodischer Evidenz arbeitete, kann erheblich verbessert werden, wenn sie in systematischer Form organisiert wird. QDA-Software ist sehr flexibel und unterstützt beispielsweise sowohl eine induktive als auch eine deduktive Codierung von Texten. Dieses Buch will den Leser nicht auf bestimmte Methoden oder wissenschaftstheoretische Positionen festlegen. Dort, wo methodische Ansätze referiert werden, geschieht dies mit der Intention zu informieren und nicht zu bewerten. Nur die Forscherinnen und Forscher selbst können entscheiden, welche Analysestrategie ihrer Fragestellung adäquat ist. Das gleiche gilt auch für die Auswahl einer hierfür geeigneten QDA-Software. Es gibt kein bestes Programm, das für alle Formen der Analyse in gleicher Weise geeignet ist. Dieses Buch will kein Ratgeber zur Auswahl von Software sein und enthält auch keinerlei Vergleichstests. Solche Vergleiche stehen ohnehin immer vor dem Problem, dass sie wegen des großen Innovationstempos in diesem Feld im Grunde schon überholt sind, wenn sie in gedruckter Form erscheinen. Mittlerweile gibt es von fast allen QDA-Programmen zeitlich limitierte Versionen zum Ausprobieren, so dass es leicht fällt, die Programme zu testen. Auch ist es ratsam Kolleginnen und Kollegen, die bereits mit QDASoftware arbeiten, nach ihren Erfahrungen zu fragen. Die mit rasantem Tempo betriebene Entwicklung von QDA-Software ist in beispielhafter Weise interdisziplinär geschehen. Die Entwickler der Programme entstammen sehr unterschiedlichen Disziplinen, unter anderem der Soziologie, Psychologie, Erziehungswissenschaft, Gesundheitsforschung und Informatik. Noch vielfältiger ist das Spektrum der Benutzer, das über die genannten Disziplinen hinaus u.a. Sportwissenschaftler, Mediziner, Kommunikationswissenschaftler, Linguisten, Historiker, Literaturwissenschaftler, Politikwissenschaftler, Kriminologen, Stadtforscher, Sozialarbeiter, Marktforscher, Islamwissenschaftler, Japanologen und andere mehr umfasst. Die heutigen QDA-Programme können erheblich mehr leisten, als lediglich Hilfsmittel im Prozess traditioneller qualitativer Sozialforschung zu sein: Sie ermöglichen Textanalysen, Inhaltsanalysen, Medienanalysen, Dokumentanalysen, Aktenanalysen, Diskursanalysen, Argumentationsanalysen und viele weitere Formen der wissenschaftlichen Bearbeitung von Texten, wie sie in den vorgenannten Disziplinen anzutreffen sind. Dieses Buch richtet sich keineswegs nur an Sozialwissenschaftler, sondern an alle, die professionell mit der Auswertung von Texten befasst sind, d.h. auch an Leser außerhalb des Wissenschaftsbereiches. Der vorliegende
11
Vorwort
Text ist als Studienbuch konzipiert und folgt im Aufbau der ersten Kapitel der Logik des Ablaufs der Datenbearbeitung und -auswertung im Forschungsprozess: Ehe ein Text codiert werden kann, muss er zunächst transkribiert, formatiert und in das QDA-Programm importiert werden. Und ehe man nach Mustern von Kategorien oder Kategorienabfolgen suchen kann, muss der Text bzw. einzelne Passagen zuvor codiert werden – sei es durch automatische oder durch intellektuelle Codierung. An dieser Logik hintereinander ablaufender und aufeinander aufbauender Arbeitsschritte, die gleichwohl in zirkulärer Weise organisiert werden können, ist das Buch orientiert. In den meisten Kapiteln sind Beispiele und praktische Hinweise enthalten. Grundlegende Begriffe und Definitionen sind deutlich hervorgehoben. Software für die Datenanalyse verändert sich sehr schnell, wird weiterentwickelt und ist abhängig von der generellen Entwicklung der Software und Betriebssysteme. Deshalb war das Leitprinzip, möglichst wenig softwarespezifisch zu sein, aber dennoch hinreichend konkret zu werden, um die Leserinnen und Leser in die Lage zu versetzen, schnell in die Praxis der Textanalyse einsteigen zu können. Dieses Buch will dazu beitragen, neue Analysetechniken und Analysemöglichkeiten jenseits der alten Dualität von qualitativen und quantitativen Verfahren vorzustellen. Ich hoffe, dass dies bei vielen Forschern und in vielen Disziplinen gleichermaßen auf Interesse stößt. Viele Anregungen von Kolleginnen und Kollegen haben zur Verbesserung und Erweiterung dieses Buchs beigetragen. Thorsten Dresing und Heiko Grunenberg danke ich für die kritischen Kommentare zum Manuskript, Claus Stefer für die Zusammenstellung der Webadressen im Anhang, Lena Lehmann, Thomas Ebert, Gabi Schwarz und Stefan Rädiker für die technische Mithilfe bei der Manuskriptgestaltung. Marburg im September 2009
Udo Kuckartz
1
Software für die qualitative Datenanalyse: Leistungen, Anwendungsfelder, Arbeitsschritte
1.1 Was leistet QDA-Software In freier Abwandlung der Aussage, nichts sei praktischer als eine gute Theorie, könnte man für die qualitative Datenanalyse formulieren: Nichts ist praktischer als eine einfach zu handhabende QDA-Software. Lange Zeit war die qualitative Sozialforschung nicht unbedingt ein Feld, in dem die Forscherinnen und Forscher mit dem Computer auf Du und Du standen. Dies hat sich in den letzten Jahren gründlich geändert, denn zu offensichtlich sind die Vorteile des computerunterstützten Arbeitens. Doch was leisten eigentlich solche EDV-Programme wie ATLAS.TI, MAXQDA oder NVivo? Beginnen wir mit einer (unvollständigen) Aufzählung dessen, was heutige QDA-Software kann: x x x x x x x x x x
Gleichzeitiges Verwalten der Texte eines Projektes, z.B. der transkribierten Interviews, mit schnellem Zugriff auf jeden einzelnen Text Organisieren der Texte in Form von Subgruppen nach benutzergewählten Kriterien Definition von Kategorien und Konstruktion eines Kategoriensystems Zuordnung von Kategorien zu ausgewählten Textabschnitten Zusammenstellung aller zu einer Kategorie codierten Textsegmente Gruppierung von Kategorien zu Hierarchien und Netzwerken Visuelle Darstellung von Kategorienzuordnungen Gezielte Suche nach Überschneidungen von Kategorien oder nach komplexen Mustern von Kategorien Visuelle Darstellung von Kategorienüberschneidungen Möglichkeit, eigene Ideen und Anmerkungen an Textstellen, Codes, Texte u.a. wie Post-it Zettel anzuheften (Memos)
Was leistet QDA-Software x x x x x x x x x x x
13
Verwaltungssystem für diese Memos Lexikalische Suche nach Worten und Wortkombinationen in den Texten Automatische Vercodung aufgrund des Vorkommens von bestimmten Worten oder Wortkombinationen Erstellen von Worthäufigkeitslisten und Wortindices Erstellen von Baumstrukturen und Netzwerkansichten von Kategorien Definition von Variablen zu jedem Text Nutzen der Variablen als Selektionskriterien für Texte Import und Export von Ergebnistabellen zu Statistiksoftware, z.B. zu SPSS Unterstützen von Teamarbeit und konsensuellen Codierverfahren in Arbeitsgruppen Verknüpfung von Text-Informationen mit räumlichen Bezügen (Georeferenzierung) Synchronisierung von Text mit Audio- und Videodateien
Die meisten der genannten Funktionen bieten zwar „nur“ Unterstützung für die intellektuelle Auswertungsarbeit und führen keine automatische Analyse durch, doch wird durch die Schnelligkeit des Computers und die dadurch möglichen größeren Datensätze durchaus eine neue Stufe qualitativer Datenanalyse erreicht. (Fast) alles, was das Computerprogramm macht, ließe sich auch mit althergebrachten Paper-and-pencil Techniken realisieren, aber es würde um einige Zehnerpotenzen mehr Zeit benötigen. Insofern ist die Diskussion, ob QDA-Software nun etwas prinzipiell Neues darstellt oder nur die Automatisierung alt bekannter Techniken ist, eigentlich müßig. QDA-Programme geben keine bestimmte Methode der Analyse vor, so wenig wie Textverarbeitungsprogramme die Art (und Qualität) der Texte determinieren, die mit ihnen geschrieben werden. Gleichwohl verändern EDV-Programme den Arbeitsstil. Mit einem Textverarbeitungsprogramm läuft der Prozess der Textproduktion in ziemlich anderer Weise ab als mit der guten alten Schreibmaschine oder gar mit dem Füllfederhalter. Technologien generieren eine bestimmte Umgebung und dies gilt auch für QDASoftware, die einen anderen Analysestil hervorruft, ohne aber die eingesetzte Methode selbst zu determinieren.
14
Software für die qualitative Datenanalyse
Im Grunde haben beide Positionen Recht: QDA-Software steht für Methodenpluralität (auch dann, wenn die Entwickler vielleicht jeweils bestimmte Methoden oder Metaphern im Kopf gehabt haben mögen) und gleichzeitig hat sie einen homogenisierten Arbeitsstil zur Folge, jedenfalls dann, wenn man die Arbeitsvorgänge und die Arbeitsorganisation aus einer Position der Distanz betrachtet – auch die Waschmaschine hat den Alltag im Haushalt verändert und der Computer hat die Welt des Büros so verändert, dass auf den ersten Blick alle Büros ein uniformes Aussehen aufweisen. Die wissenschaftliche Auswertung von Texten besteht aus einer Reihe unterschiedlicher, aufeinander bezogener Akte mit den Kernbestandteilen x x x x x x x
Exploration, Interpretation, Kategorisierung, Klassifikation (teilweise auch Typenbildung), Daten Display und Visualisierung Theoriekonstruktion und Ergebnispräsentation.
Die methodisch kontrollierte Analyse von Texten unterscheidet sich prinzipiell von der Textrezeption und -produktion im Alltagsleben. Dort geht es eher um Erfahrung, Common-sense-Techniken und Inspiration: Eindrücke, die sich beim Lesen von Texten einstellen, werden zum Anlass für eigenes Nachdenken und vielleicht zur Formulierung eines neuen, eigenen Textes genommen. Im Zentrum der Analyse mittels QDA-Software steht hingegen der systematische Umgang mit Texten, d.h. eine weitgehend codifizierte Vorgehensweise, bei der es nicht nur um die selektive Plausibilisierung eigener Hypothesen durch entsprechend gewählte Zitate geht. Die QDA-Software stellt für solche systematische Textarbeit verschiedene Werkzeuge zur Verfügung. Welche man davon nutzt und welche nicht, ist ausschließlich Angelegenheit des Programm-Nutzers und hängt davon ab, welchem methodischen Paradigma bei der Auswertung gefolgt wird. Von QDA-Programmen werden in dieser Hinsicht keine Vorschriften gemacht. Sie beschränken ihre Benutzer allenfalls in der Hinsicht, dass bestimmte Operationen und Prozeduren mit dem Programm nicht möglich sind, zwingen sie aber nicht, einer bestimmten Auswertungsmethodik zu folgen.
Anwendungsfelder und methodische Orientierungen
15
Die Stärke von QDA-Software liegt in der Unterstützung der oben dargestellten Tätigkeiten von der Exploration und Interpretation bis zur Theoriekonstruktion. Moderne QDA-Software erlaubt zudem die Eingabe und Modifikation von Texten und offeriert fortgeschrittene Archivierungsfunktionen. QDA-Software dient hingegen nicht zur Formatierung und graphischen bzw. typographischen Gestaltung der Arbeitsergebnisse in Form von Forschungsberichten. Angesichts der immer perfekter werdenden Textverarbeitungsprogramme und ihrer stark ausgeweiteten Fähigkeiten mag die Frage gestellt werden, ob Textverarbeitungsprogramme denn nicht ausreichen, um qualitative Datenanalyse zu betreiben. Was unterscheidet QDA-Programme eigentlich von Programmen wie Microsoft Word? Ließe sich denn nicht auch Word zur computergestützten qualitativen Datenanalyse benutzen? Die Antwort lautet „Ja, aber nur sehr eingeschränkt“. Moderne Textverarbeitungsprogramme sind in ihrem Leistungsspektrum mit jeder neuen Version verbessert und erweitert worden, doch sind sie für ein völlig anderes Aufgabenfeld als für die systematische und wissenschaftliche Auswertung von Textdaten konzipiert. Sie haben vor allem Formatierungs- und Layoutfunktionen. Zwar verfügen Programme wie Word inzwischen über gute Indexfunktionen, doch sind sie für das Arbeiten mit Kategoriensystemen ebenso wenig konzipiert wie für die vergleichende und systematisierende Auswertung eines Sets von Texten.
1.2 Anwendungsfelder und methodische Orientierungen Die Anwendungsfelder von QDA-Programmen sind sehr vielfältig, sie werden heute in einer Vielzahl von Wissenschaftsdisziplinen und Praxisfeldern sowie in der Marktforschung eingesetzt. Die meisten Anwendungen findet man in den klassischen sozialwissenschaftlichen Disziplinen, der Soziologie, Psychologie und Politikwissenschaft. Soziologen analysieren beispielsweise die Biographien von Studenten oder Lebensvorstellungen von Jugendlichen. In der Psychologie und Psychoanalyse geht es etwa um Bewältigungsstrategien in kritischen Lebenssituationen. Ein typisch politikwissenschaftliches Anwendungsfeld ist die Analyse von Dokumenten und Protokollen, beispielsweise von Politikerreden im Deutschen Bundestag.
16
Software für die qualitative Datenanalyse
Zu den Hauptanwendungsfeldern zählen auch die Erziehungswissenschaft, die Sozialarbeit und Sozialpädagogik sowie die Bildungsforschung. Inhaltlich geht es hier etwa um Berufsbiographien arbeitsloser Lehrer, um berufliche Einmündung von Diplompädagogen, um Experteninterviews in der Jugendhilfeforschung oder um die subjektive Bedeutung des Computers für Schülerinnen. Ein stetig wachsendes Feld ist die Kommunikations- und Medienwissenschaft. Die Inhaltsanalyse von Massenmedien (Printmedien und Fernsehen) ist dabei ebenso zu nennen wie die Analyse von Kommunikationsformen, die mit den neuen Medien, Internet und Multimedia, assoziiert sind z.B. Kommunikation in Diskussionsforen und in Chat-Räumen. Auch in querschnittlich angelegten Disziplinen werden QDA-Programme häufig eingesetzt, u.a. in der Genderforschung, den Gesundheitsund Pflegewissenschaften, den Rehabilitationswissenschaften und den Umweltwissenschaften. Noch vergleichsweise selten sind Anwendungen in klassischen geisteswissenschaftlichen Fächern, den Philologien und der Geschichtswissenschaft. Häufiger werden QDA-Programme jedoch bereits in der Sportwissenschaft, der Theologie, Ethnologie, den Wirtschaftswissenschaften und der Marktforschung eingesetzt. Das Spektrum der Anwendungsfelder weitet sich stetig aus und es lässt sich begründet vermuten, dass all jene Disziplinen, die es mit der systematischen Auswertung und Bearbeitung von Texten zu tun haben, in den nächsten Jahren QDA-Programme für sich entdecken werden. So unterschiedlich die QDA-Programme auch sein mögen, in der zentralen Voraussetzung zu ihrer Benutzung sind sie sich relativ ähnlich: Die zu bearbeitenden Texte müssen digitalisiert vorliegen. Häufig fragen Interessierte, die erstmals mit einem QDA-Programm konfrontiert sind, ob das in Frage stehende Programm auch mit eingescannten Texten arbeiten kann. Selbstverständlich ist dies der Fall, denn wie ein solcher digitalisierter Text zustande kommt, ob durch Eintippen, Einscannen oder Voice-Recorder, ist für das QDA-Programm völlig gleichgültig. Allerdings besitzen QDA-Programme keine speziellen Texterkennungs- und Digitalisierungsfunktionen, da muss schon auf einschlägige Programme wie beispielsweise OmniPage zurückgegriffen werden. Für QDA-Programme gilt, dass sie nicht mit einer bestimmten Wissenschaftsdisziplin, sondern mit einer bestimmten Klasse von Problemen as-
Anwendungsfelder und methodische Orientierungen
17
soziiert sind, nämlich der systematischen Auswertung von Texten. Diese Eigenschaft der Multidisziplinarität teilen sie mit Statistik-Programmsystemen. Auch diese werden in den verschiedensten Bereichen der Wissenschaft, in Verwaltungen, Unternehmen und Forschungsinstituten eingesetzt. Im Fall der Statistikprogramme ist es ganz selbstverständlich, für welche Datentypen sich diese eignen, nämlich für numerische Daten, die man mittels statistischer Algorithmen zu analysieren beabsichtigt. Im Fall der QDA-Programme ist die Zuordnung von Datentypen keineswegs so selbstverständlich. Für welche Datenarten eignet sich QDA-Software? Schaut man sich empirisch im Kreis der Programmbenutzer um, so sind die ausgewerteten Datenarten außerordentlich vielfältig. Unter anderem kann man folgende Arten von Datenmaterial finden: x x x x x
x x x x x x x
Transkripte von offenen Interviews aller Art (narrative Interviews, problemzentrierte Interviews, Tiefeninterviews etc.) Feldnotizen und Feldprotokolle aus der sozialwissenschaftlichen und ethnologischen Forschung Aufzeichnungen von Gruppendiskussionen und Fokusgruppen Vorstrukturierte Texte, beispielsweise Resultate von Datenbankrecherchen Daten der Onlineforschung, z.B. Chats, Foren, Online-Seminare und -konferenzen, Texte von Webseiten, Online-Gruppendiskussionen etc. Dokumente verschiedenster Art wie beispielsweise Lehrpläne, Zeitungsartikel u. Ä. Leitfadenstrukturierte Interviews, Expertengespräche Akten (z.B. der Sozialverwaltung oder Jugendhilfe) Aufsätze (z.B. Schüleraufsätze, Abituraufsätze), Briefe Antworttexte auf offene Fragen aus standardisierten Fragebögen Beobachtungsprotokolle, Therapieprotokolle, Protokolle von Anamnesegesprächen, protokollierte Träume Literarische Texte, Zeitungsannoncen
Außer der Grundvoraussetzung, dass es sich um digitalisierten Text handeln muss, bestehen im Grunde keine weiteren Vorbedingungen für das Arbeiten mit QDA-Programmen. Ein Charakteristikum von QDA-Programmen ist ihre Flexibilität hinsichtlich der Analysestile. Tesch (1990: 58) hat bezogen auf die Soziologie, Psychologie und Erziehungswissenschaft
18
Software für die qualitative Datenanalyse
versucht, die Analyseformen zu systematisieren und folgende Liste2 zusammengestellt: Action Research Case Study Clinical Research Cognitive Anthropology Collaborative Inquiry Content Analysis Dialogical Research Conversation Analysis Delphi Study Descriptive Research Direct Research Discourse Analysis Document Study Ecological Psychology Educational Connoisseurship and Criticism Educational Ethnography Ethnographic Content Analysis Ethnography Ethnography of Communication Ethnomethodology Ethnoscience Experimental Psychology Field Study
Focus Group Research Grounded Theory Hermeneutics Heuristic Research Holistic Ethnography Imaginal Psychology Intensive Research Interpretive Evaluation Interpretive Interactionism Interpretive Human Studies Life History Research Naturalistic inquiry Oral History Panel Research Participant Observation Participative Research Phenomenography Phenomenology Qualitative Evaluation Structural Ethnography Symbolic Interactionism Transcendal Realism Transformative Research
Die Liste zeigt, wie vielfältig die Methoden sind, in denen QDA-Software eingesetzt werden kann. Die von Tesch zusammengestellten Analyseformen beziehen sich allerdings auf verschiedene Ebenen: Einige bezeichnen die Art des Forschungsprozesses (z.B. Action Research, Case Study), andere den theoretischen Ansatz (Symbolic Interactionism), wieder andere die Art des Materials (Document Study). Der Versuch, eine Art Typologie qualitativer Forschung auf dieser Basis zu erstellen, ist deshalb zum Scheitern verurteilt. Tesch hat die Vielzahl der aufgeführten Methoden in Form einer Cognitive
2 Auf eine Übersetzung wird an dieser Stelle verzichtet, weil häufig ohnehin die englischen Bezeichnungen wiederholt werden müssten (Grounded Theory, Ethnomethodology) oder durch eine Übersetzung nur Unklarheit gestiftet würde, etwa, wenn Focus Group Research mit Kleingruppenforschung übersetzt würde.
Anwendungsfelder und methodische Orientierungen
19
Map nach dem Gesichtspunkt des Forschungsinteresses geordnet, wobei sie danach unterscheidet, ob das Forschungsinteresse auf die Charakteristika von Sprache, die Entdeckung von Regelmäßigkeiten, das Verstehen der Bedeutung des Textes bzw. der Handlung oder auf Reflexion gerichtet ist (vgl. Tesch 1990: 63 ff.). Unter die erste Abteilung (Charakteristika von Sprache) werden u.a. die Diskursanalyse, die Ethnomethodologie, der symbolische Interaktionismus und die Inhaltsanalyse subsumiert. Der zweiten Abteilung (Entdeckung von Regelmäßigkeiten) wird die Grounded Theory, die Ethnographie, die Aktionsforschung und die qualitative Evaluation zugeordnet. Hermeneutik, Lebenslaufforschung und Phänomenologie sind Beispiele für den dritten Typ von Forschungsinteressen, der sich primär auf Verstehen von Bedeutungen bezieht. Der Einsatz von QDA-Programmen ist keineswegs auf qualitative Paradigmen beschränkt. Auch für die Auswertung von Mitarbeiterbefragungen, Onlinefragebögen (etwa zur Kundenzufriedenheit) sowie von Antworttexten auf offene Fragen in Surveys lassen sie sich hervorragend nutzen. Besonders geeignet sind sie für Mixed-Methods- und Triangulationsansätze, weil sie die Kombination und Integration von qualitativen und quantitativen Daten, etwa Text und standardisierten Befragungsdaten, gestatten. Andererseits wird man feststellen müssen, dass QDA-Software nicht für solche Formen der Textanalyse konzipiert ist, die primär auf Textexegese ausgerichtet sind. Mikroskopische Analysen, die mit einer akribischen und zeitaufwändigen Zeile-für-Zeile Vorgehensweise arbeiten und Stunden oder Tage für die sorgfältige Analyse weniger Zeilen Text aufwenden, werden naturgemäß von Computerunterstützung nur wenig profitieren können. Qualitative Datenauswertung ist zeitaufwändig und insofern teuer. Allzu berechtigt ist deshalb die Frage, welcher zusätzliche Aufwand durch die Entscheidung für eine computergestützte Auswertung möglicherweise entsteht und welche Gewinne sich hierdurch erzielen lassen. QDA-Software steigert die Effizienz der Analyse in beträchtlichem Maße: Kategoriensysteme lassen sich schnell und einfach handhaben, codierte Textstellen suchen, das Textmanagement wird vereinfacht und Übersichten lassen sich in Sekundenschnelle erstellen. Doch ist es nicht nur die Effizienzsteigerung vorhandener Auswertungstechniken als vielmehr die Eröffnung von neuen Analysemöglichkeiten, die durch QDA-Programme bewirkt wird. Neben diesem neuen Analysestil versprechen die QDA-Programme einen erhebli-
20
Software für die qualitative Datenanalyse
chen Zugewinn an Qualität: Kategoriensysteme, Memos und codierte Textsegmente sind leicht zugänglich und machen es möglich, die Resultate qualitativer Forschung nachzuprüfen. Gerade diese mangelnde Nachprüfbarkeit der Ergebnisse bei traditionellen Vorgehensweisen ist in der Vergangenheit der qualitativen Forschung immer wieder zum Vorwurf gemacht worden und hat nicht unerheblich zum einseitigen Reputationsgewinn quantitativer Verfahren beigetragen. Zurück zur Frage des zusätzlichen Aufwandes, der durch den Einsatz von QDA-Programmen entsteht. Heute ist es zur Regel geworden, alle Transkriptionen mittels Computer vorzunehmen. Damit ist die wesentliche Voraussetzung für den Einsatz eines QDA-Programms, nämlich das Vorhandensein digitalisierter Texte, schon erbracht. Die darüber hinausgehenden Vorleistungen sind denkbar gering, sie bestehen lediglich im Import der Texte in das QDA-Programm. Dies eröffnet ein ganzes Arsenal von Möglichkeiten, deren einfachste Variante im Kapitel „Textexploration“ beschrieben ist. Bei relativ geringen Investitionskosten dürfte somit der Einsatz von QDA-Software immer mit Gewinn, teilweise mit großem Gewinn im Hinblick auf Zeitersparnis, Qualität und Komplexität der Analyse verbunden sein.
1.3 Arbeitsschritte mit einem QDA-Programm Wie läuft nun der Auswertungsprozess mit einem QDA-Programm ab? Im Mittelpunkt stehen natürlich die Texte, die zunächst in das QDA-Programm importiert bzw. diesem zugeordnet werden müssen. Charakteristisch für die Arbeit mit QDA-Programmen ist, dass gewöhnlich nicht nur mit einem Einzeltext gearbeitet wird, wie dies üblicherweise bei einem Textverarbeitungsprogramm der Fall ist, sondern mit einer gewissen Anzahl von Texten, die zu einem Projekt – eine Art Container – gehören und die man zusammen analysieren will: Man will die Texte miteinander vergleichen, sie kontrastieren, Gemeinsamkeiten herausarbeiten und Regelmäßigkeiten feststellen. Es kommt also weniger auf den einzelnen Text in seiner Besonderheit, sondern vielmehr auf die Gesamtschau an. Dieser Fokus auf ein ganzes Set von Texten bedeutet allerdings keineswegs, dass detaillierte Zeilefür-Zeile Analysen damit ausgeschlossen wären. Die Vielfalt der verschiedenen Methoden der Text- und Inhaltsanalyse bedingt, dass keine allgemein
Arbeitsschritte mit einem QDA-Programm
21
verbindliche Abfolge von Arbeitsabläufen und Analyseschritten angegeben werden kann. Es lassen sich allerdings Bearbeitungsphasen unterscheiden, die in den verschiedenen methodischen Paradigmen eine mehr oder weniger große Rolle spielen. QDA-Programme lassen sich mit Werkzeugkästen vergleichen, die umfangreiche Sammlungen von Werkzeugen unterschiedlichen Typs enthalten. Natürlich sind nicht alle Werkzeugkästen quantitativ und qualitativ gleich bestückt. Manche enthalten nur wenige Werkzeuge, manche enthalten vielleicht sehr viele Dinge, die aber nur selten benötigt werden. Die folgenden Arbeitsschritte beschreiben grundsätzliche Arbeitsabläufe bei der computergestützten Analyse qualitativer Daten, die in unterschiedlicher Kombination und Schwerpunktsetzung in den verschiedenen methodischen Paradigmen eine Rolle spielen. Diese Arbeitsschritte müssen nicht notwendigerweise hintereinander ablaufen. Sie können parallel bearbeitet oder auch in zirkulärer Reihenfolge durchlaufen werden. Arbeitsschritt – Projekt und Textgruppen einrichten Die erste Arbeitsaufgabe bei der Arbeit mit einem QDA-Programm besteht im Anlegen eines neuen Projektes, d.h. der Einrichtung von einer Art Lagerhaus für alle Daten, die jetzt oder im zukünftigen Projektverlauf im Rahmen der Auswertung anfallen. Am besten wählt man einen aussagekräftigen Namen für das Projekt, beispielsweise haben wir in einer Feldstudie über Lokale Agenda 21-Initiativen3 der Projektdatei den Namen „Umweltkommunikation und Agenda 21“ gegeben. In der Projektdatei ist alles Wesentliche enthalten, was zu dem betreffenden Projekt gehört, d.h. alle Texte, Kategorien, codierten Textstellen und Hyperlinks, Memos, Anmerkungen und Variablen. Audio- und Videodateien, quasi die Rohdaten eines Projektes, werden wegen ihrer beträchtlichen Größe in der Regel nicht in der Projektdatei gespeichert. Im oben erwähnten Projekt „Umweltkommunikation und Agenda 21“ wurden einerseits die Akteure von Agenda 21-Initiativen interviewt, andererseits auch Experten aus dem Umfeld. Zum Datenmaterial gehören die
3 Das Forschungsprojekt „Initiativen für eine nachhaltige Entwicklung: Neue Dialogformen und Kommunikationsstile im Zusammenhang mit der Agenda 21“ wurde unter dem Förderkennzeichen 10107133 vom Umweltbundesamt gefördert (vgl. de Haan/Kuckartz/Rheingans 2000).
22
Software für die qualitative Datenanalyse
Sitzungsprotokolle der Initiativen, ferner wurden Beobachtungsprotokolle über die Treffen der Initiativen und ihrer Arbeitsgruppen angefertigt. Sinnvoll ist es, verschiedene Textgruppen zu unterscheiden und entsprechend zu benennen. Es empfiehlt sich dementsprechend vier Textgruppen zu bilden: 1. 2. 3. 4.
Interviews mit Akteuren Interviews mit Experten Beobachtungsprotokolle Sitzungsprotokolle
Ein Projekt besteht aus mehreren Texten und mehreren Textgruppen.
Abb. 1: Ausgangssituation: ein Projekt mit mehreren Texten
Arbeitsschritt – Import von Texten Hat man ein neues Projekt eingerichtet und den ersten Arbeitsschritt bewältigt, kann der Import von Texten beginnen. Zuvor sollten diese entsprechend vorbereitet werden. In QDA-Programmen haben die Texte normalerweise den Status von Dokumenten, d.h. sie werden während des Analyseprozesses nicht oder nur marginal verändert. Eine sorgfältige Korrektur von Texttranskriptionen ist in jedem Fall vor der Analyse empfehlenswert. Ebenso sollten die Texte vor dem Import anonymisiert werden. Weitere Texte können auch später noch, zu jedem beliebigen Zeitpunkt des Analyseprozesses, eingelesen werden. Man ist also nicht gezwungen, gleich alle Texte bereits zu Beginn der Textauswertung zu importieren. Häufig wird eine Arbeitsweise praktiziert, bei der zunächst jeder importierte Text mit Zeilen bzw. Absatznummern ausgedruckt wird. Ein solcher Ausdruck ist eine gute Grundlage für eine in der Forschergruppe gemeinsam vorgenommene Bearbeitung und Diskussion. Der Ausdruck stellt ferner einen guten Ausgangspunkt für die Analyse- und Codierarbeit dar: Man kann Notizen an den Rand schreiben, Themen vermerken, Relevantes markieren
Arbeitsschritte mit einem QDA-Programm
23
und Kategorien notieren. Ob man lieber am Bildschirm oder mit Papier arbeitet, ist letzten Endes eine Angelegenheit persönlicher Präferenzen. Arbeitsschritt – Texte explorieren QDA-Programme beinhalten Funktionen zur Exploration von Texten. Man kann gezielt nach Worten und Wortkombinationen suchen, das semantische Umfeld von Begriffen erkunden und Keyword-in-Context Zusammenstellungen anfertigen – und dies nicht nur für einen einzelnen Text, sondern für das gesamte Projekt.. Textstellen lassen sich in ähnlicher Weise wie mit einem Text-Marker markieren und so für die zukünftige genaue Interpretationen festhalten. Prägnante Formulierungen der Befragten lassen sich als solche kenntlich machen. Auch der direkte Zugriff auf den Originalton der Audio- bzw. Videodatei ist möglich, sofern die QDA-Software eine solche Synchronisierungsfunktion besitzt. Arbeitsschritt – Texte segmentieren und Codes zuordnen Ein zentraler Arbeitsschritt stellt die systematische Codierung von Textpassagen dar. Relevante Textsegmente werden markiert und aussagekräftigen Kategorien („Codes“) zugewiesen. Hinsichtlich der Festlegung der Grenzen eines Textsegmentes ist man bei moderner QDA-Software völlig frei. Ein Segment kann nur aus einem Wort, einem oder wenigen Sätzen oder auch aus längeren Textpassagen bestehen. Die gleichen Textstellen können mehrmals codiert werden, d.h. dem Segment können gleichzeitig mehrere Codes zugeordnet werden. Auf diese Weise werden die Texte des Projektes systematisch bearbeitet. Dies stellt eine wesentliche Vorarbeit dar, um später alle Textstellen zu bestimmten Themen zusammenstellen zu können oder um die Struktur des Textes, den Zusammenhang zwischen Kategorien zu erforschen.
24
Software für die qualitative Datenanalyse
I: Mach mal so, bezogen jetzt rein auf die Initiative, da die ja noch relativ „jung“ ist, haben Sie dafür auch so ne Vision, was da noch machbar ist? Fr. Wenger: Also was ich mir insgesamt wünsche, ist daß so die Menschen wieder untereinander in Kontakt kommen, auch durch solche Aktionen. Auch wenn man seine Straße aufräumt, denn ist es ja nicht nur, daß die Straße sauber ist, wobei manche immer zusammenzucken, aber ich finde das einfach wichtig, ich denke, das gehört zum Wohlfühlen und Menschen kommunizieren wieder untereinander und außerdem merken sie, sie haben was geschafft. Und sie können - es ist zwar eine winzig kleine Sache, aber sie können was verändern. Und es sind so viele Menschen, die sich zurückgezogen haben und sagen, Ihr könnt mich mal und wir wollen uns nicht mehr beteiligen und vielleicht ist das irgendwo son kleiner Punkt, wo sie dann so anfangen sich wieder ein bißchen gemeinschaftlich zu betätigen. Also das ist so meine Vision der - ja - Aufleben des Kommunegedankens.
Fr. Wenger: Also was ich mir insgesamt wünsche, ist daß so die Menschen wieder untereinander in Kontakt kommen, auch durch solche Aktionen. Auch wenn man seine Straße aufräumt, denn ist es ja nicht nur, daß die Straße sauber ist, wobei manche immer zusammenzucken, aber ich finde das einfach wichtig, ich denke, das gehört zum Wohlfühlen und Menschen kommunizieren wieder untereinander und außerdem merken sie, sie haben was geschafft. Und sie können - es ist zwar eine winzig kleine Sache, aber sie können was verändern.
Code Wunschprojektion
Abb. 2: Text segmentieren und codieren
Arbeitsschritt – Textstellen über Hyperlinks miteinander verknüpfen Durch das Internet sind inzwischen Hyperlinks allgemein bekannt. Dabei handelt es sich um Verknüpfungen von Webseiten, d.h. Querverweise auf andere Internetseiten. Klickt man einen solchen Querverweis an, wird zum Zielpunkt des Verweises gesprungen, d.h. die entsprechende Internetseite geladen. Diese Querverweistechnik steht auch für die Textanalyse zur Verfügung: Textstellen können mit anderen Textstellen – sei es im gleichen oder in anderen Texten – verknüpft werden, so dass später durch einen einfachen Mausklick auf das Ziel des Verweises gesprungen werden kann. Arbeitsschritt – Ideen, Hypothesen und Theorien in Form von Memos festhalten Ein weiteres wichtiges analytisches Werkzeug von QDA-Programmen stellen die Memos dar. Dabei handelt es sich zunächst um nichts anderes als um die Möglichkeit, Notizen zu verfassen und zusammen mit den Originaldaten zu speichern und zu verwalten. Etwas Wichtiges auf eine Karteikarte aufzuschreiben, war natürlich auch schon vor dem Computerzeitalter im Forschungsalltag ein ständig praktiziertes Verfahren, um z.B. Kategoriende-
25
Arbeitsschritte mit einem QDA-Programm
finitionen, Hypothesen oder komplexe Gedankengänge festzuhalten. Memos können sich auf bestimmte Texte, Textstellen oder auf Codes beziehen, sie können aber auch als „theoretische Memos“ frei von einer solchen Zuordnung sein. Memos sind ein wichtiges Hilfsmittel, um die eigenen Hypothesen zu entwickeln. Sie können wichtige Meilensteine auf dem Weg zum eigenen Text bzw. Forschungsbericht sein. Arbeitsschritt – Ein System von Kategorien entwickeln Das Arbeiten mit dem Kategoriensystem stellt einen wesentlichen Teil der analytischen Arbeiten dar. QDA-Programme leisten hier wirksame Unterstützung. Die Codes wachsen im Verlauf des Analyseprozesses zu einem dichten, geordneten System von Kategorien zusammen. Dabei können einerseits verschiedene Codes zu einem neuen, übergreifenden Code zusammengefasst werden. Andererseits können Codes ausdifferenziert werden. Es mag sich beispielsweise als nützlich herausstellen, bei einem Code „Wunschprojektion“ zwischen sozialen, ökologischen und ökonomischen Wünschen zu unterscheiden. QDA-Programme ermöglichen es dann, ohne größeren Aufwand die bereits mit „Wunschprojektion“ codierten Textsegmente einer der drei neu gebildeten Subkategorien zuzuordnen. TEXT: Interviews Akteure / Wenger (Zeile 153-162) CODE: Wunschprojektion Fr. Wenger: Also was ich mir insgesamt wünsche, ist dass so die Menschen wieder untereinander in Kontakt kommen, auch durch solche Aktionen. Auch wenn man seine Straße aufräumt, denn ist es ja nicht nur, daß die Straße sauber ist, wobei manche immer zusammenzucken, aber ich finde das einfach wichtig, ich denke, das gehört zum Wohlfühlen und Menschen kommunizieren wieder untereinander und außerdem merken sie, sie haben was geschafft. Und sie können - es ist zwar eine winzig kleine Sache, aber sie können was verändern.
CODE: Wunschprojektion - sozial - ökologisch - ökonomisch
Abb. 3: Ausdifferenzierung des Kategoriensystems
26
Software für die qualitative Datenanalyse
Arbeitsschritt – Memos verdichten und integrieren Je weiter der Analyseprozess fortschreitet, desto umfangreicher werden normalerweise die Memos. Sie integrieren bereits vorhandene Memos oder halten die nun schon recht umfangreichen theoretischen Gedanken fest. In Form von Code-Memos werden Kategoriendefinitionen und Ankerbeispiele festgehalten. Mit der im Laufe des Forschungsprozesses entstehenden Sammlung von Memos verfügt man über einen Fundus von Ideen, Hypothesen und Auswertungsteilen. All dies erleichtert die Anfertigung eines Forschungsberichtes. Man kann in Memos gezielt nach Begriffen suchen, auch lassen sich den Memos wiederum Kategorien zuordnen, die das Auffinden bestimmter Ideen und Beschreibungen ermöglichen. Auf diese Weise lassen sich Memos zu umfassenden Memos integrieren und zu Forschungsberichten ausbauen. Arbeitsschritt – Text-Retrieval: Fragen an das Material stellen Mit dem Mittel des Text-Retrievals kann eine Synopse aller zu einer bestimmten Kategorie oder Subkategorie zugeordneten Textstellen des gesamten Text-Sets erstellt werden. Die Segmente lassen sich in einer geordneten Liste zusammen mit der Herkunftsangabe ausgeben, speichern, zu Word exportieren und drucken. Dies stellt eine sehr einfache Möglichkeit zur Themenanalyse dar. Man erhält beispielsweise alle auf den Bereich „Soziales“ zielenden Wunschprojektionen der Befragten und kann zusätzlich zwischen verschiedenen Textgruppen (Akteure und Experten) unterscheiden. Anders als manuelle Karteisysteme machen gute QDA-Programme es möglich, nach Belieben in den Originaltext zurückzuspringen und den größeren Kontext einer codierten Textpassage einzusehen, wann immer dies für sinnvoll erachtet wird. Fortgeschrittene Formen des Text-Retrievals sehen beispielsweise so aus, dass nach Überschneidungen von Kategorien bzw. Kategoriengruppen geforscht wird. Mittels spezieller Abfragewerkzeuge lassen sich Fragen an das Material stellen, z.B. „Existieren Textstellen, in denen Befragte ihre auf die Initiativgruppe bezogenen Wünsche beschreiben (Code „Wunschprojektion/sozial“) und gleichzeitig „negative Emotionen“ äußern?“
27
Arbeitsschritte mit einem QDA-Programm
Arbeitsschritt – Fallvariablen definieren, Textmerkmale bewerten und klassifizieren Mit dem Werkzeug der Fallvariablen können einerseits a priori vorhandene Informationen über den Text festgehalten werden, z.B. sozio-demographische Daten, Informationen über den Interviewer und den Interviewverlauf. Andererseits kann das Werkzeug der Fallvariablen auch dazu benutzt werden, um Klassifizierungen und Bewertungen, die auf der Grundlage der Textinterpretation vorgenommen werden, in Form von Variablenwerten festzuhalten. Die Fallvariablen können als Selektionskriterien für das TextRetrieval, d.h. das Wiederfinden codierter Textpassagen herangezogen werden. Angenommen, man habe die Variablen Anzahl der Kinder und Einkommenshöhe als Fallvariable definiert, dann lässt sich bspw. die Frage „Wie sehen die sozialen Wunschprojektionen von Befragten mit Kindern und einem Monatseinkommen über 4000 Euro aus?“ beantworten. Auch lassen sich mit den Fallvariablen Übersichtstabellen erstellen und statistische Berechnungen durchführen. I: Mach mal so, bezogen jetzt rein auf die Initiative, da die ja noch relativ „jung“ ist, haben Sie dafür auch so ne Vision, was da noch machbar ist? Fr. Wenger: Also was ich mir insgesamt wünsche, ist dass so die Menschen wieder untereinander in Kontakt kommen, auch durch solche Aktionen. Auch wenn man seine Straße aufräumt, denn ist es ja nicht nur, dass die Straße sauber ist, wobei manche immer zusammenzucken, aber ich finde das einfach wichtig, ich denke, das gehört zum Wohlfühlen und Menschen kommunizieren wieder untereinander und außerdem merken sie, sie haben was geschafft. Und sie können - es ist zwar eine winzig kleine Sache, aber sie können was verändern.
Interviewte: Wenger Interviewer: Anke B. Geschlecht: w Alter: 53 Fam.Stand: ledig Bezirk: Pankow Kinder: 2 Status: 5 ......
Abb. 4: Mit dem Text assoziierte Fallvariablen
Arbeitsschritt – Komplexe Analyse Komplexe Formen des Text-Retrievals ermöglichen die gezielte Prüfung von Hypothesen. Es wird nicht mehr lediglich nach dem gemeinsamen Auftreten von Kategorien geforscht, sondern es kann z.B. mit Hilfe von
28
Software für die qualitative Datenanalyse
Entfernungsoperatoren überprüft werden, welche Themen im Umkreis bestimmter Fragen erörtert oder gerade nicht erörtert werden. Ferner besteht die Möglichkeit, Textinformationen in Form von Variablenwerten zu vercoden und mit diesen Variablen auch quantitative Auswertungen durchzuführen. Statistische Verfahren wie die Faktorenanalyse, Clusteranalyse, Konfigurationsfrequenzanalyse oder Korrespondenzanalyse können eingesetzt werden, um nach Mustern zu suchen oder Typen zu bilden. Die Resultate lassen sich wiederum in Kombination mit Techniken des Text-Retrievals nutzbar machen. Relevanz-Scores ermöglichen es, die Bedeutsamkeiten von Textsegmenten festzuhalten und ebenfalls beim TextRetrieval zu berücksichtigen.
2
Die Texte: Transkription, Vorbereitung und Import
2.1 Allgemeines zu Texten und ihrer Formatierung Welche Textarten lassen sich mit QDA-Software verwalten und analysieren? Müssen die Texte ganz bestimmte Bedingungen erfüllen, gibt es Beschränkungen hinsichtlich der Anzahl der Texte und ihres maximalen Umfangs? Muss eine bestimmte Syntax eingehalten werden? Sind nur bestimmte Schriftzeichen und Schriftarten erlaubt? Darf der Text Bilder, Grafiken, Excel-Tabellen oder Ähnliches enthalten? Wie viel Vorarbeit ist erforderlich, um die Texte für eine computerunterstützte Auswertung vorzubereiten und lohnt sich ein solcher Aufwand überhaupt? Fragen wie diese werden häufig gestellt, wenn es um die Entscheidung geht, ob man QDA-Software bei der Textauswertung einsetzen soll oder nicht. Beginnen wir mit der Beantwortung der Fragen in chronologischer Reihenfolge: Textarten Prinzipiell lassen sich alle Texte, die in digitalisierter Form vorliegen oder sich leicht in eine solche überführen lassen, mit einem QDA-Programm auswerten. Es kann sich also beispielsweise um Transkriptionen von Interviews, Gruppendiskussionen u. Ä. handeln, aber auch um Texte, die aus CD-ROM-Quellen oder aus dem Internet stammen, ferner um Texte, die zunächst nur in Papierform vorliegen und eingescannt werden müssen. Beschränkungen Wie sieht es mit Beschränkungen in Bezug auf die Anzahl der bearbeitbaren Texte und der Textlänge aus? Hier gilt es zunächst einmal zwischen dem einzelnen Text und dem gesamten Text-Set, das gleichzeitig verfügbar sein muss und ausgewertet werden soll, zu unterscheiden. In einem Forschungsprojekt sind dies etwa alle transkribierten Interviews, Beobachtungsprotokolle, Dokumente, Feldnotizen u. Ä., also die Gesamtheit aller
30
Die Texte: Transkription, Vorbereitung und Import
Texte die zum Projekt gehören. Betrachten wir zunächst den einzelnen Text: Was ist im Sinne eines QDA-Programms ein „normaler“ Text, was ein „langer“ und was ein „kurzer“ Text? Ein durchschnittliches offenes Interview von circa einer Stunde Dauer ergibt in transkribierter Form etwa 25 bis 60 Seiten. Das ist kein besonders langer Text, weder für diese Art der Datenerhebung noch für die Auswertung mit einem QDA-Programm. Hingegen würde man einen mehr als 100 Seiten umfassenden Text durchaus als einen langen Text bezeichnen. Derartig lange Texte sind in der Praxis qualitativer Sozialforschung eher selten und auch bei Medienanalysen keineswegs als normal zu betrachten, denn Texte müssen in den meisten Fällen transkribiert werden (was mit beträchtlichen Kosten verbunden ist) und natürlich von den Bearbeitern bei einer qualitativen Analyse auch gelesen werden. Den Prototyp eines kurzen Textes stellt ein Abstract von einer halben Seite dar. Auch Antworttexte auf offene Fragen in Fragenbogeninterviews umfassen selten mehr als etwa 20 Zeilen. Für heutige QDA-Software stellen Texte mit einem Umfang bis zu 100 Seiten kein Problem mehr dar, praktisch wirksame Beschränkungen für die maximale Länge einzelner Texte existieren also nicht. Im Hinblick auf das gesamte Text-Set hat man es in der qualitativen Forschung gewöhnlich mit relativ kleinen Fallzahlen zu tun, jedenfalls im Vergleich zu den riesigen Stichprobengrößen in der Surveyforschung, die häufig mehr als 1000 Personen umfassen. In qualitativen Interviewstudien arbeitet man in der Regel mit 20 bis 80, gelegentlich auch mit mehr als 100 Interviews, aber nur sehr selten mit mehreren hundert oder gar mehreren tausend. Das sind beträchtliche Datenmengen, doch wird nicht erst seit der Existenz von QDA-Software in der qualitativen Forschung mit großen Mengen von Text gearbeitet. Hunderte oder gar mehrere tausend Seiten von Feldprotokollen und Interviews mit Informanten gehörten auch bereits vor der Computerisierung zum Alltag qualitativer Forscher. Autoren wie Huberman und Miles sprachen in diesem Kontext von „data overload“ (1983: 285), d.h. von „Daten-Überlastung“. In Bezug auf Zahl und Umfang des analysierten Materials sollte man stets daran denken, dass QDA-Software ursprünglich als Hilfsmittel für qualitative Forschung konzipiert wurde und nicht etwa als Datenverwaltungs- oder Datenbankprogramm. Das typische Datenmaterial für QDA-Software stellen deshalb Textkorpora von etwa 20 bis 80 Texten mit jeweils 10 bis 60 Seiten dar. Wenn man von diesem Regelfall sehr stark abweicht, mag dies je nach QDA-Software
Allgemeines zu Texten und ihrer Formatierung
31
und Rechnertyp zu Problemen führen, etwa dazu, dass die Ausführungsgeschwindigkeit stark sinkt. Textgestaltung In QDA-Software, die das DOC oder Rich-Text-Format (RTF) unterstützt, können Texte im Prinzip so importiert werden, wie sie im Textverarbeitungsprogramm formatiert sind. Das heißt, es ist keine weitere Vorarbeit notwendig, um die Texte für die Auswertung vorzubereiten, etwa weil die QDA-Software eine bestimmte Syntax verlangen oder bestimmte Textauszeichnungen nicht unterstützen würde. Objekte im Text (Fotos, Grafiken, Word- und Excel-Tabellen etc.) Die neueste Programmgeneration von MAXQDA, NVivo und ATLAS.TI gestattet nun auch das Arbeiten mit Texten, die Fotos, Grafiken, Tabellen oder andere eingebettete Objekte enthalten. Notwendige Vorarbeit Den computergestützten Techniken zur Auswertung von Textdaten ist gemeinsam, dass die ersten Schritte – gleichgültig welches Softwareprogramm eingesetzt wird – weitgehend die gleichen sind. Ursprünglich waren QDAProgramme primär für die Textauswertung und das Textmanagement konzipiert und weniger für die Texteingabe bzw. Transkription. Inzwischen gestatten Programme das Erstellen und Editieren von Texten, teilweise wird auch die Transkription von Texten wirkungsvoll unterstützt. In den meisten Fällen wird allerdings die Erfassung bzw. die Eingabe des Textes mit einem Textverarbeitungsprogramm oder einem Transkriptionsprogramm realisiert. Es spielt aber eigentlich keine Rolle, welches Programm verwendet wird, entscheidend ist, ob das Programm in der Lage ist, einen Text im RTF- oder DOC-Format zu speichern. Wenn eben möglich sollten bereits bei der Texterstellung die Spezifika von QDA-Programmen beachtet werden, d.h. die Texte sollten schon im Hinblick auf den späteren Einsatz eines QDA-Programms gestaltet werden. Die entsprechenden Anforderungen und Restriktionen von QDA-Programmen sind nicht sonderlich hoch, so dass auch bereits vorhandene Texte meist problemlos entsprechend präpariert werden können. Die Frage, wie viel Zeit für die Vorbereitung der Texte notwendig ist, lässt sich nicht pauschal beantworten. In der Regel ist der Aufwand ziem-
32
Die Texte: Transkription, Vorbereitung und Import
lich gering, jedenfalls im Verhältnis zu den Kosten, die für die Transkription eines Textes anfallen. Die folgenden Abschnitte dieses Kapitels befassen sich mit den verschiedenen Varianten der Textvorbereitung und machen eine genauere Abschätzung der im Einzelfall benötigten Zeit möglich.
2.2 Texte im Textverarbeitungsprogramm (Word) Im Feld der nicht-quantitativ arbeitenden Sozialwissenschaftler war es – ebenso wie bei Historikern (vgl. Greenstein 1994) – lange Zeit unüblich oder sogar verpönt, Computer im Forschungsprozess einzusetzen. Computer wurden mit quantitativen Methoden und statistischen Verfahren assoziiert und aus diesen Gründen war man nicht sonderlich willig, sie als Werkzeuge für die qualitative Analyse zu begreifen und in der eigenen Arbeit einzusetzen. Mit dem Aufkommen preiswerter Personal Computer Ende der 1980er-Jahre änderte sich dies und ein Prozess der „Destigmatisierung“ des Computers setzte ein. Heute ist es für die jüngeren Wissenschaftlergenerationen selbstverständlich geworden, Computer in der eigenen Forschungspraxis zu benutzen. Man schreibt die Texte mit Textverarbeitungsprogrammen und benutzt den Computer für die unterschiedlichsten Aufgaben: Schriftverkehr, Seminarpläne, Literaturlisten, Datenbanken für die Literaturrecherche, Internet und die Erstellung von Camera-ready Manuskripten und Tagungsbänden. Betrachten wir etwas genauer, welche Formen von Textbearbeitung mit Textverarbeitungsprogrammen auf dem derzeitigen Stand der Technik möglich sind. Ein Programm wie Microsoft Word vereinigt in sich verschiedene Programmroutinen: einen Editor, mit dem man Texte am Bildschirm eingeben und modifizieren kann, ein Formatierungsmodul, das die Darstellung am Bildschirm und die Form des Ausdrucks steuert (z.B. die Seitenränder, die Zeilenabstände, die benutzten Schriftarten und Schriftgrößen) und ein User Interface, das bestimmt, was der Benutzer am Bildschirm sieht, auf welche Weise er die Programmfunktionen steuert und das ihn hierbei wirkungsvoll unterstützt, beispielsweise indem es so genannte Assistenten zur Verfügung stellt. Textverarbeitungsprogramme haben die Art und Weise, wie wir Texte erstellen, vollständig verändert: Heute kann man an jede beliebige Stelle eines Textes springen und Abschnitte einfügen oder löschen, wobei die Programme automatisch alle folgenden Seiten neu
Texte im Textverarbeitungsprogramm (Word)
33
formatieren. Wörter oder Zeichenketten lassen sich global im gesamten Text ersetzen – eine Funktion, die vor allem für die Anonymisierung von Interviews oder Beobachtungsprotokollen außerordentlich nützlich ist, denn so lassen sich mit einem einzigen Befehl alle Erwähnungen einer Person verändern: aus „Dr. Schulte“ wird überall „Dr. A“. Eine Vielzahl weiterer automatischer Funktionen steht zur Verfügung. So können Inhaltsverzeichnisse erstellt und Fußnoten verwaltet werden. Rich-Text-Format und DOC-Format Im Gegensatz zum DOC-Format, das ein proprietäres Format der Firma Microsoft ist, stellt das Rich-Text-Format (RTF) ein Austauschformat für Texte dar. Es dient dazu, formatierte Texte zwischen Textverarbeitungsprogrammen verschiedener Hersteller auszutauschen. Dieses Format ist klar definiert und kann um neue Kommandos erweitert werden. Trifft ein Programm auf ein unbekanntes RTF-Kommando, so wird dieses ignoriert und übersprungen. Beim Austausch von RTF-Dateien bleiben die wesentlichen Formatierungsmerkmale erhalten, z.B. Schriftgröße und Schriftart, Farbe, Fettdruck, Kursivdruck und Unterstreichungen. Im Kern ist eine RTF-Datei eine Textdatei, in der die entsprechenden Formatierungsoptionen eingefügt sind, so sieht beispielsweise der obige Satz (mit dem fettgedruckten Wort Fettdruck) im RTF-Format wie folgt aus: {\insrsid11288219 Das Rich-Text-Format (RTF) ist ein von Microsoft eingef\'fchrtes Austauschformat f\'fcr Texte, das dazu dient formatierte Texte zwischen Textverarbeitungsprogrammen verschiedener Hersteller auszutauschen. Bei diesem Austausch bleiben wesentliche Formatierungsmerkmale erhalten, z.B.: Schriftgr\'f6\'dfe und Schriftart, Farbe, }{\b\insrsid11288219\charrsid293648 Fettdruck}{\insrsid11288219 , Kursivdruck und Unterstreichungen\par }
Abb. 5: Darstellung eines Textes im RTF-Format
Sowohl das RTF- wie das DOC-Format unterstützen OLE (Object Linking and Embedding), d.h. Bilder, Grafiken, Microsoft Office Objekte wie Excel-Tabellen oder Powerpoint Präsentationen, ja sogar Audio- und Videodateien können in die Datei eingebettet werden. Es kommt allerdings darauf an, ob das Programm, in welchem die RTF-Datei geöffnet wird, OLEFunktionen unterstützt, ansonsten werden diese OLE Objekte einfach ignoriert. In Vergleichen von verschiedenen QDA-Programmen wird häufig auch das unterstützte Textformat aufgeführt. Man sollte dann beachten, dass unter Rich-Text-Format durchaus verschiedenes verstanden werden kann, je nachdem ob und welche Art von eingebetteten Objekten erlaubt ist. Bei
34
Die Texte: Transkription, Vorbereitung und Import
eingebetteten Grafiken und Fotos ist zu beachten, dass diese im Rich-TextFormat als Bitmap gespeichert werden und so beträchtlich größer werden können als die ursprüngliche komprimierte Dateiform als JPG- oder GIFDatei. Hier kann es sich für die Arbeit als nützlich erweisen, wenn nicht die Dateien selbst eingebettet werden, sondern nur ein Link auf die Datei verweist, so dass diese nur bei Bedarf aufgerufen wird. In diesem Buch geht es vorrangig um die computergestützte Analyse von Texten, insofern wird an dieser Stelle die Vorbereitung von Dateien mit Multimedia-Elementen nicht weiter beschrieben.
2.3 Textvorbereitung Bei der Vorbereitung von Texten für die Analyse mithilfe eines QDA-Programms müssen folgende Punkte beachtet werden: Erstens, welches Textformat von der QDA-Software unterstützt wird, z.B. RTF-, DOC- oder Nur-Text-Format. Zweitens, ob die Software auch spezielle Textelemente wie Word-Tabellen darstellen und codieren kann. Drittens, ob die Definition von Texteinheiten erforderlich ist, d.h. ob eine bestimmte Eingabesyntax eingehalten werden muss. Viertens, welche Art der Transkription und welche Transkriptionsregeln gewählt werden (dies ist nur dann relevant, wenn Texte zunächst verschriftlicht werden müssen). Fünftens, ob eine Vorstrukturierung der Texte und eine Vorab-Codierung vorgenommen werden soll (vorausgesetzt die QDA-Software unterstützt den Import solcher strukturierter Texte). Unterstütztes Textformat Wenn das QDA-Programme lediglich das Nur-Text-Format unterstützt. sind die Formatierungsmöglichkeiten aufgrund des ASCII-Zeichensatzes stark eingeschränkt. Diese Beschränkungen sollte man bereits bei der Transkription bzw. der Texterfassung unbedingt berücksichtigen. Man kann bspw. keine speziellen Zeichenformatierungen verwenden (Fettdruck, Unterstrichen, Kapitälchen etc.) und nicht mit verschiedenen Schriftarten und Schriftgrößen arbeiten. Zweifellos bereitet es die geringsten Probleme, wenn die QDA-Software das DOC- oder das RTF-Format mit OLE unterstützt. In diesem Fall lässt sich der Text aus dem Textverarbeitungsprogramm (fast) ohne Verände-
Textvorbereitung
35
rung übernehmen, auch Grafiken und Fotos bleiben erhalten. Zu bedenken ist allerdings, dass hochauflösende Fotos im RTF-Format beträchtlichen Speicherplatz benötigen, so dass man sich tunlichst Beschränkungen in dieser Hinsicht auferlegen sollte. So kann ein Foto, das im hoch komprimierten JPG-Format 200 Kilobyte groß ist, im RTF-Format leicht auf mehrere Megabyte anwachsen. Wenn Fotos benutzt werden, beispielsweise um Bilder von Befragten oder Gegebenheiten im Untersuchungsfeld zu dokumentieren, ist es ratsam, die Bilder in einer bildschirmgerechten Auflösung (72 dpi) und nicht als hoch auflösende Fotos zu speichern. Unicode Im RTF-Format ist die Verwendung unterschiedlicher Schriftarten und Ländercodes unproblematisch, d.h. man kann auch ohne weiteres französische oder skandinavische Texte analysieren. Weitaus schwieriger gestaltet sich die Auswertung von Texten mit nicht-westeuropäischem Zeichensatz, wie z.B. von arabischen, hebräischen, koreanischen oder chinesischen Texten. Solche Texte können zwar von vielen Programmen mit RTF- oder DOC-Unterstützung dargestellt werden, sollen aber auch die Kategoriensysteme und die Textsuche mit solchen Sprachen arbeiten, ist es erforderlich, dass die QDA-Software den Unicode-Zeichensatz unterstützt. Derzeit ist dies nur bei MAXQDA und NVivo uneingeschränkt der Fall. Definition von Text- bzw. Analyseeinheiten Leser, die mit der quantitativ orientierten sozialwissenschaftlichen Inhaltsanalyse (vgl. Merten 1995, Früh 2004, Wirth/Lauf 2001) vertraut sind, wissen, dass dort vor Beginn der Analyse die Bestimmung von Texteinheiten erfolgen muss. Die Texteinheit entspricht der Analyseeinheit in der späteren statistischen Auswertung, d.h. sie ist die Bezugsgröße, innerhalb welcher später codiert wird (vgl. Klein 1997) – technisch gesprochen handelt es sich um eine Zeile der späteren Datenmatrix. Die Wahl der Analyseeinheit stellt also eine Vorab-Festlegung der möglichen Anzahl der Codierzeilen und damit der Codiertiefe und der Differenziertheit der Auswertung dar. Eine Texteinheit kann etwas sehr Verschiedenes bedeuten: ein Buch bei der Inhaltsanalyse von Büchern, eine Zeitschriftenausgabe, einen Zeitschriftenartikel, vielleicht nur einen Absatz in einem solchen Artikel oder gar nur einen einzelnen Satz. Texteinheiten können also verschieden definiert werden und stark unterschiedlichen Umfang besitzen. Im Gegensatz zu den ri-
36
Die Texte: Transkription, Vorbereitung und Import
giden Vorschriften, die die Programme zur quantitativen Inhaltsanalyse aufweisen, sind QDA-Programme weitaus liberaler: MAXQDA und ATLAS.TI verlangen keine Vorab-Festlegung von Texteinheiten, d.h. ähnlich wie beim manuellen Markieren von Textstellen mit einem Text-Marker können Anfang und Ende eines Segmentes frei bestimmt werden. Selbstverständlich kann es auch aus analytischen Gründen sinnvoll sein, Texteinheiten zu definieren, prototypisch bei der Analyse von Gruppendiskussion oder Fokusgruppen, wo jeder Sprechakt als eine Einheit betrachtet werden kann. In solchen Fällen ist es empfehlenswert, bereits vor dem Importieren eines Textes in die QDA-Software die gewünschte Struktur des Textes herzustellen. Wie bereitet man die Daten für die Analyse mit QDA-Software vor? Die Antwort auf diese Frage hängt von zwei Faktoren ab, erstens von der Art der Daten, die man auswerten möchte, und zweitens von den Möglichkeiten der benutzten Software (bzgl. des unterstützten Formats, der einbettbaren Objekte und der Vorab-Strukturierung). Idealtypisch lassen sich vier Datenarten unterscheiden: Typ A: Vorhandene Texte, die bereits digitalisiert sind und keine besondere Struktur aufweisen Typ B: Vorhandene Texte, die erst digitalisiert werden müssen, indem sie eingescannt werden Typ C: Texte, die nur als Audiodatei, als Tonband- oder Videoaufnahme vorliegen und transkribiert werden müssen Typ D: Texte, die formularähnlich aufgebaut sind bzw. eine innere Gliederung aufweisen, wie etwa die Ergebnisse einer Literaturrecherche in Datenbanken oder Antworttexte auf offene Fragen in Interviews Texte des Typs A erfordern keine weitergehenden Überlegungen. Hier ist nur eine der gewählten Analysesoftware entsprechende Umformatierung erforderlich, also beispielsweise das Speichern als Dateityp RTF oder DOC. Typ B-Texte erfordern zunächst das Einscannen. Im nächsten Schritt der Textvorbereitung ist dann zu entscheiden, ob es sich um Texte des Typs A oder D handelt. Typ C ist ein Texttyp, der in der qualitativen Sozialforschung besonders häufig auftritt. Vor allem offene Interviews werden sehr oft als Datenerhebungsverfahren eingesetzt, sei es in Form von narrativen Interviews, fokussierenden oder leitfadengestützten Interviews. Auch die Daten aus Grup-
Texte einscannen
37
penerhebungsverfahren wie der Gruppendiskussion oder Fokusgruppen liegen meist nur als Tonbandmitschnitt vor. Texte des Typs D weisen eine innere Struktur auf, die für die Auswertung von Belang ist. Solche Texte verlangen eine Reihe von vorbereitenden Maßnahmen, jedenfalls dann, wenn die QDA-Software dazu in der Lage ist, vorab strukturierte Dokumente einzulesen und automatisch Zuordnungen zu den Strukturelementen vorzunehmen. PDF-Dateien Mittlerweile sind QDA-Programme auch in der Lage, Texte im PDFFormat zu verarbeiten. Das PDF-Format ist ein plattformunabhängiges Format, das ursprünglich für Zwecke des Layouts und Druckens entwickelt wurde. Dateien im PDF-Format lassen sich gleichgültig auf welchem Bildschirm und unter welchem Betriebssystem immer originalgetreu wiedergeben. Für die qualitative Sozialforschung, wo in den meisten Fällen durch eigene Erhebungen Daten neu erzeugt werden, spielt das PDF-Format eigentlich keine Rolle, allenfalls wenn bereits in PDF vorhandene Dokumente analysiert werden sollen. PDF basiert auf der Seitenbeschreibungssprache Postskript und dies zieht eine Reihe von Konsequenzen nach sich, u.a. dass jeweils nur eine Seite bearbeitet werden kann und damit auch alle Codierungen, die man vornimmt, Anfang und Ende auf der gleichen Seite haben müssen. Ferner ist es im Rahmen des Arbeitens mit QDA-Software nicht möglich, PDF-Dokumente zu editieren und zu verändern bzw. zu ergänzen. Wenn man die Wahl hat, ist das Arbeiten mit Dateien im DOC- oder RTF-Format also vorzuziehen. Das gilt bspw. wenn man im Projekt selbst Interviews transkribiert: In diesem Fall wäre die Formatierung als PDF ganz und gar kontraproduktiv. Die PDF-Option macht es allerdings für neue Anwendungsfelder interessant, QDA-Software bei der Analyse einzusetzen.
2.4 Texte einscannen Texte, die nur in Papierform und nicht digitalisiert vorliegen, müssen zunächst eingescannt werden. Eine dafür gut geeignete Software ist das Programm OmniPage zur optischen Zeichenerkennung (Optical Character Recognition, kurz: OCR). OmniPage liest Texte als Bilddatei ein und erkennt aus diesem Bild die einzelnen Zeichen, so dass sie anschließend in Textver-
38
Die Texte: Transkription, Vorbereitung und Import
arbeitungsprogrammen bearbeitbar sind. Auch PDF-Dateien können als Grundlage verwendet werden. Ferner können verschiedene Sprachen eingestellt werden, so dass beispielsweise ein englischer Text ebenso erkannt werden kann wie ein deutscher.
2.5 Texte transkribieren, Transkriptionsregeln und Transkriptionssysteme Unter Transkription versteht man in der empirischen Sozialforschung das Verschriftlichen verbaler und ggf. auch von nonverbaler Kommunikation. Grundlage ist in der Regel eine Audio- oder Videoaufzeichnung. Wie genau und detailliert man transkribiert, hängt vom Untersuchungszeck und den Forschungsfragen ab. Die Weiterentwicklungen im Computerbereich eröffnen auch für die Transkription und die Zugänglichkeit der Originalaufzeichnung neue Möglichkeiten. Früher wurden bspw. Interviews zumeist auf Kassette aufgenommen und mit einem üblichen Transkriptionsgerät und Fußschalter abgetippt. Diese Funktionalität ist heute auch mit dem Computer möglich. Die Aufnahme kann mit geeigneten digitalen Aufnahmegeräten vorgenommen werden, sofern diese ein Mikrofon integriert haben oder den Anschluss derselben ermöglichen. Die Aufnahme erfolgt im MP3- oder WMA-Format, die Qualität ist allgemein gut bis sehr gut. Natürlich lässt sich auch klassisch aufgenommenes Material am Computer digital umwandeln, dieser Vorgang dauert aber recht lange (entsprechende Programme sind kostenfrei erhältlich). Der Vorteil der digitalen Verfügbarkeit der Interviewdaten ist dabei nicht nur die erleichterte Archivierung und Erhebung der Daten, sondern auch die leichtere Verbreitung (via Computer) und die stetige Verfügbarkeit des Originalmaterials. Für die Transkription des digitalen Tonmaterials am Computer existieren eine Reihe von Tools, die das Abspielen der Tondokumente ermöglichen (z.B. Winamp oder den Mediaplayer von Microsoft). Allerdings fehlen hier Funktionalitäten, die ansonsten bei Transkriptionsgeräten üblich und notwendig sind, beispielsweise das automatische Zurückspulen um einige Sekunden, die Änderung der Abspielgeschwindigkeit oder die genaue zeitliche Verortung durch Zeitmarken. Solche Funktionalität findet sich in Spezialsoftware wie f4, Transana, Transcriber, ExpressScribe u.a. Die an der
Texte transkribieren, Transkriptionsregeln und Transkriptionssysteme
39
Universität Marburg entwickelte kostenfreie Software f4 stellt alle notwendigen Funktionen bereit und vereinfacht die Transkription von digitalem Audio- und Videomaterial wesentlich4. Audiodaten, die mit f4 transkribiert werden, können mit Zeitmarken versehen werden. Nach dem Import des Transkriptes in MAXQDA kann durch einen Klick auf eine Zeitmarke direkt die entsprechende Audiostelle abgespielt werden. So behält man einen einfachen Zugang zum Originalmaterial. Was machen Forscher, wenn sie ein Interview geführt und dies ggf. als Audiodatei oder auf Kassette aufgenommen haben und mit der Analyse beginnen wollen? Es lassen sich vier Varianten der weiteren Vorgehensweise bei der Interviewauswertung unterscheiden, die mit mehr oder weniger großem Arbeitsaufwand verbunden sind: 1. Gedächtnisbasierte Auswertung, d.h. die Analyse geschieht auf der Basis des eigenen Gedächtnisses und der während des Interviews erstellten stichwortartigen Notizen 2. Protokollbasierte Analyse, d.h. es wird ein schriftliches summierendes Protokoll unmittelbar nach dem Interview erstellt 3. Bandbasierte Analyse, d.h. es wird ein abgekürztes Transkript angefertigt, das nur einen Teil des Originaltextes enthält und ansonsten den Inhalt des Bandes paraphrasiert 4. Transkriptbasierte Analyse, d.h. es wird eine vollständige Transkription erstellt, wobei der Genauigkeitsgrad der Transkription variieren kann Die erste Variante, die gedächtnisbasierte Auswertung, ist eher für den Journalismus als für die Wissenschaft charakteristisch. Die zweite Variante, das Arbeiten mit einem vom Interviewer erstellten Interviewprotokoll, war im Vor-Computer-Zeitalter die Regel. Diese protokollbasierte Form der Auswertung ist heute – teilweise zu Unrecht – fast in Vergessenheit geraten. So stellt sich in der qualitativen Sozialforschung heute eigentlich nur die Entscheidung zwischen den beiden letzten Varianten, d.h. die Frage lautet: Soll man wirklich alles transkribieren und falls ja, in welcher Form, nach
4 Diese Software ermöglicht sämtliche Funktionen eines klassischen Transkriptionsgerätes. Weitere Informationen dazu und den Download der Software findet man unter www.audiotranskription.de. Zusätzlich findet sich dort auch eine Aufnahmesoftware für Interviews (z.B. mit dem Laptop). Digitale Aufnahmegeräte und ein Fußschalter zur leichteren Bedienung sind gegen Gebühr erhältlich.
40
Die Texte: Transkription, Vorbereitung und Import
welchen Transkriptionsregeln? Die Beantwortung der Frage hängt zuallererst von finanziellen Faktoren ab, denn Texte zu transkribieren ist zeitaufwändig und verursacht erhebliche Kosten. Wie viel Stunden genau anfallen, hängt in erster Linie vom gewählten Genauigkeitsgrad der Transkription ab. Auch für einfache Transkriptionen beträgt der benötigte Zeitaufwand etwa das fünf- bis zehnfache der Interviewzeit. Wenn die Gleichzeitigkeit der Sprechenden sowie Dialektfärbung und Intonation dokumentiert werden sollen, können die Kosten sich weiter vervielfachen. Häufig wird man deshalb selektiv vorgehen und nicht das gesamte Material transkribieren. Strauss/Corbin (1996) empfehlen für Projekte, die mit der Methode der Grounded Theory arbeiten, die im folgenden Kasten wiedergegebene Vorgehensweise bei der Auswahl des zu transkribierenden Materials.
TIPP: Besser zu viel als zu wenig „Die Vorgehensweise gemäß dem Analysestil der Grounded Theory ist normalerweise wie folgt: Die allerersten Interviews oder Feldnotizen sollten vollständig transkribiert und analysiert werden, bevor man das nächste Interview oder die nächste Feldbeobachtung durchführt. Das frühe Kodieren leitet die folgenden Feldbeobachtungen und/oder Interviews, wie später noch ausgeführt wird. Zu einem späteren Zeitpunkt, wenn die Theorie sich entwickelt, mag es sein, dass Sie die Tonbänder nur abhören und ausschließlich die Sätze, Abschnitte oder Textstellen transkribieren möchten, die mit der entstehenden Theorie in Zusammenhang steht. (Am Anfang der Studie ist man sich nicht sicher, was dazugehört und was nicht. Deshalb ist es besser, alles zu transkribieren, da sonst wichtige Daten verloren gehen könnten.) Das Transkribieren dieser ausgewählten Materialteile erspart einem allerdings nicht unbedingt späteres Transkribieren, falls eine zusätzliche oder detaillierte Analyse notwendig erscheint. (...) Letztendlich muß jeder selbst entscheiden, in welchem Umfang er die Interviews und Feldnotizen transkribiert, ausgenommen, ein Prüfungsausschuss oder Betreuer besteht auf etwas anderem. Sie müssen festlegen, was Sinn und Zweck Ihrer Studie ist und welchen zusätzlichen analytischen (sowohl theoretisch als auch „psychologisch“ sensiblen) Beitrag bereits transkribierte versus nicht transkribierte Teile des Materials zur gesamten Untersuchung leisten. Eine weitgehend vollständige Transkription mag notwendig sein, um die erwünschte Dichte einer Theorie zu erlangen. Darüber hinaus kann man eine vollständige Transkription anstreben, wenn man ausreichend Geld zur Verfügung hat, um die Transkription der Bänder zu bezahlen. Unabhängig davon, ob man die Tonbänder vollständig oder nur teilweise transkribiert, ist es unerlässlich, sie abzuhören. Abhören und Transkribieren sind wesentlich für eine vollständige und vielfältige Analyse. Eine abschließende Bemerkung dazu: Besser zu viel als zu wenig! Letztendlich liegt aber die Verantwortung und Entscheidung bei jedem selbst.“ (Strauss/Corbin 1996: 14 f.)
Texte transkribieren, Transkriptionsregeln und Transkriptionssysteme
41
In den Sozialwissenschaften ist es zwar weitgehend Standard, offene Interviews aufzuzeichnen, das dann folgende Verfahren folgt bislang aber keinen streng fixierten Regeln, so lässt sich insbesondere nicht von der Existenz von Transkriptionsstandards sprechen, vielmehr existieren verschiedene Transkriptionsregeln mit unterschiedlicher Genauigkeit nebeneinander. Transkriptionssysteme sind Regelwerke, die genau festlegen, wie gesprochene Sprache in eine fixierte Form übertragen wird. Dabei kommt es in jedem Fall zu Informationsverlusten. Je nach Ziel und Zweck der Analyse sind solche Verluste hinnehmbar oder aber nicht akzeptabel. Transkriptionssysteme unterscheiden sich vor allem dadurch, ob und wie verschiedene Textmerkmale in der Transkription berücksichtigt werden. Solche sind u.a.: Sprachliche Tönungen und Betonungen Lautstärke Dehnungen Sprechpausen und ihre Länge Überlappungen zwischen den Äußerungen verschiedener Sprecher Dialektfärbungen Gestik, Mimik und paraverbale Äußerungen wie Lachen, Hüsteln, Stöhnen x Nicht vollständig ausgesprochen Worte x Unverständliche bzw. nicht genau verständliche Äußerungen x x x x x x x
Auch äußere Merkmale der Interviewsituation können eine Rolle spielen und für die Auswertung von Belang sein, z.B. dass jemand den Raum betritt oder verlässt, dass das Telefon klingelt und dergleichen mehr. Die Methodenliteratur schenkt dem lange vernachlässigten Themenfeld Transkription mittlerweile mehr Aufmerksamkeit (vgl. Kowall/O’Conell 2000, Flick 2007a: 379 ff., Lamnek 2005: 403 ff., Mayring 2002: 89 ff.). Dittmars 2002 verfasstes Lehrbuch „Transkription. Ein Leitfaden mit Aufgaben für Studenten, Forscher und Laien“, aus der Perspektive eines Sprachwissenschaftlers geschrieben, enthält zahlreiche auch für Sozialwissenschaftler wertvolle Hinweise. Er formuliert folgende Leitfragen für die Auswahl eines Transkriptionssystems (ebd.: 83-85): 1. Definiere den Untersuchungszielen angemessene, optimale Verschriftlichungskategorien.
42
Die Texte: Transkription, Vorbereitung und Import
2. Mache dein System zugänglich (z.B. so leicht und einfach lesbar wie möglich). 3. Wähle stabile und robuste Zeichen! 4. Wähle dein Zeicheninventar nach den Prinzipien der Ökonomie aus! 5. Gestalte dein System so, dass es für verschiedene Arbeitszusammenhänge und Funktionen anpassungsfähig ist! 6. Gestalte dein System so, dass es für EDV-gestützte Analysen von sprachlichen und kommunikativen Funktionen leicht und angemessen verwendet werden kann! Die von Dittmar ausführlich betrachteten Transkriptionssysteme fokussieren vornehmlich Dialoge, Diskurse und Konversationen. Es handelt sich um folgende Systeme: x x
x
x x x
Transkriptionsdesign der formalen Konversationsanalyse. Ein System, das die sequentielle Struktur von Redebeiträgen abbildet. HIAT (HalbinterpretativeArbeitsTranskription)5. Hier ist die Transkription nach dem Muster der Partitur als eine Endloszeile organisiert, so dass die Synchronizität von Sprechakten erhalten bleibt. Diskurs-Datenbank (DIDA)6. Ein am Institut für deutsche Sprache entwickeltes System, das ebenfalls die Aufzeichnung mehrerer Sprecher zum Ziel hat. Diskurstranskription nach du Bois – ein System mit leicht erlernbaren Symbolen für die Wiedergabe von Diskursen. Gesprächsanalytisches Transkriptionssystem (GAT)7 – ein linguistisch orientiertes System. Codes for human analysis of transcripts (CHAT)8 – im Kontext der Spracherwerbsforschung entwickelt, ebenfalls linguistisch orientiert.
Drei dieser aus dem Bereich der Sprachwissenschaften und der Linguistik stammenden Systeme sind speziell für sehr genau umrissene Anwendungen konzipiert, nämlich für Diskurse. Die Systeme sind relativ aufwändig und auf detailgenaue Aufzeichnung konzentriert. In der qualitativen Sozialforschung sind die Anforderungen in der Regel deutlich geringer und derart 5 6 7 8
www.daf.uni-muenchen.de/HIAT/HIAT.htm www.ids-mannheim.de/prag/dida/ www.fbls.uni-hannover.de/sdls/schlobi/schrift/GAT/gat.pdf www.mpi.nl/ISLE/overview/overview_frame.html
Texte transkribieren, Transkriptionsregeln und Transkriptionssysteme
43
genaue Notationssysteme werden nur relativ selten verwendet. Im Allgemeinen verzichtet man etwa auf die genaue Protokollierung von Dialekten und sprachlichen Färbungen, auch muss nicht jedes „ähh“ und „mhm“ protokolliert werden. Der Text wird insgesamt geglättet. Mayring unterscheidet zwischen drei Techniken der wörtlichen Transkription (Mayring 2002: 91): der Verwendung des internationalen phonetischen Alphabets, der literarischen Umschrift, bei der auch Dialektfärbungen im gebräuchlichen Alphabet wiedergegeben werden und x der Übertragung in normales Schriftdeutsch. x x
Die erste Variante wird in den Sozialwissenschaften nur in Ausnahmefällen praktiziert. Den häufigsten Fall stellt die Übertragung in normales Schriftdeutsch dar, wobei mitunter auch Dialektfärbungen mit protokolliert werden. Man muss sich aber darüber im Klaren sein, dass ein so transkribierter Text weitaus schwieriger zu lesen ist. Wenn man etwa Sätze zu entziffern hat wie „Da ka ma ja, hör ma, da ka ma jarkeener sehn, wenn ick jetzt mit meiner Frau inner Ecke liege. Und deshalb bin ick dafür, dass die sechzig Matratzn. Is zu viel, Fritz, ja? Stimmt, die – alle, ick meine für die Menge, für die Größe des Raumes, aba angebracht sin se trotzdem, könn ruhich rinnjehen.“ (vgl. Mayring 2002: 91), dürfte sich doch die Frage stellen, ob sich die für die Transkription und Auswertung entstehenden Zusatzkosten wohl rentieren werden. Speziell bei der computerunterstützten Auswertung von Interviewdaten haben sich allerdings einige, frühere Transkriptionsregeln als kontraproduktiv erwiesen. Bspw. wird ein gedehnt gesprochenes Wort, dass nach älteren Transkriptionsregeln so geschrieben wird „W o r t“, also mit Leerzeichen zwischen den Buchstaben, von Suchfunktionen der Textanalyseprogramm nicht mehr erfasst. Für ein Evaluationsprojekt haben wir ein bewusst einfaches und schnell erlernbares Set von Transkriptionsregeln entworfen (Kuckartz/Dresing/ Rädiker/Stefer 2007: 27), das die spätere Auswertungsarbeit am Computer berücksichtigt. Dabei wurden vorhandene und häufig genutzte Transkriptionssysteme als Basis verwendet und geeignet modifiziert:
44
Die Texte: Transkription, Vorbereitung und Import 1. Es wird wörtlich transkribiert, also nicht lautsprachlich oder zusammenfassend. Vorhandene Dialekte werden nicht mit transkribiert.
2. Die Sprache und Interpunktion wird leicht geglättet, d.h. an das Schriftdeutsch angenähert. Bspw. wird aus „Er hatte noch so‘n Buch genannt“ -> „Er hatte noch so ein Buch genannt“.
3. Alle Angaben, die einen Rückschluss auf eine befragte Person erlauben, werden anonymisiert.
4. Deutliche, längere Pausen werden durch Auslassungspunkte (...) markiert. 5. Besonders betonte Begriffe werden durch Unterstreichungen gekennzeichnet. 6. Zustimmende bzw. bestätigende Lautäußerungen der Interviewer (Mhm, Aha etc.) werden nicht mit transkribiert, sofern sie den Redefluss der befragten Person nicht unterbrechen.
7. Einwürfe der jeweils anderen Person werden in Klammern gesetzt. 8. Lautäußerungen der befragten Person, die die Aussage unterstützen oder verdeutlichen (etwa Lachen oder Seufzen), werden in Klammern notiert.
9. Absätze der interviewende Person werden durch ein „I“, die der befragte Person(en) durch ein eindeutiges Kürzel, z.B. „B4:“, gekennzeichnet.
10. Jeder Sprecherwechsel wird durch zweimaliges Drücken der Enter-Taste, also einer Leerzeile zwischen den Sprechern deutlich gemacht, um die Lesbarkeit zu erhöhen.
Abb. 6: Transkriptionsregeln für die computerunterstützte Auswertung
Dieses Transkriptionssystem lässt sich ohne Probleme umsetzen, Resultat sind Transkripte mit einem Erscheinungsbild wie in der folgenden Abbildung. I: Also Sie gehen montags in die Vorlesung und dienstags in die Übung und donnerstags ins Tutorium. (B3: Genau.) Also drei Tage der Woche gehören der Statistik schon mal, so ungefähr. B3: Genau. Also zumindestens dieses Jahr und letztes Jahr waren es eher zwei. I: Ja, es geht aber auch um dieses Jahr. Das Letzte brauchen Sie gar nicht (B3: Okay, alles klar) groß sich irgendwie in Erinnerung rufen. Also, besuchen Sie Arbeitsgruppen? Selbst, haben Sie irgendwie einen Freundeskreis oder einen Bekanntenkreis, in dem Sie was lernen, sich treffen? B3: Ja, ja, jetzt, aber jetzt zur Klausur hin eben. (I: Ah ja) Ja, leider vorher auch nicht (lacht). I: Treffen Sie sich regelmäßig? B3: Nee, eben jetzt drei oder vier Mal haben wir uns getroffen.
Abb. 7: Für die computerunterstützte Auswertung optimiertes Transkript
Texte transkribieren, Transkriptionsregeln und Transkriptionssysteme
45
Die Transkription von paraverbalen Äußerungen kann man so vornehmen, dass dafür bestimmte Zeichen benutzt werden, die sonst im Text nicht vorkommen, wie z.B. die Zeichen „#
= ganz kurzes Absetzen einer Äußerung
..
= kurze Pause
...
= mittlere Pause
(Pause)
= lange Pause
mhm
= Pausenfüller, Rezeptionssignal
(.)
= Senken der Stimme
(–)
= Stimme in der Schwebe
(’)
= Heben der Stimme
(?)
= Frageintonation
(h)
= Formulierungshemmung, Drucksen
(k)
= markierte Korrektur (Hervorheben der endgültigen Version, insbesondere bei Mehrfachkorrektur)
sicher
= auffällige Betonung
sicher
= gedehnt
(Lachen),
= Charakterisierung von nichtsprachlichen Vorgängen bzw. Sprechweise, Tonfall; (geht raus), die Charakterisierung steht vor den entsprechenden Stellen und gilt bis zum Äußerungsungsende, bis zu einer neuen Charakterisierung oder bis +
&
= auffällig schneller Anschluss
(..), (...)
= unverständlich
(Kommt es?) = nicht mehr genau verständlich, vermuteter Wortlaut A: ªaber da kam ich nicht weiter B: ¬ich möchte doch sagen = gleichzeitiges Sprechen, u. U. mit genauer Kennzeichnung des Einsetzens
Abb. 8: Transkriptionsregeln nach Kallmeyer/Schütze
Das Notationssystem von Kallmeyer/Schütze (Mayring 2002: 93) ist bezüglich der Transkription von sprachlichen Besonderheiten ausführlicher als
46
Die Texte: Transkription, Vorbereitung und Import
das oben dargestellte, enthält jedoch keine speziellen Hinweise für die computerunterstützte Auswertung. Auch dieses Transkriptionssystem lässt sich für das Rich-Text-Format ohne Änderungen verwenden. Die Wahl des Transkriptionssystems hat sich nach der Art der geplanten Analyse zu richten. Plant man eine Konversationsanalyse, ist man viel stärker an Details wie „ähs“ und „mhms“ und der genauen Transkription von Pausen interessiert als dies bei einer normalen Interviewstudie der Fall ist. Gut beraten ist man also, sich jeweils die Fragen „Muss das unbedingt transkribiert werden?“ und „Will ich die so festgehaltenen Phänomene überhaupt später interpretieren?“ zu stellen. In der qualitativen Sozialforschung beginnt die Auswertung eines Interviews im Grunde bereits vor der Transkription: Man entwickelt bereits während des Interviews oder beim Abhören des Bandes Auswertungsideen und Hypothesen, hat die Interviewsituation und eventuelle Besonderheiten im Kopf oder schon bestimmte Auffälligkeiten im Team besprochen. All dies ist es wert, festgehalten zu werden. Am besten aber nicht in der Transkription selbst, sondern in Form eines Memos, das man über das Interview schreibt. Insgesamt sollten die Transkriptionsregeln so gewählt werden, dass man sich bei der späteren Arbeit mit dem QDA-Programm die Stärken des Computers zu Nutze machen kann, nämlich dessen Fähigkeiten, in Sekundenschnelle bestimmte Zeichen oder Zeichenketten aus Hunderten von Textseiten herausfinden zu können. Deshalb ist es, gleichgültig welches Transkriptionssystem bevorzugt wird, von entscheidender Bedeutung, dass die Bezeichnungen – sei es zur Kennzeichnung des Sprechers, einer bestimmten Frage des Leitfadens oder eines bestimmten Abschnittes der Befragung – immer durch den gesamten Text hindurch beibehalten werden: also beispielsweise zur Kennzeichnung des Interviewers „I:“. und nicht das eine mal „INTERV:“ oder „Interviewer:“ Für die spätere lexikalische Suche ist diese Einheitlichkeit der Schreibweise eine unbedingte Voraussetzung. Ferner muss die Sprecherbezeichnung für den Fall, dass diese auch im Text vorkommen kann, in Großbuchstaben transkribiert werden, also „CARSTEN:“ anstelle von „Carsten:“. Am Ende eines Sprecherbeitrags sollte ein Zeilenumbruch und eine zusätzliche Leerzeile eingefügt werden (vgl. Abb. 7). Zeilenumbrüche sollten aber auf keinen Fall zwischen der Sprecherbezeichnung und dem folgenden Text platziert werden, ansonsten ist die automatische Zuordnung des Sprechers
Texte transkribieren, t Transkription nsregeln und Transkriptionss T systeme
47
zu Teextabschnitten n nicht mehrr möglich. Aus A optischen n Gründen uund der besserren Unterglieederung wegeen ist es auch h bei längereen Textabsch hnitten, wie siie etwa bei narrativen n In nterviews vorrkommen kö önnen, empfeehlenswert, gelegentlich g Z Zeilenumbrü che einzufüggen. Ferner ist die Notwendigkei N it der Anonym misierung vo on Forschunggsdaten zu beachten. Aus arbeitsökono omischen Grründen solltee die Transkkription hst wörtlich vorgenomm men werden. Eine E sofortigge Anonymissierung zunäch ist nicht empfehlen nswert, weil dies d die Transskribierenden n überfordertt. Nach K der Texte kann die Anonymisierung erfo olgen, d.h. beiispielsder Korrektur weise alle im Interrview vorkom mmenden Namen N durch Decknamen n ersetM Orten un nd Daten veerfährt man ähnlich. ä Aucch diese müsssen so zen. Mit veränddert werden, dass direkte Rückschlüssee nicht mehr möglich sindd. Orte lassen sich durch Platzhalter P ersetzen, welch he noch einigge für das Verrständnis weesentliche Bedeutungen trransportieren n, wie etwa „D Dorf“, „Klein nstadt“ oder beim b Datum m „Sommer“, „Winter dess vorangegan ngenen Jahrees“ etc. Eine entsprechend e de Überblicksstabelle für die d eigene En ntschlüsselungg sollte erstellt werden. Waas muss bei der d Transkrip ption von Text noch beacchtet werden,, damit dieser mit einem QDA-Progrramm analysiiert werden kann? Auch h dann, wenn das gewähltee QDA-Proggramm das Editieren von Text erlaubtt, empT mit Hiilfe eines Texxtverarbeitun ngsprofiehlt es sich in deer Regel, die Texte m zu schreibeen und vor dem d Import sehr s sorgfältiig zu lesen un nd ggf. gramm zu ko orrigieren. Hat der Text das endgülttige Ausseheen, wird er iim gewünscchten Importtformat der QDA-Softwa Q are gespeicherrt. Zum Kon nvertieren in n das RTF-F Format wähltt man in Wo ord den Menübefehl „D Datei > Speich hern unter“ und u stellt als Dateityp D „Ricch Text Form mat (*.rtf)“ ein n.
Abb. 9: Text in Word d als Dateityp Rich-Text-Form R mat speichern
48
Die Texte: Transkription, T Vo orbereitung undd Import
2.6 Analyseeinh A heiten und Textgestalltung Nachddem man diee Entscheiduung getroffen n hat, nach welchen w Regeeln die Daten n zu verschriftlichen sindd, muss noch h eine zweite Frage entscchieden werdeen, nämlich wie w hinsichtlicch der Defin nition von Teexteinheiten vverfahren wird. w Vor alleem bei Transskriptionen von v Gruppen ndiskussionen n oder von an nderen Texteen, bei denen n man es mit mehreren Sp prechern zu tuun hat, ist dass Problem deer Bestimmuung von Textteinheiten virrulent, denn in der Regel möchte man n später einen n Zugriff auff die Sprechaakte einzelnerr Spreh und jew weils schnell erfahren e kön nnen, wer wass gesagt hat. cher haben Maan sollte sich h bereits zum m Zeitpunkt der d Vorbereittung der Texte voraussch hauend mit Details D des sp päteren Ausw wertungsverfaahrens beschääftigen, d.h. etwa bei der Analyse von n Gruppendiskussionen entscheiden, e ob die her gesonderrt auszuwerten sind. In dieesem Fall ist es empfehlen nswert, Sprech eine en ntsprechendee Vorab-Coddierung vorzuunehmen.
Abb. 100: Text als Flieeßtext mit Eintteilung in Paraagraphen (im Programm P MAX XQDA)
Fernerr stellt sich die d Frage, ob b man mit eiiner fixierten Zeilenstrukttur mit Zeilen nnummerieruung arbeiten will w oder ob diese d wie bei Textverarbeitungs-
Vorstrukturierte Textformen
49
programmen flexibel gehandhabt werden soll, d.h. mit der Einstellung der Fenster und der Schriftgröße variieren kann. Feste Zeilenlängen mit der entsprechenden Zeilennummerierung haben zwar den Vorteil, dass das Zeilen-Layout ein für allemal festliegt, so dass eine Zeile 523 auch zukünftig immer die Zeile 523 bleibt. Diesen Vorteil erkauft man sich mit einer mangelnden Flexibilität, die dazu führen kann, dass der Text bei einer veränderten Fenstergröße nicht mehr vollständig sichtbar ist bzw. unerwünschte Zeilenumbrüche stattfinden, die dem Text eine Art Zick-Zack-Aussehen geben. Heute wird der Text in der Regel so gestaltet, dass nur die Absatzzeichen unveränderlich sind und der Text zwischen den Absatzzeichen als Fließtext flexibel umgebrochen werden kann. Ein solcher Text (siehe Abb. 10) enthält eine Absatznummerierung, die als Ortsangabe bei Zitaten dienen kann. Der Text innerhalb eines Absatzes ist – wie aus Word gewöhnt – Fließtext, der sich den jeweiligen Gegebenheiten des Bildschirms (Fenstergröße, Bildschirmauflösung) anpasst. Auch das spätere Kopieren von Textpassagen, z.B. in einen Forschungsbericht, wird so nicht von Zeilenumbrüchen gestört.
2.7 Vorstrukturierte Textformen Nicht selten hat man es bei der Textanalyse mit vorstrukturierten Textformen zu tun, d.h. der Text weist von vornherein eine Gliederung in Sektionen, Sprecher, Sinnabschnitte oder Ähnliches auf. Dazu folgende Beispiele: x
x
x x x
Antworttexte auf offene Fragen: Hier hat man es mit verschiedenen Befragten und Antworten auf mehrere Fragen zu tun, so dass gleich vermerkt werden kann, zu welcher offenen Frage welchen Fragebogens ein Antworttext gehört. Forenbeiträge im Internet: Diese lassen sich eindeutig verschiedenen Autoren zuordnen. Bei Onlineseminaren liegen zudem jeweils weitere Informationen zu den Autoren vor. Protokolle von Gruppendiskussionen: Hier kann zwischen verschiedenen Sprechern unterschieden werden. Leitfadenstrukturierte Interviews: Hier kann festgehalten werden, auf welchen Punkt des Leitfadens sich eine Antwort bezieht. Abstracts wissenschaftlicher Tagungen: Diese weisen meist eine ähnliche Struktur auf: Angaben zu den Autoren, zum Titel des Vortrags,
50
Die Texte: Transkription, Vorbereitung und Import
zu der Sitzung, in der dieser gehalten wird, sowie das eigentliche Abstract. x Rechercheergebnisse aus Literatur- und Forschungsdatenbanken (z.B. den sozialwissenschaftlichen Datenbanken SOLIS und FORIS): Diese enthalten eine vorgegebene Strukturierung, z.B. bei FORIS folgender Art: Titel des Projektes, Erhebungszeitraum, Primärforscher, Datenerhebung, Inhalt, Grundgesamtheit und Auswahl. Diese Beispiele zeigen, dass es nicht nur wünschbar, sondern teilweise auch unumgänglich ist, zwischen den verschiedenen Strukturebenen des Textes zu unterscheiden: Bei der Themenanalyse von Kongressabstracts möchte man beispielsweise nur den Teil des Textes inhaltsanalytisch auswerten, der den eigentlichen inhaltlich bedeutsamen Text des Abstracts enthält. Bei Gruppendiskussionen wird man häufig sprecherspezifisch auswerten wollen. Bei der Analyse von transkribierten Antworttexten aus Fragebogeninterviews interessieren zunächst nur die auf eine bestimmte Frage gegebenen Antworten und nicht gleichzeitig die Antworten auf alle anderen Fragen. Antworttexte auf offene Fragen auszuwerten, ist wohl das Musterbeispiel für die Analyse strukturierter Texte. Diese Textart unterscheidet sich erheblich von einem Set von qualitativen Interviews oder einer Sammlung von Beobachtungsprotokollen: Man hat es mit vergleichsweise vielen, aber relativ kurzen Texten zu tun. Während eine durchschnittliche qualitative Studie eine durchschnittliche Populationsgröße von vielleicht 20 bis 80 Interviews hat, sind es hier gleich mehrere hundert Probanden, deren Texte auszuwerten sind. Schon angesichts der großen Zahl erweisen sich die üblichen Einleseprozeduren der QDA-Programme als ziemlich unpraktisch, denn bei einer Stichprobengröße von N=200 müssen 200 Primärdateien erstellt und in das QDA-Programm importiert werden. Dies wäre eine recht zeitraubende Angelegenheit. Deshalb ist es ratsam, die Möglichkeit zur Vorab-Strukturierung wie sie etwa MAXQDA bietet, bei der Textvorbereitung zu nutzen.
2.8 Zusammenfassung: Die Vorbereitung von Texten Fassen wir zusammen: Bevor ein Text mit einem QDA-Programm bearbeitet werden kann, sind eine Reihe von Schritten zu durchlaufen und Ent-
51
Zusammenfassung: Die Vorbereitung von Texten
scheidungen zu fällen. Dabei erweisen sich QDA-Programme, die das DOC- oder Rich-Text-Format unterstützen, als weitgehend unproblematisch, während bei QDA-Programmen, die lediglich das Nur-Text-Format vorsehen, umfangreichere Vorarbeiten erforderlich sind. Dies gilt insbesondere dann, wenn die Definition von Texteinheiten oder sogar eine feste Zeilenlänge verlangt wird. Der Weg eines Textes bis zum Import in das QDA-Programm ist in Abb. 11 dargestellt. Üblicherweise wird nach den vorbereitenden Schritten eine Datei im DOC- oder Rich-Text-Format erstellt, von der auch eine Sicherheitskopie angefertigt werden sollte. Eine andere Import-Möglichkeit besteht darin, den Text im Textverarbeitungsprogramm in die WindowsZwischenablage zu kopieren und direkt in die QDA-Software einzufügen, ohne dass der Umweg über eine zwischengespeicherte Datei genommen wird. Einige Programme bieten auch die Möglichkeit, Texte über Drag-anddrop direkt in das Textfenster der QDA-Software einzufügen. Bandaufnahme digitalisierter Text
nicht digitalisierter Text
digitale Aufnahme
Transkriptionsregeln
scannen Transkription erstellen mit Word ggf. Struktur- und Formatänderungen
Backup
korrigieren und anonymisieren
Als DOC/RTF-Datei speichern
Windows Zwischenablage
Import QDA Software
Abb. 11: Der Weg eines Textes in das QDA-Programm
52
Die Texte: Transkription, Vorbereitung und Import
Vor dem Import von Texten sind im Hinblick auf drei Problemkreise Entscheidungen zu fällen: Es muss entschieden werden, ob Texteinheiten definiert werden sollen. Es muss entschieden werden, ob ein fixiertes Zeilenlayout sinnvoll ist. x Bei Texten, die noch verschriftlicht werden müssen, sind die Transkriptionsregeln zu bestimmen. x x
Die folgende Checkliste gibt einen schnellen Überblick über die zu treffenden Entscheidungen. Checkliste für die Textaufbereitung 1. Bei gesprochener Sprache: Art der Transkription bestimmen, d.h. vollständige Transkription oder nur Teile des Textes verschriftlichen. 2. Transkriptionsregeln festlegen. 3. Transkribierte Texte Korrektur lesen, ggf. Fehler verbessern. 4. Texte falls erforderlich anonymisieren. 5. Entscheidung über eingebettete Objekte (z.B. Grafiken, Fotos etc.) treffen, Fotos ggf. so umwandeln, dass sie weniger Speicherplatz benötigen. 6. Bei bereits digitalisierten Texten: Den Text in das Textverarbeitungsprogramm laden und auf spezielle Formatierungen durchsehen. Gibt es Zeichenformatierungen und Absatzformatierungen, die ungünstig für die Analyse sind? 7. Ggf. Leerzeilen einfügen, z.B. vor Sprecherwechsel oder zwecks besserer Lesbarkeit des Textes. 8. Text im DOC- oder Rich-Text-Format speichern. 9. Backup des Textes erstellen und auf externes Medium sichern. 10. Text in die QDA-Software importieren. Wer zum ersten Mal mit einer QDA-Software arbeitet, sollte in jedem Fall ein oder zwei Texte in das QDA-Programm importieren, einige Probecodierungen vornehmen und unterschiedliche Suchprozeduren durchführen, bevor das gesamte Textmaterial transkribiert wird,. Vielleicht wird man dann entdecken, dass bestimmte Optionen des QDA-Programms, vor allem die lexikalische Suche und die automatische Codierung, sich nur bei einer bestimmten Transkriptionsweise nutzen lassen. In einem so frühen Stadium der Texttranskriptionen ist man dann noch leicht in der Lage, die
Praktiscche Hinweise für f MAXQDA A
53
Transkkriptionsregeeln entsprech hend zu mod difizieren. Geenerell muss sich – siehe die d oben darrgestellten Leeitfragen von Dittmar – die d Wahl des Transkriptio onssystems nach n den Zieleen der Analyse richten.
2.9 Praktische P Hinweise für f MAXQD DA In MA AXQDA lasssen sich verscchiedene Ord dner („Textgrruppen“) defiinieren, denen n die Texte zuugeordnet weerden können n. Für tempo oräre Auswerrtungen könneen zudem Texxt-Sets gebilddet werden, diie Texte aus verschiedenen v n Textgruppeen enthalten können. Allle importierteen Texte, allee Textgruppeen und Text-SSets werden im m Fenster „L Liste der Textee“ dargestellt. Abb. 12 zeiggt, dass zwei Textgruppen T namens „Akkteure“ und „Experten“ „ e existieren, derr Textgruppee „Akteure“ sind s vier Textte (Interview11 bis Interview w4) zugeordn net.
Abb. 122: Definierte Textgruppen T in n der Liste der Texte T
Texte werden imp portiert, indem m sie einfach h mit der Maus M aus dem m Winnschte Textgrruppe bzw. auf a die Wurzzel der dows Explorer auuf die gewün „Listee der Texte“ gezogen weerden. Alternativ kann auuch die gewüünschte Textgrruppe mit deer rechten Maustaste M anggeklickt und die Option „Texte einfüggen“ gewählt wird. Die Op ption „Texte erstellen“ erlaaubt es, selbstt Texte einzuggeben bzw. Transkription T nen direkt in MAXQDA zu erstellen.. Texte könneen alle Arten von v Windows OLE Objekkten enthalten n, z.B.: Excel Tabellen, Powerpoint Fo olien, Formeel-Editor Objekte, Fotos und u Anderess mehr. Da dieese Objekte u.U. u viel Plattz benötigen, kann der Im mport von Ob bjekten standaardmäßig unterbunden weerden. Texte aus dem Intternet oder an nderen Anwendungsprogrrammen könn nen direkt peer Drag-and-drop oder üb ber die ows-Zwischeenablage imp portiert werd den. Dabei erweist e es siich als Windo praktisch, einen neeuen Text mitt dem Tasten nkürzel Strg+T zu erzeugeen.
54
Die Texte: Transkription, Vorbereitung und Import
Vorab-strukturierte Texte können entweder in Form einer Tabelle oder mit Hilfe des Text-Preprozessors importiert werden. Einfacher ist die Textvorbereitung als Tabelle, in welcher die Texte die Zeilen und zu codierenden Segmente die Spalten bilden. Mit Excel lassen sich Tabellen dieser Art einfach erstellen und als CSV-Datei speichern. Für den prototypischen Anwendungsfall von Antworttexten auf offene Fragen ist eine Tabelle nach folgendem Muster verlangt: Textgruppe
Textname
Frage 1
Frage 2
Bürger
I1
Hier steht der Antworttext von I1 auf Frage 1
Hier steht der Antworttext von I1 auf Frage 2
Bürger
I2
Hier steht der Antworttext von I2 auf Frage 1
Hier steht der Antworttext von I2 auf Frage 2
Abb. 13: Vorab-strukturierte Texte als Tabelle importieren
Die Tabelle enthält zwei Texte – I1 und I2 – und die Antworten beider Personen auf zwei Fragen. Die Überschriften in der Kopfzeile – hier „Frage 1“ und „Frage 2“ werden von MAXQDA als Kategorienname verwendet. Eine weitere Funktion für vorab-strukturierte Textformen stellt der Text-Preprozessor dar: Hiermit können beispielsweise viele Texte hintereinander in einer einzigen Datei eingegeben werden. Jeder Text muss dann mit einem Identifikator #TEXT beginnen, hinter dem der Textname anzugeben ist. Auch können die Texte automatisch nummeriert werden. Auf diese Weise lassen sich Hunderte von Einlesevorgängen erheblich abkürzen. Weiterhin ermöglicht der Text-Preprozessor eine Vorab-Zuordnung von Kategorien. Dies kann bspw. auch für die Auswertung von Antworttexten auf offene Fragen genutzt werden. Angenommen, in einem Fragebogen seien drei offene Fragen enthalten, die für die Auswertung transkribiert werden sollen. Die Antworttexte werden nun schon bei der Transkription durch Einfügen eines entsprechenden Deskriptors den jeweiligen Fragen zugeordnet. Dies erspart die Mühe, erst nach dem Einlesen in allen Texten diese Zuordnung manuell vornehmen zu müssen. Dazu muss in MAXQDA eine bestimmte Eingabesyntax beachtet werden. Vor jedem Antworttext ist eine Zeile mit dem Schlüsselwort #CODE einzufügen, dahinter folgt das jeweilige Codewort, z.B. „Frage 1“, oder ein entsprechendes Kürzel (z.B. nur „1“), das später leicht durch die komplette Kategorienbe-
Praktische Hinweise für MAXQDA
55
zeichnung ersetzt werden kann. Der Antworttext wird jeweils mit einer Zeile, die nur das Schlüsselwort #ENDCODE enthält, abgeschlossen. #TEXTtextname #CODEcodename hier folgt der Text zu Frage 1 #ENDCODE #CODEcodename hier folgt der Text zu Frage 2 #ENDCODE #TEXTtextname … hier folgt der zweite Text nach dem gleichen Schema … #TEXTtextname … hier folgt der dritte Text nach dem gleichen Schema ...
Abb. 14: Beispiel für die Eingabe von vorab codierten Texten
MAXQDA offeriert in den Suchfunktionen die Möglichkeit zur automatischen Codierung von Fundstellen. Dies kann genutzt werden, um Textabschnitte automatisch bestimmten Sprechern zuzuordnen (z.B. bei Gruppendiskussionen). In diesem Fall muss die Transkription so gestaltet werden, dass jeder Beitrag eines Sprechers mit der Sprecherbezeichnung – zur besseren Unterscheidung am besten in Großbuchstaben – beginnt. Der jeweilige Sprechakt selbst darf nur ein Absatzzeichen am Ende und sonst keine Absatzzeichen enthalten.
Übungen (mit MAXQDA) Vorab ein Hinweis zu den Übungsaufgaben in diesem Buch: Um die Aufgaben bearbeiten zu können, muss aus dem Internet (ww.maxqda.de) die Demoversion von MAXQDA heruntergeladen werden. Diese ist für 30 Tage uneingeschränkt funktionsfähig. Sie erlaubt nicht nur die Bearbeitung der Übungen, sondern ermöglicht es auch, mit eigenen Daten zu arbeiten.9
9 Ein MAXQDA-Tutorial, das die technische Handhabung des Programms Schritt für Schritt erklärt, ist ebenfalls auf der Webseite verfügbar.
56
Die Texte: Transkription, Vorbereitung und Import
Am Ende dieses Kapitels sollten Sie in der Lage sein, Ihre Texte für die computergestützte Analyse aufzubereiten, d.h. die Texttranskription zu planen, ein sinnvolles Textlayout zu bestimmen und die Frage der Definition von Texteinheiten zu entscheiden. 1. Wählen Sie einen bei Ihnen vorhandenen Text oder den in der Demoversion von MAXQDA im Unterordner „Examples/Ger“ enthaltenen Beispieltext „interview1.rtf“ aus. Öffnen Sie den Text mit Ihrem Textverarbeitungsprogramm. Überlegen Sie, welche verschiedenen Gestaltungsmöglichkeiten es für die Transkription gibt. 2. Ist es sinnvoll, bei diesem Text Texteinheiten für die spätere Codierung zu definieren? Versuchen Sie die Vor- und Nachteile abzuwägen. 3. Starten Sie nun MAXQDA und tragen Sie ihren Namen in das Benutzerfeld ein. Erstellen Sie ein neues Projekt mit dem Namen „test1“. Nach der Bestätigung erscheint das Feld „Tipps und Tricks“, lesen Sie die Information, schauen Sie sich auch die nächsten zwei Tipps an und schließen danach das Feld. 4. Fügen Sie eine neue Textgruppe mit dem Namen „Bürger“ ein. 5. Importieren Sie die Texte „interview1“ bis „interview4“ in die Textgruppe „Bürger“. Diese Beispieltexte befinden sich im Ordner der deutschen Beispieldateien von MAXQDA im Unterordner „Examples/Ger“. 6. Erzeugen Sie einen neuen leeren Text, indem Sie in der Liste der Texte die Tastenkombination Strg+t drücken. 7. Markieren Sie einen Abschnitt (inklusive Grafik) im InternetBrowser und fügen Sie ihn durch Kopieren direkt in MAXQDA ein. Was passiert? 8. Kopieren Sie nun den Abschnitt zuerst in Word und speichern ihn dort als RTF-Datei ab. Jetzt importieren Sie die Datei in MAXQDA (Word vorher schließen). Nennen Sie den Text „Webseite“. Achten Sie darauf, die Optionen so einzustellen (Projekt > Optionen), dass auch Objekte importiert werden.
3
Die Kategorien und das Codieren von Texten
3.1 Über Kategorien Alle qualitativen Verfahren der Textanalyse beginnen mit Textarbeit, d.h. der sorgfältigen Lektüre des Textmaterials. Auch bei der computerunterstützten Analyseform ziehen Wissenschaftler es meist vor, diesen ersten Arbeitsschritt nach dem Importieren eines Textes in die QDA-Software nicht am Bildschirm vorzunehmen. In der Forschungspraxis hat es sich bewährt, zunächst eine Arbeitsfassung der einzelnen Texte mit Absatznummerierung zu erstellen und auszudrucken. Diese Papierfassung des Textes ist es, mit der zunächst gearbeitet wird. Vor allem dann, wenn man mit Kolleginnen und Kollegen im Team zusammen arbeitet, ist es von Vorteil über eine solche sequentiell nummerierte Textfassung zu verfügen. So kann man sich bei der gemeinsamen Diskussion von Textpassagen besser verständigen und unter Angabe der Absatznummer Textstellen leicht finden. Auch während der computerunterstützten Analyse qualitativer Daten ist es nicht der Computer, der denkt, interpretiert und codiert, sondern immer noch der Mensch. Qualitative Daten sind gegenüber der datenbankmäßigen Erfassung und automatischen Codierung ein sehr resistentes Material. Deshalb ist es trotz der gestiegenen Möglichkeiten von automatischen Codierverfahren die intellektuelle Codierung, die im Zentrum von QDA-Programmen steht. Wenn hier von Codieren die Rede ist, so wird darunter zunächst ganz allgemein die Zuordnung von Kategorien zu relevanten Textpassagen bzw. die Klassifikation von Textmerkmalen verstanden. Unter einem Code oder einer Kategorie ist dabei ein Bezeichner, ein Label, zu verstehen, der Textstellen zugeordnet wird. Es kann sich dabei um ein einzelnes Wort (z.B. „Einstellungen“, „Helfersyndrom“), sogar nur um ein einzelnes Zeichen oder um eine Mehrwortkombination handeln (z.B. „Mutterbindung in der frühen Kindheit“).
58
Die Kategorien und das Codieren von Texten
Die Codierung geschieht in der Regel also nicht automatisch, z.B. aufgrund bestimmter Worte oder Wortkombinationen im Text, sondern ist Resultat einer menschlichen Interpretationsleistung, welche natürlich zwingend die Lektüre und die Durcharbeitung des Textes voraussetzt. In der sozialwissenschaftlichen Methodenliteratur wird dem Thema Kategorien und Kategorienfindung keine sonderliche Aufmerksamkeit gewidmet. Was überhaupt eine Kategorie ist und wie man Kategorien bildet, wird in Methodentexten meist nicht weiter problematisiert, sondern stillschweigend vorausgesetzt, d.h. man unterstellt, dass die Fähigkeit zum Bilden von Kategorien als Alltagstechnik bei jedem vorhanden ist. Im Methodenlexikon von Kriz und Lisch heißt es etwa: „Patentrezepte für die Kategorienbildung im engeren Sinne gibt es nicht; je nach Untersuchungsgegenstand müssen dazu immer wieder neue Entscheidungen gefällt werden“ (Kriz/Lisch 1988: 134). In den Inhaltsregistern der bekannten deutschsprachigen Methodenlehrbücher sucht man meist vergeblich nach dem Stichwort Kategorie (so bei Diekmann 2007). Wenn man überhaupt einen Eintrag findet, wird häufig auf Textseiten verwiesen, in denen von speziellen Analyseverfahren die Rede ist und in diesem Kontext dann auch von Kategorien, etwa von Beobachtungskategorien, Kategoriensystemen in der klassischen Inhaltsanalyse u.ä. (Schnell/ Hill/Esser 2005: 394). Der Kategorienbegriff und die Kategorienbildung selbst werden indes nicht zum Gegenstand gemacht. Häufig wird der Begriff Kategorie synonym mit Variable, Merkmal oder Merkmalsausprägung benutzt. Im Forschungskonzept des Kritischen Rationalismus werden Kategorien als Operationalisierungen der in den Hypothesen enthaltenen Begriffe aufgefasst. Sie haben hier also den Charakter von Nominaldefinitionen. Das Gegenstück zu dieser deduktiven Vorgehensweise stellt die induktive Kategorienbildung dar, bei welcher der kategoriale Bezugsrahmen aus den Daten selbst konstruiert wird. Bei genauerem Hinschauen zeigt sich allerdings oft, dass das Vor- und Kontextwissen des Forschers dabei einen nicht zu unterschätzenden Einfluss hat (vgl. etwa die protokollierte Seminarsitzung „Umgang mit Schmerz“ in Strauss 1991: 74 ff.). Hier soll es nicht um die allgemeine Betrachtung von Vorgehensweisen bei der Kategorienbildung in der sozialwissenschaftlichen Forschung gehen, sondern um die spezifische Perspektive der qualitativ orientierten Text- und Inhaltsanalyse. Kategorie bedeutet hier nichts anderes als einen Begriff, ein Label, das vom Bearbeiter der Texte definiert wird, d.h. ein Wort, mehrere Wörter oder eine Kurzsatz, die nicht notwendigerweise auch im Text vor-
Über Kategorien
59
kommen müssen. Als Beispiel mag man sich die der Maslowschen Bedürfnishierarchie entnommene Kategorie „Grundbedürfnis“ vor Augen führen. Die Kategorie kann benutzt werden, um verschiedene in einem Interviewtext präsente Bedürfnisse zu differenzieren – möglicherweise nimmt ein Interviewter aber an keiner Stelle des Interviews das Wort Bedürfnisse selbst in den Mund. Andere Beispiele für Kategorien sind ethnische Identität oder autoritärer Umgangsstil. Es sind analytische Kategorien, die benutzt werden, um bestimmte Phänomene im Text zu identifizieren und gegebenenfalls im späteren Auswertungsprozess wieder zu finden. Kategorien müssen also keineswegs Begriffe der Akteure sein, die sich im Interviewtext finden lassen. In der Methodenliteratur und in der Praxis der Sozialforschung sind unterschiedliche Vorschläge für das Codieren gemacht worden. Es lassen sich u.a. folgende Formen des Codierens in der qualitativen Forschung unterscheiden: x x x x x x
Paraphrasierendes Codieren Thematisches Codieren Theoretisches Codieren Episodisches Codieren Codieren von Fakten Bewertendes Codieren
Das Codieren von Fakten und das bewertende Codieren sind eher Gegenstand einer quantitativ orientierten Inhaltsanalyse (vgl. Merten 1995). Das episodische Codieren, bei dem nur besonders auffällige Stellen eines Textes codiert werden, ist kein Verfahren systematischer qualitativer Datenanalyse. Es geschieht entweder im Rahmen einer mehr an Alltagstechniken orientierten Herangehensweise, z. B. im Journalismus, oder ist eingebettet in umfassendere Auswertungsstrategien wie etwa die Suche nach so genannten natürlichen Codes in einem an der Grounded Theory orientierten Arbeitsstil. Eine gewisse Rolle spielt es im Marketing und in der Marktforschung, wo Kreativität und die Generierung von Ideen häufig eine größere Bedeutung haben als Systematisierung und Zusammenfassung. Die im Kapitel 4 vorgestellten methodischen Ansätze spiegeln die in den Sozialwissenschaften entwickelten Hauptstile des Codierens wider: Die Vorgehensweise der Grounded Theory kann als Beispiel für theoretisches Codieren dienen, die zusammenfassende Inhaltsanalyse nach Mayring als
60
Die Kategorien und das Codieren von Texten
Beispiel für das paraphrasierende Verfahren und die Vorgehensweise von Hopf u.a. als Beispiel für thematisches Codieren.
3.2 Kategorientypen Der Vorgang des Codierens lässt sich aus zwei Perspektiven betrachten, die analytisch als deduktive und induktive Vorgehensweise bezeichnet werden können: Die erste Perspektive entspricht der deduktiven Variante: Ein Phänomen des Textes wird als Indikator für einen theoretischen Tatbestand genommen. Neben dem Text entsteht so quasi eine Sequenz von Codes, die das wiedergibt, was unter theoretischen Gesichtspunkten, unter den analytischen Perspektiven der definierten Kategorien, von diesem Text zu halten ist. Die Perspektive ist der quantitativen Inhaltsanalyse nicht unähnlich: Nach dem Codiervorgang steht dann die Analyse der Kategorien, ihrer Korrelationen und Beziehungsmuster im Mittelpunkt. Die andere, mehr induktiv orientierte Perspektive entwickelt die Kategorien erst im Laufe der Analyse aus den Texten. Aus dieser Blickrichtung werden Textabschnitte ausgeschnitten und vorläufigen Kategorien zugewiesen, gewissermaßen hinter diese Karteireiter der Kategorien eingeordnet. Hier wird der Text nicht durch die Codierung überflüssig, sondern dient dazu, im nächsten Schritt des Analyseprozesses Kategorien weiterzuentwickeln, zusammenzufassen, zu dimensionalisieren und auszudifferenzieren. In Abhängigkeit von der jeweiligen Forschungsmethode und der Wissenschaftsdisziplin existieren unterschiedliche Bezeichnungen für das, was hier als Kategorien bezeichnet wird. Mitunter spricht man von Stichworten, von Schlagworten, von Codes oder wie in der Tradition der Inhaltsanalyse von Kategorien. Mit Ausnahme der Grounded Theory gibt es in der Literatur über qualitative Methoden nur wenige Beiträge, die sich mit dem grundlegenden Vorgang des Codierens im Detail befassen. Unter dem Begriff Codieren werden sehr verschiedene Vorgehensweisen mit differenten Gütekriterien subsumiert: Eine erste Variante begreift Codieren als eine eher explorierende und organisierende Tätigkeit: Ein Text wird intensiv bearbeitet, wichtige Textstellen werden angestrichen und Bemerkungen an den Rand geschrieben. Hier werden im Grunde explorative Hinweisschilder gesetzt, was eine völlig an-
Kategorientypen
61
dere Arbeitsweise darstellt als das Codieren im Sinne der quantitativen Inhaltsanalyse, an das Maßstäbe von Reliabilität und Validität angelegt werden müssen. Eine zweite Variante von Codieren identifiziert ein Textsegment als einen Indikator für das Vorliegen einer bestimmten, genau definierten Kategorie eines u.U. sehr komplexen Kategoriensystems. Es handelt sich um eine sorgfältige, kontrollierte Tätigkeit, bei der sich auch Probleme der Reliabilität, etwa in Bezug auf die Übereinstimmung von unterschiedlichen Codierern, stellen. Hier geht es, anders als bei der ersten Variante nicht darum, Ideen festzuhalten und Begriffe und Formulierungen des Textes für die spätere Auswertung zugänglich zu machen, sondern um die theoretische Durchdringung und Bewertung der Daten. Wenn man die Charakteristika von Codes betrachtet, lassen sich drei Arten von Codes unterscheiden: 1. Faktencodes Codes, die eine bestimmte „objektive“ Gegebenheit zum Ausdruck bringen: Jemand ist männlich. Jemand kennt Person X oder Y. Jemand sagt, dass er hauptsächlich an Verkehrspolitik interessiert ist. Bei Faktencodes existieren Kriterien für Reliabilität – sowohl für Inter-Coder- wie für IntraCoder-Reliabilität. Inter-Coder-Reliabilität meint, dass mehrere Codierer unabhängig voneinander zum gleichen Urteil kommen; Intra-CoderReliabilität, dass die gleiche codierende Person im hypothetischen Fall, dass sie die Stelle zweimal codieren würde, zum gleichen Ergebnis kommt. 2. Thematische Codes Codes dienen als Zeiger auf bestimmte Themen im Text. Ähnlich wie Verkehrsschilder an der Landstraße gelten die Codes nur als Hinweis darauf, dass man an einer bestimmten Stelle die so benannten Themen, Phänomene, Ereignisse, Argumente etc. findet. Es gibt wenig Gütekriterien für ein solches Hinweisschild, außer, dass die Richtung stimmt, und dass man tatsächlich zu dem Versprochenen hinkommt, wenn man dem Hinweis folgt. Niemand wird aber erwarten, dass das Schild mit einer Abweichung von 0,0 Grad auf den gesuchten Ort zeigt.
62
Die Kategorien und das Codieren von Texten
3. Bewertende Codes Diese ähneln Faktencodes, sind aber komplexer und stärker auf extern vorgegebene Bewertungsmaßstäbe bezogen. Während Faktencodes noch gewissermaßen dem Alltagswissen und dem Common-sense-Urteilsvermögen zugänglich sind – man muss nicht Sozialwissenschaftler sein um die oben genannten Angaben zu codieren – kommt es hier auf die Bewertung an. Jemand wird über sein Verhältnis zu Organisationsformen befragt, und man ordnet diese Äußerungen als „Befragter bevorzugt das Netzwerkmodell“ ein. Nur auf der Basis von Hintergrundwissen und speziellem Codierertraining sind solche Einstufungen verlässlich möglich. Die unterschiedlichen Funktionen von Codes spiegeln sich in der Grounded Theory in den verschiedenen Bezeichnungen wider, die dort für Codes verwendet werden. So findet man etwa die Begriffe Code, Kategorie, Konzept, Subkategorie, Dimension und Merkmal. Allerdings kann die gegenseitige Abgrenzung dieser Begriffe, wie sie etwa bei Strauss und Corbin (1996: 43 ff.) vorgenommen wird, nicht überzeugen. Die Verwendung unterschiedlicher Bezeichnungen führt eher zur Verwirrung, als dass sie Klarheit schafft. Es soll deshalb hier auf den Versuch verzichtet werden, je nach Abstraktionsniveau unterschiedliche Namen für Kategorien einzuführen. Hier sollen Kategorien als Werkzeuge zur Phänomenklassifizierung mit der Möglichkeit der Bildung von Unterklassen begriffen werden. Für die Arbeit mit QDA-Software ist es unerheblich, ob die Kategorienbildung deduktiv oder induktiv erfolgt. Die Gleichsetzung von qualitativer Methodik mit induktiver Kategorienbildung und quantitativer Methodik mit deduktiver Kategorienbildung greift zu kurz, denn in der Praxis hat man es auch in der qualitativen Forschung meist mit Mischformen zu tun. Auf der Basis von Vorinformationen, die man über den Untersuchungsgegenstand besitzt, wird häufig für die Erhebung ein Interviewleitfaden konstruiert, der auch als Grundgerüst für das Kategoriensystem dient. Dieses wird dann anhand des Untersuchungsmaterials induktiv ausdifferenziert und präzisiert. Oft ist es ein Set von (formalen) Grobkategorien wie im Falle des Codierparadigmas von Glaser und Strauss, das die Art von Fragen vorgibt, die man an das Datenmaterial stellt. Mit der Codierung von Textsegmenten und der späteren Zusammenstellung von Textsegmenten der gleichen Kategorie geht notwendigerweise ein Prozess der Dekontextualisierung einher. Schon in ihren Anfängen wurde
Kategorientypen
63
gegen die quantitative Inhaltsanalyse von den Kritikern – so von Kracauer (1952) – das Argument vorgebracht, sie sei zu „atomistisch“, weil sie Texte lediglich auf der Basis von Worten und Worthäufigkeiten analysiere. Ein Stück Atomismus ist auch der qualitativen Vorgehensweise der Segmentierung und Codierung von Textpassagen inhärent. Zwei entscheidende Unterschiede zwischen dieser Technik und der quantitativ orientierten Inhaltsanalyse sind aber hervorzuheben: Erstens stellen die codierten Segmente etwas anderes dar als codierte Worte oder Zeichenketten: Sie sind codierte Sinneinheiten und keine formalen Einheiten wie ein Wort oder eine Zeichenkette. Die Codierung ist semantischer und nicht syntaktischer Art. In der quantitativen Inhaltsanalyse sind die Kategorien das Messinstrument, mit dem ein Text „gemessen“ wird. Nach vollzogener Messung wird mit den Zahlenwerten der so entstandenen Datenmatrix weitergearbeitet. Zusammenhänge in der Datenmatrix werden nicht mit interpretativen, sondern mit statistischen Methoden analysiert. Zweitens ist mit der Codierung in der klassischen quantitativen Inhaltsanalyse der Text quasi abgearbeitet: Man greift nicht mehr auf ihn zurück und kann dies während des weiteren Auswertungsprozesses auch gar nicht mehr ohne weiteres tun. Anders im Fall des Arbeitens mit QDA-Software, wo jederzeit wieder vom codierten Segment in den größeren Kontext des Originaltextes zurückgesprungen werden kann. Anselm Strauss bezeichnet eine neue Kategorie als „the may be tonight promise of a possible theory“. Kategorien sind also keineswegs nur deskriptiv und keinesfalls ohne Effekte auf den Analyseprozess. Sie engen einerseits ein und eröffnen andererseits neue Perspektiven. Insofern ist es selbstverständlich, dass Kategoriensysteme nicht nur Freude bereiten, sondern auch Kritiker auf den Plan rufen, die die Einengung des Blicks (negativ formuliert das Schubladendenken) kritisieren und jene Blickperspektiven einklagen, die durch die Brille des Kategoriensystems nicht mehr zu sehen sind. Meistens emergieren Kategorien nicht „von selbst“ aus dem Material – jedenfalls nicht mehr als Melodien und Sonaten aus dem deutschen Wald. Gleichwohl mag es dem Komponisten helfen, durch Wald und Flur zu streifen, auf dass sich die Melodien von selbst einstellen. Ebenso mag das vorurteilslose genaue Studieren eines Textes bewirken, dass man analytische Kategorien (er)findet. In der Regel steckt hinter brauchbaren Kategoriensystemen aber eher harte Arbeit, denn die Kategorien fallen nicht vom Himmel wie das biblische Manna in der Wüste.
64
Die Kategorien und das Codieren von Texten
3.3 Codieren mit QDA-Software Für das Codieren der Texte mit Hilfe von QDA-Software haben sich unterschiedliche Arbeitsweisen herausgebildet: Eher traditionell und zunehmend seltener anzutreffen ist eine Arbeitsweise, die als „Two-step-Codieren“ bezeichnet wird: Man erstellt einen Papierausdruck des Textes und markiert dort die relevanten Stellen mit einem Textmarker. Am Rand macht man Notizen und vermerkt den Code, den man der Textstelle zuordnen will. In einem gesonderten Arbeitsgang werden anschließend diese Codierungen mit Hilfe der QDA-Software in den Computer eingegeben. x Die zweite, heute in der Regel praktizierte Variante verzichtet auf den Zwischenschritt des Markierens und Codierens auf dem Papierausdruck. Die Texte werden direkt am Bildschirm codiert. Man blättert den Text von vorne nach hinten durch, markiert und codiert sofort alle Textstellen. x
Die Segmentierung und Kategorisierung hat sich zu einer Art Basistechnik der computergestützten Analyse qualitativer Daten entwickelt: Inhaltlich bedeutsame Textpassagen werden identifiziert und es wird ein Code zugeordnet. Hat man beispielsweise eine Textpassage identifiziert, in der eine Befragte sich über ihre Wunschvorstellungen äußert, so weist man diesem Textsegment den Code „Wunschprojektion“ zu. Dieses Grundmuster der Erschließung von Textinhalten wird im Englischen als „Cut-and-paste-Technik“ bezeichnet. Es orientiert sich an der im Vor-Computer-Zeitalter betriebenen handwerklichen Auswertung von Texten: Mit Schere, Kleber und Karteikarten ausgestattet, bearbeitet man den Textkorpus und schneidet jene Stellen aus, die zu einem bestimmten Thema relevant sind (vgl. Lofland/Lofland 1984: 134). Auf die Karteikarte schreibt man zuoberst das Stichwort, vermerkt die Herkunft des Abschnitts und klebt den Textabschnitt auf. Eine solche Karteikarte hat dann etwa folgendes Aussehen:
65
Codieren mit QDA-Software KARTE NNN Stichwort: Wunschprojektion Herkunft: Interview mit Frau Wenger, S.3: Absatz 15-17
Auch wenn man seine Straße aufräumt, denn ist es ja nicht nur, dass die Straße sauber ist, wobei manche immer zusammenzucken, aber ich finde das einfach wichtig, ich denke, das gehört zum Wohlfühlen und Menschen kommunizieren wieder untereinander und außerdem merken sie, sie haben was geschafft. Und sie können - es ist zwar eine winzig kleine Sache, aber sie können was verändern. Und es sind so viele Menschen, die sich zurückgezogen haben und sagen, Ihr könnt mich mal und wir wollen uns nicht mehr beteiligen und vielleicht ist das irgendwo son kleiner Punkt, wo sie dann so anfangen sich wieder ein bisschen gemeinschaftlich zu betätigen. Also das ist so meine Vision der - ja - Aufleben des Kommunegedankens.
Abb. 15: Grundprinzip des Cut-and-paste (Textausschnitt auf Karteikarte)
Die in den QDA-Programmen implementierte elektronische Variante dieses Ausschneidens und Aufklebens funktioniert meist ein wenig anders: Die Textsegmente werden nicht ausgeschnitten, sondern es wird mit elektronischen Zeigern gearbeitet, die auf einen bestimmten Textabschnitt verweisen. Im Laufe des Codierungsprozesses entsteht eine lange Liste von codierten Segmenten , die den Code sowie Angaben über den Herkunftstext und die Position des Segmentes in diesem Text enthält. Die Positionsangabe erfolgt in Form einer Absatz- und Byteangabe für Anfang und Ende des Segmentes. Code
Text
Absatznummern: Beginn-Ende
Wunschprojektion
Interviews/Wenger
15-16
Erfolgskriterien
Interviews/Wenger
21-23
Erfolgskriterien
Interviews/Wenger
41-44
Machbarkeit
Interviews/Wenger
49-51
...
…
…
Abb. 16: Liste der codierten Segmente eines Textes
Diese Grundform der QDA-Textbearbeitung basiert auf menschlicher Interpretations- und Klassifikationsleistung. Beim Codieren der Textpassagen stellt sich natürlich die Frage: Wie lang soll ein codiertes Segment eigentlich sein? Das folgende Beispiel wurde von einem Codierer im Projekt „Umweltkommunikation und Lokale Agenda 21“ als „Wunschprojekti-
66
Die Kategorien und das Codieren von Texten
on/sozial“ codiert, weil im Textabschnitt soziale Aspekte (Motivation, Freude, freudlos) angesprochen werden: „Dazu gehört eben ganz klar Motivation auch Freude, dass ein Prozess – wenn der Agenda Prozess freudlos abliefe, das wäre für mich überhaupt kein Wunsch.“
Auf diese Weise aus dem Kontext gerissen, ist das Segment nicht mehr ohne weiteres verständlich, insbesondere weiß der Leser nicht, worauf sich das einleitende „dazu” bezieht. Dies wird erst dann klar, wenn der größere Kontext der Textstelle hinzugezogen wird, und der sieht folgendermaßen aus: „Dennoch heißt das natürlich auch, sich selber Ziele zu setzen und diese Ziele abzufragen. Das heißt für mich, dass sozusagen ne Art Projektmanagement mit Controlling sozusagen da ein Bestandteil ist, um ne Zufriedenheit auch gewährleisten zu können. Ich denke, dass das Abfragen oder abgefragt werden, wo stehen wir jetzt eigentlich, heute, wo wollen wir eigentlich morgen hin, ein immerwährender Prozess ist. Wie gesagt, konkrete Ergebnisse anstreben, aber auch den Prozess für wichtig nehmen. Dazu gehört eben ganz klar Motivation auch Freude, dass ein Prozess – wenn der Agenda Prozess freudlos abliefe, das wäre für mich überhaupt kein Wunsch. Und ein Kriterium ist natürlich aber auch die Frage der Überprüfbarkeit jetzt von Ergebnissen.”
Aus diesem Beispiel lässt sich gut ersehen, dass die Größe von Textsegmenten so gewählt werden sollte, dass die entsprechenden Äußerungen auch außerhalb ihres Kontextes noch gut verständlich bleiben. Mit Ausnahme des Codierens von Fakten-Codes, geschieht das Codieren bei der qualitativen Datenanalyse ja nicht als Selbstzweck, sondern als gezielte Vorarbeit für das spätere Wiederfinden und Interpretieren von Textstellen. Natürlich ist es in den führenden QDA-Programmen möglich, jederzeit den größeren Kontext eines codierten Segmentes einzusehen, doch wird dies dann lästig, wenn es mehr oder weniger zum Regelfall wird. Gerade Anfänger tendieren dazu, zu kleine Segmente zu codieren. Bei der praktischen Arbeit am Text können verschiedene Varianten des Codierens praktiziert werden: Text farbig markieren Dies entspricht dem Unterstreichen einer Textstelle mit einem farbigen Text-Marker bei der Lektüre eines Buches. Damit wird die Textstelle nur als irgendwie wichtig vorgemerkt, ohne dass ein Code zugeordnet wird. Durch Verwendung unterschiedlicher Farben, können bereits grobe inhalt-
Codieren mit QDA-Software
67
liche Zuordnungen vorgenommen werden. Die Textstelle lässt sich später leicht wieder finden, genauer inspizieren und codieren. Offenes Codieren Eine Textstelle wird mit der Maus markiert und anschließend wird ein neuer Code in ein entsprechendes Textfeld eingegeben. Die Technik kann während des gesamten Auswertungsprozesses angewendet werden, besonders typisch ist sie beim ersten, explorativen Durchgang durch das Datenmaterial. Codieren mit Codes aus dem Kategoriensystem Dies setzt voraus, dass bereits Codes definiert wurden und diese Teil des Kategoriensystems sind. Die Technik ist typisch bei deduktiver Vorgehensweise, d.h. ein bestehendes Kategoriensystem wird auf die Texte angewendet. Auch in späteren Phasen einer induktiven Kategorienbildung, wenn sich Kategorien herauskristallisiert haben und sich ein ausdifferenziertes Kategoriensystem entwickelt hat, wird diese Form des Codierens praktiziert. Ein Kategoriensystem besteht nun allerdings gewöhnlich aus weit mehr als aus einer Kategorie mit Subkategorien. Will man nicht für jede Kategorie bzw. jeden Kategorienbereich die Texte erneut lesen, so wird man „in einem Rutsch“ gleich alle Kategorisierungen vornehmen wollen. Bei komplexen Kategoriensystemen kann dies die Codierer vor nicht unerhebliche Probleme stellen. Zuordnen eines ausgewählten Codes Hier wird eine andere Arbeitsform praktiziert als bei der zuvor genannten Variante. Es werden nicht gleich alle Kategorisierungen beim sequentiellen Durchgang durch den Text vorgenommen, sondern man bearbeitet immer nur einzelne Kategorienbereiche oder eine Teilmenge der Kategorien. Auf den ersten Blick scheint dies mit mehr Arbeit verbunden zu sein, denn man muss schließlich mehrere Durchgänge durch die Texte bewältigen. Andererseits ergeben sich u.U. dadurch Zeitersparnisse, dass man die lexikalischen Suchfunktionen benutzen kann, um Textstellen zu finden. Dies hängt allerdings von der Art der Kategorien ab. In einer biographisch orientierten Studie ist es z.B. sehr leicht möglich mittels der Suchworte „Mutter“ oder „Vater“ genau solche Textstellen zu finden (und dann zu codieren),
68
Die Kaategorien und daas Codieren von n Texten
die sicch auf die Elttern beziehen n. In den meiisten Fällen isst es hingegen n nicht ohne weiteres w mögglich, die rich htigen Suchw wörter zu findden, mit deneen sich die Teextpassagen für f bestimmtee Kategorien in den Texteen finden lasssen. In-Vivvo-Codieren Hierbeei wird ein Wort W oder ein n Ausdruck der d Befragten n, der als besonders treffen nd oder charrakteristisch erscheint, alls neuer Codde erzeugt uund die Textsttelle gleichzeiitig mit dieseem Code cod diert. Es han ndelt sich also o quasi um einen „natürlicchen Code“, eine Katego orie, die in deen Köpfen dder Behten vorhandden ist und die d nicht etw wa eine Kon nstruktion dees Forforsch scherss darstellt.
3.4 Praktische P Hinweise für f MAXQD DA In MA AXQDA werrden alle Coddes im Fenstter „Liste derr Codes“ verrwaltet. Es lassen sich hierarchische Kaategoriensysteeme konstruiieren, die als Baumodes auf der obersten o Hieerarchieebenee lassen struktuur visualisiertt werden. Co sich durch Anklickken der Wurzzel des Codessystems einfüügen, Subkateegorien v bereits definierten Codes C (jeweiils mit der rrechten durch Anklicken von d Prinzip können auuch Subkateggorien von SuubkateMausttaste). Nach diesem gorien n bis hin zu zehn Ebenen gebildet werd den.
Abb. 177: Der Bildschiirm in MAXQD DA beim Codieeren
Praktische Hinweise für MAXQDA
69
Alle fünf oben erwähnten Formen des Codierens lassen sich praktizieren, wobei zunächst immer die Textstelle, die man codieren will, mit der Maus markiert werden muss. Das Codieren geht dann folgendermaßen vonstatten: Text farbig markieren Diese Funktion heißt „Color Coding“ und wird durch Anklicken von einem Farbbutton der „Color-Toolbar“ ausgelöst. Dies bewirkt einerseits, dass die Textstelle entsprechend eingefärbt wird, andererseits dass im Codesystem der Codiervorgang festgehalten wird, so dass sich später beispielsweise alle blau markierten Textstellen leicht wieder finden lassen. Offenes Codieren Nach Eingabe der Tastenkombination Strg+W öffnet sich ein Textfeld, in das man den neuen Code eintippen kann. Der Code wird in die Liste der Codes eingefügt und die Textstelle codiert. Codieren mit Codes aus dem Kategoriensystem Bei dieser Form des Codierens werden der Text und das Kategoriensystem am besten nebeneinander platziert (Abb. 17). Nun kann per Drag-and-drop codiert werden, d.h. die Textstelle wird mit der Maus zum gewünschten Code hingezogen oder umgekehrt der Code zur Textstelle. Zuordnen eines ausgewählten Codes Bei dieser Form des Codierens steht der Code, den man zuordnen will, von vornherein fest und der Text wird sukzessive auf Textstellen durchsucht, die mit diesem speziellen Code codiert werden sollen. Zunächst ist der gewünschte Code in der Liste der Codes anzuklicken, dadurch erscheint er im Codefenster über dem zu codierenden Text. Um Codierungen mit diesem Code vorzunehmen, ist auf das Symbol „Codieren“ zu klicken. Alternativ kann das Tastenkürzel Strg+Q eingegeben werden. In-Vivo-Codieren Mit Hilfe des In-Vivo-Codierens wird ein Begriff (oder Halbsatz) eines Befragten als Code in das Kategoriensystem aufgenommen und die entsprechende Textstelle hiermit codiert. Um In-Vivo-Codierungen vorzunehmen,
70
Die Kategorien und das Codieren von Texten
ist auf das Symbol „In-Vivo-Codieren“ zu klicken. Alternativ kann das Tastenkürzel Strg+I eingegeben werden. MAXQDA zeigt die vorgenommene Codierung in Form eines „Codierstreifens“ in der Spalte vor dem Text an. Jedem Code kann ein Farbattribut zugeordnet werden, der Codierstreifen wird dann in der Farbe des jeweiligen Codes dargestellt. Bewegt man die Maus über die Visualisierung der Codierung, erscheint der zugeordnete Code als Tooltipp10 auf dem Bildschirm. Gleichzeitig wird angezeigt, wer wann diese Codierung vorgenommen hat. Codierungen lassen sich an Ort und Stelle löschen und verändern. In der „Liste der Codes“ wird hinter jedem Code angegeben, wie viele codierte Segmente zu dieser Kategorie vorhanden sind.
Übungen 1. Definieren Sie vier neue Codes „Wissen“, „Intentionen“, „Einstellungen“ und „Verhalten“. Lassen Sie danach die Codes alphabetisch sortieren. 2. Definieren Sie zu „Einstellungen“ die Subkategorien „politisch“ und „religiös“ und zum Code „Verhalten“ die Subkategorien „Familie“ und „Beziehungen“. 3. Verschieben Sie das Kategoriensystem so, dass „Einstellungen“ und „Verhalten“ in der Liste zuoberst stehen und die Subkategorien alphabetisch sortiert sind. 4. Öffnen Sie den Text „interview2“ in der Textgruppe „Bürger“, markieren Sie den sechsten Absatz und codieren Sie diesen mit dem Code „Einstellungen/politisch“. 5. Codieren Sie den zehnten Absatz mit dem gleichen Code und außerdem mit dem Code „Intentionen“. 6. Löschen Sie die erste Codierung in Absatz 6 wieder. 7. Markieren Sie im Absatz 12 alles ab „Lokale Agenda …“ und nutzen Sie die In-Vivo-Codieren Funktion. Was passiert?
10 Ein Tooltipp ist ein kleines Informationsfenster, das am Mauszeiger erscheint, wenn er sich über einem bestimmten Bildschirmelement befindet.
Praktische Hinweise für MAXQDA
71
8. Markieren Sie den 14. Absatz und nutzen Sie den Button „Codieren“, um den Textabschnitt dem gleichen Code zuzuordnen. Verkürzen Sie den Namen des Codes in „Lokale Agenda“. 9. Öffnen Sie das „interview3“, lesen und codieren sie die ersten sieben Absätze. Gehen Sie dabei Zeile für Zeile vor.
4
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
Systematische, methodisch kontrollierte Textauswertung ist zwar eine Aufgabe, die sich in vielen Disziplinen und Praxisfeldern stellt, doch verfügt man meist nicht über einen Kanon von präzise beschriebenen Auswertungsmethoden. Im Bereich der Sozialwissenschaften sind eine Reihe von Verfahren entwickelt worden, die auch für andere Disziplinen sehr interessant sind. Im Folgenden werden vier solcher Ansätze skizziert, und zwar: x x x x
Theoretisches Codieren (orientiert an der Grounded Theory) Thematisches Codieren Zusammenfassende qualitative Inhaltsanalyse Typenbildung und typologische Analyse
Diese methodischen Ansätze praktizieren verschiedene Formen des Codierens und basieren auf unterschiedlichen wissenschaftstheoretischen Annahmen, deren Darstellung den Rahmen dieses Buches sprengen würde. Zur Vertiefung seien ausdrücklich die beiden umfassenden Monographien von Kelle empfohlen (Kelle 1994 und 2008). Die große Bandbreite der Ansätze verdeutlicht, dass QDA-Software nicht nur für einen ganz bestimmten Ansatz geeignet ist. Alle vorgestellten Verfahren basieren allerdings auf dem Arbeiten mit Kategorien: Die Vorgehensweise der Grounded Theory dient als Beispiel für theoretisches Codieren, die zusammenfassende Inhaltsanalyse nach Mayring als Beispiel für das paraphrasierende Verfahren, die Vorgehensweise von Hopf u.a. als Beispiel für thematisches Codieren und die Typenbildung als Beispiel für einen Ansatz, der quantitative und qualitative Verfahren integriert. Intention dieses Kapitels ist es, Grundzüge der verschiedenen Verfahren zu skizzieren. Eine erschöpfende Darstellung ist nicht beabsichtigt, die eingefügten Hinweise auf die relevante Literatur ermöglichen hier ggf. eine weitergehende Beschäftigung mit einzelnen Verfahren. Das Kapitel ist vor allem für solche Anwender von QDA-Software gedacht, die ihre Texte bis-
Theoretisches Codieren: Die Grounded Theory
73
lang nach Common-sense-Prinzipien auswerten und wenig über die in den Sozialwissenschaften entwickelten Techniken wissen.
4.1 Theoretisches Codieren: Die Grounded Theory Nicht nur in der amerikanischen Feldforschung, sondern zunehmend auch in der deutschen Sozialforschung hat der Ansatz der auf Anselm Strauss und Barney Glaser zurückgehenden Grounded Theory (Empirisch begründete Theoriebildung) vielfache Beachtung gefunden. Strauss, Glaser und später Corbin haben in verschiedenen, alleine und gemeinsam verfassten Schriften dieses Konzept einer Forschungsstrategie, in welcher Kategorien und das Codieren eine zentrale Rolle spielen, ausgearbeitet (vgl. Glaser/ Strauss 1998; Glaser 1978; Strauss 1991; Strauss/Corbin 1996; Strauss/ Corbin 2007). Im Laufe von drei Jahrzehnten hat sich das Konzept allerdings kontinuierlich weiter entwickelt und ausdifferenziert. In den Anfängen war der Ansatz stark induktivistisch formuliert und schien auf den ersten Blick eine weitgehend theorielose Herangehensweise zu propagieren: Alle vor der Analyse beim Forscher vorhandenen Theorien („preconceived theories“) wurden als eher wahrnehmungshemmend denn -fördernd apostrophiert. Strauss und Corbin haben nach und nach verschiedene Elemente klassischer Forschungskonzepte integriert. Vermutlich waren die Anfänge der Grounded Theory Mitte der 1960er Jahre dadurch gekennzeichnet, dass Strauss und Glaser primär eine wissenschaftspolitische Manifestation gegenüber dem Behaviorismus und dem quantitativen Mainstream vornehmen wollten, der in der politisch konservativen Nachkriegszeit in den USA die interaktionistischen Ansätze ziemlich an den Rand gedrängt hatte. Strauss selbst hat in einer rückblickenden Betrachtung diese Vermutung bestärkt: „Wir entschieden Mitte 60, ein Buch über Methoden zu schreiben. Wir spürten schon, dass Veränderungen in der Luft lagen, denn wir wollten für die „Kids“ schreiben – Leute über 30 schienen uns schon zu festgelegt. Barney hatte das bessere Gefühl, dass ein solches Buch ankommen würde, ich war skeptischer, weil ich älter war. Der Titel „The Discovery of Grounded Theory“ (1967), zeigt schon, worauf es uns ankam: Nicht wie in den üblichen Methodenlehrbüchern die Überprüfung von Theorie, sondern deren Entdeckung aus den Daten heraus. Grounded Theory ist keine Theorie, sondern Methodologie, um in den Daten schlummernde Theorien zu entdecken.“ (Legewie/Schervier-Legewie 1995: 70)
74
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
Die sukzessive Präzisierung der Grounded Theory als Analyseverfahren durch Strauss und Corbin hat auch zu Kontroversen zwischen den beiden Begründern der Grounded Theory11 geführt, deren Kern von Kelle (2005) treffend beschrieben wird. Die Übersetzung des Begriffs Grounded Theory ins Deutsche ist nicht unproblematisch. Noch am ehesten lässt er sich mit „gegenstandsbezogene Theorie“ oder „empirisch basierte Theorie(bildung)“ übersetzen, wobei mit Theorie hier eine Theorie mittlerer Reichweite und keine Gesellschaftstheorie („Grand Theorie“) gemeint ist. Anselm Strauss zufolge besteht eine Grounded Theory aus Kategorien, ihren theoretisch bedeutsamen Merkmalen und Hypothesen, d.h. aus verallgemeinerten Beziehungen zwischen Kategorien und ihren Merkmalen. Obwohl weit vom Konzept der traditionellen Inhaltsanalyse entfernt, teilt Strauss mit dieser die zentrale Stellung, die den Kategorien und dem Vorgang des Codierens eingeräumt wird. Strauss formuliert „Codieren ist der Prozess der Datenanalyse“ und bringt damit zum Ausdruck, dass der Begriff „Codieren“ in der Grounded Theory etwas anderes meint als in klassischen Forschungsansätzen, in denen „Codieren“ wesentlich enger als Klassifizierung von Daten in der Auswertungsphase eines Projektes begriffen wird. Im Zentrum des Analysestils der Grounded Theory steht das sorgfältige Codieren der Daten, d.h. die Formulierung von Konzepten und die Zuordnung von Codes zu bestimmten Phänomenen im Datenmaterial12. Dabei
11 Die Grundideen der Grounded Theory lassen sich anhand folgender Originaltexte studieren: a) Glaser, B. G./Strauss, A. L. (1998): Grounded Theory. Strategien qualitativer Forschung. Bern u. a. Es handelt sich um die erste, 1967 erstmals erschienene umfassende Darstellung der Grounded Theory – einschließlich aller Missverständnisse. b) Strauss, A., 1998: Grundlagen qualitativer Sozialforschung. Datenanalyse und Theoriebildung in der empirischen soziologischen Forschung. München. Dieser Studientext macht anhand von Seminarprotokollen die Vorgehensweise von Strauss praktisch nachvollziehbar. Der Text weist allerdings viele Wiederholungen auf und oft mangelt es an begrifflicher Klarheit. c) Strauss, A./Corbin, J., 1996: Grundlagen qualitativer Sozialforschung. Weinheim. Dieses Buch stellt eine Art Komplement zu dem vorgenannten Text dar. Strauss und seine Mitautorin haben hier versucht, die verschiedenen Werkzeuge und Verfahren der Grounded Theory systematisch zu definieren und zu beschreiben. 2007 hat Corbin die überarbeitete dritte Auflage dieses Lehrbuchs publiziert. Zu Anselm Strauss vgl. Strübing (2007). 12 Eine Zusammenfassung der Grundideen des Codierens nach der Methode der Grounded Theory findet man bei: Böhm (2000), Flick (2002: 258 ff.). Sehr empfehlenswert ist auch der von Mey und Mruck zusammengestellte Reader zur Grounded Theory (2007).
Theoretisches Codieren: Die Grounded Theory
75
werden von Strauss und Corbin drei Haupttypen des Codierens unterschieden: offenes Codieren, axiales Codieren und selektives Codieren. Offenes Codieren Das offene Codieren ist als der Prozess des Aufbrechens, Untersuchens, Vergleichens, Konzeptualisierens und Kategorisierens von Daten definiert. Offenes Codieren „eröffnet“ die Forschungsarbeit: Das Datenmaterial wird sorgfältig durchgearbeitet, vorläufige Konzepte und deren Dimensionen werden entwickelt. Den Daten werden normalerweise zahlreiche Codes zugewiesen (vgl. Flick 2007a: 391). Verwendet werden konzeptuelle Kategorien („conceptual codes“), die auf theoretischen Konzepten basieren oder In-Vivo-Codes, alsoBegriffe, die von den Akteuren selbst verwendet werden. In-Vivo-Codes ermöglichen laut Strauss einen unmittelbaren, durch keine Theorie verstellten Zugang zu den Sichtweisen der Akteure. Solche Begriffe fallen bei der Dateninterpretation sofort ins Auge: Beispielsweise bezeichnet in einer medizinsoziologischen Studie von Strauss eine Oberschwester eine andere Stationsschwester als „Traditionsträger der Station“, weil ihr die Aufgabe zufällt, alle neuen Beschäftigten einzuarbeiten und in die Regeln und Abläufe der Station einzuführen. Unter Konzepten verstehen Strauss/Corbin (1996): „Konzeptuelle Bezeichnungen oder Etiketten, die einzelnen Ereignissen, Vorkommnissen oder anderen Beispielen für Phänomene zugeordnet werden.“ Ein weiteres Beispiel hierfür ist die Bezeichnung „Einschätzung des sozialen Verlustes“. Ergebnis des ersten Analyseschrittes ist eine Liste von Konzepten, die im nächsten Schritt zu Kategorien zusammengefasst werden. Kategorie ist für Strauss ein unabhängiges begriffliches Element einer Theorie, eine Klassifikation von Konzepten. Diese Klassifikation wird erstellt, wenn Konzepte miteinander verglichen werden und sich offenbar auf ein ähnliches Phänomen beziehen. So werden die Konzepte unter einem Konzept höherer Ordnung zusammengruppiert – ein abstrakteres Konzept, genannt Kategorie, beispielsweise „Pflegehandeln des Personals“. Kategorien besitzen Eigenschaften und Merkmale, die theoretisch bedeutsame Aspekte darstellen. Die Kategorie „Pflegehandeln des Personals“ besitzt beispielsweise die Merkmale „professionelle Gelassenheit“ und „Einschätzung des sozialen Verlustes“. Die Begriffe Merkmal und Subkategorie werden von Strauss allerdings weitgehend synonym verwendet. Auch Subkategorien können wiederum Merkmale besitzen, beispielsweise kann die
76
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
Subkategorie „Einschätzung des sozialen Verlustes“ das Merkmal „Verlustrationalisierungen“ aufweisen. Eine wichtige Tätigkeit bei der Entwicklung von Kategorien ist das Dimensionalisieren. Kategorien besitzen Attribute und diese lassen sich auf einem Kontinuum beschreiben: Die „Professionelle Gelassenheit“ kann, ebenso wie die „Einschätzung des sozialen Verlustes“ groß oder gering sein: professionelle Gelassenheit gering
groß
gering
groß Einschätzung des sozialen Verlustes
Der Arbeitsschritt des offenen Codierens besteht also neben dem Konzeptualisieren der Daten im Identifizieren und Dimensionalisieren der Eigenschaften von Kategorien. Offenes Codieren kann auf verschiedene Art und Weise durchgeführt werden, wobei Strauss empfiehlt, zunächst Zeile-fürZeile vorzugehen (Strauss 1991: 57 ff.). Codes können sich auf einzelne Worte beziehen – wie oben auf „Traditionsträgerin“ – auf Sätze, Abschnitte oder den gesamten Text. Im letzten Falle geht es darum, Dokumente miteinander zu vergleichen, Ähnlichkeiten und Unterschiede bezogen auf das gesamte Dokument zu klassifizieren. Hier haben Codes dann den Charakter von Fallvariablen (vgl. Kapitel 7). Als Beispiel für eine dimensionalisierte Kategorie sei eine Darstellung von Strauss wiedergegeben, die er in einer Studie für den Arbeitstyp „Beobachten“ entwickelt hat (Strauss/Corbin 1996: 53). Kategorie
Eigenschaften
Dimensionale Ausprägung
Beobachten
Häufigkeit
oft
---------------- nie
Ausmaß
viel
---------------- wenig
Intensität
hoch
---------------- niedrig
Dauer
lang
---------------- kurz
(pro Ereignis)
Abb. 18: Dimensionalisierung der Kategorie „Beobachten“
Hierauf basierend lassen sich fallbezogene Profile für Kategorien herstellen, indem die Merkmale auf einem Kontinuum abgetragen werden.
Theoretisches Codieren: Die Grounded Theory
77
Axiales Codieren Als spezielle fortgeschrittene Technik des Codierens, die am Anschluss an das offene Codieren betrieben wird, beschreibt Strauss das axiale Codieren. Darunter versteht er „eine Reihe von Verfahren, mit denen durch das Erstellen von Verbindungen zwischen Kategorien die Daten nach dem offenen Codieren auf neue Art zusammengesetzt werden. Dies wird durch den Einsatz eines Codier-Paradigmas erreicht, das aus Bedingungen, Kontext, Handlungs- und interaktionalen Strategien und Konsequenzen besteht.“ (Strauss/Corbin 1996: 75) Das axiale Codieren richtet sich also gezielt auf eine bestimmte fokussierte Kategorie und ihre Beziehungen. Heuristischer Rahmen ist ein allgemeines Handlungsmodell, aufgrund dessen die Kategorien auf die Zugehörigkeit zu sechs Klassen hin untersucht werden: 1. 2. 3. 4. 5. 6.
Phänomene, auf die sich das Handeln richtet Kausale Bedingungen für diese Phänomene Eigenschaften des Handlungskontextes Intervenierende Bedingungen Handlungs- und Interaktionsstrategien deren Konsequenzen
Auf diese Weise erreicht der Analyseprozess eine abstraktere Ebene und bewegt sich hin zur dritten Form des Codierens, dem selektiven Codieren. Selektives Codieren Dieses ist definiert als „Der Prozess des Auswählens der Kernkategorie, des systematischen In-Beziehung-Setzens der Kernkategorie mit anderen Kategorien, der Validierung dieser Beziehungen und des Auffüllens von Kategorien, die einer weiteren Verfeinerung und Entwicklung bedürfen.“ (ebd.: 94). In dieser Phase wird die gesamte interpretative Arbeit integriert. Die einzelnen Handlungsmodelle werden in ein umfassendes theoretisches Konzept, eine Theorie über das typische Handeln typischer Akteure im Untersuchungsfeld, verdichtet. Die Kernkategorie(n) werden systematisch zu anderen Kategorien in Beziehung gesetzt. Die Daten werden gruppiert, Ziel ist das Aufdecken von Mustern durch Betrachtung der dimensionalen Ausprägungen der Kategorien. Das entspricht der multivariaten statistischen Analyse im Fall der quantitativen Inhaltsanalyse, anders als dort geht es aber nicht um Koeffizienten und Signifikanzen, sondern um die Konstruktion einer analytischen Geschichte. Diese muss einen roten Faden aufweisen,
78
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
sequentiell und logisch geordnet sein. (vgl. hierzu Strauss/Corbin 1996: 198 ff.) Wie funktionieren das Codieren und die Generierung von Codes nach dem Stil der Grounded Theory denn nun genau? Anselm Strauss neigt zu allem anderen als zu Dogmatismus, wenn er den Analysestil der Grounded Theory als einen unter vielen möglichen Analysestilen betrachtet. Ebenso betont er, dass es wichtig sei, die Methode immer an die je konkrete Fragestellung anzupassen. Entscheidend ist weniger ein ganz bestimmtes Procedere als vielmehr das Ziel, nämlich Theorie – und zwar sowohl Theoriegenerierung als auch Theorieüberprüfung. Hiermit sind deutliche Differenzen markiert, erstens zu einer vornehmlich auf Deskription und dichte Beschreibungen zielenden qualitativen Analysestrategie und zweitens zu einer Position, die qualitative Forschung auf Exploration und Theoriegenerierung festlegen will und der quantitativen Forschung das Recht auf Theorieüberprüfung vorbehält. Als zentrales Merkmal des Codierens nach Strauss ist also festzuhalten: Codieren im Rahmen der Grounded Theory ist theoretisches Codieren, d.h. auf eine Theorie hin arbeitendes Codieren.
Mit diesem Merksatz wird ein Problem deutlich, das die Grounded Theory als Auswertungsverfahren besitzt, nämlich eine inhärente Vagheit und Unbestimmtheit. Wie, so lässt sich fragen, kann man auf der Basis derselben Daten eine Theorie generieren und gleichzeitig überprüfen? Bedarf eine noch so plausible Deutung nicht, will sie allgemeine Gültigkeit beanspruchen, doch der Überprüfung mittels statistischer Tests? Theoriegenerierung ist zudem kein codifizierbarer und genau beschreibbarer Vorgang. Es handelt sich nicht um ein Procedere, das man Schritt für Schritt als quasi technischen Prozess erlernen könnte, sondern der Forscher ist weitgehend auf sich selbst verwiesen. Wer mit den Erwartungen an präzise Verfahrensbeschreibungen, wie sie in der quantitativen Methodik üblich sind, an die Grounded Theory herangeht und ganz genau gesagt bekommen möchte, was er zu tun hat, der wird recht unbefriedigt zurückbleiben. Theoriekonstruktion ist eine Mischung aus Intuition, harter Arbeit, Kreativität, solidem Vorwissen und nicht zuletzt Zufälligkeiten und Glück. Diese Charakteristika von Theoriebildung infizieren gewissermaßen die Auswertungsmethode der Grounded Theory mit einer Dosis Vagheit und Unbestimmtheit. Co-
Theoretisches Codieren: Die Grounded Theory
79
dieren nach der Grounded Theory ist eine Kunstlehre und in solcher spielen Meister immer eine bedeutende Rolle. Ihnen schaut man gewissermaßen über die Schulter und erlernt so ihre Handwerkskunst. Der Eindruck einer solchen Meister-Lehrlings-Konstellation drängt sich auch geradezu auf, wenn man die in Strauss’ zentraler Arbeit „Grundlagen qualitativer Sozialforschung.“ (Strauss 1991) dokumentierten Seminarsitzungen des „Meisters“ liest (insbes. 124 ff.). Der Analyseprozess nach der Grounded Theory unterliegt also keinem streng fixierten Ablauf. Strauss hat sich bewusst gegen eine Systematisierung von methodischen Regeln ausgesprochen. Die Grounded Theory gibt nur Leitlinien und Orientierungshilfen. Codieren ist laut Strauss Datenanalyse und Analyse ist gleichbedeutend mit der Interpretation von Daten, d.h. Codieren ist damit eine Tätigkeit, die während des gesamten Forschungsprozesses stattfindet und nicht nur zu einem bestimmten Zeitpunkt, in einer bestimmten Phase des Forschungsprozesses. Die Vorgehensweise der Grounded Theory Im Folgenden wird versucht, die einzelnen Bestandteile und Leitlinien des Vorgehens nach der Grounded Theory in eine der Logik des Forschungsprozesses folgende Ordnung zu bringen, wohl wissend, dass gerade die Vorgehensweise der Grounded Theory stark auf zirkuläre Vorgehensweise abstellt. Bei den zwölf Schritten, die unten beschrieben werden, sind also jeweils auch (mögliche) „Rückschritte“ von unten nach oben mitzudenken. Trotz aller Zirkularität: Auch die Grounded Theory beginnt mit der Lektüre des ersten Textmaterials (z.B. eines Interviewtranskripts, eines Protokolls, einer Gruppendiskussion oder einer Feldnotiz) und endet mit der Erstellung eines Forschungsberichts. Auch findet eine Evolution des Codierens, vom offenen Codieren, das die Arbeit eröffnet und die Daten „aufbricht“ hin zum komplexen axialen und selektiven Codieren statt. Die drei verschiedenen Formen von Codes bezeichnen gleichzeitig bestimmte aufeinander folgende Phasen im Forschungsprozess, wobei Phase hier nicht im Sinne des streng sequentiellen Ablaufs klassischer Sozialforschung zu verstehen ist, sondern durchaus zirkuläre Elemente beinhalten kann. Klar ist aber, dass kein selektives Codieren in der ersten Phase des Forschungsprozesses stattfinden kann, ohne dass man eine Phase des offenen Codierens durchschritten hätte.
80
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
1. Zunächst wird der gesamte Text gelesen – bei einer Forschergruppe von allen Mitgliedern des Teams, die an der Interpretation beteiligt sind. 2. Vorwissen über den Gegenstandsbereich der Forschung ist sehr wichtig und durchaus willkommen. Viele Forschungsfragen lassen sich auf der Basis von Vorwissen und allgemeinem Weltwissen bereits stellen, ehe man das erste Interview gelesen und ausgewertet hat. Zwar ist eine Analyse nach dem Verfahren der Grounded Theory prinzipiell auch ohne Vorwissen möglich, doch würden die Resultate wahrscheinlich schlechter sein und Gefahr laufen, Ergebnisse zu produzieren, die Experten als Trivialitäten erscheinen. 3. Die eigentliche Analyse und Interpretation erfolgt als Detailanalyse auf dem Hintergrund des gesamten Textes. 4. Mit dem offenen Codieren beginnt die Analyse, dabei sind gezielt Fragen an das Material zu stellen (vgl. Böhm u.a. 1994): WAS? Ⱥ Worum geht es hier? Welches Phänomen wird angesprochen? WER? Ⱥ Welche Personen sind beteiligt, welche Rollen, wie interagieren sie? WIE? Ⱥ Welche Aspekte des Phänomens werden (nicht) angesprochen? WANN? WIE LANGE? WO? WIE VIEL? WIE STARK? WARUM? Ⱥ Welche Begründungen werden gegeben oder lassen sich erschließen? WOZU? Ⱥ Mit welcher Absicht, zu welchem Zweck? WOMIT? Ⱥ Welche Mittel werden zur Zielerreichung verwendet? 5. Die Vorgehensweise bei der Auswertung ist flexibel. Es kann sowohl mit einer Zeilefür-Zeile Analyse am Anfang des Textes begonnen werden, als auch ein ausgewählter Aspekt, der natürlich für das Interview zentral sein sollte, systematisch betrachtet werden (Sehen wir uns die ersten vier Seiten des Textes an. Was sagen sie uns zum Thema „xy“?). Auch dann beginnt man die Interpretation vorne im Text und führt eine Zeilefür-Zeile Analyse durch. Man eilt nicht der Geschichte voraus. Die Analyse besteht aus der Interpretation des Gesagten, auf dem Hintergrund von Wissen (Alltagswissen, Forscherwissen, wissenschaftliches Wissen) und von Kenntnis des übrigen, „noch kommenden“ Interviewtextes. Die sehr ausführliche Interpretation auf dem Hintergrund von Vorwissen lässt sich am besten in einer Forschergruppe vornehmen. So kommt zum einen mehr Wissen auf den Tisch, zum anderen stellt die Gruppe ein Korrektiv dar, so dass Fehldeutungen eher vermieden werden. 6. Zu achten ist auch auf „natürliche Codes“, d.h. auffällige Formulierungen des Befragten (Beispiel: Eine Patientin erzählt über eine Routineuntersuchung auf Krebs, die sie hat durchführen lassen. Urplötzlich teilte man ihr eine sehr negative Diagnose mit. Im Interview heißt es: „… ich flippte aus“. 7. Die Interpretation führt zur Entdeckung von Codes (Beispiel hierfür: „diagnostische Karriere“, „medizinische Stationen“).
81
Theoretisches Codieren: Die Grounded Theory
Die Codes in dieser Phase können einen sehr unterschiedlichen Abstraktionsgrad aufweisen. So bildet Strauss den Code „medizinischer Trichter“ und bezeichnet damit das Phänomen, das man während einer Krankheitskarriere Entscheidungsmöglichkeiten hat. Man kann Medikamente nehmen oder nicht, einer Operation zustimmen oder nicht etc. Die Entscheidungsmöglichkeiten engen sich zunehmend ein, bis man die Entscheidung dem Arzt überlässt. Anders als beim Codieren der quantitativen Forschung kann eine Textpassage hier durchaus mehreren Codes zugewiesen werden. 8. Alle Ideen, die über die Textstelle hinaus auf andere Stellen weiter hinten im Text weisen (an die man sich aufgrund der Lektüre des gesamten Textes erinnert), werden als Memo festgehalten, quasi als ein Erinnerungsposten für die Interpretation der entsprechenden Seiten im Interview, zu denen man dann erst später kommen wird. Man setzt die Analyse Zeile-für-Zeile und Absatz für Absatz fort. 9. Bei der Deutung sollte man stets in Vergleichen denken und sich bspw. fragen: „Was sagt uns die erste Hälfte der Seite? Welche Phänomene sind hier angesprochen? Wie könnten diese noch sein? Was könnte stattdessen passieren?“ 10. Mit Fortgang der Analyse werden die Codes endgültiger und verlieren ihren vorläufigen Charakter, der noch für die Phase des offenen Codierens typisch ist. Das impliziert, dass man Codes umbenennt, löscht, zusammenfasst, unter ein übergeordnetes Konzept subsumiert etc. 11. In den mittleren und fortgeschrittenen Stadien des Analyseprozesses beginnt auch das axiale Codieren, bei dem einzelne Codes in den Mittelpunkt der Analyse gerückt werden. Auf der Basis der oben unter 4) genannten Fragen, die in systematischer Weise an das Material zu stellen sind, schematisiert Strauss das Codierparadigma wie folgt (Böhm 2000: 479):
Kontext und intervenierende Bedingungen
ursächliche Bedingungen
Phänomen
Handlungsstrategien
Konsequenzen
82
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
12. Mit jedem Schritt der Analyse schreitet die Theoriebildung fort. Die analytische Arbeit ist darauf ausgerichtet, die Schlüsselkategorie(n) herauszuarbeiten. Um diese herum wird dann die Theorie aufgebaut. Möglicherweise ist auch eine der Achsenkategorien die entscheidende Schlüsselkategorie. Dann wird um sie herum unter Einbeziehung der bislang geschriebenen Memos etc. der Forschungsbericht geschrieben.
Das Erlernen der Grounded Theory ist nicht einfach, gerade weil sie dem Forscher viel Freiheit lässt. Ein Problem stellt gewiss dar, dass Begriffe wie „Code“, „Konzept“, „Kategorie“ oder „Dimension“ nicht sehr präzise definiert und gegeneinander abgegrenzt sind. Schließlich bedeutet die Anwendung der Grounded Theory dem Anspruch nach auch, das Wichtige in den Daten zu erkennen, das ist nun gewiss nichts, was man leicht erlernen könnte. Kritik an der Grounded Theory richtet sich auf die wenig kontrollierte Datensammlung, die möglicherweise ausufernde Codierung, die Gefahr der vorschnellen Festlegung durch Theoriebildung auf der Basis von noch sehr wenigen Daten und die mangelnde Intersubjektivität. Umsetzung der Methode mit QDA-Software Die Umsetzung des Analysestils der Grounded Theory mit QDA-Software stellt kein Problem dar, denn häufig ist es gerade die Grounded Theory, die bei den Entwicklern der Programme als Leitbild im Hintergrund präsent war und insofern ist die Software genau für diesen Typ der Analyse konzipiert. Die führenden QDA-Programme offerieren alle Werkzeuge, die für das Arbeiten nach dem Stil der Grounded Theory benötigt werden: x x
x x x x
Man kann Textstellen mit der Maus markieren und codieren. Jede Codierung wird ähnlich wie beim Arbeiten mit Papier und Bleistift neben dem Text angezeigt. Man sieht jederzeit, wo man etwas codiert hat und um welchen Code es sich handelt. Alle Codes werden in einer Liste geführt, die nach den Bedürfnissen des Nutzers geordnet werden kann. Codes können jederzeit umbenannt, d.h. präziser formuliert werden. Codes können umorganisiert, d.h. zu abstrakteren Konzepten gruppiert oder in mehrere Codes ausdifferenziert werden. Verschiedene Dimensionen und Subdimensionen eines Codes können gebildet und codiert werden. Es wird angezeigt, ob und wie häufig die Dimensionen im Material vorhanden sind. Dies kann wertvolle Hinweise für die vergleichende Analyse liefern oder Basis für ein Theoretical Sampling sein.
Theoretisches Codieren: Die Grounded Theory x
x
x
x x x x
83
Natürliche Codes („In-Vivo-Codes“) können identifiziert und markiert werden. Sie werden automatisch in die Liste der Codes aufgenommen. Memos können geschrieben, verändert und integriert werden, und zwar Memos unterschiedlicher Art, z.B. Text-Memos, Code-Memos, theoretische Memos etc. Über die von Strauss und Corbin beschriebenen Techniken hinaus bietet die computergestützte Auswertung noch Möglichkeiten an, die bei einer handwerklichen Arbeitsweise nicht bestanden: Es lassen sich Übersichten erstellen, z.B. als Übersicht über alle Codierungen eines Textes, als Übersicht über alle Stellen, an denen man einen bestimmten Code zugewiesen hat. Es lassen sich Überschneidungen von Codes ermitteln und die entsprechenden Textstellen listen. Die Nähe von Codierungen zueinander lässt sich als Suchkriterium formulieren, ebenso die Abfolge von Codes. Memos lassen sich wie in einem Karteikasten verwalten und durchsuchen. Verschiedene Memotypen (Theorie-Memos, Code-Memos, etc.) können selektiert werden und gezielt betrachtet werden, etwa alle Memos, die sich auf ein Theoretical Sampling beziehen, so lässt sich die nächste Feldphase gezielter planen.
Zusammenfassend lassen sich aus der Grounded Theory eine Reihe von wertvollen Hinweisen und Maßregeln für den Umgang mit Kategorien gewinnen. An erster Stelle ist hier die zentrale Bedeutung, die dem Codieren überhaupt eingeräumt wird, zu nennen. Ferner zeigt die Praxis der Grounded Theory, dass Kategorien sehr verschiedene Grade an Dichte und Abstraktion aufweisen können. Von Bedeutung ist drittens die im Analyseprozess kontinuierlich stattfindende Arbeit an den Kategorien, etwa die Kategorien auszudifferenzieren und zu dimensionalisieren. Schließlich führt der Analysestil der Grounded Theory auch deutlich vor Augen, dass es jenseits eines einfachen Konzeptes von „Indikatoro Kategorieo statistische Analyse“ auch solche Forschungskonzepte gibt, die auf unterschiedliche Formen des Codierens in verschiedenen Phasen des Forschungsprozesses zielen und die die Entdeckung von Schlüsselkategorien in den Mittelpunkt stellen.
84
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
4.2 Thematisches Codieren Thematisches Codieren ist eine Methode, die bei sehr vielen qualitativen Projekten zur Datenauswertung eingesetzt wird. Meist geschieht dies eher im Sinne einer Common-sense-Technik, ohne dass man sich gezwungen sieht, hierzu besondere methodischen Begründungen und Rechtfertigungen zu geben. Das heißt, dass in solchen Studien das thematische Codieren nicht selbst zum Gegenstand methodischer Überlegungen gemacht wird und meist in seinem Ablauf auch nicht genauer beschrieben wird. Stillschweigend wird vorausgesetzt, dass jeder Wissenschaftler in der Lage ist, das zu bestimmten Themen Wichtige aus den Daten herauszuarbeiten, dazu bedarf es keiner fixierten Vorgehensweise. Auch in Methodenlehrbüchern war über das thematische Codieren lange Zeit wenig zu finden, es gehörte eher zu einer Art „Folklore“ der Datenanalyse, die vom wissenschaftlichen Nachwuchs erlernt wurde, indem den erfahrenen Forschern über die Schulter geschaut wurde. Von Meistern zu lernen bzw. aus vorliegenden Studien die Vorgehensweise qualitativer Datenanalyse „abzugucken“, ist auch heute noch ein gangbarer und durchaus produktiver Weg, sich qualitative Methodik anzueignen. Dies erfordert aber einerseits viel Zeit, andererseits bleibt dennoch eine gehörige Portion Unsicherheit hinsichtlich der methodischen Korrektheit zurück. Im Folgenden wird eine explizite, gut ausgearbeitete und methodisch kontrollierte Form des thematischen Codierens vorgestellt, nämlich die von Christel Hopf u.a. in verschiedenen Projekten eingesetzte Methodik. Hopf ist unter den qualitativen Methodikern und Forschern in Deutschland seit langem eine der profiliertesten. Sie hat eine Reihe einschlägiger qualitativer Studien durchgeführt, die durch ihre sorgfältige methodische Anlage überzeugen und in denen – durchaus selbstkritisch – die qualitative Methodik reflektiert wird (vgl. Hopf/Nevermann/Schmidt 1985, Hopf u.a. 1995, Hopf/Hopf 1997, Hopf/Hartwig 2001). Teilweise sind zu den Studien auch methodische Begleitmaterialien verfügbar, aus denen sich das regelgeleitete Vorgehen der Autorinnen im Detail nachvollziehen lässt.13
13 Vgl. Hopf, C./Schmidt, C. (Hrsg.), 1993. In diesem Text geben die Autorinnen einen detaillierten Einblick in die Methoden ihrer Untersuchung. Die Interviewleitfäden, Transkriptionsregeln und Interviewanweisungen sind ebenso abgedruckt wie die Anweisungen für die technische Vorgehensweise bei der Auswertung.
Thematisches Codieren
85
Die methodische Vorgehensweise bei Hopf und Mitarbeiterinnen Am besten lässt sich die Vorgehensweise von Hopf u.a. am Beispiel des Projekts „Familie und Rechtsextremismus“ nachvollziehen. Im Mittelpunkt dieser Studie steht die familiale Sozialisation von rechtsextrem orientierten jungen Männern (Hopf u.a. 1995). Ziel der Forschung ist es, Erkenntnisse über den Zusammenhang von rechtsradikaler Orientierung und persönlichen Erlebnissen in Kindheit und Jugend zu gewinnen. Mit der Anknüpfung an die psychologische Bindungstheorie wählen Hopf u.a. eine explizit theorieorientierte Vorgehensweise. Das Auswertungsverfahren basiert also wesentlich stärker als das in der Grounded Theory der Fall ist auf Vorwissen, vor allem theoretischem Vorwissen. Folglich geht es in der empirischen Studie auch nicht um Theoriegenerierung, wie in der Grounded Theory üblich, sondern um die Überprüfung und Weiterentwicklung einer als aussichtsreich eingeschätzten Theorie, dies allerdings nicht in generalisierender Weise, sondern als fallbezogene Überprüfung der Gültigkeit einer Theorie mittlerer Reichweite. Hopf vertritt die unter qualitativ Forschenden nicht unumstrittene Position, dass qualitative Forschung durchaus auch zur Überprüfung von Theorien geeignet ist, jedoch nicht in dem Sinne dass die Allgemeingültigkeit einer Theorie getestet werden könne. Hierzu bedarf es, so Hopf, selbstverständlich repräsentativer Stichproben, doch fallbezogen lässt sich durchaus ermitteln, ob der betreffende Fall eine Theorie bestätigt oder widerlegt. Das von Hopf und Mitarbeiterinnen ausgearbeitete Auswertungsverfahren unterscheidet vier hintereinander angeordnete Schritte: 1. 2. 3. 4.
Entwickeln der Auswertungskategorien Codieren des Materials Erstellen von Fallübersichten Vertiefende Analyse von ausgewählten Fällen
Ähnlich wie in der Grounded Theory gilt, dass alle Schritte unmittelbar am Material vorgenommen werden, alle Kategorien sind in den empirischen Daten verankert und das Material wird durch das Codieren nicht überflüssig, weil danach nur noch mit den Kategorien und Codierungen weiter gearbeitet wird. Voraussetzung der Hopfschen Vorgehensweise ist, dass eine vollständige Transkription des Materials erstellt wird. Zusätzlich und ergänzend zum Transkript wird ein Protokoll zum Ablauf des Interviews und zur Interviewsituation erstellt.
86
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
Im Folgenden werden die vier Schritte des Auswertungsprozesses näher erläutert: Erster Schritt: Entwickeln der Auswertungskategorien Dieser erste Schritt beginnt bereits mit der Planung der Datenerhebung, also nicht erst dann, wenn die Daten erhoben, d.h. die Interviews schon geführt sind. Die Entwicklung von Auswertungskategorien beginnt etwa zeitgleich mit der Entwicklung des Interviewleitfadens. Hintergrund ist eine möglichst präzise Formulierung der Forschungsfrage. Dazu kann auch gehören, dass Theorien und auf die Theorie bezogene Begriffe und Kategorien schon vor der Erhebung festgelegt werden. Dies gilt aber in jedem Fall nur für einen Teil der Kategorien, welche ansonsten aus dem Material heraus entwickelt werden. Die Vorgehensweise ist theoriegeleitet, aber zugleich offen, denn es wird darauf geachtet, dass die Befragten selbst zu Wort kommen und man ist sensitiv in Bezug auf theoretische Widersprüche und Ungereimtheiten. Die auf den theoretischen Vorannahmen basierenden Kategorien werden als „Entwürfe“ verstanden, die durch die empirische Realität verändert werden können und nicht als vorab fixierter unabänderlicher Interpretationsrahmen. Entwickelt werden die Kategorien in intensiver Auseinandersetzung mit den Texten, die u.U. mehrmals gelesen werden. Kategorien repräsentieren Themen, sie ähneln Überschriften, die mehr oder weniger präzise sein können und ggf. im Zuge des Auswertungsprozesses ausdifferenziert werden müssen, wie im folgenden Zitat erläutert wird: „Als Beispiel soll hier die Auswertungskategorie ‚Auseinandersetzung mit der nationalsozialistischen Vergangenheit’ herangezogen werden. Aufgrund von Erfahrungen während des Interviews sowie während der Codierung der Probeinterviews und der ersten Interviews schien sich zu ergeben, dass die Differenzierung zwischen den Interviews sehr gering sind: In fast allen Interviews fanden sich Abwehr und Unlust, sich kritisch mit der faschistischen Vergangenheit auseinanderzusetzen. Betrachtet man jedoch die Begründungen, zeigten sich wichtige Unterschiede zwischen den Interviews: Während einige die nationalsozialistische Vergangenheit relativieren, bagatellisieren und verleugnen und sogar positive Seiten darin sehen, finden sich solche Argumente bei anderen nicht. Es war also wichtig die Auswertungskategorie entsprechend auszudifferenzieren.“ (Schmidt 1997: 551)
Thematisches Codieren
87
Auf der Basis des Materials werden in der Studie fünf Ausprägungen der Kategorie „Einstellung zum Nationalsozialismus“ unterschieden (vgl. Schmidt 1997: 556): 1. Der Befragte neigt zur Verherrlichung des Nationalsozialismus. 2. Der Befragte meint, dass ein Schlussstrich unter diesen Teil der deutschen Geschichte gezogen werden sollte, und meint, dass auch angeblich positive Seiten dieser Zeit gesehen werden müssten. 3. Der Befragte meint, dass ein Schlussstrich unter diesen Teil der deutschen Geschichte gezogen werden sollte, negative Seiten dieser Zeit werden gleichwohl gesehen, vermeintlich positive Seiten werden nicht hervorgehoben. 4. Der Befragte hält es für wichtig, sich weiter kritisch mit der Vergangenheit auseinanderzusetzen. 5. Keine Angabe, nicht gefragt o.ä., Zuordnung zu einer der vorhandenen Kategorien trotz vorhandener Information nicht möglich. Die Kategorienbildung verläuft folgendermaßen: x In Auseinandersetzung mit der Theorie und aufgrund der ersten Felderkundungen werden Kategorien gebildet, die gleichzeitig Grundlage des Leitfadens sind. x Aufgrund von Probeinterviews und weiteren Erfahrungen im Feld werden die bereits präziser werdenden Kategorien zu einem „Codierleitfaden“ zusammengestellt. x Gemeinsame Diskussionen im Team führen zu einer Überprüfung der Anwendbarkeit der Kategorien und ggf. zu ihrer Überarbeitung, es entsteht der endgültige Codierleitfaden: „Nach Abschluss der Befragung haben wir erste Entwürfe unseres Codierleitfadens zunächst mehrfach erprobt und überarbeitet. In interpretativer Auseinandersetzung mit Textpassagen aus Probeinterviews und aus den ersten verschrifteten Interviews wurden die Kategorien ausdifferenziert und verändert. (...)“ (Hopf u.a. 1995: 29). Zweiter Schritt: Codieren des Materials Der Codierleitfaden stellt das Instrumentarium dar, mit dem in der zweiten Analysephase alle Interviews durchgearbeitet werden: „In jedem einzelnen Interview sollten damit Passagen, die explizit oder implizit Informationen zu diesen Kategorien enthielten identifiziert und – im Vergleich mit anderen Interviews – nach ihrer Relevanz und Ausprägung
88
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse bewertet werden. (...) Mit dem überarbeiteten Codierleitfaden vercodeten jeweils zwei Projektmitarbeiter bzw. -mitarbeiterinnen die einzelnen Interviews zunächst unabhängig voneinander, verglichen dann gemeinsam ihre Einschätzungen und versuchten bei diskrepanten Bewertungen eine diskursive Einigung. Auf diese Weise haben wir das gesamte Interviewmaterial codiert. Einzelne Fälle, die besondere Interpretationsprobleme aufwarfen, wurden zusätzlich in der Gesamtprojektgruppe diskutiert.“ (Hopf u.a. 1995: 29 f.)
Dieses Verfahren, von Hopf u.a. als „konsensuelles Codieren“ bezeichnet, verlangt zunächst, dass alle Textstellen, die über eine Kategorie (z.B. die Einstellung zum Nationalsozialismus) Auskunft geben können, identifiziert werden. Im nachfolgenden Schritt wird eine der fünf oben beschriebenen Ausprägungen zugeordnet, und zwar pro Fall insgesamt eine Ausprägung, die für den Fall als dominant angesehen wird. Dritter Schritt: Erstellen von Fallübersichten Der dritte Schritt der Auswertung ist ein Schritt der Materialzusammenschau und des quantitativen Überblicks. Erstens lässt sich nun ein Überblick über die Personen und ihre Merkmalskonstellationen schaffen, in dem zu ausgewählten Kategorien tabellarische Übersichten erstellt werden (vgl. Abb. 19). Die Funktion solcher Tabellen wird darin gesehen, „zur Transparenz der Untersuchung beizutragen, die Materialbasis ein Stück weit offenzulegen und damit zur intersubjektiven Überprüfbarkeit beizutragen.“ (Schmidt 1997: 562). Rechtsextreme NormOrientierungen bindung
Fähigkeit/ Bereitschaft zu Empathie
Autoritarismus-Index
Attachment Klassifikation
Udo
nicht eingeordnet
eher gegeben
eher gegeben
Zwischenvariante
abwehrendbagatellisierend
Uwe
eher vorhanden
eher gegeben
eher gegeben
nicht eingeordnet
verstrickt
Volker
eher vorhanden
gering
eher nicht gegeben
Autoritär/ klassisch
abwehrendbagatellisierend
Wilfried
eher vorhanden
eher gering
eher nicht gegeben
Autoritär/ klassisch
abwehrendbagatellisierend
..
Abb. 19: Auszug aus einer Fallübersicht (Schmidt 1997: 562)
89
Thematisches Codieren
Aufbauend auf einer solchen Materialübersicht kann eine Häufigkeitsauszählung erfolgen: Quantitative Fallübersichten können wie in der Deskriptivstatistik auf einzelne Merkmale bezogen sein („univariate Auswertung“) oder den Zusammenhang zwischen zwei Kategorien („bivariate Analyse“) oder von drei und mehr Kategorien darstellen („multivariate Auswertung“). Einfache Auswertungen stellen nur die Verteilung eines bestimmten Merkmals in der Studie dar und verdeutlichen, wie die Merkmalskonstellation in der gesamten Studie genau aussieht. Stellt sich hier etwa heraus, dass das Bindungsmuster „verstrickt“ nur bei wenigen Befragten angetroffen wurde, ist dies eine wertvolle Information für die Rezipienten einer Studie. Eine weitergehende Funktion können Kreuztabellen haben, in denen die Zusammenhänge zwischen zwei Kategorien sichtbar werden. Hierzu ein Beispiel (Hopf u.a. 1995: 131), in dem der Zusammenhang von rechtsextremer Orientierung und Erfahrungen mit liebevoller persönlicher Zuwendung durch die Mutter dargestellt ist: Deutlich rechtsextrem bzw. eher rechtsextrem
Deutlich nicht Nicht rechtsextrem bzw. eingeordnet eher nicht rechtsextrem orientiert
Insgesamt
Viel
1
4
-
5
Mittel
5
2
-
7
Wenig
7
3
1
11
Nicht eingeordnet
1
1
-
2
insgesamt
14
10
1
25
Abb. 20: Beispiel einer Kreuztabelle
Die in der Tabelle erkennbaren Konstellationen der Stichprobe haben mehrere Funktionen für die Analyse: Sie geben einen Überblick, der in dieser Form auch für die Forschergruppe eine neue und zusätzliche Information darstellt und sie davor bewahrt, aufgrund selektiver Wahrnehmung (fälschlicherweise) eine andere Konstellation zu unterstellen und zu berichten. x Sie lenken die Aufmerksamkeit auf Zusammenhänge, die vielleicht so noch gar nicht im Blick waren und motivieren hierdurch dazu, das Material in Bezug auf diesen in der Tabelle vorhandenen Zusamx
90
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
menhang qualitativ auszuwerten. Das bedeutet, es wird in die Texte zurückgegangen, um genau nachzuvollziehen, wie sich der Zusammenhang fallbezogen darstellt. x Sie erlauben es, Ausnahmen zu identifizieren und gezielt auf die dort möglicherweise gegebenen Sonderbedingungen hin zu analysieren. In der obigen Tabelle sieht man etwa dass von insgesamt fünf Personen, die in der Kindheit liebevolle Zuneigung durch die Mutter erfahren haben, heute vier nicht rechtsextrem orientiert sind, eine Person hingegen doch. Hier kann es also besonders interessant sein, noch einmal nachzufassen und den betreffenden Text genau zu analysieren. x Sie dienen als eine Folie, auf deren Basis Fälle für eine vertiefende Analyse ausgewählt werden. „Diese Quantifizierungen auf der Ebene des Gesamtmaterials bildeten eine wichtige Grundlage für den nächsten Auswertungsschritt: die qualitative Analyse von Einzelfällen. Mit Hilfe der Fallübersichten ließen sich die Interviews hierfür begründet anhand der durch die Codierung aufgedeckten Konstellationen auswählen. Aus bestimmten Konstellationen z.B. von Beziehungserfahrungen und Ausprägungen rechtsextremer Orientierungen ließen sich Vermutungen zu den uns interessierenden Zusammenhängen ableiten und dann anhand der ausgewählten Fälle vertiefend interpretieren.“ (Hopf u.a. 1995: 29 f.)
Vierter Schritt: Vertiefende Analyse von ausgewählten Fällen In diesem letzten Auswertungsschritt steht die Einzelfallanalyse im Mittelpunkt. Nah am Text werden Hypothesen aufgestellt oder überprüft, d.h. die vertiefende Fallinterpretation erfolgt bei Hopf theoriebezogen. Aufgrund der Fallübersichten werden Personen ausgewählt, wobei es sich oft als produktiv erweisen kann, solche Fälle auszuwählen, auf die die Hypothesen gerade nicht zutreffen (vgl. Schmidt 1997: 564). Die Aufbereitung der Fallbeispiele geschieht so, dass in detaillierter Weise, möglichst mit Bezugnahme auf den Interviewtext, Zusammenhänge aufgezeigt werden, z.B. zwischen der rechtsextremen Orientierung und einer abwehrend-bagatellisierenden Umgangsweise mit Bindungserfahrungen (vgl. Hopf u.a. 1995: 138 ff.). Die Fallbeispiele machen einen gefundenen Zusammenhang nachvollziehbar und damit verständlich. Es sind keine tiefenpsychologisch angelegten, breit argumentierenden Falldarstellungen – was bei mehreren Stunden Interview leicht zu einer mehr als 100-seitigen Darstellung führen könnte – sondern sehr konzentrierte, auf die Beantwortung theoretischer Fragen fokussierte
Thematisches Codieren
91
Analysen, in denen die ausgewählte Person nicht als Persönlichkeitsstudie betrachtet wird, sondern als „Fall von …“. Resümierend lässt sich feststellen, dass sich das thematische Codieren in der von Hopf u.a. ausgearbeiteten Form sehr gut für Material eignet, das theoriebezogen mit einem Leitfaden erhoben wurde. Es ist also besonders adäquat für strukturierte Formen qualitativer Forschung. Hopf u.a. haben sich schon frühzeitig mit dem Problem der Qualität qualitativer Forschung befasst und versucht die Arbeit im Forschungsteam so zu organisieren, dass eine möglichst hohe Güte erreicht wird. Dazu gehört auch das in der Forschergruppe praktizierte konsensuelle Codieren, bei dem jedes Interview prinzipiell von zwei Mitarbeitern unabhängig voneinander codiert wird. Dass bei Differenzen diese in der Gruppe diskutiert werden und man gemeinsam versucht, eine Lösung zu finden. Dies ist der Qualität der Ergebnisse sicherlich förderlicher als die Berechnung eines Übereinstimmungskoeffizienten. Festzuhalten ist, dass der Begriff Codieren bei Hopf und Schmidt bzw. generell beim thematischen Codieren eine andere Bedeutung hat als in der Grounded Theory. Dort meint Codieren vor allem das Arbeiten an den Codes, d.h. eine Entwicklung von Kategorien bis hin zum Finden von Schlüsselkategorien. Bei Hopf bedeutet Codieren hingegen eher traditionell wie beim Codierbegriff in der quantitativen Forschung die Zuordnung des Materials zu Auswertungskategorien. Umsetzung der Methode mit QDA-Software Das thematische Codieren lässt sich prinzipiell gut mit QDA-Software betreiben, allerdings werden spezielle Techniken, wie das „konsensuelle Codieren“ häufig nicht unterstützt: Die in der ersten Phase entwickelten Auswertungskategorien werden als Codes definiert. Sie lassen sich später jederzeit präzisieren und ausdifferenzieren. x Die zu jedem Interview erstellten Protokolle zur Interviewsituation und zum Interviewablauf werden als zum gesamten Text gehöriges Text-Memo gespeichert. x Die Bedeutungen und inhaltlichen Definitionen der Auswertungskategorien werden in Form von Code-Memos festgehalten. x Textpassagen, die implizit oder explizit Informationen zu den Kategorien enthalten, werden entsprechend codiert. x
92
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse x
x
x
x x x x
Die Ausdifferenzierung und Weiterentwicklung der Kategorien kann durch die Zusammenstellung aller zu einem Code vorhandenen Textstellen wirksam unterstützt werden. Die Ausprägungen der Kategorien, beispielsweise die oben beschriebenen Ausprägungen der „Einstellungen zum Nationalsozialismus“, werden als Subcodes definiert. Die Bedeutungen werden wiederum als Code-Memos formuliert. Konsensuelles Codieren kann in MAXQDA so realisiert werden, dass unterschiedliche Codierer mit unterschiedlichen Codefarben arbeiten. Beim Codieren sind zunächst nur die eigenen Codierungen sichtbar. Im zweiten Schritt, bei der Zusammenschau, werden die Codierungen beider Codierer eingeblendet, so dass Differenzen sogleich erkennbar sind und mit dem Ziel, einen Konsens zu finden, diskutiert werden. (vgl. Kuckartz u.a. 2008: 40 ff.) Der Codierleitfaden kann erstellt werden, in dem alle Code-Memos zusammengestellt werden. Die Häufigkeiten der Ausprägungen von Kategorien stehen ohne weitere Suche und Auszählen zur Verfügung. Fallübersichten lassen sich leicht automatisiert erstellen. Kreuztabellen, die eine mehrdimensionale Zuordnung des Materials vornehmen, sind ebenfalls leicht zu erstellen (in MAXQDA empfiehlt sich in diesem Fall die Nutzung der Möglichkeit, Codes in dynamische Variablen umzuwandeln).
4.3 Zusammenfassende qualitative Inhaltsanalyse Ein weiterer Ansatz kategorienbasierter Auswertung ist die von Mayring beschriebene zusammenfassende Inhaltsanalyse. Mayrings Entwurf einer qualitativen Inhaltsanalyse (Mayring 2003) ist in Auseinandersetzung mit der klassischen, aus der Kommunikationsforschung stammenden Inhaltsanalyse entstanden, aus der wesentliche Momente übernommen werden. So ist die Inhaltsanalyse auch bei Mayring durch vier Merkmale gekennzeichnet, die ebenso für die klassische Inhaltsanalyse gelten, nämlich durch Einordnung in ein Kommunikationsmodell, Regelgeleitetheit, Gütekriterien und vor allem durch die zentrale Rolle von Kategorien. Die qualitative Inhaltsanalyse will sprachliches Material systematisch analysieren, indem sie
Zusammenfassende qualitative Inhaltsanalyse x x x
93
das Material zergliedert und schrittweise bearbeitet, theoriegeleitet am Material ein Kategoriensystem entwickelt und die Analyseaspekte vorher festlegt.
Mayring (2003: 58) unterscheidet drei Grundformen des Interpretierens: Zusammenfassung, Explikation und Strukturierung. Bei der Auswertung von Forschungsdaten, so auch bei der von Mayring als Beispiel herangezogenen eigenen Untersuchung über Lehrerarbeitslosigkeit, wird zunächst die Technik der zusammenfassenden Inhaltsanalyse mit induktiver Kategorienbildung eingesetzt. Die Zielsetzung der zusammenfassenden Inhaltsanalyse ist es „das Material so zu reduzieren, dass die wesentlichen Inhalte erhalten bleiben, durch Abstraktion einen überschaubaren Corpus zu schaffen, der immer noch Abbild des Grundmaterials ist“ (ebd.). Anders als bei der Grounded Theory und beim thematischen Codieren versteht Mayring die Inhaltsanalyse als Instrumentarium einer im traditionellen Verständnis des Forschungsprozesses als gesondert definierten Auswertungsphase. Die gebildeten Kategorien haben also keine Rückwirkung auf die Datenerhebung und deren Gestaltung: Die Daten sind alle bereits erhoben, wenn die qualitative Inhaltsanalyse beginnt. Die Methode ließe sich aber theoretisch durchaus auch bei einem stärker zirkulär organisierten Forschungsprozess verwenden. Das Wissen um die Mayringsche Konzeption einer gesonderten Analysephase ist allerdings als Hintergrund notwendig, um das folgende, aus sieben Schritten bestehende Ablaufmodell der zusammenfassenden Inhaltsanalyse14 richtig zu verstehen. 1. Bestimmung der Analyseeinheiten 2. Paraphrasierung der inhaltstragenden Textstellen (Z1-Regeln) 3. Bestimmung des angestrebten Abstraktionsniveaus, Generalisierung der Paraphrasen unter diesem Abstraktionsniveau (Z2-Regeln) 4. Reduktion durch Selektion, Streichen bedeutungsgleicher Paraphrasen (Z3-Regeln)
14 Mayring beschreibt in seinem Buch zur qualitativen Analyse noch zwei weitere inhaltsanalytische Ansätze: die explizierende Inhaltsanalyse, die eher an der klassischen Hermeneutik orientiert ist und Textstellen durch Hinzuziehung weiteren Materials, Hintergrundwissens etc. zu verstehen sucht sowie die strukturierende Inhaltsanalyse, die das Textmaterial unter bestimmten Kriterien strukturiert und meist auch quantifizierend untersucht. Dieser Ansatz wird in Kapitel 8.3 aufgegriffen und skizziert.
94
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
5. Reduktion durch Bündelung, Konstruktion, Integration von Paraphrasen auf dem angestrebten Abstraktionsniveau (Z4-Regeln) 6. Zusammenstellung der neuen Aussagen als Kategoriensystem 7. Rücküberprüfung des zusammenfassenden Kategoriensystems am Ausgangsmaterial Die Richtung der Analyse ist klar vorgegeben, nämlich Reduktion des Materials auf einem vorab möglichst genau fixierten Abstraktionsniveau. Nach der Festlegung des Materials und der Bestimmung von Codiereinheiten, erfolgt eine Phase der Paraphrasierung der inhaltlich interessanten Abschnitte, bei der laut Mayring (2003: 62) drei Regeln zu beachten sind: 1. Streiche alle nicht (oder wenig) inhaltstragenden Textbestandteile wie ausschmückende, wiederholende, verdeutlichende Wendungen! 2. Übersetze die inhaltstragenden Textstellen auf eine einheitliche Sprachebene! 3. Transformiere sie auf eine grammatikalische Kurzform! Nr.
Paraphrase
Generalisierung
Reduktion
A1
Keine psychische Belastung durch Praxisschock gehabt
A2
Im Gegenteil, ganz begierig auf Praxis gewesen
Kein Praxisschock, als K1 großen Spaß erlebt wegen Praxis nicht als Schock, sondern als großen Spaß Eher auf Praxis gefreut erlebt wegen
A3
Uni = reines Fachstudium, hat mit Leben wenig zu tun
An Uni keine Lehrerfahrung vermittelt
A4
Konnte aber vorher schon Praxiserfahrungen sammeln
Schon vorher Lehrerfahrung
- keine unrealistischen Erwartungen gehabt
A5
Praxis hat großen Spaß gemacht
Praxis hat Spaß gemacht
- gute Beziehungen zu Schülern gehabt
A6
War stofflich einfach und faszinierend für die Schüler
Gut vermittelbarer Stoff als Bedingung
A7
Darauf gewartet, endlich zu unterrichten
Auf Praxis gefreut
A8
Es gibt schon Enttäuschungen, dass die Schüler nicht so sind, wie man meint
Schon auch Enttäuschungen
A9
Praxisschock war es bestimmt nicht
Kein Praxisschock
- vorheriger Lehrerfahrung - Landschule ohne Disziplinschwierigkeiten
K2 Ohne diese Bedingungen Praxisschock schon denkbar
Abb. 21: Von der Paraphrase zur Kategorienbildung (Mayring 2003: 64 ff., auszugsweise)
Zusammenfassende qualitative Inhaltsanalyse
95
Mayring demonstriert den Ablauf der Phasen 3 bis 6 an Beispielmaterial, das unter der Fragestellung „Was sind die hauptsächlichen Erfahrungen der arbeitslosen Lehrer mit dem ‚Praxisschock’“ ausgewertet wird. Schritt für Schritt wird das Material nach genau festgelegten Regeln, den so genannten Z-Regeln (Mayring 2003: 62), reduziert und das Abstraktionsniveau erhöht. Die Paraphrasierung ist zeitaufwändig und bei größeren Textmengen kaum mehr möglich, so dass ein abgekürztes Verfahren angewandt wird: Bei jeder neuen generalisierten Paraphrase wird vor dem Herausschreiben geprüft, ob sie nicht schon vorhanden ist bzw. mit einer anderen Aussage gebündelt werden kann. Die in Abb. 21 dargestellte Kategorienbildung geschieht zunächst fallbezogen. Nachdem alle Fälle auf diese Weise bearbeitet sind, wird in einem weiteren Integrationsschritt fallübergreifend vorgegangen. Das Abstraktionsniveau wird weiter erhöht und nun sind es die Kategorien, die reduziert, gebündelt und integriert werden. Endresultat sind Kategorien wie die folgenden von Mayring beschriebenen Kategorien K1 und K3: „K1 Kein Praxisschock tritt auf, wenn man - vorher Lehrerfahrung macht; - gute Referendariatsbedingungen hat; - flexibel und anpassungsfähig ist; - offen mit Kollegen redet; - keine ‚unrealistischen’ pädagogischen Erwartungen hat (…) K3 In jedem Fall ist eine gute Beziehung zu Schülern erreichbar.“ (ebd.: 72)
Man erkennt sogleich, dass diese Kategorien einen anderen Charakter als die Codes der Grounded Theory oder die thematischen Kategorien bei Hopf u.a. haben. Sie sind keine kurzen Bezeichnungen wie „Apparat-Körper-Anschlüsse“ oder thematische Codes wie „Einstellungen zum Nationalsozialismus“, sondern relativ komplexe inhaltliche Aussagen. Das Grundmodell der zusammenfassenden qualitativen Inhaltsanalyse lässt sich sehr gut für die induktive Bildung von Kategorien verwenden, die dann im weiteren Verlauf der Auswertung, z. B. bei der strukturierenden Inhaltsanalyse, deduktiv angewendet werden. Vom Analysestil der Grounded Theory unterscheidet sich Mayrings Konzeption der qualitativen Inhaltsanalyse dadurch, dass sie weitaus stärker regelgeleitet ist und methodisch kontrollierter vorgeht. Auch die Auswertung großer Textcorpora ist mit dieser Methode möglich, jedenfalls dann, wenn man nur eine eingeschränkte Form der Paraphrasierung wählt.
96
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
Im Vergleich zur Grounded Theory und auch zum thematischen Codieren erscheint die zusammenfassende qualitative Inhaltsanalyse wesentlich stärker beschreibend und weniger theorieorientiert zu sein. Theorieentwicklung und erst recht Theorieüberprüfung spielen hier eine weit geringere Rolle als bei den zuvor dargestellten Ansätzen. Das Verfahren der zusammenfassenden Inhaltsanalyse hält sich sehr eng an die Texte und zielt auf eine sorgfältige und methodisch kontrollierte Zusammenfassung und Kategorienbildung. Diese Strategie steht durchaus im Spannungsverhältnis zur Grundorientierung der Grounded Theory, deren Autoren ja explizit empfehlen, sich von den Texten und ihrer bloßen Wiederholung oder Verdopplung möglichst schnell zu entfernen. Die zusammenfassende Form der qualitativen Inhaltsanalyse ist unter den in diesem Kapitel vorgestellten Ansätzen der am stärksten induktiv vorgehende und insofern für solche Fragestellungen besonders geeignet, bei denen das Vorwissen gering ist und die Exploration im Vordergrund steht. Umsetzung der Methode mit QDA-Software Die qualitative Inhaltsanalyse ist mit den meisten QDA-Programmen gut umsetzbar, wenngleich diese nicht unbedingt für das Paraphrasieren von Textstellen konzipiert sind. Mehrspaltige Tabellenlayouts wie oben in Abb. 21 lassen sich in keinem QDA-Programm erzeugen, allerdings kann man die Daten gleich so vorbereiten, dass sie sich in einer mehrspaltigen Tabelle befinden, in welcher die entsprechenden Spalten für die Paraphrasierung und Generalisierung zunächst noch leer sind. Das Arbeiten mit Tabellen ist zweifellos ein komfortabler Weg der Umsetzung der qualitativen Inhaltsanalyse, es lassen sich aber auch ersatzweise andere Vorgehensweisen wählen, die mit QDA-Software besser zu realisieren sind: Die Paraphrasierungen können so vorgenommen werden, indem die betreffende Textstelle markiert und die Paraphrase als Code zugewiesen wird. Da Paraphrasen üblicherweise recht kurz sind, ist diese Technik recht effektiv, weil die Paraphrasen immer direkt neben dem Text angezeigt werden. x Die so als Codes organisierten Paraphrasen können gruppiert, gebündelt und integriert werden. Sie lassen sich im Kategoriensystem unter eine abstraktere Kategorie gruppieren, ebenso können Dopplungen gelöscht werden. x
Typenbildung und typologische Analyse x
97
Der Materialbezug bleibt auch so erhalten, denn von jeder Paraphrase kann sofort zu der Textstelle gesprungen werden, auf die sich die Paraphrase bezieht.
Weitere methodische Charakteristika der qualitativen Inhaltsanalyse lassen sich mit QDA-Software folgendermaßen realisieren: x x x x
x
Die Definitionen von Einschätzungsdimensionen können als CodeMemos eingegeben werden. Ankerbeispiele lassen sich dort einfügen. Informationen über den Text, seine Herkunft und sein Zustandekommen lassen sich als Text-Memo formulieren. Als quantitative Information sind die Häufigkeiten von CodeZuordnungen vorhanden. Für die Darstellung der zusammenfassenden Inhaltsanalyse in einem Forschungsbericht lassen sich die Zusammenstellungen von Textstellen zu ausgewählten Kategorien nutzen. Die von der QDA-Software vorgenommene Dokumentation, welches Mitglied der Forschergruppe welche Codierungen vorgenommen hat, dient der Transparenz und fördert die Güte der Untersuchung.
4.4 Typenbildung und typologische Analyse In zahlreichen qualitativen Studien werden Verfahren der Typenbildung eingesetzt15 und auch in der sozialwissenschaftlichen Methodenliteratur lässt sich eine Reihe von Vorschlägen zur systematischen, empirisch begründeten Typenbildung bei der Analyse qualitativer Daten finden16 . Weithin bekannt ist die klassische Studie „Die Arbeitslosen von Marienthal“, deren wichtigstes Ergebnis in der Herausarbeitung einer Typologie von vier Haltungstypen (die Ungebrochenen, die Resignierten, die Verzweifelten und die Apathischen) bestand17. Kaum einen Begriff findet man im Sachregister von
15 Z.B. Herwartz-Emden 1986, Schründer-Lenzen 1995 und 1996, Gerhardt 1986. 16 Z.B. Gerhardt 1995, Kluge 1999, Kelle/Kluge 1999, Kuckartz 1988, 1995, 1996, Schründer-Lenzen 1999. 17 Vgl. die interessante Webseite des Psychologischen Instituts der Universität Hannover: www.sozpsy.uni-hannover.de/marienthal/
98
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
Lamneks Lehrbuch „Qualitative Sozialforschung“ so häufig wie den Begriff „Typ“ und dessen Derivate („Typenbildung“, „Typisierung“, „Typologie“ etc.). In der Methodenliteratur kursieren zahlreiche Typenbegriffe, so ist die Rede von Ideal-, Real-, Proto-, Durchschnitts- und Extremtypen (vgl. Kluge 1999: 25 ff.). Den unterschiedlich akzentuierten Begriffen ist gemeinsam, einen Typ als Kombination spezifischer Merkmale zu beschreiben. Wichtig ist zwischen der Ebene der Typologie und der Ebene des einzelnen Typs zu unterscheiden. Ein Typ ist das Grundelement einer Typologie, diese ist aber mehr als eine Summe von Typen, denn sie strukturiert einen Gegenstandsbereich. Methodische Traditionen Eine methodisch kontrollierte Typenbildung knüpft an die Überlegungen von Max Weber und Alfred Schütz an: Alfred Schütz, der das Alltagswissen und Alltagsbewusstsein einer eingehenden Analyse unterzog, kam zu dem Ergebnis, dass „das Alltagswissen des Einzelnen von der Welt ein System ihrer typischen Aspekte ist“ (1972, Bd. 1: 8). Das gesamte Erfahrungswissen ist in Form von typischer Erfahrung organisiert, die Umwelt wird nicht „als eine Anordnung diskreter, einmaliger Gegenstände, die in Raum und Zeit verteilt sind, erfahren, sondern als ‚Berge’, ‚Bäume’, ‚Tiere’, ‚Mitmenschen’.“ (ebd.: 8 f.). Die Vermittlung von Alltagswissen durch Lehrer, Eltern, Freunde etc. im Verlauf des Sozialisationsprozesses umfasst nicht nur Definitionen der Umwelt, sondern auch Konstruktionen intersubjektiver gedanklicher Gegenstände. „Diese Konstruktionen umfassen die Lebensweise, umfassen Methoden, in der Umwelt zurechtzukommen, also brauchbare Anleitungen zur Benutzung typischer Mittel, um typische Ziele in typischen Situationen zu erreichen (ebd.: 15). Für Schütz ist also Typenbildung zum einen eine anthropologische Basistechnik, zum anderen Ziel sozialwissenschaftlicher Analyse, die eben auf das Verstehen des Typischen und nicht psychologisch auf das Verstehen des Einzelnen abzielt. Damit befindet sich Schütz in der Tradition Max Webers, der die Konstruktion von verständlichen Handlungstypen zum zentralen Ziel empirischer Sozialwissenschaft erklärte. Sie sind eine Art Bindeglied zwischen einer hermeneutischen Methodik, die auf das Verstehen des Einzelfalls abzielt, und einer auf gesetzesartige Zusammenhänge fixierten sozialwissenschaftlichen Statistik. (vgl. Weber 1964, Hopf/Weingarten 1979, Kuckartz 1991, Lazarsfeld 1972).
Typenbildung und typologische Analyse
99
In der Praxis empirischer Sozialforschung sind verschiedene Konzepte empirisch begründeter Typenbildung herausgearbeitet worden. Susann Kluge vergleicht in ihrem umfänglichen Band „Empirisch begründete Typenbildung“ drei Verfahren der Typenbildung in detaillierter Weise: die Typologische Operation der Reduktion nach Barton und Lazarsfeld, die Prozessstrukturanalyse nach Gerhardt und die typologische Analyse nach Kuckartz. Die weitere Darstellung in diesem Kapitel konzentriert sich auf die typologische Analyse nach Kuckartz, in der sich wesentliche Punkte der Konzeption von Barton und Lazarsfeld wieder finden18. Die typologische Analyse Das Modell der typologischen Analyse hat der Autor an den Begriff „Merkmalsraum“ und die Webersche Methodologie anknüpfend entwickelt und in empirischen Projekten angewendet (Kuckartz 1988, 1995, de Haan/Kuckartz/Rheingans 2000). Das Verfahren war von Anfang an mit der Entwicklung von QDA-Software verknüpft, deren Möglichkeiten die Chance eröffneten, eine wirklich transparente, methodisch kontrollierte und intersubjektiv nachvollziehbare Typenbildung vorzunehmen (vgl. Kuckartz 1988). Seit Ende der 1980er Jahre entstanden mit den Programmen MAX und winMAX Softwaretools, die speziell auf die Umsetzung des typologischen Ansatzes hin konzipiert waren. Im Unterschied zu den in den vorangehenden Abschnitten dargestellten Ansätzen der Grounded Theory, des thematischen Codierens und der zusammenfassenden Inhaltsanalyse ist die typologische Analyse von vornherein als computergestütztes Verfahren entwickelt worden, während die anderen Ansätze von ihren Autoren als handwerkliche Techniken beschrieben und teilweise im Nachhinein um Überlegungen der Computerisierung ergänzt wurden (vgl. Kap. 6 in May18 Die Prozessstrukturanalyse ist ein von Uta Gerhardt (1986, 1991) entwickeltes Verfahren, das an die idealtypische Begriffsbildung von Max Weber anknüpft. Die Gerhardtsche Vorgehensweise zielt dabei nicht auf die Bildung einer (Real-)Typologie, die in den empirischen Daten „gründet“, als vielmehr auf die Bildung eines zugespitzten idealtypischen Konstrukts. Dieser detailliert entwickelte Ansatz arbeitet in der Forschungspraxis nicht mit Computerunterstützung, sondern hat einen eindeutig hermeneutischen Schwerpunkt. Kluge, die den Gerhardtschen Ansatz umfassend darstellt (vgl. Kluge 1999: 110 ff.) kritisiert die „weltfremde“ idealtypische Vorgehensweise. „ Bei der Bildung von wenigen Ideal- und Extremtypen besteht jedoch die Gefahr, dass die Vielfalt und Differenz sowie die Widersprüchlichkeit der untersuchten Realität verloren geht, weil der Blick nur noch auf die idealtypische Zuspitzung bzw. die Extreme gelenkt wird.“ (ebd.: 280)
100
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
ring 2003). Aus diesem Grund enthält dieses Kapitel keinen gesonderten Abschnitt, in dem die Umsetzbarkeit mit QDA-Software beschrieben wird, sondern die Darstellung beschreibt von vornherein die Schritte der computerunterstützten Auswertung. Die typologische Analyse besteht aus vier hintereinander angeordneten Hauptphasen: Phase A) Thematisches Codieren und Themenanalyse Phase B) Dimensionalisieren und Feincodierung (das „Wie“ Codieren“) Phase C) Typenbildung und Charakterisierung der Typologie Phase D) Typenbasierte Fallanalyse Phase A) Thematisches Codieren und Themenanalyse Diese erste Phase setzt sich aus sechs Auswertungsschritten zusammen: 1. 2. 3. 4. 5.
Einzelfallanalyse – die Interpretation einzelner Texte Vergleichende Einzelfallanalyse Entwicklung von thematischen Kategorien Zuordnung von Codes zu Textsegmenten Themenanalyse (Zusammenstellung und Interpretation aller Textsegmente, die dem gleichen Code zugeordnet sind) 6. Vergleichende Themenanalyse (Analyse des Zusammenhangs zwischen Codes) In ihren ersten Schritten arbeitet die Methode hermeneutisch: Es geht zunächst darum, den subjektiv gemeinten Sinn eines Textes herauszuarbeiten. Erst auf dieser Grundlage kann die Frage nach Gleichförmigkeiten und Regelmäßigkeiten gestellt werden. Begonnen wird deshalb mit einer „Gesamtschau” von Einzelfällen. Die Codes, die in den folgenden Schritten entwickelt und Textsegmenten zugeordnet werden, bezeichnen das Was. Sie dienen dazu, Themen und Fragestellungen in den Interviews zu identifizieren. Die Codierung ist die notwendige Voraussetzung für die folgende querschnittliche Auswertung, bei der die zu den gleichen Kategorien gehörenden Textsegmente in vergleichender Weise bearbeitet werden. Die technische Vorgehensweise entspricht der oben im Abschnitt „Thematisches Codieren“ beschriebenen. Je nach Fragestellung und Theoriebezug der Studie können die Codes induktiv oder deduktiv generiert werden. Die vergleichende Themenanalyse hat das Ziel, durch kontrastierende Vergleiche Ähnlichkeiten zwischen den einzelnen Personen, Besonderheiten einzelner Fälle und Zusammenhänge von Kategorien zu finden. Am
Typenbildung und typologische Analyse
101
Ende dieser Phase ist die Analyse bereits weit vorangekommen: Das Datenmaterial ist strukturiert worden, d.h. in eine überschaubare thematische Ordnung gebracht worden. Es gleicht nun den geordneten Arzneimitteln in einer Apotheke, die sich wohl sortiert in Schubladen- oder Regalschränken befinden. In diesen einzelnen Schubladen befinden sich die Textsegmente der Interviews, die man durch Codierung entsprechend zugeordnet hat. Diese Segmente lassen sich im Weiteren deskriptiv auswerten, indem gewissermaßen der Schubladeninhalt ausgebreitet und zu einem neuen Text verdichtet und montiert wird, der einen bestimmten umgrenzten thematischen Aspekt behandelt. Sofern das Datenmaterial überschaubar ist, lassen sich durch sorgfältige Inspektion und Interpretation Muster erkennen, und man ist in der Lage, „dichte Beschreibungen“ zu verfassen. Phase B) Dimensionalisieren und Feincodierung („Wie“-Codieren) Die erste Analysephase bringt an ihrem Ende nicht nur eine Rekontextualisierung des Materials hervor, in dem z.B. Zusammenhänge zwischen Codes analysiert werden, sondern sie kann als Resultat der Interpretationsarbeit auch Differenzierungen nahe legen, so wie bei der Hopfschen Kategorie „Einstellung zum Nationalsozialismus“, wo zwischen verschiedenen Grundrichtungen („Ausprägungen“) unterschieden wird. In der jetzt folgenden zweiten Phase der Typologischen Analyse geht es nach der noch recht groben Codierung der ersten Analysephase nun um eine „Feincodierung“, die in der Regel einen erneuten Materialdurchlauf erforderlich macht. Ziel dieser Phase ist die Dimensionalisierung, d.h. es werden Ausprägungen einer Kategorie zunächst herausgearbeitet, dann definiert und schließlich codiert. Diese Feincodierung des Materials kann sowohl textstellenbezogen als auch fallbezogen geschehen. Bei der ersten Alternative werden die neuen Dimensionen als Subkategorien definiert und die codierten Textstellen neu zugeordnet. Die alten Codierungen werden damit überflüssig. Bei dieser Variante wird zunächst nicht auf der Ebene des Falls codiert, es kann sich also herausstellen, dass Personen sich nicht nur in homogener Weise geäußert haben, also nicht nur Textstellen zu einer Dimension aufweisen. Die Aggregation zu einer für die Person charakterisierenden Merkmalsausprägung erfolgt hier erst am Ende der Feincodierung. Diese kann so erfolgen, dass durch die Codierer eine abschließende Bewertung der – möglicherweise kontradiktorischen – Textstellencodierungen vorgenommen wird. MAX-
102
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
QDA ermöglicht auch eine automatische Umwandlung von Kategorienhäufigkeiten in fallbezogene Variablen. Bei der zweiten Alternative, der fallbezogenen Feincodierung, wird aufgrund der Inspizierung aller die Kategorie betreffenden Textsegmente eine Gesamtbewertung aller das Thema betreffenden Äußerungen einer Person vorgenommen und jeder Person nur eine bestimmte Merkmalsausprägung zugeordnet. Hier haben die Dimensionen die Bedeutung von Variablen (Attributen) – Mayring bezeichnet sie als „Einschätzungsdimensionen“ (Mayring 2003: 92 ff.). In MAXQDA lässt sich hierzu das Werkzeug der Fallvariablen nutzen. Durch sorgfältige Klassifikation des Datenmaterials und durch Einstufung der individuellen Aussagen auf Merkmalsdimensionen wird eine Voraussetzung für das Erkennen von komplexen Zusammenhängen in den Daten geschaffen. In der gesamten Phase der Codierung des Wie finden Interpretations-, Klassifizierungs- und Bewertungsvorgänge statt, die häufig mit einem mehrmaligen Durchgang durch das Datenmaterial verbunden sind. Es ergibt sich folgender Ablauf: 1. Durchsicht aller Textsegmente zu einem Code 2. Dimensionsanalyse, d.h. systematische Auswertung des empirisch vorgefundenen Antwortspektrums zu den betreffenden Themen 3. Definition von Dimensionen (Merkmalsausprägungen) 4. Formulierung eines Codierleitfadens mit prototypischen Beispielen 5. Fallbezogene Bewertung und Codierung Wenn das Datenmaterial sehr umfangreich ist bzw. der Analyseprozess im Projekt schon so weit fortgeschritten ist, dass die Dimensionen bereits feststehen, lassen sich die Phasen A „Thematisches Codieren und Themenanalyse“ und B „Dimensionalisieren und Feincodierung“ auch zusammenziehen, indem den Textstellen direkt eine Subkategorie zugewiesen und keine gesonderte Grobcodierung vorgenommen wird. Bezüglich der Anzahl der Dimensionen, die man unterschieden will, sollte man pragmatisch vorgehen und den Sample-Umfang beachten. Es macht wenig Sinn, bei relativ wenigen Probanden sehr viele Merkmalsausprägungen zu unterscheiden, denn im nächsten Schritt der Analyse geht es um die Bildung von Typen, um Ähnlichkeiten und Differenzen von Probanden – und dies macht zwingend erforderlich, dass nicht jeder Einzelfall ein Sonderfall ist, sondern sich die definierten Merkmalsdimensionen auch bei mehreren Fällen des Samples finden lassen.
Typenbildung und typologische Analyse
103
Phase C) Typenbildung und Charakterisierung der Typologie Basis der Typenbildung ist die Definition eines „Merkmalsraums“ („property pace“ bzw. „attribute space“). Typologien beruhen nicht auf einem einzigen, sondern auf mehreren, mindestens auf zwei Merkmalen. Diese Merkmale konstituieren einen n-dimensionalen Merkmalsraum. Hempel und Oppenheim, auf die der Begriff „Merkmalraum“19 zurückgeht, zogen den Vergleich zur Physik, die die räumliche Lage von Punkten mittels abstufbarer Koordinatenbegriffe bestimmt. „Auf diese Weise wird das Individuum nicht einfach klassifizierend in einen Typus eingeordnet, sondern es erhält (...) einen Ort im typologischen Merkmalraum individuell zugewiesen. (...) So bestimmt also jede typologische Theorie einen besonderen Merkmalraum, und die Typbegriffe ordnender Form haben, (...), eine ähnliche Funktion wie der Begriff ‚Ort (eines Massepunkts)’ in der Physik: sie dienen zur Charakterisierung der Lage eines Individuums im Merkmalraum der betreffenden typologischen Theorie.“ (Hempel/Oppenheim 1936: 67)
Die Typenbildung besteht aus vier Kernpunkten: der Definition des der Typenbildung zugrunde liegenden Merkmalsraums, x der eigentlichen Konstruktion der Typologie, x der Beschreibung der einzelnen Typen der gebildeten Typologie x der Zuordnung der Personen des Samples zu den gebildeten Typen x
Im ersten Schritt der Typenbildung ist zu entscheiden, welche Merkmale als relevant für die Typologie betrachtet werden. Wie viele Merkmale man überhaupt einbeziehen kann, hängt von der Art der Konstruktion der Typologie ab. Es lassen sich drei Haupttypen von Typologiekonstruktion unterscheiden. Bildung einer monothetischen Typologie Eine Typologie, in der alle Elemente eines Typs identische Merkmale besitzen, bezeichnet man als monothetisch. Einfachstes Beispiel ist eine VierFelder-Tafel auf der Basis von zwei dichotomen Merkmalen: 19 Bei Hempel/Oppenheim (1936), wie auch in der seinerzeitigen Physik, ist immer von Merkmalraum die Rede und nicht wie heute meistens vom Merkmalsraum. Hier wird im Weiteren der heute häufiger benutzte Begriff „Merkmalsraum“ verwendet, es sei denn Hempel/Oppenheim werden zitiert.
104
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse Geschlecht
Einkommen
Männlich
Weiblich
Hoch
Typ 1
Typ 2
niedrig
Typ 3
Typ 4
Die Zugehörigkeit zu Typ 2 „Frauen mit hohem Einkommen“ ist dann und nur dann gegeben, wenn die beiden Merkmale Geschlecht und Einkommen die verlangten Werte haben. Solche Typologien erlauben aber nur, mit relativ wenigen Merkmalen und wenigen Merkmalsausprägungen zu arbeiten. Schon bei drei Merkmalen mit jeweils vier Ausprägungen entstehen theoretisch 4 mal 4 mal 4 = 64 monothetische Typen. Typenbildung durch Reduktion Monothetische Typen lassen sich durch die von Lazarsfeld beschriebenen Verfahren der funktionalen und pragmatischen Reduktion auf eine handhabbare Anzahl verringern. Dazu folgendes Beispiel, in dem die Bildungsabschlüsse der Eltern in einer 4 mal 4 Tabelle (16 Typen) dargestellt sind. Bildungsabschluss des Vaters Bildungsabschluss der Mutter
Kein Abschluss
Haupt-/Realschulabschluss
Abitur
FH/Uni
Kein Abschluss
Typ 5
Typ 4
Typ 3
Typ 2
Haupt-/Realschulabschluss
Typ 4
Typ 4
Typ 3
Typ 2
Abitur
Typ 3
Typ 3
Typ 3
Typ 2
FH/Universität
Typ 2
Typ 2
Typ 2
Typ 1
Um die schwer überschaubare Anzahl von 16 möglichen Typen zu verringern, definiert man eine Ordnungsrelation und führt eine Reduktion des Merkmalsraums herbei, so dass die Typologie nur mehr aus 5 Typen besteht: Typ 1: Beide Elternteile besitzen einen Hoch- o. Fachhochschulabschluss Typ 2: Ein Elternteil besitzt einen Hoch- oder Fachhochschulabschluss Typ 3: Ein Elternteil besitzt das Abitur Typ 4: Ein Elternteil besitzt einen Haupt- oder Realschulabschluss Typ 5: Beide Eltern verfügen über keinen Abschluss
Typenbildung und typologische Analyse
105
Durch diese Reduktion werden aus den monothetischen teilweise polythetische Typen, d.h. sie weisen Varianz auf, denn nicht alle einem Typ zugerechneten Probanden besitzen die gleichen Bildungsmerkmale der Eltern. Die gilt für die Typen 2, 3 und 4, während die Typen 1 und 5 weiter monothetisch sind, denn der Zugang zu ihnen ist nur bei einer einzigen Merkmalskombination der beiden Klassifikationsvariablen möglich. Bildung einer polythetischen Typologie Die vorgenannten Formen der Typenbildung werden in der Literatur auch als „künstliche Typologien“ bezeichnet, weil sie ohne direkte Bezugnahme auf die empirische Existenz, rein auf der Basis theoretischer Kombinationen, konstruiert werden. Es mag aber sein, das bestimmte Kombinationen („Mutter Uni-Abschluss“/“Vater ohne Schulabschluss“) in der Realität überhaupt nicht vorkommen. Als „natürliche Typologien“ bezeichnet man hingegen solche, die induktiv aus den empirischen Daten gebildet werden, d.h. die Probanden werden so zu Typen gruppiert, dass die Typen intern möglichst homogen und extern möglichst heterogen sind. Solche Typen sind faktisch immer polythetisch, d.h. die zu einem Typ gehörenden Individuen sind bezüglich der Merkmale des Merkmalsraums nicht alle völlig identisch. Natürliche Typologien lassen sich sowohl intellektuell, d.h. durch systematisches geistiges Ordnen, als auch mit dem Hilfsmittel statistischer Algorithmen bilden. Für letzteres sind clusteranalytische Verfahren besonders gut geeignet (vgl. Kap. 13). Welche der drei Möglichkeiten der Typenbildung man wählt, hängt von der Samplegröße und der Dimensionalität des angestrebten Merkmalsraums ab. Die monothetische Typenbildung lässt sich im Grunde nur bei zwei oder drei Merkmalen mit relativ wenigen Ausprägungen realisieren. Die Typenbildung durch Reduktion ist in dieser Hinsicht schon erheblich flexibler, doch ermöglicht nur die polythetische Typenbildung einen vieldimensionalen Merkmalsraum. Mit Ausnahme der monothetischen Typologie, die quasi selbst erklärend ist, verlangen die anderen Konstruktionsprinzipien, dass die Typen hinsichtlich ihrer Lage im Merkmalsraum beschrieben werden. Bei der durch Reduktion entstandenen Typologie reicht hierzu in der Regel eine Aufzählung der in einem Typ zusammengefassten Merkmalskombinationen, so wie dies oben bei der Typologie der Bildungsabschlüsse der Eltern geschehen ist. Die Charakterisierung natürlicher Typologien gestaltet sich demgegenüber schwieriger. Weithin bekannte Beispiele
106
Sozialwissenschaftliche Ansätze für die kategorienbasierte Textanalyse
für solche Beschreibungen sind die Lebensstiltypologien bzw. Milieutypologien aus der Lebensstilforschung. Alle drei Formen der Typenbildung lassen sich durch QDA-Software sehr wirksam unterstützen. In MAXQDA lassen sich die als Fallvariablen verwalteten Merkmale zu SPSS exportieren, so dass dort Kreuztabellen als Basis für eine Typenbildung durch pragmatische Reduktion erstellt werden können oder mit Hilfe clusteranalytischer Verfahren eine natürliche Typologie gebildet werden kann. Die Zugehörigkeit von Personen zu Typen kann durch SPSS vorgenommen werden und für die nächste Phase der typologischen Analyse wieder in MAXQDA importiert werden. Phase D) Typenbasierte Fallanalyse Die letzte Phase der typologischen Analyse lässt sich mit „Zurück zu den Texten“ überschreiben. In ihrem Mittelpunkt steht eine typologisch hinterleuchtete Textinterpretation. Ähnlich wie die Fallübersichten bei Hopf u.a. stellt die Typologie den Hintergrund dar, auf dem Einzelfälle eingeordnet und interpretiert werden können. Umgekehrt ist es so, dass die Verteilungen in einer Fallübersicht ebenso wie die zahlenmäßige Übersicht über Typen und ihre Merkmalsverteilungen für sich noch wenig Aussagekraft besitzen. Erst durch den Rückgriff auf den einzelnen Fall und den dort ermittelbaren subjektiven Sinn lassen sich Typen und Konstellation verstehen und nachvollziehen, ansonsten blieben sie recht blutleere Konstruktionen und schieres Werk von Kombinatorik. Nach welchen Kriterien wählt man nun Fälle für eine solche Darstellung aus? Denn eine Auswahl ist notwendig, weil man nicht alle Fälle einer qualitativen Studie in aller Ausführlichkeit in einem Forschungsbericht darstellen kann. Man kann bei der Auswahl zwei Strategien folgen: Die repräsentative Fallinterpretation zieht einen möglichst geeigneten Einzelfall, einen „Prototypen“, für die Interpretation heran und stellt diesen stellvertretend für alle Probanden dieses Typs in der gebotenen Ausführlichkeit dar. Sofern man das statistische Verfahren der Clusteranalyse eingesetzt hat, erhält man eine Information über die Nähe jeder Person zum Clusterzentrum und besitzt so ein formales Kriterium für die Auswahl. Ansonsten gilt, dass durch sorgfältige Lektüre der Textsegmente, die der Typenbildung zugrunde liegen, der bestgeeignete Fall (es kann sich auch um mehrere Fälle handeln) identifiziert werden muss. Die Techniken der com-
Typenbildung und typologische Analyse
107
putergestützten Analyse, z.B. das unten beschriebene kontrastierende Textretrieval (Kap. 5.4), stellen hier effektive Hilfen bereit. Die zweite Möglichkeit besteht in der Konstruktion eines Modellfalls aus der Zusammenschau und der Montage der am besten geeigneten Textsegmente. Dieses Verfahren löst sich vom Einzelfall und weist gewisse Ähnlichkeiten mit der Weberschen Idealtypenbildung auf. Es werden allerdings keine wirklichen Idealtypen gebildet, denn die polythetischen Typen und ihre Position im Merkmalsraum liegen ja bereits vor der typologischen hinterleuchteten Textinterpretation fest, d.h. sie existieren real, denn es lassen sich Individuen des Samples bezeichnen, die zu dem Typ gehören. Es werden lediglich einschlägige Textsegmente nach dem Kriterium der Plausibilität für den zu beschreibenden Typ ausgewählt und fallübergreifend montiert.
5
Text-Retrieval: codierte Textstellen wiederfinden
5.1 Das Grundprinzip des Text-Retrievals Ähnlich wie das Anlegen von Karteikarten beim manuellen Arbeiten ist das Codieren von Textsegmenten eine Systematisierungsleistung, die zwar ihren Eigenwert besitzt, aber auch eine mühevolle Vorarbeit im Vorgriff auf die spätere detaillierte Analyse darstellt, die hierdurch wesentlich leichter vonstatten geht. Die Grundform der computergestützten Auswertung codierter Textsegmente wird als Text-Retrieval bezeichnet. Es handelt sich quasi um die elektronische Variante des Griffs in den Karteikasten:
Abb. 22: Text Retrieval für Code A
Alle zu einer Kategorie gehörenden Karteikarten werden gewissermaßen aus dem Karteikasten herausgezogen und in einer Liste zusammengestellt. Diese in der obigen Abbildung dargestellte Grundform der Zusammenstellung codierter Segmente lässt sich in verschiedene Richtungen erweitern: Das Text-Retrieval kann nicht nur für einen, sondern für mehrere Codes durchgeführt werden, es kann zudem nach Überschneidungen und Über-
Text-Retrieval und Modelle der Interviewauswertung
109
lappungen von Codes gesucht werden, es kann nach bestimmten Kriterien eine Teilmenge von Texten für das Retrieval ausgewählt werden und anderes mehr. Diese Techniken sind Gegenstand dieses Kapitels und der Kapitel 8 und 9. Bevor die verschiedenen Varianten des Text-Retrievals vorgestellt werden, soll ein kurzer Blick auf die Methodik der Interviewauswertung geworfen werden, um zu verdeutlichen, an welchen Stellen des Analyseprozesses die Zusammenstellung codierter Textsegmente eine Rolle spielt.
5.2 Text-Retrieval und Modelle der Interviewauswertung Die computergestützte qualitative Datenanalyse fing Mitte der 1980er-Jahre methodisch nicht als Tabula rasa an, sondern knüpfte an den State-of-theart qualitativer Analyse an. Modelle zur Auswertung qualitativer Interviews, der häufigsten Aufgabenstellung qualitativer Datenanalyse, findet man als explizite Darstellung in den Lehrbüchern der qualitativen Methoden oder als implizite Methodik in den empirischen Studien qualitativer Sozialforscherinnen und Sozialforscher. Lamnek versucht im Lehrbuch „Qualitative Sozialforschung“ (2005: 402 ff.) eine allgemeine Handlungsanweisung für die Auswertung von Interviews zu formulieren, in der vier Phasen unterschieden werden, und zwar Transkription (1), Einzelanalyse (2), generalisierende Analyse (3) und Kontrollphase (4). Die Kernpunkte der analytischen Phasen 2 bis 4 werden in Abb. 23 dargestellt. Dieses Modell lässt sich problemlos in den Arbeitsablauf von QDA-Software übersetzen. Die Suche nach prägnanten Textstellen und ihre Entnahme (Phase 2) entsprechen dem Vorgang des Codierens in der computergestützten Auswertung, das Schreiben von Kommentaren und die Charakterisierung des Interviews dem Schreiben von Memos. Das Text-Retrieval dient als zentrales Hilfsmittel für die in Phase 3 angestrebte generalisierende Analyse: Die Suche nach Gemeinsamkeiten und Unterschieden in den Interviews basiert darauf, dass zuvor dekontextualisierte Textstellen nun einer vergleichenden Betrachtung unterzogen werden. Die „typisierende Generalisierung“, für Lamnek das Hauptziel der Interviewanalyse, setzt natürlich voraus, dass relevante Merkmale in den Interviews identifiziert und für eine solche Typenbildung herangezogen werden.
110
Text-Retrieval: codierte Textstellen wiederfinden
Einzelanalyse Ziel ist es, das Material zu konzentrieren, dabei geschieht folgendes: a) Hervorhebung zentraler Passagen b) Prägnante Stellen dem Text entnehmen (Resultat: gekürzter Text) c) Schreiben eines Kommentars und einer Charakterisierung des Interviews d) Interpretation der Besonderheiten und der Allgemeinheit des Interviews Generalisierende Analyse a) Suche nach Gemeinsamkeiten in den Interviews, Schritt zu einer typisierenden Generalisierung b) Herausarbeiten der Differenzen zwischen den Interviews c) Erarbeiten der Gemeinsamkeiten und Unterschiede d) Typen von Befragten bilden, die unter Bezugnahme auf konkrete Einzelfälle dargestellt werden Kontrollphase a) Immer wieder die vollständige Transkription heranziehen b) gegebenenfalls das Originalband noch einmal anhören c) Austausch der Befunde und Interpretationen im Team
Abb. 23: Phasen bei der Auswertung von Interviews (nach Lamnek 2005: 402 ff.)
Ganz ähnlich wie bei Lamnek sieht das von Spöhring vorgestellte Auswertungsmodell aus, das in acht Schritten vorgeht (Spöhring 1995). 1 Genaue Aufzeichnung des Gesprächstextes 2 Ganzheitliche Betrachtung der Äußerungen des Befragten, seine persönlichen Relevanzen, seine Deutungsmuster, sein Weltbild 3 Sorgfältige detaillierte Satz-für-Satz Interpretation auch scheinbar unwichtiger Äußerungen 4 Thematische Analyse, Äußerungen zu einzelnen Themen/Fragen des Leitfadens 5 Zuordnung von Interviewpassagen zu einzelnen inhaltlichen Kategorien, um die Interviews vergleichen zu können 6 Suche nach Auffälligkeiten, neuen Phänomenen, abweichenden Fällen 7 Reduktion des Materials (thematische Beschränkung, Beschränkung der Fälle) 8 Entdeckung von Regelmäßigkeiten, bei denen zwischen sozialen (quasi-statistischen Häufigkeits-) Typen und kulturell wirksamen, objektiven Regeln und Normen zu unterscheiden ist
Abb. 24: Vorgehensweise bei der Auswertung offener Interviews – Acht Schritte nach Spöhring (1995)
Auch in diesem Modell sind an entscheidenden Stellen Schritte des Codierens und Wiederfindens von Textpassagen enthalten: In Phase 4 und 5 werden die Texte thematisch codiert und in den Phasen 6 bis 8 werden auf dieser Basis vergleichende Analysen vorgenommen. Den Modellen von Lamnek und Spöhring ist gemeinsam, dass sie in methodisch kontrollierter Weise das Material verdichten mit dem Ziel, zu Aussagen über Regelmäßigkeiten zu gelangen. Gegenüber anderen, stärker hermeneutisch orientierten Verfahren, dominiert hier das Ziel der Materialverdichtung, der Konzentration auf das Wesentliche im Sinne der jeweili-
Einfaches Retrieval: Alle Segmente einer Kategorie zusammenstellen
111
gen Forschungsfrage mit dem Ziel quasi-statistischer Aussagen. Der einzelne Fall interessiert hier nicht in seiner Besonderheit sondern als Manifestation eines Musters.
5.3 Einfaches Retrieval: Alle Segmente einer Kategorie zusammenstellen Die einfachste Form des Text-Retrievals besteht darin, aus dem Datenmaterial alle codierten Textsegmente zusammenzustellen, die einer bestimmten Kategorie zugeordnet wurden. Ähnlich wie aus einem Karteikasten werden die betreffenden Segmente dem elektronischen Karteikasten entnommen und hintereinander in einer Liste zusammengestellt. Technisch sind mit einem QDA-Programm zwei Dinge zu tun, um ein solch einfaches TextRetrieval durchzuführen: erstens muss der gewünschte Code aus dem Codesystem ausgewählt werden und x zweitens muss eine Auswahl von Texten getroffen werden oder es werden die Segmente aller vorhandenen Texte zusammengestellt x
Der Einfachheit halber wollen wir zunächst annehmen, dass mit der Gesamtheit der Texte gearbeitet wird, dass also alle Texte ausgewählt werden. Die Logik des Text-Retrievals funktioniert dann nach folgendem Muster: DATENMATERIAL Das sind alle codierten Textsegmente aller Texte zu allen Kategorien
ZUSAMMENSTELLUNG der vorhandenen codierten Segmente für eine oder mehrere ausgewählte Kategorien
Resultat des Text-Retrievals ist eine Zusammenstellung aller zum ausgewählten Code vorhandenen Segmente. Zu jedem aufgelisteten Segment gehört eine Herkunftsangabe, d.h. die Information darüber, aus welchem Text die Passage stammt und welche Position die Stelle im betreffenden Text einnimmt (z.B. durch Angabe der Absatznummer oder Zeilennummer).
112
Text-Retrieval: codierte Textstellen wiederfinden
5.4 Kontrastierendes Retrieval: Segmente ausgewählter Kategorien gegenüberstellen Beim kontrastierenden Retrieval geht es nicht nur um die Auswertung einer einzelnen Kategorie, sondern um die Gegenüberstellung von Aussagen zu zwei oder mehr Kategorien, zum Beispiel um die Frage: Was hat ein Befragter zu Thema A geäußert und was sagt er zu Thema B? Wie sehen die Wünsche aus und was hält jemand für machbar? Die Logik des TextRetrievals ist die gleiche wie beim oben beschriebenen einfachen Retrieval, doch werden beim kontrastierenden Retrieval die gefundenen Textsegmente in einer bestimmten Reihenfolge benötigt, die bei zwei zu kontrastierenden Kategorien wie in Abb. 25 aussieht. Die Segmente in einer solchen Liste müssen nach Texten sortiert sein, d.h. alle Textpassagen aus Text A folgen hintereinander und dann folgen erst die Segmente aus Text B. Auf diese Weise lassen sich die Aussagen einer Person, z.B. ihre Wunsch- und Machbarkeitsvorstellungen, direkt miteinander vergleichen. Text A Segmente zum Code Wunschprojektion Segmente zum Code Machbarkeitsprojektion Text B Segmente zum Code Wunschprojektion Segmente zum Code Machbarkeitsprojektion Text C Segmente zum Code Wunschprojektion Segmente zum Code Machbarkeitsprojektion usw.
Abb. 25: Codierte Segmente – nach Texten sortiert
Selbstverständlich kann sich die Kontrastierung auch auf mehr als zwei Kategorien beziehen. Bedeutsam ist, dass mit der Kontrastierung ein Weg beschritten wird, der nach dem Schritt der Segmentierung und Dekontextualisierung nun wieder auf die Suche nach Zusammenhängen und Querbezügen geht. Übereinstimmungen werden ebenso deutlich wie Differenzen und schärfen den analytischen Blick für die Beziehungen zwischen den einzelnen Kategorien.
Verknüpfendes Retrieval: Suche nach gemeinsamem Vorkommen von Codes
113
5.5 Verknüpfendes Retrieval: Suche nach gemeinsamem Vorkommen von Codes Zu den Basistechniken des Text-Retrievals gehört ferner die Suche nach Überschneidungen von Kategorien, d.h. es wird nach solchen Textpassagen gesucht, denen sowohl ein Code A (z.B. „Wunschprojektion“) wie ein Code B (z.B. „Machbarkeitsprojektion“) zugeordnet ist. Um die Bedingung des gemeinsamen Vorkommens zu erfüllen, ist es nicht notwendig, dass die Segmente exakt gleich groß sind, es reicht aus, wenn sich zwei Codierungen überlappen.
Abb. 26: Textabschnitt mit gleichzeitiger Codierung von Wunsch- und Machbarkeitsprojektion
Im obigen Beispiel findet sich eine Textstelle, der gleichzeitig beide Kategorien zugeordnet sind. Hier spricht der Befragte also im gleichen Abschnitt über seine Wünsche und über das, was er für machbar hält. Um gezielt alle bzw. alle ausgewählten Texte eines Projektes daraufhin zu durchsuchen, ob es Überschneidungen von Codes gibt, muss eine Suchanfrage folgender Art gestellt werden: „Finde Textpassagen, denen Code A UND Code B zugeordnet sind.“ Auch die einfache UND-Verknüpfung lässt sich natürlich von zwei auf drei und mehr Codes erweitern, d.h. es wird nicht nur nach dem gemeinsamen Vorkommen von A und B gesucht, sondern nach solchen Textpassagen, die gleichzeitig mit drei spezifizierten Codes A, B und C codiert worden sind. Dieses Prinzip lässt sich auf beliebig viele Codes erweitern. Als Resultat werden wie beim einfachen Text-Retrieval alle Textstellen, bei denen sich die spezifizierten Codes überschneiden, in einer Liste zusammengestellt. Anders als beim einfachen Retrieval, wo die in Frage kom-
114
Text-Retrieval: codierte Textstellen wiederfinden
menden codierten Segmente immer vollständig ausgegebenen werden, ist es beim nach Überschneidungen suchenden Retrieval nicht selbstverständlich, welche Textstelle als Resultat ausgegeben wird. Im folgenden Beispiel überschneiden sich Code A und Code B. Es kann nun nur der direkte Überschneidungsbereich oder der gesamte von den beiden Segmenten umfasste Bereich ausgegeben werden.
Abb. 27: Code A und B überschneiden sich
Die Suche nach sich überschneidenden Kategorien kann weitaus komplexer als bei diesem einfachen Beispiel gestaltet werden. So lassen sich Abfolgen von Codes überprüfen (Code A gefolgt von Code B) oder Codes auf ihre Nähe hin untersuchen (Code A in maximal x Absätzen Entfernung von Code B). Diese komplexeren Formen des Text-Retrievals sind Gegenstand von Kapitel 9.
5.6 Code-Hierarchien im Retrieval Kategoriensysteme bestehen in den meisten Fällen nicht nur aus einer einfachen sequentiellen Liste von Codes, sondern sie weisen eine innere Struktur im Sinne von unter- und übergeordneten Kategorien auf. Angenommen, man habe eine Kategorie „Einstellungen“ mit den Subkategorien „positiv“ und „negativ“ definiert. In jedem Zweig der Einstellungskategorie können dann, wie die folgende schematische Darstellung zeigt, weitere Unterkategorien definiert werden.
115
Code-Hierarchien im Retrieval Einstellungen
positiv
Liebe
negativ
Hass
Sympathie
Antipathie
Wenn man nun nach Überschneidungen mit der Kategorie „Erfolgskriterien“ sucht, ist man daran interessiert, auch alle denkbaren Überschneidungen von „Erfolgskriterien“ mit den Subkategorien von „Einstellungen“ zu erfassen, beispielsweise Textpassagen in den Daten zu finden, die zum einen mit „Erfolgskriterien“ und zum anderen mit „Einstellungen/positiv/Sympathie“ codiert sind. Man benötigt also Retrieval-Prozeduren, die in der Lage sind, die Baumstruktur des Kategoriensystems zu berücksichtigen. Anderenfalls wäre man gezwungen, alle denkbaren Überschneidungen von „Erfolgskriterien“ mit den sechs Subkategorien der Einstellungen gesondert zu explorieren. Dies wäre vom Arbeitsaufwand her zumindest theoretisch noch denkbar, doch wird die Angelegenheit dann schwieriger, wenn auch die zweite Kategorie Unterkategorien besitzt. Erfolgskriterien
sozial
ökonomisch
ökologisch
Schon dann, wenn die Kategorie „Erfolgskriterien“, wie im obigen Schema nur 3 Subkategorien besitzt, wären 6 mal 3, d.h. 18 denkbare Überschneidungen zu überprüfen. Die Möglichkeit zur automatischen Berücksichtigung von hierarchischen Strukturen im Retrieval ist also von großer Bedeutung, vor allem dann, wenn die Struktur auf drei oder mehr Codes erweitert wird.
116
Text-Retrieval: codierte Textstellen wiederfinden
5.7 Code-Übersichten und Häufigkeiten Die vorgenommenen Codierungen von Textsegmenten lassen sich auf verschiedene Weise auswerten: 1. als Zusammenstellung der zu einem Code gehörenden Textsegmente, meist in Form einer Liste, die die Textpassagen der Originaltexte mit Angabe der zugeordneten Kategorien enthält 2. als Tabelle der Referenzen der Codes, d.h. als tabellarische Übersicht, welche Kategorien und Subkategorien welchen Texten zugewiesen sind 3. als textbezogene Häufigkeitsauswertung von Codes und Subcodes, ggf. aufgegliedert nach verschiedenen Teilgruppen von Texten Die bisher in diesem Kapitel vorgestellten Verfahren des Text-Retrievals produzieren alle Auswertungen des ersten Typs, d.h. man erhält jeweils nach bestimmten Kriterien zusammengestellte Textpassagen der Originaltexte. Nun lassen sich auch interessante Auswertungen einzig auf der Basis der Codierungen durchführen, d.h. man ist weniger an einem Rückgriff auf die Textsegmente selbst interessiert als an der Information über die Codierungen – eine Vorgehensweise also, die mehr der klassischen, quantitativ orientierten Inhaltsanalyse entspricht. Formen von Auswertungen, die hier in Betracht kommen, sind: 1. die Auswertung der Codierungen einzelner Texte 2. ein Index der Codierungen für das gesamte Text-Set 3. Häufigkeitsauswertungen der Codierungen für einzelne Texte oder speziell selektierte Gruppen von Texten 4. Vergleich der Code-Häufigkeiten von Texten oder Textgruppen Auswertung der Codierungen eines einzelnen Textes Ob und wie oft ein bestimmter Code Texten zugeordnet ist, kann eine sehr nützliche Information darstellen. Die Auswertung der Codierungen eines einzelnen Textes in Form einer chronologischen Liste der Codezuweisungen gibt einen guten Überblick über den Interviewverlauf. Wenn man nach der Methode des thematischen Codierens vorgegangen ist, lassen sich Fragen beantworten wie: Welche Themen wurden in welcher Reihenfolge bearbeitet? Welche Themen wurden besonders ausführlich und welche nur am Rande behandelt? Ergebnis ist ein Summary des Interviews, das unmit-
117
Code-Übersichten und Häufigkeiten
telbar Aufschluss über die Themen und theoretischen Konzepte gibt, welche Gegenstand des Interviews sind. Einzelnes Element dieser Liste ist ein codiertes Segment, angegeben werden der zugeordnete Code und die Lokalisierung des Segmentes im Text. Abb. 28 zeigt, dass in dem hier ausgewerteten Interview insgesamt 8 Textstellen zum Thema „Wunschprojektion“ vorhanden sind. 7 Textstellen hiervon beziehen sich auf den sozialen Bereich – an erster Stelle handelt es sich um „gesellschaftliche Visionen“ – und lediglich eine auf den Bereich Ökologie. Wunschprojektionen, die sich auf Ökonomie beziehen, werden im gesamten Interview gar nicht geäußert. CODE
Absatznr. Beginn
Ende
Wunschprojektion >sozial >gesellsch. Visionen
14
15
Wunschprojektion >sozial >gesellsch. Visionen
26
26
Wunschprojektion >sozial >gesellsch. Visionen
47
49
Wunschprojektion >sozial >LA 21-Initiative
3
3
Wunschprojektion >sozial >Öffentlichkeit
31
32
Wunschprojektion >sozial >Partizipation/Politik
12
12
Wunschprojektion >sozial >Umgest. d. lok. Lebensraumes
16
17
Wunschprojektion >ökologisch
14
15
Abb. 28: Tabellen mit den Code-Referenzen eines Textes
Ähnlich aussehende Übersichten lassen sich auch für die Gesamtheit der Texte erstellen. Wie das Sachregister eines Fachbuches enthält ein solcher Code-Index Hinweise darauf, an welchen Stellen welcher Texte Textpassagen zum jeweiligen Thema bzw. zum jeweiligen Code zu finden sind. Auch hier verweist jede Zeile der Liste auf ein codiertes Textsegment. Code-Häufigkeiten Häufigkeitsauswertungen von Codes basieren auf dem oben beschriebenen Index der Codierungen. Zwar lässt sich aus den Häufigkeiten des Auftretens einer Kategorie nicht ohne weiteres auf ihre Relevanz schließen, doch ist es heuristisch durchaus von Interesse, ob bestimmte Kategorien in einem Text oder einer Gruppe von Texten sehr häufig oder überhaupt nicht vorkommen. Häufigkeitsauswertungen, die für Teilgruppen der Befragten
118
Text-Retrieval: codierte Textstellen wiederfinden
durchgeführt werden, lenken den Blick auf Unterschiede und Auffälligkeiten im Datenmaterial. Im Projekt „Umweltkommunikation und Lokale Agenda 21“ zeigte bereits die Verteilung der Häufigkeit der Codierung für die Kategorie „Wunschprojektion“ einige Eigentümlichkeiten auf. Einerseits fiel die relativ geringe Häufigkeit der auf den lokalen Lebensraum bezogenen Wünsche auf, ferner war die Disparität zwischen den Häufigkeiten für „Gesellschaftliche Visionen“ bei den Wünschen und bei den Machbarkeitsprojektionen augenfällig, d.h. in den Interviews fand man viele Wünsche, die auf eine Veränderung der Gesellschaft zielen, aber nur wenige Textpassagen, die sich mit deren Machbarkeit befassen. Häufigkeitsvergleiche dieser Art sind zudem nützlich, um Subgruppen von Texten miteinander zu vergleichen. Bei der genannten Studie, in der Akteure aus verschiedenen Berliner Bezirken interviewt wurden, lässt sich eine Matrix erstellen, in der die Frequenzen der verschiedenen Subkategorien von Wunschprojektionen für die bezirklichen Initiativen in aggregierter Form miteinander verglichen werden (Abb. 29). Wunschprojektion
Charlotten- Steglitz burg
Lichtenberg
Köpenick
Sozial >gesellsch. Visionen
5
5
2
14
Sozial >LA 21-Initiative
7
27
10
15
sozial >Öffentlichkeit
2
6
1
3
sozial >Partizipation/Politik
5
10
5
11
sozial >Umgestaltung d. lokalen Lebensraums
1
0
2
3
ökologisch
1
10
1
4
ökonomisch
1
5
3
1
Total
22
63
24
51
Abb. 29: Häufigkeit der Wunschprojektionen im Vergleich der Bezirke
Solche Tabellen haben zunächst einen explorativen und heuristischen Wert: Man erkennt, dass in der Steglitzer und der Köpenicker Initiative weitaus mehr Wunschprojektionen geäußert werden als in den beiden anderen Initiativen. Auffallend ist zudem, dass sich in Köpenick sehr viele Wünsche auf den Bereich gesellschaftlicher Visionen erstrecken.
Praktische Hinweise für MAXQDA
119
5.8 Praktische Hinweise für MAXQDA In MAXQDA funktioniert das Text-Retrieval mittels des Prinzips der Aktivierung, d.h. sowohl Texte als auch Codes werden für ein Text-Retrieval ausgewählt. Ergebnis ist eine Zusammenstellung aller für diese Selektion vorhandenen Textsegmente in einem Resultatfenster, der „Liste der Codings“. Zur Durchführung eines Text-Retrievals ist also nichts weiter zu tun, als die gewünschten Texte und Codes zu aktivieren. Texte können individuell aktiviert werden, es lassen sich aber auch eine gesamte Textgruppe, ein Text-Set oder gleich alle Texte des Projektes auswählen. Alle Aktivierungsvorgänge für Texte werden im Fenster „Liste der Texte“ getätigt, alle Aktivierungsvorgänge für Codes im Fenster „Liste der Codes“. An der Darstellung der Textsymbole bzw. Codesymbole lässt sich sofort erkennen, welche Texte und Codes in das Retrieval einbezogen sind. Als Resultat werden alle betreffenden Segmente in der „Liste der Codings“ hintereinander präsentiert, links neben jedem Segment findet sich eine Info-Box, die über die Herkunft des Segmentes (u.a. die Textgruppe, den Text und den Absatz im Text) Auskunft gibt. Wird die Info-Box eines Segmentes angeklickt, so wird der Originaltext geladen und genau an diese Stelle positioniert. Auch können Aktionen mit dem Segment durchgeführt werden: Das Segment kann z.B. gelöscht, die Segmentgrenzen können verändert oder das Segment kann zusätzlich einem weiteren Code zugeordnet werden. Das faszinierende bei der Arbeit mit QDA-Programmen ist, dass anders als bei Karteisystemen althergebrachter Art der Originaltext nicht weit entfernt ist – nämlich abgeheftet in einem Ordner – sondern dass der Originaltext jederzeit hinzugezogen werden kann: Ein Anklicken genügt, um zu jedem codierten Segment den umgebenden Kontext sofort einzusehen. Diese einfache Art des Text-Retrievals kann auf zweierlei Weise nützlich sein: bei der Analyse eines Einzelfalles bzw. des einzelnen Interviews und bei der Analyse von Themen, d.h. bei der fallübergreifenden Analyse von inhaltlichen Aspekten. Für die themenorientierte Einzelfallanalyse bietet das einfache TextRetrieval eine wirkungsvolle Unterstützung, denn nun lassen sich alle über das Interview verteilten Textstellen zu einem bestimmten Thema zusammenstellen, so dass sich Inkonsistenzen und Unklarheiten leicht entdecken lassen. Fallübergreifende Analysen erleichtern es natürlich, das gesamte Material zu einem bestimmten Thema zu sichten und die Ergebnisse zusammenzufassen.
120
Text-Retrrieval: codierte Textstellen T wiederfinden
Abb. 300: Zusammensstellung codierrter Segmente mit m Herkunftsaangabe vor dem m Text in MAXQDA A (Code: Mach hbarkeitsprojek ktion>ökologissch)
Übun ngen 1. Öffnen Sie Ihr I Projekt „test1“, „ das Siie in den Übuungen der vo orangehenden Kap pitel erstellt haben. h S alle Textte der Textgrruppe „Bürgger“ und den n Code 2. Aktivieren Sie „Einstellunggen\politisch h“. „ der Co odings“ zu deen ein3. Springen Siee per Mauskllick aus der „Liste zelnen codieerten Textstellen. Einstel4. Codieren Siie das gesamte Ergebnis mit dem neuuen Code „E lungen_neu““. n Sie die aktuuelle Liste der Codings un nd öffnen Siee diese 5. Exportieren in Microsofft Word. Exp portieren sie es e ein zweitees Mal im Daateiformat HTML.. Wo liegt derr Unterschied d? ngs zunächst in der Reih henfolge der Texte 6. Sortieren Siie die Codin (Textbaum) und anschlieeßend nach dem d Codebauum. e Häufigkeeitsaus7. Erstellen Siee für „interviiew1“ und „interview2“ eine wertung derr vorhandenen Codierungeen. Drucken Sie die Liste aus.
6
Textexploration: Volltext-Recherche
6.1 Stichworte im Kontext Die Techniken des Codierens und des darauf aufbauenden Text-Retrievals eröffnen viele Möglichkeiten, sie haben aber den Nachteil, relativ zeitaufwändig zu sein. Nicht immer steht in einem Projekt genügend Zeit zur Verfügung, um das Textmaterial in seiner vollen Breite zu kategorisieren und zu codieren. Eine Hilfe können dann Verfahren der lexikalischen Suche darstellen, d.h. die Möglichkeit, in den Texten oder in ausgewählten Gruppen von Texten nach dem Vorkommen bestimmter Stichworte und Wortkombinationen zu suchen. Die lexikalische Suche ist generell zur Textexploration gut geeignet. Auch dann, wenn man eine Kategorisierung des Datenmaterials ins Auge fasst, macht es Sinn, sich in der Phase der Textexploration der Fähigkeiten des Computers zu bedienen: Mit Hilfe von QDASoftware ist eine schnelle und effiziente Volltext-Recherche in großen Textmengen möglich. So kann man gewissermaßen im Textkorpus surfen und (ungeplante) Entdeckungen machen. Solche überraschenden Entdeckungen von ursprünglich nicht Gesuchtem kann man auch mit dem Begriff „Serendipity“ bezeichnen. Nicht nur die Entdeckung Amerikas verdankt sich dem Serendipity-Prinzip, sondern auch innerhalb der Sozialwissenschaften spielt es eine nicht zu unterschätzende Rolle20. Als besonders nützlich erweisen sich so genannte Keyword-in-Context (KWIC) Zusammenstellungen. Solche KWIC-Listen enthalten ein Stichwort und den umgebenden Kontext in einem vom Benutzer bestimmbaren Umfang.
20 In der Soziologie hat sich vor allem Robert Merton mit Serendipity beschäftigt (vgl. Merton 2004a und 2004b).
122
Textexploration: Volltext-Recherche
Beispiel: Die Verwendung des Begriffs „Öffentlichkeit“ in Interviews mit Akteuren von LA 21-Initiativen In der Studie über Akteure in Lokalen Agenda 21-Initiativen interessierte in der ersten Phase der Auswertung, in welchem Kontext der Begriff „Öffentlichkeit“ verwendet wird. Was stellen sich die Akteure unter Öffentlichkeitsarbeit vor? In welcher Weise wollen sie aktiv werden? Was wollen sie auf keinen Fall tun? Wie ist ihre Haltung zur Presse? Ohne dass man bereits bestimmte Auswertungskategorien vor Augen haben muss, lohnt es sich, zunächst einmal eine Suchrecherche durchzuführen. Vorgehensweise a) Man suche in allen vorhandenen Interviews nach dem Wort „Öffentlichkeit“ oder nur nach dem Wortstamm „öffentlich“. Bei der Suche werden alle Worte, die diese Zeichenkette enthalten, gefunden, z.B. Öffentlichkeit, Öffentlichkeitsarbeit, öffentliche Veranstaltung. Allerdings kann man auf diese Weise auch Unerwünschtes wie „öffentliche Gebäude“ als Suchresultat erhalten. b) Man lasse sich alle Fundstellen im Kontext, d.h. Absätze, in denen der Suchbegriff vorkommt, heraus suchen und in einer Liste zusammenstellen. Resultat Ergebnis dieser einfach zu realisierenden explorativen Analyse ist eine Zusammenstellung der entsprechenden Textstellen (Abb. 31), mit der schnell ein Überblick über das Bedeutungsumfeld des Begriffs „Öffentlichkeit“ zu gewinnen ist. Es lässt sich leicht erkennen, in welchen Kontexten in dieser Studie von Öffentlichkeit die Rede ist. Die lexikalische Suche findet natürlich nur solche Textpassagen, in denen der gesuchte Begriff bzw. die gesuchte Zeichenkette manifest auftaucht. Textpassagen hingegen, in denen sehr wohl über die öffentliche Wirksamkeit der Initiative gesprochen wird, die aber keines der Suchworte enthalten, lassen sich so nicht finden.
Texte explorieren
123
Text: Interviews\interview1 Position: 118 – 118 Fr. Berkempers: Also man müsste schon an die Medien gehen. Und sich eben noch mal darstellen. Wir waren ja zu Anfang stark in den Medien, als wir uns gegründet haben und da haben auch ganz viele angerufen und sind über die Medien sozusagen zu uns gekommen, das war unser einziges Transportmittel, um an die Öffentlichkeit zu kommen. Und das hat eigentlich funktioniert. Wenn wir jetzt noch mal so ne Aktion starten, dann denke ich, könnten wir es auch wieder über die Medien machen. Text: Interviews\interview4 Position: 62 – 62 Herr Bellmann: Ja, da wird von der Xxxxxxxxxx aus ein Projekt vorgegeben für die nächste Zeit, so bis einem Jahr, das hat sich auch meines Erachtens bewährt, was man hier begonnen hat ähm, ich würde auch empfehlen, dass man eben auch mehr die Behörden mit einbezieht um hier die ganze Präsenz der Problematik mit bewusst zu machen. Und viele Dinge, die so am Schreibtisch durchdacht werden, dass die also mehr Öffentlichkeit erfahren. Text: Interviews\interview4 Position: 68 – 68 Herr Bellmann: Na, wie ich schon sagte, das müssten Transformatoren sein, die Mitglieder der Bürgerinitiativen, ne, die dann auch in die Schulen gehen, die dort also mehr Öffentlichkeit herbeiführen.
Abb. 31: Keyword-in-Context zum Begriff Öffentlichkeit (Kontextumfang: 1 Absatz)
Giegler (1992) empfiehlt, in dieser ersten explorativen Auswertungsphase keine Scheu davor zu haben, auch quantitative Aspekte zu eruieren: Welche Worte kommen vor, in welchen Texten? Wie häufig? Eventuell empfiehlt es sich auch, zusätzlich Techniken der quantitativen Inhaltsanalyse21 einzusetzen, Wortbestände auszuzählen und gegebenenfalls zu vergleichen. Bei kurzen Texten lassen sich u.U. gleich automatische Codierungen vornehmen und dann weiter statistisch bearbeiten. Entsprechende Analysen lassen sich beispielsweise mit MAXDictio durchführen (vgl. Kapitel 12).
6.2 Texte explorieren Die Explorationsmöglichkeiten stehen in engem Zusammenhang mit der Art des analysierten Textes. In Anlehnung an Giegler (1992: 350) lässt sich zwischen extern-strukturierten und nicht extern-strukturierten Texten unterscheiden. Extern-strukturiert bedeutet, dass die Texte von außen vorgegebenen Strukturierungsprinzipien unterworfen sind. Prototypisch ist dies 21 Giegler rät, gezielt die Wortbestände von Texten mit Mitteln der quantitativen Analyse zu untersuchen. Dies scheint zwar zunächst den Ansprüchen interpretativer Analyse zuwiderzulaufen, doch lässt sich begründet vermuten, dass eine solche Vorgehensweise, wenn sie eher spielerisch denn als eigentliche Textanalyse begriffen wird, einen heuristischen Wert hat: Man wird etwa auf die besonders häufige Verwendung bestimmter Worte hingewiesen oder auf die im Text verwendeten Metaphern aufmerksam.
124
Textexploration: Volltext-Recherche
bei Leitfadeninterviews der Fall. Der Interviewer spricht immer vorab festgelegte, für die Forschungsfrage wichtige Themen an bzw. stellt bei noch stärker strukturierten Interviewformen immer die gleichen vorformulierten Fragen. In der späteren Transkription ist zu jedem Leitfadenpunkt jeweils ein mehr oder weniger ausführlicher Antworttext vorhanden. Beispielsweise haben wir bei den mit Patienten geführten Interviews im Projekt „Rehabilitation und Pädagogik“ einen umfangreichen Leitfaden eingesetzt, dessen einleitende Fragen im folgenden Kasten wiedergegeben sind. FRAGELEITFADEN BEREICH 1: Generelle Einschätzungen zur Reha-Maßnahme – Erwartungen und Konsequenzen 1. Waren Sie der Meinung, dass Sie eine Kur brauchten? Warum? Was versprachen/erhofften Sie sich von der Kur? 2. Haben Sie rückblickend den Eindruck, dass bei Beginn der Reha-Maßnahme von Seiten der Klinikleitung gut über den Ablauf und die Zielsetzung der Kur informiert wurde? (Grob fragen: Welche Infos enthielt die Erstinformation? Gab es eine schriftliche Information, die wir einsehen/kopieren können?) Wenn nein, warum nicht? 3. Gibt es etwas in Ihrem alltäglichen Leben, das Sie infolge der Kur anders machen als vorher? Wenn ja: was? (Nur kurz abfragen, keine längeren Erklärungen)
Abb. 32: Auszug aus einem Interviewleitfaden zu Reha-Maßnahmen
Ein mit Hilfe eines solchen Leitfadens erhobenes Interview lässt sich auch in der Transkription noch deutlich diese Struktur des Leitfadens erkennen. Man kann in der folgenden Abbildung deutlich erkennen, dass der transkribierte Text weitgehend der Leitfadenstruktur folgt22. Natürlich weist ein Interviewtext nicht nur diese äußere, sondern auch eine innere Struktur auf. Dieser innere Zusammenhang wird durch die Persönlichkeit des Befragten generiert: Bestimmte Arten der Problemwahrnehmungen, bestimmte Werte, Vorurteile und Leitbilder kommen an verschiedenen Stellen des Interviews immer wieder zum Ausdruck.
22 Ein anderes gutes Beispiel für einen Interviewleitfaden und das auf diese Weise generierte Datenmaterial findet sich in Hopf u.a. 1995.
Texte explorieren
125
I: Warst du der Meinung, dass du eine Kur brauchst? Was hast du dir davon versprochen, erhofft? P: Ja, also wie gesagt, mehr Zeit für mich zu haben, mehr Zeit fürs Kind zu haben. Ja und einfach einmal mich auf mich zu besinnen, Zeit haben, nichts tun, einfach mal gar nichts tun. I: Hast du rückblickend den Eindruck, dass du vor der Reha-Maßnahme, also von Seiten der Rehaklinik gut über den Ablauf und die Zielsetzung der Kur informiert wurdest? P: Nee, da war ich nicht informiert, also der Kurablauf, ich wusste gar nichts, weder von der Kur, wie sie läuft, was da stattfindet, gar nichts. Die haben dann was zugeschickt, ungefähr 14 Tage vorher, aber mehr oder weniger nur zur Anreise, mehr zur Organisation, also was mitzubringen ist, aber da war nichts vom Ablauf der Kur zu erfahren, also vom inhaltlichen her gar nichts, da war auch teilweise über Ärzte nichts zu erfahren, die wussten das auch nicht. I: Weil das im Prinzip so ein Pilotprojekt war? P: Erstens sowieso, also ich sag mal im Osten ist es die erste Mutter-Kind überhaupt fast das erste Heim was es überhaupt gibt, zumindestens im neuen Stil, was nach der Wende irgendwie aufgebaut worden ist, insofern wusste man wirklich nicht, auf was man sich einlässt.
Abb. 33: Ausschnitt aus dem Transkript eines Leitfadeninterviews
Eine ähnliche Strukturierung wie bei dem in Abb. 33 auszugsweise wiedergegebenen Transkript lässt sich auch dann erreichen, wenn das Interview selbst nicht strikt an der sequentiellen Ordnung des Leitfadens orientiert war. Der Text lässt sich auch ex post in die extern vorgegebene Ordnung des Leitfadens umsortieren – was oft allerdings nur unter erheblichen Mühen gelingt. Für die praktische Bearbeitung eines solchen extern-strukturierten Textes mit einem QDA-Programm gibt es zwei alternative Vorgehensweisen. Die erste Variante wurde oben im Abschnitt 2.7 („Strukturierte Texte“) beschrieben. Sie erfordert die Beachtung bestimmter Formatierungsregeln bei der Texterfassung: Es ist jeweils anzugeben, wo ein zu einem bestimmten Leitfadenpunkt gehörender Textabschnitt beginnt und wo er endet. Diese Vorab-Zuordnung von Textabschnitten zu Leitfadenpunkten wird dann beim Einlesen des Textes von der QDA-Software bearbeitet. Die zweite, zeitaufwändigere Variante arbeitet mit der Zuordnung von Leitfadenpunkten durch manuelle Codierung der entsprechenden Textabschnitte. Hier muss jeder Text nach dem Import im QDA-Programm durchgearbeitet werden, die entsprechenden Textabschnitte müssen markiert und mit den Leitfadenpunkten codiert werden. Wie läuft nun die explorative Auswertung einer empirischen Studie mit solchen vorab strukturierten Texten ab? Giegler spricht von Komparatistik, d.h. die Antworten auf einzelne Fragen des Leitfadens werden in vergleichender Weise analysiert. Basis aller Exploration ist eine gedachte TextMatrix nach folgendem Muster.
126
Textexploration: Volltext-Recherche
Interview
Bedürfnis nach Kur
Erwartungen
Hoffnungen
Information durch Klinikleitung
Person 1
Text
Text
Text
Text
Person 2
Text
Text
Text
Text
Person 3
Text
Text
Text
Text
Person 4
Text
Text
Text
Text
...
...
...
...
...
Person X
Text
Text
Text
Text
Abb. 34: Textmatrix der Leitfadenthemen
Diese Matrix ähnelt einer rechteckigen Variablenmatrix, die Ausgangspunkt der meisten Auswertungen der sozialwissenschaftlichen Statistik ist. Hier wie dort werden die Zeilen durch die Fälle, d.h. durch die Interviewten, gebildet. Während in der quantitativen Datenmatrix die Variablen die Spalten bilden, sind es bei der hier dargestellten qualitativen Datenmatrix die Themen des Leitfadens. Die Exploration einzelner Spalten der Matrix entspricht quasi univariaten statistischen Auswertungen: Man verschafft sich einen Überblick über das Antwortspektrum und die Häufigkeit verschiedener Antworten, gruppiert die Antworten nach Ähnlichkeit und identifiziert verschiedene Dimensionen. Unschwer lassen sich in eine solche explorative Matrix der Antworten weitere Merkmale, etwa sozio-demographische Variablen, einbeziehen. Bei der Untersuchung über den Erfolg der Rehabilitation wurde hierzu ein ergänzender Fragebogen zur Erfassung dieser „objektiven Daten“ eingesetzt. Der simultane Blick in mehrere mit Text gefüllte Spalten ähnelt der Logik der statistischen Korrelationsanalyse. Zwei oder mehrere Antworten des gleichen Probanden werden jeweils zueinander in Beziehung gesetzt. Selektionen und gruppenspezifische Auswertungen werden möglich, wenn man weitere Variable hinzuzieht. Es besteht auch die Möglichkeit, die lexikalische Suche auf einzelne Punkte des Leitfadens zu beschränken. So lassen sich einerseits die zuvor beschriebenen Keyword-in-context-Zusammenstellungen gezielt einsetzen: Die Frage „Welche spezifischen Erwartungen richten sich an Ärzte?“ lässt sich bearbeiten, indem man eine lexikalische Suche nach den Suchworten „Arzt“ und „Ärztin“ in den codierten Textpassagen zum Leitfadenpunkt „Erwartungen“ startet.
Automatisches Codieren von Fundstellen
127
Unstrukturierte Texte zu explorieren gestaltet sich etwas mühsamer als die lexikalische Suche beim strukturierten Texttyp, bei dem man sofort in der Lage ist, sich über bestimmte Forschungsfragen einen Überblick zu verschaffen. Die Daten einer Textmatrix wie in Abb. 34 lassen sich systematisieren und für einen Forschungsbericht zusammenzustellen, inklusive etwaiger Statistiken oder Quasi-Statistiken. Wenn man hingegen erst mühsam zusammensuchen muss, wo ein Interviewter in einem längeren Interviewtranskript über ein bestimmtes Thema spricht, beträgt der Zeitaufwand ein Zigfaches.
6.3 Automatisches Codieren von Fundstellen Das automatische Codieren macht es möglich, eine lexikalische Suche durchzuführen und allen Fundstellen („Treffern“) automatisch einen Code zuzuweisen. Wird ein Suchausdruck in einem Text gefunden, dann wird die entsprechende Textstelle codiert, d.h. die gewählte Kategorie wird zugeordnet. Während die quantitative Inhaltsanalyse nur an einer Auszählung der Kategorien interessiert ist und die Texte selbst nach dem Codiervorgang nicht mehr von Interesse sind, verfolgt die qualitative Analyse andere Zwecke. Zwar ließe sich auch hier eine solche, auf Kategorienhäufigkeiten zielende Codierung vornehmen, doch ist die Logik der Analyse geradezu gegenläufig. Der Text wird durch die Codierung nicht überflüssig, sondern besser erschlossen und organisiert. Codiert wird ein Bereich um die Fundstelle des Suchbegriffs herum, wobei die Größe des Kontextes frei bestimmt werden kann, sie richtet sich nach formalen, syntaktischen Angaben, beispielsweise ein Absatz vor und nach dem gefundenen „Treffer“. Die automatische Codierung ist gewiss nicht der Königsweg der computergestützten Analyse qualitativer Daten, aber sie ist eine außerordentlich nützliche Funktion nicht nur mit heuristischem Wert. Zum Beispiel erhält man inzwischen als Teilnehmer einer wissenschaftlichen Konferenz üblicherweise die Abstracts auf CD-ROM. Man kann diese nun sehr einfach auswerten,, etwa lassen sich die Abstracts eines Soziologiekongresses auf diese Weise sehr schnell in Bezug auf die Vortragsthemen (Umwelt, Familie, Soziales etc.) und die theoretischen Bezüge (Luhmann, Habermas, Weber, System, Konstrukt etc.) automatisch codieren und mit den in Kapitel 5
128
Textexploration: Volltext-Recherche
dargestellten Mitteln des Text-Retrievals Zusammenhänge eruieren und Bedeutungsfelder analysieren. Die automatische Codierung ist vor allem bei großen Textmengen eine wirksame Auswertungsstrategie. Wenn man es mit mehreren hundert Texten zu tun hat, lässt sich konkurrenzlos schnell herausfinden, ob sich Soziologinnen und Soziologen bei ihrer Jahrestagung stärker mit Habermas oder Luhmann befassen, welche Klassiker in der Diskussion eine Rolle spielen und in welchen inhaltlichen Kontexten diese rezipiert werden. Besondere Stärke erhält die automatische Codierung dadurch, dass man sie mit den in Kapitel 9 beschriebenen Techniken des komplexen Text-Retrievals kombinieren kann.
6.4 Stärken und Schwächen der lexikalischen Suche Gegenüber der im vorangehenden Kapitel beschriebenen Technik der intellektuellen Codierung von Textsegmenten weist die lexikalische Suche eine Reihe von Vorzügen, aber auch Nachteile auf. Oft ist es empfehlenswert, beide Methoden zu kombinieren und mit einer lexikalischen Suche zu beginnen, um sich zunächst einen Eindruck über die Worte, Redewendungen und Metaphern zu verschaffen, die die Befragten selbst verwenden. Die lexikalische Suche mit der Möglichkeit der automatischen Codierung stellt durchaus eine wertvolle, eigenständige Auswertungstechnik dar, sie ist nicht bloße Ergänzung von Code-and-retrieve Techniken. Der größte Vorteil dieser Technik ist, dass sie viel einfacher und schneller als das manuelle Segmentieren und Codieren zu realisieren ist. Nahezu ohne spezielle Vorbereitung kann mit der Auswertungsarbeit begonnen werden. Es lassen sich nicht nur für den gesamten Textkorpus Informationen zu einem bestimmten Wort oder Begriff zusammenstellen, sondern unschwer lässt sich auch beantworten, wer bestimmte Begriffe benutzt und in welchem Kontext diese benutzt werden. Speziell für Beobachtungsstudien, Feldforschungen und Dokumentenanalysen erweist sich die lexikalische Suche als vorteilhaft. Für bestimmte, in den Texten vorkommende Personen lässt sich zusammenstellen, wie andere sie wahrnehmen und wie sie sich über sie äußern. Kernstück dieser Technik ist die Zusammenstellung von Keyword-in-context-Listen. Die lexikalische Suche ist allerdings immer eine syntaktische Suche nach dem Vor-
Stärken und Schwächen der lexikalischen Suche
129
kommen von Zeichenketten („Strings“) und dies hat eine Reihe von Problemen zur Folge: Einerseits sollten die analysierten Texte möglichst fehlerfrei sein, denn falsch geschriebene Worte werden nicht gefunden. Auch muss durchgehend die gleiche Schreibweise für zusammengesetzte Worte gewählt werden, denn für den Computer ist ein „Internet-User“ etwas anderes als ein „Internetuser“. Diese Probleme lassen sich ebenso wie die Probleme der Groß- und Kleinschreibung und der Silbentrennung durch sorgfältige Datenaufbereitung noch relativ leicht bewältigen. Anders ist es hingegen um solche Probleme bestellt, die im Zusammenhang mit der Bedeutung von Worten stehen. Sehr viele Worte sind mehrdeutig, ihre Bedeutung hängt in starkem Maße vom Kontext der anderen Worte ab, für die wiederum das gleiche gilt. Insofern ist es äußerst problematisch, das Vorkommen eines Wortes im Text als Indikator für das Vorliegen eines bestimmten Phänomens zu werten. Bei der lexikalischen Suche ist es deshalb unbedingt erforderlich, dass jederzeit die Möglichkeit besteht, den erweiterten Kontext von Treffern heranzuziehen, um so entscheiden zu können, ob es sich wirklich um einen für die jeweilige Fragestellung gültigen Treffer handelt. Im Zuge der Diskussion um die Schwächen der quantitativen Inhaltsanalyse, bei der ja die lexikalische Suche mit automatischer Codierung verknüpft wird, hat man lange Zeit diesen bloß mechanischen Charakter der lexikalischen Suche kritisiert und deren Leistungsfähigkeit eher unterschätzt. Die im Kapitel 3 beschriebene intellektuelle Codierung verlangt einerseits eine gründliche Kenntnis der Texte, andererseits verschlingt die Codierung viel Zeit und oktroyiert mehr oder weniger automatisch einen bestimmten Arbeitsstil, der an der Linearität des Textes orientiert ist. Der Zugang der lexikalischen Suche ist demgegenüber ein völlig anderer und eher mit der Logik von Hypertext vergleichbar. Der Analyseprozess ist bei der lexikalischen Suche weitaus weniger vorgezeichnet und strukturiert. Das hat einerseits den Vorteil, dass Exploration und Flexibilität im Vordergrund stehen, andererseits aber auch den Nachteil, dass sich der Benutzer in seinen Daten verlieren kann und nicht so recht weiß, wo er beginnen und aufhören soll.
130
Textexploration: Volltext-Recherche
6.5 Praktische Hinweise für MAXQDA Die lexikalische Suche in MAXQDA erlaubt es, in den Originaltexten, in einer Selektion der Texte („aktivierte Texte“), den Memos oder in der Zusammenstellung der codierten Textsegmente, d.h. in den Resultaten eines Text-Retrievals zu suchen. Dadurch werden schrittweise aufeinander aufbauende Suchvorgänge ermöglicht. Ferner kann die lexikalische Suche in vielfältiger Weise mit dem Text-Retrieval verknüpft werden. Sofern die lexikalische Suche in den Originaltexten und nicht in den Memos stattfindet, arbeitet sie ähnlich wie das Text-Retrieval: Will man nicht mit dem gesamten Textkorpus arbeiten, sind zunächst diejenigen Texte zu aktivieren, die in den Suchprozess einbezogen werden sollen. Das können einzelne Texte sein, alle Texte einer Textgruppe oder nur die Texte, die bestimmten Selektionskriterien genügen (vgl. Kapitel 8). Resultat der lexikalischen Suche ist zunächst eine Liste aller Fundstellen, wobei jede Zeile eine Fundstelle repräsentiert. Durch Anklicken dieser Fundstelle öffnet sich automatisch der Originaltext und wird an die betreffende Stelle positioniert. Die Gesamtheit aller Fundstellen kann auch als Datei exportiert werden. Dabei wird ein Keyword-in-context erzeugt, wobei der Umfang des Kontextes variabel bestimmt werden kann (durch Angabe der gewünschten Anzahl der Absätze vor und nach der Fundstelle). Die Ergebnisse können zudem codiert werden, also einer bestehenden oder neu definierten Kategorie zugewiesen werden. Die Angabe des Kontextumfangs bestimmt auch die Größe der Textsegmente, die durch die automatische Codierung der Fundstellen erzeugt werden.
Abb. 35: Anzeige der Suchergebnisse als Tabelle
Praktische Hinweise für MAXQDA
131
Text-Retrieval und lexikalische Suche lassen sich auf einfache Art miteinander verbinden, in dem zunächst ein Text-Retrieval durchgeführt wird und anschließend nur in den Resultaten, d.h. in der „Liste der Codings“ gesucht wird. In der Studie „Rehabilitation und Pädagogik“ ging es etwa um die Frage, welche spezifischen Erwartungen die Patienten an die Ärzte haben. Zunächst wird ein Text-Retrieval für den Code „Erwartungen“ durchgeführt, dem alle Textpassagen zum Leitfadenpunkt „Erwartungen“ zugeordnet sind. Die Retrieval-Resultate werden im Fenster „Liste der Codings“ zusammengestellt und es lässt sich eine lexikalische Suche nach den Suchworten „Arzt“ und „Ärztin“ in diesen Segmenten anschließen. In MAXQDA kann die automatische Codierung der Suchfunktionen auch benutzt werden, um Textabschnitte automatisch bestimmten Sprechern, z.B. zur Auswertung von Gruppendiskussionen und Fokusgruppen, zuzuordnen. Dazu ist es erforderlich, eine bestimmte Syntax bei der Transkription einzuhalten. Jeder Beitrag eines Sprechers muss mit der Sprecherbezeichnung beginnen und darf nur ein Absatzzeichen enthalten. Die automatische Codierung macht es möglich, alle Beiträge eines bestimmten Sprechers zusammenzustellen und zu kontrastieren. Ohne dass irgendwelche weiteren Vorarbeiten zu leisten sind, lässt sich bei einer so automatisch codierten Gruppendiskussion sofort auswerten, wer wie häufig redet und wie umfangreich diese Beiträge sind. Exportiert man diese Zusammenstellung in Form eines Keyword-in-context erhält man eine übersichtliche Darstellung aller Beiträge eines Sprechers in Form einer HTML-Tabelle. Wenn in den Memos anstatt in den Texten gesucht wird, enthält die Ergebnistabelle eine Liste der Memos, in denen die Suchbegriffe vorkommen. Auch hier kann durch Anklicken direkt zum betreffenden Memo gesprungen werden oder ein entsprechendes KWIC-Listing aller Fundstellen in Form einer Tabelle erzeugt werden.
Übungen 1. Öffnen Sie Ihr Projekt „test1“ oder erzeugen sie ein neues Projekt bestehend aus einer Textgruppe und den Beispielinterviews Interview1 bis 4. 2. Gehen Sie in das Suchmenü. Welche Texte würden jetzt durchsucht? Wie könnte man es bewerkstelligen das nur in bestimmten Texten gesucht wird, aber nicht in allen?
132
Textexploration: Volltext-Recherche
3. Lassen Sie nach dem Wort „Jugend“ suchen, wobei die Groß- und Kleinschreibung nicht beachtet und auch Teilwörter gesucht werden sollen. Wie viele Fundstellen gibt es? 4. Klicken sie auf jede Fundstelle und beobachten Sie was passiert. Bewegen sie sich mit den Cursortasten durch die Fundstellen. 5. Erstellen Sie einen neuen Code „Jugend“ im Codesystem und codieren Sie alle gefundenen mit diesem Code, wobei nur der entsprechende Absatz, in dem sich das Wort befindet, codiert werden soll. Aktivieren Sie anschließend alle vier Texte und nur den Code „Jugend“. Wie viele codierte Segmente gibt es jetzt? 6. Exportieren Sie alle Fundstellen in eine Datei, nennen Sie die Datei „fundstellen.rtf“ und öffnen Sie diese mit Microsoft Word. 7. Suchen Sie jetzt auch nach dem Wort „Themen“ mittels der „UND“ Kombination innerhalb von 2 Absätzen. Wie viele Fundstellen gibt es?
7
Die Memos: Eigene Ideen aufzeichnen und organisieren
7.1 Notizen und Aufzeichnungen im Forschungsprozess Benutzer von QDA-Software werden in der Programmbeschreibung häufig entdecken, dass die Möglichkeit besteht, eigene Aufzeichnungen („Memos“) anzufertigen und zusammen mit den Texten zu verwalten. Häufig wird man sich dann die Frage stellen, ob es sinnvoll ist, bei der Datenanalyse diese Möglichkeit des Programms zu nutzen und wie dies am besten zu bewerkstelligen ist. Dieses Kapitel will einen Eindruck davon vermitteln, wozu Memos gut sein können, gibt Beispiele für verschiedene Typen von Memos und zeigt, wie die Memo-Funktion in einem QDA-Programm aussieht. Im Prozess der sozialwissenschaftlichen Analyse qualitativer Daten ist es auch ohne Nutzung von Computersoftware eine gängige Praxis, eigene Texte und Kommentare über das Datenmaterial zu erstellen. Vor allem Strauss, Glaser und Corbin (1991, 1996, 1998, 2008) entwickelten mit der Grounded Theory einen Analysestil, zu dessen Charakteristika es gehört, mit verschiedenen Typen von Aufzeichnungen (Memos) zu arbeiten Für solche Aufzeichnungen, Anmerkungen, Kommentare und Notizen gilt, dass sie einen anderen Status als die Originaltexte haben: Sie sind Hilfsmittel des Forschers auf dem Weg zu einem von ihm zu erstellenden Text, beispielsweise einer Dissertation oder einem Forschungsbericht für den Auftraggeber. Sie sind keine Dokumente wie die Originaltexte, sondern Produkte des Forschers. Das Schreiben von Memos kann zu verschiedenen Zeitpunkten im Projektverlauf stattfinden: 1. zu Beginn des Projektes z.B. als Beschreibung der Interviewsituation, der Wohnung des Befragten, des persönlichen Eindrucks und anderer Dinge mehr 2. in der ersten Phase der Analyse als erste Zusammenfassung z.B. in Form der oben erwähnten Interviewsummaries
134
Die Memos: Eigene Ideen aufzeichnen und organisieren
3. während des gesamten Analyseprozesses, um die Definition und inhaltliche Bedeutung von Codes zu dokumentieren 4. bei der Interpretation von Texten, um Hypothesen und Vermutungen zu einzelnen Textstellen festzuhalten 5. im Verlauf der kontrastierenden Datenauswertung bei der Entwicklung von Theorien Das systematische Anfertigen von Memos im Verlauf des Forschungsprozesses stellt eine wertvolle Hilfe für die Theoriebildung dar. Das MemoSchreiben zwingt die Forschenden dazu, die eigenen Ideen, Gedanken und Hypothesen festzuhalten und zu ordnen. Die Aufgabe, Zwischenergebnisse zu formulieren, verkürzt den Sprung von der Datenbearbeitung zur Erstellung des Forschungsberichtes. Wichtige Teile des Forschungsberichtes entstehen gewissermaßen „nebenbei“, d.h. während der Datenanalyse und Interpretation. Für die Arbeit im Team stellen Memos ein wichtiges Kommunikationsmittel dar: Sie geben allen Mitarbeitern die Chance, die ausgearbeiteten Ideen der anderen Teammitglieder zu lesen, diese zu kommentieren und weiterzuentwickeln. Memos über die definierten Kategorien, mit Anwendungs- und Ankerbeispielen, sind jederzeit für jedes Mitglied der Forschergruppe verfügbar und können die Vereinheitlichung des Codierens innerhalb der Arbeitsgruppe fördern. Insofern dienen Memos der Erhöhung der internen Validität.
7.2 Systematisches Arbeiten mit Memos in der Grounded Theory So sehr es zu den Alltagsgebräuchen von Forschern gehört, Notizen und Memos während der Auswertung anzufertigen, so wenig findet man diesen Vorgang in der Methodenliteratur thematisiert. Eine systematische Beschreibung des Arbeitens mit dem Hilfsmittel Memo ist dort nur selten zu finden. Eine Ausnahme stellt die Grounded Theory dar, die sich seit ihren Anfängen intensiv mit dem Thema „Memos“ befasst hat (Glaser/Strauss 1998; Hopf/Weingarten 1979; Strauss/Corbin 1996; Corbin/Strauss 2008). Strauss und Corbin definieren Memos als schriftliche Analyseprotokolle, die sich auf das Ausarbeiten der Theorie beziehen. Aufgrund der unterschiedlichen Funktion im Forschungsprozess differenziert Strauss unter anderem zwischen drei Memo-Typen:
Systematisches Arbeiten mit Memos in der Grounded Theory
135
1. Code-Notizen beziehen sich auf die Ergebnisse des Codierens. 2. Theoretische Memos oder Theorie-Memos sind explizit auf die Theorieentwicklung bezogen und enthalten die Produkte des induktiven und deduktiven Denkens. 3. Planungs-Memos enthalten weitergehende Anweisungen für den Forscher selbst oder das Forscherteam, z.B. in Bezug auf die weitere Auswahl von Forschungsfällen. Definition In ihrem Lehrbuch der Grounded Theory geben Strauss und Corbin (1996: 169) die im folgenden Kasten wiedergegebenen Definitionen der verschiedenen Memotypen: Art
Definition
Memos:
Schriftliche Analyseprotokolle, die sich auf das Ausarbeiten der Theorie beziehen.
Code-Notizen:
Memos, die Ergebnisse der drei Formen des Codierens beinhalten, wie zum Beispiel konzeptuelle Begriffe (Labels), paradigmatische Eigenschaften und Indikatoren für den Prozess.
Theoretische Notizen:
Theoretisch sensibilisierende und zusammenfassende Memos. Theoretische Notizen enthalten die Produkte des induktiven und deduktiven Denkens über tatsächlich und möglicherweise relevante Kategorien, ihre Eigenschaften, Dimensionen, Beziehungen, Variationen, Prozesse und die Bedingungsmatrix.
Planungs-Notizen:
Memos, die Handlungsanweisungen für die eigene Person und das ForscherTeam enthalten. Diese beziehen sich z.B. auf die Auswahl von Fällen, auf Interview-Fragen, mögliche Vergleiche, weiterzuverfolgende Ideen etc.
Abb. 36: Definitionen verschiedener Memotypen nach Strauss/Corbin (1996: 169)
Analysiert man seine Daten orientiert am Analysestil der Grounded Theory, so beginnt das Schreiben von Memos gleich zu Anfang des Projektes und wird durch das gesamte Projekt hindurch beibehalten. Anfangs werden mit diesem Hilfsmittel mögliche Hypothesen festgehalten und generative Fragen gestellt. Die ersten Memos sind vielleicht noch ziemlich einfach und unklar. In den weiteren Phasen dienen sie dazu, die konzeptuell dichter werdende Theorie festzuhalten. Theoretische Gedanken werden in Form von Theorie-Memos kontinuierlich festgehalten. In der Phase des Schreibens des Forschungsberichtes werden sie sortiert und integriert. Durch alle Projektphasen hindurch dienen sie dazu, weitergehende Fragen zu stellen
136
Die Memos: Eigene Ideen aufzeichnen und organisieren
und neue Datenerhebungen zu initiieren und ihre Zielsetzung zu bestimmen. Im Ablauf der Forschungsarbeit der Grounded Theory spielt das Schreiben von Memos also eine tragende Rolle. Strauss stellt den Ablauf des Forschungsprozesses als einen ständig zwischen Codieren, Memo schreiben und der Erhebung neuer Daten zirkulierenden Prozess dar (Abb. 37). Datenerhebung
Codieren
Memo schreiben
Abb. 37: Codierparadigma nach Strauss (1998: 46)
Memos sind eine Form der Fixierung der eigenen Ideen und theoretischen Gedanken. Jeder muss seinen eigenen Stil zum Erstellen von Memos finden und sich darin üben, diese kontinuierlich anzufertigen. Die Kreativität wird hierdurch angeregt und das Theoretisieren wird nicht auf das Ende des Projektes verschoben, sondern zu einem ständigen Begleiter des Forschungsprozesses. Nach dem in Abb. 37 dargestellten Schema ist das Memoschreiben eine prinzipiell nie völlig abgeschlossene Angelegenheit, stets kann man bereits vorhandene Memos „verdichten“: Man schreibt Memos über Memos, d.h. zusammenfassende Memos, die mehrere Memos integrieren und auf einer neuen Ebene konzeptualisieren. Das Arbeiten mit Memos ist zwar im Prin-
Systematisches Arbeiten mit Memos in der Grounded Theory
137
zip eine relativ freie Tätigkeit, Strauss gibt aber ein Set von Regeln für das Arbeiten an (Strauss/Corbin 1996: 173): 1. Memos sollen datiert sein und es sollte nachvollziehbar sein, wer der Autor des Memos ist. 2. Das Memo sollte einen Verweis auf das Dokument enthalten, auf das es sich bezieht (Interview, Beobachtungsprotokoll, Seite, Zeilennummer etc.). 3. Jedes Memos sollte eine Überschrift haben, in der das Konzept (die Konzepte) oder die Kategorie (die Kategorien) genannt werden, um die es sich dreht. 4. Memos, die zwei oder mehr Kategorien zueinander in Beziehung setzen, sollten alle diese Kategorien enthalten. 5. Memos sollten nach ihren verschiedenen Formen gekennzeichnet werden. Während in den Anfängen der Grounded Theory die Art und Weise, wie mit Memos zu arbeiten ist, noch relativ vage blieb, hat Strauss in seinen späteren Arbeiten zahlreiche konkrete Beispiele gegeben, wie er selbst mit dem Mittel der Memos arbeitet. Memos enthalten die Ergebnisse der Datenanalyse, sie stellen „die schriftlichen Formen unseres abstrakten Denkens über die Daten dar“ (Strauss/Corbin 1996: 170). Memos verändern sich im Laufe des Forschungsprozesses: Sie nehmen an Komplexität und Abstraktheit zu. Im Folgenden werden für drei Arten von Memos – CodeMemos, Planungs-Memos und Theorie-Memos – Beispiele gegeben23. CodeMemos befassen sich mit den Eigenschaften und Dimensionen einer Kategorie. Abb. 38 zeigt ein typisches Beispiel zum Thema „Schmerz“ (Strauss/Corbin 1996: 177).
23 Strauss (1991: 151 ff.) widmet dem Thema „Memos und Memo schreiben“ mehrere Kapitel und präsentiert eine Vielzahl von Beispielen aus der eigenen Forschungspraxis. Strauss/Corbin 1996 gehen in Kapitel 12 dieses einführenden Textes auf die verschiedenen Formen von Memos in der Grounded Theory ein und stellen ebenfalls eine Reihe von Beispielen aus ihrer Forschung dar.
138
Die Memos: Eigene Ideen aufzeichnen und organisieren
Code-Notiz: SCHMERZ UND SEINE EIGENSCHAFTEN UND DIMENSIONEN Schmerz hat bestimmte Eigenschaften, die entlang dimensionaler Kontinua variieren können. Darunter befinden sich folgende: Allgemeine Eigenschaften Mögliche Dimensionen Dauer lang kurz Intensität stark leicht Variation zunehmend abnehmend Lokalisierung im Körper vom Kopf zum Fuß Kontinuitätsgrad kontinuierlich intermittierend vorübergehend Zum Beispiel: Arthritis war die Ursache dieses Schmerzereignisses. Unter der Bedingung von „kalt-feuchtem Wetter“ nimmt der Schmerz in seiner Intensität zu. Unter der Bedingung von „Wärme“ nimmt der Schmerz in seiner Intensität ab. Unter der Bedingung von „morgens“ beginnt der Schmerz. Unter der Bedingung von „nachts“ ist der Schmerz ein wenig gelindert. Potenzielle andere Kategorie: Schmerzlinderung.
Abb. 38: Beispiel für ein Code-Memo
Auf dieser Basis konzipiert Strauss weitere Datenerhebungen und verfasst eine Planungsnotiz: PLANUNGS-NOTIZ: DATENAUSWAHL FÜR SCHMERZ Ausgehend von meinem theoretischen Memo des heutigen Tages scheine ich jetzt mehrere verschiedene Bereiche zu haben, aus denen ich Daten über Schmerz bekommen kann. Das wird weitere Eigenschaften von Schmerz erkennbar machen und Informationen über die verschiedenen Dimensionen dieser Eigenschaften und die Bedingungen liefern, die diese Eigenschaften zur Variation auf den Dimensionen bringen. Ein guter Startpunkt ist die Entbindung. Ein anderer ist es, mit Krebskranken zu sprechen. Wenn ich mit diesen Gruppen spreche und sie beobachte, sollte ich mich an den bereits identifizierten Eigenschaften und Dimensionen orientieren und nach anderen suchen, die ich vielleicht noch nicht entdeckt habe. Beispielsweise möchte ich Schmerz bezüglich Typ, Qualität, Intensität, Verlauf, Dauer, Ausprägung etc. untersuchen. Ich möchte darüber hinaus die Bedingungen vermerken, unter denen die Eigenschaften verschiedene dimensionale Ausprägungen annehmen. Mit anderen Worten: welche Bedingungen führen dazu, dass Schmerz von einer bestimmten Person zu einem bestimmten Zeitpunkt als intensiv beschrieben wird, von einer anderen Person oder zu einem anderen Zeitpunkt aber nicht? Oder was veranlasst die Schmerzqualität zu variieren, ist es die Quelle des Schmerzes oder erleben verschiedene Personen Schmerz unterschiedlich? Warum ist Schmerz manchmal kontinuierlich, manchmal intermittierend?
Abb. 39: Beispiel für ein Planungs-Memo (Strauss/Corbin, 1996: 179 f.)
Abb. 40 gibt einen Ausschnitt des Theorie-Memos „Gefahr“ wieder. Im Weiteren befasst sich dieses mit den unterschiedlichen Definitionen von Gefahr durch Personal, Patienten und Familie, mit den Problemen der Ge-
Systematisches Arbeiten mit Memos in der Grounded Theory
139
fahrenvorbeugung und dem Patienten als Gefahrenquelle. Im Projektverlauf nehmen die Theorie-Memos naturgemäß an Umfang zu und können als integrative Memos eine beachtliche Länge erreichen – durchaus bis zu 10 Seiten und mehr. An dieser Stelle ist es deshalb nicht möglich, ein Beispiel für solche hoch aggregierten Memos abzudrucken. Man findet ein solches zum Thema „Sicherheit, Gefahr und Risiko auf der Intensivstation in Kinderkliniken“ bei Strauss (1998: 176). GEFAHR: Die Gefahr, wie man sie gewöhnlich im Hinblick auf den Patienten wahrnimmt, kann fünf Ursachen haben: 1. die Apparatur selbst einschließlich ihrer einzelnen Teile wie etwa Medikamente, die über die Apparatur angewandt werden; 2.
die Verbindung (Anschluss) zwischen Apparatur und Körper;
3.
der „Patient“ als Ensemble von Körpersystemen;
4.
der Patient als Person (die sich bewegt, einen Willen hat, sich widersetzt usw.);
5.
andere Therapien, die mit der Apparatur kombiniert sind oder diese ergänzen.
Anzeichen von drohender oder unmittelbarer Gefahr 1.
Anzeichen haben verschiedene Eigenschaften:
2.
wahrnehmbar – nicht wahrnehmbar
3.
erwartbar – nicht erwartbar
4.
usw.?
Anzeichen stehen in Zusammenhang mit „Zustand“ oder Bedingung des Apparate-Anschlusses, des Patienten, der Person. Das bedeutet, dass der Interpretierende Anzeichen auch über den Zustand deutet; auch über die Stufe der Behandlung insgesamt und der momentanen Behandlung (erste Stunde, zweite Stunde usw.). (...)
Abb. 40: Beispiel für ein Theorie-Memo (Strauss 1991: 156)
Strauss vergleicht Memos mit farbig codierten Karteikarten, die man fortlaufend anordnen und für immer wieder neue Aufgaben sortieren kann. Sie sollten für das Herstellen von Querbezügen leicht zugänglich sein und als ein „Lagerhaus für analytische Ideen“ (1996: 172) fungieren, dem man je nach Erfordernissen immer wieder Einzelteile entnehmen und neu anordnen kann. Beim Schreiben von Memos ist es wichtig, sich von den Texten zu lösen und nicht die Texte lediglich deskriptiv zu wiederholen bzw. zu paraphrasieren. Es gilt, eigene Ideen zu entfalten und Theorien zu entwickeln. Eine analytische Distanz ist hierzu notwendig und das Schreiben von Memos ist ein wichtiges Hilfsmittel, um diese Distanz zu gewinnen. Memos, zumindest die aus den Anfängen eines Projektes, sind nicht primär für die Veröf-
140
Die Memos: Eigene Ideen aufzeichnen und organisieren
fentlichung gedacht, sondern dienen dem Forscher. Mit Fortschreiten des Projektes nehmen sie an theoretischer Qualität zu und können in Teilen in den Forschungsbericht eingearbeitet werden. Strauss gibt die dringende Empfehlung: „Memos handeln nicht von Personen oder von Handlungen, Vorfällen oder Ereignissen an sich, sondern sie beziehen sich auf Konzepte, die Abstraktionen dieser Handlungen, Vorfälle, Ereignisse und Geschehnisse darstellen.“ Resümierend könnte man raten: Verwenden Sie Memos konzeptionell!
7.3 Memos im QDA-Programm Bei der Arbeit mit QDA-Software können sich die beschriebenen MemoTypen also auf folgende Bestandteile eines Projektes beziehen: 1. auf Textpassagen – solche Memos entstehen bei Anwendung der Grounded Theory vor allem in der Phase des offenen Codierens 2. auf einen Text in seiner Gesamtheit – so etwa bei einem DokumentSummary im Falle eines narrativen Interviews, oder bei einer Zusammenfassung einer Argumentationslinie in der Argumentationsanalyse 3. auf Gruppen von Texten – beispielsweise alle Feldnotizen, die von bestimmten Situationen im Feld angefertigt werden 4. auf das gesamte Projekt – das ist prototypisch bei theoretischen Memos in einer fortgeschrittenen Phase des Projektverlaufs der Fall 5. auf Codes – hierzu zählen z.B. Code-Memos im Sinne von Strauss oder auch Kategoriendefinitionen mit Ankerbeispielen bei inhaltsanalytischen Verfahren Außerdem können sich Memos auf Memos beziehen. Solche, in der Terminologie von Strauss „integrative Memos“ genannt, beziehen sich aber entweder auf integrative Konzepte, d.h. wiederum auf Codes, oder ihr Bezug ist auch wieder das gesamte Projekt, so dass sie nicht unbedingt vom vierten Typ unterschieden werden müssen. Memos lassen sich einerseits mit Post-it-Zetteln vergleichen, die man an die Bezugsstelle anheftet, andererseits ähneln sie Karteikarten, die man nach beliebigen Kriterien sortieren kann und die man nach dem Vorkommen bestimmter Worte durchsuchen kann.
Memos im QDA-Programm
141
Die meisten QDA-Programme sind in der Lage, Memos zu verwalten. Allerdings variieren die Fähigkeiten dabei relativ stark: Sie reichen von eher simplen Möglichkeiten, die lediglich vorsehen, dass für jeden Text ein „Document memo“ eingegeben werden kann, bis hin zu relativ komplexen Optionen: Dem Memo kann ein Titel und eine Farbe zugeordnet werden, Autor und Erstellungsdatum werden festgehalten, den Memos können Codes zugeordnet werden, Memos können untereinander verknüpft werden, Memos können nach verschiedenen Kriterien sortiert bzw. ausgewählt werden und anderes mehr. Regeln für den Umgang mit Memos im Rahmen der computergestützten Auswertung Regel 1: Verwenden Sie Memos! Wann immer Ihnen Ideen kommen, die für die Hypothesenbildung und den weiteren Gang der Auswertung wichtig sind, sollten Sie diese festhalten. Regel 2: Kommen Sie zur Sache, fassen Sie sich möglichst kurz und seien Sie präzise! Memos sollten in der Regel überschaubar bleiben und nicht zu kleinen Forschungsberichten anwachsen. Eine Ausnahme stellen hier die integrativen Theorie-Memos der Grounded Theory dar, die durchaus umfangreich sein können. Regel 3: Vermeiden Sie einen inflationären Gebrauch von Memos! Man muss Memos leicht wiederfinden und für die weitere Arbeit benutzen können. Auch beim Durcharbeiten eines Buches würde es wenig Sinn machen, hunderte von Post-it-Zetteln an Seiten anzuheften. Verfügt man nicht über ein Wundergedächtnis, so würde man seine Zeit hauptsächlich mit dem Suchen und Lesen von Memos verbringen, die man da oder dort vermutet. Gerade in größeren Projekten verliert man leicht den Überblick. Memos müssen zahlenmäßig noch handhabbar sein! Also nicht etwa 100 Memos pro Text. Memos können eine Art Modul für zukünftige Forschungsberichte und eigene Texte sein. Man sollte sich vergegenwärtigen, dass das Hauptproblem der Datenauswertung in der qualitativen Forschung das der systematischen Zusammenfassung und der Zuspitzung auf den Punkt ist. Auch Memos erzeugen zunächst einmal noch mehr Material, noch mehr Daten. Den von Huberman/Miles (1983) beschriebenen „data overload“, die Gefahr, von den eigenen Datenmassen zugeschüttet zu werden, sollte man nicht
142
Die Memos: Eigene Ideen aufzeichnen und organisieren
noch dadurch vergrößern, dass man zusätzlich Massen von Memos produziert. Regel 4: Benutzen Sie Codes anstelle von kurzen Memos! Auch zu kurze Memos sind wenig nützlich, d.h. solche Memos, die vielleicht nur aus einer Zeile bestehen. Will man unbedingt eine bestimmte Stelle markieren und mit einem kurzen Stichwort versehen, ist die Zuordnung eines Codes oder u.U. die bloße farbige Markierung der Textstelle vorzuziehen. Regel 5: Halten Sie die Memos zugänglich! QDA-Programme schaffen weitaus bessere Möglichkeiten zum Arbeiten mit Memos als der traditionelle Karteikasten. Vor allem die Zugänglichkeit der Memos ist unvergleichlich besser und die Möglichkeiten zum Ordnen und Auswählen erreichen eine qualitativ völlig andere Dimension. Aus Hunderten von Memos lässt sich in Sekundenschnelle dasjenige ermitteln, in dem ein bestimmtes Thema angesprochen wird oder nur ein bestimmtes Wort vorkommt. Auch der Computer enthebt einen nicht des Problems, seine Memos so zu organisieren, dass man sie auch wiederfindet. So sollten Planungsmemos sich nicht an irgendeiner Stelle des Textes verstecken, wo man sie nicht ohne weiteres wiederfinden würde. Man kann beispielsweise eine Textgruppe für Planungsmemos anlegen und das Memo (auch) hier zuordnen. Eine andere Variante besteht darin, einen Code „Planungsmemos“ zu definieren und diesen Code allen Planungsmemos zuzuordnen. So ist jedes Planungsmemo im Weiteren leicht zu finden, selbst dann, wenn es eigentlich an irgendeiner Textstelle verborgen ist. Für das Arbeiten mit Memos ist es von existenzieller Bedeutung, in welcher Weise die einmal geschriebenen Memos im Auswertungsprozess zugänglich sind und wie man die in den Memos enthaltenen Informationen in einen Forschungsbericht transferieren kann.
7.4 Praktische Hinweise für MAXQDA In MAXQDA können an folgenden Stellen Memos erzeugt werden: Projekt-Memos beziehen sich auf das gesamte Projekt und enthalten Informationen über Projektverlauf, Design und Sampling. x Textgruppen-Memos beziehen sich auf die jeweilige Textgruppe. x
Praktische Hinweise für MAXQDA
143
Dokument-Memos beziehen sich auf ein Textdokument als ganzes und enthalten beispielsweise Anmerkungen zum Interviewverlauf und zur Interviewsituation. x Text-Memos sind einzelnen Textstellen zugeordnet. x Code-Memos sind Codes zugeordnet. x
Im Analyseprozess werden insbesondere Text-Memos, Dokument-Memos und Code-Memos benutzt. Text-Memos können an jede beliebige Textzeile geheftet werden, indem einfach in den Memosektor vor der entsprechenden Textzeile hinein geklickt wird und das Memo in die Dialog-Box eingegeben wird. Das Vorhandensein von Text-Memos wird durch gelbe Symbole – ähnlich Post-it-Zetteln – visualisiert.
Abb. 41: Ein Memo in MAXQDA – hier ein Code-Memo
Memos sind jederzeit zugänglich, sie können gelesen und verändert werden, Teile von ihnen können für die Anfertigung eigener Texte kopiert werden. Zu einem Memo (vgl. Abb. 41) gehören ein Memo-Titel, die Angabe des Autors des Memos, das Erstellungsdatum, sowie zugeordnete Codes und
144
D Memos: Eigeene Ideen aufzeiichnen und orgaanisieren Die
der eiggentliche Texxt des Memo os. Ferner kaann jedem Memo M ein Meemotyp zugeordnet werden n, der durch h unterschied dliche Symbo ole visualisiert wird. orie-Memos, Methoden-M Memos, Unterschieden werrden beispiellsweise Theo os, die sich auf weitere Datenerheb bungen farbigee Memos sowie Memo („Theoretical Samp pling“) und Nachfragen N beziehen. Zuu jeder Kateggorie und Suubkategorie des Kategoriensystems kkönnen Code--Memos eingegeben werdden. Die Codee-Memos werden meist ggenutzt, um diie Definition nen von Kattegorien und d entsprechen nde Ankerbeeispiele festzuuhalten. Abb. 41 gibt ein Beispiel B aus dem d Projekt „Umweltkom „ mmunikation n und Lokale Agenda 21““ wieder, näm mlich die Deffinition der K Kategorie „SSozietätsstiftende Imaginaationen“. Cod de-Memos werden w direkkt beim jeweiliigen Code eingegeben. Sie S haben fo ormal den gleeichen Aufbau wie Text-M Memos, d.h. auch hier kö önnen Autor und das Ersstellungsdatum vermerkt und Codes zugeordnet z w werden. Empfehlenswert ist i es, Textpaassagen nkerbeispiele in solche Code-Memos eiinzufügen. als An Meemos, die sicch nicht auf eine bestimm mte Textstelle, sondern aauf den gesam mten Text bezziehen, werdden am besten als Dokum ment-Memo aan den Textnamen des beetreffenden Textes T in derr „Liste der Texte“ angeeheftet. Alle Memos M eines Projektes P sin nd in MAXQD DA über den n Memo-Man nager in einer tabellarischen Darstellun ng (Abb. 42)) verfügbar. Dieser erlauubt es, z blättern un nd vom Mem mo zur entsprrechenden Teextsteldurch die Memos zu s Diee Tabelle derr Memos kan nn in Abhänggigkeit der veerschiele zu springen. denen n Spalten sorttiert werden. So ist man in n der Lage, nach n Datum, Autor, Texten n, zugeordneeten Codes etc. e sortieren. Auch nach h dem Vorko ommen eines Suchbegriffs S im Memotexxt kann gesuccht werden. Für F bestimm mte Fragestelllungen lassen n sich so die relevanten r Memos zusamm menstellen.
Abb. 422: Memo-Manager in MAXQ QDA
Praktische Hinweise für MAXQDA
145
Übungen 1. Sie möchten bei einem Text einen Hinweis anbringen, der besagt, dass der Interviewer nach einer bestimmten Methode vorgegangen ist. Öffnen Sie dazu Text „interview2“ in der Textgruppe „Bürger“ und erstellen Sie ein Memo direkt am Text neben dem ersten Absatz. Das Memo soll Ihren Namen, das aktuelle Datum, den Titel „Interviewmethode“ und einen entsprechenden Inhalt enthalten. Schließen Sie das Memo. 2. Öffnen Sie das Memo erneut und versehen Sie es mit einem anderen Symbol. Wählen Sie das „M“ als Symbol für „Methoden-Memo“. 3. Fügen Sie ein weiteres Memo an eine beliebige Textstelle dieses Textes ein, um Ihre Ideen bzw. theoretische Anmerkungen zu diesem bestimmten Abschnitt festzuhalten. Wählen Sie ein geeignetes Memo-Symbol aus. Begründen Sie die Auswahl! 4. Lassen Sie sich jetzt die Übersicht aller Memos anzeigen und sortieren Sie diese zunächst nach dem Autor. Danach sortieren Sie die Memos nach den Memo-Symbolen und exportieren das Ergebnis in eine Datei namens „memos.rtf“ in einen Ordner Ihrer Wahl. 5. Lassen Sie sich jetzt alle Memos auflisten, die zur Textgruppe „Bürger“ gehören. Verändern Sie die Spaltenanordnung und vergrößern Sie die Spalte der Textvorschau. 6. Öffnen Sie eines der Memos durch Doppelklick und verändern bzw. ergänzen den Text und ändern den Autor. 7. Markieren Sie alle Memos in der Übersicht und kopieren Sie diese mit der Tastenkombination Strg+c in die Zwischenablage. Fügen Sie diese dann mit Strg+v in Microsoft Excel und in Microsoft Word ein. Wo liegt der Unterschied? 8. Aufgrund der Schwierigkeiten der Zuordnung möchten Sie für eine Subkategorie, z.B. „Einstellungen/politisch“, ein Ankerbeispiel angeben und dies in einem Code-Memo festhalten. Markieren Sie einen Satz, der Ihnen als Beispiel für die Zuordnung dieser Kategorie sinnvoll erscheint und kopieren ihn mit Strg+c in die Zwischenablage. Danach erstellen Sie ein Code-Memo mit dem Symbol Ausrufezeichen und fügen auch Ihr Ankerbeispiel ein.
8
Die Fallvariablen: Strukturierte Übersicht
8.1 Sinn und Zweck von Fallvariablen Zu den fortgeschrittenen Techniken der computergestützten Textanalyse gehört es, parallel zu jedem Text einen Datensatz mit Variablen (Attributen, Einschätzungsdimensionen) zu verwalten. Diese Variablen haben den Charakter von globalen Merkmalen oder Fallvariablen, d.h. die Variablen beziehen sich auf Merkmale des gesamten Texts und nicht nur auf einzelne Textpassagen bzw. codierte Segmente. Diese Fallbezogenheit ist prototypisch bei sozio-demographischen Merkmalen gegeben: Eine interviewte Person ist weiblich, besitzt einen Hochschulabschluss und hat zwei Kinder. Diese Merkmale treffen nicht nur für ein bestimmtes Segment des Textes zu, sondern für den gesamten Text. Es handelt sich um Informationen, die bei der Interpretation von Textabschnitten hilfreich sein können und die als Selektionskriterien bei der Kontrastierung von Fällen dienen können. Zu jedem Text gehört also genau ein Datensatz mit Fallvariablen. TEXT 1
VARIABLEN Befragter: Alter: Geschlecht: Kinder: Beruf:
Karl Moll 25 m 1 Bäcker
Abb. 43: Fallvariablen parallel zum Text
Auch bei den Klassikern der Feldforschung, wie bei Lofland/Lofland (1984), dienen solche Variablen dazu, die Charakteristika jedes Originaltextes zu definieren und ständig für die Analyse verfügbar zu halten.
Sinn und Zweck von Fallvariablen
147
Der erste Verwendungszweck von Fallvariablen ist es also, Rahmendaten (Profildaten) zu den Originaltexten zu speichern: In Interviewstudien erhebt man meist zu jedem Befragten eine Reihe von persönlichen Daten und Fakten, die sich am besten in standardisierter Form als Variablen festhalten lassen. Witzel (1982) empfiehlt in diesem Zusammenhang, parallel zu einem problemzentrierten Interview einen Kurzfragebogen zur Ermittlung solcher Daten einzusetzen, ein Verfahren, das im Forschungsalltag auch recht häufig praktiziert wird: „Der Kurzfragebogen dient zum einen der Ermittlung von Sozialdaten (Alter, Beruf der Eltern usw.). Das nachfolgende Interview, das eine Aushandlung der subjektiven Sichtweise der Interviewten zum Ziel hat, wird von denjenigen Fragen entlastet, die als Frage-Antwort-Schema aufgebaut sind. Zum anderen können die in ihm enthaltenen Informationen – und insbesondere in Kombination mit einer offenen Frage – einen Gesprächseinstieg ermöglichen. So lassen sich etwa Berufswunschangaben für eine Einleitungsfrage zum untersuchten Problemfeld des Übergangs Jugendlicher von der Schule in die Ausbildung nutzen (zu beiden Aspekten siehe die folgenden Ausführungen in Abschnitt 4).“ (Witzel 2000: 7) Die Möglichkeit, Fallvariablen zu definieren ist nicht in allen QDA-Programmen vorhanden. THE ETHNOGRAPH, MAXQDA und NVivo sehen einen expliziten Datentyp hierfür vor, MAXQDA und NVivo erlauben es, die entsprechende Werte in übersichtliche Tabellen einzugeben, die ähnlich wie Excel-Arbeitsblätter oder der SPSS-Daten-Editor zu handhaben sind. Andere Programme, die entsprechende Features nicht beinhalten, empfehlen, solche Merkmale als Codes zu definieren und dann diese Codes dem gesamten Text zuzuweisen. Dies ähnelt der Verschlagwortung im Bibliothekswesen, bei der Deskriptoren einer Dokumentationseinheit zugewiesen werden. Man definiert beispielsweise einen Code „Geschlecht“ mit den Subcodes „männlich“ und „weiblich“, markiert das gesamte Interview eines Befragten und weist diesem den Code „männlich“ zu. Dieses Verfahren ist allerdings recht umständlich und hat entscheidende Nachteile gegenüber der Möglichkeit zur expliziten Definition von Fallvariablen. Faktisch können auf diese Weise nur Variablen mit Nominal- oder Ordinalskalenniveau gebildet werden, denn für jede denkbare Ausprägung der Variablen muss ein Code im Kategoriensystem gebildet werden. Soll etwa das Einkommen der Befragten in Form eines Codes festgehalten werden, sind vorab Einkommensklassen zu bilden, und zwar möglichst nicht zu viele, denn an-
148
Die Fallvariablen: Strukturierte Übersicht
sonsten entsteht ein kaum mehr überschaubares Codesystem mit hunderten von Codes. Wenn mit Fallvariablen gearbeitet wird, entsteht eine rechteckige Datenmatrix, die so viele Zeilen aufweist, wie Texte vorhanden sind, und so viele Spalten, wie Variablen definiert sind (Abb. 44). Die Matrix lässt sich dann im zweiten Schritt, ohne dass Konvertierungen notwendig wären, statistisch auswerten. Befragter
Alter
Geschlecht
Familienstand
Kinder
Beruf
Interview 1
Karl M.
25
m
ledig
1
Bäcker
Interview 2
Susanne B.
31
w
verh.
2
Sekretärin
Interview 3
Monika H.
43
w
verh.
1
Ingenieurin
Interview n
..
..
..
..
..
..
Abb. 44: Datenmatrix der Fallvariablen
Das Instrument Fallvariablen spielt in der computergestützten qualitativen Datenanalyse nicht nur eine Rolle, um a priori vorliegende Fakten oder sozio-demographische Daten zu speichern, das Instrument „Variablen“ kann auch sinnvoll eingesetzt werden, um Resultate von Textinterpretationen und Textanalysen in Form von Variablenwerten zu speichern.
8.2 Forschungsbeispiel: Adult Attachement Interviews Hopf und Schmidt codieren die von ihnen geführten Interviews (vgl. oben Kap. 4.2) mit einem detaillierten, aus der Attachement-Forschung stammenden Kategoriensystem. Auf der Grundlage des „Adult Attachement Interview“ werden in den offenen Interviews Fragen zur emotionalen Qualität der Beziehung zu den Eltern gestellt, etwa zu den Erfahrungen mit elterlicher Zuwendung und Zurückweisung (Hopf u.a. 1995: 84 ff.). Zur Erfassung dieser fallbezogenen Informationen wurden u.a. folgende Variablen gebildet:
149
Forschungsbeispiel: Adult Attachement Interviews Zuwendungserfahrungen (liebevolle, persönliche Zuwendung von Seiten der Mutter) 1 wenig und mittel
2 viel
3 unklar
Erfahrungen mit elterlichen Versuchen der Begründung von Geboten und Verboten 1 keine oder kaum
2 eher ja (meist nur in einem mittleren Umfang)
3 unklar
Erfahrungen mit körperlichen Strafen 1 ja (mittel bis stark)
2 nicht oder selten
3 unklar
Abb. 45: Beispiel für Variablen
Je zwei Mitarbeiter codierten diese Einschätzungsdimensionen zunächst unabhängig voneinander. Die Zahl der Übereinstimmungen und Unterschiede wurde festgehalten, eine Inter-Coder-Reliabilität berechnet. Bei differenten Codierungen wurde argumentativ eine Einigung erzielt, wobei die Kategorienbeschreibungen eventuell präzisiert und ausdifferenziert wurden. Diese von Hopf als „kooperatives Codieren“ bezeichnete Vorgehensweise ist insofern von großem Interesse, weil hier der bei der qualitativen Datenanalyse häufig naiv praktizierte und nicht weiter thematisierte Codiervorgang Gegenstand ausführlicher Überlegungen und forschungstechnischer Regelungen ist: „Um ein möglichst gleiches Vorwissen in Bezug auf den Befragten zu garantieren und damit „Chancengleichheit“ der an der Vercodung Beteiligten herzustellen, hatten wir die Regel aufgestellt, daß die Person, die das Interview geführt hatte, nicht an der Vercodung beteiligt sein sollte. Wie sinnvoll diese Regel war, erwies sich auch bei der abschließenden Diskussion zur Vercodung, bei der wir zu bestimmten zentralen Kategorien die Codierungen anhand einzelner Fälle noch einmal in der gesamten Gruppe diskutiert haben. Hier zeigte sich, in welchem Ausmaß Einzelne die von ihnen geführten Interviews unter bestimmten Aspekten in Erinnerung behalten und schon während der Erhebung für sich „vercodet“ hatten.“ (Hopf/Schmidt 1995: 63)
Fallvariablen, so kann man resümieren, sind Instrumente expliziter Codierung, die insbesondere im fortgeschrittenen Stadium des Analyseprozesses sinnvoll zum Einsatz kommen, wenn es nicht mehr um die Entwicklung von Kategorien geht, sondern um die zuverlässige Codierung des Materials mit anschließender statistischer Auswertung.
150
Die Fallvariablen: Strukturierte Übersicht
8.3 Forschungsbeispiel: Strukturierende Inhaltsanalyse Ein ausführlicher methodischer Vorschlag, wie das Hilfsmittel Fallvariablen sinnvoll eingesetzt werden kann, findet sich bei Mayring mit dem Modell der strukturierenden Inhaltsanalyse (Mayring 2003: 84). 1. Schritt: Bestimmung der Analyseeinheiten
2. Schritt: Festlegung der Strukturierungsdimensionen (theoriegeleitet)
3. Schritt: Bestimmung der Ausprägungen (theoriegeleitet); Zusammenstellung des Kategoriensystems
7. Schritt Überarbeitung, gegebenenfalls Revision von Kategoriensystem und Kategoriendefinition
4. Schritt: Formulierung von Definitionen, Ankerbeispielen und Codierregeln zu den einzelnen Kategorien
5. Schritt: Materialdurchlauf: Fundstellenbezeichnung
6. Schritt: Materialdurchlauf, Bearbeitung und Extraktion der Fundstellen
8. Schritt: Ergebnisaufbereitung
Abb. 46: Ablaufmodell strukturiender Inhaltsanalyse nach Mayring
Mayring unterscheidet vier Formen strukturierender Inhaltsanalyse: formale, inhaltliche, typisierende und skalierende Strukturierung. Die formale Strukturierung zielt auf formale Textmerkmale wie Satzbau, Sprecherwechsel, thematische Abläufe u. Ä. Die inhaltliche Strukturierung zielt auf die Zusammenfassung der Themen oder inhaltlicher Aspekte, ganz ähnlich wie die typisierende Strukturierung, die das Material im Hinblick auf eine Typi-
Weiterarbeit mit Fallvariablen in SPSS
151
sierungsdimension durcharbeitet. Die skalierende strukturierende Inhaltsanalyse arbeitet mit der Definition von Fallvariablen und soll deshalb hier näher betrachtet werden. Ziel der skalierenden Strukturierung ist es, eine bestimmte Struktur aus dem Material herauszufiltern. Sie will einen Querschnitt durch das Material legen und dieses auf Skalen (in der Regel Ordinalskalen) einschätzen. Sie geht in folgenden prinzipiellen Schritten vor (Mayring 2003: 92 ff.): 1. Definition von Einschätzungsdimensionen. Diese werden aus der Forschungsfrage abgeleitet und stellen im Grunde Variablen mit verschiedenen Ausprägungen dar. 2. Bestimmung der Ausprägungen der Einschätzungsdimensionen. 3. Formulierung von Definitionen und Ankerbeispielen – Es werden konkrete Textstellen angeführt, die unter eine Einschätzungsdimension fallen und als Beispiele für diese Einschätzungsdimension gelten sollen. 4. Fundstellenzeichnung – überall, wo die Einschätzungsdimension angesprochen ist, wird diese Stelle markiert. 5. Codierung – d.h. die Einschätzung wird vorgenommen und entschieden, welche Ausprägung angemessen ist.. Mindestens zwei Materialdurchläufe sind notwendig. Im ersten Durchlauf wird das Material daraufhin durchgesehen, welche Einschätzungsdimensionen im Text angesprochen werden. Diese Fundstellen werden zunächst nur markiert. Beim zweiten Materialdurchlauf wird das so kenntlich gemachte Material auf den Einschätzungsdimensionen bewertet. Bei den Einschätzungsdimensionen handelt es sich um Fallvariablen mit einer bestimmten Skalierung, z.B. mit der ordinalen Skala „viel“, „mittel“, „wenig“. Resultat dieser aufwändigen Form von Inhaltsanalyse ist die Charakterisierung der Einzelfälle durch Kategorienkombination und die Möglichkeit zu fallübergreifenden Generalisierungen.
8.4 Weiterarbeit mit Fallvariablen in SPSS Wenn die Fallvariablen auch statistisch analysiert werden sollen, so sind die vom jeweiligen Statistikprogramm auferlegten Regeln zu beachten. Das gilt vor allem für die Variablennamen und die Variablenwerte. Häufig sind Sta-
152
Die Fallvariablen: Strukturierte Übersicht
tistikanalyseprogramme nicht in der Lage, lange Stringvariablen zu analysieren oder sie vermögen dies nur mit Einschränkungen. Die Variablenwerte sollten deshalb so bestimmt werden, dass sie vom jeweiligen Statistikanalyseprogramm auch bearbeitet werden können. Dazu ist meistens ein Blick in das Programmhandbuch oder die Online-Hilfe notwendig. SPSS erlaubt zwar nur das Rechnen mit numerischen Variablen, doch ist in neueren Versionen eine automatische Umcodierung von Strings in numerische Werte (SPSS: Transformieren>Automatisch umcodieren) möglich, so dass in dieser Hinsicht keine Beschränkung mehr besteht. Oft wird man deshalb Fallvariablen eher als Stringvariable definieren, weil die Variablenwerte selbsterklärend sind – etwa „m“ für „Geschlecht männlich“. Wählt man die String-Variante, erstellt SPSS bei der automatischen Umwandlung in eine Variable numerischen Typs eine Korrespondenztabelle, die für jeden String den zugeordneten numerischen Wert enthält. Die Regeln für die Bildung von Variablennamen haben sich seit der Version SPSS 12 gelockert. Seither sind auch Variablennamen mit mehr als acht Zeichen erlaubt. Allerdings darf jeder Variablenname nur genau einmal vorkommen. Bei älteren SPSS-Versionen sind die Beschränkungen zu beachten, nämlich maximal 8 alphanumerische Zeichen, d.h. nur Buchstaben und Zahlen. Diese Beschränkung gilt noch für SYSTAT/MYSTAT24. Werden beim Import nicht legale Variablennamen entdeckt, schneidet SPSS die überzähligen Zeichen des Variablennamens einfach ab oder ersetzt bei Namen mit nicht legalen Zeichen den bisherigen durch einen neu gebildeten Namen, der mit dem Buchstaben V beginnt und von der sequentiellen Nummer in der Variablenliste gefolgt wird, also beispielsweise „V7“. SPSS ist in der Lage, eine Variablenmatrix im Text-Format (tab-delimited) oder Excel-Format zu importieren. In diesem Format sind die einzelnen Variablenwerte durch ein Tabulatorzeichen voneinander getrennt und am Ende jedes Falles befindet sich ein Absatzzeichen. Zum Import einer so aufgebauten Datei offeriert SPSS einen Eingabeassistenten, der den Benutzer in sechs Schritten durch den Importprozess führt. Zunächst muss die Menüoption „Datei>Textdaten“ einlesen und der Dateityp „Text“ gewählt werden. Ein SPSS-Assistent führt durch die Importfunktion, wobei die im Folgenden angegebenen Optionen zu wählen sind: 24 MYSTAT ist eine kostenfreie Ausbildungsversion des sehr umfangreichen SYSTATPakets (www.systat.com).
Weiterarbeit mit Fallvariablen in SPSS
153
Schritt 1: Wählen Sie die Option „Die Daten weisen kein vordefiniertes Format auf.“ Schritt 2: Die Variablen sind mit Trennzeichen angeordnet und die erste Zeile enthält die Variablennamen.
Abb. 47: SPSS-Eingabeassistent bei Schritt 2
Schritt 3: Jede Zeile stellt einen Fall dar, es sollen alle Fälle importiert werden. Schritt 4: Trennzeichen ist der Tabulator. Entfernen Sie alle weiteren Haken in den Checkboxen. Eventuell teilt SPSS nun mit, dass Variablennamen, die nicht der SPSS-Konvention entsprechen geändert werden müssen. Dies muss mit OK bestätigt werden. Schritt 5: SPSS präsentiert die Datenvorschau, so dass eventuell Korrekturen möglich sind, indem Sie noch einmal zurückgehen. Schritt 6: Das Dateiformat muss nicht gespeichert werden, klicken Sie einfach „Fertigstellen“. Jetzt erscheint die importierte Variablenmatrix im SPSS Daten-Editor und es kann mit der statistischen Analyse begonnen werden. Die Datenmatrix hat so viele Zeilen, wie Texte im Projekt vorhanden sind, d.h. jede Zeile entspricht einem Interview. Nach dem Datenimport protokolliert SPSS die Liste der Variablen.
154
Die Fallvariablen:: Strukturierte Ü Übersicht
8.5 Praktische P Hinweise für f MAXQD DA In MA AXQDA wirdd eine Liste von v Fallvariab blen global füür das gesamtte Projekt deefiniert, d.h. diese Variabllen gelten fürr alle Texte. Die D Anzahl dder Variablen n ist nicht beschränkt, es können k jederrzeit Variableen aus der Lisste entfernt oder o an die Liste L angefüggt werden. Es E kann zwiscchen fünf veerschiedenen n Variablentyypen gewähltt werden: nuumerische Variablen V (Gaanzzahl oder Fließkomma) F , String-Variaablen (Zeicheenketten), Daatumsvariableen und logisch hen Variableen mit den Alternativen A wahr w und fallsch (Typ bo oolean). Bei der d Definition der Variaablennamen sollte man, sofern man n SYSTAT//MYSTAT oder o ältere Versionen als a SPSS 122 benutzt, vvorausschaueend handeln und diese so o wählen, daass die ersten n acht Zeicheen den Regeln n der Statistiik-Software entsprechen e und u zudem darauf d achten n, dass beim späteren eveentuellen Verrkürzen von längeren Varriablennamen n keine Doublletten erzeuggt werden.
Abb. 488: Liste der Vaariablen im MA AXQDA Variab blenfenster
Abb. 48 4 zeigt die Variablenliste V e aus dem Pro ojekt „Intern netgestützte E Evaluation“, sie enthält alle standarddisierten Info ormationen, die d mit Hilfee eines ns erhoben wurden w (vgl.. Kuckartz et e al. 2009). MAXOnline-Fragebogen omplette Variablenmatrix einschließlicch der Variab blennaQDA kann die ko i Form eineer Datei im TXTT oder HTML-Form H mat exportiereen, die men in wie ob ben beschrieb ben in SPSS importiert i weerden können n, so dass diee statis-
Praktische Hinweise für MAXQDA
155
tische Analyse sofort beginnen kann, ohne dass irgendwelche Variablenbeschreibungen oder Definitionen der Variablenmatrix eingegeben werden müssen. Die Eingabe von Variablenwerten kann in MAXQDA auf zweierlei Art erfolgen, entweder direkt beim Text (dann sind nur die Variablenwerte dieses Textes sichtbar) oder über das Menü „Variablen“ und die Variablentabelle, bei dem die komplette Variablenmatrix mit den Werten aller Texte verfügbar ist. Der Aufbau der Variablenmatrix ist ähnlich wie im SPSS oder SYSTAT-Daten-Editor, d.h. jede Zeile entspricht einem Fall (Text). Ein Doppelklick auf eine Zeile öffnet den zugehörigen Text zur Bearbeitung im Text Browser Informationen über die Zuordnungen von Codes zu Texten können in MAXQDA automatisch in Variablenwerte umgeformt werden (mittels der Funktion „In Variable transformieren“). In diesem Fall wird der Codename zum neuen Variablennamen und die Anzahl der pro Text vorhandenen Codierungen wird jeweils als Variablenwert in die Datenmatrix übernommen. Hierzu ein Beispiel: Verwandelt man den Code „Einsamkeit in der Kur“ auf diese Weise in eine Variable, dann erhält jede Person die Anzahl der bei ihr zu diesem Thema codierten Segmente als Variablenwert zugewiesen und die neu gebildete Variable erhält den Namen „Einsamkeit in der Kur“. Je größer der Zahlenwert dieser Variablen ist, desto häufiger hat die interviewte Person im Verlauf des Interviews über das Problem der Einsamkeit in der Kur gesprochen. Die aus einem Code durch Transformation entstandenen Variablen sind dynamisch, d.h. wenn ein neuer Text eingelesen wird, erhalten die dynamisch erzeugten Variablen dieses Textes zunächst den Default-Wert 0 zugewiesen. Wenn der Text bearbeitet wird und dabei Codierungen von Textsegmenten zum Thema „Einsamkeit in der Kur“ vorgenommen werden, erfolgt eine automatische Anpassung des Variablenwertes. Eine Datenmatrix im TXT-Format („tab-delimited“) lässt sich auch in MAXQDA importieren. Dies ist insbesondere nützlich, um Studien auszuwerten, die sowohl einen qualitativen als auch einen quantitativen Teil besitzen. Beispielhaft zu nennen sind hier Fragebogenerhebungen, deren Fragebögen sowohl standardisierte Fragen mit Antwortvorgaben als auch offene Fragen enthalten. Hier wird der standardisierte Teil in Form einer SPSS-Datei eingegeben und die offenen Fragen werden in der von MAXQDA verlangten Form für den Text-Preprozessor aufbereitet und impor-
156
Die Fallvariablen: Strukturierte Übersicht
tiert (vgl. oben Kap. 2). Über den Import der SPSS-Matrix können die verschiedenen Teile der Studie zusammengefügt und aufeinander bezogen werden. Nützlich ist der Import einer Datenmatrix auch, wenn in SPSS eine Clusterung der Fälle vorgenommen wird und auf diese Weise die Information über die Zugehörigkeit zu einem Cluster zu MAXQDA zurück transferiert werden kann.
Übungen 1. Öffnen Sie die Variablenliste. Erstellen Sie drei neue Variablen: „Alter“ (Typ: Ganzzahl), „Abiturnote“ (Typ: Ganzzahl) und „Familienstand“ (Typ: String). 2. Geben Sie für alle Texte Ihres Projektes fiktive Werte für diese drei neuen Variablen ein. 3. Sortieren Sie die Variablenmatrix nach der Variable „Alter“. 4. Lassen Sie sich nur die Variablen der Textgruppe „Bürger“ anzeigen und ändern Sie einige Werte. 5. Blenden Sie die Spalte für die Abiturnote aus und blenden Sie diese anschließend wieder ein. 6. Exportieren Sie alle Variablen über die Windows-Zwischenablage zu Excel und einmal via Exportfunktion in eine Datei „variablen.txt“. 7. Öffnen Sie die Exportdatei per Doppelklick. Danach öffnen Sie die Datei mit SPSS (Menü Datei> Textdaten einlesen). Folgen Sie dem SPSS-Assistenten. 8. Berechnen Sie in SPSS eine neue Variablen, indem Sie die Altersvariable in Altersgruppen umwandeln (0-20 Jahre = 1; 21-30 Jahre = 2 usw.). 9. Speichern Sie diese Datei als Excel- oder Textdatei. 10. Importieren Sie in MAXQDA die neu erstellte Variablendatei und überprüfen Sie das Ergebnis. Löschen Sie ungewünschte Variablen in MAXQDA.
9
Komplexe Formen des Text-Retrievals
9.1 Subgruppen von Daten vergleichen Moderne QDA-Software offeriert eine Reihe von Verfahren, die weitaus komplexer sind als die einfachen Techniken des Wiederfindens, die in Kapitel 5 dargestellt sind. Dazu gehören beispielsweise: 1. das selektive Text-Retrieval, bei dem die Fallvariablen und ihre Merkmalsausprägungen als Kriterium zur Auswahl von codierten Textsegmenten dienen 2. die Visualisierung von Beziehungen und Zusammenhängen im Textkorpus 3. die Möglichkeiten zur komplexen Kombination von Codes, z.B. in Form von Codesequenzen und Überlappungen 4. die Option zur Benutzung von Segmentgewichtungen („RelevanzScores“) als zusätzliches Kriterium zum Wiederfinden codierter Segmente In diesem Kapitel werden das selektive Text-Retrieval, die darauf aufbauende Themenmatrix und die Suche nach Code-Kombinationen behandelt. Beispiel aus der Forschungspraxis In Projekten der qualitativen Sozialforschung geht man bei der Bildung der Untersuchungsgruppe häufig so vor, dass möglichst kontrastierende Fälle, Gruppe oder Situationen ausgewählt werden. Dies ist prototypisch in der Grounded Theory der Fall, wo die Fallkontrastierung ein wichtiges Kriterium beim Theoretical Sampling darstellt (Strauss/Corbin 1999: 150). Man stellt etwa eine Person, die sich vornehmlich aus politischen Gründen in einer Lokalen Agenda 21-Initiative engagiert, einer Person gegenüber, die primär die Zusammenarbeit in der Gruppe und das Wir-Gefühl schätzt. Kluge (1995) berichtet von einem Projekt am Bremer Sonderforschungsbereich „Statuspassagen und Risikolagen im Lebensverlauf“, in dem
158
Komplexe Formen des Text-Retrievals
Untersuchungsgruppen von Haupt- und Sonderschülern nach diesem Konzept der Fallkontrastierung möglichst heterogen gebildet wurden. Die Stichprobenauswahl erfolgte hier anhand von drei Merkmalen: Geschlecht, Einstieg in das Berufsbildungssystem (berufsqualifizierend versus nichtberufsqualifizierend) und schulischer Abgangsstatus (mit bzw. ohne Hauptschulabschluss oder Abgang von der Sonderschule). Abb. 49 zeigt den realisierten Stichprobenplan. Ausbildung mit berufsqualifizierendem Abschluss Geschlecht
Schulabgang
ja
nein
Total
30 Jungen
HS mit Abschluss
13
4
17
HS ohne Abschluss
-
4
4
Sonderschule
1
8
9
HS mit Abschluss
14
9
23
HS ohne Abschluss
-
4
4
Sonderschule
-
3
3
28
32
60
30 Mädchen
Total
Abb. 49: Interviewplan nach dem Konzept der maximalen Variation (Kluge 1995: 5)
Bei der Analyse der Interviews erweisen sich nun selektive Zugriffe auf einzelne Subgruppen als besonders nützlich. Man will sich beispielsweise näher anzuschauen, was die 9 Mädchen mit Hauptschulabschluss, die nicht über einen berufsqualifizierenden Abschluss verfügen, in den Interviews geäußert haben. Jede Zelle der obigen Tabelle enthält die Information, wie viele Personen die jeweilige Merkmalskombination aufweisen. Ziel dieser speziellen Form von Text-Retrieval ist es, die zu einem bestimmten Code vorhandenen Textsegmente selektiv für bestimmte Zellen des Designs zusammenzustellen. Diese Form der Analyse ist folgendermaßen zu realisieren: Die drei Kriteriumsvariablen der Stichprobenauswahl müssen als Fallvariablen definiert werden, beispielsweise mit den Variablennamen „Geschlecht“, „Schulabgang“ und „Abschluss“. Die Variablenwerte können sowohl als Strings wie als numerische Werte definiert werden. Die Definition als Strings hat den Vorteil, dass sich immer sofort die Bedeutung des Variablenwerts erkennen lässt. Wählt man für die beiden Geschlechter die Abkürzung „w“ bzw. „m“, so ist das selbst erklärend, während die Werte „1“ und
159
Themenmatrix
„2“ entweder Gedächtnisleistung oder einen stets griffbereiten Codeplan verlangen. Bevor man das angestrebte selektive Retrieval durchführen kann, müssen für alle Befragten die Werte dieser drei Variablen eingegeben werden. Das selektive Retrieval arbeitet per definitionem immer mit einer Teilmenge der Texte: Mit Hilfe der Fallvariablen wird eine Bedingung so formuliert, dass nur die Texte für das Retrieval herangezogen werden, die diese Bedingung erfüllen (Abb. 50). Will man die Gruppe der 9 Mädchen mit Hauptschulabschluss und nicht berufsqualifizierendem Berufseinstieg näher untersuchen, so lauten die formalisierten Kriterien:
Alle Texte des Projekts
FILTERBEDINGUNG
(Schulabgang=HSmit) UND (Geschlecht=w) UND (Abschluss=nein)
Teilmenge von Texten, die die Kriterien erfüllen
Abb. 50: Variablenwerte als Filter für das Retrieval
9.2 Themenmatrix Das übersichtliche Arrangement von qualitativen Daten in Tabellen ist ein Verfahren, das vor allem von Miles und Huberman (1994) vorgeschlagen wurde. Damit eine solche Darstellung nicht zu umfangreich wird, kann man normalerweise nur mit zweidimensionalen Matrizen arbeiten. Dreidimensionale Tabellen wie im obigen Beispiel werden auch dann, wenn man es mit dichotomen Dimensionen zu tun hat, leicht unübersichtlich, denn man hat es minimal mit 2 mal 2 mal 2, d.h. mit 8 Zellen zu tun. Besitzt ein Merkmal drei Ausprägungen, wie die Variable „Schulabgang“ in diesem Beispiel, hat die Tabelle bereits 12 Zellen.
160
Komplexe Formen des Text-Retrievals
Das gesamte Verfahren der Themenmatrix hat eine unverkennbare Ähnlichkeit mit der Kreuztabellenanalyse bei statistischen Auswertungen. Die Grundform einer Vierfeldertafel sieht folgendermaßen aus: Merkmal X ja
Merkmal X nein
Merkmal Y ja
A
B
Merkmal Y nein
C
D
Abb. 51: Grundprinzip der Matrixanalyse
Die Inhalte der Matrixzellen A bis D erhält man durch selektive Retrievals, d.h. durch Formulierung der entsprechenden logischen Bedingungen. Das Feld A also über die Anweisung „Merkmal X=ja UND Merkmal Y=ja“. Welchen Gewinn hat man nun von einer solchen Matrix-Darstellung? Erstens erhält man, so Miles und Huberman, einen sehr guten Überblick über die Daten, zweitens kann man unmittelbar Vergleiche durch Gegenüberstellung von Matrixfeldern anstellen und drittens lassen sich derart übersichtlich aufbereitete Resultate auch der Scientific Community wesentlich besser und plausibler nahe bringen. Um die zwölf Zellen des obigen Beispiels von Kluge zu bearbeiten, sind insgesamt zwölf selektive Text-Retrievals durchzuführen, jeweils mit einer anderen logischen Bedingung zur Auswahl der entsprechenden Befragten. In diesem Beispiel sind es allerdings faktisch nur neun Durchläufe, weil drei Zellen des Designs leer sind. Man kann die für jede Zelle der Matrix zusammengestellten Textsegmente am Bildschirm lesen oder für intensivere Vergleiche ausdrucken. Eine gute Idee ist es auch, die Segmentzusammenstellungen zu speichern und zunächst im Textverarbeitungsprogramm zu editieren. Dort kann man die eventuell vorhandene Redundanz vermindern, Textstellen löschen oder zusammenstreichen. Am einfachsten lässt sich eine Matrix mittels der komfortablen Tabellenfunktion von Textverarbeitungsprogrammen erstellen. Man definiert eine Tabelle mit entsprechender Spalten- und Zeilenanzahl und platziert dann die mit einem selektiven Retrieval gefundenen Segmente in die entsprechende Matrixzelle. Werden für eine Zelle eine erhebliche Anzahl von Segmenten gefunden, so sollte man sich bemühen, diese zusammenzufassen bzw. ein möglichst repräsentatives Beispiel auszuwählen. Ebenfalls möglich ist die Synthetisierung bzw. paraphrasierende Zusammenfassung des gefundenen Sets von Segmenten. Für die Zusammenarbeit in einer Forschergruppe oder für Präsentations-
Die Suche nach Mustern von Codierungen
161
zwecke kann es auch nützlich sein, die Ergebnisse in Form einer Wandzeitung als übersichtliche Matrix zu montieren. Generell ist die Methode des selektiven Retrievals hervorragend geeignet, um Kontraste darzustellen.
9.3 Die Suche nach Mustern von Codierungen Während die einfachen Techniken des Text-Retrievals noch weitgehend der Logik des Arbeitens mit den guten alten Karteikarten folgen, sind die komplexeren Techniken ohne Computersoftware gar nicht realisierbar. Diese Verfahren unterstützen wirkungsvoll die Theoriebildung und ermöglichen es, komplizierte Fragen an das Datenmaterial zu stellen. Im Kern geht es darum, Muster von Codierungen zu entdecken bzw. in den Codierungen nach empirischen Bestätigungen für vermutete Zusammenhänge zu suchen. Manche Autoren (Huber 1996; Hesse-Biber/Dupuis 1996) sprechen in diesem Kontext von „Hypothesen testen“, einer Bezeichnung, die für jemanden mit einem traditionellen Hypothesenbegriff (vgl. etwa Schnell/Hill/Esser 2004: 53 f.) aber eher irritierend sein dürfte. Bei den komplexen Formen des Text-Retrievals geht es um die Beziehungen der Codes bzw. Codierungen untereinander und um die Formulierung von Suchabfragen zum Zwecke des Wiederfindens codierter Textsegmente. Anders als beim einfachen Text-Retrieval werden Suchabfragen nicht nur mit einfachem ODER und einfachem UND formuliert, sondern es werden komplexere Operationen möglich: In natürlicher Sprache formuliert beispielsweise Fragestellungen wie: Suche nach Textpassagen, die entweder mit „Unterricht“ (Code A) oder mit „Seminarlehrer“ (Code B) codiert wurden und gleichzeitig mit „Befindlichkeit“ (Code C). Formalisiert heißt es dann: „(A ODER B) UND C“. Mittels logischer Operatoren lassen sich Suchabfragen formulieren, in denen die Operatoren ODER und UND vielfältig kombiniert werden. Auch können hierarchische Beziehungen von Kategorien zu Subkategorien Berücksichtigung finden. Suchabfragen dieses Grundmusters lassen sich zu sehr komplexen Gebilden erweitern, z.B.: (A ODER B ODER D ODER F) UND (C ODER K) UND (L ODER M ODER N)
Nun sind nicht nur Zusammenhänge des Typs „gleichzeitiges Vorkommen“ bzw. „Überschneidung“ denkbar, sondern es existieren weitere Grundformen der Relation von Codes. Die entsprechenden Algorithmen,
162
Komplexe Formen des Text-Retrievals
die in fortgeschrittener QDA-Software implementiert sind, arbeiten mit drei Varianten von Operatoren: 1. Sequenz- und Entfernungsoperatoren (Nähe, Distanz, Eingebettetheit), 2. Überschneidungsoperatoren und 3. Mengenoperatoren.
9.4 Sequenz- und Entfernungsoperatoren Sequenzoperatoren dienen dazu, nach Mustern im Hinblick auf die Abfolge von Codes in einem Text zu suchen. Es lässt sich etwa danach suchen, ob ein Textsegment, das mit Code B oder mit Subcodes von B codiert wurde, auf ein mit A codiertes Segment folgt.
A[ B[ Abb. 52: Segment mit Code B folgt auf ein mit Code A codiertes Segment
Man kann so z.B. erkunden, ob und wie häufig es vorkommt, dass der Code „Einsam in der Kur“ innerhalb einer Distanz von maximal 2 Textabsätzen auf den Code „Mitpatienten“ folgen. Alle Texte des Projektes werden daraufhin durchsucht, ob diese Konstellation von Codierungen vorhanden ist. Man erfährt, wie oft solche Abfolgen gefunden werden und erhält eine Zusammenstellung der entsprechenden Textstellen. QDA-Programme, die diesen Typ von Operatoren anbieten, lassen die Wahl, ob bei der Zusammenstellung der Textstellen nur die Segmente des vorangehenden Codes (hier „Mitpatienten), des nachfolgenden Codes (hier „Einsam in der Kur“) oder beide in einer Liste ausgegeben werden.
Überschneidungs- und Einbettungsoperatoren
163
Eine vergleichbare Aufgabe wie Sequenzoperatoren haben Entfernungsoperatoren. Mit ihrer Hilfe wird nach Mustern im Hinblick auf die Nähe von Codes im Text gesucht. Taucht im Umkreis von Thema A immer Thema B auf?
A> Abstand: 3 Absätze
B> Abb. 53: Code B in der Nähe von Code A
Angenommen, das mit B codierte Segment folge bei einer Anordnung wie in der Abbildung im Abstand von 3 Absätzen auf Segment A. Würde man für den Entfernungsparameter einen Wert von 2 Absätzen oder kleiner wählen, dann würde diese Textstelle nicht mehr gefunden: das mit Code B codierte Segment wäre zu weit von dem mit A codierten Segment entfernt. Neben der bloßen Angabe, ob solche Codeabfolgen vorkommen, offeriert QDA-Software verschiedene Arten der Resultatausgabe: In den Programmen NVivo und MAXQDA lässt sich auswählen, welche Segmente im Falle eines Treffers gelistet werden, nur die mit A codierten, nur die mit B codierten oder beide.
9.5 Überschneidungs- und Einbettungsoperatoren Mit Überschneidungsoperatoren lässt sich ermitteln, ob sich in den Texten der Studie codierte Segmente befinden, bei denen sich zwei oder mehrere Codes direkt überschneiden. In QDA-Programmen findet man hierzu die Operatoren Überschneidung und Überlappung, die sich lediglich hinsichtlich des ausgegebenen Resultats des Text-Retrievals unterscheiden. Im ersten Fall sind es nur die sich direkt überschneidenden Textzeilen, im zweiten Fall wird
164
Komplexe Formen des Text-Retrievals
der gesamte Bereich vom Beginn des ersten Segments bis zur letzten Zeile des letzten Segments ausgegeben.
A
> B
>
} Textausgabe: nur direkter Überschneidungsbereich
Abb. 54: Überschneidung von Code A und Code B
Einbettungsoperatoren untersuchen die Frage, ob bestimmte Codes immer im Rahmen größerer, mit einem bestimmten anderen Code codierter Abschnitte auftreten. Oder, gewissermaßen das Gegenteil zu dieser Konstellation, man sucht nach codierten Segmenten außerhalb des Bereichs eines bestimmten Codes. Man kann sich etwa das Beispiel von Gruppendiskussionen vergegenwärtigen: Man sucht Textstellen eines bestimmten Sprechers zu einem bestimmten Thema (=Einbettung). Man sucht Textstellen zu einem bestimmten Thema, die nicht von einem bestimmten Sprecher stammen (=außerhalb des Bereiches dieses Sprechers).
165
Überschneidungs- und Einbettungsoperatoren
A
[
B
[
In diesem Beispiel wird Code A gefunden, weil es außerhalb von Code B liegt.
Abb. 55: Code A ist außerhalb von Code B
Genau umgekehrt hierzu lässt sich nach solchen Stellen im Text suchen, wo eine mit Code A codierte Textstelle sich innerhalb eines mit B codierten Segmentes befindet. Dies ist im folgenden Beispiel der Fall, wo sich A tatsächlich innerhalb von dem mit B codierten Segment befindet.
A
[
B
[
Das mit Code A codierte Segment liegt innerhalb von Code B.
Abb. 56: Code A ist innerhalb von Code B
Die Möglichkeit nach eingebetteten Segmenten zu suchen ist bei der Analyse von Gruppendiskussionen und Fokusgruppen sehr praktisch, denn so lässt sich die Suche nach Textstellen einer bestimmten Kategorie auf ausgewählte Sprecher beschränken, d.h. man sucht nur nach solchen Stellen, in denen Person X sich über ein bestimmtes Thema äußert. Auch bei der
166
Komplexe Formen des Text-Retrievals
Interviewauswertung können sich komplexe Formen des Retrievals als sinnvoll erweisen: Man sucht beispielsweise nach „negativen Emotionen“ innerhalb von Textpassagen, in denen es um das Thema „Familie“ geht. Voraussetzung ist natürlich immer, dass die Texte zuvor entsprechend systematisch codiert wurden.
9.6 Mengenoperatoren Mengenoperatoren machen es möglich, eine Auswahlliste von Codes zu erstellen und das Auffinden von Textsegmenten an das Vorliegen bestimmter Mengenbedingungen zu knüpfen. Es kann beispielsweise verlangt werden, dass eine bestimmte Anzahl von Codes der Auswahlliste vorhanden sein müssen. Nur in diesem Fall wird das Segment gelistet. Weiterhin kann nach solchen Textstellen gesucht werden, wo ein bestimmter Code einer Auswahlliste vorhanden ist, die anderen Codes der Auswahlliste aber nicht. Hierzu ein inhaltliches Beispiel: Jemand spricht über die Motive seines Engagements, aber nicht gleichzeitig über seine Wünsche, seine Einschätzung des Machbaren und Erfolgskriterien.
9.7 Hypothesenprüfung Verschiedene Autoren betrachten die Suche nach dem gemeinsamen Auftreten von Codes nicht nur als ein heuristisches Hilfsmittel zur Datenexploration und Hypothesengenerierung, sondern begreifen dies als „Hypothesen testen“ (vgl. Huber 1996; Hesse-Biber/Dupuis 1996). Eine inhaltliche Hypothese wird so formuliert bzw. operationalisiert, dass sie mit dem gemeinsamen Vorkommen von Kategorien überprüfbar ist. Hesse-Biber und Dupuis unterscheiden dabei zwischen zwei Situationen von Hypothesenprüfung. Zum einen kann es darum gehen, aus dem Datenmaterial einen theoretischen Rahmen zu entwickeln, induktive Theorieentwicklung zu betreiben und diese generierten Hypothesen dann auch zu testen. Zum anderen können bereits zu Beginn des Forschungsprojektes vorhandene Hypothesen geprüft werden. Ausgangspunkt des Verfahrens ist eine Tabelle, die Informationen über die bei jedem Text vorgenommenen Codierungen enthält. Das Prinzip besteht nun darin, auf die Kategorien bezogene Wenn-
167
Hypothesenprüfung
dann-Statements zu formulieren und diese Statements im Datenmaterial zu überprüfen, etwa nach folgendem Muster: 1. Wenn jemand CDU wählt (Code „CDU-Wähler“) und sonntags zur Kirche (Code „Kirchgänger“) geht, nenne ich ihn konservativ. 2. Wenn jemand in seiner Familie Diskussionen mit den Kindern ablehnt (Code „Keine Diskussionen“) und Gehorsam für ein Erziehungsziel (Code: „Gehorsamkeit“) hält, nenne ich ihn autoritär. 3. Hypothese: Wenn jemand konservativ und autoritär ist, hat er wahrscheinlich Konflikte mit seinen Kindern (Code: „Konflikt mit Kindern“). Ziel des Verfahrens ist es hier, eine Hypothese über die Ursache von Konflikten zwischen Eltern und Kindern zu testen. Das Datenmaterial muss es erlauben, in dieser Hinsicht zwischen zwei Gruppen von Befragten zu differenzieren, nämlich solchen, die Konflikte mit ihren Kindern haben, und solchen, die keine Konflikte haben. Die Codes „CDU-Wähler“, „Kirchgänger“, „Keine Diskussionen“, „Gehorsam“ und „Konflikt mit Kindern“ sind manifeste Codes, d.h. sie sind im Textmaterial codiert bzw. nicht codiert. Hingegen sind die Kategorien konservativ und autoritär Konstrukte des Forschers, die als logische Kombination von Codes gebildet werden. Zur Vorgehensweise bei der Prüfung solcher Hypothesen gibt HesseBiber das in Abb. 57 abgebildete Beispiel aus ihrer Forschungspraxis. Das Beispiel besteht aus vier Wenn-dann-Statements, die von oben nach unten abgearbeitet werden. Regel 1
IF THEN
I am makg high salary AND fabulous non trad job ADD HIGH WORK COMMITMENT
Regel 2
IF THEN
gets married and stays married AND wants kids ADD HIGH FAMILY COMMITMENT
Regel 3
IF THEN
HIGH WORK COMMITMENT AND HIGH FAMILY COMMITMENT ADD HI POTEN FOR WORK FAM CONF
Regel 4
IF THEN
HI POTEN FOR WORK FAM CONF AND (cmb wrk fam no problems OR successful) ADD CINDERELLA COMPLEX GOAL REACHED
Abb. 57: Liste einer Abfolge von Wenn-dann-Statements beim Hypothesentest (Weitzman/Miles 1995: 235)
168
Komplexe Formen des Text-Retrievals
Das erste Statement (Regel 1) bedeutet: Wenn ein Text die Codes „bekomme hohes Gehalt“ (I am making high salary) und „habe tollen Job“ (fabulous non trad job) enthält, lässt sich daraus schließen, dass der Befragte einen hohen Grad an Engagement und Bindung an seine Arbeit besitzt, und man kann diesem Text einen entsprechenden neuen Code „High Work Commitment“ zuordnen. Die zweite Regel besagt: Wenn ein Text die Codes „ist verheiratet und will es bleiben“ und „will Kinder“ besitzt, dann kann man als Konsequenz den Code „high hamily commitment“ zuordnen. Nun könnte man für den Fall, dass eine Person sowohl eine hohes Engagement in Bezug auf die Familie wie die Arbeit aufweist (d.h. beide Codes sind zugeordnet), vermuten, dass es hier ein hohes Konfliktpotential gibt. Regel 3 ordnet diesen Personen eine entsprechende Kategorie zu („hi poten for wrk fam conf“). Der entscheidende Schritt wird in der abschließenden Regel 4 getan, die auf die vorangehenden Statements 1 bis 3 aufbaut. Wenn ein hohes Potenzial für Konflikte zwischen Arbeit und Familie vorhanden ist („hi poten for wrk fam conf“) und der Befragte dies aber nicht wahrnimmt, dann sprechen die Forscher vom „Cinderella Komplex“ und sehen ihre Hypothese bestätigt. Die beiden in Klammern stehenden Codes (cmb wrk fam no problems OR successful) gelten hier als Indikatoren dafür, dass jemand selbst keine Probleme darin sieht, die beruflichen und privaten Ziele zu vereinbaren. Ist dies bei einer Person der Fall, d.h. sind beide Codes zugeordnet, dann spricht Hesse-Biber davon, dass die Person das Ziel der Hypothese erreicht habe. Das Hypothesentesten nach diesem Grundmuster besteht also aus einer Abfolge von Wenn-dann-Statements, die von den Basisannahmen („toller Job“ + „hohes Gehalt“ = „Engagement/Bindung bzgl. Beruf“) über verschiedene Zwischenglieder bis zur eigentlichen Zielhypothese führen. Eine Art Inferenzpfad wird durchschritten: Für den Fall, dass bestimmte Codes oder Codekombinationen vorhanden sind, erfolgt die Zuweisung eines neuen Codes. Mehrere Wenn-dann-Zuordnungsregeln können hintereinander gestaffelt sein und aufeinander aufbauen. Sie führen zu einer finalen Entscheidung, ob die betrachtete Person (=der Fall) als Bestätigung der Hypothese zu werten ist. Die Evaluation der Wenn-dann-Kette wird für jede Person durchgeführt, so dass sich die Probanden auf drei Segmente verteilen:
169
Hypothesenprüfung
Ziel erreicht: Cinderella Komplex
Alle anderen Fälle, die bereits vorher den Inferenzpfad verlassen haben
Ziel nicht erreicht: hohes Konfliktpotential, aber keine Verdrängung
Abb. 58: Modell des Hypothesentestens bei Hesse-Biber
Das erste Feld (Hypothesen-Ziel erreicht) enthält die Anzahl der Personen, für die die Hypothese zutrifft, das zweite Feld beinhaltet die Anzahl der Personen, die das Hypothesen-Ziel nicht erreichen, obwohl alle Bedingungen hierzu vorhanden sind, und das dritte Feld der Tabelle enthält die Anzahl der Personen, die bereits zuvor eine Wenn-dann-Hürde nicht übersprungen haben. In diesem Beispiel etwa Personen, bei denen der Code „habe tollen Job“ gar nicht zugeordnet ist. Das von Hesse-Biber u.a. entwickelte Programm HyperResearch verfügt über eine „hypothesis tester“ genannte Funktion, mit deren Hilfe sich solche Wenn-dann-Statements formulieren lassen. Die Logik dieses Verfahrens lässt sich aber auch ohne weiteres mit anderen QDA-Programmen realisieren, die es erlauben, die Resultate von Retrieval-Prozeduren mit neuen Codes zu versehen. Die Bildung neuer Codes, wie sie hier praktiziert wird, geschieht ausschließlich auf der Basis der vorhandenen Codierungen und ihrer logischen Kombination. Das Verfahren ist äquivalent zur Berechnung neuer Variablen in SPSS mittels der dort implementierten If-Statements. Dort wäre etwa sinngemäß zu formulieren: If (CDU-Wähler eq 1 and Kirchgänger eq 1) Konservativ=1. Der Ansatz der Hypothesenprüfung setzt voraus, dass nicht mit thematischen Codes, sondern mit bewertenden Codes oder mit Aussagesätzen als Codes gearbeitet wird. Betrachtet werden beim Hypothesentest immer die Codierungen auf Fallebene, nicht die codierten Segmente. Insofern eignet sich das Verfahren weniger zur „Feinanalyse“ von Segmenten und ihren Codierungen als vielmehr zur Analyse von relativ hoch aggregierten Konzepten wie „hohes Konfliktpotential zwischen Berufs- und Familienengagement“.
170
Komplexe Formen des Text-Retrievals
Bewertende Codes – in der Terminologie von Hesse-Biber/Dupuis (1996) „directional codes“ – codieren nicht nur das bloße Vorhandensein oder Nicht-Vorhandensein eines Themas oder Phänomens im Text, sondern stellen eine Bewertung dar. Es wird dann beispielsweise nicht mit den thematischen Kategorien „Selbstbild“ und „Fremdbild“ gearbeitet, sondern es werden bewertende Codes wie „positives Selbstbild“, „negatives Selbstbild“ und „positives Fremdbild“, „negatives Fremdbild“ gebildet. Für diese vier Codes lässt sich auf Fallebene eine Vierfeldertafel erstellen: Fremdbild positiv
Fremdbild negativ
Selbstbild positiv
A
B
Selbstbild negativ
C
D
Abb. 59: Vierfeldertafel beim Hypothesentesten
Die Hypothese, ein positives Selbstbild gehe mit einem positiven Fremdbild einher, würde sich so auswirken, dass sich alle – oder doch zumindest die Überzahl – der Probanden mit positivem Selbstbild in der Tabellenzelle A befinden und diejenigen mit negativem Selbstbild in der Zelle D. Wenn dies der Fall ist, sprechen die Protagonisten der Hypothesentester davon, dass die Hypothese bestätigt bzw. „wahr“ ist (Huber 1996: 200 ff.). Nimmt man solche Codierungen wie „positives Selbstbild“ nun auf Fallebene vor, d.h. werden nicht nur die betreffenden Segmente mit „positives Selbstbild“ bzw. „negatives Selbstbild“ codiert, sondern das gesamte Interview bewertet, so entsteht eine Tabelle folgender Art. Selbstbild positiv
Selbstbild negativ
Fremdbild positiv
Fremdbild negativ
Person 1
0
1
1
0
Person 2
1
0
0
1
Person 3
1
0
0
1
Person n
0
1
0
1
Abb. 60: Tabelle von „Wahrheitswerten“
In den Zellen der Tabelle befinden sich die Werte 0 oder 1, je nachdem ob das jeweilige Merkmal vorhanden ist (1) oder nicht (0). Aus den Daten der Matrix lassen sich einfache und komplexe Wenn-dann-Fragen problemlos
Hypothesenprüfung
171
tabellieren. Ferner lassen sich auf dieser Basis neue Ergebnisvariablen erzeugen. In der obigen Vierfeldertafel könnte man den Personen mit positivem Selbstbild und positivem Fremdbild (Zelle A der Tabelle) einen entsprechenden Code „positives Selbst- und Fremdbild“ zuordnen, desgleichen den Personen in den übrigen Zellen Codes, die ihre Merkmalskombinationen benennen.25 Die neu gebildeten Codes beziehen sich bei diesen Prozeduren immer auf den einzelnen Fall wie sich in der Terminologie von Hesse-Biber auch der Begriff „Hypothese“ auf den einzelnen Fall und nicht auf die gesamte Studie bezieht. Sie spricht vom „success or failure of a given hypothesis on each case of a study“ (Hesse-Biber/Dupuis 1996: 355). Die Kriterien der Over-all-Hypothesenprüfung sind dabei nicht statistisch streng, sondern eher weich. So wird davon ausgegangen, dass eine Hypothese dann, wenn eine Mehrheit der Fälle dieser Regel folgt, „some degree of validity“ besitzt. Der gesamte Prozess des Testens der Hypothese beinhaltet keinen interpretativen, qualitativen Schritt mehr, sondern alle Codezuweisungen geschehen mechanisch aufgrund des Vorliegens von logischen Kombinationen. Die Codes höherer Ordnung sind reine Derivate und nicht wie in der Grounded Theory Resultat interpretativer und konzeptueller Arbeit. Wenn dies schon so ist, fragt sich allerdings, warum auf alle Abwägungen hinsichtlich der Zufälligkeit der Ergebnisse verzichtet werden soll. Exportiert man die komplette Tabelle (Fälle mal Codierungen) zu einem Statistikprogramm, dann lassen sich ohne Probleme alle Wenn-dann-Formulierungen und resultierende Variablenzuweisungen auch dort vornehmen. Gleichzeitig erzielt man aber Gewinne, weil nun Tabellenanalysen mit Signifikanztests durchgeführt werden können. Der Weg über ein Statistikprogramm vermeidet es auch, dem Fehlschluss zu erliegen, eine Hypothese habe sich dann als „wahr“ erwiesen, wenn in der obigen Tabelle mehr Personen in Zelle A zu finden sind als in Zelle B. Nicht unproblematisch erscheint der von Hesse-Biber propagierte, recht ungezwungene Umgang mit dem gesamten Vorgang des Hypothesentestens: Der Ratschlag, man möge, sofern sich Hypothesen als falsch erweisen, doch einfach die Operationalisierungen so lange verändern, bis sich das
25 Ein systematisches Verfahren zur Auswertung solcher 0/1-Matrizen hat Ragin (1987, 1994) mit der Methode der logischen Minimierung entwickelt. Computerimplementationen hiervon finden sich in den Programmen QCA und Aquad.
172
Komplexe Formen des Text-Retrievals
Ergebnis ändere, mag unter der Überschrift „Exploration von Beziehungen im Datenmaterial“ noch gerade durchgehen, aber von Hypothesen testen kann dann sicherlich nicht mehr die Rede sein. Ein problematischer Punkt des vorgenannten Ansatzes ist, dass eine induktiv an Daten gewonnene Hypothese schwerlich an den gleichen Daten bestätigt werden kann. Hierzu sei an dieser Stelle lediglich auf Max Webers Dictum hingewiesen, dass eine noch so plausible Deutung zunächst immer nur Hypothese ist und nicht mit einer kausalen Erklärung gleichgesetzt werden dürfe. Hierzu bedarf es, so Weber, einer neuen Stichprobe und einer entsprechenden statistischen Hypothesenprüfung26 (vgl. Weber 1964: 7; Kelle 1996: 46 ff.; Kuckartz 1988: 57 ff.). Die Konstruktion einer Tabelle von „Wahrheitswerten“ macht im Analyseprozess die Texte selbst überflüssig. Ist die Tabelle einmal konstruiert, so spielen für den Akt der Hypothesenprüfung die Texte keine Rolle mehr. Man sollte sich darüber im Klaren sein, dass man mit dieser Vorgehensweise das Feld der qualitativen Analyse verlässt und sich in den Bereich der statistischen Analyse begibt. Dies hat Konsequenzen auf mehreren Ebenen. Erstens stellt sich bei den Codierungen natürlich die Frage nach der Zuverlässigkeit, denn die Analyse steht und fällt mit der Reliabilität der vorgenommenen Codierungen. Will man sich nicht dem Vorwurf aussetzen, die Resultate der Analyse seien durch die Methode produzierte Artefakte, so ist durch ein geeignetes Verfahren die Inter- und Intra-Coder-Reliabilität sicherzustellen. Aus dem Bereich der quantitativen Inhaltsanalyse sind hier Verfahren (etwa Cohens Kappa) vorhanden und hinreichend erprobt (vgl. Merten 1995: 302 ff.). Zweitens sollte man natürlich zur Kenntnis nehmen, dass man sich nun in einem Feld bewegt, in dem bereits hinreichend erprobte probabilistische Methoden existieren. Die Hoffnung, bei sozialwissenschaftlichen Fragestellungen mit deterministischen Zusammenhängen des Typs „wenn a, dann b“ operieren zu können, dürfte sich wohl als allzu naiv erweisen. Man bekommt es unweigerlich mit Varianz zu tun, d.h. man muss mit Wahrschein-
26 Verschiedene Wege der qualitativen Hypothesenprüfung diskutiert Kelle (1994: 364 ff.). Hierzu gehören beispielsweise die gezielte Erhebung neuer Daten (von Glaser/Strauss als „theoretical sampling“ bezeichnet), wiederholte Befragungen („qualitative Panels“), kommunikative Validierung und die Überprüfung mit quantitativen Verfahren auf der Basis einer größeren Stichprobe.
Praktische Hinweise für MAXQDA
173
lichkeiten operieren und abschätzen, wann man einen Zusammenhang in einer solchen Vierfeldertafel als signifikant bewerten will und wann als zufällig. Damit ist man bei der Diskussion von Verteilungsmodellen und bei der Berechnung von Irrtumswahrscheinlichkeiten angelangt. In diese Richtung werden diese Verfahren unweigerlich getrieben: So wünscht sich HesseBiber für die Zukunft „certainty factors“ für beides, für die Codierungen und für die untersuchten Zusammenhänge. Im Grunde existiert beides schon, für die Kreuztabellenanalyse in Form der Irrtumswahrscheinlichkeit und für die Codierungen in Form von Skalen höherer Qualität. Zum einen ist es denkbar, im obigen Beispiel die dichotome Skala der Selbstbild/Fremdbildkategorien durch Ratingskalen zu ersetzen – so lässt sich dann erfassen, welches Ausmaß das positive Selbstbild aufweist (Einschätzungsskala) – zum anderen kann mittels einer Gewichtungsvariable festgehalten werden, wie sicher die Zuordnung aufgrund des Datenmaterials für die jeweilige Person ist.
9.8 Praktische Hinweise für MAXQDA Die Aktivierung von Texten für das Retrieval kann in MAXQDA nicht nur manuell, sondern auch automatisch durchgeführt werden. Bei der Funktion „Logische Aktivierung“ übernehmen die Werte der Fallvariablen die Steuerungsfunktion für die Textaktivierung. Hat man wie im obigen Beispiel die Variablen „Geschlecht“, „Schulabgang“ und „Abschluss“ definiert, so kann man Textauswertungen nur für bestimmte Zellen der Kreuztabelle vornehmen, etwa nur für die Mädchen, die über einen Hauptschulabschluss, aber keinen berufsqualifizierenden Abschluss verfügen. Dieses Auswahlkriterium für die Textanalyse muss in formalisierter Weise angegeben werden. Die Syntax für die Eingabe solcher logischen Bedingungen entspricht der von Statistikprogrammen. Alle logischen Bedingungen werden nach dem Schema Variablenname-Operator-Wert formuliert. Wenn das Geschlecht mittels der Variablenwerte „m“ (=männlich) und „w“ (=weiblich) codiert und die entsprechende Variable „Geschlecht“ genannt wird, dann ist zur Auswahl von Frauen die logische Bedingung „Geschlecht = w“ zu formulieren. Selektionsbedingungen können beliebig komplex gestaltet werden, in dem einzelne Bedingungen durch „und“ bzw. „oder“ miteinander ver-
174
Komplexe Formen des Text-Retrievals
knüpft werden. Selektive Retrievals von Textsegmenten für eine bestimmte Zelle des obigen Designs werden vorgenommen, indem eine logische Bedingung für die Auswahl der Texte formuliert wird, die alle drei Variablen miteinander verknüpft. Um die oben erwähnte Auswahl der neun Mädchen mit Hauptschulabschluss, die nicht über einen berufsqualifizierenden Abschluss verfügen, zu realisieren, muss also folgende komplexe Bedingung formuliert werden: (Geschlecht=Mädchen) UND (Schulabgang=HSmit) UND (Abschluss=nein) In MAXQDA werden solche Bedingungen im Dialogfenster „Logische Aktivierung“ eingegeben. Wenn nach der Definition der logischen Bedingung(en) die Funktion gestartet wird, erfolgt ein Durchlauf durch alle Texte, die daraufhin überprüft werden, ob die logische Bedingung zutrifft. Falls ja, wird der entsprechende Text aktiviert und seine codierten Textsegmente für die aktivierten Codes werden im Fenster „Liste der Codings“ zusammengestellt. Um andere Gruppen des Designs auszuwählen, muss die logische Bedingung entsprechend umformuliert werden. Die korrespondierenden männlichen Probanden mit Hauptschulabschluss ohne berufsqualifizierenden Abschluss erhält man, wenn die erste Bedingung in „Geschlecht=m“ geändert wird und die beiden anderen Bedingungen beibehalten werden. Resultat des selektiven Retrievals ist wie beim einfachen Retrieval eine Zusammenstellung der codierten Segmente, die man ggf. ausdrucken oder speichern kann. Die verschiedenen Möglichkeiten zur komplexen Kombination von Codes werden in MAXQDA über die Menüoption „Analyse“ gesteuert. Das Dialogfeld „Text Retrieval“ ermöglicht die Auswahl der oben beschriebenen komplexen Operatoren und die Angabe, welche Codes in die Analyse einzubeziehen sind. Insgesamt stehen neun Varianten zur komplexen Suche nach Codemustern in einer Auswahlliste „Funktion“ zur Verfügung, und zwar die Funktionen: Überschneidung, Überlappung, Überschneidung (Set), Nur ein Code allein, Nur dieser Code allein, Wenn innerhalb, Wenn außerhalb, Gefolgt von und Nähe. Im oberen Fensterbereich kann aus einer Auswahlliste die gewünschte Funktion ausgewählt werden. Die Auswahlfenster A, B und C dienen der für die jeweilige Funktion notwendigen Auswahl von Codes und Festlegung von Parametern. Auf der rechten Seite wird die Funktion visualisiert.
Praktische Hinweise für MAXQDA
175
Fenster A bezieht sich auf die aktivierten Codes. Wenn man die Überschneidungen eines Codes mit einem anderen Code ermitteln will, müssen beide Codes zunächst aktiviert und anschließend durch Klicken auf den Button „Alle aktivierten“ in das Fenster A (siehe Abb. 61) transferiert werden. Die Funktionen „Überschneidung“ und „Überlappung“ erfordern keine zusätzliche Parametereingabe – hier kann das Text-Retrieval sofort gestartet werden. Bei den komplexeren Funktionen sind auch die Auswahlfenster B und C aktiv, in denen spezielle Selektionen vorgenommen werden können. Sobald die notwendige Auswahl getroffen ist, wird der Retrievalvorgang gestartet. Nach der Evaluation aller (aktivierten) Texte werden als Resultat die entsprechenden Segmente, die die komplexen Kriterien erfüllen, im Fenster „Liste der Codings“ gelistet. Es besteht dann die Möglichkeit, diese auszudrucken, zu speichern, in Form einer übersichtlichen HTML-Tabelle zu listen oder auch die gefundenen Segmente mit einem neuen Code automatisch zu codieren. Hat man das Werkzeug der Gewichtungsvariablen benutzt, um die Bedeutsamkeit von Textsegmenten für die Kategorie zu markieren, dann lassen sich die Werte der Gewichtungsvariable auch für den Retrieval-Vorgang benutzen: Es kann ein Wertebereich definiert werden, der für das Auffinden von Segmenten maßgeblich sein soll. In einer Dialogbox „Gewichtsfilter“ lassen sich ein minimaler und ein maximaler Wert einstellen. Sind dort z.B. die Werte 50 und 80 eingestellt, dann werden nur solche Textsegmente in das Retrieval einbezogen, deren Relevanz-Scores sich innerhalb des Wertebereichs von 50 bis 80 befinden. Diese Selektion wirkt sich auch auf alle in diesem Kapitel beschriebenen komplexen Retrieval-Techniken aus. Ähnlich wie beim einfachen Retrieval lassen sich auch beim komplexen Retrieval automatisch die Subkategorien berücksichtigen. Voraussetzung ist, dass die Hierarchie-Option eingeschaltet ist. Ist dies der Fall, wird die Baumstruktur des Kategoriensystems beachtet, und es werden alle Verzweigungen eines Astes berücksichtigt. Führt man beispielsweise ein Retrieval mit Mengenoperatoren durch, werden alle Subkategorien der ausgewählten Codes bei der Evaluierung der Kombinationsbedingung einbezogen. Wird das Blattsymbol gewählt, werden die Suchprozeduren nur für die jeweilige Hierarchieebene durchgeführt.
176
Komplexe Formen des Text-Retrievals
Funktionsauswahl
Visualisierung der Funktion
Fenster A Code
Fenster B Code Fenster C Optionen
Abb. 61: Auswahl der Funktion für das komplexe Text Retrieval
Der große Vorteil des Arbeitens mit QDA-Software ist, dass auch bei der Anwendung komplexer Algorithmen zur Überprüfung der Relation von Codierungen immer auf das analysierte Originalmaterial zurückgegriffen werden kann. Der Kontext, in dem ein bestimmtes Textsegment steht, bleibt verfügbar, denn der das Segment umgebende Originaltext ist sofort wieder einsehbar. Eine erneute Analyse und Re-Interpretation von bereits interpretierten Daten sind so zu jedem Zeitpunkt des Analyseprozesses ohne größeren Aufwand realisierbar.
Praktische Hinweise für MAXQDA
177
Übungen Arbeiten Sie weiterhin mit dem Übungsprojekt. Stellen Sie sich vor, Sie wollen nun nur die Aussagen herausfinden, die von ledigen Interviewten über 30 Jahre gemacht wurden. 1. Öffnen Sie dazu das Fenster der „Logischen Aktivierung“ und wählen Sie „Neu“. Wählen Sie die Variablen „Alter“ und „Familienstand“ aus. 2. Der Wert für das Alter soll größer als „30“ und der Familienstand soll „ledig“ sein. Achten Sie darauf, dass beide Bedingungen richtig mit UND verknüpft sind. 3. Aktivieren Sie Ihre Auswahl. Was ist passiert? Aktivieren Sie jetzt auch den Code „Einstellungen“ mit den entsprechenden Subcodes. 4. Speichern Sie die Aktivierung unter dem Namen „Aktivierung 1“ an einem beliebigen Ort ab. 5. Erzeugen Sie aus den aktivierten Texten ein Text-Set mit dem Namen „ledig_über_30“. Deaktivieren sie das Text-Set und aktivieren Sie es später wieder. 6. Erzeugen sie vier neue Codes „Agenda“, „Wirtschaft“, „Menschen“ und „I:“. 7. Suchen Sie nacheinander mit der Suchfunktion nach diesen Begriffen und codieren sie jeden Absatz automatisch zum entsprechenden Code. 8. Rufen Sie die Text-Retrieval-Funktion von MAXQDA auf (entweder über das Menü Analyse oder den Button Fx) und wählen Sie dort „Gefolgt von“. Aktivieren Sie alle Texte und den Code „Agenda“, übernehmen Sie „Agenda“ ist den „Fenster A Code“ durch Anklicken von „Alle Aktivierten“. Geben Sie als „Fenster B Code“ die Kategorie „Wirtschaft“ ein und stellen Sie den Abstandszähler auf maximal einen Absatz. Als Ausgabe wählen Sie „Fenster B Code“. Was würde jetzt gesucht werden? 9. Wir möchten jetzt alle Textstellen zum Code „Agenda“ wieder finden, bei denen nicht zusätzlich noch ein anderer Code vergeben wurde. Wählen Sie dazu im Text Retrieval die Funktion: „Dieser Code allein“ und setzen sie den Code „Agenda“ in „Fenster B“ und alle anderen Codes in „Fenster A“. Wie viele Fundstellen werden angezeigt? 10. Wir möchten jetzt alle Aussagen zu „Agenda“, die nicht vom Interviewer stammen und bei denen auch kein anderer Code vergeben wurde. Welche Einstellung ist hier vorzunehmen?
10 Daten-Display und Visualisierung
10.1 Sinn und Zweck von Visualisierungen Visualisierung als Hilfsmittel der Auswertung, aber auch als Modus der Präsentation von Analyseergebnissen, gewinnt in vielen Wissenschaftsdisziplinen zunehmend an Bedeutung. Die Sozialwissenschaften sind allerdings ein Wissenschaftszweig, in dem vornehmlich textbasiert gearbeitet und argumentiert wird. Anders als in den Naturwissenschaften oder in der Medizin, wo es heute gang und gäbe ist, Zusammenhänge visuell darzustellen und zunehmend auch in der medizinischen Diagnostik bildgebende Verfahren einzusetzen, hat die sozialwissenschaftliche Methodik diese Möglichkeiten bislang nur spärlich genutzt: Sozialwissenschaftliche Methodenliteratur, die sich explizit mit Visualisierungsmöglichkeiten von Analyseergebnissen befasst, ist sehr dünn gesät (Banks 2001; Blasius/Greenacre 1998; Miles/Huberman 1984; Strauss/Corbin 1996) und allenfalls in der Netzwerkanalyse häufiger anzutreffen (z.B. Krempel 2005). Feldmann vermutet eine generelle Bilderfeindlichkeit der Sozialwissenschaften als Ursache: „Die heiligen Schriften der Soziologie von Marx, Durkheim, Weber, Parsons, Luhmann, Habermas, Giddens etc. sind meist bilderlos, selten mit Statistiken besudelt. Du sollst Dir kein Bild machen! Doch nicht nur die Klassiker, sondern auch die neuen soziologischen Schriften über die alten und neuen Medien und das Internet sind großteils bildfrei.“ (Feldmann 2003)
Allerdings ist es allgemein üblich, Resultate einfacher statistischer Verfahren als Grafiken zu präsentieren, etwa in Form von Kreis-, Balken- oder Liniendiagrammen. Weitaus seltener sind hingegen Visualisierungsformen, die komplexe Zusammenhänge darstellen. Beispiele hierfür sind Pfaddiagramme oder lineare Kausalmodelle, in denen die Zusammenhänge zwischen einer Vielzahl von Variablen – sowohl latenten wie manifesten – repräsentiert werden können. Im Rahmen der computergestützten qualitativen Datenanalyse lassen sich vier Arten von Visualisierung unterscheiden:
Visualisierung bei der Arbeit mit der QDA-Software
179
1. Visualisierungen innerhalb der QDA-Software selbst. Diese haben die Funktion, die Handhabung der Daten bei der Auswertungsarbeit zu verbessern und den Zugriff auf Daten und Analyseergebnisse effizienter zu gestalten. 2. Fallbezogene Visualisierungen (Within-Case-Displays). Solche Darstellungen bilden bspw. zeitliche Verläufe ab (z.B. in der Biografieforschung) oder stellen die Sequenz und Verknüpfung von Codes und Konzepten dar. Der Begriff „Fall“ („Case“) kann sich in Abhängigkeit vom Typ der empirischen Studie auf sehr Verschiedenes beziehen, z.B. eine Person, eine Institution oder eine Organisation. 3. Fallübergreifende Visualisierungen (Cross-Case-Displays), in denen die Sequenzen von Codes, Codeüberschneidungen sowie die Häufigkeiten von Codes als Vergleich verschiedener Fälle abgebildet werden. 4. Konzept Maps, die es – ähnlich wie lineare Strukturdiagramme in der quantitativen Datenanalyse – erlauben, Zusammenhänge zwischen Konzepten, Kategorien, Memos sowie deren Verknüpfungen und Wirkungszusammenhänge als bildliche Darstellung wiederzugeben.
10.2 Visualisierung bei der Arbeit mit der QDA-Software Wozu können Visualisierungen bei der Arbeit mit einem QDA-Programm nützlich sein? Als erstes wäre zu nennen, dass Visualisierungen sichtbar machen können, ob und in welcher Weise ein Text bei der Auswertung bereits bearbeitet wurde. Man kann etwa sehen, dass eine bestimmte Textstelle codiert wurde, wo eine solche codierte Textpassage beginnt, wo sie endet und welchen Code bzw. welche Codes ihr zugeordnet wurden. Möglicherweise ist es – jedenfalls dann, wenn mehrere KollegInnen in einer Arbeitsgruppe zusammenarbeiten – auch von Interesse, zu erfahren, wer eine bestimmte Codierung vorgenommen hat und wann genau dies geschehen ist. Auch anderes soll sichtbar sein, z.B. Textstellen, die als besonders wichtig oder aufschlussreich eingeschätzt werden, ganz ähnlich wie beim Lesen eines Buches besonders Interessantes mittels eines Markierstifts hervorgehoben wird und dadurch später auch leichter wiederzufinden ist. Schließlich hat man vielleicht Anmerkungen zu einer bestimmten Textpassage geschrieben – auch diese sollen beim Durchblättern des Textes gut erkennbar
180
Daten-Display und Visualisierung
sein, am besten so, dass ein Symbol, ähnlich wie ein Post-it-Zettel, deutlich macht, dass an einer bestimmten Textstelle Anmerkungen angeheftet sind. Die von der QDA-Software unterstützten Visualisierungsformen können also ein wichtiges Hilfsmittel bei der Auswertungsarbeit darstellen. Zu solchen Visualisierungen, welche die effektive Arbeit mit der Software erleichtern, ist eine Reihe von Möglichkeiten zu zählen, die allerdings nicht in allen QDA-Programmen angeboten werden: An erster Stelle zu nennen sind die Codiersymbole („Coding Stripes“), die neben dem Text verdeutlichen, wo etwas codiert worden ist und um welchen Code es sich dabei handelt. x Zweitens erleichtert die Farbigkeit der Codiersymbole die Lesbarkeit der Bildschirmdarstellung, wobei allerdings nur in MAXQDA die Zuordnung von Farben zu Codes kontrolliert werden kann, während andere QDA-Programme die Farben rein zufällig zuordnen. Durch adäquate Farbwahl lassen sich Kategorien gezielt kenntlich machen, bspw. die geäußerten Emotionen von Befragten, bestimmte Themen, interessierende kritische Lebensereignisse und dergleichen mehr, so dass solche Textstellen beim Blättern durch den Text sofort erkennbar sind. x Ferner sind Anmerkungen und Memos zu nennen, die erst dann wirksam genutzt werden können, wenn sie auch leicht zugänglich sind. Besonders vorteilhaft ist es, wenn eine Anzeige im oder neben dem Text erkennen lässt, wo Anmerkungen und Memos zugeordnet sind. Weiterhin erweist es sich als hilfreich, wenn unterschiedliche Memosymbole deutlich machen, welchen Typs ein Memo ist, also ob es sich beispielsweise um ein Theorie-Memo oder ein MethodenMemo handelt. x
In den Anfängen kamen QDA-Programme nahezu ohne jegliche Visualisierung aus. Doch entstand bei den Benutzern schnell das Bedürfnis, nachvollziehen zu können, was während der Auswertungsarbeit gemacht wurde. Besonders hilfreich ist die Möglichkeit, den Kategorien und Subkategorien Farben zuzuordnen. Dies haben wir beispielsweise im Projekt „Qualitative Lehrevaluation“ dazu genutzt, dem Code „Kritik an der Lehrveranstaltung“ und den zugehörigen Subcodes die Farbe Rot und dem Code „Verbesserungsvorschlägen“ die Farbe Grün zuzuordnen, während Codes, die sich auf den „Lernverlauf“ beziehen, mit unterschiedlichen Blautönen codiert
Visualisierung von Analyseergebnissen
181
wurden. Beim Durchblättern der Interviews lassen sich entsprechende Textstellen und auch entsprechende Code-Überschneidungen, etwa zwischen „Lernverlauf“ und „Verbesserungsvorschlägen“, weitaus schneller identifizieren, als es durch Lesen der Codenamen möglich wäre. Bei psychologisch orientierten Studien ist es denkbar, verschiedenen Formen von Emotionen oder Motivationen korrespondierende Farbtöne zuzuordnen. Es lassen sich dann nicht nur, wie oben beschrieben, einschlägige Textstellen beim Lesen eines Textes wiederfinden, sondern es besteht auch die Möglichkeit, fallorientierte Displays (vgl. Kapitel 10.5) anzufertigen, aus denen hervorgeht, an welchen Stellen eines Interviews der Proband aggressive Äußerungen macht und in welchem thematischen Kontext diese stehen. Die Farbzuordnungen sollte man von vornherein in Relation zu den geplanten Datenanalysen vornehmen, d.h. genau solche Differenzierungen in den Farben abbilden, die auch analytisch untersucht werden sollen. Wenn man die Farbzuordnungen sorgfältig vornimmt, wird die Arbeit mit der QDA-Software effektiver und die Zugänglichkeit zu den Daten entscheidend verbessert.
10.3 Visualisierung von Analyseergebnissen Generell werden in Visualisierungen von Analyseergebnissen Daten, Themen, Kategorien oder Konzepte in Grafiken und Diagramme übersetzt. Meist sind es in der Sozialforschung Ergebnisse von statistischen Analysen, die visualisiert werden. Es ist gängige Praxis, bei der Ergebnispräsentation quantitativer Studien Balken- und Kreisdiagramme zur Darstellung von univariaten Verteilungen zu benutzen. So werden beispielsweise bei einer Wahlanalyse die relativen Häufigkeiten der Stimmen der einzelnen Parteien in Kreisdiagrammen präsentiert: Werden die Parteien zudem noch nach ihrer wechselseitigen Affinität bzw. nach Koalitionsabsichten gruppiert, kann man der Grafik – anders als einer Tabelle – sofort Koalitionsmehrheiten entnehmen. Man muss nicht mehr rechnen und Zahlen vergleichen (Prozentsatz von Partei A + Prozentsatz von Partei B > 50%), sondern kann mittels der Kreisdarstellung sofort erfassen, ob auf eine bestimmte Konstellation mehr als die Hälfte des Kuchens entfällt.
182
Daten-Display und Visualisierung
In der qualitativen Methodik wird dem Thema Visualisierung bisher sogar noch weniger Aufmerksamkeit als in der quantitativen Methodik gewidmet. Im weit verbreiteten „Handbook of Qualitative Research“ von Denzin und Lincoln (2000) finden sich auf fast 1.100 Seiten nur äußerst wenige graphische Darstellungen und man sucht vergeblich nach einem Aufsatz, der sich systematisch mit dem Thema „Daten-Display und Visualisierung“ auseinandersetzen würde. Nur in zwei Artikeln lassen sich überhaupt Grafiken entdecken: Im Beitrag „Clinical Research“ von Miller und Crabtree wird ein Ablaufdiagramm des Forschungsprozesses, genauer gesagt der klinischen Forschung, präsentiert (ebd.: 618 f.). Solche, für die Darstellung der Forschung äußerst hilfreichen, Diagramme folgen einer Logik wie in der folgenden Abb. 62: Abläufe werden durch Verbindungslinien in eine Reihenfolge gebracht und Rückbezüge einzelner Forschungsschritte werden vermerkt. Dies erlaubt Leserinnen und Lesern ein wesentlich schnelleres Begreifen der Abläufe als bei einer verbalen Beschreibung des gleichen Sachverhalts. Dokumentation
Datensammlung
Datenbeschreibung
Datenorganisation
Abb. 62: Typisches Diagramm zur Darstellung eines Prozessverlaufs
Der zweite Beitrag im Denzin/Lincoln Handbuch, der nicht nur Text, sondern auch Grafiken enthält, stammt von Ryan und Bernard. In ihrem Aufsatz „Data Management and Analysis Methods“ (ebd.: 769 ff.) stellen sie Visualisierungen für vier verschiedene Aufgaben vor: 1. um Taxonomien darzustellen, z.B. eine Taxonomie der Techniken qualitativer Datenanalyse, die in etwas veränderter Form die Differenzierungen von Tesch (s.o. S. 18) aufgreift (ebd.: 771), 2. um ein ethnographisches Entscheidungsmodell (aus dem medizinischen Anwendungsfeld) zu schematisieren, 3. zur Erstellung sogenannter „Mental Maps“, einer Art Clusterbildung von ähnlichen Objekten (meist Wörtern), welche die Autoren folgen-
Visualisierung von Analyseergebnissen
183
dermaßen definieren: „Mental maps are visual displays of the similarities among items, whether or not those items are organized hierarchically.“ (ebd.: 773), 4. zur Erstellung von „Coded Maps“, in denen kognitive Modelle, die mittels einer sorgfältigen Textanalyse herausgearbeitet werden, in ihrem logischen Bezug abgebildet werden (ebd.: 777). Deutschsprachige Handbücher der qualitativen Methoden erweisen sich im Umgang mit Visualisierungen als ähnlich zurückhaltend. Im fast 1.000 Seiten umfassenden Handbuch „Qualitative Forschungsmethoden in der Erziehungswissenschaft“ von Friebertshäuser und Prengel (1997) finden sich immerhin zwei einschlägige Beiträge: Lutz u.a. stellen ein Verfahren zur Erstellung „narrativer Landkarten“ vor (ebd.: 414 ff.) und Carle nutzt in ihrem an der naturalistischen Forschungsstrategie orientierten Beitrag zur KindUmfeld-Analyse eine Reihe von graphischen Darstellungen, die den Mental Maps und Coded Maps von Ryan/Bernard ähneln (ebd.: 711 ff.). Im Handbuch „Qualitative Forschung“ von Flick u.a. findet sich im Grunde nur ein Beitrag, der Visualisierungen enthält, nämlich der Artikel von Udo Kelle „Computergestützte Analyse qualitativer Daten“ (in Flick u.a. 2005: 485 ff.) Nur selten haben sich qualitative Methodiker so intensiv mit dem Thema „Daten-Display und Visualisierung“ auseinandergesetzt wie Miles und Huberman in ihrem Buch „Qualitative data analysis“ (1994), das eine wahre Fundgrube für Visualisierungen der unterschiedlichsten Art ist. Man findet dort bspw. folgende Formen der Darstellung: x x x x x x
Flussdiagramme von Projektabläufen, Modelle der Interaktion von Datenerhebungen und –analysen im Forschungsprozess, schematische Darstellungen des konzeptuellen Rahmens von Forschungsprojekten („Conceptual Frameworks“), taxonomische Darstellungen von Begriffen und Abläufen (meist hierarchischer Art), tabellarische Fallübersichten hinsichtlich von ausgewählten Charakteristika, verschiedene Typen von Maps – sowohl mehr in Richtung „Mental Map“ orientierte Darstellungen von Ähnlichkeiten als auch „Concept Maps“ mit Beziehungsgeflechten zwischen Kategorien und Konzepten.
184
Daten-Display und Visualisierung
Für Miles und Huberman (1994) stellen Visualisierungen äußerst wirksame Formen von Datenkondensierung dar, d.h. hierdurch wird Information reduziert und komprimiert, so dass leichter Schlussfolgerungen gezogen werden können. Visualisierungen sind nach dem Verständnis von Miles und Huberman nicht nur ein Hilfsmittel der Analyse, sondern sie stellen im originären Sinne analytische Arbeit dar: „Data reduction is not something separate from analysis, it is part of the analysis. (...) The dictum ‚You are what you eat’ might be transposed to ‚You know what you display’“ (ebd.: 11). Nur folgerichtig ist es deshalb, wenn sie die Weiterentwicklung von DatenDisplay und Visualisierung für vordringlich halten: „Better displays are a major avenue to valid qualitative analysis“ (ebd.: 11).
10.4 Konzept Maps und Mapping Tools Bei wissenschaftlichen Vorträgen mit Präsentationssoftware wie Microsoft Powerpoint oder Apple Keynote zu arbeiten, ist heute eine Selbstverständlichkeit. Daten-Display und Visualisierungen haben deshalb nicht nur eine Funktion im Prozess der Datenanalyse selbst, sondern auch bei der Präsentation der Ergebnisse. Bei qualitativer Forschung füllt klassischerweise Text – häufig in Form von Zitaten – die Präsentationsfolien, zunehmend kommen aber auch graphische Darstellungen zum Einsatz. Miles/Huberman stellen eine kaum überschaubare Vielzahl von Grafiken vor: Ablaufdiagramme, Organigramme, Flow Charts, Planungsdiagramme, Netzwerkdiagramme, Konzept Maps, Mental Maps, Mind Maps und andere. Je nachdem, auf welche Ebene der Daten sich die Grafiken beziehen, sprechen sie von Within-Case Displays (fallorientierte Darstellungen) und Cross-Case Displays (fallvergleichende Darstellungen). Viele der von Miles und Huberman vorgestellten Grafiken lassen sich bereits mit einfacher Standardsoftware wie Word oder Powerpoint erstellen. Bessere Resultate erreicht man mit spezieller Grafiksoftware (z.B. ConceptDraw, MindManager etc.27) und schließlich bieten die von einigen QDA-Programmen offerierten Mapping Tools die Möglichkeit, Grafiken mit direktem Link zu den analysierten Daten zu erstellen.
27 Siehe www.conceptdraw.com und www.mindjet.com/de.
185
Konzept Maps und Mapping Tools
Eine weithin bekannte Form von konzeptuellen Maps stellen Mind Maps dar, die von ihren Erfindern als eine nahezu unbegrenzt einsetzbare Form von Visualisierung begriffen werden (vgl. Buzan 2004). Ursprünglich von Buzan als Hilfsmittel zum Festhalten von Ideen und Assoziationen erfunden, lassen sich Mind Maps auch sehr gut in der qualitativen Forschung einsetzen. „Ein Bild sagt mehr als 1.000 Worte“ heißt es bei Buzan, der die Mind Map-Technik als ein universell einsetzbares Denkwerkzeug zur allgemeinen Steigerung des geistigen Potenzials begreift (vgl. Buzan 2004: 113). Klassische Mind Maps sind weniger netzwerkorientiert, als vielmehr auf einen zentralen Punkt hin ausgerichtet, von dem aus mehr oder weniger verzweigte Äste abgehen, an denen möglicherweise wiederum kleinere Zweige und Blätter angeordnet sind. Auf diese Weise lassen sich verschiedene Dimensionen eines Begriffs ebenso gut darstellen wie Organigramme. Beispielsweise könnte man eine Mind Map „Bundesregierung“ erstellen, in der das Kanzleramt die Mitte darstellt und die einzelnen Ministerien die Äste. Als Zweige der Ministerien wären dann deren Abteilungen, untergeordneten Bundesämter und Institutionen denkbar. Charakteristisch für Mind Maps sind Darstellungen wie in Abb. 63, in der die verschiedenen Dimensionen des Begriffs „Typ“ dargestellt sind: Taxonomie, Typologie, System, Hierarchien Individuen Elemente
Empiriebezug
Klassifikation
Typ
Konstruktion Form/Modell Cast Gießform
Begriffsgeschichte
natürlich real, Realtypen ideal, Idealtypen Morphologie Dilthey Weber Parsons Biologie
Etymologie Merkmale
Deskription
Theorie, Heuristik
Hierarchie von Merkmalen Schlüsselmerkmale Variablen
Abb. 63: Mind Map zum Begriff „Typ“ (de Haan/Kuckartz/Rheingans 2000, S. 20)
Wer Mind Maps erstellen will, sollte am besten auf entsprechende Spezialsoftware wie MindManager oder Concept Draw zurückgreifen. Diese Tools bieten ein vielfältiges Funktionsspektrum und erstellen hochwertige präsen-
186
Daten-Dissplay und Visualisierung
tationsfähige Grafi fiken. Dem Vorteil V der hohen h Grafikkqualität steh ht allerdings der Nachteiil der fehlenden Verbind dung zu den Daten gegeenüber. s die in die d QDA-Sofftware integrrierten Mapp ping Tools – bspw. Hier sind MAXM Maps von MA AXQDA und der Network Editor von n ATLAS.ti – deutlich im m Vorteil. Siee sind nicht nur n in der Laage, Konzeptt Maps zu erstellen, sondern auch die im Projekt bestehenden n Beziehungeen zu visualiisieren. D se – hier eineer AnaWenn, wie in Abb. 64, die Kateegorien einer Diskursanaly d Diskursess über Eliteuuniversitäten – in einer Map M dargestelllt werlyse des den, so s sind diesee direkt mit der Datenbaasis verbundeen, z.B. mit CodeMemo os, denen maan die Definiition der Kaategorien entn nehmen kann n, aber auch mit m den Textsstellen, denen n die Kategorrien zugeordn net wurden. Förderung einzzelner Fachbereiche Auswahl der Studenten
Auswahlverfahren für die Unis
Zeitplaan Elite – das ist falscch
Finannzierung
Wettbewerb
Alternativkonzeptee Was ist einne Eliteuniversität?
Konzzept der SPD
Konzepte fürr Eliteuniversitäten? Ideeen?
Tabuwort Elite
Deutsche Tradition T
Begabunggsförderung
private Alternativkonzepte A
Abb. 644: Visuelle Darrstellung der Kategorien K eineer Diskursanalyyse
Konzeept Maps sin nd Netzwerkddarstellungen, die aus Kno oten (Punkteen) und Kanteen (Linien) bestehen. Dieese Bezeichnuungen stamm men aus der m mathematiscchen Grapheentheorie, diee sich mit deen Eigenschaaften von Grraphen befassst. Im Rahmen der qualittativen Datenanalyse kön nnen alle Eleemente eines Projektes P als Knoten auftrreten, also
187
Konzept Maps und Mapping Tools x x x x
Codes und Subcodes, Texte und Textgruppen, Memos und codierte Textstellen.
Ferner können auch freie Elemente in Konzept-Maps integriert werden, die keine Entsprechung in den Daten des Projektes haben. Die Knoten werden durch Kanten miteinander verbunden, wobei die Verbindungen gerichtet oder ungerichtet sein können. Gerichtete Verbindungen werden durch einen Pfeil kenntlich gemacht. Sie können etwa dazu dienen die Wirkungsrichtung kenntlich zu machen.
Knoten
Kante
Abb. 65: Knoten und Kanten eines Netzwerkes
Wie die Beispiele von Miles/Huberman deutlich machen, lassen sich Konzept Maps sehr vielfältig anwenden. Besonders interessant ist es, sie als analytisches Tool zu nutzen, d.h. mit ihrer Hilfe Beziehungen, die in den Daten bestehen, sichtbar zu machen. So lassen sich Elemente der Datenbasis auf einen Klick hin automatisch in die grafische Arbeitsfläche importieren, z.B. x x x x x x x
alle bei einem Text vorkommenden Codes alle Memos eines ausgewählten Textes alle Subkategorien eines Codes alle Memos, die mit einem bestimmten Code verknüpft sind Codes, die sich mit einem ausgewählten Code überschneiden codierte Segmente eines bestimmten Codes codierte Segmente eines bestimmten Textes
Maps, die auf diese Weise erstellt werden, erlauben einen anderen Blick auf das Datenmaterial und produzieren automatisch Netzwerkdarstellungen,
188
Daten-Dissplay und Visualisierung
die neeue Erkenntn nisse befördeern: Man erkkennt etwa die d Zentralittät von Codess, die Verknüüpfungen vo on Texten mit m Kategorieen und derglleichen mehr. T im Rahm men von QD DA Software ist die Deer Vorteil derr Mapping Tools volle Integration I d qualitativeen Datenbasiis, d.h. es han der ndelt sich niccht einfach nur n um eine bildliche b Darrstellung, die man mit Hilfe einer Graffiksoftware anfertigt, a son ndern man isst interaktiv mit den Datten verbundeen: Ein Klick auf ein Texttsymbol oderr Codesymbo ol der Map bringt b einen zzu dieT der sofo ort zur Einsiccht bereit steh ht. Konzept Mapping M Too ols wie sem Text, MAXM Maps offerierren zwar nich ht derart vielee Layout-Optionen wie sp pezielle Grafikksoftware, do och werden auch a in die QDA-Softwar Q re zunehmen nd Features integriert, i diee eine effektvvolle Präsentaation ermöglichen. Zum B Beispiel sehen MAXQDA und NVivo vor, die Elem mente einer Map M verschieedenen Ebeneen (Layer) zuuzuweisen, die bei einer sp päteren Präseentation nach heinander ein ngeblendet werden w könneen, so dass eine e recht auufwändige Vo ortragsgestalttung möglich h wird. MAXQDA bietet zudem die Möglichkeit, M ddie dargestelllten Objekte und Texte frei fr zu gestaltten oder auch h Photos odeer Grafiken zu z importiereen.
Abb. 666: Visualisierun ng von Zuordn nungen zu Kategorien und Unterkategorien U n
Visuelle Repräsentation von Zusammenhängen
189
Die vorstehende, mit MAXMaps erstellte Grafik aus dem Projekt „Qualitative Lehrevaluation“ (vgl. Kuckartz u.a. 2008) zeigt, bezogen auf die befragte Person „B3“ die Hauptkategorien „Kritik“, „Verbesserungswünsche“ und „Grundhaltung“ sowie die bei dieser Befragten codierten Subkategorien. Bei der Erstellung dieser Map könnte man die Subkategorien einer oder mehreren verschiedenen Ebenen zuweisen, so dass man sie später in der Präsentation nacheinander einblenden kann. Ferner erscheinen die Kategoriendefinitionen auf dem Bildschirm als Quickinfo, sobald man die Maus über die Kategoriensymbole bewegt. Schließlich ließe sich der Informationswert der Map noch erhöhen, indem man für die Subkategorien noch charakteristische Textsegmente in die Map einfügt.
10.5 Visuelle Repräsentation von Zusammenhängen Neben den Konzept Maps bieten QDA-Programme noch weitere Formen von Visualisierung an. Dabei ist es sinnvoll, in Anlehnung an Miles/Huberman zwischen fallorientierter und fallübergreifender Repräsentation von Zusammenhängen zu unterscheiden. Fallorientierte Visualisierungen stellen Elemente eines interessierenden Falls in tabellarischer Form oder als Grafik bzw. Diagramm dar. Bei einem Fall kann es sich sowohl um ein Individuum als auch um eine Organisation, Institution oder ein Setting handeln. Für die Arbeit mit einer QDA-Software bedeutet dies, dass es sich meistens um einen einzelnen Text handelt, welcher Objekt der Darstellung ist. Elemente der Darstellung können z.B. Codes, Subcodes, Memos oder codierte Textpassagen sein. Es ist sinnvoll, zwischen beschreibenden und erklärenden Displays zu unterscheiden. Beschreibende Displays geben bspw. einen Überblick über zeitliche Abläufe, in dem sie kritische Lebensereignisse in einer sequenziellen Anordnung oder die Rahmenbedingungen eines Phänomens in räumlicher Nähe und Ferne in einer konzentrischen Anordnung präsentieren. Zwei neuartige fallorientierte beschreibende Visualisierungen sind in MAXQDA integriert: 1. TextPortrait erzeugt ein Bild, das technisch ähnlich wie ein Fernsehbild aufgebaut wird, und die Codierungen eines Textes zeilenweise darstellt, 2. Codeliner generiert eine Art Partitur des ausgewählten Textes, in der die Codes als Notenlinien erscheinen und in der Sequenz des Interviews Codierungen ähnlich wie Noten abgebildet werden.
190
Daten-Display und Visualisierung
TextPortrait Dies ist ein neues Verfahren zur Visualisierung des Inhalts von Texten, das darauf aufbaut, dass inhaltliche Abschnitte eines Textes zuvor Kategorien zugewiesen wurden. Jede Kategorie ist mit einer Farbe assoziiert, wobei die Kategorienfarbe aus einer Auswahl von nahezu unbegrenzt vielen Farben gewählt werden kann. Der Inhalt des Dokuments wird so visualisiert, dass in der sequenziellen Reihenfolge der Absätze des Dokuments die Farbattribute in einer rechteckigen Grafik dargestellt werden. Diese besteht aus einer bestimmten Anzahl von farbigen Kacheln, die fortlaufend zeilenweise dargestellt werden.
Abb. 67: TextPortrait in MAXQDA
Beginnend mit der ersten Zeile und der Kachel links oben werden die Kacheln von links nach rechts mit einer Farbe „beschrieben“. Ist das Ende der ersten Zeile erreicht, wird – wie beim Zeilenrücklauf einer Schreibmaschine – in der folgenden zweiten Zeile vorne in der ersten Spalte fortgesetzt. Die normale Darstellungsweise sieht so aus, dass die Gesamtzahl der Kacheln auf die codierten Textabschnitte aufgeteilt wird, und zwar so, dass die Zahl der Kacheln, die ein Segment bzw. seine Farbe symbolisieren gemäß dem
191
Visuelle Repräsentation von Zusammenhängen
prozentualen Anteil der Größe des Segmentes an der Gesamtgröße aller codierten Segmentes bestimmt wird. Gibt es bspw. nur ein codiertes Segment, dem zwei Codes, nämlich rot und grün, zugewiesen wurden, so besteht, bei 30 mal 40 gleich 1.200 Kacheln, die Grafik aus 600 roten und 600 grünen Kacheln. Sind dem gleichen Segment drei Codes (rot, grün, magenta) zugewiesen, besteht die Grafik aus je 1200:3= 400 roten, grünen und magenta-farbigen Kacheln. TextPortrait kann die thematische Gestalt eines Textes in bildlicher Form zugänglich machen. Sind etwa in einem tiefenpsychologischen Interview bestimmten Emotionen korrespondierende Farbwerte zugewiesen, lassen sich die emotionale Grundstimmung ebenso wie besonders auffällige Textstellen auf einen Blick erfassen. Codeliner Codeliner ist eine Visualisierungsfunktion, die den Text Partitur ähnlich als sequenzielles Bild seiner Codierungen darstellt. Die X-Achse wird durch die Paragraphen (Absätze) des Textes gebildet. Ihre Beschriftung beginnt links immer mit der Zahl 1 (= 1. Absatz) und endet mit dem letzten Absatz des Textes. Die Y-Achse wird durch die Codes gebildet. In den Zellen der Grafik wird durch ein quadratisches Symbol angezeigt, ob der betreffende Code oder Subcode in einem Absatz vorkommt. Die Anzeige erfolgt in der Farbe, die dem Code zugeordnet wurde. Der Schwarz-Weiß-Druck dieses Buches kann diese Visualisierungsform nur unzureichend wiedergeben, so dass hier nur eine schematische Darstellung des Prinzips von Codeliner-Diagrammen abgebildet ist, bei der drei Codes und 13 Textabsätze dargestellt werden. Man erkennt, dass „Code 2“ den Textabschnitten 5 bis 8 und 11 zugewiesen ist und das sich dieser Code in Absatz 5 und 6 mit „Code 3“ überschneidet. Ein Klicken auf ein Symbol in den Zellen der Matrix bewirkt, dass genau diese Textstelle im Text Browser gelistet wird. 1 Code1
2
3
4
6
7
8
9
10
Code2 Code3
5
Abb. 68: Fallorientierte Visualisierung des Codeliners
11
12
13
192
Daten-Display und Visualisierung
Der Codeliner kann verwendet werden, um einen schnellen Überblick über die Themen eines Textes zu erhalten. Durch den interaktiven Charakter der Grafik kann jede interessante Textstelle mit einem Klick sofort angesprungen werden. Vor allem für explorative Analysen ist eine solche Darstellung hilfreich, denn Themenüberschneidungen wie auch die Nachbarschaft von Themen lassen sich so entdecken und dann näher inspizieren. Sehr nützlich ist der Codeliner bei der Auswertung von Fokusgruppen. In diesem Fall sollte man die verschiedenen Sprecher als Codes definieren und diese Codes den jeweiligen Abschnitten der Sprecher zuordnen. In der Grafik wird so die Sprecherabfolge sofort erkennbar. Ferner kann explorativ erfasst werden, welcher Sprecher bei welchem Thema eingreift (oder schweigt). Es lässt sich zudem unmittelbar erkennen, welche Effekte das Eingreifen der Moderation hat, ob sich nach dem Eingreifen die Themen und Sprecher ändern. QDA-Software bietet ebenfalls neuartige Möglichkeiten zur fallübergreifenden Visualisierung. Dies bedeutet, dass die in den Texten enthaltenen Muster und Strukturen in einer fallübergreifenden und fallvergleichenden Art und Weise repräsentiert werden. Für die Visualisierung von Codierungen stellen der Code-Matrix-Browser und der Code-Relation-Browser von MAXQDA solch neuartige Instrumente dar. Beide Tools stellen die in den Texten vorgenommenen Codierungen in einer grafischen Form dar. Dieser Matrix lässt sich mit einen Blick entnehmen, bei welchem Text zu welcher Kategorie viele bzw. wenige codierte Segmente zu finden sind. Die Visualisierung ist wesentlich leichter erfassbar und besser interpretierbar als dies bei einer Zahlenmatrix der Fall ist. Der Weg von den Daten zum Erkennen von Regelmäßigkeiten und Strukturen ist in Abb. 69 dargestellt. Ein fallübergreifendes Display von Codierungen beginnt zunächst mit einer Selektion, nämlich der Auswahl der Texte und der zu visualisierenden Codes und Subcodes. Der entscheidende Schritt ist die Umwandlung einer Tabelle in eine Grafik, aus der sich Regelmäßigkeiten besser als aus der in der Tabelle enthaltenen Informationsmenge erkennen lassen. Um die größte Zahl einer Tabelle zu identifizieren, müssen alle Zahlen der Tabelle gelesen und miteinander verglichen werden, während eine Visualisierung in der Form, dass die größte Zahl als größte Form und/oder in einer bestimmten Farbe dargestellt wird, das sofortige Erkennen ermöglicht.
193
Visuellee Repräsentation n von Zusamm menhängen Erkenntnis
Regelmäßigkeiten R
Visualisierung
Tabelle
Daten-Subsset
Dateen
Interpretatioon
Data Miningg
Transform mation
Vor-Veerarbeitung
Seelektion
Abb. 699: Ablaufschem ma – von den Daten D über die Visualisierung g zur Erkenntn nis
Für eiinen Vergleich der Texte hinsichtlich h ih hrer Codierungen können n Texte für eiin Cross-Casse Display ausgewählt a und u in der Darstellung D n nebeneinandder platziert werden, w so dass d der direkkte Vergleich von Texten in Bezug auf a Kategorieen und Kateegorienmusteer erleichtertt wird. Der CodeMatrixx-Browser vo on MAXQDA A erzeugt folggendes Diagrramm:
Abb. 700: Visualisierun ng der Codieru ungen pro Tex xt im Code-Mattrix-Browser
194
Daten-Display und Visualisierung
Die einzelnen Knoten der Matrix symbolisieren durch ihre Größe und durch ihre Farbe, wie viele Codierungen die Texte bei den entsprechenden Codes und Subcodes aufweisen. Die Spalten der Matrix werden durch die Texte gebildet: Je größer der Knoten in der entsprechenden Spalte ist, desto mehr codierte Segmente sind bei dem betreffenden Text zu dieser Kategorie bzw. Subkategorie vorhanden. In der obigen Abbildung weist beispielsweise der Text „Film1“ sehr viele Codierungen zum „Themenfeld Energie“ und in den Texten „UBild1“ und „UKomm1“ findet man zahlreiche „Verweise auf Forschungsarbeiten“. Wird die Maus über einen Knoten hinwegbewegt, erscheint die Information wie viele codierte Textstellen zu diesem Knoten vorhanden sind. Ein Doppelklick auf den Knoten bewirkt, dass alle zugehörigen Textsegmente in einer Zusammenstellung gelistet werden, d.h. die Matrix stellt nicht nur eine Übersicht über die Zahl der Codierungen pro Text dar, sondern sie enthält – zunächst nicht sichtbar – auch die Textstellen selbst, die sich quasi hinter den Knoten befinden. Eine andere Form der visuellen Repräsentation stellt die Zusammenhänge zwischen Codes dar, d.h. wie häufig sich Codes überschneiden, also gleichzeitig derselben Textstelle zugeordnet sind. Das Auffinden von Kategorienüberschneidungen würde mit handwerklichen Mitteln zu einer Zeit verschlingenden Angelegenheit. Mit Computerunterstützung lässt sich dies schnell und zuverlässig durchführen. Abb. 71 zeigt eine Darstellung des Code-Relations-Browsers von MAXQDA. In dieser Code-mal-Code Matrix, die symmetrisch ist wie eine Entfernungstabelle in einem Autoatlas, werden die wechselseitigen Überschneidungen ausgewählter Codes analysiert. In den einzelnen Zellen der Matrix stehen nicht die Zahlen der hierfür gefundenen Überschneidungen, sondern es werden Knoten unterschiedlicher Größe und Farbe dargestellt: Je größer der Knoten, desto häufiger finden sich Überschneidungen im Datenmaterial. Die Abbildung zeigt die Überschneidungen des Codes „intern fördernde Faktoren“ mit anderen Codes aus dem Projekt „Umweltkommunikation und lokale Agenda“, und zwar mit Textstellen, die Informationen für bestimmte im Projekt entwickelte Thesen beinhalten. Sobald die Maus über einen Knoten bewegt wird, erscheinen die zahlenmäßigen Informationen, so in der Abb. 71, dass 22 Überschneidungen zwischen dem Code „interne fördernde Faktoren“ und Textstellen zur These 7 „Vertreter Theorie“ existieren. Mit einem Doppelklick wird ein Text-Retrieval initiiert und die betreffenden 22 Textstellen werden zusammengestellt.
Praktiscche Hinweise füür MAXQDA
195
Abb. 711: Visualisierun ng des gleichzeitigen Vorkom mmens von Co odes
10.6 Praktische P Hinweise für f MAXQD DA Konzeept Maps lasssen sich mit dem d dafür en ntwickelten Tool T MAXMaaps erstellen. Es können n beliebig vieele Maps anggelegt, und gespeichert g w werden. G exp portiert und dann d in Textddateien oder P PowerMaps können als Grafikdatei nen eingefügtt werden. Im m Selektionsmodus kann n jedes point Präsentation XQDA (Textt, Code, Mem mo etc.) mit einem Dopp pelklick Elemeent von MAX bei gedrückter Alt--Taste in die Zeichenfläch he als Knoten n eingefügt w werden. ndungslinien zwischen deen Knoten – sowohl geriichtete als auuch unVerbin gerich htete – lassen sich im Linkk-Modus zeicchnen. Alle Elemente E kön nnen in einer Map M frei possitioniert werrden und die Symbole kön nnen nach W Wunsch verkleeinert oder veergrößert werrden. Jedes Element E kann n nur einmal in eine Map importiert i w werden, zusättzlich können n beliebig viiele freie Eleemente oder Beschriftunge B en eingefügt werden. Diee verschieden nen Maps, diie man im Fo ortgang der Auswertung A e erzeugt, müsssen nicht kon nsistent und widerspruch hsfrei sein, d.h. „Code A““ kann in ein ner Map als Ursache U von „Code B“ auftreten und in i einer andeeren Map nurr ungerichtett oder gar niccht mit „Codee B“ verbundden sein.
196
Daten-Display und Visualisierung
Jedes Objekt, das in die Zeichenfläche eingefügt wird, besteht aus einem Bild und einem Label (Namen). Zunächst wird beim Import von MAXQDA Objekten das MAXQDA Standardsymbol als Bild und die MAXQDA Benennung als Label übernommen, also bei einem Code das farbige Codesymbol aus der Liste der Codes und der Codename als Label. Sowohl das Label als auch das Bild können verändert werden. Als Bild kann eine Grafik, ein Photo o.ä. importiert werden. Das Label lässt sich ebenfalls verändern, Schriftfarbe, Schriftgröße u.a. können frei gewählt werden. Der Synchro-Modus synchronisiert die Symbole der Map mit dem MAXQDA Projekt. Im Falle eines Textsymbols heißt dies, dass beim Bewegen der Maus über das Symbol in der Map das zum Text gehörende Textmemo im Tooltipp erscheint und dass ein Doppelklick auf das Symbol den betreffenden Text im Text Browser von MAXQDA öffnet. Im Synchro-Modus bestehen zudem weitere funktionale Verbindungen zwischen der Map und der MAXQDA Datenbasis. So können etwa alle Memos eines Textes und alle oder ausgewählte Codes importiert werden. Für Codes besteht die Möglichkeit, überschneidende Codes oder mit diesen verlinkte Memos automatisch einzufügen. In allen Fällen werden automatisch Verbindungslinien zwischen dem Ausgangsobjekt und den importierten Elementen gezeichnet. Die in diesem Kapitel beschriebenen anderen fallübergreifenden Visualisisierungsformen sind ebenfalls im Menü „Visual Tools“ und als Symbole in der entsprechenden Toolbar verfügbar. Fallorientierte Visualisierungen können direkt beim betreffenden Text als Option gewählt werden. Bei den meisten der genannten Funktionen ist es sinnvoll, die Darstellung auf bestimmte Fälle und Codes einzugrenzen. Dies geschieht wie in MAXQDA üblich mittels Aktivierung.
Übungen 1. Arbeiten Sie weiterhin mit Ihrem Übungsprojekt und ordnen Sie den bisher definierten Codes unterschiedliche Farben zu. 2. Erstellen Sie eine neue Map und nennen Sie diese „Interview Hartel“. 3. Fügen Sie mittels Alt und Doppelklick den Text „interview2“ in die Arbeitsfläche der Map ein. Klicken Sie das Textsymbol in der Map mit der rechten Maustaste an und importieren Sie alle zugeordneten
Praktische Hinweise für MAXQDA
4.
5. 6. 7.
197
Codes dieses Textes. Ordnen Sie das Symbol für „interview2“ in der Mitte der Map an und arrangieren Sie die Codes sternförmig um das Textsymbol herum. Vergrößern Sie das Textsymbol und importieren Sie die Memos dieses Textes. Schalten Sie nun in den Synchronmodus und bewegen Sie die Maus über das Textsymbol und das Memosymbol. Was passiert? Doppelklicken Sie anschließend auf das Text- bzw. Memosymbol. Vergleichen Sie die TextPortraits der Texte „interview2“ und „interview4“. Was fällt Ihnen auf? Finden Sie mit Hilfe des Code-Matrix-Browsers heraus, in welchem Text die meisten Textstellen zum Code „Jugend“ zu finden sind. Sehen Sie sich die Textstellen an. Aktivieren Sie alle Codes einschließlich ihrer Subcodes. Sehen Sie mit Hilfe der Funktion „Codeliner“ die Sequenz der Codierungen für einige Texte an.
11 Praktisches Arbeiten mit Kategoriensystemen
11.1 Typen von Kategoriensystemen Die Definition von Kategorien und Subkategorien spielt beim Arbeiten mit QDA-Software eine zentrale Rolle für das Organisieren, Sortieren und spätere Wiederfinden von Textpassagen. Je nach Wissenschaftsdisziplin und Forschungsmethode findet man unterschiedliche Bezeichnungen für die Kategorien, z.B. Codes, Stichworte, Schlagworte, Keywords und dergleichen mehr. Dementsprechend spricht man dann von Kategoriensystem, Indexsystem, Schlagwortkatalog, Stichwortverzeichnis oder Codesystem. Faktisch steht hinter dieser Vielfalt von Begriffen immer ein ähnliches Instrumentarium, nämlich eine gewisse Anzahl von analytischen Kategorien. Kategorien können Phänomene auf sehr unterschiedlichen Abstraktionsebenen erfassen. Schon der Begriff Kategoriensystem kann in der Scientific Community der qualitativen Forscher nicht mit einhelliger Zustimmung rechnen, denn wer sich mehr am offenen Codieren der Grounded Theory orientiert oder auf das Emergieren von Kategorien aus dem Datenmaterial setzt, der vermutet hinter dem Begriff „System“ eine vom Forscher vorgenommene Vorab-Konstruktion von aufeinander bezogenen und gegeneinander abgegrenzten Kategorien, mit der er sich nur schwer anfreunden kann. Ob es sich aber bei den definierten Kategorien um ein System von Kategorien handelt, und wie die Eigenschaften des Systems definiert werden, ist Angelegenheit des Benutzers von QDA-Software. Die QDA-Programme schreiben hier ebenso wenig bestimmte Eigenschaften von Kategoriensystemen vor, wie dies Karteikästen tun. Es ist die Entscheidung des Benutzers, ob sich die Kategorien eines Kategoriensystems gegenseitig ausschließen sollen, ob die Überlappung von Kategorien erlaubt und ob das Kategoriensystem induktiv aus dem Textmaterial gebildet wird oder auf ein bereits vorhandenes und in der Forschung bewährtes Kategoriensystem zurückgegriffen wird. Formal lassen sich hinsichtlich der Struktur drei Arten
199
Typen von Kategoriensystemen
von Kategoriensystemen unterscheiden: lineare, hierarchische und netzwerkstrukturierte. Unter einem linearen Kategoriensystem ist eine sequentielle Liste von Codes zu verstehen, wie z.B. die folgenden thematischen Kategorien, die in einem Projekt über die Motivation von ehrenamtlichen Helfern benutzt wurden: „Anerkennungsaspekt“, „Beziehung zum Helfen“, „Beziehung zu den Klienten“, „Lebensphilosophie“, „Selbstreflexion“, „persönliche Kompetenzdefizite“, „Berufsorientierung“ und „Aufstiegsorientierung“. Die Kategorien können durchaus untereinander in Beziehung stehen, aber der Liste ist dies nicht anzusehen, dort erscheinen alle Kategorien gleichrangig zu sein, es gibt weder Subkategorien noch Verbindungen. Hierarchische Kategoriensysteme bestehen nicht nur aus einer solchen einfachen Liste von Codes, sondern setzen die Codes in Beziehung zueinander, und zwar dergestalt, dass einzelne Konzepte, wie etwa das Konstrukt „Einstellungen“, in Form von Ober- und Unterkategorien erfasst werden. Solche hierarchischen Kategoriensysteme bestehen dann aus Einzelteilen nach folgendem Muster: Einstellungen
positiv
Liebe
negativ
Sympathie
Hass
Antipathie
Das Arbeiten mit hierarchischen Kategoriensystemen ist in der qualitativen Sozialforschung und in der Inhaltsanalyse weit verbreitet. Die Dimensionalisierung von Codes, wie von Strauss beschrieben (vgl. Kap. 3.2), stellt ein solches hierarchisches Konzept von Codes dar. Wenn Codes induktiv aus dem Material gewonnen werden, ist ihre Bündelung zu Hauptkategorien oder Oberkategorien eine gängige Praxis (vgl. Mayring 2002: 116 ff.). Hierarchische Kategoriensysteme besitzen meist eine Baumstruktur. Sie haben sich in vielen Bereichen als sehr praktische Ordnungsschemata erwiesen. Der Windows Explorer, den fast jeder PC-Nutzer kennen dürfte, ist eine typische Anwendung dieses Prinzips hierarchischer Ordnungsstruktur. Auch bei den weithin bekannten Mind Maps (vgl. Buzan 2004) handelt es sich um solche Baumstrukturen.
200
Praktisches Arbeiten mit Kategoriensystemen
Netzwerkstrukturierte Kategoriensysteme unterscheiden sich von hierarchischen dadurch, dass Beziehungen zwischen den Kategorien nicht auf hierarchische Relationen beschränkt sind. Ein solches Kategoriensystem kann beispielsweise folgende Struktur besitzen: Entdramatisierung Verantwortungsdelegation
Umweltbewusstsein Krisendenken
Umweltengagierte
Umweltignoranz
Nachhaltigkeitsbewusstsein
Die Idee, Netzwerke zur Analyse von sozialwissenschaftlichen Texten in der Forschung zu verwenden, ist noch relativ neu. Der Vorteil eines netzwerkstrukturierten Kategoriensystems liegt in dem höheren Grad an Flexibilität, der Nachteil in der im Vergleich zu Baumstrukturen geringeren Übersichtlichkeit und dem Verlust der klaren Struktur.
11.2 Konstruktion von Kategoriensystemen: induktiv oder deduktiv? Über die verschiedenen Wege und Möglichkeiten, Kategoriensysteme in der Forschungspraxis aufzubauen und mit ihnen zu arbeiten, existiert nur wenig Literatur. In Kapitel 4 wurden verschiedene Modelle kategorienbasierter Analyse und Umsetzungsmöglichkeiten mit QDA-Software ausführlich vorgestellt. Im Folgenden soll noch einmal konkreter nachgefasst und an Forschungsbeispielen die Konstruktion von Kategoriensystemen und die potenzielle Unterstützung durch QDA-Software beleuchtet werden. Wie kann Software diesen Prozess der Konstruktion des Kategoriensystems unterstützen? Kann Sie das überhaupt? Generell gilt, dass es in den meisten Fällen wohl nützlicher sein dürfte, seine Daten zu ordnen und zu organisieren, als dies zu unterlassen. So wie auch in einem aufgeräumten
Konstruktion von Kategoriensystemen: induktiv oder deduktiv?
201
Zimmer die Chance, etwas wiederzufinden, größer ist als in einem unaufgeräumten. Die Aufräummetapher macht es verständlich, dass auch der Vorgang des Aufräumens und Organisierens selbst von großer Bedeutung sein kann. Nicht der Vergleich von zwei statischen Zuständen (aufgeräumt/ nicht aufgeräumt) ist es, der für das Organisieren spricht, sondern beim Aufräumen wird vieles entdeckt und wiedergefunden: Organisieren ist analysieren – das Codieren des Materials ist im Kontext sozialwissenschaftlicher Forschung eine Theorie produzierende Aktivität. Strauss formulierte „Codes are theoretical directives“. Aber, auch dies muss ehrlicherweise gesagt werden, das Organisieren und Codieren von Texten macht häufig ebenso wenig Spaß, wie das Aufräumen von Zimmern, es erscheint vielfach geradezu als das Gegenteil von Kreativität. Die Bildung von Kategorien kann induktiv, aus dem Material heraus, oder deduktiv, auf der Grundlage eines theoretischen Ansatzes, geschehen. Man kann gewissermaßen bereits vor dem Aufräumen eine Schublade mit einer Aufschrift (z.B. „Lego-Steine“) versehen oder erst beim Aufräumen eine solche Kategorie bilden. Das Beispiel zeigt, dass induktive und deduktive Kategorienbildung nicht so grundverschieden sind, wie dies in kontrovers geführten Diskussionen um Sinn oder Unsinn von Theoriebezogenheit von Forschung oder um qualitative oder quantitative Methoden oft erscheint. Die Kategorie „Lego-Steine“ wird nur dann aus dem Material emergieren, wenn bereits eine Vorab-Kategorisierung in den Köpfen, ein Vor“urteil“ im Sinne Gadamers28 vorhanden ist. In der Forschungspraxis geschieht die Kategorienbildung häufig so, dass deduktive und induktive Vorgehensweisen miteinander verzahnt werden. Dort, wo das Vorwissen oder das Detailwissen über den Gegenstand der Analyse nicht ausreicht, wird man immer zur induktiven Kategorienbildung neigen. Hingegen wird es in Feldern, in denen bereits eine Menge an gesichertem Wissen vorhanden ist, ratsam sein, sich auch darauf zu beziehen und nicht der Fiktion der Tabula rasa zu erliegen. Nach der schematisierenden Darstellung von Mayring (2003: 74 f.) lässt sich ein aus sechs Schritten bestehendes Ablaufmodell für die induktive Kategorienbildung skizzieren. In der Spalte „Beispiele bei Mayring“ der Abb. 72 sind Beispiele aus dem Projekt „Lehrerarbeitslosigkeit in den neuen Bundesländern“ angeführt. 28 Gadamer argumentiert, dass ohne solche „Vorurteile“, die quasi Folge der Enkulturation des Einzelnen sind, Urteile gar nicht möglich wären (vgl. de Haan/Kuckartz 1996: 204 f.).
202
Praktisches Arbeiten mit Kategoriensystemen
Schritte
Beispiele bei Mayring
1
Möglichst genaue Definition der Thematik der Kategorisierung
Kategorisiert wird die subjektive Bedeutung des Lehrerberufs, d.h. was dem Einzelnen der Lehrerberuf bedeutet, warum er ihn ergriffen hat und wie sein Selbstverständnis zu DDR-Zeiten aussah.
2
Vorgehensweise im Detail und Selektionsregel bestimmen
Die Interviewtexte werden in einer Zeile-für-Zeile-Analyse bearbeitet. Die Textstellen, die der obigen Fragestellung entsprechen, werden markiert und ihnen wird eine Auswertungskategorie zugeordnet.
3
Neubildung von Kategorien
Für relevante Textstellen werden die Kategorien nahe am Text gebildet, z.B. wird der Textstelle „Die Freude am Beruf entstand durch viele Erfolgserlebnisse“ der Kategorie „Freude am Lehrerberuf“ zugeordnet.
4
Neubildung von Kategorien oder Subsumption unter eine schon bestehende Kategorie
Für alle weiteren relevanten Textstellen ist zu entscheiden, ob neue Kategorien zu bilden sind oder ob eine bereits definierte Kategorie zugeordnet wird.
5
Bilden von Oberkategorien
Das so entstandene Set von Kategorien wird geordnet, und es werden Oberkategorien, in diesem Falle sieben, gebildet.
6
Gegebenenfalls Bildung von noch höher aggregierten Hauptkategorien
In einem weiteren Schritt werden die 7 Oberkategorien zu 2 Hauptkategorien „Lehrer aus Freude am Beruf“ und „Lehrer aus dem Engagement für den Sozialismus heraus“ zusammengefasst.
Abb. 72: Ablauf induktiver Kategorienbildung nach Mayring
In der Forschungspraxis wird man das induktive Codieren nur solange betreiben, bis das Kategoriensystem gesättigt ist, d.h. bis keine neuen Kategorien mehr auftauchen. In dem Augenblick, in dem man, wie Mayring in diesem Beispiel, Ober- bzw. Hauptkategorien gebildet hat, ist es natürlich zeitsparender, das verbleibende Datenmaterial nur im Hinblick auf diese Kategorien zu codieren. Stammen die Kategorien nicht aus dem Material selbst, so spricht man von deduktiven Kategorien. Damit ist noch wenig über die Herkunft der Kategorien ausgesagt. Sie können aus der Theorie abgeleitet sein, aus anderen Untersuchungen stammen oder auch direkt aus dem Interviewleitfaden übernommen worden sein. Im Grunde ist es auch in dem obigen Beispiel für induktive Kategorienbildung so, dass in dem Augenblick, in dem nach einem Durchgang durch eine Teilmenge des Materials (laut Mayring 10 bis 50%) das Kategoriensystem gesättigt erscheint und Oberkategorien gebildet werden, man es im Weiteren mit der Anwendung von deduktiven Kategorien zu tun hat, denn diese werden ja nicht mehr am restlichen Material neu entwickelt, sondern allenfalls weiterentwickelt.
203
Wie viele Kategorien sind notwendig?
11.3 Wie viele Kategorien sind notwendig? Noch in den 1990er Jahren fand man in dem seinerzeit viel beachteten Buch von Renata Tesch (1990) den Hinweis, normalerweise würde in der qualitativen Forschung mit Kategoriensystemen gearbeitet, die zwischen 20 und 50 Codewörter aufweisen. Vermutlich aufgrund der seither weitaus besseren computertechnischen Möglichkeiten, mit differenzierten Codesystemen zu arbeiten, hat sich der Umfang der Kategoriensysteme seither stark verändert. Selbst dann, wenn nur relativ wenig Codes gebildet werden, wird die Möglichkeit, Subkategorien zu definieren, meist in Anspruch genommen In einem Projekt aus der Schulforschung findet man z.B. eine Definition der Kategorie „Kooperation“ mit fünf Subkategorien, die jeweils verschiedene Kooperationspartner bezeichnen: Kooperation
Ämter Anwohner Lehrer Schüler Schulen
In einer Studie über Raucher arbeitet das Kategoriensystem mit drei hierarchisch gestaffelten Ebenen. Die Subkategorie Image besitzt hier sechs Subkategorien. Rauchen
Image
Vergnügen
Kontext
smart, cool
Effekte
soziales
Gründe
aufregend ungesund störend
Die Verwendung von Subkategorien hat zur Konsequenz, dass sich die Gesamtzahl der verwendeten Codes meist jenseits der von Tesch empfohlenen Zahl von 20 bis 50 bewegt. Die meisten Forschungsarbeiten operieren heute mit relativ umfangreichen Kategoriensystemen. Bei Auswertungen von
204
Praktisches Arbeiten mit Kategoriensystemen
Leitfadeninterviews findet man überwiegend Codesysteme, die auf zwei Ebenen ausdifferenziert sind. Die erste Ebene wird häufig vor der Auswertung des Materials festgelegt und folgt der Struktur des Leitfadens. Die zweite Ebene entsteht auf der Basis des Materials in Form induktiver Kategorien während des Auswertungsprozesses. Je mehr es zum Alltag gehört, QDA-Software einzusetzen, desto häufiger findet man komplexere Codesysteme, die mittlerweile auch oft auf drei Ebenen oder mehr ausdifferenziert sind. Die gestiegenen technischen Möglichkeiten verlocken natürlich dazu, mit der Konstruktion von Kategoriensystemen zu „spielen“. Kein Zweifel: Kategorien sind nützlich, sie lassen sich elektronisch einfach verändern und umorganisieren – aber dennoch: Das Codieren von Text kostet enorm viel Zeit und die zeitlichen und finanziellen Restriktionen im Forschungsprozess haben nicht selten zur Folge, dass nach dem Codieren und einem ersten interpretativen Durchlauf durch das codierte Material kaum noch Zeit verbleibt, um weitere komplexe Auswertungen in Angriff zu nehmen. Häufig gelangt man nicht viel weiter als zum „Initial Coding“, obwohl man doch ein so mächtiges System zum Explorieren der Daten besitzt. Deshalb sei der Rat gestattet, den ersten Codierungsprozess eher zügig zu bewältigen, um wieder in eine Phase der Exploration einzutreten bzw. solche Textabschnitte erneut zu studieren, die zu bestimmten Kombinationen von Kategorien gehören. Codieren ist nicht immer eine interessante und entdeckende Tätigkeit, sie kann im Forschungsalltag auch repetitiv und langweilig werden. Im Falle von Fakten-Codes etwa werden die Texte mehr oder weniger mechanisch auf bestimmte Merkmale hin durchgesehen und, falls diese gefunden werden, erfolgt die Zuordnung des entsprechenden Codes. Ähnlich verhält es sich, wenn bei einer Gruppendiskussion die Sprecher zu codieren sind oder bei einem Leitfadeninterview die zu den einzelnen Fragen gehörenden Segmente identifiziert und codiert werden. In diesen Fällen lassen sich die repetitiven Arbeiten aber vermeiden, wenn die Texte entsprechend vorbereitet werden, so dass die Möglichkeiten des automatischen Codierens genutzt werden können. Das Arbeiten mit dem Kategoriensystem und den codierten Segmenten nimmt im Prozess der computergestützten Analyse qualitativer Daten großen Raum ein. Vor allem dann, wenn das Kategoriensystem sehr umfangreich ist und vielleicht mehr als hundert Codes umfasst, ist es notwendig,
Einfaches Kategoriensystem in einer leitfadenorientierten Interviewstudie
205
über entsprechende, schnell und einfach zu handhabende Managementfunktionen zu verfügen. Dazu gehören solche Funktionen wie: 1. problemloses Löschen und Definieren von neuen Kategorien 2. leichtes Umcodieren von Segmenten, d.h. verändern der Segmentgrenzen oder Zuordnung eines anderen Codes 3. direktes Anspringen des gewünschten Codes in der Liste der Codes 4. Ausblenden von Subkategorien, um einen besseren Überblick über das Kategoriensystem zu gewinnen 5. Druckausgabe des Kategoriensystems 6. Angaben über die Häufigkeiten der Kategorienzuordnung Von eminenter Wichtigkeit ist die Fähigkeit des QDA-Programms, globale Modifikationen des Kategoriensystems vornehmen zu können, d.h. wenn Veränderungen am Kategoriensystem vorgenommen werden, dann sollten sich diese automatisch auf alle hiermit codierten Segmente auswirken. Will man etwa induktiv definierte Kategorien zu Hauptkategorien zusammenfassen, so kommt es darauf an, dass auch alle entsprechend codierten Segmente automatisch umcodiert werden. In den folgenden Abschnitten werden Beispiele für die Anwendung von deduktiven Kategorien gegeben. In Kapitel 11.4 geht es um Kategorienbildung in direkter Relation zu einem Leitfaden, in Kapitel 11.5 um ein Kategoriensystem, das auf den kategorialen Rahmen einer Argumentationstheorie aufbaut, und in Kapitel 11.6 um die Leitbildanalyse.
11.4 Einfaches Kategoriensystem in einer leitfadenorientierten Interviewstudie Schauf/Schünemann (1995) führten eine Studie zur Jugendsozialarbeit/Jugendberufshilfe durch und untersuchten die institutionellen Rahmenbedingungen und die Probleme von Jugendlichen in der Übergangsphase zwischen Schule und Ausbildung. In diesem Kontext führten sie offene Gruppeninterviews und Experteninterviews mit Personen, die unmittelbar mit dieser Gruppe von Jugendlichen befasst sind, u.a. mit Lehrern, Ausbildern, Sozialarbeitern in der Jugendarbeit und Mitarbeitern der Jugendgerichtshilfe. Für die Interviews wurde ein Leitfaden entwickelt, der unter anderem folgende Fragen enthielt: Bereitet Schule ausreichend für den „Start ins Le-
206
Praktisches Arbeiten mit Kategoriensystemen
ben“ vor? Welche Voraussetzungen sind wichtig, um auf dem Arbeitsmarkt erfolgreich bestehen zu können? Welche Schlüsselqualifikationen sind heute erwünscht? Ist die Berufsberatung zufriedenstellend? Gibt es genügend Ausbildungsplatzangebote in Maßnahmen? Wie werden die bestehenden Einrichtungen der Jugendhilfe eingeschätzt? Sind Folgen der Einigung Europas im Ausbildungsbereich bereits spürbar? Von diesem Leitfaden ausgehend wurde ein Kategoriensystem (Abb. 73) gebildet und die Interviewtexte wurden in systematischer Weise codiert: Kategorie
Subkategorie
Abbrecher
außerbetrieblich betrieblich
Ausbildung
außerbetrieblich betrieblich Vergleichbarkeit Übernahme 1. Arbeitsmarkt
Berufsberatung
Fortbildung Kritik Zeitpunkt
Europa
Austausch Projektfinanzierung
Institutionen
Informationsstand Kooperation Öffentlichkeitsarbeit
.... Perspektive der Arbeit
Berufsbilder Handlungsspielraum
Schule
Arbeitslehre Praktikum
Abb. 73: Kategoriensystem einer Jugendhilfe-Studie (Auszug)
Im Laufe des Codierungsprozesses wurden einige Kategorien präziser definiert, bei anderen Kategorien entschied man sich, diese zusammenzufassen, und einige Kategorien wurden noch zusätzlich in das Kategorienschema aufgenommen. Diese Vorgehensweise ist relativ typisch für eine bestimmte Art von qualitativer Studie, nämlich für Auftragsstudien mit einem relativ genau vorgegebenen Frageraster. Wenn man schon mit einem Leitfaden arbeitet, bietet es sich an, Kategorien in direkter Anlehnung an diesen zu definieren. Da die Codierung des Materials arbeitsaufwändig ist, werden im Auswertungsprozess in der Regel nur relativ geringe Veränderungen am
Kategoriensystem einer Argumentationsanalyse
207
Kategoriensystem vorgenommen. Stattdessen setzt man Schwerpunkte, ggf. auch unter Berücksichtigung von Wünschen des Auftraggebers, und nimmt für einige ausgewählte Fragestellungen eine vertiefte Auswertung mit erneutem Materialdurchlauf vor. In diesem Forschungsprojekt wurden dazu Bewertungen des codierten Materials in Form von Fallvariablen vorgenommen (vgl. Schauf/Schünemann 1995), beispielsweise um zu erfassen, welcher Art die geäußerte Kritik an der Schule ist und wie das Vorhandensein von Schlüsselqualifikationen bei den Schulabgängern beurteilt wird. Es wurde z.B. eine dreistufige Variable „Schulkritik“ mit folgender Definition gebildet: „Welche Art von Kritik wird von den Experten zum Themenbereich Schule geäußert?“ (Variablenwerte: 0=keine Aussage, 1=keine Kritik, 2=allgemeine Kritik, 3=konkrete, konstruktive Kritik). Diese erneute Klassifikation von Teilen des Datenmaterials macht es einfach, solche Fragen wie „Welche Befragtengruppe äußert die stärkste Kritik an der Schule“ präzise zu beantworten. Das Kategoriensystem reflektiert die Forschungsfragen in diesem Feld der Jugendhilfeforschung. Es ist eher praktisch als theoretisch ausgerichtet und in dieser Hinsicht durchaus charakteristisch für substanzwissenschaftlich orientierte Auftragsforschung.
11.5 Kategoriensystem einer Argumentationsanalyse Ein anderer Typ von Kategoriensystem nimmt ähnlich wie das Codierparadigma von Strauss seinen Ausgang von einem formalen Schema der Systematisierung, das theoretische Bezüge aufweist. Bei Glaser und Strauss ist es ein allgemeines Handlungsmodell, das als heuristischer Rahmen gesetzt wird und aufgrund dessen sechs formale Kategorien wie z.B. „Phänomene, auf die sich das Handeln richtet“, „Kausale Bedingungen für diese Phänomene“ definiert werden (vgl. Kap. 4.1). Geschieht die erste Codierung der Texte auf der Basis eines solchen formalen Kategoriensystems, so erreicht der Analyseprozess von vornherein eine abstraktere Ebene. Eine vergleichbare Vorgehensweise wählten Bukova und Hellstern (1995) für die Analyse von Argumentationen, einer in den Sozialwissenschaften häufig vorkommenden Aufgabenstellung. Die traditionelle quantitative Inhaltsanalyse offeriert nur Verfahren, die mehr an einfachen Textmerkmalen – Vorkommen von Wörtern, Auszählen von Themen, Ver-
208
Praktisches Arbeiten mit Kategoriensystemen
gleich von Wortbeständen – orientiert sind als an komplizierteren Problemen der Semantik. Eine methodisch kontrollierte Analyse von Argumenten und Argumentationen, die den Ansprüchen einer Argumentationstheorie gerecht wird, ist mit diesen Verfahren schwerlich möglich. Nun existieren nicht nur die Methoden traditioneller Inhaltsanalyse, die man für die Analyse von Argumentationen heranziehen könnte, sondern im Bereich der Philologien haben hermeneutisch orientierte Verfahren eine lange Tradition. Solche hermeneutisch orientierten Methoden sind auch in den Sozialwissenschaften verbreitet, beispielsweise die an Goffman (2000) orientierte „Rahmenanalyse“, doch mangelt es bislang an methodischer Präzision (vgl. König 2004). In einem Projekt zur Analyse der Hochschulreformdebatte unternahmen Bukova und Hellstern den Versuch, an eine aus dem Bereich der Sprachwissenschaften stammende Argumentationstheorie anzuknüpfen und die dort beschriebenen Verfahren in ein Analyseinstrumentarium umzusetzen. Angesetzt wurde an der Argumentationstheorie Toulmins (1975), von der einige Grundelemente hier zum besseren Verständnis des gebildeten Kategoriensystems kurz beschrieben werden. Toulmin zufolge ist die Voraussetzung für eine Argumentation, dass ein Sachverhalt kollektiv fraglich ist und sozialer Druck in Richtung auf eine Lösung besteht. „Eine Argumentation ist der Versuch, etwas kollektiv Fragliches (Quaestio) mit Hilfe des kollektiv Geltenden (Argument) in kollektiv Geltendes (Antwort auf Quaestio) zu überführen“ (Bukova/Hellstern 1995: 3).
Kollektiv Geltendes wird von allen Mitgliedern der Sozietät anerkannt. Hierzu gehören faktische und normative Aussagen sowie solche, die besagen, wie von welchen Aussagen zu welchen anderen Aussagen übergegangen werden kann (Schließregeln). Bei Toulmin findet man dazu folgendes allgemeine Modell: Datum: Schließregel: Schluss:
Harry was born in London A man born in Britain will generally be a British citizen Presumably Harry is a British citizen
Die Quaestio, d.h. die Definition des Tatbestandes, ist bereits von entscheidender Bedeutung. Als Beispiel mag man sich den geplanten Bau eines Behindertenheims vor Augen führen und zwei unterschiedliche Problembeschreibungen, zum einen „Erwartbare Wertminderung von Anwohnergrundstücken“ und zum anderen „Integration von Behinderten in die Ge-
Kategoriensystem einer Argumentationsanalyse
209
sellschaft“. Die Konstitution eines Problems als Problem entscheidet zugleich darüber, welche argumentativen Problemzugänge als relevant zu gelten haben. Für die Akteure stellt sich die Aufgabe, kollektiv geltende Aussagen kohärent zu verknüpfen, so dass gewissermaßen logisch zwingend eine den Interessen des Akteurs entsprechende Antwort gefolgert werden muss. Unterscheiden lassen sich induktive, deduktive und metaphorische Schließregeln, wobei die metaphorischen Schließregeln (Analogiebeweise) die größte Überzeugungskraft besitzen. Besonders häufig werden Stereotype („Hausbesitzer sind Spekulanten“) und soziale Topoi („Das BAFöG reicht nicht zum Leben“) als Metaphern benutzt. Codewortsystem für eine Argumentationsanalyse nach Bukova/Hellstern 1. Titel 2. Themen 3. Fragestellungen 4. Instanzen Selbstexplikation Kontaktierung Reaktion auf Beiträge Reaktion auf Reaktionen 5. Teilaufgaben einer Argumentation Quaestio, welche Quaestio, warum Aussagen begründet Stereotyp Begründung Topos Begründung Unmetaphorisch Begründung unbegründet Stereotyp Topos Unmetaphorisch Aussagen verknüpfen Bezug zur Opposition Schließregel Antwort auf Quaestio
Abb. 74: Codesystem für eine Argumentationsanalyse nach Bukova/Hellstern
Aufgrund eines solchen argumentationstheoretischen Rahmens lässt sich ein Kategoriensystem konstruieren (Abb. 74). Für jeden Text werden die Punkte 1 bis 5 nacheinander durchlaufen, deshalb empfiehlt es sich auch, das Kategoriensystem nicht alphabetisch, sondern in der Reihenfolge dieser fünf Punkte zu organisieren.
210
Praktisches Arbeiten mit Kategoriensystemen
Wird das gesamte Textmaterial, das hier aus Diskussionsbeiträgen zur Hochschulreform besteht, mit diesen Kategorien codiert, so lässt sich die prozessuale Entwicklung eines Diskurses gut nachzeichnen. Bei der Analyse kann zwischen einer Makroebene und einer Mikroebene differenziert werden: Die zeitliche Entwicklung des gesamten Diskurses, die Verteilung der Themen über die Zeit (auch in quantitativer Hinsicht) sowie die Akteure stellen die Makroebene der Auswertung dar. Die Mikroebene befasst sich mit den vorgebrachten Argumentationen und Argumenten im Einzelnen, d.h. mit deren Abfolge und Relationen in den einzelnen Diskussionsbeiträgen. Es lassen sich folgende Forschungsfragen stellen: auf der Ebene der Argumente: x Welche Quaestiones dominieren? Wann? x Welche Beziehungen haben die Argumente zu den Quaestiones? x Das kollektiv Geltende: Was wird wann wie eingebracht? Welche Verschiebungen finden statt? Was wird zum kollektiv Geltenden in diesem Prozess? auf der Ebene der Akteure: x Wer greift wann in die Diskussion ein? x Ändern sich die Akteure? x Ändern sich ihre Argumente (Betrachtung einzelner Akteure im Zeitverlauf)? auf der Ebene der Schließregeln: x Welche Schließregeln werden verwendet? x Welche Art der Beweisführung herrscht vor, eher induktive oder eher deduktive? x Welche metaphorischen Argumentationen, Stereotype und Topoi tauchen auf?
11.6 Kategoriensystem in einer Leitbildanalyse Die Leitbildanalyse ist ein Beispiel für eine Arbeitsweise mit Kategorien, bei der bereits zu Beginn der Analyse ein formales Systematisierungsschema existiert. Als ein analytischer Rahmen für empirisch-sozialwissenschaftliche Fragestellungen wurde die Leitbildanalyse Anfang der 1990er-Jahre am Wissenschaftszentrum Berlin (WZB) entwickelt (vgl. Marz/Dierkes 1992,
211
Kategoriensystem in einer Leitbildanalyse
Marz 1993) und seither vor allem in der Technikgeneseforschung und der sozialwissenschaftlichen Umweltforschung eingesetzt (vgl. Giesel 2007). Das Kategorienschema wird im Laufe der Analyse in induktiver Weise weiter ausgearbeitet, dimensionalisiert und inhaltlich gefüllt. Die Leitbildanalyse gibt der Datenauswertung eine Zielrichtung vor – nämlich die Identifikation und möglichst genaue Beschreibung von Leitbildern – und sie offeriert ähnlich wie das Codierparadigma der Grounded Theory eine vorab festgelegte Anzahl von Perspektiven, die bei der Betrachtung des Datenmaterials einzunehmen sind. Der Kern eines Leitbildes lässt sich wie folgt schematisieren.
Leitbild
t1
Machbarkeitsprojektion
t0
Machbares
Wunschprojektion
Basislinie
Wünschbares
Abb. 75: Ein Leitbild als Projektion von Wünschbarem und Machbarem
Im Projekt „Umweltkommunikation und Lokale Agenda 21“ wurden Akteure der Agenda 21-Initiativen des kommunalen Umfeldes mit Hilfe eines Interviewleitfadens befragt, der inhaltlich auf die Dimensionen der Leitbildanalyse hin konzipiert war (vgl. de Haan/Kuckartz/Rheingans 2000). Der an die sorgfältige Lektüre des transkribierten Materials anschließende Analysegang ist in der folgenden Abbildung schematisiert.
212
Praktissches Arbeiten mit m Kategorienssystemen
Abb. 766: Analysephassen bei der com mputergestütztten Leitbildanaalyse
In derr Phase der Grobcodierung werden die Interviews systematisch s durchgearbeeitet. Auf derr Basis einer Zeile-für-Zeil Z le Analyse weerden Textpaassagen entsprrechend dem m aus der Tecchnikgenesefo orschung stam mmenden K Konzept der Leeitbildanalysee (vgl. Marz/Dierkes 19922) verschiedeenen Leitbildddimensionen n zugeordnet. Ferner werdden weitere, direkt d mit den n Themen dees Leitfadenss assoziierte Kategorien, K w beispielsw wie weise die Kattegorie „Erfo olgskriterien““, codiert. In der Phase III, der Dimenssionalisierung, stehen s die Zuusammensch hau, die pretation undd die Systemaatisierung derr unter den verschiedenen v n LeitInterp bilddim mensionen codierten c Texxtsegmente im m Zentrum. Zu den Leittbilddimensio onen werden n induktiv, d. h. in den Daten gegründeete, Subdimen nsionen gebildet. Beispielsw weise zur Kattegorie „Macchbarkeitsprojjektionen“ diie Subnsionen „öko onomisch“, „ökologisch“ und „sozial““, je nachdem m, auf dimen welchee Bereiche siich die geäußßerten Mach hbarkeitsvorsttellungen bezziehen. Die so oziale Dimen nsion wird daann weiter un ntergliedert in n „Gesellschaaftliche Vision nen“, „Partiziipation/Polittik“, „Öffentllichkeit“, „LA A 21-Initiativve“ und „Umggestaltung dess lokalen Leb bensraums“.
Kategoriensystem in einer Leitbildanalyse
213
Diese neu gebildeten Subcodes werden in der Phase III, der Feincodierung, auf das Material angewendet, d.h. alle in Phase I codierten Segmente werden neu zugeordnet. Mit diesem zweistufigen Codierprozess sind alle notwendigen Vorarbeiten geleistet: Gegründet auf den inhaltlich zugeordneten Textsegmenten kann eine Zusammenstellung und systematische Interpretation des Materials erfolgen und ein Forschungsbericht geschrieben werden, der den Kategorien des Leitbildkonzepts folgt (Phase IV). Dabei können auch quantitative Aspekte eine Rolle spielen, denn es ist durchaus von Belang, ob 20 von 30 Agenda-Akteuren Erfolgskriterien definieren, die sich selbstbezüglich auf die Entwicklung der Agenda Initiativen beziehen, oder ob dies nur in wenigen Fällen zu registrieren ist. Die Differenz zu quantitativ argumentierender Forschung ist aber, dass es nicht auf das Berichten der bloßen Zahlen bzw. von Prozentanteilen ankommt, sondern auf die Wörter und Argumentationen, mit denen die Frage der „Erfolgskriterien“ von den Befragten thematisiert wird. QDA-Software kann die fallbezogenen Code-Häufigkeiten der verschiedenen Dimensionen und Subdimensionen direkt zur Verfügung stellen, so dass leicht unterschieden werden kann, ob es sich um ein von vielen Befragten genanntes Kriterium (das dann zu Recht als ein „typischerweise von Akteuren genanntes Kriterium“ bezeichnet werden kann) oder lediglich um eine randständige Einzelmeinung handelt. Zur Verdeutlichung stehen jeweils Zitate zur Verfügung, deren „Repräsentativität“ kontrollierbar und nachprüfbar ist. Einer bloß episodischen Evidenz, wie sie qualitativer Analyse häufig vorgeworfen wird, kann so wirksam vorgebeugt werden. Im Auswertungsprozess erweist sich eine Visualisierung der vorgenommenen Codierungen, wie sie in MAXQDA in Form des Code-MatrixBrowser verfügbar ist, als sehr hilfreich. Auf einen Blick lässt sich ersehen, welche Personen zu welchen Themen viele bzw. nur wenige Codierungen aufweisen. In Abbildung 2 werden die Spalten durch die Personen und die Zeilen durch die Codes bzw. Subcodes gebildet. Die Größe der Knoten in den einzelnen Zellen der Matrix entspricht der relativen Häufigkeit der entsprechenden Codierungen. Im Text „koep5“ ist beispielsweise sehr viel über „interne fördernde Faktoren“ die Rede, während darüber in den Texten „koep2“ und „koep4“ kaum etwas zu finden ist. Die visuelle Darstellung ist vor allem für die Exploration sehr nützlich und unterstützt eine systematische Analyse des Datenmaterials – so lassen sich recht einfach ausgewählte Personen zum Vergleich nebeneinander anordnen. Für weiterge-
214
Praktisches Arbeiten mit Kategoriensystemen
hende statistische Analysen kann eine Matrix Texte mal Codes erstellt werden, die die Zahlen der jeweils vorhandenen Textsegmente enthält. Diese Matrix ist Ausgangspunkt für die in Phase V vorgenommene Klassifikation. In dieser Phase geht es darum, die Strukturen und Zusammenhänge zwischen Kategorien zu ermitteln. Dazu dient einerseits die Interpretation und systematische Suche nach dem gleichzeitigen Vorkommen von Kategorien und die Identifikation spezifischer Muster und Konfigurationen.
Abb. 77: Visualisierung der codierten Segmente pro Text
11.7 Praktische Hinweise für MAXQDA Im hierarchisch organisierten Codesystem von MAXQDA können die Codes beliebig arrangiert, gruppiert und modifiziert werden. Codes können zu Subkategorien anderer Codes werden und es lassen sich jederzeit neue Obercodes definieren. Vom Verschieben der Codes in der Struktur des Ka-
215
Praktische Hinweise für MAXQDA
tegoriensystems ist das Verschieben der codierten Segmente zu unterscheiden, denn hierbei geht es gewissermaßen um die Verschiebung der Inhalte der Schubladen. Codes fusionieren Oft kommt es vor, dass man zwei Codes z.B. solche, die in der Phase des freien Codierens entstanden sind, zusammenfassen will. Bei Codes der höchsten Hierarchieebene gibt es dann die unten skizzierte Situation. Die Ausgangssituation
Das Ziel
Code A Code A+B Code B
Abb. 78: Codes fusionieren
Bildlich gesprochen sollen die in den Schubladen A und B befindlichen Karteikarten in eine Schublade zusammengeführt werden. Oberkategorie für zwei Codes einfügen Wenn man zu Beginn der Textauswertung im Stile des freien Codierens eine Vielzahl von Codes definiert hat, entsteht bei der weiteren Arbeit mit den Codes häufig der Wunsch, eine neue Oberkategorie zu bilden, unter der die Codes subsumiert werden. Auch hier handelt es sich um eine Veränderung der Struktur des Codesystems, bei der die zu einem Code vorhandenen Karteikarten gewissermaßen en bloc verschoben werden – eine Aufgabe, die mit QDA-Software problemlos zu realisieren ist.
216
Praktisches Arbeiten mit Kategoriensystemen
Die Ausgangssituation
Das Ziel
Code A
Code A
Code B
Code B Code Neu
Code C
Code D
Code D
Code C
Abb. 79: Obercode für zwei Codes definieren
Codes ausdifferenzieren Eine ebenfalls häufig eintretende Situation ist die, dass man eine Kategorie des Codesystems ähnlich wie bei der oben skizzierten Leitbildanalyse ausdifferenzieren möchte. So wurde im Projekt „Umweltkommunikation“ die Kategorie „Wunschprojektion/sozial“ definiert, um zu erfassen, welche auf den sozialen Bereich zielenden Wunschvorstellungen die Akteure der Initiativen explizit oder implizit äußern. In den Interviewtexten wurden die entsprechenden Textpassagen in der Phase der Grobcodierung codiert. Während der Analyse erschien es nun – wie oben skizziert – sinnvoll, verschiedene Arten von sozialen Wunschvorstellungen (abgekürzt als WP/sozial) zu unterscheiden. Die folgende Abbildung schematisiert den Ablauf für den Fall, dass drei Subkategorien unterschieden werden sollen. Die Ausgangssituation
Das Ziel Ges. Visionen
Codewort WP/sozial
Codewort WB/sozial
Öffentlichkeit LA 21 Ini selbst
Abb. 80: Codes ausdifferenzieren
Bei der Ausdifferenzierung von Codes ist zunächst dafür zu sorgen, dass sich alle betreffenden Segmente in der „Liste der Codings“ hintereinander
Praktische Hinweise für MAXQDA
217
befinden, so dass die Neuzuordnungen nacheinander vorgenommen werden können. Die Liste wird beginnend mit dem ersten Segment abgearbeitet: Man entscheidet jeweils, zu welcher der neuen Subkategorien dieses Segment zugeordnet werden soll und wählt den zutreffenden Code in der Liste der Codes aus. Gleichzeitig mit dieser Feincodierung besteht die Möglichkeit, die Relevanz von Segmenten zu markieren. MAXQDA erlaubt es, mit jedem codierten Textsegment eine Gewichtungsvariable („Relevanz-Score“) zu assoziieren. Es lassen sich dann für den späteren Forschungsbericht unschwer jene Textstellen markieren, die geradezu prototypisch für eine bestimmte Kategorie sind. Der Wert des Relevanz-Scores – in MAXQDA kann ein Wert zwischen 0 und 100 eingestellt werden – bringt dann zum Ausdruck, inwieweit die Leitbilddimension bei einem bestimmten Textsegment zutrifft.
Übungen 1. Definieren Sie einen Code „Agenda“ und suchen Sie im „Interview1“ nach Textpassagen, in denen die befragte Person über die Agenda 21 spricht. Formulieren Sie freie Codes nahe am Text. Definieren Sie die Codes als Subkategorie von „Agenda“ und codieren Sie die Textpassagen entsprechend. 2. Versehen Sie die Codes mit farblichen Unterscheidungsmerkmalen: „Agenda“ –> rot; „Einstellungen/politisch“ –> gelb; „Verhalten“ – > blau; „Intentionen“ –> rot. 3. Die Kategorie „Agenda“ kann man eigentlich als einen Subcode zu „Einstellungen/politisch“ sehen. Deshalb ändern Sie die Position des Codes entsprechend. 4. Nun haben Sie sich doch entschlossen, auf eine Subkategorie „Agenda“ zu verzichten und wollen die vorhandenen Codierungen von „Agenda“ der Subkategorie „Einstellungen/politisch“ zuordnen. Löschen Sie danach die leere Subkategorie „Agenda“. 5. Ihr Kategoriensystem scheint nun fertig zu sein und sie möchten es exportieren um es z.B. in einer E-Mail zu verschicken. Exportieren Sie Ihr Kategoriensystem in eine Datei mit Namen „Codes“ und sehen Sie sich anschließend die Datei an.
12 Wortbasierte Analysefunktionen
12.1 Wortlisten und Diktionäre Neben der Grounded Theory ist die traditionelle, quantitativ orientierte Inhaltsanalyse die zweite sozialwissenschaftliche Forschungsmethode, die sich sehr intensiv mit dem Thema Kategorienbildung auseinandersetzt. Die Methode der quantitativen Inhaltsanalyse hat eine lange Tradition, die (zumindest) bis zu Max Weber zurückreicht, der schon 1910 auf dem ersten deutschen Soziologentag ein auf die Inhaltsanalyse aufbauendes Forschungsprogramm forderte: „...und wir werden nun, deutlich gesprochen, ganz banausisch anzufangen haben damit, zu messen, mit der Schere und mit dem Zirkel, wie sich denn der Inhalt der Zeitungen in quantitativer Hinsicht verschoben hat im Lauf der letzten Generation...“ (Weber 1911: 52)
Den Sinn und Zweck der klassischen Inhaltsanalyse, die im Zuge der interdisziplinären amerikanischen Kommunikationsforschung der 1940er Jahre methodisch ausgearbeitet wurde, hat Berelson, einer der Pioniere der Methode, prägnant beschrieben. Ihm zufolge ist die Inhaltsanalyse eine Untersuchungstechnik, die der „objektiven, systematischen, und quantitativen Beschreibung des manifesten Inhaltes von Mitteilungen aller Art dient“ (Berelson 1952). Zuvor festgelegte Merkmale von Kommunikationsinhalten sollen systematisch und objektiv erfasst werden. Kategorien haben in dieser, an der Forschungslogik des Kritischen Rationalismus orientierten Methode den Status von Variablen, welche durch Indikatoren operationalisiert werden. Die in den Hypothesen enthaltenen Begriffe werden als Variablen formuliert, operationalisiert und gemessen. Variablenzusammenhänge lassen sich dann quantitativ-statistisch überprüfen. Das Kategoriensystem ist in dieser Konzeption ein Messinstrument mit angebbaren Gütekriterien.
Wortlisten und Diktionäre
219
Eine Vielzahl von inhaltsanalytischen Verfahren ist entwickelt worden: Themenanalyse, Frequenzanalyse, Kontingenzanalyse, Bewertungsanalyse und andere spezielle Methoden mehr.29 Klaus Merten hat die einzelnen Verfahren im Detail beschrieben (vgl. Merten 1995). Viele der vorgestellten Techniken werden aber in der Forschungspraxis nur selten eingesetzt. Von größerem Verbreitungsgrad sind Verfahren der Themenanalyse bzw. Frequenzanalyse, die sich für die Häufigkeit von Worten und Wortkombinationen im Text bzw. in Texten interessieren (vgl. Früh 2004: 135 ff.). Die berechneten Häufigkeitstabellen können etwa dazu dienen, verschiedene Texte zu vergleichen und aus der Differenz von Wortbeständen inhaltliche und theoretische Schlüsse zu ziehen. Ferner lassen sich Konkordanzen und Wortassoziationen ermitteln. Seit den 1960er Jahren bestehen Bemühungen, die traditionelle Inhaltsanalyse als Computerunterstützte Inhaltsanalyse (CUI) zu betreiben. Entsprechende Software wurde entwickelt, zunächst für den Großrechner (z.B. das Programm General Inquirer), seit den 1980er-Jahren auch für den PC, z.B. Textpack (vgl. Züll/Mohler/Geis 1991), Intext (vgl. Klein 1997), Oxford Concordance und eine Reihe weiterer Programme.30 Im Rahmen der Auswertung von qualitativen Daten sind Techniken der computergestützten quantitativen Inhaltsanalyse bisher kaum beachtet worden. Dabei hat die von ihren Protagonisten „CUI“ (Züll/Mohler 1992) genannte Form der computerunterstützten Inhaltsanalyse durchaus einiges an Anregungen zu bieten, denn dort sind Techniken entwickelt worden, die einer explorativen, heuristisch angelegten Forschung wertvolle Dienste erweisen können. Wortlisten, Diktionäre und diktionärsbasierte Codierung können auch bei der Auswertung qualitativen Materials gewinnbringend eingesetzt werden. Zudem hat sich die CUI schon seit längerer Zeit mit Fragen und Problemen befasst, die zunehmend auch im Bereich der qualitativen Datenanalyse diskutiert werden, beispielsweise mit der Frage der Qualität von Codierungen, der Organisation des Codierens im Team und der Übereinstimmung von Codierern. Das Verfahren der CUI wird in vielen Diszi29 Überblicke über die verschiedenen Verfahren bzw. Darstellungen des Ablaufs der klassischen Inhaltsanalyse geben Merten (1995), Früh (2004) und Rössler (2005). Eine Vielzahl von Beispielen aus der Forschungspraxis sind enthalten in Bos/Tarnai (1989 und 1996), Züll/Mohler (1992) und Wirth/Lauf (2001). 30 Einen guten Überblick hierzu geben Alexa/Züll (1999). Links auf die Software findet man auf der von Harald Klein unterhaltenen Webseite www.textanalysis.info.
220
Wortbasierte Analysefunktionen
plinen verwendet, nicht nur in der Kommunikationswissenschaft und Publizistik, sondern auch in den Sozialwissenschaften, der Psychologie und der Medienforschung (Züll/Mohler 1992). In der Tradition von Lasswell, Berelson u.a. befasst sich die Inhaltsanalyse also nicht mit Interpretationen und nicht mit dem latenten Inhalt von Texten (vgl. Merten 1995, Wirth/Lauf 2001). Eine Schlüsselposition besitzen die Kategorien, die den Kern der inhaltsanalytischen Methode darstellen. Die computergestützte Variante CUI arbeitet mit Wortlisten, Wortindex und Diktionär. Eine Wortliste ist eine Zusammenstellung aller in einem Text oder einer Gruppen von Texten vorkommenden Wörter. Dabei ist ein Wort für die Inhaltsanalyse jede Abfolge von Zeichen, die sich zwischen zwei Leerzeichen bzw. abzutrennenden Zeichen (bspw. Komma, Semikolon, Doppelpunkt, Punkt etc.) befindet. Wortlisten können als alphabetische Wortliste oder als Häufigkeitswortliste sortiert sein. Spezielle Wortlisten stellen die so genannten Stopp-Listen und Go-Listen dar. Während Stopp-Listen solche Wörter enthalten, die bei der Auswertung nicht interessieren (z.B. bestimmte und unbestimmte Artikel, Pronomina, Konjunktionen, Zahlwörter Konjunktionen, nicht sinntragende Wörter), bestehen Go-Listen umgekehrt aus einer Sammlung von Worten, die im Fokus der Aufmerksamkeit liegen und auf die sich die Auswertung beschränken soll. Ein Wortindex ist eine Liste von Wörtern und ihren Referenzen, d.h. der Stellen, wo sie im Text bzw. in den Texten vorkommen. Ein Diktionär oder Wörterbuch besteht aus Kategorien und Wörtern bzw. Zeichenketten, die diesen Kategorien zugeordnet sind. Einer Kategorie „Europa“ können bspw. die Wörter „England“, „Italien“, „Deutschland“, „Belgien“, „Niederlande“, „Schweiz“ und „Spanien“ zugeordnet werden. Diktionäre sind im Prinzip projektunabhängig, sie können theoretisch immer wieder verwendet werden.
12.2 Das Prinzip diktionärsbasierter Inhaltsanalyse Startpunkt der CUI ist ein Textkorpus, bestehend aus Einzeltexten. Diese können ggf. in Abschnitte unterteilt sein, wie ein Buch in verschiedene Kapitel gegliedert ist. Diese Abschnitte werden auch als Texteinheiten oder Codiereinheiten bezeichnet. Angenommen man habe in einer schriftlichen
221
Das Prinzip diktionärsbasierter Inhaltsanalyse
Befragung drei offene Fragen gestellt, so liegt es nahe, die Daten so aufzubereiten, dass man drei Texteinheiten (Antwort auf Frage 1, Antwort auf Frage 2, Antwort auf Frage 3) definiert. Das Diktionär ist Grundlage für die Vercodung der Texte. Es besteht einerseits aus den Kategorien und andererseits aus Wörtern, Wortstämmen oder Mehrwortkombinationen, die diesen Kategorien zugeordnet sind – so wie im unten abgebildeten Beispiel die Wörter „Belgien“ und „Niederlande“ zur Kategorie „Europa“ gehören. Texte
Wörterbuch
Kategorien
- Text 1 - Text 2 -… - Text n
Aalräucherei .. Belgien .. .. Niederlande .. .. .. Zylinderstifte
1 Asien 2 Nordamerika 3 Europa 4 Australien 5 Südamerika
Codierfunktion Durchsucht alle Texte daraufhin, ob Wörter des Diktionärs vorkommen und hält die Häufigkeit des Vorkommens fest
Ergebnistabelle eine Matrix Texteinheiten x Kategorien
Text 1 Text 2 Text n
Asien 3 .. 8
Kategorien Nordamerika Europa 31 11 .. .. 9 41
Australien 8 .. 2
Statistische Analyse der Ergebnistabelle
Abb. 81: Schema einer diktionärsbasierten Inhaltsanalyse
Unter Codieren wird dabei etwas anderes als bei der qualitativen Datenanalyse verstanden. Es geht nicht um die Zuordnung einer Kategorie zu einer einschlägigen Textpassage, sondern um einen Vorgang der Klassifikati-
222
Wortbasierte Analysefunktionen
on und anschließendes Zählen der Kategorienhäufigkeiten. Dabei stellt das Wörterbuch die Basis des Codierens in der CUI dar. Der eigentliche Codiervorgang verläuft sequentiell und beginnt mit dem ersten Wort des ersten Textes. Wann immer ein Wort gefunden wird, das im Wörterbuch enthalten ist, wird der Zähler der betreffenden Kategorie um 1 erhöht. Wenn der gesamte Text durchgearbeitet ist, wird eine Statistik für diesen Text erstellt, die folgende Informationen enthält: Anzahl der insgesamt codierten Worte, Anzahl der codierten Stellen für Kategorie 1, Anzahl der codierten Stellen für Kategorie 2 usw.31 Nach diesem Schema wird auch mit den übrigen Texten verfahren, so dass am Ende eine Tabelle Texte mal Kategorien als Ergebnis produziert wird. Diese Ergebnistabelle, die pro Text die Häufigkeit der Kategorien enthält, kann anschließend statistisch analysiert werden.
12.3 CUI und qualitative Datenanalyse Wozu können die Funktionen der quantitativen Inhaltsanalyse nun im Rahmen der qualitativen Datenanalyse dienen? Im Vordergrund stehen eindeutig Heuristik und Exploration, denn die auf Interpretation und intellektuelle Codierung abstellende qualitative Analyse ist nur in Ausnahmefällen an der automatischen Vercodung interessiert. Das gilt insbesondere für eine Vercodung, die auf Wortbasis stattfindet und insofern weit hinter den Stand menschlichen Fremdverstehens zurückfällt. In Ansätzen wie der Grounded Theory wird, wie in Kap. 4 ausgeführt, mit einem völlig anderen Begriff von Codieren gearbeitet. Während die Inhaltsanalyse unter Codieren einen Klassifikationsvorgang unter eine präzise beschriebene Kategorie versteht, betrachtet die Grounded Theory das Codieren als einen Vorgang der Generierung von etwas Neuem, nämlich Konzepten, Hypothesen und Theorien. Einerseits werden gewissermaßen theoriebasierte Daten erzeugt, indem Textstellen bzw. präziser gesagt Wörter in ein theoretisch legitimiertes Kategoriensystem übersetzt werden, andererseits wird datenbasierte Theorie generiert. Die Perspektiven sind also geradezu gegenläufig. Während die Inhaltsanalyse gespannt auf die Entwicklung von Algorithmen wartet, die in
31 Eine andere Form der Aufzeichnung der Codierergebnisse besteht darin, die Codiervorgänge in ihrer Abfolge festzuhalten, so dass Sequenzanalysen der Kategorien ermöglicht werden.
Praktische Hinweise für MAXQDA
223
der Lage sind, Sprache automatisch zu erkennen und zu verstehen, lässt diese Perspektive die qualitative Position völlig kalt, denn bei der Generierung von Theorien kann so etwas mitnichten helfen, denn es ist nicht zu erwarten, dass Maschinen den Menschen im Theoretisieren übertreffen und selbst wenn es so wäre, bliebe es wahrscheinlich unbemerkt. Qualitative Forschung arbeitet primär mit Sprache und diese besteht aus Wörtern und so hat die qualitative Analyse sehr wohl ein Interesse daran, zu eruieren, welche Wörter von wem benutzt werden, wie häufig Wörter in bestimmten Texten auftauchen und in welchem Kontext sie stehen. Alphabetische Wortlisten und Häufigkeitswortlisten für einzelne Texte oder für speziell zusammengestellte Textgruppen sind für die qualitative Analyse also durchaus interessant. Ferner existieren auch Formen von verbalen Daten, deren Merkmale durchaus eine automatische Vercodung erlauben. Wir fragen beispielsweise in einer Befragung von PädagogikstudentInnen in welchen Arbeitsfeldern und mit welchem Klientel sie gerne nach der Diplomprüfung arbeiten würden. Forschungsmethodisch ist es vorzuziehen diese Frage offen zu stellen, anstatt eine lange Liste von möglichen Antworten vorzugeben. Hier kann es – vor allem dann, wenn man viele Personen befragt – zeitsparend und vor allem reliabler sein, wenn man automatisch vercodet.
12.4 Praktische Hinweise für MAXQDA MAXDictio, ein Zusatzmodul von MAXQDA, erschließt die Techniken der CUI für die qualitative Datenanalyse. Es lassen sich Wortbestände von Texten ermitteln und miteinander vergleichen, Worthäufigkeiten auszählen, Gruppenvergleiche vornehmen sowie Go-Listen und Stopp-Listen erstellen und bei der Auszählung des Materials benutzen. Zu jedem Wort einer Wortliste – sei sie nun alphabetisch oder nach Häufigkeit sortiert – lässt sich ein Wortindex anfertigen mit der Möglichkeit, von jedem Indexeintrag zu der zugrunde liegenden Textstelle zu springen. Dies ermöglicht es, sogleich zu ermitteln, in welchem Kontext bestimmte Wörter im Datenkorpus auftauchen. Für die wortbasierte Codierung und Häufigkeitsauszählung können Diktionäre mit beliebig vielen Kategorien aufgebaut werden. Die Suchbegriffe können direkt aus einer Wortliste in das Wörterbuch transferiert werden.
224
Wortbasierte Analysefunktionen
Die diktionärsbasierte Codierung kann auf bestimmte Texte oder auf die mit einem bestimmten Code versehenen Segmente beschränkt werden. So lassen sich beispielsweise die Sprecher einer Gruppendiskussion getrennt auswerten oder wie das folgende Beispiel zeigt nur Antworttexte auf ausgewählte offene Fragen bearbeiten. Die Resultate einer diktionärsbasierten Inhaltsanalyse können mittels einer Validierungsdatei, die den gesamten Text und die vorgenommenen Zuordnungen enthält, überprüft werden. Die Ergebnistabelle lässt sich zum Zwecke der statistischen Analyse exportieren. Forschungsbeispiel In einer regelmäßig durchgeführten Befragung von StudienanfängerInnen werden u.a. offene Fragen zu den Motiven für die Auswahl des Studienfachs und Studienorts und zur gewünschten späteren Berufstätigkeit gestellt. Solche offenen Fragen gibt man am besten in einer strukturierten Form ein (vgl. Kap. 2.7), so dass die Antworten der Befragten von vornherein bestimmten Fragen zugeordnet sind, genauer gesagt wird ihnen eine Fragenummer oder ein inhaltliches Kürzel zugeordnet. Die diktionärsbasierte Inhaltsanalyse der Antworten zum Thema „angestrebte spätere Berufstätigkeit“ durchläuft nun folgende Schritte. Schritt 1: Erstellen einer Häufigkeitswortliste Alle Texte der Befragten und die Kategorie „Spätere berufliche Tätigkeit“ werden aktiviert. Das Resultat ist eine vollständige Liste aller auf diese Frage gegebenen Antworten. Für die Gesamtheit der Antworten wird eine Häufigkeitswortliste erstellt. Dabei erweist sich eine Stopp-Liste, die eine Sammlung von nicht inhaltstragenden Worten enthält, als sehr nützlich, weil die Häufigkeitswortliste dann nur noch die für eine Codierung interessanten Wörter beinhaltet. Mit Hilfe dieser bereinigten Häufigkeitsliste lässt sich das Diktionär im nächsten Schritt erstellen, ohne dass man Suchbegriffe eintippen muss. Schritt 2: Konstruktion des Diktionärs Wir definieren nun die Hauptkategorien anhand der klassischen pädagogischen Berufsfelder: Erwachsenenbildung, Sozialarbeit/Sozialpädagogik, Sonderpädagogik und Therapie. Ferner definieren wir eine Kategorie „weiß noch nicht“. Am besten bearbeitet man nun die sortierte Häufigkeitswort-
Praktiscche Hinweise füür MAXQDA
225
liste in n systematisccher Weise: Man M beginnt mit m den am häufigsten h vo orkommendeen Worten und ordnet siee den Katego orien zu. Bei Worten, dereen Zuordnuung zweifelhaaft ist, wird ein Wortindexx erstellt und die entsprech henden Textsttellen werden n zunächst geenauer inspizziert. Unter Umständen U m müssen, um ein ndeutige Zuo ordnungen zuu erreichen, Mehrwort-Su M uchbegriffe deefiniert werdeen. Schrittt 3: Probeweisess Codieren und Überprüfen derr Codierungen d diktionärsbasierte Cod dierung durch hgeführt, dabei wird Probeeweise wird die jeder Text T Wort füür Wort durcchgegangen. Es wird einee Protokolldaatei erstellt, in der alle Zuordnungen Z n von Katego orien eingetraagen werden.. Diese Validierungsddatei“) sollte sorgfältig kontrolliert k w werden, Protokkolldatei („V ersten ns hinsichtlich h von mögliccherweise vorrgenommeneen Codierunggen, die man nicht n intendiert hat, und zweitens hin nsichtlich deer Suchbegrifffe, die noch in i das Diktio onär aufgenom mmen werdeen müssen, weil w sie bislangg keine Codierung auslöseen. Die Schriitte 2 und 3 werden in zirkulärer z Weeise so d bis eine zufrrieden stellend de Codierungg erreicht ist. lange durchlaufen, Schrittt 4: Ausführen der automatischhen Codierung und Export deer Ergebnistabeelle Nun erfolgt e der endgültige Duurchlauf durcch die Texte mit automaatischer Codierung. Beginn nend mit dem m ersten Text werden alle sequentiell bearbeiW die im m Diktionär gefunden werd den, bewirkeen, dass der H Häufigtet. Wörter, keitseiintrag in der betreffenden n Kategorie um 1 erhöh ht wird. Es en ntsteht eine Tabelle T wie diie in Abb. 822 wiedergegeb bene, die zu SPSS S oder ein ner anderen Statistik-Soft ftware exportiiert werden kann. k
Abb. 822: Resultat dess Codiervorgan ngs
226
Wortbasierte Analysefunktionen
Übungen 1. Für alle folgenden Übungen benötigen Sie die Datei „Bibel.mx3“ (Download: www.maxqda.de/downloads/Bibel-NT.mx3). 2. Öffnen Sie diese Datei und aktivieren Sie den Text „Lukas“. 3. Erstellen Sie eine Tabelle der Worthäufigkeiten nur für diesen Text. Welche Wörter tauchen am häufigsten im Text „Lukas“ auf? 4. Sortieren Sie die Tabelle alphabetisch (aufsteigend, absteigend). 5. Sortieren Sie erneut nach Häufigkeit. Befördern Sie die bestimmten und unbestimmten Artikel und nicht sinntragende Worte in die Stopp-Liste. Speichern Sie die Stopp-Liste unter dem Namen „stoppliste1“. 6. Erstellen Sie einen Wortindex für „Petrus“. Wie oft wird Petrus im Lukas-Evangelium erwähnt? Sehen Sie sich einige Fundstellen durch Anklicken an. 7. Starten Sie die Diktionärsfunktion. Speichern Sie das leere Diktionär unter dem Namen „dictionaer1“. Definieren Sie jetzt die Diktionärskategorien „Natur”, „Böses”, „Frauen” und „Engel” und speichern Sie das Diktionär als „dictio2“. 8. Definieren Sie zur Kategorie „Frauen” den Suchbegriff „Frau” und zur Kategorie „Engel” den Suchbegriff „Engel”. 9. Begrenzen Sie die Zählung der Worthäufigkeiten auf die Diktionärsworte und zählen Sie den Text Lukas aus. Welche Ergebnisse haben Sie? 10. Zählen Sie nun erneut alle Wörter des Textes „Lukas“ aus, d.h. nicht nur die Diktionärsworte. Blättern Sie durch das Zählergebnis der Worthäufigkeiten. Wenn Sie auf Wörter stoßen, die Indikatoren für eine der vier Kategorien sind, transferieren Sie diese in das Diktionär. Führen Sie dies für mindestens 20 Wörter durch. 11. Begrenzen Sie die Zählung der Worthäufigkeiten jetzt auf die Diktionärsworte und zählen Sie den Text „Lukas“ aus. Welche Ergebnisse haben Sie?
13 Kombination mit statistischen Verfahren: Ähnlichkeiten, Muster und Typologien
13.1 Über Klassifikationsverfahren Das folgende Kapitel stellt einige Möglichkeiten vor, wie quantitative Verfahren sinnvoll in den Prozess der Analyse qualitativer Daten zu integrieren sind. Es ist vermutlich für jene, die mit statistischen Verfahren wenig vertraut sind, nicht leicht zu lesen. Intention ist es, zu zeigen, dass die Kombination von qualitativen und quantitativen Methoden mit Gewinn praktiziert werden kann. Auch die qualitative Datenanalyse verfolgt das Ziel, Muster in den Daten zu entdecken und spricht in diesem Zusammenhang von Typen, Orientierungsmustern u. Ä.. Die Technik der Kategorisierung und Codierung der Daten ist eine Vorgehensweise, die zunächst Textstellen de-kontextualisiert und die Texte zergliedert. Um im Verlauf der Analyse zu Typen und Orientierungsmustern zu gelangen, bedarf es einer Re-Aggregation. Qualitative Daten sind, weit mehr noch als quantitative, hoch komplex, und angesichts der Fülle des Materials ist es außerordentlich schwierig, Muster in den Daten zu finden, die diesen auch tatsächlich gerecht werden. Man mag sich an die Aussagen von Alfred Schütz erinnern, dass Menschen auch in ihrem Alltagsleben mit Hilfe von Abstraktionen und Typisierungen operieren und infolgedessen Prozeduren der Klassifikation und der Typenbildung unterschwellig immer am Werke sind, auch dann, wenn keine expliziten Zählvorgänge im mathematischen Sinne in Erscheinung treten. Wenn der Umfang der zu verarbeitenden Daten die eigenen Wahrnehmungskapazitäten übersteigt, läuft man Gefahr, vorschnell Typisierungen vorzunehmen und das Datenmaterial anschließend nur noch in bloß affirmativer Weise mit Blick auf die Bestätigung der mehr intuitiv vorgenommenen Typisierungen zu selektieren. Nun ist die Suche nach Mustern in den Daten eine ganz besondere Stärke von Computern. Hat man eine solche klassifizierende Vorarbeit wie die Codierung von Textsegmenten bereits geleistet, so lassen sich
228
Kombination mit statistischen Verfahren: Ähnlichkeiten, Muster und Typologien
diese Fähigkeiten gewinnbringend nutzen. Dies gilt insbesondere dann, wenn man Fallvariablen zur Bewertung des Datenmaterials definiert hat und diese nun auf Koinzidenzen und Kovariationen hin untersuchen will. Zu diesem Zwecke kann man auf eine Reihe von statistischen Verfahren zur Entdeckung von komplexen Mustern zurückgreifen. Diese reichen von der eher deskriptiven Konfigurationsfrequenzanalyse bis hin zur Faktorenund Clusteranalyse, der Latent Class Analyse und log-linearen Modellen. Der Einsatz dieser statistischen Verfahren ist aber nicht immer problemlos möglich, denn zum einen stellt die meist nur relativ geringe Populationsgröße von qualitativen Studien ein Problem dar, zum anderen das Skalenniveau der vorgenommenen Codierungen, denn dieses ist in den meisten Fällen dichotom oder nominal und erreicht nur selten metrisches Niveau. Besonders geeignet für diesen Datentyp sind deshalb Verfahren wie die Konfigurationsfrequenzanalyse und die Clusteranalyse, die nicht von besonderen Verteilungsannahmen ausgehen und die in der Lage sind, auch mit nicht-metrischen Daten komplexe Muster zu identifizieren. Der Grundgedanke lässt sich am Beispiel der Vorgehensweise der Konfigurationsfrequenzanalyse (KFA) erläutern. Zweck der KFA ist es, typische Kombinationen, d.h. überzufällig häufige oder seltene Kombinationen herauszufinden. Angenommen, man habe in einer Studie aus der Schulforschung drei dichotome Merkmale definiert: a) Unterrichtsform (Frontal/Gruppe), b) Schülerurteil über Lehrerverhalten (freundlich/unfreundlich), c) Schülerzufriedenheit (gern/ungern zur Schule), so ergeben sich 8 Konfigurationen: 1
Unterricht frontal
Lehrer freundlich
gern zur Schule
2
Unterricht frontal
Lehrer unfreundlich
gern zur Schule
3
Unterricht frontal
Lehrer freundlich
ungern zur Schule
4
Unterricht frontal
Lehrer unfreundlich
ungern zur Schule
5
Unterricht Gruppe
Lehrer freundlich
gern zur Schule
6
Unterricht Gruppe
Lehrer unfreundlich
gern zur Schule
7
Unterricht Gruppe
Lehrer freundlich
ungern zur Schule
8
Unterricht Gruppe
Lehrer unfreundlich
ungern zur Schule
Anhand der Daten lässt sich überprüfen, welche der acht Kombinationsmöglichkeiten überhaupt vorkommen. Ferner lassen sich – und hier wird die Angelegenheit statistisch – Erwartungswerte von Konfigurationen berechnen, und zwar in ähnlicher Weise wie die Berechnung von Chi-Quadrat bei der Analyse von Kontingenztabellen, nämlich als Produkt der Wahr-
Über Klassifikationsverfahren
229
scheinlichkeiten der einzelnen Kategorien, d.h. ihrer Randverteilungen. Bei einer Stichprobengröße von N=80 und einer Gleichverteilung der drei Merkmale – z.B. 40-mal Frontalunterricht, 40-mal Gruppenunterricht – würde man für jede Konfiguration N=10 Personen erwarten. Zeigt sich nun, dass bestimmte Konfigurationen, z.B. „Gruppenunterricht, Lehrer freundlich, Schüler gehen gerne zur Schule“ häufiger als zehnmal, andere hingegen seltener oder gar nicht vorkommen, so kann man dies als das Vorliegen eines Musters interpretieren. Es liegt nahe, die empirischen Häufigkeiten einer Konstellation mit den erwarteten Häufigkeiten zu vergleichen und einen entsprechenden Test, z.B. den Chi-Quadrat-Test, durchzuführen. Ist das Textmaterial einmal codiert, dann bereitet es nur wenig zusätzliche Mühe, auf diese formalisierte Weise nach Mustern zu suchen. So vorzugehen, verstößt auch nicht gegen Ansprüche einer interpretativen Analyse, denn das statistische Verfahren wird hier lediglich als Hilfsmittel bei einem bestimmten Analyseschritt eingesetzt. Anschließend können und müssen die entdeckten Muster wieder interpretativ gefüllt werden. In Bezug auf die Mustererkennung kann man zwischen einer variablenorientierten und einer fallorientierten Vorgehensweise unterscheiden. Die variablenorientierte Vorgehensweise wird bei quantitativen Forschungen bevorzugt angewandt. Gesucht wird nach Konstellationen von Merkmalen, d.h. danach, welche Merkmale miteinander kovariieren und korrelieren. Die fallorientierte Vorgehensweise ist hingegen in der Mainstream SurveyForschung, mit Ausnahme der Lebensstilforschung, nur selten anzutreffen. Hier wird nach Konstellationen von Personen gesucht: Welche Personen ähneln einander? Welche Gruppen von Personen lassen sich identifizieren, deren Mitglieder untereinander ähnlich sind, die sich aber wechselseitig voneinander stark unterscheiden? In den beiden folgenden Abschnitten werden beide Vorgehensweisen anhand von Beispielen skizziert. Das Datenmaterial stammt wieder aus Projekten der Umweltforschung. Wenn qualitative Daten nach einer Phase der Codierung von Textsegmenten im Hinblick auf das Vorkommen von Mustern und Typen betrachtet werden, wird die Forschungsfrage in den meisten Fällen eher eine fallorientierte Vorgehensweise nahe legen. Der folgende Abschnitt thematisiert im Detail, wie hierbei vorzugehen ist. Dass aber auch eine variablenorientierte Vorgehensweise durchaus Sinn machen kann, zeigt das Kapitel 11.3, in dem es um die Identifikation von Orientierungsmustern im Rahmen der oben skizzierten Leitbildanalyse geht.
230
Kombination mit statistischen Verfahren: Ähnlichkeiten, Muster und Typologien
13.2 Ähnlichkeiten zwischen Personen ermitteln Vergleiche anzustellen, Fälle zu kontrastieren und Ähnlichkeiten herauszuarbeiten, dies gehört zu den wesentlichen Zielsetzungen qualitativer Datenanalyse. Es geht darum, Muster zu erkennen und die Bedingungen von Konstellationen zu ermitteln, etwa wie Hopf u.a. (1995) dies in ihrer Rechtsextremismus-Studie tun, um bestimmte Beziehungserfahrungen der Probanden auf ihren Zusammenhang zu rechtsextremen Orientierungen hin zu untersuchen. Eine Frage, die sich in diesem Kontext mehr oder weniger automatisch stellt, ist: „Welche Personen ähneln einander und welche sind sich gänzlich unähnlich? Im gleichen Atemzuge stellt sich natürlich die Frage: Ähneln sich, in welcher Hinsicht? Welche Merkmale und Eigenschaften sind für die Forschungsfrage von primärer Relevanz, welche sind eher sekundär. Bei einer Studie über die Bewältigung von Arbeitslosigkeit wird man vielleicht feststellen, dass es charakteristische Veränderungen im Verhalten von Personen gibt: Ihr Leben verlangsamt sich, sie lesen weniger Bücher, gehen sogar langsamer über die Straßenkreuzung (vgl. Jahoda/Lazarsfeld/Zeisel 1980). Man wird dieses Muster dann z.B. als apathischen Haltungstyp bezeichnen. Nun ist es keineswegs einfach, solche Muster zu erkennen und mit einer eingängigen Bezeichnung zu versehen. Auch bei intensiver Kenntnis der vorliegenden Interviews ist man normalerweise nicht in der Lage, ohne zusätzliche Hilfsmittel eine Reihe von Merkmalen und Charakteristika in einer systematischen Typologie darzustellen. Man kann sich in diesem Feld durchaus nutzbringend des Hilfsmittels der Formalisierung mittels mathematischer Verfahren bedienen. Formalisierte Methoden der Ähnlichkeitsbestimmung erlauben es, multivariate Konstellationen zu identifizieren, und dies kann für die Arbeit des Forschers eine wertvolle Hilfe darstellen. Solche Methoden werden mit explorativer und heuristischer Intention eingesetzt und nicht, um Signifikanzkoeffizienten zu berechnen oder Theorien zu testen. Doch sie dienen der Systematisierung und Organisierung des Materials und können die datenbasierte Theoriekonstruktion befördern. Beispiel: Aus den Informationen eines leitfadenstrukturierten Interviews lassen sich verschiedene umweltrelevante Verhaltensweisen aus den Bereichen Verkehr und Einkauf herausarbeiten. Zu acht Verhaltensweisen (Abb. 83)
231
Ähnlichkeiten zwischen Personen ermitteln
wurde jeweils codiert, ob die Befragten angeben, das Verhalten zu praktizieren oder nicht. Verkehrsverhalten
Praktiziert
Profil Person A
Nicht mit dem Auto zur Arbeit fahren
ja/nein
1
Keine Flugzeugbenutzung bei längerer Fahrt (mehr als 6 Stunden)
ja/nein
0
Wochenendausflug ohne Auto
ja/nein
0
Urlaubsreise nicht mit dem Flugzeug
ja/nein
1
Kauf von Recycling-Toilettenpapier
ja/nein
0
Kauf von Mehrkomponentenwaschmittel
ja/nein
1
Kein Kauf von Treibhaussalat im Winter
ja/nein
0
Kein Kauf von Früchten und Gemüsen wie Erdbeeren unabhängig von der Jahreszeit
ja/nein
0
Einkaufsverhalten
Abb. 83: Umweltrelevante Verhaltensweisen und das Profil der Person A
Die Verhaltensweisen jedes Interviewten lassen sich als ja-nein-Merkmale, beispielsweise mit den Codes j (=ja) und n (=nein) oder mit 0/1 codieren, und zwar derart, dass das Vorhandensein einer umweltgerechten Verhaltensweise mit 1, das Nicht-Vorhandensein mit 0 codiert wird. Der in der dritten Spalte dargestellte Musterbefragte „A“ fährt also nicht mit dem Auto zur Arbeit und verzichtet auf das Flugzeug bei der Urlaubsreise. Bei zwei der vier erfragten Indikatoren für Verkehrsverhalten verhält er sich umweltgerecht (1 und 4). Beim Einkaufsverhalten sieht es etwas ungünstiger aus, von vier Verhaltensweisen wird hier nur einmal die umweltgerechte Verhaltensvariante praktiziert. Da SPSS Distanz- und Ähnlichkeitsmatrizen nur mit numerischen Variablen berechnet, müssen ggf. als Stringvariable eingegebene Werte automatisch recodiert werden, am besten zu einer 0/1 Codierung, denn dann lässt sich mit SPSS sehr einfach ermitteln, welche Personen sich in ihrem Verhaltensmuster ähneln. Wie ist nun „Ähnlichkeit“ zu definieren und vor allem, wie ermittelt man diese? Angenommen, man wolle den obigen Befragten, Person A, mit einer anderen Person C vergleichen: Person C besitzt kein Auto und zeigt mit Ausnahme der Flugreise in die Ferien ein umweltgerechtes Verkehrs-
232
Kombination mit statistischen Verfahren: Ähnlichkeiten, Muster und Typologien
verhalten. In Abb. 84 sind die Daten von Person A und Person C untereinander dargestellt. Man erkennt, dass Person C bei den Verhaltensweisen 1, 2 und 3 den Wert 1 besitzt – sich also umweltgerecht verhält – und dass die Verhaltensweisen im Einkaufsbereich mit Ausnahme von Item 8 (Kauf von Früchten und Gemüse nur in der jeweiligen Saison) allesamt nicht umweltgerecht sind. ITEM1
ITEM2
ITEM3
ITEM4
ITEM5
ITEM6
ITEM7
ITEM8
Person A
1
0
0
1
0
1
0
0
Person C
1
1
1
0
0
0
0
1
Abb. 84: Die Verhaltensweisen von zwei Vergleichspersonen mit 0/1-Codierung
Ist das Umweltverhalten der beiden Beispielpersonen nun ähnlich oder gibt es große Distanzen zwischen ihrem Umweltverhalten? Die Formulierung soll deutlich machen, dass Ähnlichkeit und Distanz quasi zwei Seiten der gleichen Medaille sind: Je ähnlicher zwei Personen oder, allgemein formuliert, zwei Objekte einander sind, desto geringer ist ihre Distanz. Auf den ersten Blick würde man die Frage nach der Ähnlichkeit des Umweltverhaltens der beiden Personen wahrscheinlich so beantworten, dass sie sich nicht sonderlich ähnlich sind, aber dass sie sich andererseits auch nicht völlig verschieden voneinander verhalten. Um ein genaueres Bild zu erhalten, kann man den Vergleich von zwei Merkmalsreihen dieser Art in einer VierFelder-Tafel zusammenfassen (Abb. 85). Merkmale der Person A
Merkmale der Person C
vorhanden
nicht vorhanden
vorhanden
A (1)
B (3)
nicht vorhanden
C (2)
D (2)
Abb. 85: Vierfeldertafel für binäre Merkmale
In Zelle A der Vierfeldertafel wird die Anzahl der 1/1-Übereinstimmungen festgehalten, d.h. hier die Anzahl der Verhaltensweisen, bei denen sich beide Personen umweltgerecht verhalten. Das ist hier nur einmal (bei Item 1) der Fall. In Zelle B halten wir fest, bei wie vielen Verhaltensweisen es vorkommt, dass Person C sich umweltgerecht verhält, Person A aber nicht. Hier gibt es 3 solcher 1/0-Kombinationen. Zelle C summiert den umge-
Ähnlichkeiten zwischen Personen ermitteln
233
kehrten Fall, nämlich die Anzahl der 0/1-Kombinationen. Im obigen Beispiel ist diese gleich 2, denn bei Item 4 und Item 6 verhält sich Person A umweltgerecht, Person C aber nicht. Zelle D schließlich enthält die Anzahl der 0/0 Übereinstimmungen, d.h. beide Personen verhalten sich nicht umweltgerecht. Dies ist zweimal, nämlich bei Item 5 und Item 7 der Fall. Der erste Eindruck, dass die Ähnlichkeit zwischen den beiden Personen nicht sonderlich ausgeprägt ist, findet nun eine zahlenmäßige Bestätigung. Immerhin gibt es aber drei gleichartige Verhaltensweisen, nämlich „mit dem Auto zur Arbeit“, „Recycling-Papier“ und „Treibhaussalat“. Intuitiv würde man nun vielleicht formulieren, dass das Verhalten der beiden Personen in drei von acht Fällen (=37,5%) übereinstimmt. Die maximale Ähnlichkeit wäre dann erreicht, wenn 8 von 8 Verhaltensweisen (=100%) übereinstimmen, die minimale Ähnlichkeit bei 0 von 8 Verhaltensweisen (=0%). Es stellt sich nun allerdings die Frage, ob man Positiv-positiv-Übereinstimmungen genauso bewerten will wie Negativ-negativ-Übereinstimmungen. Dazu ist abzuwägen, ob die Übereinstimmung im Nicht-Besitz eines Merkmals wirklich als eine Ähnlichkeit zwischen Personen bewertet werden soll. Zum Beispiel würde es wohl schwerlich als Indikator für Ähnlichkeit gewertet werden können, wenn zwei Personen bislang keine sechs Richtigen im Lotto gehabt haben. In manchen Fällen mag es allerdings so sein, dass eine Negativ-negativ-Übereinstimmung mehr aussagt als eine Positivpositiv-Übereinstimmung, beispielsweise, wenn zwei Personen beide bewusst keinen Fernseher im Haushalt besitzen. Die Entscheidung, wie der Nicht-Besitz von Merkmalen zu bewerten ist, muss letzten Endes nach theoretischen Kriterien erfolgen. Sie determiniert die Wahl des adäquaten Ähnlichkeitskoeffizienten. SPSS offeriert eine Reihe verschiedener Koeffizienten, die sich vor allem im Hinblick auf die Behandlung der Negativnegativ-Übereinstimmung unterscheiden. Vier geeignete Koeffizienten sind der „Simple matching“-Koeffizient, der „Dize“-, „Russell/Rao“- und „Jacard“-Koeffizient32. Sie weisen jeweils eine Spannweite zwischen 0 (keine Ähnlichkeit) und 1 (identische Datenkonstellation) auf. 32 Diese vier Koeffizienten sind wie folgt definiert: a) Simple matching: (a+d)/(a+b+c+d), im obigen Beispiels also 3/8= 0,375 – es werden alle Übereinstimmungen gewertet, auch die negativen, es wird keine Gewichtung vorgenommen; b) Russell and Rao: a/(a+b+c+d) hier =1/8=0,125. Negative Übereinstimmungen werden nicht im positiven Sinn gewertet, aber sie erscheinen im Nenner; c) Jaccard: a/(a+b+c) hier 1/(1+3+2) =1/6=0,166. Negativ-negativ-Übereinstimmungen werden ganz aus der Berechnung
234
Kombination mit statistischen Verfahren: Ähnlichkeiten, Muster und Typologien
Für jedes Paar von Probanden wird ein Ähnlichkeitskoeffizient ermittelt, so dass eine neue Matrix („Ähnlichkeitsmatrix“) entsteht, die n Zeilen und n Spalten umfasst. Die Matrix ist klappsymmetrisch, da die Ähnlichkeit zwischen Person A und Person B natürlich gleich der Ähnlichkeit zwischen Person B und Person A ist. Die Diagonale der Matrix enthält die Ähnlichkeiten der Person mit sich selbst, also jeweils den Wert 1 (siehe Abb. 88). Zur Berechnung einer Ähnlichkeitsmatrix existiert im SPSS-Menü „Analysieren“33 die Funktion „Korrelation>Distanzen“. Folgende Parameter sind zu setzen (Abb. 86): 1. Auswahl der Variablen zur Berechnung der Ähnlichkeit: Im Beispiel sind dies die acht Verhaltensweisen Item 1 bis Item 8. Diese müssen in der Variablenliste markiert und in die Auswahlliste übernommen werden. 2. Wahl zwischen objektorientierter oder variablenorientierter Berechnung: Da hier die Ähnlichkeiten zwischen Personen und nicht zwischen Variablen zu berechnen ist, muss „Zwischen den Fällen” gewählt werden. 3. Auswahl zwischen Ähnlichkeits- und Distanzmessung: Eine Ähnlichkeitsmatrix ist zu berechnen, folglich ist „Ähnlichkeiten” zu wählen. 4. Wahl des gewünschten Ähnlichkeitskoeffizienten (in der folgenden Abbildung ist „Einfache Übereinstimmung“ ausgewählt), indem das Dialogfeld „Maße“ angeklickt wird.
ausgeschlossen; d) Dice: 2a/(2a+b+c), hier 2/(2+3+2)= 2/7 =0,285, also die Positivpositiv-Übereinstimmungen werden stärker gewichtet, die negativen Übereinstimmungen werden wie beim Jaccard-Koeffizienten weggelassen. 33 SPSS kann nicht nur Ähnlichkeits-, sondern auch Distanzmatrizen berechnen. Distanz ist reziprok zu Ähnlichkeit definiert: Je stärker zwei Objekte in ihren Merkmalen übereinstimmen, desto ähnlicher sind sie sich. Je stärker sie sich voneinander unterscheiden, desto größer ist ihre Distanz. Distanzmessungen sind vor allem bei höherwertigen Skalen in Verbindung mit varianzanalytisch orientierten Verfahren der Clusteranalyse von Interesse. Als Distanzkoeffizient für binäre Merkmale wird üblicherweise die euklidische Distanz bzw. die quadrierte euklidische Distanz gewählt. In der Terminologie der Vierfeldertafel bedeutet dies: Die quadrierte euklidische Distanz ist gleich b+c. Es werden also nur die Matrixfelder der Nicht-Übereinstimmung von Merkmalen (1/0 bzw. 0/1Kombinationen) zur Berechnung der Distanz zwischen einem Personenpaar herangezogen: Je häufiger diese nicht übereinstimmen, desto größer ist der Distanzkoeffizient.
Ähnlichkeiten zwischen Personen ermitteln
235
Abb. 86: Die SPSS-Dialog-Box Distanzen
Um auf dem späteren Ausdruck die Personen leichter identifizieren zu können, kann den Personen eine Fall-Beschriftung zugeordnet werden. In der Dialog-Box „Distanzen Ähnlichkeitsmaße“ ist zunächst die Skalenart – intervall oder binär – zu bestimmen. SPSS offeriert daraufhin eine Liste möglicher Koeffizienten (hier ist „Einfache Übereinstimmung“ ausgewählt). SPSS geht davon aus, dass binäre Variablen in Form von 0/1-Werten codiert werden, d.h. das Vorhandensein eines Merkmals wird immer mit dem Wert 1 codiert. Ist dies nicht der Fall, müssen die voreingestellten Werte für vorhandene Merkmale und nicht vorhandene Merkmale in der Dialog-Box geändert werden.
Abb. 87: SPSS-Dialog-Box Ähnlichkeitsmaße
236
Kombination mit statistischen Verfahren: Ähnlichkeiten, Muster und Typologien
Alle Variablen der Auswahlliste müssen in der gleichen Weise codiert sein, d.h. es ist nicht möglich, einige Variablen mit 0/1 zu codieren und bei anderen Variablen das Vorhandensein eines Merkmals mit dem Wert 2 zu codieren. Die von SPSS berechnete Ähnlichkeitsmatrix (Abb. 88) wird als untere Dreiecksmatrix ausgegeben. Sie ist zu lesen wie eine Entfernungstabelle im Autoatlas. Die Personen werden gemäß ihrer Reihenfolge in der Datenmatrix durchnummeriert. Für die Ähnlichkeit zwischen unseren Beispielfällen 1 und 3 enthält die Matrix den Wert .50. Unschwer kann man nun ermitteln, zwischen welchen Personen die größten Ähnlichkeiten im Hinblick auf ihr Umweltverhalten bestehen. Person 1 weist im Matrixausschnitt mit .625 die größte Ähnlichkeit zu Person 5 auf. Bei acht Variablen bedeutet ein Simplematching Koeffizient von .625, dass 5 der 8 Verhaltensweisen übereinstimmen. Sehr unähnlich sind sich etwa die Personen 2 und 5 (.25): Sie stimmen nur in zwei der acht Verhaltensweisen überein. Näherungsmatrix
1 2 3 4 5 6
1 1,000 ,375 ,500 ,500 ,625 ,500
Ähnlichkeitsmaß der einfachen Übereinstimmung 2 3 4 5 ,375 ,500 ,500 ,625 1,000 ,375 ,375 ,250 ,375 1,000 ,750 ,375 ,375 ,750 1,000 ,375 ,250 ,375 ,375 1,000 ,625 ,500 ,750 ,625
6 ,500 ,625 ,500 ,750 ,625 1,000
Ä
Abb. 88: Von SPSS erstellte Matrix der Ähnlichkeiten für Person 1 bis 6
Die Ähnlichkeitsmatrix ist ein gutes Hilfsmittel, um Strukturen in den Daten zu identifizieren. In qualitativen Panel-Studien kann sie beispielsweise dazu benutzt werden, um Paare von Vergleichsfällen zu bilden. Aus der Tabelle der Ähnlichkeiten lässt sich auch problemlos eine „Liste der nächsten Nachbarn“ erstellen, aus der für jeden Befragten hervorgeht, welches die jeweils ähnlichsten Personen sind.
Typenbildung durch Clusteranalyse
237
13.3 Typenbildung durch Clusteranalyse Typenbildung ist eine der zentralen Zielsetzungen der qualitativen Sozialforschung und hat in der Geschichte der Sozialforschung eine große Tradition. So wurden in der bekannten Marienthal-Studie (Jahoda u.a. 1980) eine Typologie arbeitsloser Familien gebildet, die aus den vier verschiedenen Typen „ungebrochen“, „resigniert“, „verzweifelt“ und „apathisch“ bestand:34 Die Bildung von Typen löst sich von der Besonderheit des einzelnen Falles. Der Einzelne wird als typischer Stellvertreter einer Art, Gruppe oder Gattung betrachtet. Die Entscheidung für Typenbildung impliziert, so Lamnek (2005: 230 ff.), eine Entscheidung gegen den Zufall und für eine theoretisch-systematische Auswahl. Typenbildung heißt nicht, komplexe Sachverhalte auf einzelne Variablen oder Variablenkorrelationen zu reduzieren, vielmehr wird eine eher ganzheitliche Sicht bevorzugt. Es geht um die Herausarbeitung von Gemeinsamkeiten zwischen den Fällen oder, allgemein gesprochen, um die Klassifikation von Elementen in möglichst homogene Gruppen (Bacher 1996: 1 ff.). Diese fallorientierte Vorgehensweise wird in der traditionellen quantitativen Forschung weit seltener als die variablenorientierte angewandt, so dass die Schritte des Verfahrens kurz skizziert werden sollen. Während die variablenorientierte Analyse nach kausalen Modellen für die Beziehung zwischen den Variablen sucht, fokussiert die fallorientierte Analyse die Beziehungen zwischen den Fällen, untersucht also Ähnlichkeitsstrukturen und zielt auf eine empirische Klassifikation der Fälle. Die ersten beiden Schritte einer Clusteranalyse bestehen aus der im vorangehenden Abschnitt beschriebenen Auswahl der Variablen und der Berechnung der Ähnlichkeiten zwischen den Personen. Die Clusteranalyse stellt quasi eine Form der systematischen Auswertung der Ähnlichkeitsmatrix dar. Diese lässt sich zwar gut nutzen, um beispielsweise eine Liste der nächsten Nachbarn zu erstellen oder Informationen über die Ähnlichkeit von Personen zu erhalten, doch eine Gruppierung der Probanden in homogene Gruppen lässt sich durch Inspektion der Matrix nicht erreichen. Dies ist nun genau die Aufgabe der Clusteranalyse. Es existiert eine Vielzahl unterschiedlicher clusteranalytischer Verfahren, die an anderer Stelle ausführlich beschrieben sind (vgl. Bacher 1996). Im Folgenden wird die Vorge34 Eine kurze Beschreibung der Vorgehensweise findet sich bei Diekmann (2000: 461 ff.).
238
Kombination mit statistischen Verfahren: Ähnlichkeiten, Muster und Typologien
hensweise der Johnsonschen Maximum-Methode („Complete Linkage“) skizziert, eines bewährten und vielfach benutzten clusteranalytischen Verfahrens. Bei dieser Methode handelt es sich um ein verteilungsfreies Verfahren, das keine besonderen Vorbedingungen an die Skalenqualität stellt. Insofern ist sie für die durch qualitative Analyse gewonnenen Daten, die ja normalerweise kein Intervallskalenniveau aufweisen und für die auch keine Verteilungsannahmen bestehen, recht gut geeignet. Die Schritte der Analyse lassen sich in drei Phasen systematisieren: 1. Die Phase der Pre-Analyse besteht aus der Auswahl der Variablen, der Entscheidung für einen bestimmten Ähnlichkeitskoeffizienten und der Berechnung der Ähnlichkeitsmatrix. 2. Die Hauptphase besteht aus der eigentlichen Clusteranalyse, in der die Gruppierung bzw. mehrere Gruppierungen vorgenommen werden. 3. Die Phase der Post-Analyse arbeitet die Ergebnisse der Clusteranalyse auf. Die vorgenommenen Gruppierungen werden evaluiert, die ermittelten Muster werden interpretiert und es wird eine Entscheidung für eine „optimale“ Clusterlösung getroffen. Im Anschluss an das oben bereits dargestellte Procedere der Erstellung der Ähnlichkeitsmatrix durchläuft die Clusteranalyse folgende Schritte: 1. Beginn des Clusterprozesses auf der Basis der Ähnlichkeitsmatrix. Begonnen wird mit n Clustern, also in unserem Beispiel mit so vielen Clustern wie Personen befragt wurden. 2. In n-1 Schritten werden die Personen zu Clustern gruppiert. Die Clustermitgliedschaften der Personen werden festgehalten. 3. Verschiedene Clusterlösungen werden evaluiert, d.h. die Verteilungen der Variablen werden für jedes Cluster gesondert ausgewertet. Die Merkmalskonstellationen werden geprüft und miteinander verglichen. Eine Entscheidung für eine gut interpretierbare Clusterlösung wird getroffen. Die Clusteranalyse nach Johnson geht bei der Gruppenbildung so vor, dass die Ähnlichkeitsmatrix nach dem maximalen Ähnlichkeitskoeffizienten abgesucht wird und die beiden zugehörigen Personen (A und B) zu einem Cluster zusammengefasst werden. Die Analyse beginnt also mit n Clustern, die sich nach dem ersten Clusterschritt um 1 vermindern. Nach der Fusion von A und B werden die Ähnlichkeiten des neu gebildeten Clusters zu den
Typenbildung durch Clusteranalyse
239
übrigen Clustern (Personen) neu bestimmt, wobei für die Berechnung die Regel gilt: Ähnlichkeit (A+B; X) = Minimum (Ähnlichkeit (A-X), Ähnlichkeit (B-X)), d.h. die Ähnlichkeit zwischen dem neuen Cluster und den anderen Clustern bzw. Personen der Matrix wird definiert als minimale Ähnlichkeit zwischen einem Clustermitglied und einer Person X. In SPSS ist die Clusteranalyse über die Menüoption „Klassifizieren > Hierarchische Clusteranalyse“ des Menüs „Analysieren“ zugänglich. In der Dialog-Box „Hierarchische Clusteranalyse“ werden die Variablen für die Clusterbildung ausgewählt (hier: Item 1 bis Item 8). Die Personen können ein Label erhalten und verschiedene Statistiken und graphische Darstellungen (Plots) können angefordert werden. Ferner muss zwischen fallorientierter und variablenorientierter Analyse gewählt werden (Auswahl hier: „Cluster Fälle“). Als nächstes ist die Dialog-Box „Methode“ anzuklicken. Diese dient zur Wahl des clusteranalytischen Verfahrens. Die Johnsonsche Maximummethode firmiert hier als „Entferntester Nachbar“. Die Angabe der Skalenqualität geschieht in der Rubrik „Maß”: Zu wählen ist hier „binär“. Ferner muss der gewünschte Koeffizient (hier: „Einfache Übereinstimmung”) aus der Liste ausgesucht werden. Jeder Schritt der Clusteranalyse wird von SPSS in einer Zuordnungsübersicht dokumentiert, so dass die Reihenfolge der Zusammenfassungen ersichtlich ist (vgl. Bacher 1996: 157). Die Analyse durchläuft n-1 Schritte, bis schließlich alle Personen in einem einzigen Cluster zusammengefasst sind. Der Ablauf des Clusterprozesses kann auch graphisch in Form eines Baum-Diagramms („Dendrogramm“) dargestellt werden. Die Clusteranalyse von SPSS ist nicht sonderlich benutzerfreundlich, denn es bereitet einige Mühe, die gebildeten Gruppierungen inhaltlich auszuwerten. Auf dem Ausdruck fehlen sogar die Angaben der Clustergrößen. SPSS kann aber die Angaben zur Cluster-Mitgliedschaft der Personen als neue Variable in der Datenmatrix speichern. Hierzu ist im Cluster-Menü die Option „Speichern“ zu wählen und die gewünschte Anzahl der Cluster in der Rubrik „Einzelne Lösung“ einzutragen. Trägt man dort die Zahl 4 ein, speichert SPSS die Cluster-Mitgliedschaften für die Lösung mit vier Clustern in Form einer neuen Variablen, deren Häufigkeiten dann ausgewertet werden können.
240
Kombination mit statistiscchen Verfahren: Ähnlichkeiten, Muster und Typ pologien
Ausweertung der Clustter und Weitervverwendung derr Ergebnisse Vorran ngig ist man natürlich an den inhaltlicchen Charaktteristika der C Cluster interesssiert. Da diee Clusteranalyyse-Prozedurr von SPSS keine k speziellle Auswertun ngsroutine füür die gebildeeten Cluster enthält, e muss man auf die Funktion „B Berichte: Berrichte in Spaltten“ zurückggreifen.
Abb. 899: SPSS Dialog gfeld für Berich hte
Nach Clustern auffgeschlüsselt (hier erfasst mit der Varriable CLU2__1) bed Prozentaanteil der Fäälle mit rechneet diese für ausgewählte Variablen den Werteen größer als Null. Diesees ist der An nteil der Personen im jew weiligen Clusteer, der sich umweltgerech u ht verhält, deenn die umw weltgerechte V Verhaltensvaariante wurdee ja jeweils miit 1 codiert. Die D von SPSSS erstellte Üb bersicht (Abb. 90) enthält für f jedes Cluuster (Zeile 1 bis 4) den prozentualen p Anteil I Cluster 1 kommen 900% der der Peersonen, die das Merkmaal besitzen. In Person nen ohne Auuto zur Arbeeit (Item 1) und u 100% haben die letzzte Urlaubsrreise nicht mit m dem Fluggzeug unterno ommen (Item m 4). Völlig anders hingeggen Cluster 4: 4 Hier komm men alle mit dem Auto zuur Arbeit un nd 75% sind in n den letzten Urlaub geflo ogen.
241
Typenbildung durch Clusteranalyse Cluster
Item1 >0
Item2 >0
Item3 >0
Item4 >0
Item5 >0
1
90,0%
90,0%
20,0%
100,0%
20,0%
2
77,3%
95,5%
40,9%
36,4%
81,8%
3
84,6%
76,9%
38,5%
23,1%
92,3%
4
,0%
90,0%
10,0%
25,0%
40,0%
Total
56,9%
89,2%
27,7%
40,0%
61,5%
Abb. 90: SPSS-Bericht über die Merkmalsverteilungen in den vier Clustern (hier nur für Item 1 bis Item 5 gelistet)
Die Tabelle ist nun die Basis für eine sorgfältige erneute Textinterpretation. Die vier hier gebildeten Cluster lassen sich schlaglichtartig beschreiben als: Typ 1 – Die Autolosen, aber wenig Umweltengagierten Typ 2 – Die Umweltsensiblen Typ 3 – Die Hedonisten des Sowohl-als-auch Typ 4 – Die Autofahrer Hinter diesen plakativen Verdichtungen verbergen sich charakteristische Kombinationen von Verhaltensweisen. Der Typ 1 etwa ist ein Verhaltenstyp, dessen Verkehrsverhalten sehr umweltgerecht ist. 90% kommen ohne Auto zur Arbeit und nehmen bei längeren Fahrten nicht das Flugzeug. Bei niemandem war die letzte Urlaubsreise eine Flugreise. Das Einkaufsverhalten ist aber keineswegs umweltgerecht: Nur 20% kaufen Recycling-Papier. 80% kaufen im Winter Treibhaussalat und gar 90% Früchte und Gemüse außerhalb der Saison, wenn sie von weit her eingeflogen werden müssen. Die Vermutung liegt nahe, dass das umweltgerechte Verkehrsverhalten daraus resultiert, dass den Mitgliedern dieses Clusters schlichtweg kein Auto zur Verfügung steht. Die gebildeten Gruppen lassen sich gut interpretieren. Bevor man sich für diese Clusterlösung entscheidet, empfiehlt es sich aber, auch andere Clusterlösungen, etwa die 5-Cluster-Lösung, näher zu inspizieren. Dem heuristischen Charakter des Verfahrens entsprechend ist die Entscheidung für eine bestimmte Anzahl von Clustern in erster Linie von dem erwünschten Grad an Differenzierung und der Evidenz der Interpretation der Typologie abhängig. Bei einigen clusteranalytischen Verfahren existieren zudem auch statistische Kriterien für die Wahl einer bestimmten Clusterlösung (vgl. Bacher 1994: 253 ff.), doch haben auch diese Koeffizienten in erster
242
Kombination mit statistiscchen Verfahren: Ähnlichkeiten, Muster und Typ pologien
Linie Hinweischarrakter und leegen die Anzzahl der Clusster keinesweegs determin nistisch fest. Nach N der En ntscheidung füür eine bestim mmte Clusterrlösung kann für f jede Perso on angegeben n werden, zu welchem derr gebildeten C Cluster sie geh hört. Diese In nformation läässt sich, wie oben dargestellt, als Variaable an die SP PSS-Datenmaatrix anfügen.. Nun ist es von v großem Interesse, diese Informaation der Zugeehörigkeit zu einem bestim mmten Typ auuch im Konttext der Textan nalyse zu ben nutzen. Dazu muss lediglicch eine neue Fallvariable F definiert werden – man kö önnte sie z.B. „Umweltveerhaltenstyp“ nennen – uund die n eingegeben bzw. importiiert werden. Clusteer-Zugehörigkkeiten müssen Die Verwendun ng der Clusteeranalyse als Hilfsmittel H beei der Typenb bildung s auf der d Basis der Fallvariablen n – wie in diiesem Beispieel – als kann sowohl auch auf der Basiis der Codieerungen geschehen. Nach h der Auswaahl der blen, die Grun ndlage der Tyypenbildung sein sollen, w werden Codess bzw. Variab diese zu z SPSS expo ortiert und diie Analyse wiird durchgefüührt. Nach A Auswahl der op ptimalen Typ pologie sind die d Informatio onen über diie Clusterzugeehörigkeiten für alle Perso onen einzugeeben. MAXQDA enthält die d Möglichkeeit, eine matrix von SP PSS zu imporrtieren und die d importiertten Vakompllette Datenm riablen n im Text-Reetrieval zu beenutzen. Mit der Clusterzzugehörigkeitt lassen sich nun n im Weiteren die im Kapitel K 9 bescchriebenen Techniken dess selektiven Retrievals R duurchführen.
Abb. 911: Zusammensspiel von QDA-Software und Statistik-Softw ware
243
Codemuster erkennen: Faktorenanalyse von Codierungen
13.4 Codemuster erkennen: Faktorenanalyse von Codierungen Explorative Faktorenanalysen zur Entdeckung von Mustern im codierten Material können sowohl auf der Basis der Kategorienzuordnungen wie auf der Basis der Fallvariablen durchgeführt werden. Das folgende Beispiel arbeitet, anders als das zuvor dargestellte, nicht mit den Fallvariablen, sondern mit den Codierungen und knüpft an die in Kapitel 11.6 gegebene Darstellung der Leitbildanalyse an. Die Ausgangsfragestellung für die Analyse lautet: Welche Muster enthält das Material in Bezug auf die vorgenommenen Codierungen nach dem Modell der Leitbildanalyse? Für alle Befragten lässt sich leicht ihr je spezifisches Muster von Codierungen ermitteln. Diese Matrix der Codehäufigkeiten kann direkt als Eingabedatei für ein Statistikprogramm dienen. Die folgende Abbildung gibt die Codierhäufigkeiten der Befragten W. für den Bereich der Wunschprojektionen wieder: Codes
Anzahl der Segmente
Wunschprojektion/ sozial/ gesellschaftliche Visionen
3
Wunschprojektion/ sozial/ LA 21-Initiative
1
Wunschprojektion/ sozial/ Öffentlichkeit
1
Wunschprojektion/ sozial/ Partizipation/Politik
1
Wunschprojektion/ sozial/ Umgestaltung lok. Lebensraums
1
Wunschprojektion/ ökologisch
1
Wunschprojektion/ ökonomisch
0
Abb. 92: Codehäufigkeiten für die Befragte W.
Man erkennt, dass in diesem Interview insgesamt 8 Textstellen existieren, in denen von Wünschen im Sinne des Kategorienschemas die Rede ist. Die meisten Wünsche beziehen sich auf den sozialen Bereich, in erster Linie sind sie als „gesellschaftliche Visionen“ codiert worden. Mit diesem Code sind drei Textpassagen codiert. Ökonomische Wünsche werden im gesamten Interview, das zeigt die Tabelle, nicht geäußert. Diese verdichteten Informationen über den Inhalt des Interviews lassen sich für die gesamte Studie in einer Matrix zusammenstellen: Jedes Interview bildet eine Zeile und jeder Code bzw. Subcode eine Spalte. Abb. 93 zeigt dies für den Bereich der Wunschprojektionen (in der Tabelle abgekürzt als WP). Verfährt man
244
Kombination mit statistischen Verfahren: Ähnlichkeiten, Muster und Typologien
nach diesem Muster mit allen 30 Interviews und den übrigen Leitbildkategorien, so entsteht eine Matrix von 30 Zeilen (Befragte) mal 25 Kategorien. Mittels der explorativen Faktorenanalyse lässt sich nun nach Mustern in den Kategorien suchen. Interview
W.
WP.
WP.
WP.
WP.
WP.
sozial.
sozial.
sozial.
sozial.
sozial.
gesell. Visionen
LA 21Initiative
Öffentlichkeit
Partizipati tion/Politik
Umges.lok. Lebensraum
3
1
1
1
1
WP. ökologisch
WP. ökonomisch
1
0
A. ..
Abb. 93: Die Ausgangsmatrix für die Faktorenanalyse
Die methodische Vorgehensweise der Faktorenanalyse ist in den gängigen Statistikbüchern (z.B. Bortz 2005: 511 ff.) hinreichend beschrieben. Das Verfahren durchläuft sieben Schritte: 1. 2. 3. 4.
Auswahl der in die Faktorenanalyse einzubeziehenden Codes Erstellen der Matrix Personen mal Codes Durchführen der Faktorenanalyse Interpretation der Ergebnisse, d.h. der Faktorenstruktur und Variablenladungen 5. Berechnen der Faktorenwerte für jede Person 6. Zuordnung der Faktorenwerte zu den Texten, Rückbezug auf die Texte 7. Interpretative Auswertung der codierten Textsegmente der Leitpersonen, die die identifizierten Muster prototypisch repräsentieren
Die beiden ersten Schritte wurden oben bereits beschrieben. Die Variablen der Faktorenanalyse bestehen hier aus 25 Codes, nämlich den relevanten Leitbilddimensionen. Sieben Codes hiervon sind die oben dargestellten Codes der Leitbildkategorie „Wunschprojektion“. Der dritte Schritt, die technische Durchführung der Faktorenanalyse, wird mit der entsprechenden SPSS-Prozedur realisiert. Die Interpretation der Ergebnisse erfolgt auf der Grundlage der rotierten Faktormatrix. Auf der Basis dieser Analyse berechnet SPSS für jede Person Faktorenwerte für die vier Faktoren. An den Werten lässt sich ersehen, welche Personen das
Codem muster erkennen: Faktorenanalyyse von Codieerungen
245
durch einen Fakto or bezeichneete Kategorieenmuster bessonders ausggeprägt reprässentieren.
Abb. 944: Von der Fak ktorenanalyse zur z Textinterprretation
Anderrs als in der quantitativ q orrientierten Fo orschung stelllt die Faktorrmatrix hier nicht n den Enddpunkt der Analyse A dar, sondern s sie dient d zur Iden ntifikation von v Mustern und hierfür repräsentativven Personen n. Auf deren n Textsegmeente wird nun n zurückgegrriffen. Auf diieser Basis – und nicht auufgrund der Konstellation K d Faktorladdungen – lasssen sich dan der nn dichte Beeschreibungeen der Musterr in Form vo on Leitbildern n geben. Im Projekt P „Neuue Partizipattionsformen… …“ wurden die d Leitbilder wie folgt skizziert s (de Haan/ Kuckaartz/Rheingaans 2000): 1. Das Leitbildd des starken persönlichen p Enngagements iden ntifizieren. A Akteure e hohes perrsönliches En ngagement ggekenndieses Typs sind durch ein Agendazeichnet, daas sich nichtt nur auf diie Aktivitäten in den A Initiativen bezieht, b sonddern auch deen persönlich hen Alltag um mfasst. Die hohe Motivation M geh ht mit einem gewissen miissionarischen n Eifer einher, ohnee allerdings den d Blick füür pragmatiscche Aktivitäteen und Lösungen zu z verlieren. Man empfindet es als frustrierend,, wenn Phantastereiien in Hinbllick auf Veräänderungen (etwa: ( Absch haffung des Individuualverkehrs) die d Arbeitsgruppen beherrschen. Realiistische
246
Kombination mit statistischen Verfahren: Ähnlichkeiten, Muster und Typologien
Einschätzungen des Machbaren dominieren – wie auch das Interesse an solchen Themen und Aktionsplänen, die sich in kleinen Schritten umsetzen lassen. 2. Das zweite identifizierte Leitbild gruppiert sich um die Vorstellung, es käme vor allem auf die sich engagierenden Politiker und alles ordnenden Ämter an. Das persönliche, private Engagement steht nicht im Zentrum der Betrachtung. Das „man“ dominiert in der Rede gegenüber dem „ich“. Die Staatsmacht soll durchsetzen, was „man“ selbst für richtig hält. Um die Durchsetzung von Aktionsplänen, Konzepten und Ideen kreisen generell viele Gedanken innerhalb dieses Typs. Daher verwundert es auch nicht, dass bei der Frage nach den Erfolgskriterien für eine Lokale Agenda viele Ordnungswünsche und der Wunsch nach einem ordentlich aussehenden Stadtbezirk laut werden. 3. Ein drittes Leitbild ist durch den Glauben an die große LA 21-Gemeinde geprägt. Auch hier wird – wie im zweiten Leitbild – das persönliche Verhalten nicht so sehr in den Vordergrund gestellt. Man glaubt eher an die Fachkräfte, die in den Initiativen den Prozess der Ausgestaltung einer Agenda voranbringen können und sollen. Dieses Votum wird zugleich gebrochen von der Vorstellung, man müsse möglichst viele Bürger – also Laien – mit in das „Agenda-Boot“ holen. Das geht, so weiß man, nur durch eine hohe Motivation der zu erschließenden Personenkreise und attraktive Arbeitsformen in den Initiativen. Von daher neigt man auch bei der Frage nach Erfolgskriterien dazu, den Prozess der Kommunikation als ein solches, entscheidendes Kriterium auszuweisen. Selbstreferentialität dominiert dann gegenüber einer Orientierung an spezifischen Themen. 4. Das vierte Leitbild sieht – ähnlich dem zweiten – im Staat den großen Agenda-Akteur. Nun allerdings mit einer sehr pessimistischen Sicht auf den Normalbürger. Dieser, so die Vermutung, würde sich nicht ändern lassen, es sei denn, man verordnet diese Veränderungen. Die Zahl der konkreten Vorschläge, wo mit Verordnungen etwas zu bewegen sein müsste, ist außerordentlich lang. Und man selbst nimmt nun an den Agenda-Initiativen teil, weil man der Auffassung ist, hier dem Staat helfend beiseite stehen zu müssen.
14 Die Zukunft der computergestützten qualitativen Datenanalyse
In den letzten Jahren haben die Methoden zur computergestützten Analyse qualitativer Daten beachtliche Fortschritte gemacht. Neue, verbesserte Versionen der QDA-Software sind erschienen und viele Wünsche, die auf der Wunschliste qualitativer Forscher obenan standen, sind mittlerweile erfüllt worden. Methodische Aspekte und Probleme der QDA-Software haben in den letzten Jahren in der sozialwissenschaftlichen Methodendiskussion verstärkt eine Rolle gespielt. Dabei lassen sich folgende Hauptthemen des Methodendiskurses identifizieren: 1. Effektivierung der Forschung durch QDA-Software, d.h. inwieweit das qualitative Forschen durch Computereinsatz erleichtert und verbessert wird. Während die Mehrheit der Diskutanten die positiven Effekte hervorhebt (so Flick 2007a: 455 ff.), Kelle 2000, Gibbs/Friese/Mangabeira 2002), finden sich auch Kritiker (z.B. Mruck 2000), die demgegenüber eher den kreativen und einer Kunstlehre ähnlichen Charakter qualitativen Forschens betonen. 2. Transparenz, Dokumentation und Glaubwürdigkeit: Thema ist die erhöhte Transparenz, die sich durch computergestützte Verfahren erzielen lässt und ein damit verbundener Gewinn an interner Validität (vgl. Kelle/Laurie 1995). Mit dem Gewinn an Konsistenz und Konsequenz steige auch die Glaubwürdigkeit qualitativer Forschung (vgl. Seale 1999). Es ergebe sich ein Prestige- und Reputationsgewinn „entgegen den Vorwürfen des bloß Subjektivistischen und Essayistischen qualitativer Sozialforschung“ (Mruck 2000: 29). 3. Verbesserung von Teamarbeit: Bei diesem Diskursstrang geht es um die Organisation von Teamarbeit und ihre Qualität. Autoren wie Gibbs u.a. (2002) und Ford u.a. (2000) sehen hier Zugewinne, weil Codierungen leicht nachvollzogen und überprüft werden können. Der interne Kommunikationsprozess zwischen den Mitgliedern einer Forscher-
248
Die Zukunft der computergestützten qualitativen Datenanalyse
gruppe werde intensiver und Daten und Analyseergebnisse ließen sich zwischen weit entfernt voneinander arbeitenden Teammitgliedern austauschen. 4. Archivierung und Sekundäranalyse: Das Problem der Archivierung qualitativer Studien und der Bereitstellung der Daten für Sekundäranalyse ist immer wieder Gegenstand der Diskussion gewesen, denn anders als in der quantitativen Forschung sind in der qualitativen Forschung Sekundäranalysen bisher weitgehend unbekannt. In diesem Kontext sind bereits praktische Vorschläge entwickelt worden (z.B. Kluge und Opitz 1999) und Datenarchive gegründet worden, wie das Bremer „Archiv für Lebenslaufforschung“35. Die Einrichtung eines bundesweiten Archivs für qualitative Interviewdaten ist allerdings immer noch ein Desiderat. Auch international sind entsprechende Diskussionen und Aktivitäten zu verzeichnen, z.B. die Einrichtung des Qualidata-Archivs in Essex, in dem qualitative Daten archiviert und für weitere Lehre und Forschung zur Verfügung gestellt werden (Corti 2000). Die Standards zur Archivierung digitalisierter qualitativer Daten sind allerdings auch weiterhin Gegenstand der Diskussion (Carmichael 2002, Muhr 2000). 5. Methodische Weiterentwicklungen und Integration qualitativer und quantitativer Methoden: Diskutiert werden sowohl einzelne, an spezielle theoretische Ansätze gebundene methodische Entwicklungen (z.B. das Gabek Verfahren bei Buber/Zelger (2000)), als auch generalisierende Ansätze wie das Testen von formalisierten Hypothesen (HesseBiber/Dupuis 1996, Huber 1992, Kelle 1997a und 1997b), die Typenbildung (Kelle/Kluge 1999, Kluge 1999, Kuckartz 1999 und 2001) und die Integration von quantitativen und qualitativen Methoden (Flick 2007b, Kuckartz 1999, Mayring 2001, Kluge 1999, Kelle/Kluge 1999). 6. Gefahren des Computereinsatzes. Immer wieder ist eine Diskussion um vermeintliche Gefahren des Arbeitens mit QDA-Software aufgeflackert (Glaser 2002, Coffey et al. 1996), wobei sich die Kritik vor allem auf die analytische Technik des Codierens bezieht. So warnen etwa Fielding/Lee (1998: 119) davor, dass die extensive Nutzung von QDA-Software dazu führen könne, dass das Codieren gewissermaßen 35 Informationen findet man unter www.lebenslaufarchiv.uni-bremen.de.
Codemuster erkennen: Faktorenanalyse von Codierungen
249
die Analyse ersetze und man durch die De-kontextualisierung, die mit dem Segmentieren und Codieren einhergeht, das eigentliche Phänomen aus den Augen verliere. Kritiker wie Glaser (2002) und Roberts/Wilson (2002) sehen sogar prinzipielle Gegensätze zwischen Computern und qualitativer Forschung: „Computer techniques of logic and precise rules are not compatible with the unstructured, ambiguos nature of qualitative data and so it may distort or weaken data or stifle creativity“ (ebd.: 15). Diese Hauptstränge der Diskussion lassen bereits die Richtungen der zukünftigen Entwicklung von QDA-Software erahnen. Hinzu kommt, dass trotz aller Fortschritte auch heute noch zahlreiche, bislang nicht erfüllte Wünsche auf dem Wunschzettel der qualitativ Forschenden stehen. Diese beziehen sich, wie das bei Wünschen so üblich ist, auf Machbares und (scheinbar) Unmögliches. Ganz oben auf dem Wunschzettel steht die automatische Transkription von Tonbandinterviews. Ein Wunsch, der derzeit als kaum erfüllbar gelten muss. Die Entwicklung solcher Tools ist auch nicht direkt zum Aufgabenkreis von QDA-Programmen zu zählen, sondern gehört eher in den Bereich von Spracherkennungsprogrammen. Möglich ist inzwischen aber bereits die digitale Aufnahme von Interviews mit recht einfachen Mitteln und die Bereitstellung der Audioaufzeichnung im QDAProgramm (ohne dass aber eine automatische Umwandlung in Text stattfindet). Nimmt man solche, nach wie vor bestehenden Wünsche der Nutzer zu den Hauptpunkten der Methodendiskussion hinzu, so erscheint es nicht allzu riskant, die Hauptlinien der Weiterentwicklung von QDA-Software in folgenden fünf Bereichen zu prognostizieren: Teamwork Desiderat sind erweiterte Möglichkeiten zum Teamwork, wozu auch Werkzeuge zu rechnen sind, die die Übereinstimmung von Codierungen zwischen verschiedenen Teammitarbeitern zu überprüfen erlauben. Dieser Punkt wird vor allem im Rahmen der zunehmend wichtiger werdenden Diskussion um die Qualität qualitativer Forschung eine wichtige Rolle spielen. Ferner ist das gleichzeitige Arbeiten mehrerer Personen mit den gleichen Daten besonders bei größeren Forschergruppen ein nach wie vor unerfüllter Wunsch.
250
Die Zukunft der computergestützten qualitativen Datenanalyse
Visualisierung Hier geht es um noch bessere visuelle Darstellungen der in Daten vorfindbaren Beziehungen, und zwar sowohl zwischen den Kategorien als auch zwischen den Texten bzw. Dokumenten und Memos. Multimedia-Integration QDA-Software wird vermutlich mehr und mehr mit der sie umgebenden Softwarewelt zusammenwachsen, d.h. Techniken des Transfers von Daten und Objekten zwischen verschiedenen Programmen werden verstärkt entwickelt. Dazu könnte etwa gehören, die digital aufgenommenen Texte direkt in das QDA-Programm zu transkribieren. Mixed Methods, Triangulation, Methodenintegration Die Zeiten der strikten Gegenüberstellung von qualitativen und quantitativen Methoden sind längst vorüber. Auf beiden Seiten ist eine gesteigerte Offenheit festzustellen, und es besteht zunehmend Interesse daran, qualitative und quantitative Forschungstechniken miteinander zu kombinieren. Ausbreitung in neue Anwendungsfelder, z.B. die Online-Forschung Schließlich wird die QDA-Software auch neue bzw. bislang noch wenig erschlossene Anwendungsfelder erobern, zu denen beispielsweise die Evaluationsforschung und die Online-Forschung gehören könnten. Es liegt in der Natur der Sache, dass sich Zukunft schlecht vorhersagen lässt, vor allem in einem Bereich, der einem solch schnellen Entwicklungstempo unterliegt. So mag es auch sein, dass es gar nicht die oben beschriebenen potenziellen Entwicklungsfelder der Text- und Inhaltsanalyse sind, aus denen die stärksten Impulse für die Weiterentwicklung von QDA-Software kommen, sondern allgemeine Fortschritte der Informationstechnik und PC-Software. QDA-Software ist jedenfalls heute, wer hätte dies Anfang der 1990er-Jahre für möglich gehalten, aus dem Alltag qualitativ Forschender kaum mehr wegzudenken.
Anhang
Übersicht QDA-Software Im Folgenden wird eine Übersicht über die derzeit gebräuchlichsten QDASoftware gegeben (Stand: September 2009). In ihrem umfangreichen Buch „Using Software in Qualitative Research“ haben Lewins und Silver 2007 die verschiedenen Programme und ihre Funktionen gesichtet und systematisch dargestellt. Drei Programme werden dort als führende Prorgamme herausgestellt und ausführlich in ihrer Funktionalität und Handhabung getestet, nämlich ATLAS.TI, MAXQDA und NVivo. Darüber hinaus werden auch die Programme HyperRESEARCH, QDA Miner, Qualrus und das Videoanalyseprogramm Transana im Anhang vorgestellt. Die folgende Liste enthält für diese sowie für drei andere Programme (AQUAD, Kwalitan und The Ethnograph) Informationen zu deren Herstellern sowie die jeweilige Webadresse, unter der weiterführende Informationen und in den meisten Fällen eine Demoversion erhältlich ist: AQUAD
Version 6 Hersteller: Verlag Ingeborg Huber www.aquad.de
ATLAS.TI
Version 6 Hersteller: Scientific Software GmbH www.atlasti.com (englisch), www.atlasti.de (deutsch)
HYPERRESEARCH
Version 2.8 Hersteller: Researchware Inc. www.researchware.com
KWALITAN
Version 5 Hersteller: Vincent Peters www.kwalitan.net
252 MAXQDA
Anhang Version 10 Hersteller: Verbi GmbH www.maxqda.de (deutsch), www.maxqda.com (englisch)
NVIVO
Version 8 Hersteller: QSR www.qsrinternational.com
QDA MINER
Version 3.2 Hersteller: Provalis Research www.provalisresearch.com
QUALRUS
Version 2 Hersteller: Edward Brent www.qualrus.com
THE ETHNOGRAPH
Version 6 Hersteller: Qualis Research Ass. www.qualisresearch.com
TRANSANA
Version 2.3 Hersteller: David Woods www.transana.org
Alle Programme sind als englischsprachige Versionen erhältlich, eine deutsche Version mit deutschem Handbuch existiert von MAXQDA, ATLAS.TI und AQUAD. Von einigen Programmen sind spanische Versionen verfügbar (z.B. MAXQDA und AQUAD), seltener sind Versionen in japanischer, chinesischer oder arabischer Sprache. Alle aufgeführten Programme laufen unter Windows XP und Vista. Der Betrieb von QDA-Software auf dem MAC stellt allerdings seit dem Umstieg Apples auf Intel Prozessoren kein unüberwindbares Problem mehr dar, denn mit Virtualisierungssoftware (z.B. Parallels) lässt sich jetzt auch Windows auf Apple Rechnern betreiben. Wer QDA-Software für die eigene Arbeit auswählt, sollte sich zunächst darüber klar werden, welche Art von Auswertungen durchgeführt werden sollen und welche Funktionen einer QDA-Software hierfür benötigt werden. Zu berücksichtigen sind auch Art und Umfang des Materials, denn manche QDA-Programme sind nicht für die Bearbeitung von größeren Projekten mit Daten im Umfang von mehreren Megabyte geeignet. Ein einfaches qualitatives Projekt besteht vielleicht nur aus einer Einmalerhebung
Übersicht QDA-Software
253
von offenen Interviews mit wenigen Probanden. Komplexe Projekte arbeiten u.U. mit mehreren Erhebungszeitpunkten, verschiedenen Gruppen von Probanden, verschiedenen Datentypen und umfassen viele Probanden. Auch die Arbeitsorganisation ist von großer Bedeutung, d.h. wie viele Personen an der Analyse beteiligt sein werden und in welcher Form sie kooperieren sollen. Die von den meisten QDA-Programmen erhältlichen Demoversionen machen es möglich, die Analysefunktionen auszuprobieren. Leider lassen aber nicht alle Programme einen realitätsnahen Test zu, da sie dem Benutzer teilweise nur erlauben, mit einigen wenigen Texten oder einer beschränkten Anzahl von Codes zu arbeiten. Für die Auswertung komplexer Projekte lässt sich so nur schwer ein Praxistest durchführen. Bei der Auswahl von Programmen sollte man folgende Leitfragen bei der Evaluation eines Programms stellen. Hard- und Softwareerfordernisse Welche Systemanforderungen werden mindestens gestellt? Vor allem der minimal benötigte RAM-Speicher ist von Belang. Texte Wie müssen die Texte vorbereitet werden? Welche Begrenzungen hinsichtlich Format, Anzahl der Texte, Länge der Texte etc. gibt es? Müssen Texteinheiten vorab definiert werden? Müssen die Texte eine bestimmte Struktur aufweisen, z.B. eine bestimmte Zeilenlänge? Texte in welchen Sprachen kann die Software bearbeiten? Unterstützt sie den internationalen Zeichensatz-Standard Unicode. Codes/Kategoriensystem Wie ist ein Code im Programm definiert? Lassen sich Subcodes definieren? Wie viele Hierarchieebenen sind möglich? Welchen Typs ist das Kategoriensystem? Wie geht das Codieren vonstatten? Kann man das gleiche Segment mehrmals codieren? Werden Codierungen visuell dargestellt, in welcher Form? Kann man Codes farblich kennzeichnen? Dürfen Codierungen sich überlappen oder ineinander verschachtelt sein? Wie einfach sind Veränderungen von Codierungen und Kategoriensystem, z.B. Codierungen löschen, Codes fusionieren und ausdifferenzieren? Lässt sich die Relevanz von Textsegmenten markieren? Wird ein mehrstufiger Codierprozess
254
Anhang
(Grobcodierung/Feincodierung) unterstützt, d.h. lassen sich leicht neue Codes zuordnen. Memo Wie sieht ein Memo aus, aus welchen Angaben besteht es? Lassen sich Autor und Erstellungsdatum eines Memos festhalten? Welche Arten von Memos sind möglich? Wie werden Memos angezeigt? Gibt es Begrenzungen hinsichtlich der Anzahl und des Umfangs von Memos? Lassen sich Codes zu Memos zuordnen? Wie ist die gesamte Sammlung von Memos organisierbar? Kann man in Memos suchen? Lassen sich Memos nach bestimmten Codes selektieren? Fallvariablen Kann man Fallvariablen definieren? Welchen Typs können die Fallvariablen sein? Wieviele Variablen sind erlaubt? Wie übersichtlich ist die Darstellung? Gibt es Import-Export-Möglichkeiten zu SPSS und anderen Statistikprogrammen? Kann man Fallvariablen und Text-Retrieval verbinden? Text-Retrieval Wie werden codierte Segmente wiedergefunden? Gibt es eine Zusammenstellung der Segmente in einer Liste? Kann man vom codierten Segment in den Herkunftstext springen? Ist selektives Retrieval in Abhängigkeit von Fallvariablen möglich. Welche Funktionen zur Evaluierung von gleichzeitigem Vorkommen von Codes gibt es? Lexikalische Suche/automatische Codierung Ist die lexikalische Suche in den Texten möglich? Kann für den Suchprozess eine Auswahl von Texten nach bestimmten Kriterien vorgenommen werden? Ist eine automatische Codierung der Treffer möglich? Lässt sich ein Keyword-in-Context erstellen? Lassen sich aufeinander aufbauende Suchrecherchen durchführen? Teamarbeit Unterstützt die Software Teamarbeit? Wenn ja, in welcher Weise – wie muss man die Zusammenarbeit organisieren? Kann man die Texte arbeitsteilig bearbeiten? Können mehrere Personen den gleichen Text codieren?
Interessante Internet-Seiten rund um QDA-Software und qualitative Datenanalyse
255
Sprache Welche Sprachversionen existieren von der Software? Gibt es eine deutsche Version? Gibt es Handbücher, in welcher Form, in welchen Sprachen? Datenorganisation Wie effizient werden die Daten organisiert? Wie viel Speicherplatz nimmt ein durchschnittliches Projekt ein? Aus wie vielen Dateien besteht ein Projekt? Wie leicht ist die Datensicherung? Werden die Texte von der Software importiert und kontrolliert oder können Sie von außen verändert werden. Support Gibt es einen Support bei Problemen? Wie findet der Support statt (E-Mail, Telefon)? Ist der Support kostenpflichtig?
Interessante Internet-Seiten rund um QDA-Software und qualitative Datenanalyse Zur computerunterstützten Analyse qualitativer Daten existieren eine Reihe von interessanten Web-Quellen: caqdas.soc.surrey.ac.uk Das „Computer Assisted Qualitative Data Analysis Networking Project”, englischsprachiges Projekt zur Unterstützung und zur Information von Nutzern von Programmen zur qualitativen Datenanalyse. Es finden sich Hinweise auf Workshops, viele weiterführende Weblinks und andere Informationen. www.qualitative-research.net Forum Qualitative Sozialforschung, Online-Zeitschrift zu Methoden und Themen der qualitativen Sozialforschung mit Themenbänden zu zentralen Themen. Neben der Einsicht in Buchrezensionen und Interviews besteht die Möglichkeit, Themen der qualitativen Sozialforschung zu diskutieren. www.qualitative-forschung.de Online-Portal für qualitative Forschung, es finden sich allgemeine Informationen (zu Institutionen und Personen, zur Forschung, zur Weiterbildung,
256
Anhang
Verweise auf Online-Ressourcen etc.), Kommunikationsangebote (Mailingliste, Chat und Pinboard) sowie Hinweise auf Beratungen und Schulungen. www.methodenlernen.de Umfangreiches Online-Angebot des Arbeitsgebiets Empirische Pädagogik an der Philipps-Universität Marburg mit Schwerpunkt qualitative Methoden. Das Angebot umfasst Texte und Quellen (überwiegend PDF) und ist für alle TeilnehmerInnen an Online-Lehrangeboten zugänglich. www.nova.edu/ssss/QR The Qualitative Report, seit 1990 bestehendes, englischsprachiges OnlineJournal der Graduate School of Humanities and Social Sciences an der Nova Southeastern University mit dem Schwerpunkt der qualitativen Forschung. www.textanalysis.info Von Harald Klein unterhaltene Webseite mit sehr vielen Links und Informationen zur qualitativen und quantitativen Textanalyse. www.qualitativeresearch.uga.edu/QualPage Sammlung von Ressourcen zur qualitativen Sozialforschung (englischsprachig), u.a. finden sich Links zu Ankündigungen von Konferenzen und Workshops, zu Diskussionsforen, zu elektronischen Zeitschriften, Organisationen und Interessengruppen etc. http://www.uni-magdeburg.de/iew/zbbs Homepage des Zentrums für qualitative Bildungs-, Beratungs- und Sozialforschung mit eigener Zeitschrift und Mailingliste, darüber hinaus finden sich Texte zu qualitativen Methoden, Workshops u.v.m. onlineqda.hud.ac.uk Eine von der University of Huddersfield in Kooperation mit dem CAQDAS-Projekt der University of Surrey unterhaltene Site, die viele Materialien zu QDA-Software enthält. www.ualberta.ca/~iiqm Homepage des interdisziplinären „International Institute for Qualitative Methodology, Edmonton/Alberta (Canada)“
Interessante Internet-Seiten rund um QDA-Software und qualitative Datenanalyse
257
www.car.ua.edu Von Willliam Evans u.a. gestaltete Site zur quantitativen Inhaltsanalyse. Die Site enthält eine Literatur- und eine Softwareliste, weiterführende Links sowie eine Mailing-Liste.
Literatur
Alexa, M./Züll, C. (1999): A review of software for text analysis. ZUMA-Nachrichten Spezial Band 5. Mannheim: ZUMA. Bacher, J. (1996): Clusteranalyse. Anwendungsorientierte Einführung. (2. Aufl.). München/Wien: Oldenbourg. Banks, M. (2001): Visual methods in social research. London: Sage. Barton, A.H./Lazarsfeld, P.F. (1984): Einige Funktionen von qualitativer Analyse in der Sozialforschung. In: Hopf, C./Weingarten, E. (Hrsg.): Qualitative Sozialforschung. Stuttgart: Klett Cotta, 41-111. Bauer, M./Gaskell, G. (Ed.) (2000): Qualitative researching with text, image and sound. Thousand Oaks u.a.: Sage. Bazeley, P. (2009): Mixed methods data analysis. In: S. Andrew & E. Halcomb (Eds.), Mixed methods research for nursing and health sciences, Chichester, UK: Wiley-Blackwell, 84118. Berelson, B. (1952): Content analysis in communication research. Glencoe: Free Press. Blasius, Jörg/Greenacre, Michael Hrsg. (1998): Visualization of Categorical Data. San Diego: Academic Press. Böhm, A. (2005): Theoretisches Codieren: Textanalyse in der Grounded Theory. In: Flick, U./von Kardorff, E./Steinke, I. (Hrsg.): Qualitative Sozialforschung. Ein Handbuch. Reinbek: Rowohlt, 475-484. Böhm, A./Muhr, T./Mengel, A. (Hrsg.) (1994): Texte verstehen: Konzepte, Methoden, Werkzeuge. Konstanz: Universitätsverlag. Bortz, J. (2005): Statistik für Sozialwissenschaftler (6. Auflage). Berlin/Heidelberg/New York: Springer. Bos, W./Tarnai, C. (Hrsg.) (1989): Angewandte Inhaltsanalyse in der Empirischen Pädagogik und Psychologie. Münster u.a.: Waxmann. Bos, W./Tarnai, C. (Hrsg.) (1996): Computerunterstützte Inhaltsanalyse in den Empirischen Sozialwissenschaften. Theorie – Anwendung – Software. Münster u.a.: Waxmann. Buber, R./Zelger, J. (Hrsg.) (2000): GABEK II. Zur qualitativen Forschung. Innsbruck/ Wien/München: Studien Verlag. Bukova, A./Hellstern, G.-M. (1995): Computergestützte Argumentationsanalyse der Hochschulreformdebatte mit Hilfe von WINMAX 1.0. In: Kuckartz, U. (Hrsg.) (1995): Computergestützte Auswertung qualitativer Daten: Praxis, Erfahrungen, Zukunft. 1. MAX Benutzerkonferenz. Berlin. Buzan, T. (2004): Das kleine Mind-Map-Buch. München: Goldmann. CAQD (2005): Computergestützte Analyse Qualitativer Daten. winMAX/MAXQDA Anwenderkonferenz Philipps-Universität Marburg. Tagungsband mit erweiterten Abstracts der Tagungsvorträge. Verfügbar über: http://www.caqd.de (Zugriff: 02.09.2009).
Literatur
259
CAQD (2006): Computergestützte Analyse Qualitativer Daten. winMAX/MAXQDA Anwenderkonferenz Philipps-Universität Marburg. Tagungsband mit erweiterten Abstracts der Tagungsvorträge. Verfügbar über: http://www.caqd.de (Zugriff: 02.09.2009). Carmichael, P. (2002): Extensible Markup Language and Qualitative Data Analysis (39 paragraphs). Forum Qualitative Sozialforschung/Forum Qualitative Social Research [Online Journal], 3(2). Verfügbar über: http://www.qualitative-research.net/fqs/fqs-eng.htm (Zugriff: 02.09.2009). Coffey, A./Holbrook, B./Atkinson, P. (1996): Qualitative data analysis: technologies and representations. Sociological Research Online, vol. 1, no.1. Verfügbar über: http://www.socresonline.org.uk/1/1/4.html (Zugriff: 15.03.2005). Corbin, Juliet/Strauss, Anselm (2008): Basics of Qualitative Research. Techniques and Procedures for Developing Grounded Theory. Third Edition. Thousand Oaks: SageCorti, L. (2000): Progress and Problems of Preserving and Providing Access to Qualitative Data for Social Research – The International Picture of an Emerging Culture [58 paragraphs]. Forum Qualitative Sozialforschung/Forum: Qualitative Social Research [Online Journal], 1(3). Verfügbar über: http://www.qualitative-research.net/fqs-texte/300/3-00corti-e.htm (Zugriff: 02.09.2009). Creswell, John (2007): Qualitative Inquiry and Research Design. Choosing among five approaches. Second Edition. Thousand Oaks: Sage. Creswell, John /Piano, Vicky (2007): Designing and Conducting Mixed Methods Research. Thousand Oaks: Sage. Creswell, J.W./Maietta, R.C. (2002): Qualitative Research. In: Miller, D.C./Salkind, N.J. (Eds.): Handbook of Research Design and Social Measurement (6th edition). Thousand Oaks u.a.: Sage, 143-200. de Haan, G./Kuckartz, U. (1996): Umweltbewußtsein. Denken und Handeln in Umweltkrisen. Opladen: Westdeutscher Verlag. de Haan, G./Kuckartz, U./Rheingans, A. (2000): Bürgerbeteiligung und Lokale Agenda 21Initiativen. Analysen zu Kommunikations- und Organisationsformen. Opladen: Leske+ Budrich. Denzin, N.K./Lincoln, Y.S. (Eds.) (2000): Handbook of Qualitative Research (2nd. edition). Thousand Oaks u.a.: Sage. Dey, I. (1993): Qualitative Data Analysis. London u.a.: Routledge. Diekmann, A. (2000): Empirische Sozialforschung. Grundlagen, Methoden, Anwendungen. Reinbek: Rowohlt. Dittmar, N. (2002): Transkription. Ein Leitfaden mit Aufgaben für Studenten, Forscher und Laien. Feldmann, Klaus (2003): Du sollst dir kein Bild machen! (Nicht)Visualisierung in der Soziologie. In: TRANS. Internet-Zeitschrift für Kulturwissenschaften. No. 14/2002. Verfügbar unter: http://www.inst.at/trans/14Nr/feldmann14.htm. (Zugriff: 07.09.2009) Fielding, N./Lee, R. (1998): Computer Analysis and Qualitative Research. Thousand Oaks u.a.: Sage. Fielding, N./Lee, R. (Eds.) (1991): Using computers in qualitative research. Thousand Oaks u.a.: Sage. Fielding, N.G./Lee, R.M. (2002): New patterns in the adoption and use of qualitative software. Field methods 14:2 (5), 197-216.
260
Literatur
Fischer, F. 1998: Mappingverfahren als kognitive Werkzeuge für problemorientiertes Lernen. Frankfurt/M., Lang. Flick, U. (2007a): Qualitative Sozialforschung. Eine Einführung. Reinbek: Rowohlt. Flick, U. (2007b): Triangulation – Methodologie und Anwendung. Wiesbaden: VS Verlag. Flick, U./v. Kardoff, E./Steinke, I. (Hrsg.) (2005): Qualitative Sozialforschung. Ein Handbuch. Reinbek: Rowohlt. Ford, K./Oberski, I./Higgins, S. (2000): Computer-Aided Qualitative Analysis of Interview Data: Some Recommendations for Collaborative Working. The Qualitative Report (Online Journal), 4(3/4). Verfügbar über: http://www.nova.edu/ssss/QR/BackIssues/index.html (Zugriff: 12.03.2005). Friebertshäuser, B./Prengel, A. (Hrsg.) (1997): Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. Weinheim/München: Juventa. Früh, W. (2004): Inhaltsanalyse. Theorie und Praxis (5. Auflage). Konstanz: UVK Verlagsgesellschaft mbH. Gerhardt, U. (1986): Patientenkarrieren. Frankfurt/M.: Suhrkamp. Gerhardt, U. (1995): Typenbildung. In: Flick, U./v. Kardoff, E./Keupp, H./v. Rosenstiel, L./Wolff, S. Hrsg.): Handbuch Qualitative Sozialforschung. Weinheim: Beltz, PVU, 435-439. Gibbs, G.R. (2002): Qualitative Data Analysis: Explorations with NVivo. Buckingham: Open University Press. Gibbs, G.R./Friese, S./Mangabeira, W.C. (2002): Technikeinsatz im qualitativen Forschungsprozess. Einführung zu FQS Band 3(2) (34 Absätze). Forum Qualitative Sozialforschung/Forum Qualitative Social Research [Online Journal], 3(2). Verfügbar über: http://www.qualitative-research.net/fqs/fqs.htm (Zugriff: 31.07.2002). Giegler, H. (1992): Zur computerunterstützten Analyse sozialwissenschaftlicher Textdaten: Quantitative und qualitative Strategien. In: Hoffmeyer-Zlotnik, J.P. (Hrsg.) (1992): Analyse verbaler Daten. Opladen: Westdeutscher Verlag, 335-388. Giesel, Katharina (2007): Leitbilder in den Sozialwissenschaften: Begriffe, Theorien und Forschungskonzepte. Wiesbaden: VS. Glaser, B. (1978): Theoretical Sensitivity. Advances in the Methodology of Grounded Theory. Mill Valley: Sociology Press. Glaser, B. (1992): Emergence vs. forcing. Basics of grounded theory analysis. Mill Valley: Sociology Press. Glaser, B. (2002): Data Management: Computer Data Collection. Manuskript o.O. Glaser, B./Strauss, A. (1998): Grounded Theory. Bern: Hans Huber. Goffman, E. (2000): Rahmen-Analyse (5. Auflage). Frankfurt/M.: Suhrkamp. Greenstein, D.I. (1994): A Historian’s Guide to Computing. Oxford: University Press. Grunenberg, H. (2001): Die Qualität qualitativer Forschung. Eine Metaanalyse erziehungsund sozialwissenschaftlicher Forschungsarbeiten. Diplomarbeit FB Erziehungswissenschaften Marburg. Verfügbar über: http://www.g-berg.de/forschung.htm Helsper, W./Herwartz-Emden, L./Terhart, E. (2001): Qualität qualitativer Forschung in der Erziehungswissenschaft. Zeitschrift für Pädagogik, (47), 251-269. Hempel, C.G./Oppenheim, P. (1936): Der Typusbegriff im Lichte der neuen Logik. Wissenschaftstheoretische Untersuchungen zur Konstitutionsforschung und Psychologie. Leiden: Sijthoff. Herwartz-Emden (1986): Arbeitsplatz Hochschule – Eine qualitative Inhaltsanalyse. DFGProjektbericht. Technische Universität Berlin.
Literatur
261
Hesse-Biber, S./Dupuis, P. (1996): An Automatic Hypothesis Tester for Qualitative Analysis. In: Bandilla, W./Faulbaum, F. (Eds.). SoftStat ‘95: Advances in Statistical Software 5. Stuttgart, 353-360. Hopf, C. u.a. (1995): Familie und Rechtsextremismus: Familiale Sozialisation und rechtsextreme Orientierungen junger Männern. Weinheim/München: Juventa. Hopf, C./Hartwig, M. (2001): Liebe und Abhängigkeit. Partnerschaftsbeziehungen junger Frauen. Weinheim/München: Juventa. Hopf, C./Hopf, W. (1997): Familie, Persönlichkeit, Politik. Eine Einführung in die politische Sozialisation. Weinheim/München: Juventa. Hopf, C./Nevermann, K./Schmidt, I. (1985): Wie kamen die Nationalsozialisten an die Macht. Eine empirische Analyse von Deutungen im Unterricht. Frankfurt/M.: Campus. Hopf, C./Schmidt, C. (Hrsg.) (1993): Zum Verhältnis von innerfamilialen sozialen Erfahrungen, Persönlichkeitsentwicklung und politischen Orientierungen. Dokumentation und Erörterung des methodischen Vorgehens in einer Studie zu diesem Thema. Institut für Sozialwissenschaften der Universität Hildesheim. Verfügbar über: http://w2.wa.unihannover.de/mes/berichte/rex93.htm (Zugriff: 02.09.2009). Hopf, C./Weingarten E. (Hrsg.) (1979): Qualitative Sozialforschung. Stuttgart: Klett-Cotta. Huber, G. (1996): Theoriebildung und Rekonstruktion subjektiver Sichtweisen mit Aquad Vier. In: Bos, W./Tarnai, C. (1996): Computergestützte Inhaltsanalyse in den empirischen Sozialwissenschaften. Münster u.a.: Waxmann, 193-208. Huber, G.L. (Hrsg.) (1992): Qualitative Analyse: Computereinsatz in der Sozialforschung. München/Wien: Oldenbourg. Huberman, A.M./Miles, M.B. (1983): Drawing Valid Meaning from Qualitative Data: Some Techniques of Data Reduction and Display. In: Quality and Quantity 17, 281-339. Huberman, A.M./Miles, M.B. (1994): Data Management and Analysis Methods. In: Denzin, N./Lincoln, Y. (Eds): Handbook of Qualitative Research. Thousand Oaks u.a.: Sage, 428-444. Jahoda, M./Lazarsfeld, P.F./Zeisel, H. (1980): Die Arbeitslosen von Marienthal. Frankfurt/M.: Suhrkamp. Kelle, U. (1994): Empirisch begründete Theoriebildung. Zur Logik und Methodologie interpretativer Sozialforschung. Weinheim: Deutscher Studien Verlag. Kelle, U. (1997a): Capabilities for Theory Building & Hypothesis Testing. In: Software for Computer Aided Qualitative Data Analysis. Data Archive Bulletin, No.65. Kelle, U. (1997b): Theory building in Qualitative Research and Computer Programs for the Management of Textual Data. Sociological Research Online Vol. 2, No. 2. Kelle, Udo (2008): Die Integration qualitativer und quantitativer Methoden in der empirischen Sozialforschung: Theoretische Grundlagen und methodologische Konzepte. Wiesbaden: VS. Kelle, U. (2000): Computergestützte Analyse qualitativer Daten. In: Flick, U./v. Kardorff, E./Steinke, I. (Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 485501. Kelle, Udo (2005, May). "Emergence" vs. "Forcing" of Empirical Data? A Crucial Problem of "Grounded Theory" Reconsidered [52 Absätze]. Forum Qualitative Sozialforschung [On-line Journal], 6(2). Kelle, U. (Ed.) (1995): Computer-Aided Qualitative Data Analysis. Theory, Methods and Practice. Thousand Oaks u.a.: Sage.
262
Literatur
Kelle, U./Kluge, S. (1999): Vom Einzelfall zum Typus. Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung. Opladen: Leske+Budrich. Kelle, U./Laurie, H. (1995): Computer Use in Qualitative Research and Issues of Validity. In: Kelle, U. (1995): Computer-Aided Qualitative Data Analysis. Theory, Methods and Practice. Thousand Oaks u.a.: Sage. Klein, H. (1997): Overview on text analysis software. In: Bandilla, W./Faulbaum, F. (Eds.): SoftStat '97 – Advances in Statistical Software. Stuttgart: Lucius & Lucius. Kluge, S. (1995): Klassische und computergestützte Typenbildung im Vergleich: Ein Beispiel aus der Forschungspraxis. In: Kuckartz, U. (Hrsg.) (1995): Computergestützte Auswertung qualitativer Daten: Praxis, Erfahrungen, Zukunft. 1. MAX Benutzerkonferenz, Berlin. Kluge, S. (1999): Empirisch begründete Typenbildung. Zur Konstruktion von Typen und Typologien in der qualitativen Sozialforschung. Opladen: Leske+Budrich. Kluge, S./Opitz, D. (1999): Die Archivierung qualitativer Interviewdaten: Forschungsethik und Datenschutz als Barrieren für Sekundäranalysen? Soziologie, Mitteilungsblatt der DGS, Nr. 4, 48-63. König, T. (2004): CAQDAS in der Frame Analysis. In: Kuckartz, U./Grunenberg, H./Lauterbach, A. (Hrsg.): Qualitative Datenanalyse computergestützt. Methodische Hintergründe und Beispiele aus der Forschungspraxis. Wiesbaden: VS Verlag, S. 81-93. Kowall, S./O’Connell, D.C. (2000): Zur Transkription von Gesprächen. In: Flick, U./v. Kardorff, E./Steinke, I. (Hrsg.): Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt, 437-447. Kracauer, S. (1952). The challenge of qualitative content analysis. Public Opinion Quarterly, 16, 631-642. Krempel, Lothar (2005): Visualisierung komplexer Strukturen. Grundlagen der Darstellung mehrdimensionaler Netzwerke, Frankfurt/M.: Campus. Kriz, J./Lisch, R. (1988): Methoden-Lexikon. Weinheim/München: PVU. Kuckartz, U. (1988): Computer und verbale Daten: Chancen zur Innovation sozialwissenschaftlicher Forschungstechniken. Frankfurt/M.: Perte Lang. Kuckartz, U. (1995): Case-oriented quantification. In: Kelle, U. (Ed.): Computer-Aided Qualitative Data Analysis. Theory, Methods and Practice. Thousand Oaks u.a.: Sage. Kuckartz, U. (1996): Argumentationen und Leitbilder computergestützt analysieren. In: Historical Social Research. Historische Sozialforschung, Vol 21, No.3, 115-136. Kuckartz, U. (1999): Computergestützte Analyse qualitativer Daten. Eine Einführung in Methoden und Arbeitstechniken. Opladen: Westdeutscher Verlag. Kuckartz, U. (2001): Aggregation und Dis-Aggregation in der sozialwissenschaftlichen Umweltforschung. Methodische Anmerkungen zum Revival der Typenbildung. In: de Haan, G./Lantermann, E.-D./Linneweber, V./Reusswig, F. (2001): Typenbildung in der sozialwissenschaftlichen Umweltforschung. Opladen: Leske+Budrich. Kuckartz, U./Grunenberg, H./Lauterbach, A. (2004): Qualitative Datenanalyse computergestützt. Methodische Hintergründe und Beispiele aus der Forschungspraxis. Wiesbaden: VS Verlag. Kuckartz/Grunenberg/Dresing (Hrsg.) (2007): Qualitative Datenanalyse: computergestützt: Methodische Hintergründe und Beispiele aus der Forschungspraxis. Wiesbaden: VS Verlag.
Literatur
263
Kuckartz, U./Dresing, T./Rädiker, S./Stefer, C. (2008): Qualitative Evaluation. 2. Aufl., Wiesbaden: VS Verlag. Kuckartz, U./Ebert, T./Rädiker, S./Stefer, C. (2009): Evaluation Online. Internetgestützte Befragung in der Praxis. Wiesbaden: VS Verlag. Lamnek, S. (2005): Qualitative Sozialforschung. Lehrbuch (4. Auflage). Weinheim: Beltz. Lazarsfeld, P.F. (1972): Qualitative analysis. Historical and critical essays. Boston: Allyn and Bacon. Lee, R.M./Fielding, N. (1996): Qualitative Data Analysis: Representations of a Technology: A Comment on Coffey, Holbrook and Atkinson. In: Sociological Research Online Vol. 1, No. 4. Legewie, H./Schervier-Legewie, B. (1995): Anselm Strauss im Gespräch. Journal für Psychologie. 3, 64-75. Lewins, Ann/Silver, Christina (2007): Using Software in Qualitative Research. A Step-byStep Guide. Thousand Oaks: Sage.Lofland, J./Lofland, L.H. (1984): Analyzing social settings: A guide to qualitative observation and analysis (2. Auflage). Belmont/CA.: Wadsworth. Ludwig-Mayerhofer, W. (2005): ILMES – Internet-Lexikon der Methoden der empirischen Sozialforschung. Verfügbar über: www.lrz-muenchen.de/~wlm/ilmes.htm. Marz, L. (1993): Leitbild und Diskurs (Eine Fallstudie zur diskursiven Technikfolgenabschätzung von Informationstechniken). WZB Papers FS II Berlin, 93-106. Marz, L./Dierkes, M. (1992): Leitbildprägung und Leitbildgestaltung. Zum Beitrag der Technikgenese-Forschung für eine prospektive Technikfolgen-Regulierung. WZB Papers FS II Berlin, 92-105. Mayring, P. (2001): Kombination und Integration qualitativer und quantitativer Analyse (31 Absätze). Forum Qualitative Sozialforschung/Forum: Qualitative Social Research [Online Journal], 2(1). Verfügbar über: http://qualitative-research.net/fqs/fqs.htm (Zugriff: 02.09.2009). Mayring, P. (2002): Einführung in die qualitative Sozialforschung. Eine Anleitung zu qualitativem Denken (5. Auflage). Weinheim: Beltz. Mayring, P. (2003): Qualitative Inhaltsanalyse. Grundlagen und Techniken (8. Auflage). Weinheim: Deutscher Studien Verlag. Merten, K. (1995): Inhaltsanalyse. Einführung in Theorie, Methode und Praxis (2. Auflage). Opladen: Westdeutscher Verlag. Merton, Robert K./Barber, Elinor: (2004a) The Travels and Adventures of Serendipity: A Study in Sociological Semantics and the Sociology of Science. Princeton University Press, Princeton Merton, Robert K. (2004b): Auf den Schultern von Riesen. Suhrkamp, Frankfurt am Main Mey, Günter/Mruck, Katja (Hrsg.) (2007). Grounded Theory Reader (Reihe: HSR Supplement 19). Köln: ZHSF. Miles, M.B./Huberman, M. (1994): Qualitative Data Analysis. An Expanded Sourcebook (2nd edition). Thousand Oaks u.a.: Sage. Miller, D.C./Salkind, N.J. (Eds.) (2002): Handbook of Research Design and Social Measurement (6th edition). Thousand Oaks u.a.: Sage. Mruck, K. (2000): Qualitative Sozialforschung in Deutschland (54 Absätze). Forum Qualitative Sozialforschung/Forum Qualitative Social Research [Online Journal], 1(1). Verfügbar über: http://qualitative-research.net/fqs (Zugriff: 02.09.2009).
264
Literatur
Muhr, Th. (2000): Forum: Increasing the Reusability of Qualitative Data with XML: Forum Qualitative Sozialforschung/Forum Qualitative Social Research [Online Journal], 3(2). Verfügbar über: http://www.qualitative-research.net/fqs/fqs-eng.htm (Zugriff: 02.09.2009). Prein, G./Kelle, U./Bird, K. (1995): An Overview of Software. In: Kelle, U. (Ed.) (1995): Computer-Aided Qualitative Data Analysis. Theory, Methods and Practice. Thousand Oaks u.a.: Sage. Ragin, C. (1987): The comparative method. Moving beyond qualitative and quantitative strategies. Berkeley/Los Angeles/London: University of California Press. Ragin, C. (1994): Constructing Social Research: The Unity and Diversity of Method. Thousand Oaks u.a.: Sage. Richards, T./Richards, L. (1994): Using computers in qualitative analysis. In: Denzin, N. K./ Lincoln, Y. S. (Eds.) (1994): Handbook of qualitative research. Thousand Oaks u. a.: Sage. Roberts, K.A./Wilson, R.W. (2002): ICT and the Research Process: Issues Around the Compatibility of Technology with Qualitative Data Analysis (52 paragraphs). Forum Qualitative Sozialforschung/Forum: Qualitative Social Research [Online Journal], 3(2). Verfügbar über: http://www.qualitative-research.net/fqs-texte/2-02/2-02robertswilsone.htm (Zugriff: 02.09.2009). Rössler, Patrick 2005: Inhaltsanalyse Schauf, G./Schünemann, R.. (1995): Experteninterviews in der Jugendhilfeforschung. In: Kuckartz, U. (Hrsg.) (1995): Computergestützte Auswertung qualitativer Daten: Praxis, Erfahrungen, Zukunft. 1. MAX Benutzerkonferenz, Berlin. Schmidt, C. (1997): „Am Material“: Auswertungstechniken für Leitfadeninterviews. In: Friebertshäuser, B./Prengel, A. (1997): Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. Weinheim/München: Juventa. Schnell, R./Hill, P./Esser, E. (2004): Methoden der empirischen Sozialforschung. München: Oldenbourg Wissenschaftsverlag. Schründer-Lenzen, A. (1996): Inhaltsanalyse als Instrument methodisch kontrollierter Typenbildung: Das Textanalysesystem MAX in der Forschungspraxis. In Bos W./Tarnai C. (Hrsg.): Computergestützte Inhaltsanalyse in den empirischen Sozialwissenschaften. Münster u.a.: Waxmann, 135-148. Schründer-Lenzen, A. (1997): Triangulation und idealtypisches verstehen in der (Re-)Konstruktion subjektiver Theorien. In: Friebertshäuser, B./Prengel, A. (Hrsg.): Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft. Weinheim/München: Juventa. Schütz, A. (1962): Collected Papers I. The Problem of Social Reality. The Hague: Nijhoff. Seale, C. (1999): The Quality of Qualitative Research. Thousand Oaks u.a.: Sage. Seale, C./Silverman, D. (1997): Ensuring rigour in qualitative research. European Journal of Public Health, H.7, 379-384. Silverman, D. (1993): Interpreting Qualitative Data: Methods for Analysing Talk, Text and Interaction. Thousand Oaks u.a.: Sage. Spöhring, W. (1995): Qualitative Sozialforschung. Stuttgart: Teubner. Steinke, I. (1999): Kriterien qualitativer Forschung. Ansätze zur Bewertung qualitativempirischer Sozialforschung. Weinheim/München: Juventa.
Literatur
265
Strauss, A. (1991): Grundlagen qualitativer Sozialforschung. Datenanalyse und Theoriebildung in der empirischen und soziologischen Forschung. München: Fink. Strauss, A./Corbin, J. (1996): Grundlagen qualitativer Sozialforschung. Weinheim: Beltz. Strübing, Jörg (2004): Grounded Theory: Zur sozialtheoretischen und epistemologischen Fundierung des Verfahrens der empirisch begründeten Theoriebildung. VS Verlag für Sozialwissenschaften, Wiesbaden 2004 Strübing, Jörg (2007): Anselm Strauss. Konstanz: UVK.Tesch, R. (1990): Qualitative Research: Analysis Types and Software Tools. New York/Philadelphia/London: The Falmer Press. Toulmin, S.E. (1975): Der Gebrauch von Argumenten. Kronberg/Ts.: Scriptor. Weber, M. (1911): Geschäftsbericht auf dem 1. Deutschen Soziologentag vom 19.–22. 10.1910 in Frankfurt/Main. In: Verhandlungen der Deutschen Soziologentage, Tübingen, 39 – 52. Stuttgart: Enke. Weber, M. (1964): Wirtschaft und Gesellschaft. Grundriß der verstehenden Soziologie. Studienausgabe, hrsg. von J. Winckelmann. Köln/Berlin: Kiepenheuer & Witsch. Weitzman, E./Miles, B. (1995): Computer Programs for Qualitative Data Analysis: A Software Sourcebook. Thousand Oaks u.a.: Sage. Wirth, W./Lauf, E. (2001): Inhaltsanalyse. Perspektiven, Probleme, Potentiale. Köln: Herbert von Halem Verlag. Witzel, A. (1982): Verfahren der qualitativen Sozialforschung. Frankfurt: Campus. Witzel, A. (2000): Das problemzentrierte Interview [26 Absätze]. Forum Qualitative Sozialforschung/Forum: Qualitative Social Research [On-line Journal], 1(1). Verfügbar über: http://www.qualitative-research.net/fqs-texte/1-00/1-00witzel-d.htm (Zugriff: 02.09.2009). Züll, C./Mohler, P. (Hrsg.) (1992): Textanalyse, Anwendungen der computergestützten Inhaltsanalyse, Opladen: Westdeutscher Verlag. Züll, C./Mohler, P.P./Geis, A. (1991): Computergestützte Inhaltsanalyse mit TEXTPACK PC. Stuttgart/New York: Fischer.
Index
A Absatzzeichen 49, 55, 131 Ähnlichkeit 231 Ähnlichkeitskoeffizienten 233 Ähnlichkeitsmatrix 231, 234 Aktionsforschung 19 Analyseeinheit 35 Analyseformen 18 Ankerbeispiele 134 Anonymisierung 33, 47 Antworttexte auf offene Fragen 50 AQUAD 251 Argumentationsanalyse 207 Argumentationstheorie 208 ATLAS.TI 251 Auswertung qualitativer Interviews 109 Automatisches Codieren 127
B Bandbasierte Analyse 39 Beobachtungsstudien 128 Bewertungsanalyse 219
C CAQDAS 9 Clusteranalyse 28, 237, 238 Codeliner 189 Code-Matrix-Browser 193 Code-Memo 144 Code-Memos 83, 137, 138 Code-Notizen 135 Code-Relations-Browser 194 Codes ausdifferenzieren 216 bewertende 62, 170 emergieren 63 fusionieren 215
Häufigkeiten 117 Hierarchie 114 Obercode einfügen 215 überschneidende 114 Codes for human analysis of transcripts (CHAT) 42 Codetypen 61 Codiereinheiten 94 Codieren 57, 59, 64, 91 automatisches 127 axiales 77 farbig 66 induktives 202 konsensuelles 88 kooperatives 149 offenes 67, 75 selektives 77 Codierparadigma 77 Codierte Segmente 65 Coding Stripes 180 Computerunterstützte Inhaltsanalyse (CUI) 219 Cross-Case Displays 184 Cut-and-paste 64
D Datenvorbereitung 36 Deduktive Kategorienbildung 201 Deduktive Vorgehensweise 60 Dekontextualisierung 62 Diagramme 178 Dialektfärbungen 43 Digitale Aufnahme 38 Diktionär 220, 224 Dimension 62 Dimensionalisieren 76 Dimensionalisieren und Feincodierung 100 Dimensionalisierung 212
267
Index Diskurs-Datenbank (DIDA) 42 Diskurstranskription nach du Bois 42 Dokumentenanalysen 128 Drag-and-drop 51
E Effektivierung 247 Effizienzsteigerung 19 Einleseprozedur 50 Einschätzungsdimensionen 151 Entfernungsoperatoren 163 Ethnographie 19 Explikation 93
F Faktencodes 61 Faktorenanalyse 28, 243, 244 Fallorientierte Vorgehensweise 229 Fallvariablen 27, 102, 146 Feincodierung 213 Feldforschungen 128 Forenbeiträge im Internet 49 Fotos 31, 34 Frequenzanalyse 219
G Gedächtnisbasierte Auswertung 39 Gefahren des Computereinsatzes 248 Generalisierende Analyse 109 Generalisierung 96 Gesprächsanalytisches Transkriptionssystem (GAT) 42 Grafiken 31, 34 Grobcodierung 212 Grounded Theory 19, 40, 73, 133 codieren 74 Umsetzung mit QDA-Programm 82 Vorgehen 79 Gruppendiskussion 48, 49, 131
H HalbinterpretativeArbeitsTranskription (HIAT) 42 Handlungsmodell 77 Handlungstypen 98 Häufigkeitsauszählung 89 Hermeneutik 19
Hierarchisches Kategoriensystem 199 Hyperlinks 24 HYPERRESEARCH 251 Hypothesen 58 testen 166
I Index der Codierungen 116 Induktive Kategorienbildung 95, 201 Induktive Vorgehensweise 60 Inhaltsanalyse 74 Integration qualitativer und quantitativer Methoden 248 Inter-Coder-Reliabilität 61 Intra-Coder-Reliabilität 61 In-Vivo-Codes 75, 83 In-Vivo-Codieren 68
K Kategorien 58, 62 Kategorienbegriff 58 Kategorienbildung 58, 87 deduktive 202 induktiv 201 Kategoriensystem 25, 198 Aufbau 200 hierarchisch 199 linear 199 netzwerkstrukturiert 200 Typen 199 Kernkategorie 77 Keyword-in-context (KWIC) 121, 128, 130 Komparatistik 125 Konfigurationsfrequenzanalyse 228 Kontingenzanalyse 219 Kontrastierung 112, 146 Konversationsanalyse 46 Konzept 62, 75 Konzept Maps 186 Korrespondenzanalyse 28 Kritischer Rationalismus 58 KWALITAN 251 KWIC-Listen 121
L Leitbildanalyse 211
268
Index
Leitfaden 124, 125 Leitfadeninterviews 49, 205 Lexikalische Suche 46, 121, 128 Lineares Kategoriensystem 199
M MAXDICTIO 123, 223 Maxqda 252 Code-Matrix-Browser 213 Codesystem 214 Diktionäre 223 Fallvariablen 154 farbige Codes 180 Gewichtungsvariablen 175 komplexes Text-Retrieval 174 logische Aktivierung 173 Memo-Manager 144 Variablen importieren 155 Visualisierungen 195 Memos 25, 83, 133, 180 Regeln 137, 141 Memotypen nach Strauss 135 Mengenoperatoren 166 Merkmal 62, 75 Merkmalsraum 103 Mind Maps 185 MP3-Format 38 Multimedia-Integration 250 Muster erkennen 230
N Netzwerkstrukturiertes Kategoriensystem 200 Nominaldefinitionen 58 Notizen 24, 133 NVIVO 252
O OCR Einscannen 37 OLE-Objekte 31, 33 Online-Forschung 250
P Paraphrasierung 94, 96 Phänomenologie 19 Planungs-Memos 135, 138
Präsentation 178, 184 Preprozessor 54 Protokollbasierte Analyse 39
Q QDA MINER 252 QDA-Software Analyseschritte 21 Anwendungsfelder 15 Übersicht 251 Qualität qualitativer Forschung 91 Qualitative Evaluation 19 Qualitative Inhaltsanalyse 92 QUALRUS 252 Quantitative Inhaltsanalyse 60, 63, 207, 218
R Rahmendaten 147 Relevanz-Score 157, 217 Reliabilität 61, 172 Rich-Text-Format 33
S Sample-Umfang 102 Schließregeln 208 Schlüsselkategorien 83 Segment 65 Segmentierung 64 Sekundäranalyse 248 Selektion von Fällen 146 Sequenzoperatoren 163 Sinneinheiten 63 Skalenniveau 147 Skalierung 151 Sozio-demographische Merkmale 126, 146 Sprachliche Färbungen 43 Sprecherbezeichnung 46 SPSS 152, 231 Ähnlichkeitsmatrix 234 Clusteranalyse 239 Clusterauswertung 240 Stichprobengröße 50 Stopp-Liste 220, 224 Strukturierende Inhaltsanalyse 150 Strukturierung 93 Support 255
269
Index Symbolischer Interaktionismus 19 Systemanforderungen 253
T Teamarbeit 57, 247, 254 Teamwork 249 Text Beschränkungen 29 einscannen 16 extern-strukturiert 123 Länge 30 strukturiert 49 Texteinheit 35, 48, 52 Textexploration 125 Textformat 34 Textgruppen 53 TextPortrait 189 Text-Retrieval 26, 108, 111 Entfernungsoperatoren 162 komplexes 27, 161 Mengenoperatoren 162 selektives 157 Textsegmente 23 Gewichtung 157 Herkunftsangabe 111 kontrastieren 112 Länge 65 Textverarbeitungsprogramm 15, 31 THE ETHNOGRAPH 252 Themenanalyse 100, 219 Theoriebildung 78 Theorie-Memos 83, 135, 139 Transkriptbasierte Analyse 39 Transkription 38 Auswahl 40 Zeitaufwand 40 Transkriptionsregeln 41 Transkriptionssystem 44 Transparenz 247 Two-step-Codieren 64
Typenbildung 97, 103, 227 Typisierende Generalisierung 109 Typologische Analyse 99
U Überlappung von Codes 113, 163 Überschneidung von Codes 113, 164 Unicode 35
V Validierungsdatei 225 Validität 61 Variablen 58, 218 Variablenmatrix 148, 154 Variablennamen 151 Variablenorientierte Vorgehensweise 229 Visualisierung 157, 178, 250 Vorab-Codierung 48, 54, 125
W Windows-Zwischenablage 51, 53 Within-Case Displays 184 WMA-Format 38 Word 32 Wörterbuch 220 Wortindex 220 Wortlisten 220
Z Zeichenformatierung 34 Zeichenketten 45 Zeichensatz Unicode 35 Zeilen-Layout 49 Zeilennummerierter Text 57 Z-Regeln 95 Zuordnung von Kategorien 57 Zusammenfassung 93