Volume 9, No. 2, Art. 13 – Mai 2008

Im Dialog mit den Daten das eigene Erzählen der Geschichte finden. Über die Kodierverfahren der Grounded-Theory-Methodologie1)

Charles Berg & Marianne Milmeister

Zusammenfassung: Kodierverfahren in der Grounded-Theory-Methodologie (GTM) sind das Thema des vorliegenden Beitrags. Ziel ist die Verbesserung der Kodierpraxis und die Explizierung unterschiedlicher Grundannahmen der GTM. Besonders betont wird sowohl die Notwendigkeit eines Dialogs mit den Daten als auch die Entwicklung einer Storyline.

Ausgangspunkt des Beitrags ist die allgemeine Beschreibung des Kodierens, der dann eine Diskussion der verschiedenen Kodieretappen (offenes, axiales beziehungsweise theoretisches und selektives Kodieren) folgt. Abschließend wird das Bild eines reflektiv-interpretativen Umgangs mit der GTM entworfen.

Keywords: Grounded-Theory-Methodologie, Kodierverfahren, qualitative Methoden, Storyline

Inhaltsverzeichnis

1. Qualitative Verfahren in der Methodenlehre und im Forschungsprozess

2. Eine erste Annäherung ans Kodieren

2.1 Was ist Kodieren?

2.2 Minimalia der qualitativen Kodierarbeit

2.3 Kodieren und die Methode des permanenten Vergleichs

3. Hierarchisch-iterative Etappen des Kodierprozesses

3.1 Zitatauswahl und Textsegmentierung

3.2 Offenes Kodieren

3.3 Axiales Kodieren

3.4 Selektives Kodieren

4. Für eine flexible und reflexive Praxis der Grounded-Theory-Methodologie

Anmerkungen

Literatur

Zum Autor und zur Autorin

Zitation

 

1. Qualitative Verfahren in der Methodenlehre und im Forschungsprozess

Die Unterscheidung von qualitativen und quantitativen Verfahren gehört heute zum Grundbestand sozialwissenschaftlicher Methodenlehre. Bemüht werden dabei die unterschiedliche Datenqualität und – auf Seiten qualitativer Sozialforschung – die größere Nähe zur subjektiven Erfahrung und zur sozialen Lebenswelt, die Präferenz für natürliche, weniger artifizielle Erhebungssituationen, die stärkere Kontextualisierung und die deutliche Orientierung an alltagsweltlichen Handlungs- und Sinnzusammenhängen (z.B. BREUER 2000; MRUCK & MEY 2005). Mehr oder minder unausgesprochen wird dabei unterstellt, dass sich die aufgelisteten Attribute zu einem paradigmatischen Muster zusammenfügen, das eine dichotome Gegenüberstellung der "Natur" (vgl. BRYMAN 2001, S.61 und 263) von quantitativer und qualitativer Forschung erlaubt. Nathaniel GAGE (1989) spricht gar von "Paradigmenkriegen". Was sich in der Methodentheorie eher plausibel anhört, erweist sich in der praktischen Forschungsarbeit als kaum brauchbar. Hier wird es wichtig, zu strikte oder zu simple Polarisierungen zu vermeiden. Martyn HAMMERSLEY (1992, S.80) hat zurecht darauf hingewiesen, dass die lehrbuchhafte Opposition von quantitativem und qualitativem "Paradigma" sich oft auf ein Bündel unabhängiger Dimensionen bezieht, d.h. ein Forschungsdesign kann z.B. mit quantitativen Daten arbeiten und dennoch in der Interpretation die Nähe zur lebensweltlichen Erfahrung suchen. Das Vorhandensein eines Attributs impliziert also nicht notwendigerweise auch das der übrigen Theoriekennzeichen. Dabei lässt die zunehmende Verbreitung qualitativer Sozialforschung die These einer Paradigmendichotomie immer unwahrscheinlicher erscheinen, und allmählich wird die Kluft zwischen quantitativem und qualitativem Arbeiten zumindest partiell überwunden (vgl. BRYMAN 2001, S.427ff.). [1]

Praxis- und handlungsrelevante Theorien entsprechen einem gemeinsamen Erkenntnisanspruch, unabhängig davon, wie sie generiert wurden (vgl. zur Diskussion über die Integration qualitativer und quantitativer Analyse etwa MAYRING 2002; ROST 2005). So kann z.B. gefragt werden, wie Kohärenz und Reichweite auf der einen und Überprüfbarkeit und Verlässlichkeit auf der anderen Seite durch das methodische Vorgehen, sei es qualitativer oder quantitativer Natur, abgesichert werden. Trotz unterschiedlicher Forschungsstile bleibt es in der Regel wichtig, in Bezug auf den eigenen Kontext sinnvolle Fragen zu stellen, die Datenerhebung und -auswertung in Bezug auf Genauigkeit und Objektadäquanz, sowie die entwickelten Theorien in Bezug auf ihre Ökonomie, Relevanz und Nachvollziehbarkeit hin zu verbessern. [2]

Um diesem allgemeinen Qualitätsanspruch zu entsprechen, muss der Weg der Wissensproduktion von der Fragestellung zur Theorie intersubjektiv nachvollziehbar bleiben. Daraus ergibt sich, dass die angewandten Verfahren möglichst genau beschrieben und so überdacht werden, dass sie nachprüfbar bleiben. Man entfernt sich von einer "naturwüchsigen" Alltagsinterpretation, indem man versucht, sie so gut wie möglich zu kontrollieren (HITZLER & HONER 1997, S.12). Gleichzeitig muss auf der anderen Seite eine zu rigide Hypostasierung des Analyseverfahrens, ein Verkommen zum schlichten Rezept, vermieden werden. Nur so kann nämlich jene Flexibilität gewährleistet werden, die es erlaubt, gerade offenes, komplexes und vielfältiges Material angemessen zu bearbeiten: eine Beschaffenheit des Materials, die sich u.a. daraus ergibt, dass die anfängliche Komplexitätsreduktion beim qualitativen Arbeiten weit geringer ist als bei den meisten quantitativen Verfahren. Qualitative Forschung braucht deshalb Spielraum für die Empfindlichkeit, die "Kunst" und die theoretische Intuition des Interpreten bzw. der Interpretin, und gibt so der soziologischen imagination2), der theoretical sensitivity3) eine größere Chance. [3]

Das eben angesprochene Problem verstärkt sich im Rahmen der Grounded-Theory-Methodologie (GTM). Das liegt daran, dass das Verhältnis einer grounded theory zur empirischen Realität durch eine Doppelbewegung gekennzeichnet ist. Einerseits soll der Prozess der Generierung theoretischer Hypothesen auch empirisch fundiert erfolgen, den Daten kommt also größere Bedeutung zu, Theorie wird im direkten Kontakt mit ihnen entwickelt. Andererseits sollen aber empirische Gegenstände nicht in ihrer Einzigartigkeit beschrieben werden. Das zentrale Anliegen ist nämlich gar nicht die Beschreibung, sondern die Konzeptionalisierung (GLASER 2001, S.9ff.). So bekommt das eigene Sprechen der Interpretinnen und Interpreten in einem verstärkten Maße sein Recht, und die "Macht" der Daten wird eingeschränkt. Dadurch liegt der GTM eine für das hermeneutische Arbeiten charakteristische Konfliktfigur zugrunde, die Spannung von Nähe und Distanz, von Vertrautheit und Fremdheit. Die Konfrontation mit der Subjektivität des oder der Anderen ist so von zwei widersprüchlichen Momenten gekennzeichnet: dem Anspruch, ihn oder sie zu verstehen, als wäre er/sie ein Alter Ego, und dem Wissen um die Opazität des Anderen oder zumindest um dessen plurale Wahrheit. [4]

Der folgende Beitrag ist dem Kodieren gewidmet. Im Blickpunkt steht dabei weniger die epistemologische und methodologische Unterfütterung (vgl. hierzu etwa KELLE 1995; STRÜBING 2004) oder die prozedurale Beschreibung von Verfahren, wie sie bei STRAUSS und CORBIN (1990) zu finden sind. Wir möchten vielmehr zeigen, wie in der praktischen Forschungsarbeit dem doppelten Anspruch auf Nachvollziehbarkeit und Offenheit zu genügen, wie die Verbindung von Systematik und Kreativität zu leisten ist. Das bedeutet kein rewriting der GTM (vgl. dazu GLASER 2001, S.201ff.). Unser Hauptziel ist, a) die Kodier- und Auswertungspraxis zu verbessern und b) das eine oder andere implizit in der GTM angelegte Moment deutlicher zu machen. Dabei liegt uns daran, auch zu zeigen, wie die alltäglichen kleinen Entscheidungen getroffen werden können, aber auch, wie mit Unwägbarkeiten und Unsicherheiten im Forschungsprozess umgegangen werden kann. Unsere Grundthese ist, dass entsprechend dem Anspruch der GTM in allen Teilschritten des Kodierprozesses, wenn auch in unterschiedlicher Form, der Doppelbezug aufrechterhalten werden soll, einerseits zum Dialog mit den Daten (BECKER 1998, S.109) und andererseits zum Herausschälen des eigenen Erzählens der Geschichte (STRAUSS & CORBIN 1990, S.119-121). [5]

Hintergrund unserer Überlegung ist dabei die Forschung am Centre d’études sur la situation des jeunes en Europe, dem Luxemburger nationalen Jugendforschungsinstitut. Hier sind seit dem Jahre 2000 eine Reihe von Projekten durchgeführt worden, die entweder qualitative Analyseverfahren anwandten oder sich explizit auf die Grounded-Theory-Methodologie bezogen. Rückblickend kann man sagen, dass wir einerseits aus allen Projekten gelernt haben, keines aber andererseits unserem derzeitigen methodologischen Anspruch genügt.4) Unser Text versteht sich also als Reflexion unserer Forschungspraxis und der in ihr gewonnenen Erfahrungen. Er ist kaum eine Anleitung zum Kodieren, denn Königswege zum Kodierenlernen, die kaum durch eine papierene Beschreibung von Verfahren und auch nicht durch Workshops ersetzt werden können, sind unserer Erfahrung nach die langfristige Arbeit mit einem Mentor oder einer Mentorin, die Arbeit in einem Forschungsteam mit komplementären Kompetenzen und Sensibilitäten und der Austausch in einem Netzwerk.5) [6]

2. Eine erste Annäherung ans Kodieren

2.1 Was ist Kodieren?

Im Bereich der qualitativen Methoden Begriffe eindeutig definieren, ist nicht immer einfach, da sich allein schon die Grounded-Theory-Methodologie heute als geschichteter methodologischer Kanon präsentiert. Die Aussage, man wende GTM an, hat also nicht die gleiche Genauigkeit wie z.B. die Referenz auf ein etabliertes statistisches Verfahren zur Signifikanzprüfung. Um halbwegs genau zu sein, muss mindestens GTM auf dem "Discovery-Niveau" (GLASER & STRAUSS 1967) unterschieden werden von den späteren Fassungen von STRAUSS (1987), von STRAUSS und CORBIN (1990) und von GLASER (1992, 1998). Hinzu kommen Second-Generation-Modelle, individuelle Anpassungen im Rahmen spezifischer Forschungsprozesse (vgl. GLASER 2001, S.211-229) und sicher auch Verfahrensmodellierungen, wie sie durch QDA-Software (vgl. WEITZMAN & MILES 1995), in unserem Falle vor allem ATLAS.ti, vermittelt werden. Dennoch stehen die unterschiedlichen GTM-Varianten nicht beliebig zur Auswahl. Das Studium der GTM kann sich deshalb nicht auf das Erlernen einer Verfahrensvariante reduzieren, sondern setzt eine breitere Auseinandersetzung mit der Literatur zur GTM voraus. Nur durch die interpretative Aufarbeitung der vierzigjährigen Geschichte des Ansatzes (vgl. LAROSSA 2005) wird nachvollziehbar, was den gemeinsamen Grundstock der GTM ausmacht. Unsere Überlegungen zielen nun nicht darauf, eine zusätzliche Variante des Kodierverfahrens zu entwickeln, sondern wir wollen explizieren, wie sich der für die GTM charakteristische doppelte Anspruch auf Systematik und Offenheit in der Kodierpraxis verwirklichen lässt.6) [7]

Unter Kodieren verstehen wir in einer ersten Annäherung das Zuordnen von Schlüsselwörtern zu einzelnen Textstellen. Diese Schlüsselwörter werden Kodes oder Kategorien genannt. Kode und Kategorie7) sind nicht bedeutungsgleich, dennoch sind die Übergänge zwischen beiden Begriffen fließend. In der Regel ist ein Kode datennah, er ist an eine Textstelle angeknüpft, eine Kategorie hingegen ist Bestandteil der zu entwickelnden Theorie. Kodes8) und Kategorien unterscheiden sich demnach durch ihre Reichweite: der Kode ist eine engere Kategorie, die Kategorie ein Oberbegriff, der mehrere Kodes zusammenfasst. Beide Begriffe weisen darüber hinaus eine unterschiedliche interne Struktur auf. Ein Kode ist im Wesentlichen eine Begriffsassoziation zu einer Textstelle, eine Kategorie hingegen hat ein komplexeres "Innenleben". Nach STRAUSS und CORBIN (1990, S.150) setzt sie sich aus Eigenschaften zusammen, die ihrerseits wieder unterschiedliche dimensionale Merkmalsausprägungen annehmen können. Die Anreicherung der Kategorie geschieht durch die Klassifikation von Ähnlichkeiten und Unterschieden.9) Umso weiter die Datenanalyse fortschreitet, desto stärker entwickelt sich nach unserer Erfahrung der kategoriale Charakter der Kodes. Nach unserer Logik, die wir weiter unten ausführlicher entwickeln werden, entspricht ein Kode der Rezeption des Datentextes, eine Kategorie dem Versuch des eigenen konzeptuellen Sprechens. Es ist wichtig, während des Kodierprozesses diese Doppelreferenz aufrecht zu halten, weil sie gerade das forcing in der Kategorienbildung verhindert und die emergence fördert (vgl. zu emergence vs. forcing und zur Differenz zwischen GLASER und STRAUSS: GLASER 1992, BOYCHUK DUCHSCHER & MORGAN 2004). Udo KELLE (2005, Absatz 19ff.) hat deutlich gemacht, dass die Opposition zwischen STRAUSS und GLASER relativiert werden kann. Forcing sollte sicher soweit wie möglich vermieden werden, umgekehrt übersieht die ausschließliche Berufung auf die Begriffsemergenz die Unumgehbarkeit von theoretischem Vorverständnis, bleibt aber ebenso problematisch. KELLE verweist deshalb auf Abduktion, auf Falsifizierbarkeit und die Notwendigkeit der Untermauerung, alles Aspekte, welche die von uns vertretene Doppelreferenz als plausibel erscheinen lassen. [8]

Der Kode- und Kategoriebegriff, aber auch das Verhältnis von forcing vs. emergence sind abhängig vom jeweils zugrunde liegenden Theorieverständnis. Das Theoriekonzept im Discovery-Buch hat einen sehr statischen Charakter. Eine Theorie besteht nach GLASER und STRAUSS (1967, S.35) aus "conceptual categories", "their conceptual properties" und "generalized relations among the categories and their properties". Dem hingegen würde es der Polemik gegen die grand theory und dem impliziten Anspruch auf Demokratisierung der soziologischen Erkenntnis anstehen, den narrativen Charakter von Theorie anzuerkennen. GTM steht nämlich tatsächlich in einem wissenschaftsgeschichtlichen Kontext, in dem der Rückgriff auf das Erzählen10) als notwendig anerkannt und selbst der naturwissenschaftliche Wissenschaftsprozess als narrativ gesehen wird11). Diese Verbindung wird insofern anerkannt, als GLASER und STRAUSS (1967, S.251-257) ausdrücklich den Zusammenhang von wissenschaftlicher Erkenntnis und persönlicher Einsicht und STRAUSS und CORBIN (1990, S.119-121) die Bedeutung der storyline betonen. Die GTM leistet in dieser Hinsicht einen wichtigen Beitrag zur Evolution der Grammatik des wissenschaftlichen Befundes, die Immanuel WALLERSTEIN (2004, S.183ff.) später gefordert hat. [9]

Beim Lesen und Glossieren von Textdaten (in unserem Fall Interview- und Gruppendiskussionstranskripten) können idealtypisch verschiedene Kodieroperationen unterschieden werden, die zueinander in einem hierarchischen Verhältnis stehen, sich aber in der praktischen Arbeit oft vermischen und überschneiden. Das Kodieren in der qualitativen Datenanalyse hat, oberflächlich betrachtet, wenig zu tun mit dem Kodieren z.B. eines standardisierten Fragebogens. Während es dort um das möglichst reliable Zuordnen von vordefinierten und operationalisierten Variablenwerten zu Merkmalsausprägungen geht, kommt es hier auf eine eher interpretative und heuristische Erschließung von vorerst nur als Annäherungswerten verstandenen Kategorien im Dialog mit den empirischen Daten an. Speziell auf die Grounded-Theory-Methodologie bezogen gilt, dass die Distanz zwischen qualitativen und quantitativen Kodierverfahren größer oder geringer ist, je nachdem, ob ausschließlich ein interaktionistisches Verständnis zugrunde gelegt wird oder ob auch die Wurzeln in den mathematischen Modellen freilegt werden, wie sie im Zusammenhang mit der index formation an der Columbia University u.a. von Paul F. LAZARSFELD gelehrt wurden (GLASER 1998, S.22f.). Mehrere beobachtbare Sachverhalte ergeben dabei die Dimensionen, anhand derer ein nicht beobachtbares (latentes) Konstrukt gemessen wird. In beiden soll durch den Oberflächengehalt eines Textes oder einer Beobachtung hindurch zu tieferen Sinn- und Bedeutungsschichten gestoßen werden, beide Male ist deshalb die dialogische Verbindung von Hinwendung zum Anderen und Durchsetzung des eigenen Sprechens zentral. Aus ihm ergeben sich auch die Vorläufigkeit des Kategorialen und die damit verbundene Endlosigkeit des Analyseprozesses. Kategorien werden zuerst immer tentativ gebraucht, zum Probieren sozusagen. In der Art eines guten Schuhverkäufers sagt Anselm STRAUSS (1991, S.467): "Let’s just try it on for size." Saturierung (GLASER & STRAUSS 1967, S.111) bleibt deshalb auch immer ein relativer Begriff. Beendet ist die Analyse, die unendlich fortgesetzt werden könnte, nur vorläufig unter einem nach den Forschungsinteressen der Interpretinnen und Interpreten ausgewählten Analyseaspekt. [10]

2.2 Minimalia der qualitativen Kodierarbeit

Aus den beiden Bildern vom permanenten Dialog mit den empirischen Daten und von der Suche nach dem eignen Erzählen ergeben sich einige Minimalia der Kodierarbeit. Grundlage des Kodierprozesses ist die Unterscheidung zwischen Primärdokument12), Historiker und Historikerinnen würden vielleicht "Quelle" sagen, das die Daten enthält, und dem Kode, der die Daten beschreibt/kommentiert. Die Primärdokumente müssen nicht unbedingt einer einzigen Dokumentsorte angehören. Nach dem GLASER-Prinzip "All is data" (GLASER 2001, S.145) ist es durchaus möglich, unterschiedliche Genres zu mischen. Primärdokumente repräsentieren das Sprechen der/des Anderen. Die Unterscheidung von Primär- und Sekundärdokument13) muss nicht starr und unüberwindlich gesehen werden, es können auch eigene Memos, also ursprüngliche Sekundärdokumente, in einer reflexiven Schleife als Primärdokumente behandelt werden. Das eigene Sprechen kann in der zeitlichen Distanz fremd werden. [11]

Die Dichotomie von primär vs. sekundär, auch wenn sie relativiert werden kann, öffnet auf alle Fälle einen doppelten Referenzhorizont. Das Primärdokument steht demnach im Zusammenhang mit zwei Kommunikationssituationen: der Produktionssituation, in der das Primärdokument entsteht, und einer nachträglichen Rezeptionssituation, in der das Primärdokument gelesen wird. Im Spiel sind also immer mindestens zwei Rollen: Respondent(in) und Forscher(in), Produzent(in) und Rezipient(in), Ego und Alter. Wissen entsteht aus der Beziehung. Begegnung ist die Grundlage der Konzeptualisierung. Es gilt, was Jessica H. DAVIS von der ästhetischen Kommunikation sagt: Im Mittelpunkt steht eine wenn auch indirekte "conversation of two active meaning-makers, the producer and the perceiver", und beide spielen "a pivotal role" (LAWRENCE-LIGHTFOOT & DAVIS 1997, S.29), denn es geht um die Koproduktion von Bedeutung. LYOTARD (1979, S.39) verweist darauf, dass die Selbstlegitimierung des Erzählers darin besteht, sich als Zuhörer(in) der Geschichte auszuweisen. Aus der eigenen Perspektive rekonstruiert der Interpret/die Interpretin die subjektiven Perspektiven, die Lebenswelten der Anderen. Im hermeneutischen Prozess wird in der GADAMERschen Formulierung die Gewinnung des Auslegungshorizontes zur Horizontverschmelzung (vgl. GADAMER 1965, S.375). [12]

Der Kodierprozess ist schließlich seinem dynamischen Annäherungscharakter entsprechend iterativ-hierarchisch angelegt. Er wird wiederholt und kommt dabei der Entdeckung einer storyline und der Ausformulierung einer Theorie allmählich näher. Diese Struktur wird oft im Bild der Spirale wiedergegeben (z.B. DEY 1999). Es können dabei, wie wir es in Anlehnung an STRAUSS und CORBIN (1990, S.57-194) auch tun, verschiedene Kodierungsprozeduren unterschieden werden, die aber nicht klar voneinander getrennt sind und die auch nicht zeitlich voneinander abgegrenzte Etappen der Datenanalyse darstellen. Die Hierarchie kommt u.a. dadurch zustande, dass der Lektüreprozess vonseiten der Lesenden mehr oder weniger aktiv sein kann. Das Vermischen der hierarchischen Kodiertypen entspricht dem Vorgehen des "theoretical sampling" (GLASER & STRAUSS 1967, S.45-49), das bei der qualitativen Analyse Datenerhebung, Datenlektüre, Datenreduktion und Theoriebildung nicht voneinander abschottet, sondern in Schleifen miteinander verbindet. Charakteristisch ist in dieser Hinsicht, dass der Prozess der Datenreduktion schon beginnt, während man noch dabei ist, Daten zu erheben, die Datenerhebung ihrerseits aber auch während der Analyse fortgesetzt wird. [13]

2.3 Kodieren und die Methode des permanenten Vergleichs

Das Kodieren erlaubt den ständigen Vergleich von Fällen, Phänomenen und Konzepten, und so können die Fragen, die an den Text gestellt werden, allmählich verfeinert werden. Kodieren steht also auch in einem direkten Zusammenhang mit der komparativen Methode (GLASER & STRAUSS 1967, S.101-116). Theorie wird dementsprechend verstanden als fortlaufender Prozess der Theoriediskussion und -modifikation. Sie bietet in dieser Hinsicht weniger Lösungen von Problemen und gibt eigentlich keine abschließenden Antworten, sondern liefert komplexere Konzepte, die gerade dazu dienen, neue Fragen und Probleme zu formulieren, über die es wert ist nachzudenken und deren Analyse so überhaupt erst möglich wird. Dies macht auf alle Fälle deutlich, dass die Analyse, wie sie im Rahmen der GTM praktiziert wird, nicht für alle möglichen Fragestellungen gleich adäquat ist. Sie eignet sich kaum für experimentelle Designs (Vergleich von Treatmentgruppe und Kontrollgruppe) und auch nicht zur Untersuchung eindeutig linear-kausaler Zusammenhänge. Sie ist aber besonders dann angemessen, wenn es darum geht, alltägliche Sinnkonstitutionsprozesse als Ausgangspunkt geistes- und sozialwissenschaftlicher Theoriebildung zu nutzen, wenn die Forschenden bereit sind und wenn es darauf ankommt, dem/der Anderen zuzuhören. [14]

3. Hierarchisch-iterative Etappen des Kodierprozesses

3.1 Zitatauswahl und Textsegmentierung

Auf der untersten Stufe geht es lediglich darum, Textstellen zu identifizieren, die relevant sind für die bearbeitete Fragestellung. Der Datenkorpus wird in Teileinheiten aufgegliedert und die Datenstücke, mit denen weitergearbeitet werden soll, werden bestimmt. Diese Teileinheiten, Textausschnitte, werden Textsegmente oder Zitate (quotations) genannt. Der Ausdruck Textsegment stellt die Operation objektiver dar, als sie schlussendlich ist. Der Begriff Zitat macht deutlich, dass es sich um ein Sprechen auf zwei Ebenen handelt. Ein Ausschnitt des Interviewtexts wird von den Forschenden in ihrem Sprechen wiederholt, zitiert. Die doppelte Terminologie ist auch hier ein Symptom der doppelten Referenz, auf die Daten und auf das eigene Erzählen. Wichtig ist, dass der Unterschied zwischen den beiden Perspektiven, zwischen "Er/sie sagt …" und "Ich erzähle, dass er/sie sagt …", den Interpretinnen und Interpreten bewusst bleibt. [15]

Das Bild von dem doppelten Sprechen fungiert als epistemologisches Klärungsmoment. Es erlaubt den tiefenstrukturellen Zusammenhang von qualitativ-heuristischem und quantitativ-verifikatorischem Kodieren zu verdeutlichen. Zu dem Sprecher/der Sprecherin oder den Sprechenden, die den Korpus generiert haben, steht der Dateninterpret oder die Dateninterpretin in einem dialogischen Verhältnis. Sie lesen so, wie sie auch andere Text lesen würden und versuchen, den Sinn zu verstehen. Im Blickpunkt steht also das Verstehen des Handlungssinns, nicht die Rekonstruktion oder gar Zuweisung von A-tergo-Ursachen (HITZLER 2003, S.297). Dabei sind die Interpret(inn)en selbstverständlich sowohl auf die Daten als auch auf das eigene Vorverständnis angewiesen. Die Theoretisierung ergibt sich aus einem ständigen Hin und Her von Frage und Antwort. Das Verschweigen der Interaktion von Beobachter/Beobachterin und Objekt kommt gar nicht in Frage, da sie gerade das "Theater" darstellt, vor dessen Hintergrund Erkenntnis entsteht (vgl. MRUCK & BREUER 2003, Absatz 9f.). Die Komplexitätsreduktion findet in vielen kleinen, deshalb aber kontrollierbaren und empirischen Schritten statt. Beim standardisierten Kodieren hingegen wird das Sprechen auf beiden Seiten im Vorfeld schon extrem reduziert. Die Komplexitätsreduktion hat stattgefunden, bevor man sich überhaupt mit den Daten auseinandergesetzt hat. Theorie entsteht hier logisch-deduktiv, die empirische Analyse der Daten dient lediglich der möglichen Falsifizierung. Das wissenschaftliche Sprachspiel wird so auf eine isoliert gesehene, denotative Funktion reduziert (vgl. LYOTARD 1979, S.45), während bei der qualitativen Analyse zwar eine Annäherung an das Denotative angestrebt wird, aber Kontextualität und Einbettung in andere Diskurse sichtbar bleiben und nicht verleugnet werden. Wir haben es also zwar mit einer ähnlichen Basiskonstellation zu tun, die aber nach grundsätzlich verschiedenen Szenarien montiert wird. Beide Vorgehensweisen können je nach Forschungslogik legitim und ökonomisch sein. Es geht trotz möglicher unterschiedlicher Zielsetzung zweimal um das gleiche Problem: nämlich die Unsicherheit, die durch das doppelte Sprechen entsteht und kontrolliert werden soll, um so intersubjektive Verbindlichkeit zu gewährleisten. Die eingesetzten Strategien unterscheiden sich: Einmal ist das Mittel die extreme Reduktion, das andere Mal Offenheit und Transparenz. Beide Wege bieten natürlich Vor- und Nachteile. Der verstehende Ansatz aber ist sicher dort überlegen, wo Sinnkonstitutionsprozesse eine wesentliche Rolle spielen, während dann, wenn eine mechanistisch-lineare Modellierung der von vornherein als relevant angesehenen Fragestellung möglich ist, sich der standardisierte Ansatz empfiehlt. [16]

Textsegmentierung und Zitatauswahl sollen grundsätzlich zwei Ansprüchen genügen: Einerseits soll Spontaneität erhalten bleiben, nur so kann das eigene Sprechen emergieren, und andererseits soll der Prozess revidierbar und nachvollziehbar sein, nur so ist die Rückbindung an die Daten zu gewährleisten. Verschiedene Mittel und Techniken helfen dabei im Forschungsalltag, die scheinbar widersprüchlichen Ziele "unter einen Hut" zu bringen, es sind dies die mehrperspektivische Ausrichtung der Auswahlkriterien und die spezifischen Momente der Organisation der Textarbeit. [17]

Die Textauswahl richtet sich an drei Kriteriendimensionen aus: sie beziehen sich auf textlinguistische Merkmale, dann auf das eigene Vorwissen, dem die zugrunde liegenden Fragestellungen entstammen, und schließlich auf Sedimente der Kommunikationssituation, in der die Texte entstanden sind. [18]

Textlinguistische Merkmale sind jene sprachlichen Verfahren, die dem Text Struktur und Kohärenz verleihen.14) In semantischer Hinsicht ist z.B. die funktionale Satzperspektive wichtig, die es erlaubt, einen Satz in Thema und Rhema zu zerlegen.15) Die jeweilige thematische Verkettung, aber auch Themenkonstanz und Themenwechsel liefern sicher Kriterien für die Segmentierung. Ebenso sind Konjunktionen und die adverbiale Angabe, aber auch die anaphorische Verkettung16) über Pronomina wichtige Gliederungssignale. [19]

Die Segmentierung ergibt sich aber nicht mechanisch aus der Textstruktur. Der Dialog, die Ko-Konstruktion von Bedeutung, kommt nur dann zustande, wenn auch die Interpretierenden sich einbringen können. Sie sollen deshalb das eigene Vorwissen offenlegen, von eventuellen Interviewleitfäden ausgehen und klären, auf welche Fragen sie Antworten erwarten oder suchen. Das Vorwissen aber kann nicht statisch gesehen werden. Im Prozess des Kodierens sollte es grundsätzlich revidierbar sein, also nicht einfach übernommen, sondern an den Daten korrigiert, modifiziert und erweitert werden. [20]

Textstruktur und Fragestellungen sind nicht die einzigen Orientierungsgrößen. Den Primärdokumenten haften Sedimente der ursprünglichen Kommunikationssituation, Spuren der Entstehungssituation und ihrer Ordnung an. Interviews und Gruppendiskussionen können so als Beispiele von ordinary conversation gelesen und interpretiert werden. Es sollte versucht werden, den Zusammenhang mit dem Entstehungskontext zu rekonstruieren. Die linguistische Pragmatik sensibilisiert uns für die Lektüre der entsprechenden Indizien. Es sind z.B. Pronomina, Zeit- und Ortsangaben, die auf den Hier-Jetzt-Ich-Origo des Textes verweisen, aber auch Präsuppositionen, die auf charakteristische Wissensbestände hindeuten, auf die die Kommunikationspartner(innen) zurückgreifen. Eine an der Konversationsanalyse geschulte Lektüre achtet auf die Diskursorganisation, auf die interaktionsstrukturelle Ordnung, wie sie sich in der Klassifikation von Sozialgruppen, im turn taking, in paarweise auftretenden Interaktionszügen, in der Präferenzordnung, aber auch in Korrekturen und Selbstkorrekturen niederschlägt (vgl. HUTCHBY & WOOFFITT 1998, S.38ff.). Es gibt auch in diesem Zusammenhang für offene Interviews typische Momente von Strukturzusammenhängen, die es erlauben, auch längere Gesprächsbeiträge nicht als monologische, sondern als interaktive Passagen zu lesen. Wir wollen nicht einen Mix von linguistischer oder konversationsanalytischer Gesprächsanalyse mit GTM anstreben. Unser Argument lautet vielmehr: wenn im Primärdokument "Abdrücke" von Sozialhandeln und Sozialstruktur (SCHEGLOFF 1991) vorhanden sind, dann sollen die Interpretierenden sie als Katalysatoren der GTM-Konzeptionalisierungsarbeit nutzen und sich nicht nur auf Textstruktur und Textbedeutung beschränken. [21]

Die Arbeit mit einem mehrperspektivischen Kriterien-Set verlangt auf der anderen Seite auch nach einer entsprechenden Organisation. Es gibt hierbei besonders drei Aspekte, die wir auf Grund unserer Erfahrung hervorheben möchten: das ständige Memoschreiben, die Variation der Distanz zur Textstelle und die Teamarbeit. [22]

Bereits der erste Schritt der Textarbeit soll von Memoschreiben begleitet sein. Es gibt unterschiedliche Typen von Memos (vgl. zum Memoschreiben: STRAUSS 1987, S.109-129), die in dieser Phase eine Rolle spielen: theoretische Memos, die das Vorwissen abklären; operative Memos, die beschreiben, wie an den Text herangegangen werden soll, die also den oder die Filter explizit machen, mit denen der Text durchforstet werden soll; Memos, die beschreiben, wie ein Primärdokument oder eine Primärdokumentfamilie zustande gekommen ist; Kode-Memos, die explizieren, was hinter einer Begriffsassoziation steckt. Memos können auch Detailinterpretationen von Textstellen oder Textmerkmalen sein, sie liefern dann Begründungen für die Auswahl des Zitats und beschäftigen sich mit Stellen, die bei der Lektüre auffielen und die gerade deshalb in den Zitatkorpus aufgenommen worden sind. [23]

Ein zweites nützliches Organisationsmoment besteht unserer Erfahrung nach darin, dass bei der Analyse die Distanz zum Text variiert wird. BÖHM, LEGEWIE und MUHR (1992) geben hierzu einige Hinweise, die aber letztlich zu schematisch sind. Die Lesenden müssen unseres Erachtens über eine Art flexibles und flinkes "Zoom-Werkzeug" verfügen, das ihnen erlaubt z.B. am Textganzen zu arbeiten und eine Überblicksgliederung zu erstellen, um im Augenblick darauf den Text Zeile für Zeile, Wort für Wort durchzugehen und sich auf die Interpretation einzelner Konversationszüge oder die Bedeutung und Funktion einzelner Partikel zu konzentrieren. Detailinterpretationen sollten dann immer wieder in das Gesamtbild eingeordnet werden. Diese Leseweise entspricht der hermeneutischen Grundeinstellung, dass die Teile die Bedeutung des Ganzen und das Ganze die Bedeutung der Teile (vgl. BRUNER 1996, S.137) mitbestimmt. [24]

Das dritte Organisationsmoment ist die Arbeit im Forschungsduo (bzw. der Forschungsgruppe). Textarbeit bzw. Datenanalyse in der GTM haben kommunikativen Charakter. Sie sollten nicht allein durchgeführt werden, sondern (mindestens) zu zweit. Dieses Moment gehört zum GTM-Grundbestand. Es wird in der Regel mit dem Geist der Chicago-Schule (vgl. RIEMANN 2005, S.9-10) in Verbindung gebracht. STRAUSS (1987) hat ausführlich dargestellt, wie Team-Meetings durchgeführt werden können. Alan BRYMAN verweist auf die Bedeutung der Verlässlichkeit und Nachvollziehbarkeit qualitativer Forschung; Teampartner(innen) spielen dabei sozusagen die Rolle der ersten Prüfinstanz (BRYMAN 2001, S.273f.). Katja MRUCK und Günter MEY (1998) haben das Konzept einer "Projektwerkstatt qualitativen Arbeitens" entwickelt. Sie machen deutlich, wie die Subjektivität im Forschungsprozess auch nach einer entsprechenden sozialen Organisation verlangt. Für uns sind besonders drei Aspekte wichtig:

  • Teamarbeit erlaubt (flexible) Rollenverteilungen. So können sich z.B. auf die Doppelreferenz bezogene, charakteristische Muster einspielen, wobei eine Person zum Korrektiv der oder der Anderen werden kann. Überlässt sich nämlich ein Interpret/eine Interpretin seiner/ihrer theoretischen Empfindlichkeit, kann der/die andere das Prinzip der "Datentreue" verteidigen. Bleibt der/die eine in der schieren Deskription stecken, kann der/die andere zur Konzeptualisierungsarbeit anstacheln.

  • Darüber hinaus hat der Interpretationsdialog eine Bedeutung in Bezug auf das Interpretationstempo. Er verlangsamt das Festlegen auf Kategorien, macht deshalb den Weg dorthin sichtbarer, verhindert das Aufzwingen und "Durchboxen" von Konzepten und gibt der Konzeptgenerierung einen kommunikativen Nährboden.

  • Schließlich, findet das eigene Sprechen im Team einen ersten Adressat(inn)enkreis. Eine Geschichte macht Sinn im Horizont einer Erzählgemeinschaft, sie setzt einen Erwartungshorizont (JAUß 1970, S.180) voraus, dem sie entspricht, den sie durchbricht und somit modifiziert. Die Geschichte kann aber auch an den Erwartungen des Adressat(inn)enkreises scheitern. [25]

3.2 Offenes Kodieren

Durch die Auswahl von Zitaten ist der geschlossene Textblock vorerst zerstückelt/zerlegt worden. Irrelevantes ist weggefallen. Konkret könnte der Arbeitsschritt darin bestehen, dass einzelne Textausschnitte mit einer Wellenlinie am Rand als relevant markiert werden für die Fragestellung, so wie sie zwischen den beiden Interviewparteien ausgehandelt wird. Zitate werden so aus dem ursprünglichen kommunikativen Verbund, der Interviewsituation, "gelockert", und es wird auch schon eine Datenauswahl getroffen, die dem Zweck der Theoriegenerierung dienen soll. [26]

Das regt ohne Zweifel die Analyse an, führt aber auch schnell dazu, dass die Lage sehr unübersichtlich wird. Denn wir werden sehr schnell über eine große Menge von Einheiten verfügen. BOGDAN und BIKLEN (1992) vergleichen die Situation damit, dass in einer großen Turnhalle eine Riesenmenge Spielzeug ausgebreitet wird und dass die Aufgabe des Kategorisierens darin besteht, die Einzelstücke in Haufen zusammenzulegen, die untereinander in einem sinnvollen Zusammenhang stehen. Dabei ist das Schema, nach dem die einzelnen Gegenstände geordnet werden, nicht von Anfang an bekannt. Es bildet sich erst während der Arbeit an den Daten heraus. Das Ziel jedenfalls ist, wie KUCKARTZ (1997) es sieht (allerdings eine andere Metapher heranziehend), dass schlussendlich alle Zitate gruppiert sind wie Medikamente in einer Apotheke, d.h. in säuberlich etikettierten Schubladen und Regalen systematisch geordnet abgelegt sind. [27]

Am Anfang der Analyse aber haben wir nur eine vage Vorstellung, wie dieser Zusammenhang aussehen könnte. Die Kategorien und ihre Verbindungen sollen sich ja, dem Prinzip des "Entdeckens" folgend, aus den Daten selbst, oder wie wir meinen, um die aktive Rolle der Forschenden kenntlich zu machen, aus dem Dialog mit den Daten ergeben. Ein erster einleuchtender Schritt wäre dann, dass wir lediglich die Daten "etikettieren", d.h. jedem einzelnen Gegenstand einen Namen geben. Offene Kodes zielen dann z.B. darauf, sich das implizite Motiv zur Auswahl einer Textstelle bewusst zu machen. Die Arbeit des offenen Kodierens soll den Überblick erleichtern. Dateneinheiten werden auf einen Aspekt hin verkürzt und erste Entsprechungen werden sichtbar. Eigentlich wird jedes Zitat so auf ein Kürzel reduziert. Die Datenmenge ist leichter zu handhaben, Listen werden erstellt, Ähnliches wird zusammengelegt, sodass Muster offensichtlicher werden. Wir schaffen also auf diese Art und Weise eine erste Grundlage für die Emergenz von Kategorien und Kategorienrelationen. Aus unserer Sicht ist es wichtig, auch das narrative Moment im Assoziationsprozess im Auge zu behalten. Die Interpret(inn)en deuten auf mögliche Erzählstränge, die sie ihrer Geschichte zugrunde legen könnten. Aber sie haben noch keine Richtungsentscheidung getroffen, ihr Erzählen ist rudimentär, stammelnd fast, gekennzeichnet von der Koexistenz sich ausschließender Geschichte; es reduziert sich vorerst noch auf einzelne Wörter, die ihnen beim Zuhören des oder der Anderen einfallen. Die Assoziation stellt dennoch einen zaghaften Schritt auf dem Weg zum eigenen Erzählen dar. Die storyline ergibt sich also aus dem Prozess und wird nicht erst in den späteren Kodieretappen aufgesetzt. [28]

Voraussetzung für das offene Kodieren ist das genaue Lesen. Barney GLASER (1998, S.24f.) gibt als eine der Wurzeln der GTM die Methode der explication de texte an, so wie er sie an der Sorbonne kennengelernt habe. Kennzeichen der explication de texte als Lesemethode ist, dass der Text hinterfragt und ihm Einwände der Lesenden entgegengehalten werden sollen, um ihn so "zum Sprechen" zu bringen. Beachtet werden sollten dabei auffällige grammatische Formen, Partikelwörter, Bildelemente, Stilwechsel, Andeutungen. Die Entschlüsselungsarbeit geht dabei von der Hoffnung aus, dass sich im Detail der Textstelle auch die Gesamtproblematik spiegelt. Das Vorgehen ist normalerweise linear, es wird dem Aufbau des Textes gefolgt, nicht um den Zitaten augenfällige Bedeutungen zuzuweisen, sondern um sie in ihrer Komplexität und Doppelbödigkeit zu erfassen. Das Postulat der Textimmanenz führt hiernach geradezu zur Entdeckung der Ambiguität des von seinem Entstehungskontext losgelösten Textes. So spannend GLASERs Hinweis auf diese literaturwissenschaftliche Wurzel der Grounded-Theory-Methodologie auch sein mag, darf doch nicht übersehen werden, dass er sich damit gegen die in der Chicagoer Tradition stehende Betonung des interpretativen Anteils der GTM richtet. Deutlich wird so ex negativo, dass sozialwissenschaftliche Textinterpretation eine Wurzel auch in der an MEAD, HUGHES und BLUMER ausgerichteten Reaktion gegen die Verdinglichung des Strukturalen hat (STRAUSS 1977, S.xviii), aber die hermeneutisch-interpretative Haltung auch andere Bezugsgrößen haben kann. Wir denken z.B. an den New Criticism und an die literaturkritische Methode von I.A. RICHARDS (2001), die Arbeiten des Konstanzer Anglisten Wolfgang ISER (1994), der zeigt, wie Erzähltexte Lücken eröffnen, die von den Lesenden gefüllt werden, oder das Werk von Paul DE MAN (1988) und den Yale Critics, die sich mit den immanenten Widersprüchen literarischer Texte befassen. Gerade das Paradox von Lesbarkeit und Unlesbarkeit ist eines der Probleme, auf das man beim offenen Kodieren stoßen kann. Daneben gibt es genuin sozialwissenschaftliche Methoden der Gesprächsanalyse (z.B. DEPPERMANN 2001, S.49ff.), die durchaus beim offenen Kodieren von Zitatstellen hilfreich sein können. Im Allgemeinen gilt, dass die Beschäftigung mit der literaturwissenschaftlichen Interpretationstheorie (BRENNER 1998) und besonders die Auseinandersetzung mit den entsprechenden Überschreitungen des disziplinären Kanons die in der GTM-Textarbeit erforderte Lese- und Interpretationsempfindlichkeit steigern kann. Dabei sollte nie vergessen werden, dass die Betonung des Textimmanenten in der GTM-Arbeit immer nur die eine Seite der Medaille ist. Susan SONTAGs (1994) harsche Kritik an der Interpretation trifft auf die GTM nicht zu, da in deren genialer Janusköpfigkeit die immanente Textarbeit durch die analytisch-konzeptuelle Kontextualisierung ergänzt wird. [29]

In der Praxis ist das offene Kodieren in der Regel für Forschende mit einer gewissen Ängstlichkeit verbunden. Es entsteht bei der Arbeit an der Sinnkonstruktion offensichtlich eine Spannung zwischen Lesenden und Text. Günter MEY (1999, S.319f.) hat beschrieben, wie sowohl Fremdheit als auch Nähe Angst einflößend sein können. Daraus entsteht sehr schnell ein Druck; der Forscher/die Forscherin wünscht sich, möglichst bald eine Kategorie zu finden, die ihm/ihr Orientierung und Sicherheit gibt, und er/sie ist deshalb versucht, diese aus bestehenden Theorien abzuleiten oder zu übernehmen. Forschende möchten, statt sich auf dem unsicheren Weg zu einer Vielleicht-Geschichte zu befinden, aufgehoben sein in einer sicheren Erzählung. Dazu lassen sie Daten zu Exempeln verkommen und bringen die Respondent(inn)en zum Schweigen. Der hermeneutische Umgang aber mit den Daten besteht gerade darin, dass die konzeptuelle "Überlegenheit" der Forschenden nicht vorausgesetzt, aber auch nicht ganz auf sie verzichtet wird. Das hat offensichtlich mit Enthierarchisierung von Wissensformen zu tun. Anselm STRAUSS (1987, S.28ff.) rät Sozialwissenschaftler(inne)n in dieser Situation, alles und nichts zu glauben, was sie lesen. Sie sollten sich dabei u.a. an folgende einfache Grundsätze halten:

  • Es sollten wenige, einfache und konsistente Fragen, die dem ursprünglichen Forschungsdesign entsprechen, an die Daten gestellt werden.

  • Am Anfang der Kodierungsarbeit ist Mehr besser, d.h. es sollte eher minutiös kodiert werden, auch wenn später die Zahl der Kodes reduziert und Kodes zu Super-Kodes zusammengefasst werden.

  • Das Kodieren sollte öfters unterbrochen werden, um theoretische Memos zu formulieren. So gehen ursprüngliche Ideen nicht verloren, und es bleibt eine Spur davon erhalten, wie sich im Dialog mit den empirischen Daten die an den Text gestellten Fragen verändern.

  • Auf keinen Fall sollte die Relevanz traditioneller Kategorien wie Alter, Geschlecht oder soziale Herkunft vorausgesetzt werden, ohne dass hierfür Hinweise und Belege im Datenmaterial zu finden sind. Sie verfügen nämlich über keinerlei Privilegien und müssen sich wie andere Kategorien auch über den steinigen Weg der gegenstandsbezogenen Datenanalyse "hocharbeiten". Die Entdeckung aber von membership classification devices im Sinne von Harvey SACKS (1990, S.40-48) legitimieren umso mehr zum Gebrauch der entsprechenden Kategorien. [30]

Bei der Lektüre von Interviewtranskripten stößt man auf ein weiteres Problem. Über die Vorbereitung der Interviews können Kategorien in den Text hineingelangen, die nicht unbedingt vom Interviewpartner oder der Interviewpartnerin stammen. Mögliche Kategorien, die oft gleich beim ersten Lesen aufscheinen, sind deshalb oft solche, die durch die Interviewenden in das Gespräch hinein gefragt worden sind. Deshalb eignet sich Interviewmaterial umso besser zum offenen Kodieren, je offener die Gesprächsbeiträge der Interviewenden formuliert sind. Im Idealfall bieten sie einen Sprech- und Erzählanlass, der zwar ein intensives Ansprechpotenzial besitzt, aber die Thematik nicht unbedingt genau festlegt und einschränkt. Aktives und akzeptierendes Zuhören sollte dann die Interviewten anregen, weiteres Material zu produzieren. Gerade freiere Textpassagen können als Antwort auf eine nicht gestellte Frage oder auf eine von den Interviewten selbst vorausgesetzte, aber von den Interviewenden nicht gemachte Äußerung gelesen werden. Es ist dieses "Zwischen-den-Zeilen-Lesen", die Rekonstruktion also eines impliziten, vom dem/der Interviewten vorausgesetzten Diskurses, das die Entdeckung gegenstandsbezogener Kategorien ermöglicht. Die nicht-direktive Gesprächsführung stellt in dieser Hinsicht eine wichtige Voraussetzung für die Produktion von brauchbarem Textmaterial dar.17) Wichtig ist es jedenfalls, darauf zu achten, dass ein evtl. verwendeter Interviewleitfaden nicht dazu anregt, lediglich Kategorien abzufragen, sondern dass er Erzählanlässe schafft, welche die Interviewten dazu veranlassen, sich frei zu äußern. Offene und intensive Gesprächsstimuli, welche die Interviewten ansprechen, sind wichtiger als präzise Fragen, die Antworten zu sehr lenken. Darüber hinaus stellt auch das frühe, wenn auch unsichere Memo-Schreiben (Memos, die wahrscheinlich nie außerhalb der Forschungsgruppe gelesen werden) eine wichtige Arbeitsweise dar, die Transparenz, Systematisierung und Teamfähigkeit fördert. Ein spannender Punkt sind Passagen, an denen kognitive Konflikte zwischen Fragenden und Befragten sichtbar werden. Es zeigte sich z.B. bei unserer Studie über die Mobilität von Jugendlichen in der Großregion sehr schnell, dass alle Gesprächspartner(innen) der Frage nach ihrer Mobilität, die uns problemlos erschienen war, wenig abgewinnen konnten, aber um so lieber über ihre Führerscheinprüfung, das Auto der Eltern, mit dem sie fahren durften, oder das eigene Auto sprachen. Wir berücksichtigten dann bei der Konzeptualisierungsarbeit, dass eben der direkte Zugang zu einer alltäglichen Mobilitätstheorie abgeblockt wurde und dass wir Antworten auf unsere Fragen nur im Zeichen der Metonymie finden konnten. Im Alltagsgespräch geschieht nämlich die Referenz auf die eigene Mobilität eher in der Form des Pars pro toto Autofahren als durch den Gebrauch des abstrakten Konzepts. [31]

3.3 Axiales Kodieren

Wir können nun der Analyse weiter auf die Sprünge helfen, indem wir nicht nur "assoziativ" vorgehen, sondern gewissermaßen als heuristischen "Schmierstoff" der Analyse axiale Modelle oder ein axiales Modell benutzen. Bruce L. BERG (1998) nennt solche Paradigmen Kode-Frames. Wir unsererseits sprechen auch lieber von Kode- oder Kodierrahmen statt, wie von STRAUSS und CORBIN (1990) vorgeschlagen, vom Kodierparadigma, um den möglicherweise verwirrenden Bezug zur KUHNschen Paradigmendiskussion zu vermeiden. Beim axialen Kodieren sollen explizite Fragen an den Text gestellt werden, es geht nicht darum, sich dem Text zu überlassen, sondern eine Strukturierung, ein allgemeines Raster, wird probeweise an den Text angelegt. Dabei wird für jeden Fall bestimmt, welche typischen Merkmale berücksichtigt werden sollen, wobei weniger auf Verteilungsrepräsentativität als auf theoretische Relevanz zu achten ist. Die Literatur bietet nun unterschiedliche Verfahrensweisen, die je nach Zielsetzung und Fragestellung mehr oder weniger geeignet sind, die sich aber auch miteinander kombinieren lassen. STRAUSS und CORBIN (1990), Ian DEY (1993), Andreas BÖHM et al. (1992) und darauf Bezug nehmend Uwe FLICK (2002) erwähnen das Arbeiten mit Schlüsselfragen: Wer? Wann? Was? Wo? Warum? Dieses klassische Fragequintett lässt sich noch erweitern: Womit? Was, wenn ...? Was, wenn nicht ...? [32]

STRAUSS und CORBIN (1990, S.99) aber gehen über die simplen Schlüsselfragen hinaus. Sie liefern als Kodierrahmen eine kompakte Version einer interaktionistischen Handlungstheorie, die auf jedes analysierte soziale Phänomen anwendbar sei. Unterschieden wird zwischen dem Phänomen, den ursächlichen und intervenierenden Bedingungen, dem Kontext, den Handlungs- und den interaktionalen Strategien und den Konsequenzen. Insoweit wird deutlich, dass beim Fortschreiten der Analyse das offene Kodieren weniger offen wird und man sich deutlicher und expliziter an einen theoretisch fundierten Kodierrahmen anlehnt. Klar ist auch, dass bereits der Bezug auf das Vorwissen, das wir schon bei der Zitatauswahl erwähnten, eigentlich schon ein axiales Moment enthält. Nichtsdestotrotz bereitet das axiale Kodieren nach STRAUSS und CORBIN Schwierigkeiten. Forschende fühlen sich möglicherweise eingeengt, eher behindert auf dem Weg zur storyline. So wurden auch Alternativen zum strengen axialen Kodieren formuliert. [33]

BOGDAN und BIKLEN (1992) gehen ohne expliziten Bezug auf STRAUSS und CORBIN von einem breiteren Modell aus. Sie geben umfassendere Kode-Rubriken an, die je nach Themenstellung unterschiedlich gefüllt werden können. Dadurch wird die heuristische Funktion des axialen Modells deutlicher. Eine erste Kode-Familie stellen die Kontext-Kodes (setting, context) dar. Es geht darum, die allgemeine, deskriptive Voraussetzung eines Falles festzuhalten. Eine zweite Kode-Familie sind die sogenannten Situationsdefinitions-Kodes. Es geht hier um die Werte und Einstellungen, mit denen sich Einzelne oder eine Gruppe in einem Handlungsvorgang beschäftigen müssen, und die auch den Bezug für die Planung und Bewertung von Handlungen und von deren Ergebnissen darstellen. Ein dritter Kode-Typus sind die Standpunkte einzelner Akteure und deren Sicht einzelner Phänomene. Eine vierte Kode-Familie erfasst die Art und Weise, wie Akteure über andere Menschen und Gegenstände denken. Die fünfte Familie sind Prozess-Kodes, die dazu dienen, Ereignisse in einer Zeitsequenz zusammenzufassen. Ereignis-Kodes, die sechste Familie, bezeichnen einmalige und seltene Geschehnisse, während Tätigkeits-Kodes, die siebte Familie, sich auf wiederholende, regelmäßige Handlungen beziehen. Beziehungs- und Sozialstruktur-Kodes, die achte Familie, erfassen das Verhältnis zwischen interagierenden Personen: Freund(in), Vorgesetzte(r), Verwandte(r), richten das Augenmerk aber auch auf die klassischen sozialstrukturellen Dimensionen (Rollen, Positionen). Methoden-Kodes, die neunte Familie schließlich, markieren Datenmaterial, das sich auf Forschungsprozeduren, Probleme, Dilemmata und ähnliches bezieht. [34]

GLASER (1998, S.163ff.) stellt der Methode von STRAUSS und CORBIN seine Version des theoretischen Kodierens gegenüber. In der Form von Kodierfamilien stellt GLASER (vgl. 1998, S.170) Kodes zu Gruppen zusammen und erhält so eine fragmentarische und offene Theorieheuristik, die sich von der dominierenden grand theory der "Theoriekapitalisten" unterscheidet und deshalb eben nicht Begriffe auf unzulässige Weise in die Daten hinein importiert. Die Notwendigkeit des axialen oder theoretischen Kodierens ergibt sich aus der Unzulänglichkeit der auf der Grundlage der textnahen Dateninterpretation erhaltenen Ergebnisse. Zwar können die am Material gewonnenen, konkreten Kodes (substantive codes) zueinander in Verbindung gesetzt werden, das Ergebnis kann aber ohne eine zusätzliche Heuristik ein eher konfuses Produkt sein. Das theoretische Kodieren erlaubt es, diesen Knäuel zu entwirren, Verbindungen herzustellen zu bestehenden Wissens- und Theoriebeständen. Theoretische Kode-Familien stellen so die eigentliche Grundlage der Generierung und Entwicklung von Theoriebausteinen dar. Theoretische Kodes sind entsprechend den axialen Kodes bei STRAUSS und CORBIN Reduktionsformeln bestehender Theorieansätze, die es erlauben, die konkreten Analyseergebnisse zu strukturieren. Der wesentliche Vorteil von theoretischen Kodes ist, dass sie offener und breiter angelegt sind. Sie erlauben deshalb unterschiedliche Möglichkeiten. Das Verständnis von GTM wird somit nicht ausschließlich auf das interaktionistische Muster reduziert, GTM nähert sich vielmehr einer universellen Methode an. [35]

Sandra TIEFEL (2005) hat gezeigt, dass in ihrem Forschungsgebiet, der biografischen Bildungsforschung, der Ansatz von STRAUSS und CORBIN deutliche Unzulänglichkeiten aufweist. Als Alternative hat sie einen überzeugenden, speziell auf die Belange des Spezialgebiets zugeschnittenen Kodierrahmen entwickelt. Zur Analyse biografischer Lernprozesse unterscheidet TIEFEL drei Analyseperspektiven: Sinnperspektive, Strukturperspektive, Handlungsweisen. Die Sinnperspektive ist dabei auf die Rekonstruktion des Selbstbildes, die Strukturperspektive auf die Rekonstruktion des Weltbildes und die Handlungsweisen sind auf Aktivitäten und Interaktionen bezogen. Es gelingt so eine Erfassung biografischer Lernprozesse über die Kodierung, obwohl die Interviewtranskripte keine unmittelbare chronologische Darstellung enthalten. Der Versuch scheint sinnvoll und es ist durchaus vorstellbar, dass Forschungsgruppen die Interessen, die sie verbinden, in ähnliche Kodierrahmen fassen. Der Kodierrahmen erscheint so sozusagen als Destillat eines professionellen Relevanzsystems. [36]

Die Hauptfunktion des axialen beziehungsweise theoretischen Kodierens besteht darin, über das empirische Material hinauszukommen. Es gilt zwei gegensätzliche Gefahren zu bannen: das Versinken in der Datenflut und das Aufpfropfen datenfremder Kategorien. Man geht deshalb jetzt auf Distanz zu den Daten, und das eigene "Sprechen" gewinnt an Bedeutung. Während beim offenen Kodieren die Geschichte nicht vollständig und explizit ausformuliert wird, also vage bleibt und sich nur in den Assoziationsketten ahnen lässt, werden jetzt versuchsweise Erzählrahmen angelegt, die eine sinnvolle und brauchbare Geschichte ergeben sollen. Es handelt sich um Theorie-Heuristiken, die jedoch bedingt durch die starke Prozesshaftigkeit der Analysepraxis einen narrativen Charakter behalten. Theorie erscheint nicht als statische Figur, sondern als Versuch, kohärent zu erzählen, welcher Sinn den interpretierten Äußerungen auch im Licht bestehender Theorien gegeben werden soll. [37]

Das Loslassen der Daten ist der Preis, der für die Konzeptualisierung zu zahlen ist. Zu hoch ist der Preis, wenn die Analysearbeit den empirischen Bezug verliert und einen deduktiv-logischen Charakter bekommt. Das lästige pet coding, das quasi mechanische Zurückgreifen auf immer die gleichen, vorgefassten theoretischen Kategorien, ist eine der GTM-Sünden, die GLASER (vgl. z.B. 1998, S.166; 2001, S.201 und besonders 2005, S.106ff.) geißelt. Es führt dazu, dass in unzulässiger Art und Weise auf selektives Kodieren vorgegriffen wird und falsche, parasitäre18) Kernkategorien sich durchsetzen. Es kann eingeschränkt und kontrolliert werden, indem auch hier den Grundmerkmalen der GTM-Arbeit, Offenheit und Flexibilität, Langsamkeit und Allmählichkeit, Vorläufigkeit und Revidierbarkeit, eine Chance gegeben wird. [38]

Die theoretischen Kodierrahmen sollen unseres Erachtens nicht vorgegeben, sondern im Kontext spezifischer Projekte oder Projektfamilien entwickelt werden. Sie spiegeln sowohl die disziplinären und teildisziplinären Zugehörigkeiten der Forscher(innen) und ihre Theoriebiografie(n). Sie können sich aber auch auf spezifische Referenzgruppen, Praktiker(innen), Lehrer(innen), Polizist(inn)en und politische Entscheidungsträger(innen) beziehen. Durch Referenzdiversität kann man leicht zum Grenzgänger oder zur Grenzgängerin werden, und die Geschichte muss in einem Zwischenland erzählt werden (vgl. hierzu BERG 2003, S.110), in dem Forschenden das Dilemma, widersprüchlichen Referenzsystemen entsprechen zu müssen, nicht erspart bleibt. [39]

3.4 Selektives Kodieren

Der Prozesscharakter des Kodierens vom offenen und punktuellen Kodieren zum selektiven und theoriebezogenen Kodieren bringt mit sich, dass sich während der Arbeit am Text das Gewicht verlagert, vom Sprechen der Akteure im Feld zum Sprechen der Interpret(inn)en. Der Kodierprozess entwickelt sich vom Rezeptiven über das Theoretische zum Rhetorischen. Es ist bei der qualitativen Datenanalyse ein wenig so, als wenn über dem Zuhören und Dialogisieren die eigenen Aussagen und die ihnen angemessene Sprache gefunden würden. Das ist sicher mit angesprochen, wenn GLASER und STRAUSS (1967, S.28) meinen, die GTM stärke die Forschenden und ermögliche deshalb erst die Theoriegenerierung. [40]

Das selektive Kodieren erlaubt, dass die endgültige Interpretation nicht angeheftet (tagged on) wirkt, sondern im ständigen Dialog mit den Daten formuliert wird. Die Theorie hat nun nicht unbedingt einen nomothetischen Charakter, d.h. es wird keineswegs nur allgemeingültiges und gesetzmäßiges Wissen formuliert. Vielmehr handelt es sich um eine an Standpunkt und Lebenswelt der Theorieproduzent(inn)en gebundene, narrativ-deskriptive Annäherung an das zentrale Phänomen der Studie. Charakteristisch für diese Phase der Kodierungsarbeit ist das Vor- und Rückwärtsbewegen im Datensatz. Die Interviews werden selektiv durchforstet im Hinblick darauf, ob sie etwas für die zu erzählende Geschichte hergeben. Das selektive Kodieren spielt sich wieder um zwei Pole ab, den Pol des "Er-Findens" der Geschichte und den der Überprüfung an den Daten. Offensichtlich ist, dass die Theorie sich nicht automatisch aus den Daten ergibt, sondern auf der theoretischen Sensibilität der Forschenden beruht, die aber ihrerseits wieder an den Daten geschärft wird. [41]

Das selektive Kodieren steht also wesentlich im Dienst der "Er-Findung" der storyline. Zentrale Operationen beim Erfinden der Geschichte sind das Festlegen der Kernkategorie, die erste Explizierung des Erzählbogens und die Ausformulierung der Geschichte. Die emergierende Geschichte wirkt dann ihrerseits als ein Filter, ein Verstehensraster, eine Vorstrukturierung, eine Art kategorialer Rahmen. Sie hat deshalb einerseits Ähnlichkeiten mit dem Kode-Frame des axialen/theoretischen Kodierens, ist aber andererseits weniger starr, plastischer, kann bewegt und verändert werden und dient in diesem Sinn der konzeptuellen Findigkeit. Gerade durch diese Beweglichkeit entsteht beim selektiven Kodieren das typische Hin und Her zwischen Text und Geschichte. [42]

Beim selektiven Kodieren werden u.a. die Eigenschaften der Kernkategorie und ihre jeweiligen dimensionalen Reichweiten definiert. Die Kernkategorie wird dann zu anderen Kategorien in Beziehung gesetzt. Die Geschichte wird dabei zum Teil neu erzählt, und die Kategorien werden neu geordnet. Beziehungen zwischen Kategorien werden validiert und Strukturmuster aufgedeckt. Um Verbindungen zu systematisieren und zu festigen, bewegt man sich dabei immer wieder hin und her zwischen Fragenstellen, Hypothesengenerieren und Vergleichen. Die analytisch-interpretative Arbeit wird auf diese Art und Weise integriert und an den Daten validiert, die schlussendlich in eine analytische Geschichte übersetzt werden. [43]

Die Geschichte, die erzählt wird, hängt dabei nicht nur von den Daten ab, sondern "von der Stimme", d.h. der Erzählrolle (persona) (BECKER 1986, S.26ff.), dem Milieu, in dem gesprochen wird, von dem Publikum, das erreicht werden soll. Treffen wir Entscheidungen darüber, wer, wem, was, wie und wozu erzählt, spielt nicht zuletzt auch die Vorstellung, die wir von möglichen Geschichten haben, eine Rolle. Eine Fabel, ein Exempel, ein Gleichnis kommen anders daher als ein Roman, der Subjektivität und Modernität integrieren möchte.19) Soll die Rhetorik in diesem Zusammenhang die Analyse nicht mit Blindheit schlagen, bleibt nur der Weg der historischen "Selbstdurchsichtigkeit". So wie beim Centre Pompidou in Paris die Versorgungsrohre offenliegen und dennoch der Schönheit der Architektur nichts anhaben, sollte in GTM-Publikationen der eigene Standpunkt reflektiert und sichtbar gemacht werden. Klar wird dann, warum eine akademische Arbeit, ein im Auftrag durchgeführtes Evaluationsprojekt oder eine Studie im Vorfeld politischer Maßnahmenplanung nicht unbedingt die gleiche Geschichte erzählen. [44]

4. Für eine flexible und reflexive Praxis der Grounded-Theory-Methodologie

Die Auseinandersetzung mit dem Kodieren im Rahmen der Grounded-Theory-Methodologie sollte verdeutlicht haben, dass es sich hierbei um mehr als ein sozialwissenschaftliches Verfahren handelt. GTM stellt tatsächlich die Grundfragen der geistes- und sozialwissenschaftlichen Erkenntnis. Es geht um das allgemeine Verstehen menschlicher Praxis, um das Verstehen, die Rekonstruktion, auch der Praxis des oder der Anderen. Es ist deshalb zwar immer noch legitim, die genaue Referenz auf die angewandten Verfahren zu fordern, aber diese Bedingung ist nicht ausreichend.



Abb. 1: Britain seen from the North (Tony CRAGG, 1981, Relief, Tate Modern, London. Bildrechte: Tony CRAGG, Tate Gallery, London [Foto]; reprinted by permission) [45]

Wenn uns die Kodierungsarbeit bis dahin an Tony CRAGGs dekonstruktivistische Kunstwerke erinnert (siehe Abbildung 1), macht es deutlich, dass es sich um einen kreativen Prozess handelt, der durch seine prinzipielle Offenheit mit einem gewissen Grad an Konfusion und Regression verbunden ist. Es ist wohl dieser Tatbestand, der Uwe FLICK (2002, S.196-206) mit dazu veranlasst, der Analyseprozedur vorzuhalten, dass die Grenze zwischen wissenschaftlicher Methode und Kunstlehre mitunter fließend sei. GTM hat tatsächlich zwei Gesichter: auf der einen Seite ist sie regelgeleitet und systematisch, auf der anderen Seite aber räumt sie der assoziativen Kreativität, der Fluidität und der Offenheit viel Platz ein. Der zweite Aspekt kann bei manchen den Eindruck erwecken, GTM-Analysen seien wenig verbindlich, wenig intersubjektiv nachvollziehbar, sie würden also von subjektiver Beliebigkeit bestimmt. Dieser Eindruck wird noch dadurch verstärkt, dass zumindest das offene Kodieren prinzipiell unendlich fortgesetzt werden kann. Es müssen also Wege gefunden werden, uns gegen Selbsttäuschung und unverbindliche Schlussfolgerungen zu schützen. Eine Lösung liegt in der methodischen Reflexion der Interpretationsarbeit. Es kann also hierbei nicht um naives Interpretieren im Sinne der romantischen Hermeneutik von SCHLEIERMACHER und DILTHEY gehen, sondern Hermeneutik wird im Sinne GADAMERs verstanden, sie ist demnach auch Reflexion der Bedingungen des Interpretierens (GADAMER 1965, S.220f.). GTM kann ihrem von ihren Vätern erhobenen Anspruch, eine demokratische Sozialwissenschaft zu sein, nur dann genügen, wenn die methodologische Reflexion als Verstehen des Verstehens (vgl. SOEFFNER 1989) (zumindest zum Teil) in die Analysearbeit einbezogen wird. Das bedeutet, dass die Reflexion der Subjektivität (vgl. BREUER, MRUCK & ROTH 2002; MRUCK & BREUER 2003; mit direktem Bezug zur GTM siehe MRUCK & MEY 2007), aber auch die Reflexion der professionellen Situationsdefinitionen der Forschenden (vgl. HITZLER 2003, S.304) und schließlich die Reflexion der sich veränderten Modalitäten der Wissensproduktion (GIBBONS et al. 1994; MRUCK 1999) feste Bestandteile sozialwissenschaftlicher Selbstreflexion werden. Hilfreich ist dabei sicher, wenn bezogen auf das Wissenschaftshandeln mit Margaret ARCHER Reflexivität als Vermittlung zwischen structure und agency verstanden wird (2003, S.153ff.). [46]

Uwe FLICKs Kritik ist insofern auch überraschend, da in der Literatur zur Hermeneutik immer wieder betont wird, dass Regeln allein nicht ausreichen, um ein angemessenes Textverständnis zu sichern. Ein wichtiges Gütekriterium ist deshalb die methodologische Transparenz. Besonders wichtig ist die Arbeit in einem Forschungsteam, weil Einzelne so gehalten sind, methodische Entscheidungen explizit auszuhandeln und festzulegen, worauf der oder die isoliert Forschende nicht im gleichen Maß angewiesen ist. Eine Strategie, wie mit dem Problem umgegangen werden kann, deuten HUBERMAN und MILES (1999) an. Um eine hohe deskriptiv-kontextuelle Validität, Akzeptanz bei den Betroffenen und Praktikabilität vorgeschlagener Lösungen zu gewährleisten, d.h. um sehr eng an der lebensweltlichen Bedeutung der Äußerungen zu bleiben und den Einfluss der Forschenden klein zu halten, ist es notwendig, mit minimal vordefinierten Kategorien und Kategorienrastern zu arbeiten. Auf der anderen Seite aber verlangt der Anspruch nach interner Validität und Generalisierbarkeit oder schlicht die Handhabbarkeit der Datenmenge danach, sich auf weitgehend genau definierte Kodes zu stützen. Bei mehrfachem Gebrauch muss die gleiche Kategorie in der Regel auch das Gleiche bedeuten. Die Bearbeitung dieses Dilemmas soll in den Memos, die während der Kodierungsarbeit entstehen, deutlich gemacht werden. Forschende müssen sich hierbei auf zwei unterschiedliche Fähigkeiten stützen. Ihre theoretische Sensibilität, die sie im interpretativen Dialog mit den Daten steigern müssen, erlaubt ihnen, Textsegmenten Sinn zu geben. Ihre theoretische Bewusstheit gewährleistet Methodentransparenz; durch sie kann Rechenschaft über das eigene Vorgehen gegeben werden, so dass es nachvollziehbar wird. Beides sind Angelpunkte einer flexiblen, man möchte sagen: undogmatischen und reflexiven Praxis der GTM. Im Kopf behalten werden sollte dabei Ian DEYs (1999, S.xiii) Bonmot, dass "grounding the grounded theory" heißen kann: sie fundieren, sie auf den Grund setzen oder gar sie versenken. [47]

Anmerkungen

1) Dem Text liegt ein Paper (BERG & MILMEISTER 2000) zugrunde, das ursprünglich in einem vom Luxemburger Forschungsministerium finanzierten Projekt (R&D) entstanden ist. Wir bedanken uns sehr herzlich bei Günter MEY und Katja MRUCK, die die Überarbeitung und Veröffentlichung des Textes bei einem ZUMA-Workshop zur Grounded-Theory-Methodologie in Mannheim angeregt und kritisch begleitet haben. Gaston STOOS danken wir dafür, dass er, wie so oft schon, die Aufgabe des Korrekturlesens übernommen hat. Eine erste Fassung dieses Beitrags ist gedruckt im HSR-Supplement 19: "Grounded Theory Reader" (MEY & MRUCK 2007) erschienen und wurde für diese Veröffentlichung in FQS durchgesehen und überarbeitet. <zurück>

2) "The sociological imagination enables its possessor to understand the larger historical scene in terms of its meaning for the inner life and the external career of a variety of individuals" (MILLS 1959, S.5). <zurück>

3) "The grounded theory researcher must have an integrative ability, a summary ability, and a connective ability. He must have a social organization, social structural and interactional perspective with theoretical meanings in order to help him use theoretical codes with grounded control" (GLASER 1995, S.13; vgl. auch GLASER 1978). <zurück>

4) Ein erstes Projekt bezog sich auf die Mobilität von Jugendlichen im grenzüberschreitenden regionalen Raum um Luxemburg. Datenmaterial waren Leitfadeninterviews mit Jugendlichen und Jugendexpert(inn)en. Das Projekt befasste sich mit der Fragestellung, wie die Öffnung der Grenzen und die damit einhergehende Steigerung der Mobilität der Jugendlichen sich als Sozialisationsfaktoren auswirken können. Ein zweites Projekt hatte als Thema die Freiwilligenarbeit Jugendlicher (vgl. MEYERS 2006). Hier bestand das Datenmaterial in Experteninterviews und Gruppendiskussionen. Wir gingen dabei der Frage nach, was Freiwilligenarbeit für Jugendliche ist, was sie für deren Sozialisation bedeutet und was deren Motive für die Freiwilligenarbeit sind. Ein weiteres Projekt befasste sich mit den Jugendlichen im öffentlichen, städtischen Raum (BERG, MILMEISTER & SCHOOS 2005). Wir arbeiteten hier mit Experteninterviews, Gruppendiskussionen und Feldprotokollen. Zwei Fragen standen in diesem Projekt im Mittelpunkt: welches problematische Verhalten Jugendlicher gibt es im öffentlichen Raum der Stadt Luxemburg und mit welchen Lösungsansätzen kann darauf reagiert werden. Im Jugendkommunalplan (WILLEMS, JOACHIM, MEYERS, MILMEISTER & WEIS 2004) der Stadt Luxemburg haben wir eine Sozialraumanalyse, Experteninterviews, Gruppendiskussionen mit Jugendlichen und eine Telefonumfrage durchgeführt. In dem Projekt ging es in erster Linie um das Freizeitverhalten der Jugendlichen, aber auch z.B. um deren Bewertung von Freizeitinfrastrukturen, Wohnvierteln usw. Auch in einigen Evaluationsprojekten wurden qualitative Verfahren angewandt (JOACHIM 2005). Eine unserer letzten Analysen bezog sich auf die Kurzkommentare, die Teil einer Fragebogenerhebung zu Gesundheit und Wohlbefinden bei Jugendlichen waren (BERG, MEYER & MILMEISTER 2006). <zurück>

5) Eine negative, wenn leider auch verbreitete Praxis besteht darin, an Survey- oder experimentelle Studien einen "Grounded-Theory-Teil" anzuhängen, ohne dass in der jeweiligen Forschungseinrichtung die notwendigen methodologischen Voraussetzungen erfüllt und aufgebaut worden wären. In der Folge besuchen dann Doktoranden und Doktorandinnen verzweifelt Grounded-Theory-Workshops in der unrealistischen Hoffnung, hier alles für die alltägliche Forschungsarbeit Erforderliche in ein oder zwei Tagen erlernen zu können. <zurück>

6) Es mag hilfreich sein, zum Verständnis und für Relativierungen der folgenden Ausführungen einige Stationen unseres eigenen Weges offenzulegen. Wir begannen im Jahre 2000 in einer Forschungsgruppe, die heute zwölf Personen umfasst, uns mit qualitativen Methoden der Sozialforschung zu beschäftigen. Ein Teil der Gruppe zeigte dabei besonderes Interesse an der GTM. Am Anfang stand die Lektüre beziehungsweise die Wiederlektüre des Discovery-Buches aus dem Jahre 1967 (GLASER & STRAUSS 1967). Damit fehlte aber immer noch eine konkrete Handlungsanleitung, und wir stießen sehr schnell auf STRAUSS und CORBIN (1990), auf STRAUSS (1987) und auf ATLAS.ti, dessen Programmstruktur in starkem Maß der Grounded-Theory-Methodologie entspricht. Wir machten dann die Erfahrung des Steckenbleibens. Wir kamen oft aus unterschiedlichen Gründen über das Kodieren nicht hinaus. Die Konzeptualisierung, die zentrale Kategorie festzulegen, eine kohärente, nicht beliebige Geschichte zu erzählen, bereiteten uns Schwierigkeiten. Wir waren deshalb insgesamt eher unzufrieden mit den eigenen Arbeiten. Die Lektüre von DEY (1999), der einen interpretativen Zugang zur GTM sucht, hatte eine befreiende Wirkung und gab uns eine gewisse Selbständigkeit und Leichtigkeit zurück. Wir relativierten dann besonders das axiale Kodieren bei STRAUSS und CORBIN durch die späten Arbeiten von GLASER (1992, 1995, 1998, 2001). Die Teilnahme an den Grounded Theory Sessions mit Barney GLASER beim 37. Weltkongress des International Institute of Sociology in Stockholm im Juli 2005 und die Teilnahme an einem Workshop mit Günter MEY und Katja MRUCK beim Mannheimer Zentrum für Umfragen, Methoden und Analysen (ZUMA) haben uns dann zur reflexiven Arbeit an der GTM weiter angeregt. Unser Hauptziel ist dabei die Verbesserung der eigenen Forschungspraxis. <zurück>

7) Vgl. allgemein zur Frage der Kategorisierung MUCKEL (2007). <zurück>

8) Wir gebrauchen den Kode-Begriff in Anlehnung an ATLAS.ti. Bei STRAUSS und CORBIN (1990, S.61) wird concept synonym zu unserem Kode-Begriff gebraucht. Sie sprechen dann in Bezug auf das Kodieren auch von "conceptualizing data"(S.63) und unterstreichen damit, dass es weniger um Zusammenfassung des Datenmaterials als um ein konzeptionelles Aufbereiten der Daten geht. DEY (1999, S.129) hingegen findet den Terminus Kode vollkommen unpassend und schlägt vor, ganz auf ihn zu verzichten. <zurück>

9) Die Arbeiten zur Kategorisierung aus dem Bereich der kognitiven Wissenschaft (z.B. LAKOFF 1987) wurden im Bereich der GTM, außer bei DEY (1999, S.76-86, 254-255 u.a.) leider nicht rezipiert. Dennoch würde dieser Ansatz gerade eine lebenswelt- und alltagssprachnahe Kategorienbildung unterstützen; auf Besonderheiten und Einschränkungen der Verbindung von GTM und Metaphernanalyse weist Rudolf SCHMITT in seinem Diskussionsbeitrag auf der Mailingliste Qualitative Sozialforschung (QSF-L) hin (siehe: http://lists.spline.inf.fu-berlin.de/mailman/htdig/qsf_l/2006-August/001208.html). <zurück>

10) Vgl.: "Il n' est donc pas exclu que le recours au narratif soit inévitable; pour autant du moins que le jeu de langage de la science veuille la vérité de ses énoncés et qu’il ne puisse pas la légitimer par ses propres moyens [Es ist als nicht ausgeschlossen, dass der Rekurs auf das Narrative unvermeidlich ist, insofern zumindest als das Sprachspiel der Wissenschaft die Wahrheit seiner Aussagen beansprucht, ohne sie durch eigene Mittel legitimieren zu können]" (LYOTARD 1979, S.49; Übersetzung C.B/M.M.). <zurück>

11) Vgl.: "The process of science making is narrative" (BRUNER 1996, S.126). <zurück>

12) Wir übernehmen den Begriff aus der ATLAS.ti-Software, wo primary document neben quote, code und memo eines der Programmobjekte darstellt. <zurück>

13) Wir denken aber auch an die literaturwissenschaftliche Unterscheidung von Primär- und Sekundärliteratur. Der Unterscheidung haftet eine gewisse Beliebigkeit an, und man könnte auf sie verzichten oder sie als eine Art veränderbare Rollenverteilung in der Inszenierung der Interpretation lesen. Der Veränderung der Rollen entspricht dann der Wechsel eines Textes von der Gattung der Primärdokumente in die der Memos. <zurück>

14) Das bedeutet nicht, dass Sozialwissenschaftler und Sozialwissenschaftlerinnen sich der Textarbeit verschreiben. Sie hat eine Durchgangsstation auf dem Weg zur Generierung von Theorie oder Theorieelementen zu bleiben. <zurück>

15) Der Prager Anglist Vilém MATHESIUS hat in den zwanziger Jahren des vorigen Jahrhunderts das Konzept der funktionalen Satzperspektive entwickelt. Es handelt sich dabei um eine dynamische, kommunikationsbezogene Struktur. Jeder Satz ist zweiteilbar, er enthält ein Thema (basis, topic, Argument) – das worüber gesprochen wird – und ein Rhema (nucleus, comment, focus, Prädikat) – das, was über das Thema gesagt wird (MATHESIUS 1929). <zurück>

16) Kataphorik und Anaphorik bezeichnen textinterne Verweismuster. Die anaphorische Verbindung verweist auf eine vorausgehende Textstelle, die kataphorische auf eine nachfolgende (WEINRICH 1993, S.410-414). <zurück>

17) Schwierig ist beim nicht-direktiven Forschungsinterview die paradoxe Voraussetzung, dass es in der Regel und im Gegensatz zum Beratungsgespräch auf Anfrage nicht der Interviewten, sondern der Interviewenden zustande kommt. <zurück>

18) Wir nennen den pet-Kode parasitär, weil er den Daten nichts "gibt", sie nur zum eigenen Zweck verwendet, ja missbraucht. <zurück>

19) Vgl. zur Vielfalt von literarischen Erzählmöglichkeiten KLOTZ (2006). <zurück>

Literatur

Archer, Margaret S. (2003). Structure, agency and the internal conversation. Cambridge: Cambridge University Press.

Becker, Howard S. (1986). Writing for social scientists. Chicago: The University of Chicago Press.

Becker, Howard S. (1998). Tricks of the trade. How to think about your research while you are doing it. Chicago: The University of Chicago Press.

Berg, Bruce L. (1998). Qualitative research methods for the social sciences. Boston: Allyn and Bacon.

Berg, Charles (2003). New directions of research [on multilingual literacy]: The role of grounded theory and collaborative research. Reading Research Quarterly, 38(1), 105-111.

Berg, Charles & Milmeister, Marianne (2000). Über das Kodieren bei der qualitativen Datenanalyse. Luxemburg: CESIJE. [unveröffentlicht]

Berg, Charles; Milmeister, Marianne & Schoos, Jean (2005). Stadtraum Jugendraum? Vom professionellen Diskurs über Gefährdete zu multimodalen Hilfestellungen in einer vernetzten Jugendsozialarbeit. Esch/Alzette: Editions PHI.

Böhm, Andreas; Legewie, Heiner & Muhr, Thomas (1992). Kursus Textinterpretation: Grounded Theory. Textinterpretation und Theoriebildung in den Sozialwissenschaften. Lehr- und Arbeitsmaterialien zur Grounded Theory. Bericht aus dem interdisziplinären Forschungsprojekt ATLAS, Forschungsbericht Nr. 92-3.

Bogdan, Robert C. & Biklen, Sari Knopp (1992). Qualitative research for education. An introduction to theory and methods (2. Auflage). Boston: Allyn and Bacon.

Boychuk Duchscher, Judy E. & Morgan, Debra (2004). Grounded theory: Reflections on the emergence vs. forcing debate. Journal of Advanced Nursing, 48(6), 605-612.

Brenner, Peter J. (1998). Das Problem der Interpretation. Eine Einführung in die Fragen der Literaturwissenschaft. Tübingen: Niemeyer.

Breuer, Franz (2000). Qualitative Methoden zur Untersuchung von Biographien, Interaktionen und lebensweltlichen Kontexten: Die Entwicklung eines Forschungsstils [29 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 1(2), Art. 3, http://www.qualitative-research.net/fqs-texte/2-00/2-00breuer-d.htm [Zugriff: 04.03.2008].

Breuer, Franz; Mruck, Katja & Roth, Wolff-Michael (2002). Subjektivität und Reflexivität: Eine Einleitung [10 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 3(3), Art. 9, http://www.qualitative-research.net/fqs-texte/3-02/3-02hrsg-d.htm [Zugriff: 04.03.2008].

Bruner, Jerome (1996). The culture of education. Cambridge, MA: Harvard University Press.

Bryman, Alan (2001). Social research methods. Oxford: Oxford University Press.

De Man, Paul (1988). Allegorien des Lesens. Frankfurt/M.: Suhrkamp.

Deppermann, Arnulf (2001). Gespräche analysieren. Opladen: Leske + Budrich.

Dey, Ian (1993). Qualitative data analysis. A user-friendly guide for social scientists. London: Routledge.

Dey, Ian (1999). Grounding grounded theory. Guidelines for qualitative inquiry. San Diego: Academic Press.

Flick, Uwe (2002). Qualitative Sozialforschung. Eine Einführung (6. vollständig überarbeitete und erweiterte Auflage). Reinbek: Rowohlt.

Gadamer, Hans-Georg (1965). Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik. Tübingen: J.C.B. Mohr.

Gage, Nathaniel S. (1989). The paradigm wars and their aftermath. Educational Research, 18, 4-10.

Gibbons, Michael; Limoges, Camille; Nowotny, Helga; Schwartzmann, Simon; Scott, Peter & Trow, Martin (2005). The new production of knowledge. The dynamics of science and research in contemporary societies. London: Sage. [Erstdruck 1994]

Glaser, Barney G. (1978). Theoretical sensitivity. Mill Valley, CA: Sociology Press.

Glaser, Barney G. (1992). Emergence vs. forcing. Basics of grounded theory analysis. Mill Valley, CA: Sociology Press.

Glaser, Barney G. (1995). Grounded theory 1984-1994 (2 Bände). Mill Valley, CA: Sociology Press.

Glaser, Barney G. (1998). Doing grounded theory. Issues and discussions. Mill Valley, CA: Sociology Press.

Glaser, Barney G. (2001). The grounded theory perspective. Conceptualization contrasted with description. Mill Valley, CA: Sociology Press.

Glaser, Barney G. (2005). The grounded theory perspective III: Theoretical coding. Mill Valley, CA: Sociology Press.

Glaser, Barney G. & Strauss, Anselm L. (1967). The discovery of grounded theory. Strategies for qualitative research. New York: Aldine de Gruyter.

Hammersley, Martyn (1992). Deconstructing the quantitative-qualitative divide. In Alan Bryman & Robert G. Burgess (Hrsg.), Qualitative research (Vol.1, S.70-83). London: Sage.

Hitzler, Ronald (2003). Konsequenzen der Situationsdefinition. Auf dem Wege zu einer selbstreflexiven Wissenssoziologie. In Ronald Hitzler; Jo Reichertz & Norbert Schröer (Hrsg.), Hermeneutische Wissenssoziologie. Standpunkte zur Theorie der Interpretation (S.289-308). Konstanz: UVK.

Hitzler, Ronald & Honer, Anne (Hrsg.) (1997). Sozialwissenschaftliche Hermeneutik. Eine Einführung. Opladen: Leske + Budrich.

Huberman, Michael A. & Miles, Matthew B. (1999). Data management and analysis methods. In Norman K. Denzin & Yvonna S. Lincoln (Hrsg.), Collecting and interpreting qualitative materials (S.179-210). Thousand Oaks: Sage.

Hutchby, Ian & Wooffitt, Robin (1998). Conversation analysis. Cambridge, UK: Polity.

Iser, Wolfgang (1994). Der Akt des Lesens. München: Fink [UTB].

Jauß, Hans Robert (1970). Literaturgeschichte als Provokation. Frankfurt/M.: Suhrkamp.

Joachim, Patrice (2005). STIP, STAP et la suite. Evaluation du système de formation interne des "Lëtzebuerger Guiden a Scouten". Luxembourg: CESIJE.

Kelle, Udo (1995). Theories as heuristic in qualitative research. In Ilja Maso, Paul A. Atkinson, Sarah Delamont & Jef C. Verhoeven (Hrsg.), Openness in research. The tension between self and other (S.33-50). Assen: Van Gorcum.

Kelle, Udo (2005). "Emergence" vs. "forcing" of empirical data? A crucial problem of "grounded theory" reconsidered [52 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 6(2), Art.27, http://www.qualitative-research.net/fqs-texte/2-05/05-2-27-e.htm [Zugriff: 04.03.2008].

Klotz, Volker (2006). Erzählen. Von Homer bis Boccaccio, von Cervantes zu Faulkner. München: Beck.

Kuckartz, Udo (1997). Qualitative Daten computerunterstützt auswerten: Methoden, Techniken, Software. In Barbara Friebertshäuser & Annedore Prengel (Hrsg.), Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft (S.584-595). Weinheim: Juventa.

Lakoff, George (1987). Women, fire and dangerous things. What categories reveal about the mind. Chicago: Chicago University Press.

LaRossa, Ralph (2005). Grounded theory methods and qualitative family research. Journal of Marriage and Family, 67(November), 837-857.

Lawrence-Lightfoot, Sara & Davis, Jessica Hoffmann (1997). The art and science of portraiture. San Francisco: Jossey Bass Publishers.

Lyotard, Jean-François (1979). La condition postmoderne. Rapport sur le savoir. Paris: Éditions de Minuit.

Mathesius, Vilém (1929). Die Satzperspektive im modernen Englisch. Archiv für das Studium der neueren Sprachen und Literaturen, 84(155), 202-210.

Mayring, Philipp (2002). Einführung in die qualitative Sozialforschung. Eine Anleitung zu qualitativem Denken (5. Auflage). Weinheim: Beltz Verlag.

Mey, Günter (1999). Adoleszenz, Identität, Erzählung. Theoretische, methodologische und empirische Erkundungen. Berlin: Köster.

Mey, Günter & Mruck, Katja (Hrsg.) (2007). Grounded theory reader. HSR Supplement, 19.

Meyers, Christiane (2006). Le bénévolat associatif des jeunes au Luxembourg. Luxembourg: CESIJE.

Mills, C. Wright (1959). The sociological imagination. Oxford: Oxford University Press.

Mruck, Katja (1999). "Stets ist es die Wahrheit, die über alles gebietet, doch ihre Bedeutung wandelt sich." Zur Konzeptualisierung von Forschungsobjekt, Forschungssubjekt und Forschungsprozeß in der Geschichte der Wissenschaften. Münster: Lit.

Mruck, Katja & Breuer, Franz (2003). Subjectivity and reflexivity in qualitative research – The FQS issues [30 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 4(2), Art.23, http://www.qualitative-research.net/fqs-texte/2-03/2-03intro-1-e.htm [Zugriff: 04.03.2008].

Mruck, Katja & Mey, Günter (1998). Selbstreflexivität und Subjektivität im Auswertungsprozess biographischer Materialien – zum Konzept einer "Projektwerkstatt qualitativen Arbeitens" zwischen Colloquium, Supervision und Interpretationsgemeinschaft. In Gerd Jüttemann & Hans Thomae (Hrsg.), Biographische Methoden in den Humanwissenschaften (S.284-306). Weinheim: Beltz/PVU.

Mruck, Katja & Mey, Günter (2005). Qualitative Forschung: Zu Einführung in einen prosperierenden Wissenschaftszweig. Historical Social Research/Historische Sozialforschung, 30(1), 5-27.

Mruck, Katja & Mey, Günter (2007). Grounded theory and reflexivity. In Antony Bryant & Kathy Charmaz (Hrsg.), The Sage handbook of grounded theory (S.487-510). London: Sage.

Muckel, Petra (2007). Die Entwicklung von Kategorien mit der Methode der Grounded Theory. In Günter Mey & Katja Mruck (Hrsg.), Grounded Theory Reader. HSR-Beiheft 19 (S.211-231). Köln: Zentrum für Historische Sozialforschung.

Richards, Ivor Armstrong (2001). Principles of literary criticism. New York: Routledge.

Riemann, Gerhard (2005). Zur Bedeutung von Forschungswerkstätten in der Tradition von Anselm Strauss. Mittagsvorlesung, 1. Berliner Methodentreffen Qualitative Forschung, 24.-25. Juni 2005, http://www.berliner-methodentreffen.de/material/2005/riemann.pdf [Zugriff: 04.03.2008].

Rost, Jürgen (2005). Differentielle Indikation und gemeinsame Qualitätskriterien als Probleme der Integration von qualitativen und quantitativen Methoden. Symposium, 1. Berliner Methodentreffen Qualitative Forschung, 24.-25. Juni 2005, Freie Universität Berlin, http://www.berliner-methodentreffen.de/material/2005/rost.pdf [Zugriff: 04.03.2008].

Sacks, Harvey (1990). Lectures 1964-1965. Dordrecht: Kluwer.

Schegloff, Emanuel A. (1991). Reflections on talk and social structure. In Deirdre Boden & Don H. Zimmerman (Hrsg.), Talk and social structure, studies in ethnomethodology and conversation analysis (S.44-70). Cambridge: Polity Press.

Soeffner, Hans-Georg (1989). Auslegung des Alltags. Der Alltag der Auslegung. Zur wissenssoziologischen Konzeption einer sozialwissenschaftlichen Hermeneutik. Frankfurt/M.: Suhrkamp.

Sontag, Susan (1994). Against interpretation. Essays on cultural studies. New York: Vintage.

Strauss, Anselm L. (1977). Introduction. In George Herbert Mead, On social psychology. Selected papers (S.v-xxvi). Chicago: The University of Chicago Press.

Strauss, Anselm L. (1987). Qualitative analysis for social scientists. Cambridge: Cambridge University Press.

Strauss, Anselm L. (1991). Creating sociological awareness. Collective images and symbolic representations. New Brunswick, London: Transaction Publishers.

Strauss, Anselm L. & Corbin, Juliet M. (1990). Basics of qualitative research. Grounded theory procedures and techniques. Newbury Park, Ca, London: Sage.

Strübing, Jörg (2004). Grounded Theory. Zur sozialtheoretischen und epistemologischen Fundierung des Verfahrens der empirisch begründeten Theoriebildung. Wiesbaden: VS Verlag.

Tiefel, Sandra (2005). Kodierung nach der Grounded Theory lern- und bildungstheoretisch modifiziert: Kodierungsleitlinien für die Analyse biographischen Lernens. Zeitschrift für qualitative Bildungs-, Beratungs- und Sozialforschung, 6(1), 65-84.

Wallerstein, Immanuel (2004). The uncertainties of knowledge. Philadelphia, PA: Temple University Press.

Weinrich, Harald (1993). Textgrammatik der deutschen Sprache. Mannheim: Dudenverlag.

Weitzman, Eben A. & Miles, Matthew B. (1995). Computer programs for qualitative data analysis. Thousand Oaks: Sage.

Willems, Helmut; Joachim, Patrice; Meyers, Christiane; Milmeister, Marianne & Weis, Christiane (2004). Endbericht des CESIJE im Rahmen des "Plan Communal Jeunesse" der Stadt Luxemburg (4 Bände). Luxemburg: CESIJE.

Zum Autor und zur Autorin

Charles BERG, Erziehungswissenschaftler an der Universität Luxemburg.

Kontakt:

Charles Berg

Universität Luxemburg
BP 2, L-7201 Walferdange
Luxemburg

E-Mail: charles.berg@uni.lu

 

Marianne MILMEISTER, Soziologin an der Universität Luxemburg

Kontakt:

Marianne Milmeister

Universität Luxemburg
BP 2, L-7201 Walferdange
Luxemburg

E-Mail: marianne.milmeister@uni.lu

Zitation

Berg, Charles & Milmeister, Marianne (2008). Im Dialog mit den Daten das eigene Erzählen der Geschichte finden. Über die Kodierverfahren der Grounded-Theory-Methodologie [47 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 9(2), Art. 13, http://nbn-resolving.de/urn:nbn:de:0114-fqs0802138.



Copyright (c) 2008 Charles Berg, Marianne Milmeister

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.