Volume 6, No. 2, Art. 22 – Mai 2005

Forschen nach Rezept? Anregungen zum praktischen Umgang mit der Grounded Theory in Qualifikationsarbeiten

Inga Truschkat, Manuela Kaiser & Vera Reinartz

Zusammenfassung: Um eine qualitativ-empirische Untersuchung erfolgreich durchzuführen, bedarf es unter anderem eines adäquaten methodischen Vorgehens. Mit der Grounded Theory liegt eine Methodologie (GTM) vor, die auf den ersten Blick durch ihre gute Strukturiertheit besticht und so gerade auch wenig erfahrene ForscherInnen anspricht. Dringt man jedoch dann im Forschungsprozess in die (möglicherweise ungeahnten) Tiefen dieses methodologischen Rahmenkonzepts vor, so wird meist insbesondere der hohe Anspruch an den Samplingprozess deutlich. Wie sich die Prinzipien der GTM durch einen kreativen Umgang dennoch für Qualifikationsarbeiten (Dissertationen etc.) handhaben lassen, werden wir im Folgenden diskutieren.

Keywords: Grounded Theory, theoretische Sensibilität, permanenter Vergleich, Zirkularität, Forschungspraxis, Qualifikationsarbeiten

Inhaltsverzeichnis

1. Einführung

2. Wie kommt man an die ersten Daten? Theoretische Sensibilität als Schlüssel zum Feld

3. Auf der Suche nach weiteren Daten: Zirkularität im Forschungsprozess und permanenter Vergleich

4. Wie kommt man zum Ende? Wege zur theoretischen Sättigung

5. Fazit

Anmerkungen

Literatur

Zu den Autorinnen

Zitation

 

1. Einführung

Das methodologische Verfahren der Grounded Theory (GTM), dessen Ziel die Entwicklung einer empirisch fundierten Theorie (GT) ist, hat sich in den Sozialwissenschaften als Rahmenkonzept etablieren können.1) Insbesondere unter qualitativ arbeitenden ForscherInnen hat sich das von Barney G. GLASER und Anselm L. STRAUSS (1967) entwickelte Analyseverfahren zu einem Standard empirischer Forschung entwickelt. Da der Prozess der Datenerhebung und die Datenauswertung bei der GTM in besonderer Weise miteinander verwoben sind, kommt dem Sampling im Rahmen dieses "Forschungsprogramms" eine zentrale Bedeutung zu. Mittels des Sampling wird über Daten für die Analyse entschieden und es ist deshalb eine wichtige Grundlage für die entstehende Theorie. Umgekehrt wird das Sampling durch die sich entwickelnde Theorie angeleitet, weshalb GLASER und STRAUSS von theoretischem Sampling sprechen:

"Theoretisches Sampling meint den auf die Generierung von Theorie zielenden Prozess der Datenerhebung, währenddessen der Forscher seine Daten parallel erhebt, kodiert und analysiert sowie darüber entscheidet, welche Daten als nächste erhoben werden sollen und wo sie zu finden sind. Dieser Prozess der Datenerhebung wird durch die im Entstehen begriffene – materiale oder formale – Theorie kontrolliert" (GLASER & STRAUSS 1998, S.53). [1]

Des hohen Anspruchs dieser Samplingstrategie werden sich ungeübte ForscherInnen spätestens im konkreten Forschungsprozess bewusst, nachdem sie zumeist aufgrund des "Kochrezeptcharakters" von einigen Anleitungen zur GTM den Eindruck hatten, systematisch die einzelnen Arbeitsschritte abarbeiten zu können. Wir rekurrieren hier auf die in deutscher Übersetzung vorliegenden Veröffentlichungen, unter denen insbesondere der Methoden-Bestseller "Grounded Theory: Grundlagen Qualitativer Sozialforschung" von STRAUSS und CORBIN (1996) hervorzuheben ist. Bereits im Vorwort und Umschlagtext wird das Werk als "didaktische Schritt-für-Schritt-Einführung" für AnfängerInnen ausgewiesen. Beim Blick ins Inhaltsverzeichnis erhärtet sich der Eindruck, dass die Lektüre dieses Werkes zum (vermeintlich) sicheren Ziel führt, denn nachdem die Punkte "Theoretische Sensibilität", "Verwendung von Literatur" sowie die verschiedenen Kodierverfahren und das Theoretische Sampling dargestellt worden sind, folgt schließlich sogar ein Kapitel zum Thema "Vortragen von Forschungsergebnissen und Schreiben von Doktorarbeiten und Monographien". STRAUSS und CORBIN weisen zwar explizit darauf hin, dass es sich "im wesentlichen (um) Leitlinien und Vorschläge für Auswertungstechniken – nicht jedoch starre Anweisungen oder Kochrezepte" handele (ebd., S.X), dennoch entsteht bei der Lektüre leicht ein gegensätzlicher Eindruck, der möglicherweise gerade der didaktischen Aufbereitung mit entsprechender Reduktion geschuldet ist. Denn gerade in der Forschungspraxis wird es oftmals notwendig, die Methode anzupassen und von der vorgegebenen Systematik stückweise abzurücken. Gleichzeitig wird aber immer wieder darauf hingewiesen, dass durch Abwandlungen der Methode und den zunehmend inflationären Gebrauch des Labels "GTM" deren grundlegende Prinzipien verwässert werden. "Hinter dem lapidaren Hinweis, 'nach GLASER und STRAUSS zu arbeiten' stehen häufig qualitativ und konzeptionell unterschiedliche Vorgehensweisen (...)" (DAUSIEN 1996, S.94). Auf diese Entwicklung und die daraus resultierende "Erosion" des Konzepts weist auch GLASER hin: "The mixing of QDA (Qualitative Data Analysis) and GT (Grounded Theory) methodologies has the effect of downgrading and eroding the GT goal of conceptual theory. The result is a default remodeling of classic GT into just another QDA method" (GLASER 2004, Abs. 5). [2]

Für die Umsetzung der GTM bedarf es also einer Anpassung der Methode an die forschungspraktischen Gegebenheiten, bei der aber gleichzeitig den Grundprinzipien der GTM Rechnung getragen werden muss. Besonders den Forschungsneulingen, die meistens in Qualifikationsarbeiten eine GT erarbeiten wollen, stellen sich diesbezüglich immer wieder Fragen, auf die sie in der zunächst leichter zugänglichen, weil ins Deutsche übersetzten Literatur (vgl. insbesondere STRAUSS & CORBIN 1996) dann keine hinreichenden Antworten mehr finden. In der weiteren Auseinandersetzung mit der GTM zeigt sich, dass die entwickelten unterschiedlichen Positionen GLASERs und STRAUSS' zu einzelnen Arbeitsschritten die Problemlage noch verschärfen und aufgeworfene Fragen "verkomplizieren" (vgl. u.a. KELLE 1994, STRÜBING 2004). [3]

In diesem Aufsatz wollen wir deshalb Antworten auf einige Fragen anbieten, die sich unserer Erfahrung nach besonders noch relativ ungeübten ForscherInnen in einem Forschungsprozess nach der GTM stellen können. [4]

In Abschnitt 2 setzen wir uns zunächst mit Fragen zur ersten Datenerhebung auseinander. Wie beginne ich meine Datenerhebung und welche Entscheidungshilfen kann ich mir zueigen machen? Die Differenzen zwischen GLASER einerseits und STRAUSS und CORBIN andererseits bezüglich des Einsatzes von Literatur als Entscheidungshilfe für die erste Datenerhebung lösen wir forschungspragmatisch auf und machen Vorschläge zur Integration beider Positionen. [5]

Dem Forschungsverlauf folgend greifen wir in Abschnitt 3 Fragen zum theoretischen Sampling im weiteren Forschungsprozess auf. Hierbei geht es vor allem um die Bedeutung des Kodierprozesses für die nachfolgende Datenerhebung. Auch hier nehmen wir erst Stellung zu den unterschiedlichen Auffassungen von GLASERs vs. STRAUSS und CORBIN, bevor wir eine flexible Handhabung der Samplingstrategien begründen. [6]

Im vierten und letzten Abschnitt problematisieren wir das Ende der Datenerhebung. Wir wollen aufzeigen, dass auch die Rahmenbedingungen einer Forschungsarbeit der Datenerhebung ihre Grenzen setzen kann, dass der "theoretische Gehalt" der entwickelten GT darunter aber nicht notwendig leiden muss. [7]

2. Wie kommt man an die ersten Daten? Theoretische Sensibilität als Schlüssel zum Feld

Die Auswahl der ersten zu untersuchenden Fälle (Personen, Situationen, Dokumente usw.) zu Beginn eines Forschungsprozesses nach der GTM hat Erkundungscharakter. Die aus der Analyse dieser Daten entstandenen relevanten Kategorien für eine Theoriebildung geben Hinweise über das weitere Sampling im Forschungsprozess. Die erste Auswahl von Untersuchungseinheiten spielt demnach eine besondere Rolle. Eine wichtige Frage bei diesem Forschungsschritt ist: Wie kann ich mein Forschungsinteresse soweit konkretisieren, dass ich daraus eine Begründung für meine erste Untersuchungseinheit ziehen kann? Oder anders gesagt: Wie komme ich eigentlich zu meinen ersten Daten? [8]

Leitend für die (erste) Datenerhebung ist wie bei allen empirischen Arbeiten auch in Forschungsprozessen nach der GTM die Fragestellung der Untersuchung. Anders als bei vielen anderen methodologischen Rahmenkonzepten wird bei der GTM die Fragestellung zu Beginn eines Forschungsprojektes jedoch recht offen formuliert und sie erfährt erst im Verlauf der Forschung eine Präzisierung und Konkretisierung (STRAUSS & CORBIN 1996, S.23ff). Die anfängliche Offenheit der Fragestellung ist mit der abduktiven Forschungslogik2) der GTM zu erklären: Die Forschungsfrage soll zu Beginn des Forschungsprozesses offen sein, damit Zusammenhänge aus der Empirie heraus auftauchen und "befragt" werden können. Die Fragestellung erfährt dann erst über eine sukzessive Erforschung des Gegenstands mittels der Methode des permanenten Vergleichs (siehe auch Abschnitt 3) eine Zuspitzung.3) Aus der anfänglichen Offenheit der Forschungsfrage heraus resultiert für die ForscherInnen bei der Erhebung der ersten Daten oftmals die Schwierigkeit, welche und wie viele Daten erhoben werden sollen. Am Beispiel einer Untersuchung über die Situation von älteren Studierenden4) ergaben sich für die Forschenden bei der konkreten Vorbereitung der Feldphase Fragen wie: Wer gilt in Deutschland eigentlich als eine Spätstudierende bzw. ein Spätstudierender? Soll die Untersuchung an Fachhochschulen oder an Universitäten durchgeführt werden oder an beiden Institutionen? Welche Faktoren beeinflussen generell die Situation von Studierenden und im speziellen von Spätstudierenden? Wer oder was muss also zur Beantwortung der Fragestellung untersucht werden? Anders als im fortgeschrittenen Stadium eines Forschungsprozesses, wo die Auswahl der (weiteren) Fälle (Personen, Situationen, Gegenstände, Dokumente) zur Entwicklung der Theorie über den Gegenstand (in diesem Fall zur Situation Spätstudierender) auf der Basis der bereits geleisteten Analyse geschieht (siehe Abschnitt 3)5), haben die Forschenden zu Beginn der Untersuchung nur wenige Anhaltspunkte, welche Untersuchungseinheiten sich zur Analyse eignen könnten. Einen Ansatzpunkt dafür, wie man dennoch einen empirischen Forschungsprozess sinnvoll in Gang bringen könnte, liefert das Konzept der theoretischen Sensibilität. So heißt es bei STRAUSS und CORBIN:

"Theoretische Sensibilität bezieht sich auf die Fähigkeit, Einsichten zu haben, den Daten Bedeutung zu verleihen, die Fähigkeit zu verstehen und das Wichtige vom Unwichtigen zu trennen. All dies wird eher durch konzeptuelle als durch konkrete Begriffe erreicht. Erst die theoretische Sensibilität erlaubt es, eine gegenstandsverankerte, konzeptuell dichte und gut integrierte Theorie zu entwickeln" (STRAUSS & CORBIN 1996, S.25). [9]

In GLASERs Buch "Basics of Grounded Theory Analysis" findet sich die folgende Definition:

"Theoretical sensitivity is an ability to generate concepts from data and to relate them according to the normal models of theory in general, and theory development in sociology, in particular. A researcher may be very sensitive to his personal experience, his area in general and his data specifically, but if he does not have theoretical sensitivity, he will not end up with grounded theory" (GLASER 1992, S.27). [10]

Die Grundauffassung, dass die theoretische Sensibilität die Fähigkeit von Forschenden meint, aus den empirischen Daten heraus eine gegenstandsbezogene Theorie zu entwickeln, vertreten GLASER und STRAUSS in gleicher Weise. Zu der Frage, was theoretische Sensibilität aber letztlich ausmacht und zu welchem Zeitpunkt des Forschungsprozesses sie wichtig wird, haben GLASER und STRAUSS in ihren späteren Arbeiten jedoch unterschiedliche Auffassungen entwickelt. [11]

Theoretische Sensibilität setzt sich nach STRAUSS und CORBIN aus Literaturkenntnissen, beruflichen und persönlichen Erfahrungen und aus den Erkenntnissen zusammen, die im Rahmen des laufenden Forschungsprojekts gewonnen werden (vgl. STRAUSS & CORBIN 1996, S.25ff).6) Literaturkenntnisse können sowohl aus abstrakteren Theorien als auch aus der Literatur über den konkreten Forschungsgegenstand gewonnen werden. Folgt man STRAUSS und CORBIN, so würde bei unserer Studie über Spätstudierende theoretische Sensibilität beispielsweise bedeuten, dass BOURDIEUs Analysen zu den "Feinen Unterschieden" (BOURDIEU 1987) herangezogen werden, um daraus Annahmen über die Rolle der sozialen Herkunft, das Verhältnis zum akademischen Milieu und den möglicherweise habituell geprägten Umgang von Spätstudierenden mit ihrem Studium abzuleiten (vgl. beispielhaft TRUSCHKAT 2002). Die theoretische Sensibilität würde in einem solchen Fall aus einem theoretisch-abstrakten Vorwissen gespeist, das auf Kenntnissen von so genannten Grand Theories beruht. Wird hingegen die Altersstruktur von Studierenden in Deutschland in Erfahrung gebracht, um darüber die Frage klären zu können, wer überhaupt in der Untersuchung empirisch begründet als spätstudierend gelten kann, so nutzt man die konkret feld- oder auch gegenstandsbezogene Literatur, um einen ersten Eindruck zu gewinnen. Schließlich könnte die theoretische Sensibilität auch aus persönlichen Beobachtungen resultieren. So kennen die Forschenden vielleicht die besondere Funktion von StudienberaterInnen bei der Einmündung in die Hochschule und kommen daher zu der Entscheidung, sich die Erfahrung der Spätstudierenden mit solchen "Gatekeepers" genauer anzusehen. Die theoretische Sensibilität sorgt somit auf vielfältige Weise für einen "anfänglichen Fokus" (STRAUSS & CORBIN 1996, S.152). Dies ist laut STRAUSS und CORBIN deshalb erforderlich, weil die soziale Realität hinsichtlich ihrer beschreib- und vergleichbaren Phänomene schier unerschöpflich ist und sich der Forscher/die Forscherin deshalb auf eine Aufmerksamkeitsrichtung festlegen sollte (vgl. KELLE 1994, S.326). [12]

Nach GLASER wäre der erste Zugang zu unserem Untersuchungsfeld über die zuvor genannten Quellen allzu sehr durch Vorannahmen bestimmt. Allerdings ist anzumerken, dass GLASER zwar explizit eine anfängliche Offenheit betont, es wird ihm aber zu schnell unterstellt, er negiere jegliche Form des theoretischen Vorwissens zu Beginn der Erhebung. So schreibt z.B. KELLE:

"Jedes Hintergrundwissen ist, so GLASER, schädlich für die Anwendung der Methodologie der grounded theory, weil der Forscher damit gehindert würde die Akteursperspektive einzunehmen und die in dem Forschungsfeld tatsächlich vorhandenen Probleme zu erkennen: 'Indeed the analyst should just not know as he approaches the data, so he does not even have to waste time correcting his preconceptions'" (KELLE 1994, S.335). [13]

Sieht man in das Original von GLASER, so stellt man fest, dass die Aussage wie folgt fortgesetzt wird: "These backgrounds of assumptions, experiences and knowledge can at best only imbue our open coding; they do not dictate it" (GLASER 1992, S.50). Von einer absoluten Verneinung der Vorannahmen zu Beginn der Erhebung kann also nicht die Rede sein. Der entscheidende Unterschied, der sich zwischen GLASER und STRAUSS & CORBIN herauskristallisiert, liegt unseres Erachtens in der Frage, welche Literatur wann eingesetzt wird. GLASER plädiert dafür, sich wenn überhaupt zunächst auf die theoretisch-abstrakte Literatur zu beschränken und erst später, wenn eigene Kategorien aus dem Material heraus entwickelt wurden, auf fachspezifische – sprich das direkte Forschungsfeld betreffende – Literatur zurückzugreifen (vgl. GLASER 1992, S.31ff):

"But reading and use of the literature is not forsaken in the beginning of a grounded theory project, just because related literature is reserved until the later stages of a project. It is vital to be reading and studying from the outset of the research, but in unrelated fields" (ebd., S.35; Hervorhebung im Original). [14]

Er nimmt damit eine gegensätzliche Position zu STRAUSS und CORBIN ein, die ausdrücklich der Auffassung sind, dass jegliche Art von Literatur von Beginn an verwendet werden kann (vgl. ebd., S.31ff) und begründet seine Sichtweise damit, dass das Verfahren der GTM explizit vorsieht, Konzepte und Hypothesen zu generieren. In der frühzeitigen Verwendung der fachbezogenen Literatur sieht GLASER die Gefahr, dass ForscherInnen doch wieder hypothetiko-deduktiv verfahren. Insgesamt würde das theoretische Vorwissen bei ihm also eher als Hintergrundwissen fungieren und den ersten Zugang zum Feld weitaus weniger steuern, als dies bei dem Vorgehen nach STRAUSS und CORBIN der Fall sein kann. [15]

Unseres Erachtens ist im Vorfeld bzw. zu Beginn einer Erhebung kaum zu entscheiden, welche Vorgehensweise die "richtigere" ist, da beide Standpunkte durchaus plausibel sind. In unserer Forschungspraxis hat sich bewährt, die Frage der theoretischen Sensibilität flexibel zu handhaben. Dies begründet sich vor allem darin, dass der Einsatz von Literatur oder (berufs-) biographischem Vorwissen zu Beginn der Erhebung nicht eine Entscheidung von "ja" oder "nein", sondern vielmehr eine graduelle Frage ist. Eine völlige Unvoreingenommenheit ist aufgrund der Wahrnehmungsweisen von sozialer Realität praktisch gar nicht möglich. Um soziale Realität überhaupt erfassen zu können, müssen Typologisierungen vorgenommen werden (vgl. SCHÜTZ 1975), mit Hilfe derer neue Situationen erfasst werden können. Ein simples Beispiel hierfür ist, dass wir eine Platte mit vier Beinen nicht bei jeder Begegnung neu erkunden. Vielmehr gleichen wir diese Wahrnehmung mit unseren Vorkenntnissen ab und typologisieren diesen Gegenstand als "Tisch". Jegliche Wahrnehmung von sozialer Realität verläuft also über – zumeist unbewusst ablaufende – Vergleiche mit Bekanntem. Auch wenn Forschende meinen, völlig ohne Vorannahmen ins Feld zu gehen, können sie zumindest ihre Alltagserfahrungen nicht vollkommen ablegen. Gerade wenn diese Tatsache nicht reflektiert wird, besteht die Gefahr, dass dieses Vorwissen unbemerkt den Forschungsprozess und die Ergebnisse beeinflussen. Auch das Wissen über theoretische und empirische Zusammenhänge ist nur schwerlich komplett auszublenden. Übertragen auf die Frage, wie viel Vorwissen für die Erhebung der ersten Daten notwendig ist, bedeutet dies, dass wir stets mit einem gewissen Grad an Vorkenntnissen an den Forschungsgegenstand herantreten. Wie sollte man auch sonst ein spezifisches Forschungsinteresse entwickeln oder eine Entscheidung darüber treffen können, ob die Vorgehensweise der GTM angemessen ist. Vor diesem Hintergrund ist die Entscheidung darüber, wie das Vorwissen genutzt wird, gradueller Natur. Die Frage wie viel und welche Literatur zu Beginn des Forschungsprozesses herangezogen wird kann deshalb legitimer Weise durchaus durch pragmatische Beweggründe beeinflusst sein. Vielleicht verfügen gerade junge ForscherInnen zunächst nur begrenzt über die sogenannten Grand Theories, aus denen Rückschlüsse für das Samplingvorgehen abgeleitet werden können. Vielleicht kann aus der feldspezifischen Literatur keine plausible Begründung für die Auswahl der ersten Fälle abgeleitet werden oder der Forscher/die Forscherin verfügt über keine spezifischen Vorerfahrungen in dem interessierenden Forschungsfeld. Dann sollte man sich zumindest das Minimum an zur Verfügung stehenden Vorkenntnissen bewusst machen und darauf die erste Datenerhebung begründen (siehe auch Anmerkung 7 und 18). Auf der anderen Seite ist es aber auch denkbar, dass sich die Phase der Datenerhebung verzögert, was insbesondere aufgrund des engen Zeitrahmens bei Qualifikationsarbeiten erfordert, dass bereits im Vorfeld der Erhebung Literaturarbeit geleistet wird. Die Entscheidung wann welche Form des Vorwissens in den Forschungsprozess einbezogen wird, hängt also oftmals von unterschiedlichsten Rahmenbedingungen ab. Was wir zeigen wollen ist, dass die Forschenden in vielen Fällen pragmatische Entscheidungen treffen und die beiden vorgeschlagenen Verfahrensweisen kreativ nutzen sollten. Um der Vorgehensweise nach der GTM gerecht zu werden, müssen dabei aber zwei Punkte beachtet werden. Erstens ist es dringend erforderlich, den Stellenwert, den GLASER der Literaturarbeit im Vorfeld der Untersuchung beimisst, zu berücksichtigen. Nutzt man bereits zu Beginn des Forschungsprozesses jegliche Form des Vorwissens ist es wichtig zu beachten, dass es sich um ein Hintergrundwissen handelt. Die Verwendung des Vorwissens darf sich nicht darin äußern, dass konkrete Probleme des Untersuchungsfeldes bestimmt oder sogar Hypothesen über empirische Zusammenhänge formuliert werden. Das Vorwissen ist und bleibt eine Sensibilität für das Feld; es zeichnet sich durch die Entwicklung heuristischer Konzepte, nicht durch fest gefügte Erklärungsmodelle aus. Zweitens ist es für die Nachvollziehbarkeit der Forschung bedeutend, sich dieses Vorwissen – gleich welcher Form – deutlich zu machen.7)

"Die bewusste Explikation des eigenen Vorwissens erlaubt auch eine selbstkritische Korrektur dieser Vorannahmen. Und genau darum geht es: Der Forschungsprozess wird als systematische Modifikation der heuristischen Vorannahmen, somit als Lernprozess verstanden. Der wünschenswerten Klarheit der gewählten Forschungsfrage(n) steht ein methodisches 'Misstrauen' in Bezug auf die Eingangserwägungen gegenüber. Freilich, nur wenn ich weiß, was ich erforschen will, kann ich mich von dem überraschen lassen, woran ich nicht im Traum gedacht hatte. Deshalb steht ein 'sensibilisierendes Konzept' (Blumer) am Anfang des Forschungsprozesses" (ALHEIT 1999, S.10). [16]

Nachdem wir versucht haben, die Rolle der theoretischen Sensibilität für den Beginn der Forschung zu diskutieren, wollen wir nun auf ihre Bedeutung für die konkrete Umsetzung in der ersten Erhebungsphase zu sprechen kommen, die in der Literatur kaum diskutiert wird. [17]

Zunächst ist die Gefahr groß, sich zu Beginn der Erhebung zu viel vorzunehmen. Dies dürfte gerade für ForschungsanfängerInnen zum Problem werden. Der Forschungslogik der GTM folgend machen die fleißigen Studierenden beispielsweise biografisch-narrative Interviews mit den Spätstudierenden, befragen StudienberaterInnen, beobachten ethnografisch die Wirkung der Architektur erster universitärer Anlaufstellen für StudienbeginnerInnen, kommen auf die Idee, die Seminar- und Vorlesungsräume per Fotoanalyse zu analysieren und nehmen schließlich noch eine Dokumentenanalyse von "Meckerkästen" in Fachschaftsräumen vor. Auf diese Weise entsteht schnell ein Berg an auszuwertenden Materialien, der von einem einzelnen Forscher/einer einzelnen Forscherin niemals angemessen ausgewertet werden kann. Es empfiehlt sich also, das heuristische Konzept soweit zu konkretisieren, dass das Forschungsinteresse und damit auch das Forschungsfeld überschaubar bleiben. Im Sinne der Forschungspragmatik sollte man sich unbedingt im Austausch mit dem Betreuer/der Betreuerin oder mit anderen ForscherInnen vor Forschungsbeginn überlegen, wie viel Zeit und wie viel Arbeitskraft im Forschungsprozess zur Verfügung stehen, um das Datenmaterial erheben und bearbeiten zu können (vgl. auch Abschnitt 4), und dann die Fragestellung und das heuristische Konzept dementsprechend anpassen. [18]

Konnte aufgrund der Fragestellung und des heuristischen Konzepts ein bestimmter Gegenstand oder eine bestimmte Personengruppe eingegrenzt werden, so stellt sich im Anschluss die Frage, wie der Feldzugang hergestellt werden kann. Dieser Schritt ist zu Beginn des Forschungsprozesses nicht zu unterschätzen. Je enger der persönliche Kontakt zum Feld ist, desto einfacher ist es, an InterviewpartnerInnen zu kommen.8) Je ferner man dem Feld ist, desto schwieriger wird es und desto mehr Aufwand muss betrieben werden, um etwaige InterviewpartnerInnen davon zu überzeugen, die Forschenden in ihrem Vorhaben zu unterstützen. In einem solchen Fall gewinnt die Ausformulierung von Vorannahmen einen sehr konkreten forschungspraktischen Nutzen. Natürlich möchten die InterviewpartnerInnen wissen, wozu die Erhebung gemacht wird, warum gerade sie angesprochen werden und was mit den Ergebnissen geschieht. Um diese legitimen Fragen beantworten zu können, ist es wichtig, ein plausibles heuristisches Konzept parat zu haben. Völlig ohne Vorannahmen lassen sich eigentlich nur "natürliche Daten" erheben, Daten also, die vorhanden sind (Dokumente, authentische Situationen etc). [19]

Darüber hinaus ist bei der Frage des Feldzugangs zu beachten, dass es bei einigen Fragestellungen aufgrund der "Verschlossenheit" des Feldes nicht immer möglich ist, die Daten zu erheben, die gebraucht würden. STRAUSS und CORBIN (1996) raten in einem solchen Fall, eine Kombination aus einem "gezielten", einem "systematischen" und einem "zufälligen" Sampling durchzuführen (vgl. ebd., S.155ff.): Gezielt samplen meint, eben genau die Daten zu erheben, von denen man weiß, dass sie wichtige Informationen für die Beantwortung der Forschungsfrage enthalten und die es ermöglichen, Vergleiche hinsichtlich der Eigenschaften und Dimensionen relevanter Kategorien anzustellen. Dahingegen bedeutet systematisch zu samplen, dass einer konkreten Strategie gefolgt wird. In der Forschungssituation gestaltet sich diese dann z.B. derart, dass man systematisch von einer bestimmten Person oder einem Ort beginnend zur/m nächsten geht. Besonders zu Beginn des Forschungsprozesses, aber auch begleitend im Sinne einer Offenheit für neue "Entdeckungen" erachten STRAUSS und CORBIN ein zufälliges Sampling als sinnvoll. Sie bezeichnen "die Selektion der Interviewpartner oder Beobachtungsplätze (als) ziemlich wahllos" (ebd., S.156). Gemeint ist hiermit, dass theoretisch relevante Konzepte und Kategorien im Sinne von Auswahlkriterien für das weitere Sampling zumeist erst in der Analyse erster Daten entwickelt werden: "Da wir ja nicht sicher sind, welche Konzepte theoretisch relevant sind, werden wir an diesem Punkt die günstigen Plätze, Personen oder Dokumente zum Nachweis unserer Konzepte noch nicht kennen" (ebd., S.153). Wann sich welche Strategie anbietet, hängt in hohem Maße von dem interessierenden Forschungsfeld ab. Um dies zu verdeutlichen, wollen wir an dieser Stelle unterschiedliche Beispiele aus unseren laufenden Promotionsprojekten vorstellen. [20]

In Vera REINARTZ' Untersuchung zur Bedeutung lebensgeschichtlicher Erfahrungen für den Professionalisierungsprozess von SportlehrerInnen9) sollen anhand von biografisch narrativen Interviews die Lebenswege der PädagogInnen nachgezeichnet und hinsichtlich der Rolle biographischer Erfahrungen für die Entwicklung eines professionellen Selbstverständnisses analysiert werden (vgl. REINARTZ 2004a). Als potentielle InterviewpartnerInnen der Untersuchung mussten in der ersten Erhebungsphase zunächst also alle Sportlehrerinnen und Sportlehrer gelten. Die Forscherin hatte als Sportpädagogin einen relativ guten Zugang zum Untersuchungsfeld. Zu Beginn ihrer Untersuchung führte sie ein Interview mit einer Sportlehrerin, die über vielfältige sportliche Erfahrungen, aber auch über Erfahrungen als Übungsleiterin verfügte, bevor sie das Sportstudium aufnahm10). Auf der Basis dieses gezielten ersten Interviews entwickelte REINARTZ erste Konzepte und Kategorien. So konnte sie gezielt weiter erheben und sich dabei an den ersten Erkenntnissen orientieren. Stellte sich beispielsweise heraus, dass die Dimension der breitensportlichen Ausrichtung11) relevant war für den professionellen Habitualisierungsprozess, so wählte sie für das nächste Interview gezielt einen Lehrer oder eine Lehrerin mit einer leistungssportlichen Vergangenheit. Aufgrund der Nähe zum Feld war also ein gezieltes Sampling möglich und sinnvoll. [21]

Manuela KAISER untersucht in ihrer Doktorarbeit, welche Bedeutung Mentoring-Programme12), die die berufliche Gleichstellung von Männern und Frauen vorantreiben sollen, für die Teilnehmenden selbst haben, um zu analysieren, wie Geschlecht in diesem Gleichstellungskontext konstruiert wird. In diesem Fall besteht weniger Kontakt zu dem Untersuchungsfeld. Da diese Programme an Institutionen gebunden sind, verlief die Anfrage zumeist über eine offizielle Stelle. Wenn hier eine Kooperationsbereitschaft vorlag, musste zusätzlich die Zustimmung der MentorInnen und Mentees eingeholt werden. Die Forscherin fragte deshalb möglichst viele Institutionen an und nahm all diejenigen, die sich an der Untersuchung beteiligen wollten, in ihr Sample auf. So enthält das Sample Mentoring-Programme verschiedener deutscher Wirtschaftsunternehmen und Hochschulen, deren Mentees und MentorInnen sich für eine Befragung zur Verfügung stellten. Die Auswahl der Hochschulen bzw. Unternehmen für die Untersuchung wurde in diesem Fall zwar einerseits aufgrund der theoretischen Sensibilisierung zum Gegenstand getroffen, umgekehrt bestimmte das Angebot an bereitwilligen KooperationspartnerInnen aber zugleich die Relevanz spezifischer heuristischer Konzepte.13) Dies wäre ein Fall des systematischen Sampling, bei dem die Konkretisierung des heuristischen Konzepts zugunsten einer forschungspragmatischen Vorgehensweise in den Hintergrund tritt.14) [22]

Inga TRUSCHKAT geht in ihrem Promotionsprojekt der Frage nach, welchen Einfluss das diskursive Phänomen "Kompetenz" auf die Auswahlentscheidungen in Bewerbungsgesprächen hat.15) Dazu wird zunächst eine diskursanalytische Auswertung16) von Texten über Kompetenz vorgenommen. Datenbasis sind also zunächst alle Publikationen, die sich mit dem Thema Kompetenz auseinandersetzen. Grundlage für eine erste Entscheidung, welche Texte aus der Vielzahl an Publikationen für die Analyse ausgewählt werden sollten, stellte ein heuristisches Konzept dar, bei dem u.a. Unterschiede in der Auseinandersetzung mit dem Thema bei verschiedenen Disziplinen (beispielsweise den Wirtschaftswissenschaften und der Pädagogik) vermutet wurden. Aufgrund der leichten Zugänglichkeit von Material (in diesem Fall handelt es sich um Bibliotheksrecherchen), können gezielt Texte ausgewählt werden, die solche Kontrastierungen zulassen. Die ständige Verfügbarkeit der Texte lässt es außerdem zu, die Daten systematisch zu bearbeiten.17) Darüber hinaus werden aber auch Dokumente in die Untersuchung einbezogen, auf die die Forscherin zufällig während ihrer Bibliotheksrecherche stößt und die sich als potentiell relevante Kontrastfälle herausstellen. Bei diesem Vorgehen werden somit das gezielte, das systematische und das zufällige Sampling miteinander verbunden. [23]

Schließlich stellt sich gerade in den sozial- und geisteswissenschaftlichen Disziplinen häufig das Problem, dass die interessierenden Phänomene in der Regel nicht offenkundig zu entdecken sind, gerade dann, wenn man sich hauptsächlich auf theoretisch-abstrakte Literatur bezieht. Wenn man also für unsere Studie über Spätstudierende anhand der BOURDIEUschen Theorie zu dem Schluss kommt, dass es wichtig ist, Personen mit unterschiedlicher Herkunft und somit unterschiedlichen Habitusformen zu untersuchen, liefern diese Charakteristika keine offensichtlichen Kriterien zur Diskriminierung dieser Studierenden. Als ForscherIn wäre es also trotz der Verfügung über ein heuristisches Konzept und evtl. eines guten Zugangs zum Feld nicht möglich, ein "gezieltes Sampling" (STRAUSS & CORBIN 1996, S.155) durchzuführen. Einfach gesagt: Man kann nicht wissen, wer zu welcher Gruppe Studierender gehört und es ist deshalb schwierig, die "richtigen" Personen zu befragen. Dann bietet es sich auch an, auf ein systematisches und/oder zufälliges Sampling zurückzugreifen. STRAUSS und CORBIN betonen diesbezüglich: "Vielleicht dauert es länger, Prozess und Variation aufzudecken und Dichte zu erreichen, wenn Sie eher nach der Chance gehen (das, was erreichbar ist) als nach Auswahl vorgehen. Aber es ist machbar, und zwar erfolgreich" (vgl. ebd., S.157-158). [24]

Insgesamt bleibt also festzuhalten, dass die Ausformulierung der Fragestellung und des heuristischen Konzepts für die Erhebung der ersten Daten eine wichtige Rolle spielt. Dabei ist aber zu beachten, dass es sich nicht um vorgefertigte Hypothesen handeln darf, sondern um Aufmerksamkeitsrichtungen, um eine Sensibilität für den Forschungsgegenstand, die ein bestimmtes Maß an Offenheit bewahrt. Welche konkrete Rolle die heuristischen Konzepte für die erste Datenerhebung spielen, hängt stark von dem Forschungsinteresse und den Zugangsmöglichkeiten zum Feld ab. Der Verweis auf die jeweilige forschungspragmatische Umsetzbarkeit erleichtert gerade unerfahreneren ForscherInnen nicht unbedingt die Umsetzung des Sampling, bietet auf der anderen Seite aber auch Möglichkeiten, das Verfahren dem eigenen Forschungsprozess anzupassen. Wichtig erscheint uns, dass man bereits zu einem solch frühen Zeitpunkt des Forschungsprozesses den Austausch mit anderen sucht und sich dadurch eine Sicherheit in der Vorgehensweise verschafft.18) Dies ist auch zu späteren Zeitpunkten der Untersuchung, wenn das Sampling weiter vorangetrieben werden soll, immer wieder entscheidend. Im folgenden Abschnitt wollen wir nun auf diese weiteren Samplingschritte eingehen. [25]

3. Auf der Suche nach weiteren Daten: Zirkularität im Forschungsprozess und permanenter Vergleich

GLASER und STRAUSS betonen, dass es bei der weiteren Datenerhebung insbesondere darum gehe, sich bei der Suche nach Vergleichsfällen zunächst von den Ergebnissen der Auswertung der ersten Daten leiten zu lassen.

"Das Basiskriterium, welches die Auswahl von Vergleichsgruppen zur Entdeckung von Theorie bestimmt, ist deren theoretische Relevanz für die Ausarbeitung emergenter Kategorien. Der Forscher wählt so viele Gruppen, wie ihr Vergleich ihm dabei hilft, möglichst viele Eigenschaften von Kategorien zu generieren und diese aufeinander zu beziehen" (GLASER & STRAUSS 1998, S.57). [26]

Daran wird deutlich, dass das Ziel des weiteren Sampling sein muss, die aus den ersten Daten gewonnenen Erkenntnisse zu differenzieren, zu festigen und zu verifizieren.19) Dies geschieht mittels einer Maximierung oder Minimierung der Differenzen zwischen den Vergleichsfällen. Während die Erhebung von Kontrastfällen dazu dient, etwaige neue relevante Kategorien zu entdecken und ihre Ausprägungen auszudifferenzieren, führt die Erhebung von Minimalvergleichen zu einer Konsolidierung des Kategoriensystems (vgl. ebd., S.63). Welche Fälle Maximal- und welche Minimalvergleiche darstellen, sprich welche theoretische Relevanz sie haben, hängt nach diesem Verfahren eng mit dem jeweiligen Forschungsinteresse zusammen. Für unsere Beispieluntersuchung könnte das bedeuten, dass wir anhand eines biographischen Interviews mit einer Spätstudierenden herausarbeiten konnten, dass der Eintritt in die Hochschule einen Bruch mit dem bildungsfernen Herkunftsmilieu zur Folge hatte. Um feststellen zu können, ob es sich hier um eine individuelle Besonderheit handelt oder ob sich darin eine strukturelle Logik abbildet, bietet es sich an, eine weitere Person zu interviewen, die ebenfalls aus einem bildungsfernen Milieu stammt. Neben diesem minimalen Vergleich sollte man auch einen maximalen Vergleich anstreben, was in diesem Fall bedeuten würde, eine Spätstudierende zu interviewen, die aus einem bildungsnäheren Milieu stammt. [27]

Grundlegend für das Vorgehen beim theoretischen Sampling ist demnach die Methode des permanenten Vergleichs. Der Begriff wurde bereits 1965 von Barney G. GLASER in einem Artikel in der Zeitschrift Social Problems eingeführt20) und beschreibt quasi "eine spiralförmige Hin- und Herbewegung zwischen theoretisch angeleiteter Empirie und empirisch gewonnener Theorie" (DAUSIEN 1996, S.93). Die Wechselseitigkeit im Verhältnis zwischen Theorie und Empirie bezieht sich also sowohl auf die Auswertung des erhobenen Datenmaterials (Kodierung) als auch auf die sukzessive Erhebung der Daten, die in einem engen Wechselverhältnis zueinander stehen. Ausgehend von der unterschiedlichen Auffassung von GLASER und STRAUSS, was die Verwendung der Literatur in einem solchen Forschungsprozess betrifft, entwickeln die beiden Autoren auch eine differenzierte Haltung zu den Kodierverfahren und in diesem Zusammenhang auch zu dem weiteren Vorgehen des theoretischen Sampling. Im Folgenden soll deshalb knapp auf die jeweiligen Kodierverfahren eingegangen und das entsprechende Samplingvorgehen dargestellt werden. [28]

GLASER (1978) vertritt die Auffassung, dass bereits im Zuge des offenen Kodierens, also im Rahmen der ersten analytischen Zuwendung zum Datenmaterial, die gegenstandsbezogenen Kodes21) zu Kategorien und einem theoretisch konsistenten Netzwerk zu verdichten sind. Dies geschieht dadurch, dass die einzelnen Interpretationen, die aus dem Material gewonnen werden, direkt miteinander verglichen und in Beziehung gesetzt werden. In einem zweiten Schritt, dem selektiven Kodieren, geht es nach GLASER dann um die Ausarbeitung der Kernkategorie und der theoretischen Beziehungen der anderen Kategorien zu dieser Kernkategorie (vgl. GLASER 1978). Die Entwicklung der Kategorien bei GLASER basiert also von Anfang an auf dem permanenten Vergleich des Datenmaterials miteinander bzw. mit den sukzessive gewonnenen Kodes und Kategorien. Infolgedessen muss das theoretische Sampling zum einen solche Vergleiche ermöglichen und zum anderen die Offenheit besitzen, sich von den entstehenden Kategorien leiten zu lassen. Der Forscher – so GLASER –

"starts with open coding which leads him to sample in all directions which seem relevant and work. Later on when the researcher discovers his core variables – the basic social problem and process – his sampling becomes selective along the lines of his focus on the central issues of his emerging theory" (GLASER 1978, S.46). [29]

GLASER betont hier also explizit, dass sich das weitere Sampling an die sich aus den Daten entwickelnden Erkenntnisse anlehnt. [30]

Im Gegensatz zu GLASER entwickeln STRAUSS und CORBIN in ihrer viel zitierten Veröffentlichung "Grounded Theory. Grundlagen qualitativer Sozialforschung" (1996) einen dreistufigen Kodierprozess, der aus dem offenen, dem axialen und dem selektiven Kodieren besteht, wobei sie mit den jeweiligen Kodierschritten eine je spezielle Samplingstrategie verbinden. Im Rahmen des offenen Kodierens geht es zunächst um das "Aufbrechen" des Datenmaterials. In einem zweiten Schritt werden die so gewonnen Kodes miteinander in Beziehung gesetzt und zu Kategorien zusammengefasst. Das Sampling, das im Rahmen des offenen Kodierens stattfindet, entspricht im Grunde den oben beschriebenen ersten Feldzugängen. Zielsetzung ist hierbei, theoretisch relevante Kategorien und ihre Eigenschaften und Dimensionen aufzudecken und das sensibilisierende theoretische Konzept hinsichtlich seiner empirischen Relevanz zu überprüfen. Das Sampling sollte deshalb gegenüber den Personen, Plätzen, Situationen etc. offen sein, die die größte Wahrscheinlichkeit bieten, relevante Daten über das Phänomen zu gewinnen (vgl. Abschnitt 2). In einem zweiten Analyseschritt, dem axialen Kodieren, geht es dann um das Herstellen der empirischen Beziehungen zwischen den Kategorien, die im Rahmen des offenen Kodierens entwickelt wurden. Gemäß der Zielsetzung, der diesem Kodierschritt eigen ist, geht es bei dem Sampling in diesem Untersuchungsstadium auch um das Sampling von Beziehungen und Variationen. Wichtig ist dabei, so viele Unterschiede wie möglich zu entdecken (vgl. STRAUSS & CORBIN 1996).

"Wenn Sie die Gelegenheit zu wählen haben, wen, was und wann sie sampeln, dann sollten sie deduktiv vorgehen, indem Sie Hypothesen über die Beziehungen und die Unterschiede aufstellen, die auftreten können, wenn sie die Dimensionen der Eigenschaften eines Phänomens variieren" (STRAUSS & CORBIN 1996, S.157). [31]

Diese Aussage von STRAUSS und CORBIN deutet explizit auf die Möglichkeit hin, auf ein deduktives Vorgehen zurückzugreifen. Das bedeutet gerade für weniger geübte ForscherInnen, dass sie ihr Sampling sowohl auf den aus dem empirischen Material gewonnenen Erkenntnissen als auch auf theoretisch "vorgedachten" Hypothesen aufbauen können. So kann beispielsweise angelehnt an Studien über Spätstudierende, die zeigen, dass es unterschiedliche Zugangswege zu der Hochschule gibt, das Sample so fortgeführt werden, dass explizit Studierende, die über den zweiten Bildungsweg und solche, die über den dritten Bildungsweg an die Hochschule gelangt sind, befragt werden. Solche Hypothesen können aber auch direkt aus dem Datenmaterial entwickelt werden. Vielleicht zeigt sich in der ersten Auswertung, dass eine ältere Frau mit Familie eine recht pragmatische Einstellung zu ihrem späten Studium hat. Dann liegt es nahe anzunehmen, dass eine jüngere Person vielleicht viel eher eine Karriereperspektive mit dem Studium verbindet. Wenn die Kontrastierung der Fälle weiter fortgeschritten ist, dann geht die Untersuchung in den letzten Kodierschritt, in das selektive Kodieren, über. Hierbei geht es nach STRAUSS und CORBIN um die Ausarbeitung einer Kernkategorie und somit um die Entwicklung der gegenstandbezogenen Theorie. An diesem Punkt der Untersuchung dient das Sampling dann einer Konkretisierung dieser Kernkategorie und mehr oder weniger einer Verifizierung der Verdichtungen. Die AutorInnen nennen diese Form des Sampling deshalb auch das "diskriminierende Sampling" (ebd., S.158). [32]

Im Gegensatz zu GLASER lassen STRAUSS und CORBIN der ForscherIn demnach die Möglichkeit, auch hinsichtlich ihrer theoretischen Vorannahmen zu samplen. GLASER kritisiert dieses Vorgehen vehement. Angelehnt an die sich stets wiederholenden Einwände gegen das Konzept von STRAUSS und CORBIN kommt er zu dem Schluss, dass

"Strauss looks for his paradigm in the data, and data collection in his method is not guided by the emergent, but by testing his logically deduced hypotheses in service of his paradigm. This is just conventional verificational methodology: logically deduce hypotheses and test them. This method is far cry from grounded theory which goes on what is emerging in the data as the theory is generated, and that is all" (GLASER 1992, S.103). [33]

Weiter heißt es: "The only focus that allows sampling somewhat similar to grounded theory is open coding when the analyst is looking for relevant categories" (ebd., S.103). Dieser Einwand ist sicherlich überzogen. Dennoch regt er dazu an, sich erneut bewusst zu machen, dass die Daten in der GTM und somit auch beim theoretischen Sampling eine zentrale Rolle spielen. Der deutliche Hinweis von STRAUSS und CORBIN, deduktiv vorzugehen, verleitet vielleicht gerade Forscherinnen, die im Umgang mit dem Material nicht so geübt sind, allzu voreilig Konzepte zu übernehmen, die dann auch das Sample in eine zu spezifische Richtung treiben. Ähnlich verhält es sich mit der Ausdifferenzierung der einzelnen Samplingschritte. Die konkrete Zuordnung der Herangehensweisen zu den Kodierabschnitten suggeriert zunächst eine Hilfestellung für unerfahrene ForscherInnen. Aber auch hier sehen wir die Gefahr eines zu schematischen Vorgehens. Obgleich STRAUSS und CORBIN ihr Verfahren durch die Form der anschaulichen Darstellung sicher keineswegs schematisieren wollten, hat der positive Effekt der Nachvollziehbarkeit den Nachteil, dass die einzelnen Schritte zu hermetisch abgearbeitet werden könnten. GLASER geht sogar so weit, dass er unterstellt, dass sich diese Samplingschritte ganz von selbst im Prozess ergeben und somit keine methodologische Hilfe bieten würden (vgl. ebd., S.102). Auch diese Aussage können wir in ihrer Vehemenz nicht unterstützen. Aus eigener Erfahrung hat sich gezeigt, dass die Orientierung an STRAUSS und CORBIN sehr hilfreich ist. Dennoch möchten wir darauf hinweisen, dass für das Gelingen eines Sampling und damit verbunden der gesamten Forschung nach der GTM die nötige Offenheit nicht abhanden kommen darf. [34]

Im Hinblick auf die konkrete Forschungspraxis stellen sich dem Forscher/der Forscherin aber auch an diesem Punkt Fragen, die durch die Literatur nur bedingt beantwortet werden können. Auch bezüglich des weiteren Samplingvorgehens stehen Entscheidungen an, die von dem je spezifischen Forschungsprojekt abhängen und fallspezifisch getroffen werden müssen. Eine der wichtigsten Fragen an diesem Punkt der Forschung ist, wie die Zirkularität von Datenerhebung und Datenauswertung gewährleistet und organisiert werden kann. In der Forschungspraxis hängt dieses Problem oftmals mit zwei Faktoren zusammen. Zum einen ist es entscheidend, wie die Kontakte zum Untersuchungsfeld aussehen, zum anderen muss man die zur Verfügung stehende Zeit im Auge behalten, was gerade für Qualifikationsarbeiten immens wichtig ist. Zur Illustration der unterschiedlichen Rahmenbedingungen und zu deren Auswirkungen auf die Umsetzung der Forschung wollen wir auf die bereits vorgestellten Promotionsprojekte zurückkommen. [35]

Erinnern wir uns zunächst an das Projekt, bei dem Literatur zum Thema Kompetenz diskursanalytisch ausgewertet wird. Da das Datenmaterial in diesem Fall jederzeit verfügbar ist, kann die Forscherin die Zirkularität der Datenerhebung und Datenauswertung so umsetzen, wie es von GLASER und/oder STRAUSS & CORBIN vorgeschlagen wird. Nachdem sie erste Dokumente analysiert hat, kann sie in die Bibliothek gehen und sich nach Dokumenten umsehen, die Maximal- bzw. Minimalvergleiche zulassen. Diese Freiheit im Zugang zum Datenmaterial ermöglicht es ihr auch, ihre Zeit gut einteilen zu können. [36]

In dem zweiten Promotionsprojekt, bei dem SportlehrerInnen interviewt werden, um aus den biografischen Erzählungen Erkenntnisse über die Bedeutung lebensgeschichtlicher Erfahrungen für die Entwicklung eines professionellen Selbstverständnisses zu gewinnen, gestaltet sich der Zugang zum Feld in einer anderen Weise. Wie wir gezeigt haben, hat die Forscherin in diesem Fall ebenfalls einen guten Zugang zum Feld. Auch sie kann zunächst ein Interview führen und nach der ersten Auswertung wieder ins Feld zurückgehen für ein zweites Interview. Dem Anspruch auf Zirkularität kann also auch sie durchaus nachkommen. Dennoch ist ihr Feldzugang nicht so unbegrenzt wie es im ersten Beispiel der Fall ist. Sie ist davon abhängig, die Bereitschaft zu einem Interview einzuholen und Termine mit ihren InterviewpartnerInnen zu vereinbaren. Vorab muss sie die anhand der entwickelten Kategorien potenziell relevante Fälle definieren und diese dann auch im Forschungsfeld ausfindig machen. Dies sind Faktoren, die in der konkreten Forschungspraxis Zeit kosten und deshalb unbedingt bei der zeitlichen Planung mit bedacht werden müssen. Sinnvoll kann hier die Beschränkung auf eine geringe Zahl von Fällen sein, die aber mit Bedacht auf Grundlage der Datenanalysen sukzessive ausgewählt werden. [37]

Hinsichtlich unseres letzten Beispiels, bei dem die Konstruktion von Geschlechterverhältnissen durch Teilnehmende eines Gleichstellungsprogramms rekonstruiert wird, ist der Feldzugang so schwer herzustellen, dass die Zirkularität von Datenerhebung und Datenauswertung nur sehr bedingt umgesetzt werden kann. Die Tatsache, dass die Bereitschaft in diesem Fall sowohl von den institutionell Verantwortlichen als auch von den jeweiligen Beteiligten eingeholt werden muss, gestaltet den Feldzugang extrem zeitaufwändig und arbeitsintensiv. Es ist also kaum möglich, zunächst einen Kontakt herzustellen und erst nach dessen Auswertung wieder ins Feld zu gehen. Realistischer Weise werden in diesem Fall die Interviews in relativ enger zeitlicher Folge geführt. Das heißt zwar keineswegs, dass nicht direkt nach dem ersten Interview mit der Auswertung begonnen wird, aber es bedeutet doch, dass die Mehrzahl der Interviews zu Beginn des Forschungsprozesses geführt werden, da es forschungs- und zeitökonomisch anders gar nicht umzusetzen ist. [38]

Es zeigt sich also, dass Datenerhebung – angelehnt an die GTM – sehr unterschiedlich verlaufen kann. Da aber die Zirkularität von Datenerhebung und Datenauswertung eines der Herzstücke der Vorgehensweise bei der Entwicklung einer GT darstellt, stellt sich die Frage, inwieweit es legitim ist, in der Forschungspraxis davon abzuweichen. Zunächst sollte man bedenken, dass GLASER und/oder STRAUSS & CORBIN, wenn sie das Vorgehen nach der Methode des permanenten Vergleichs beschreiben, einen Idealfall der Forschung nach der GTM im Kopf haben. Sind die Rahmenbedingungen so wie in unseren ersten beiden Beispielen, dann sollte man sich auch durchaus an die von GLASER und/oder STRAUSS & CORBIN dargelegte Vorgehensweise halten. Gestaltet sich der Feldzugang wie in unserem letzten Beispiel schwieriger, ist ein Abweichen von diesem Vorgehen – soweit es für die praktische Umsetzung notwendig ist – legitim, wenn die Spezifik des Forschungsgegenstandes bei der Analyse der empirischen Daten und bei der Entwicklung der GT im Forschungsprozess berücksichtigt wird. Dazu sind aber zwei Dinge dringend notwendig. Zum einen ist es äußerst wichtig, sich über die divergente Vorgehensweise während des Forschungsprozesses im Klaren zu sein. Nur wenn man das Samplingverfahren reflektiert, kann man es sachlich begründen und auf seinen möglichen Einfluss auf das Gesamtergebnis der eigenen Forschung beziehen. Zum anderen ist es erforderlich, sich trotzt aller Schwierigkeiten beim Feldzugang klar zu machen, dass auch in einem solchen Fall "die Datenerhebung kein abgeschlossener Vorgang zu Beginn des Forschungsprozesses sein kann, sondern ein sukzessives Prozedere mit deutlichem Schwerpunkt im ersten Stadium der Forschungen, jedoch mit möglichen Ergänzungen und Datennacherhebungen selbst während des Auswertungsprozesses" (ALHEIT 1999, S.14). [39]

Schließlich stellt sich die Frage, wann die Datenerhebung nach der GTM abgeschlossen werden kann und eben keine (weitere) Datennacherhebung durchgeführt werden muss. Deshalb wollen wir in dem letzten Abschnitt auf die "theoretische Sättigung" zu sprechen kommen. [40]

4. Wie kommt man zum Ende? Wege zur theoretischen Sättigung

Die zirkuläre Abfolge von Datenerhebung und Datenauswertung verleiht dem Forschungsprozess die Offenheit, die nötig ist, um eine gegenstandsbezogene Theorie aus der Empirie heraus zu entwickeln. Eine solche Theorie ist dann erreicht, wenn alle Kategorien und alle Beziehungen zwischen den Kategorien gut ausgearbeitet und validiert sind. GLASER und STRAUSS – und hier sind sie sich überwiegend einig – sprechen in einem solchen Fall von der theoretischen Sättigung. "Sättigung heißt, daß keine zusätzlichen Daten mehr gefunden werden können, mit deren Hilfe der Soziologe weitere Eigenschaften der Kategorie entwickeln kann. Sobald er sieht, dass die Beispiele sich wiederholen, wird er davon ausgehen können, daß eine Kategorie gesättigt ist" (GLASER & STRAUSS 1998, S.69). Somit ist die theoretische Sättigung auch das bedeutsamste Kriterium dafür, wie lange die Datenerhebung fortgesetzt werden muss. [41]

Beim theoretischen Sampling ist es wichtig zu bedenken, dass es im Gegensatz zum statistischen Sampling flexibel zu handhaben ist. Die Frage, wann die theoretische Sättigung erreicht ist, liegt im Ermessen der Forschenden und verlangt von ihnen theoretische Sensibilität und Erfahrung (vgl. ebd., S.72). Gerade bei ungeübten ForscherInnen besteht deshalb oftmals die Gefahr, dass viel zu viele Daten erhoben werden. Nehmen wir als Beispiel unsere Untersuchung über Spätstudierende. Wenn wir nun festgestellt haben, dass die ältere Frau tatsächlich eher eine persönliche Bildungsaspiration mit dem Studium verbindet, während der junge Mann eher Karriereschritte verwirklicht, wer sagt uns, dass wir in dem dritten, vierten, fünften Interview nicht die Konstellation haben, dass ein anderer junger Mann eine deutliche Bildungsaspiration an den Tag legt oder eine andere Frau klare Karriereambitionen verfolgt? Vielleicht zeigt sich ja dann im sechsten Interview eine völlig neue Konstellation der Beziehungen, nämlich dass die soziale Herkunft einen viel stärkeren Einfluss auf die Studienperspektive hat als wir bisher gedacht haben. Und woher wissen wir, was uns im siebten Interview erwartet? Die Tendenz geht also dahin, dass wir weiter und weiter Daten erheben aus Sorge, etwas Entscheidendes zu übersehen. Davor kann man nicht oft genug warnen, denn dann besteht die Gefahr, dass die Forschenden in den Daten "untergehen" und eher konfuse Ergebnisse als verdichtete Annahmen folgen. [42]

Um unnötige Datenmassen zu vermeiden, ist es wichtig, Vertrauen in die Daten bzw. in die emergierende Theorie zu haben. Es hat sich in unseren Forschungen immer gezeigt, dass sich soziale Phänomene viel eher wiederholen als wir im Vorfeld annahmen. Um dies zu erkennen ist es allerdings wichtig, die Daten wirklich "aufzubrechen" und die dahinter stehende Logik zu begreifen. Dadurch werden vordergründig unterschiedliche Ausprägungen minimiert und auf ein gemeinsames Prinzip hin durchleuchtet. Bei unseren Spätstudierenden zeigt sich im Zuge des permanenten systematischen Vergleichens und Kontrastierens der Fälle vielleicht tatsächlich, dass die soziale Herkunft eine entscheidende Schlüsselkategorie für die Einstellung zum und die Bewältigung des Studiums ist, hinter der Alter und Geschlecht als Kategorien zurücktreten. Hierauf weisen auch GLASER und STRAUSS hin:

"Offenkundig sind nicht alle Kategorien gleich relevant, und deshalb braucht die Tiefe des Sampling nicht für alle dieselbe zu sein. Theoretische Schlüsselkategorien, die erklärungskräftigsten also, sollten natürlich so vollständig wie möglich gesättigt werden. Umgekehrt sollte die Untersuchung weniger relevanter Kategorien nicht auf Kosten der Sättigung der Schlüsselkategorien durchgeführt werden" (ebd., S.77). [43]

Haben wir solche Schlüsselkategorien in unseren Daten finden und plausibel aufzeigen können, wiederholt sich das Phänomen recht schnell. Bei der GTM hängt die Qualität der Untersuchung dann eben davon ab, diese Kategorien zu entdecken und nicht davon, das theoretische Sampling immer weiter zu treiben und die GT wieder und wieder durch neue Fälle zu belegen.

"Da exakte Belege für die Generierung von Theorie nicht so entscheidend sind, kommt es auch nicht unbedingt auf die Art der Belege oder die Anzahl der Fälle an. Ein einziger Fall kann eine allgemeine konzeptuelle Kategorie oder eine allgemeine konzeptuelle Eigenschaft anzeigen; ein paar Beispiele mehr mögen die Indizien bestätigen" (GLASER & STRAUSS 1998, S.39). [44]

Das Auffinden von Schlüsselkategorien ist also auch für das Sampling ein entscheidender Schritt und ist sicher einer der anspruchvollsten Aufgaben der Theoriegenerierung.

"Wenn allerdings der Forschungsprozess sorgfältig vorbereitet wird, wenn ein 'kontextaufklärendes' sensibilisierendes Konzept den Umgang mit den Daten anleitet, dann kann die Theoriegenerierung auch als aufmerksamer 'Dialog' jenes Anfangskonzepts mit den Daten beschrieben werden, in dessen Verlauf sich das Konzept mit neuen Informationen anreichert, in der Regel auch deutlich verändert, aber doch sukzessive zu einer gegenstandsbezogenen Theorie 'reift'. Es geht also nicht um einen 'genialen Geistesblitz' sozusagen ad hoc, sondern um [einen] 'spiralförmigen' Lern- und Prüfungsprozess" (ALHEIT 1999, S.17). [45]

Es ist also wichtig zu beachten, dass es sich bei der Entdeckung der Schlüsselkategorien um einen Prozess handelt, der von sensibilisierenden Konzepten geleitet wird. Die oben dargestellte Schlüsselkategorie "Soziale Herkunft"22) ergibt sich also nicht per se aus dem Datenmaterial, sondern resultiert aus einer spezifischen Aufmerksamkeitsrichtung. Soziale Realität ist äußerst vielschichtig. So kann in einem anderen Fall die Kategorie Geschlecht den Hauptfokus darstellen und somit das Sampling in eine andere Richtung leiten. [46]

Dennoch bleibt die Frage offen, wann eine Schlüsselkategorie gesättigt ist und das Sampling legitim abgeschlossen werden kann. Dies hat etwas mit der Reichweite der Ergebnisse zu tun. GLASER und STRAUSS weisen explizit auf den Unterschied zwischen materialer und formaler Theorie hin. Beide Theorietypen unterscheiden sich hinsichtlich ihrer Generalität. Während die materiale Theorie Aussagen über ein spezifisches empirisches Feld zulässt, werden in formalen Theorien übergeordnete und konzeptionelle Zusammenhänge entwickelt. Formale Theorien bedürfen aufgrund ihrer Feldunabhängigkeit Daten aus verschiedenen empirischen Feldern (vgl. GLASER & STRAUSS 1998, S.42ff). Hinsichtlich der zeitlichen Rahmung von Qualifikationsarbeiten und der Tatsache, dass man in der Regel alleine forscht, liegt es nahe, materiale Theorien über einen spezifischen Feldausschnitt zu generieren. Durch diesen Anspruch lässt sich das Sample oftmals bereits erheblich eingrenzen. Wichtig ist es überdies, die Fragestellung, die der Untersuchung zugrunde liegt, nach und nach stärker einzuschränken (siehe auch Abschnitt 2). Während zu Beginn der Untersuchung der Spätstudierenden ganz allgemein die Bildungsverläufe interessierten, so entwickelt sich vielleicht im Laufe der Datenerhebung und Datenauswertung eine konkretere Fragestellung, nämlich in welcher Weise die soziale Herkunft eine Rolle für den Bildungsverlauf spielt. Man kann diese Frage auch noch weiter eingrenzen. Erkennt man beispielsweise, dass es für Studierende mit einem bildungsfernen Hintergrund an Universitäten im Gegensatz zu Fachhochschulen besondere Hürden zu überwinden gibt, dann ist es bei entsprechender expliziter Eingrenzung der Fragestellung legitim, die Untersuchung auf diesen Teil der Studierenden zu begrenzen. Es empfiehlt sich für Qualifikationsarbeiten also unbedingt, die Rahmenbedingungen der Untersuchung so zu setzen, dass sie erfüllbar sind. Darüber hinaus ist hinsichtlich des Sampling zu beachten, dass es nicht immer nötig ist, zusätzlich neue Daten zu erheben. Theoretisches Sampling, das Entdecken von Kontrastdimensionen und Minimalvergleichen sowie das Verfahren des permanenten Vergleichens können die Erhebung neuer Daten ebenso erfordern wie den Rückbezug auf bereits erhobene Daten. Ein Interview, das zu Beginn der Forschung ausgewertet wurde, kann im Arbeitsprozess hinsichtlich der sich entwickelnden spezifischeren Forschungsfrage Erkenntnisse beinhalten, die so zuvor nicht wahrgenommen wurden. Es geht also beim theoretischen Sampling nicht unbedingt darum, die Datenbasis zu erhöhen, sondern es können auch aus der bestehenden Datenbasis heraus Vergleiche hergestellt werden. "Wir entdecken systematisch auch am Material Kontraste und Ähnlichkeiten. D.h. wir fahren fort, theoretisch zu 'samplen'. Nur sind es jetzt nicht mehr Fälle oder Situationen, die wir aufeinander beziehen, sondern das erhobene Datenmaterial selbst" (ALHEIT 1999, S.16). [47]

5. Fazit

Abschließend wollen wir festhalten, dass sich in unserer Erfahrung immer wieder bestätigt hat, dass weniger oftmals mehr ist und man selbst weitaus zufriedener mit einer guten Bearbeitung kleinerer Ausschnitte der sozialen Wirklichkeit ist als mit einer diffusen Sammlung von Aussagen zu ganz verschiedenen Gegenstandsbereichen. Von NachwuchswissenschaftlerInnen wird in der Regel nicht erwartet, dass am Ende einer Qualifikationsarbeit eine völlig neuartige Theorie entwickelt wurde. Was aber erwartet wird ist, dass eine gegenstandsbezogene Theorie entworfen wird, die neue theoretische Einblicke eröffnet, und dass Einsichten in den Prozess der Theoriegenerierung gewährt sowie Ideen für weiterführende Aufmerksamkeitsrichtungen entwickelt werden. All dies muss allerdings methodisch fundiert und anhand einer angemessenen Datenbasis entwickelt worden sein. Was die Kriterien für eine solche angemessene Datenbasis sein können, haben wir hier versucht zu diskutieren. Letztlich stellt das theoretische Sampling ein Strategie dar, die zwar unerfahrene ForscherInnen einerseits immer wieder vor Probleme der Umsetzbarkeit stellt, sich andererseits aber als kreative Methode auch in Qualifikationsarbeiten bewährt hat. Um sie in einem solchen Rahmen handhaben zu können und nicht in Gefahr zu laufen, ins Uferlose Daten zu erheben, sollten zusammenfassend zwei Dinge berücksichtigt werden. Zum einen ist es angebracht, im Vorfeld mit dem Betreuer und der Betreuerin eine ungefähre Idee zu entwickeln, was in der zur Verfügung stehenden Zeit geleistet werden kann und wie viel Material in etwa bearbeitbar ist. Gerade wenn man im Umgang mit empirischem Material eher unerfahren ist, sollte die Datenmenge überschaubar sein. So haben wir in halbjährigen Abschlussarbeiten beispielsweise drei biographisch narrative Interviews ausgewertet. Im Rahmen von Promotionsprojekten wurden dann je nach Fragestellung bis zu maximal zehn Interviews verarbeitet. Ist das Datenmaterial weniger komplex, wie beispielsweise bei ExpertInneninterviews, so kann man die Anzahl entsprechend anheben. In jedem Fall empfehlen wir, sich im Vorfeld eine ungefähre Richtlinie zu setzen und lieber die Forschungsfrage zu präzisieren und den Gegenstand, der untersucht werden soll, enger zu fassen, als die Datenbasis zu breit zu machen. Dabei gilt natürlich zu beachten, dass man trotz alledem die Offenheit besitzt, die Anzahl der Fälle entsprechend des Forschungsverlaufs anzupassen. Zum anderen hat es sich immer wieder bewährt, den Austausch mit anderen ForscherInnen zu suchen. Durch die Diskussion über die eigene Arbeit und das Vorgehen beim Sampling wird man genötigt, eigene Schritte zu explizieren und zu begründen. Etwaige blinde Flecken werden so rechtzeitig in der Diskussion "entlarvt". Der Austausch verhindert also, dass der Forschungsprozess eine Dynamik gewinnt, die für Außenstehende nicht mehr nachvollziehbar ist. Gleichzeitig gibt die Diskussion Sicherheit in der Vorgehensweise. So kann in Übereinkunft mit anderen ForscherInnen die Kernkategorie kommunikativ validiert und ihre theoretischen Sättigung bestätigt werden, bevor das Sampling abgeschlossen wird. Der Austausch mit anderen im Sinne einer kommunikativen Validierung der Forschungsergebnisse bildet somit eines der zentralen Gütekriterien qualitativer Forschung, dem im Zuge des theoretischen Sampling besondere Bedeutung zukommt (vgl. z.B. FLICK 2002). [48]

Anmerkungen

1) Im deutschen Diskurs zum methodologischen Rahmenkonzept von GLASER und STRAUSS hat sich die Verwendung des Begriffs Grounded Theory sowohl für das Verfahren als auch für das Produkt, nämlich eine gegenstandsbezogene Theorie durchgesetzt. Dies führt zu Verwechslungen hinsichtlich des Bezuges (Methodologie oder Produkt). Darüber hinaus ist dieser Sprachgebrauch spätestens seit Beginn der Kontroverse zwischen GLASER und STRAUSS, die zeitlich ungefähr im Erscheinen von GLASERs Theoretical Sensitivity (1978) zu verorten ist, unangemessen (vgl. STRÜBING 2004, S.63ff.). Wir unterscheiden daher im Folgenden zwischen Grounded Theory als Produkt der Forschung (GT) und dem methodologischen Vorgehen mit dem Ziel eine Grounded Theory zu entwickeln (GTM). Wir beziehen uns dabei entweder auf die grundlegenden Gedanken der gemeinsamen Arbeiten von GLASER und STRAUSS oder stellen differenziert dar, auf welche Verfahrensvariante wir rekurrieren. <zurück>

2) Abduktion meint, von einem neuen überraschenden (empirischen) Phänomen auf eine erklärende Regel zu schließen und unterscheidet sich damit fundamental vom deduktiven und induktiven Schließen (vgl. PEIRCE 1991 nach KELLE & KLUGE 1999, S.22f). KELLE schreibt von einem "Selbstmissverständnis", dem GLASER und STRAUSS unterlagen, als sie ihr Vorgehen als induktivistisch profilierten. Bereits in ihren frühen Arbeiten wiesen GLASER und STRAUSS (1967) auf die Wichtigkeit eines theoretischen Bezugsrahmens hin, der bereits vor dem ersten Kontakt mit dem Untersuchungsfeld existieren und die ForscherInnen im Umgang mit den Daten sensibilisieren soll. Folglich handelt es sich nach KELLE bei der GTM um ein abduktives Forschungsverfahren (KELLE 1992, S.123-158). <zurück>

3) Dieses Vorgehen unterscheidet sich deutlich von (zumeist deduktiven) Arbeiten, die in ihrer anfänglichen (und den Forschungsprozess überdauernden) Fragestellung bereits implizit Behauptungen über Zusammenhänge zwischen empirischen Phänomene enthalten. GTM bedeutet, neues theoretisches Wissen durch eine intensive Auseinandersetzung mit der Empirie zu "entdecken" (ALHEIT 1999, S.2). <zurück>

4) Mit diesem Beispiel wird Bezug genommen auf eine zwischen 1998-2001 laufende, von der EU geförderte europäische Sechs-Länder-Studie mit dem Titel University Adult Access Policies and Practices across the European Union, and their Consequences for the Participation of Non-Traditional-Adult Students, die sich mit den Zugangsmöglichkeiten älterer Studierender in die Hochschulsysteme Europas beschäftigte. Dem Projektteam unter der deutschen Leitung von Prof. Dr. Dr. ALHEIT gehörten neben den Autorinnen Inga TRUSCHKAT und Manuela KAISER noch Arnold OTTEN und Robert KREITZ als wissenschaftliche Mitarbeiter an. Zu Projektergebnissen vgl. ALHEIT und KREITZ 2000, BOURGEOIS und FRENEY 2001. <zurück>

5) Diese aus der Theorieentwicklung resultierende Fallauswahl ist der Grund für die Bezeichnung "Theoretisches Sampling". <zurück>

6) Hinsichtlich der ersten Forschungsphase spielt letzteres eher eine untergeordnete Rolle (siehe dazu Abschnitt 3). <zurück>

7) Die einfachste Form der Bewusstmachung der Vorannahmen ist die Verschriftlichung der zugrunde liegenden heuristischen Konzepte, also der vorläufigen Annahmen über den Forschungsgegenstand. Die Gesamtheit bildet die theoretische Sensibilität des Forschers/der Forscherin. Die Ausformulierung dieser Annahmen gewährleistet nicht nur die Nachvollziehbarkeit der Forschungsschritte, sondern dokumentiert auch die Weiterentwicklung der Vorannahmen. Auch GLASER und STRAUSS & CORBIN weisen auf die Bedeutung der Verschriftlichung hin, indem sie den Forscher/die Forscherin dazu anhalten, den Forschungsprozess durch das Anfertigen von Memos zu begleiten (vgl. STRAUSS 1994). Sehr hilfreich für den Nachvollzug der Forschung ist auch das Anlegen eines Forschungstagebuchs, in dem alle Entwicklungen und Erkenntnisse festgehalten werden können. <zurück>

8) Diese Nähe erleichtert zwar einerseits den Feldzugang, andererseits besteht jedoch die Gefahr der unreflektierten Voreingenommenheit in Bezug auf Vorannahmen zur Forschungsfrage und der Vereinnahmung durch das Feld in besonderem Maße. <zurück>

9) In Anlehnung an TERHART (1999) versteht REINARTZ "pragmatische Professionalität im Lehrerberuf (als) berufsbiographisches Entwicklungsproblem". Dieses (berufs)biographische Entwicklungsproblem wird als ein Problem der Anschlussfähigkeit lebensgeschichtlicher Erfahrungen an die Anforderungen eines beruflichen Feldes rekonstruiert. Das Interesse der hier vorgestellten Arbeit liegt in der Erforschung der Eigenschaften und der Dimensionalisierung dieses Zusammenhanges für das konkrete sportpädagogische Handlungsfeld. <zurück>

10) Diese Interviewpartnerin verfügte also bereits über verschiedenartige lebensgeschichtliche Erfahrungen mit dem "Phänomen Sport", bevor der Professionalisierungsprozess einsetzte. Für Auskünfte zur Forschungsfrage schien sie daher besonders geeignet. <zurück>

11) Im kontrastiven Fallvergleich stellte sich dann heraus, dass vermeintliche Kontrastfälle auf der Ebene der sich entwickelnden Kategorien eine größere Nähe aufwiesen als es zum Zeitpunkt des Interviews angenommen wurde. So entfaltet sich das Sample im Prinzip erst in der tiefer gehenden Analyse im Verlauf des Forschungsprozesses. <zurück>

12) Mentoring bezeichnet die Beziehung zwischen einer (berufs-)erfahrenen, meist älteren Person (Mentor/in) und einer meist jüngeren Person (Mentee), die eine berufliche Karriere anstrebt. Die Mentorin oder der Mentor soll dem/der Mentee in beruflichen Belangen und bei persönlichen Entscheidungen Unterstützung gewähren und helfen, ungeschriebene Regeln einer Organisation zu verstehen. Seit Ende der 1990-er Jahre wird Mentoring in vielen Hochschulen, Organisationen und Unternehmen der Privatwirtschaft als Gleichstellungsinstrument zur Erhöhung des Anteils von Frauen in Führungspositionen und anderen bislang von Männern dominierten Bereichen eingesetzt (vgl. HAASEN 2001). <zurück>

13) So konnten entsprechend theoretischer Vorannahmen verschiedene Typen von Mentoring-Programmen in das Sample aufgenommen werden (Cross-/Internes Mentoring Programm, weibliche/gemischt geschlechtliche MentorInnen). Allerdings sollten Cross-Mentoring-Programme und externe Mentoring-Programme, bei denen die Mentees und die MentorInnen in jeweils verschiedenen Unternehmen/Organisationen tätig sind, ursprünglich aufgrund der erschwerten Analysemöglichkeit der vergeschlechtlichten Organisationskultur, die den Kontext für die MentorInnen/Mentee-Beziehung bildet, nicht im Sample berücksichtigt werden. Durch die Aufnahme eines Cross-Mentoring-Programms in das Sample musste nun doch der Einfluss verschiedener Organisationskulturen auf die Gestaltung der Mentoring-Beziehungen berücksichtigt werden und erforderte insofern eine Anpassung der theoretischen Sensibilität. <zurück>

14) Die eingeschränkte Möglichkeit der gezielten Erhebung weiterer Daten im Forschungsprozess für die Überprüfung und Differenzierung der sich aus dem ersten Sample andeutenden relevanten Kategorien muss natürlich bei der Entwicklung einer GT reflektiert werden. Mit einem Verweis auf die Übersetzung der GTM als eine gegenstandsbezogene Theoriebildung (vgl. STRAUSS & CORBIN 1996, S.IX) bedeutet dies, dass den Forschenden der Untersuchungsgegenstand, über den sie die theoretischen Aussagen treffen werden, (in diesem Fall besonders in seiner Spezifik) bewusst sein und den LeserInnen gegenüber transparent gemacht werden muss. <zurück>

15) Empirische Grundlage des Forschungsprojekts bildet die Triangulation von zwei verschiedenen Datentypen. Neben der diskursanalytischen Auswertung der Textdaten über Kompetenz basiert die zweite empirische Ebene auf aufgezeichneten Bewerbungsgesprächen. Methodisch-theoretischer Hintergrund ist die wissenssoziologische Diskursanalyse nach KELLER 2004. <zurück>

16) Zur Kombination von Diskursanalyse und GTM siehe KELLER 2004. <zurück>

17) Dies kann z.B. so aussehen, dass ausgehend von der Analyse eines wirtschaftswissenschaftlichen Textes über soziale Kompetenz ein pädagogischer Text über das gleiche Thema ausgewählt wird; anschließend wiederum ein pädagogischer Text zum Thema kommunikative Kompetenz usw. <zurück>

18) So stellen wir beispielsweise unsere Promotionsprojekte regelmäßig im DoktorantInnenNetzwerkQualitative Sozialforschung (DINQS), dem wir als Gründungsmitglieder angehören, zur Diskussion. Dieses Netzwerk ist ein selbstgegründeter Diskussionszusammenhang mit dem Ziel, die eigene Arbeit, aber auch alle weiteren Themen rund um Qualifikation und Hochschule gemeinsam zu bearbeiten. Das Netzwerk besteht bereits seit 2001 und zeichnet sich durch Interdisziplinarität und Themenvielfalt mit dem Interesses an qualitativer Sozialforschung als gemeinsamem Bindeglied aus (vgl. http://www.dinqs.de/ und REINARTZ 2004b). <zurück>

19) Das Verhältnis von Thesengenerierung und -verifikation im Rahmen der GTM stellt in späteren Veröffentlichungen einen Gegenstand der Kontroverse zwischen GLASER und STRAUSS dar. Während GLASER die GTM ausschließlich als theoriegenerierende Methode versteht, sieht STRAUSS gerade die wechselseitige Generierung und Verifikation von theoretischen Erkenntnissen als zentrale Aufgabe der GTM. Zur übersichtlichen Darstellung der unterschiedlichen Positionen vgl. KELLE 1994. <zurück>

20) Dieser Artikel ist in dem 1968 erschienenen Buch "Discovery of Grounded Theory" von GLASER und STRAUSS als fünftes Kapitel unverändert abgedruckt. <zurück>

21) Unter Kodes versteht GLASER die Zuordnung von Bezeichnungen zu bestimmten Ereignissen im Datenmaterial (vgl. GLASER 1978). <zurück>

22) Im Gegensatz zu diesen entwickelten Codes und Kategorien gibt es auch so genannte Invivo-Codes. Invivo-Codes sind Codes, die direkt in den Daten gefunden werden, d.h. sie werden von den InterviewpartnerInnen selbst genannt. <zurück>

Literatur

Alheit, Peter (1999). Grounded Theory: Ein alternativer methodologischer Rahmen für qualitative Forschungsprozesse. Göttingen, unveröffentlichtes Manuskript.

Alheit, Peter & Kreitz, Robert (2000). "Social Capital", "Education" and the "Wider Benefits of Learning". Review of "Models" and Qualitative Outcomes . Göttingen: Centre of Education der University of London und das Department for Education and Employment der englischen Regierung (Interner Bericht).

Bourdieu, Pierre (1987). Die feinen Unterschiede. Frankfurt a.M.: Suhrkamp.

Bourgeois, Etienne & Freney, Mariane (2001). University Adult Access Policies and Practices across the European Union, and their Consequences for the Participation of Non-Traditional-Adult Students. Belgien: Université catholique de Louvain (Unveröffentlichter Endbericht).

Dausien, Bettina (1996). Biographie und Geschlecht. Zur biographischen Konstruktion sozialer Wirklichkeit in Frauenlebensgeschichten. Bremen: Donat.

Flick, Uwe (2002): Qualitative Sozialforschung. Eine Einführung. Reinbek: Rowohlt.

Glaser, Barney G. (1965). The Constant Comparative Method of Qualitative Analysis. Social Problems, 12, 436-445.

Glaser, Barney G. (1978). Theoretical Sensivity. Advances in the Methodology of Grounded Theory. Mill Valley: Sociology Press.

Glaser, Barney G. (1992). Emergence vs. Forcing: Basics of Grounded Theoy. Mill Valley: Sociology Press.

Glaser, Barney G. with the assistance of Judith Holton (2004). Remodeling Grounded Theory [80 Absätze]. Forum Qualitative Sozialforschung / Forum Qualitative Social Research [On-line Journal], 5(2), Art 4. Verfügbar über: http://www.qualitative-research.net/fqs-texte/2-04/2-04glaser-e.htm.

Glaser, Barney G. & Strauss, Anselm (1998). Grounded Theory. Strategien qualitativer Forschung. Bern: Huber. (Orig. 1967: The Discovery of Grounded Theory: Strategies for Qualitative Research. New York: de Gruyter)

Haasen, Nele (2001). Mentoring: Persönliche Karriereförderung als Erfolgskonzept. München: Heyne.

Kaiser, Manuela (2004). Bildung und Geschlecht. Eine biographieanalytische Untersuchung der Konstruktion von Geschlecht in Studentinnenbiographien. Göttingen: Göttinger Beiträge zur erziehungswissenschaftlichen Forschung (Band 26).

Kelle, Udo (1992). Empirisch begründete Theoriebildung. Ein Beitrag zur Logik und Methodologie interpretativer Sozialforschung. Bremen: Universität Bremen, Diss.phil.

Kelle, Udo (1994). Empirisch begründete Theoriebildung: Zur Logik und Methodologie interpretativer Sozialforschung. Weinheim: Deutscher Studien Verlag.

Kelle, Udo & Kluge, Susann (1999). Vom Einzelfall zum Typus. Opladen: Leske + Budrich.

Keller, Reiner (2004): Diskursforschung. Eine Einführung für SozialwissenschaftlerInnen. Opladen: Leske + Budrich.

Reinartz, Vera (2004a). Biographische Wissensbestände als Ressource sportpädagogischen Handelns? In Matthias Schierz & Peter Frei (Hrsg.), Sportpädagogisches Wissen. Spezifik, Transfer, Transformation (S.154-163). Hamburg: Czwalina.

Reinartz, Vera (2004b). Professionalisierung in Eigenregie – Chancen selbst organisierten Arbeitens in Netzwerken. Ze-phir: Informationen für den sportwissenschaftlichen Nachwuchs, 2(11), 17-20 (http://www.sportwissenschaftlicher-nachwuchs.de/).

Schütz, Alfred (1975). Strukturen der Lebenswelt. Soziologische Texte. Neuwied: Luchterhand.

Strauss, Anselm & Corbin, Juliet (1996). Grounded Theory: Grundlagen Qualitativer Sozialforschung. Weinheim: Beltz.

Strübing, Jörg (2004): Grounded theory: zur sozialtheoretischen und epistemologischen Fundierung des Verfahrens der empirisch begründeten Theoriebildung. Wiesbaden: Verl. für Sozialwissenschaften.

Terhart, Ewald (1999). "Gute" und "schlechte" Lehrerarbeit: Sichtweisen aus der Erziehungswissenschaft. Journal für Schulentwicklung, 1, 37-45.

Truschkat, Inga (2002). "Meine Eltern sind beide keine Akademiker". Herkunftsbedingungen und habituelle Logiken von Studierenden als Reproduktionsfaktoren sozialer Ungleichheit. Eine biographieanalytische Untersuchung. Göttingen: Göttinger Beiträge zur erziehungswissenschaftlichen Forschung (Band 23).

Zu den Autorinnen

Inga TRUSCHKAT (M.A.) ist Promotionsstipendiatin der Hans-Böckler-Stiftung. In ihrer Doktorarbeit befasst sie sich mit dem empirischen Phänomen der Kompetenz. Im Rahmen ihres wissenssoziologisch-diskursanalytischen Zugangs nimmt sie dabei sowohl eine Analyse der Literatur zum Thema vor als auch eine gesprächsanalytische Auswertung von Bewerbungsgesprächen. Weitere Forschungsschwerpunkte sind Biographie-, Bildungs- und Milieuforschung.

Kontakt:

Inga Truschkat

Seumestraße 5
D-22089 Hamburg

E-Mail: itrusch@gwdg.de

 

Manuela KAISER (M.A.) ist Promotionsstipendiatin der Hans-Böckler-Stiftung. In ihrer Promotion analysiert sie Konstruktionsweisen von Geschlecht im Rahmen eines Gleichstellungsprogramms. Ihre qualitativ-empirische Analyse basiert auf ExpertInneninterviews mit Teilnehmenden von Mentoring-Programmen aus dem Bereich der Wirtschaft und der Hochschule. Andere Forschungsinteressen gelten der Erwachsenenbildung, der Biographie- und der Hochschulforschung.

Kontakt:

Manuela Kaiser

Herzberger Landstr. 35
D-37085 Göttingen

E-Mail: manuela.kaiser@so-wiss.uni-goettingen.de

 

Vera REINARTZ (1. Staatsex. für das LA Sek. I/II, Sport/Franz.) ist wissenschaftliche Mitarbeiterin am Institut für Sportwissenschaft, Arbeitsbereich Sportpädagogik, der Carl von Ossietzky Universität Oldenburg. Neben ihrer Promotion zum Thema "Pädagogische Professionalität von SportlehrerInnen – Ein (berufs) biographisches Entwicklungsproblem?" und dem damit verbundenen Interesse an erziehungswissenschaftlicher Biografieforschung befasst sie sich mit verschiedenen qualitativ-empirischen Zugängen zum Forschungsfeld Schulsport.

Kontakt:

Vera Reinartz

Carl von Ossietzky Universität Oldenburg
Institut für Sportwissenschaft
Postfach 2503
D-26111 Oldenburg

E-Mail: vera.reinartz@uni-oldenburg.de

Zitation

Truschkat, Inga; Kaiser, Manuela & Reinartz, Vera (2005). Forschen nach Rezept? Anregungen zum praktischen Umgang mit der Grounded Theory in Qualifikationsarbeiten [48 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 6(2), Art. 22, http://nbn-resolving.de/urn:nbn:de:0114-fqs0502221.

Revised 6/2008

Forum Qualitative Sozialforschung / Forum: Qualitative Social Research (FQS)

ISSN 1438-5627

Creative Common License

Creative Commons Attribution 4.0 International License