Volume 5, No. 2, Art. 11 – Mai 2004

Rezension:

Nicole Burzan

Christian Seipel & Peter Rieker (2003). Integrative Sozialforschung. Konzepte und Methoden der qualitativen und quantitativen empirischen Forschung. Weinheim/München: Juventa, 280 Seiten, ISBN 3-7799-1710-6, EUR 19,50

Zusammenfassung: Das vorliegende Methodenlehrbuch von Christian SEIPEL und Peter RIEKER behandelt quantitative und qualitative Forschungslogik und Forschungsverfahren. In allen Kapiteln geht es neben der jeweiligen Darstellung auch um den Vergleich zur jeweils anderen Forschungstradition. Dabei können die Autoren große Unterschiede oft relativieren. Das letzte Kapitel konzentriert sich noch deutlicher auf die Möglichkeiten und Probleme der Methodenkombination und -integration. Damit unternimmt das Buch trotz einiger Schwierigkeiten im Detail einen wichtigen Vorstoß, die Methodenoffenheit (zukünftig) Forschender zu stärken.

Keywords: qualitative und quantitative Methoden, Methodenintegration, Methodenvergleich, Triangulation, Lehrbuch zur empirischen Forschung, Methodologie

Inhaltsverzeichnis

1. Das Konzept: Ein neuartiges Lehrbuch zur integrativen Sozialforschung

2. Historische und methodologische Grundlagen

3. Untersuchungsplanung und Messung

4. Datenerhebung und Datenanalyse

5. Methodenintegration

6. Resümee

Anmerkungen

Literatur

Zur Autorin

Zitation

 

1. Das Konzept: Ein neuartiges Lehrbuch zur integrativen Sozialforschung

Das vorliegende Buch von Christian SEIPEL und Peter RIEKER nimmt bereits lange existierende Traditionen der empirischen Forschung auf und hat dennoch einen innovativen Charakter. Bisherige Lehrbücher zu Forschungskonzepten und -methoden richten sich hauptsächlich auf die qualitative oder auf die quantitative Richtung. In diesem Fall werden jedoch beide Forschungstraditionen in einem Band gleichwertig behandelt, und zwar nicht rein additiv, sondern im Hinblick auf Gemeinsamkeiten, Unterschiede und Verknüpfungsmöglichkeiten. Die Autoren beanspruchen damit nicht, bisherige Lehrbücher zu ersetzen – es ist z.B. gar nicht möglich, in einem vergleichenden Überblick bei einzelnen Verfahren genügend in die Tiefe zu gehen –, sondern sie zu ergänzen. Ihre Zielgruppe stellen insbesondere AnfängerInnen in der Methodenausbildung oder solche LeserInnen dar, die sich bislang erst mit einer der beiden Forschungstraditionen auseinandergesetzt haben. Damit hat das Buch zum Ziel, bereits bei AnfängerInnen eine Offenheit für Methodenvielfalt und – wo angemessen – für Methodenkombinationen zu fördern und das bisher vorherrschende "Lager"-Denken aufzuweichen. Die praktizierte Offenheit zeigt sich in diesem Buch bereits darin, dass sich hier Vertreter beider "Lager" zusammengetan haben und somit durch ihr Tun Wege zur Abschwächung einer strikten Abgrenzung beschreiten. [1]

Als deutschsprachiges Lehrbuch gibt es ein solches Unterfangen bislang nicht. Natürlich können die Autoren auf "Mitstreiter" zurückgreifen, neben Einzelbeiträgen kann man hier z.B. einen von SCHREIER und FIELDING (2001) herausgegebenen Themenschwerpunkt in FQS und einen Band zur integrativen Methodeninnovation in der Lebenslaufforschung aus dem Kontext des Bremer Sonderforschungsbereich "Statuspassagen und Risikolagen im Lebensverlauf" (KLUGE & KELLE 2001; siehe auch LAMNEK 2002) nennen.1) Jedoch kann das Buch von SEIPEL und RIEKER, wenn es seinen Anspruch einlöst sowie seine Zielgruppe erreicht, einen wichtigen Anstoß zur Weiterentwicklung der Methodenintegration leisten. [2]

Im Einzelnen befasst sich das Buch sowohl mit historischen und methodologischen Grundlagen als auch mit dem Forschungsprozess im engeren Sinne: Untersuchungsplanung und Messung, Datenerhebung und Datenanalyse sind hier wichtige Bestandteile. Das abschließende Kapitel konzentriert sich auf die Methodenintegration selbst. [3]

2. Historische und methodologische Grundlagen

Das Eingangskapitel gibt einen Überblick zur Geschichte und zum gegenwärtigen Verhältnis der beiden Forschungsstränge, vor allem anhand der einschlägigen Sekundärliteratur. Dabei nennen die Autoren auch prominente Forschungsbeispiele wie etwa die Marienthal-Studie. Es zeigt sich, dass Abgrenzungsbestrebungen und Spezialisierungen keinesfalls neue Phänomene sind (z.B. gab es sie bereits im frühen 19. Jahrhundert zwischen der Tabellen- und der Universitätsstatistik). Aber auch hinsichtlich der Methodenintegration gibt es einen historischen "roten Faden". Heutzutage lassen sich ebenfalls beide Tendenzen ausmachen; es überwiegt jedoch die Spezialisierung bzw. Abgrenzung, wie an mehreren Punkten deutlich wird (z.B. an der Institutionalisierung und an der Ausbildung), oder zumindest das Bewusstsein großer Unterschiede zwischen qualitativer und quantitativer Forschung.2) Auch eine integrative Forschungspraxis stellt derzeit eher (noch?) eine Ausnahme dar. Dieser deskriptive Überblick zur Geschichte ist für die Zielgruppe der Anfänger als Einstimmung gut geeignet, lediglich im Hintergrund könnten weitergehende Fragen auftauchen, z.B. wie es zu frühen "Grabenkämpfen" und zu Spezialisierungstendenzen kam, was denn bis 1950 jenseits der zur Trennung und zur Integration genannten Beispiele als Trend überwog und warum. [4]

Das zweite Kapitel erläutert verschiedene wissenschaftstheoretische Positionen, die den Hintergrund für die unterschiedlichen Forschungsstränge bilden. Neben kurzen Bemerkungen zum Positivismus und zur Kritischen Theorie geht es hier insbesondere um den Kritischen Rationalismus als Rahmen für die quantitative und um die Hermeneutik als Rahmen für die qualitative Forschung. Die Autoren erläutern in beiden Fällen wichtige Elemente, also einerseits z.B. Falsifikation und deduktiv-nomologische bzw. probabilistische Erklärungen, andererseits z.B. das Verstehen von Sinnzusammenhängen mit verschiedenen Varianten des "Verstehens" (unter anderem grenzen sie das Differenzmodell des Vergleichs von Verhaltensweisen mit Idealtypen ab von empathischer Einfühlung und von Kommunikation als Methode des Verstehens). Die Methodologie wird insgesamt gut aufgearbeitet mit klaren Gliederungspunkten, die sowohl der Darstellung der Richtungen als auch dem Vergleich Raum geben. Nur vereinzelt sind die Ausführungen ein wenig kompliziert (z.B. bei den knappen Erläuterungen zum Informationsgehalt von Theorien nach dem Kritischen Rationalismus; S.63) – hier zeigt sich, dass der Text viele Inhalte auf wenig Raum komprimiert vorstellt. [5]

Kann der Leser/die Leserin schon in diesem Abschnitt Gemeinsamkeiten und Unterschiede selbst erschließen, so systematisiert Kapitel 2.2 diese unter den Überschriften des theoretischen Vorwissens sowie des Theorie- und Wahrheitsbegriffs und fasst am Ende des Kapitels wichtige Vergleichspunkte zusammen. Dabei relativieren die Autoren an verschiedenen Stellen die Behauptung eines grundsätzlichen Unterschieds zwischen den Strömungen. Beispielsweise heißt es hinsichtlich des Vorwissens, dass auch viele qualitative Forscher bei aller Offenheit des Vorgehens nicht von einer naiven Vorstellung ausgingen, ohne jegliche Vorannahmen das Forschungsfeld betreten zu können – und damit sei in diesem Punkt (zumindest im Vorfeld der Datenerhebung) nur ein gradueller statt ein kategorialer Unterschied zur quantitativen Forschung mit Ex-ante-Hypothesen zu sehen (S.70). Ähnlich gebe es zum Theorieverständnis "eine (kleine aber inhaltsschwere) Schnittmenge" (S.73), denn in beiden Fällen besteht das Ziel in (über Einzelfälle hinaus) verallgemeinerbaren Theorien, die empirisch prüfbar sein sollen. Unterschiede liegen in der Frage, ob es kontextunabhängige Theorien geben kann (was die qualitative Richtung eher verneint) und ob die Theorieprüfung oder ihre Entwicklung (wie bei der Grounded Theory nach GLASER und STRAUSS) im Vordergrund steht. In Bezug auf den Wahrheitsbegriff stellen SEIPEL und RIEKER weniger den Kritischen Rationalismus und die Hermeneutik als solche gegenüber, sondern bestimmte (allerdings in sich nicht homogene) Facetten, und zwar Realismus und Konstruktivismus. Gibt es eine Realität, der man sich durch Forschung immerhin annähern kann, oder stellt das Erkenntnissubjekt die Welt an sich erst her, so dass sich höchstens verschiedene Konstruktionsleistungen nachvollziehen lassen? Auch hier gibt es zumindest auf einer sehr allgemeinen Ebene Gemeinsamkeiten: Keiner der Ansätze geht von der Möglichkeit einer theoriefreien Erkenntnis aus, und beide sind selbst nicht empirisch überprüfbar, sondern stellen metaphysische Annahmen dar, die der Forschung vorausgehen. Eine kleine Schnittmenge ergibt sich zudem aus der Möglichkeit, zur Bewertung von Theorien sowohl rationale Kriterien (z.B. Prognosefähigkeit) als auch soziale Kriterien (die nicht näher erläutert werden, hier kann es z.B. um die soziale Stellung der jeweiligen "Wirklichkeits-Konstrukteure" gehen) heranzuziehen. [6]

Am Ende des Kapitels erscheinen die Unterschiede beider Richtungen relativ gering, wenn etwa die Darstellung von Extrempositionen (wie des radikalen Relativismus') die gemeinsame Mitte stärkt. Dem Eindruck, auf diese Weise den ja teilweise durchaus existierenden "Graben" zu überspielen, begegnen die Autoren allerdings durch differenzierte Passagen im gesamten Buch (beispielsweise zu den Gütekriterien oder zu den Datenerhebungsinstrumenten, die nicht entweder offen oder standardisiert sein müssen). [7]

3. Untersuchungsplanung und Messung

Das dritte Kapitel vollzieht den Schritt von der Methodologie zu den Verfahren der Forschungspraxis, zunächst die Phasen betreffend, die vor der Datenerhebung liegen und diese vorbereiten. Der erste Abschnitt befasst sich mit verschiedenen Forschungsdesigns, an die die Forscher jeweils qualitativ oder quantitativ herangehen können. Jedoch gibt es Schwerpunktsetzungen, z.B. sind für die Theorieentwicklung insbesondere qualitative Verfahren ausgearbeitet. In diesem Kontext führen die Autoren auch den Ansatz der Grounded Theory näher aus. Im Rahmen der Theorietests geht der Text unter anderem auf das Experiment und auf Ex-post-facto-Designs ein (letztere erfassen erklärende und zu erklärende Faktoren gleichzeitig ohne einen kontrollierten Stimulus bzw. ohne Vorher-Messungen, z.B. in einer Befragung). Die Argumentation setzt hier wiederum qualitative und quantitative Herangehensweisen zueinander in Beziehung. Weitere mögliche Forschungsdesigns stellen die Beschreibung (die insbesondere dann angemessen ist, wenn wenig über soziale Regelmäßigkeiten, Sinnmuster etc. bekannt ist) sowie die Evaluation (die begleitende oder nachträgliche Bewertung vor allem von Reformmaßnahmen) dar. [8]

Im Weiteren gibt das Kapitel einen Überblick über wichtige Auswahlverfahren aus qualitativer und quantitativer Perspektive (Zufallsauswahl, Quotenauswahl, willkürliche Auswahl, selektives und theoretisches Sampling) und wägt dabei Stärken und Schwächen ab. Auch hier müssen sich die – meist alternativ gedachte – statistische und die theoretische Verallgemeinerung nicht als grundsätzlich unvereinbar gegenüberstehen. [9]

Die Ausführungen zum Messen und zur Datengewinnung beginnen mit einem kurzen Beispiel zur quantitativen und qualitativen Messung fremdenfeindlicher Einstellungen, bevor sie das Messen in den einzelnen Forschungstraditionen behandeln. Quantitativ geht es unter anderem um die Zuordnung von Zahlen auf verschiedenen Messniveaus. Dabei gehen auch forschungspraktische Hinweise in die Argumentation ein (z.B. dass eine Tabelle Konstrukte und ihre Operationalisierungen klar einander zuordnen sollte, S.120). Andererseits gibt es hier – wie an einigen weiteren Stellen im Buch – die Andeutung mathematisch-technischer Details, deren knappe Erwähnung ggf. eher verwirrt als klärt (in diesem Kapitel z.B. die Erläuterung von Skalen als homomorphe Abbildungen eines empirischen Relativs, S.118, oder die Charakterisierung von Reliabilität als Quotient von wahrer und beobachteter Varianz, S.126). [10]

Im engeren Sinne "misst" die qualitative Forschung nicht auf diese Weise, in einem weiten Sinne erfolgt auch hier eine Zuordnung von Daten zu Kategorien und damit die Herstellung eines empirischen Relativs. Qualitativ Forschende entwickeln diese Kategorien jedoch erst im Auswertungsprozess. Entsprechend konstatiert die Zusammenfassung auch im Hinblick auf das Messen mehr qualitative und quantitative Gemeinsamkeiten als Trennungen. [11]

Dieser Abschnitt ist nicht unproblematisch, unter anderem ebnet das Eingangsbeispiel – die Autoren merken selbst die verkürzte Darstellung an (S.115) – quantitatives und qualitatives Vorgehen ein wenig ein. Beispielweise könnte man die Ausführungen so verstehen, dass die Forschungsschritte vor der Operationalisierung noch in etwa einheitlich seien, was nicht ohne weiteres angenommen werden kann. Der Operationalisierungsbegriff selbst ist recht weit gefasst (dies gilt ähnlich für das "Messen") und droht damit zu verschwimmen. Die Unterscheidung, dass Forscherinnen qualitative und quantitative Indikatoren lediglich in unterschiedlichen Forschungsphasen (vor bzw. nach der Datenerhebung) Konstrukten zuordnen, kann einerseits dazu beitragen, sachlich nicht begründete Abgrenzungen beider Forschungstraditionen abzubauen. Andererseits besteht jedoch die Gefahr, der qualitativen Forschung eine größere Variablenorientierung zu unterstellen als dies tatsächlich der Fall ist. Allgemeiner formuliert: Es sollte nicht der Eindruck entstehen, quantitative Logik auf die qualitative bruchlos zu übertragen, da es aus qualitativer Sicht z.B. nicht um das Skalenniveau von Einzelmerkmalen geht, sondern um die direktere Erschließung kausaler Zusammenhänge und Prozesse. [12]

Der abschließende Teil dieses Kapitels behält mit Blick auf die Gütekriterien weiterhin das Prinzip bei, zum einen übersichtliche Orientierungen für Anfänger zu geben (welche Gütekriterien es beispielsweise gibt), zum anderen aber auch Bezüge zwischen qualitativer und quantitativer Forschungstradition herzustellen. Die quantitativen Gütekriterien Objektivität, Zuverlässigkeit und Gültigkeit (die Repräsentativität wurde bereits weiter oben thematisiert) sind recht klar bestimmbar; in der qualitativen Forschung reichen unterschiedliche Positionen von der Ablehnung von Gütekriterien über die Übertragbarkeit quantitativer Gütekriterien durch Reformulierung bis zur Ausarbeitung eigener Kriterien wie z.B. theoretische Kohärenz oder empirische Verankerung. Zentral ist zu diesem Punkt in jedem Fall – ob qualitativ oder quantitativ – dass Forscher den Forschungsprozess transparent machen und ihre methodischen "Entscheidungen in den einzelnen Forschungsphasen ... dokumentieren und ... begründen" (S.134). [13]

Der Schritt von methodologischen Vorstellungen in die Forschungspraxis ist weder für den konkret Forschenden noch in einer Darstellung wie der vorliegenden einfach. Es macht einen Unterschied aus, über qualitative und quantitative Methodologie oder über die entsprechende Forschungspraxis zu sprechen – hier trennscharfe Abgrenzungen, aber eben auch Verbindungslinien zu finden, ohne unbeabsichtigt die Ebenen zu wechseln, ist eine komplexe Anforderung, die die Autoren gut lösen, die aber im Detail, z.B. beim Stichwort "Messen", als Anstrengung sichtbar wird. [14]

4. Datenerhebung und Datenanalyse

Entsprechend dem bereits in der Überschrift aufgespannten Rahmen "zwischen Offenheit und Standardisierung" brechen SEIPEL und RIEKER im vierten Kapitel eine streng getrennte Darstellung von qualitativen und quantitativen Verfahren zur Datenerhebung auf. In den Abschnitten zur Befragung, (teilnehmenden und nicht-teilnehmenden) Beobachtung, Gruppendiskussion und – neuere Entwicklungen berücksichtigend – Datenerhebung über das Internet erläutern sie jeweils Verfahren beider Stränge sowie bestimmte Grauzonen (wie etwa im Rahmen der teilstandardisierten Befragung). Die Autoren gelangen zu dem Schluss: "Bei genauerer Betrachtung bezeichnen diese Dimensionen [Offenheit und Standardisierung, N.B.] allerdings eher ein Kontinuum als sich wechselseitig ausschließende, klar voneinander abgrenzbare Alternativen" (S.168). [15]

Das Kapitel beginnt mit einigen Charakteristika der quantitativen und qualitativen Datenerhebung. Zu den einzelnen Verfahren gibt es zentrale Stichworte (z.B. zur standardisierten Befragung Beachtenswertes zum Fragebogen, zum Befragten und ggf. Interviewer sowie zum Computereinsatz). Die zusammenfassende Tabelle liefert einige Kriterien für "sachliche Erwägungen" (S.168), die die Wahl des Erhebungsinstruments bestimmen sollen (z.B. erhebungstechnische Voraussetzungen oder der räumlich-zeitliche Fokus der Erhebung). Es handelt sich hier um einen ersten Überblick, der den Anfängern (bzw. Neulingen in mindestens einer der Forschungstraditionen) das Spektrum aufzeigt, Einordnungen ermöglicht und zu vertiefender Lektüre anregen kann. Eine detaillierte forschungspraktische Anleitung ist dagegen weniger beabsichtigt. Der Hinweis der Autoren, bestehende Lehrbücher nicht zu ersetzen, sondern sinnvoll zu ergänzen, sollten die Leserinnen zumindest in diesen Kapiteln zur Datenerhebung und -analyse so verstehen, dass sie zusätzlich Literatur heranziehen, die ausführlicher die einzelnen Verfahren behandelt. Konkrete Hinweise auf weiterführende Literatur stehen jeweils am Ende der Kapitel. [16]

Der Überblickscharakter erklärt die stellenweise etwas stichwortartig gereihten Aspekte. Ein wenig überraschend ist lediglich, dass die Autoren an einigen Stellen bestimmte Themen recht technisch-detailliert – und dennoch in aller Kürze – ansprechen (z.B. zu Frageformulierungen im standardisierten Interview), wobei der Kontext des Forschungsprozesses (hier die Einsicht, dass die Instrumentenentwicklung die Umsetzung von theoretischen Konstrukten bzw. ihrer Indikatoren in direkt Erfassbares und praktisch Handhabbares leisten muss) möglicherweise etwas unterbelichtet bleibt. Zudem ist es ein wenig verwunderlich, dass sie die Inhaltsanalyse bei der Datenerhebung nicht behandeln mit dem Hinweis, sie wollten sich auf methodische Erhebungen (im Gegensatz zur Nutzung "natürlicher" Daten) beschränken (S.136). Natürlich lässt sich eine zu große Pauschalität der Darstellung nur durch die begründete Auswahl von Aspekten verhindern. Die Inhaltsanalyse könnte jedoch relevant sein – hier unter der Fragestellung, wie die Forschenden "Quellen" in "Daten" umwandeln (z.B. anhand eines Kategoriensystems) –, um auch für den Zusammenhang der Datenanalyse Anknüpfungspunkte zu schaffen. Dort stellen die Autoren entsprechend nur die qualitative Inhaltsanalyse vor und nehmen sich so die Möglichkeit, hier Vergleiche zu ziehen und auch auf Mischungsverhältnisse quantitativen und qualitativen Vorgehens aufmerksam zu machen. [17]

In Bezug auf die Datenanalyse scheinen die beiden Forschungsstränge so unterschiedlich zu sein, dass es unumgänglich ist, die Auswertungsverfahren im fünften Kapitel in getrennten Abschnitten zu behandeln. Die analoge Formulierung zum vorigen Kapitel "Zwischen Tiefgründigkeit und Generalisierung" deutet trotz der groben Zuordnungsmöglichkeit deshalb eher auf Schwerpunktsetzungen (so auch S.211) als auf gegensätzliche Pole hin. Generalisierung muss man beispielsweise nicht per se mit mangelnder Tiefe erkaufen und umgekehrt. [18]

Die quantitative Datenanalyse weist auf einige allgemeine Charakteristika (z.B. die Variablenorientierung) hin sowie auf bestimmte Schritte, die der Datenanalyse im engeren Sinne vorangehen (Dateneingabe, -kontrolle, -aufbereitung und die Überprüfung der Gütekriterien). Im Weiteren sind die Ausführungen nach der Anzahl gleichzeitig betrachteter Merkmale in univariate, bivariate und multivariate Analysen unterteilt. Der Abschnitt spricht zentrale Elemente an, z.B. Tabellen, Maßzahlen, Tests und weitere Verfahren, wobei das Messniveau Berücksichtigung findet und ausgewählte Fehlerquellen genannt werden (z.B. muss der Forscher abwägen, in welchen Fällen er streng genommen ordinale Variablen als metrisch interpretieren kann). Ähnlich wie bei der Datenerhebung soll der Text auch hier jeweils nur schlaglichtartige Einblicke, insbesondere in die Logik des Vorgehens, gewähren und damit Einordnungsmöglichkeiten schaffen. Er erfüllt diesen Anspruch klar, wiederum könnte man sich lediglich im Detail fragen, ob es in einem ersten Überblick zentral ist, in angedeuteter Form etwas über Kovarianzmatrizen, Maximum-Likelihood-Methode, Beta-Fehler und Konfidenzintervalle zu erfahren. [19]

Ein breites Spektrum der qualitativen Datenanalyse lässt sich in kategorisierende und sequentielle Verfahren unterteilen. Nach der Skizzierung einiger übergreifender Aspekte, z.B. zur Transkription, stellen die Autoren einzelne Analysearten vor, und zwar unter kategorisierenden Analysen die qualitative Inhaltsanalyse in mehreren Varianten sowie die Typenbildung, worunter sich wiederum eine Bandbreite verschiedener Verfahren subsumieren lässt. Sequentielle Analysen – auch hier mit der Kennzeichnung von Verfahrensschritten – nehmen die Objektive Hermeneutik (die latente Sinnstrukturen aufdecken will) und Narrationsanalysen (vor allem nach SCHÜTZE) vor. Bei beiden Konzeptionen besteht die "Chance sehr gründlicher Analysen" (S.204). Schließlich charakterisiert der Abschnitt die Konversationsanalyse als weiteres sequentielles Verfahren, bei der es um formale Strukturmerkmale von Alltagssituationen geht. [20]

Bei einigen der Verfahren bleibt etwas vage, worauf die Analyse hinausläuft. Dient z.B. die Inhaltsanalyse eher nur als Vorarbeit für weitere Analysen? Bei der Objektiven Hermeneutik gibt es zwar die Strukturhypothese als Ergebnis, besonders hier könnte jedoch ein Beispiel zur Verdeutlichung sinnvoll sein. Zudem durchbrechen die Autoren die grundsätzlich überzeugende Einteilung in kategorisierende und sequentielle Verfahren, wenn es beispielsweise zur – unter der Kategorisierung eingeordneten – Typenbildung heißt, dass man sie mit (sequentiellen) narrationsanalytischen Verfahren kombinieren könne (S.195). Dem Leser / der Leserin könnte dann unklar sein, wann es um Verfahren und wann es um mögliche "Endprodukte" oder zumindest Zwischenergebnisse der Analysen (wie z.B. Typen) geht. Diskutieren könnte man schließlich, ob die als Forschungsdesign ausgeführte und hier nur erwähnte "Grounded Theory" in diesem Kapitel nicht einen systematischeren Platz erhalten sollte. Insgesamt gilt jedoch auch für diesen Abschnitt, dass er dem Anspruch, einen Überblick zu geben, auf jeden Fall gerecht wird. [21]

Die Zusammenfassung greift nach diesen Verfahrenskennzeichnungen wieder stärker auf methodologische Aspekte zurück. Sie weist vor dem Hintergrund der vorhergehenden "praktischeren" Kapitel nochmals auf Gemeinsamkeiten beider Forschungstraditionen hin und entkräftet einige Vorurteile gegen sie. Beispielsweise ist die quantitative Analyse keine "Fliegenbeinzählerei", die qualitative Analyse keine reine Illustration (S.210f.). Ähnlich wie im Kapitel zur Methodologie ist jedoch Vorsicht angebracht, um Gemeinsamkeiten nicht allein künstlich (z.B. durch zugespitzte Vorurteile) über zu betonen. [22]

5. Methodenintegration

Das Kapitel 6 "Integration quantitativer und qualitativer Forschung" ist das eigentlich "spannende", da es die bisherigen Bezüge der Forschungsstränge aufeinander noch systematischer verfolgt. Zunächst geht es um einige Grundlagen der Methodenkombination, die das Erkenntnisinteresse, den Forschungsablauf und die Forschungsmethoden betreffen. Gemeinsamkeiten, aber auch Unterschiede thematisiert der Abschnitt nochmals anhand der nur vermeintlichen Gegensatzpaare Erklären und Verstehen (das sich möglicherweise durch ESSERs – knapp gestreiftes – Modell der soziologischen Erklärung verknüpfen lässt), linear vs. zirkulär sowie offen vs. standardisiert. Voraussetzungen für eine Kombination sind sorgfältig zu prüfen anstatt leichtfertig zu mixen, andererseits sehen die Autoren keinen Anlass für eine prinzipielle "Entweder-Oder-Haltung" (S.224). Die weiteren Abschnitte des Kapitels wenden sich konkreteren Aspekten zu, zunächst möglichen Zielen der Methodenkombination, und zwar Triangulation, Optimierung des Samplings, Schaffen von Zugängen und Aufklärung von Diskrepanzen. Das am weitesten gehende Ziel der Triangulation wird oft im Sinne der Betrachtung eines Gegenstandes anhand zwei unterschiedlicher Methoden verstanden. Den Anspruch der wechselseitigen Validierung relativieren Forschende aber zumeist auf eine Ergänzung, unter anderem, weil eine direkte Vergleichbarkeit von Ergebnissen nicht gegeben ist. Beim Sampling kann sowohl eine qualitative Auswahl von einer vorhergehenden quantitativen Untersuchungsgruppe profitieren (z.B. durch eine Nachbefragung bestimmter Fälle) als auch umgekehrt (wenn z.B. qualitative Typen Auswahlkriterien für eine quantitative Teilstudie liefern oder auch, wenn qualitative Erhebungen überhaupt Zugänge zu Befragten schaffen). Qualitative Analysen können ferner die Weiterentwicklung quantitativer Instrumente unterstützen (indem sie z.B. Inkonsistenzen bei der Beantwortung standardisierter Fragebögen auf den Grund gehen). Beispiele und Konkretisierungen in diesem Abschnitt belegen, dass eine unbekümmerte Herangehensweise an eine Integration qualitativen und quantitativen Vorgehens nicht möglich ist, da verschiedene Anforderungen zu bewältigen sind (z.B. wie lassen sich quantitativ Befragte für eine qualitative Nachbefragung gewinnen?). [23]

Im Folgenden systematisieren die Autoren die schon angedeuteten Varianten der Methodenkombination, sie können innerhalb eines Zeitraums nebeneinander oder aufeinander bezogen erfolgen sowie nacheinander in unterschiedlicher Abfolge (zuerst qualitativ oder zuerst quantitativ). Diese Unterteilung deutet bereits an, dass die eigentliche Integration, der Bezug der Daten und Ergebnisse aufeinander, unterschiedlich stark ausfallen kann und, sofern man sie anstrebt, nicht unerhebliche Anforderungen an die Forscher stellt. Bei der Ergebnisintegration, dies betont der Text nochmals, muss der Forscher die Vergleichbarkeit der Befunde kontrollieren bzw. herstellen. Bei einer Datenintegration ist eine quantitative Auswertung qualitativer Daten grundsätzlich möglich (umgekehrt nur schwer), doch auch hier ist beispielsweise zu beachten, dass die in der Regel geringen Fallzahlen der qualitativen Forschung eher nicht für eine statistische Verallgemeinerung geeignet sind. Diese beiden Abschnitte zu Varianten der Kombination und zur Integration sprechen wichtige Themen an. Es wäre sicherlich lohnenswert, diese noch genauer zu verfolgen (wobei klar ist, dass hierzu noch keine sehr breite einschlägige Literatur vorliegt), z.B. die Frage nach der Ergebnisintegration. Inwiefern sind beispielsweise die Ergebnisse vergleichbar, und was lässt sich bei widersprüchlichen Ergebnissen tun? Andeutungen hierzu gibt es bei den – hier auch herangezogenen – Autoren KELLE und ERZBERGER, die ihre Erklärung, dass Widersprüche entweder auf methodische Fehler oder fragwürdige theoretische Konzepte hinweisen, durchaus produktiv wenden. Eine Lösung könnte zumindest in einigen Fällen darin bestehen, (nach dem Ausschluss methodischer Fehler) die Ergebnisse theoretisch neu so zu interpretieren, dass sie doch kompatibel sind (KELLE & ERZBERGER 2001, S.118). Damit eröffnen Widersprüche geradezu die Möglichkeit (wenngleich nicht die Garantie), unter bestimmten Voraussetzungen (a.a.O., S.124) auf ein höheres theoretisches Niveau zu gelangen. Ein weiteres Beispiel für die Weiterverfolgung im Buch angesprochener Aspekte betrifft die Datenintegration: Kann die quantitative Analyse qualitativer Daten über die ergänzende Zählung von Wörtern und qualitativ gefundener Kategorien hinausgehen? Ist sie möglicherweise als eine Variante des Kombinationstyps 2 (aufeinander bezogene Erhebung und Analyse qualitativer und quantitativer Daten im gleichen Zeitraum) anzusehen, wenn z.B. ein transkribiertes Leitfadeninterview die Basis für eine quantitative Inhaltsanalyse darstellt? Dieser Beitrag kann die durch das Buch von SEIPEL und RIEKER gegebenen Anregungen natürlich nicht selbst weiterführen, sondern nur beispielhaft auf solche Möglichkeiten hinweisen. Eine andere Art der lohnenswerten Weiterführung besteht darin, die methodischen Aspekte der genannten Integrationsbeispiele (z.B. die Studie von OSWALD auf S.249) noch ausführlicher aufzuzeigen. Häufig wird durch – nicht nur punktuell eingesetzte – Beispiele am deutlichsten, wo Möglichkeiten und Probleme (sowie wiederum deren Lösung) liegen. Gleichzeitig verweisen ausführlichere Beispiele plastisch darauf, dass Methoden kein Selbstzweck sind. [24]

Im Fazit pointiert das Buch schließlich nochmals seine Zielsetzung. Es hebt die Potentiale der Methodenintegration hervor (z.B. den erweiterten Blickwinkel und die Chance, die Stärken der Methoden zu nutzen und ihre Schwächen auszugleichen), ohne mögliche Probleme (z.B. das der Vergleichbarkeit von Ergebnissen) zu verkennen oder per se eine Kombination zu propagieren. Schließlich setzen die Autoren auf die Zukunft Hoffnungen, für deren Realisierung das Buch selbst einen Anfang macht: Eine (ausgeglichene) Kombination von Methoden, die in der Forschungspraxis breit verankert ist und somit die Weiterentwicklung der Methodenintegration fördert, und eine prinzipielle Methodenoffenheit, die die Vermittlung eines breiten Repertoires in der Methodenausbildung vorbereitet. [25]

6. Resümee

Im Gesamteindruck liegt hier ein sehr begrüßenswerter Vorstoß vor, eine Offenheit für Methoden und ggf. Methodenkombinationen zu fördern. Zum einen gilt dies für Methoden-Neulinge, die den notwendigen breiten Überblick durch dieses Buch erhalten; aber auch Fortgeschrittene könnten ihre methodische Aufgeschlossenheit überprüfen. Das integrative Vorhaben dieses Buches ist dem Balanceakt ausgesetzt, einerseits einen Überblick zu liefern, ohne andererseits überall zu knapp zu sein. Zweitens sind Gemeinsamkeiten, Unterschiede, Verknüpfungschancen und -grenzen der Methodenstränge differenziert, aber zugleich für AnfängerInnen aufzuzeigen. [26]

Durch sorgfältiges Abwägen gelingt den Autoren dieser Balanceakt im Wesentlichen. Die Ausführungen sind gut nachvollziehbar, unterstützt auch durch die formal klare Gliederung (beispielsweise gibt es immer wieder Gliederungshinweise, Zusammenfassungen und gezielte Literaturhinweise am Ende der Kapitel). Die Betrachtung von Gemeinsamkeiten zieht sich als roter Faden durch den Text. Die Autoren haben keine einseitige Sicht auf die Methodenkombination als per se wünschenswert, sie übersehen nicht spezifische Anwendungsgebiete oder auch Probleme. Allerdings gibt es das wichtige Plädoyer für eine grundsätzlich größere Methodenoffenheit, die auf einer entsprechenden Methodenkompetenz fußen sollte. [27]

Im Detail ist jedoch erkennbar, wie schwierig dieser Balanceakt ist. Stellenweise besteht z.B. die Gefahr, Ebenen (z.B. Logik vs. Praxis) unerkannt zu wechseln, Begriffe zu dehnen, um Gemeinsamkeiten zu verdeutlichen, oder in der durch die Breite gebotenen Kürze manch komplexen Sachverhalt nicht klären zu können. Auch hätte man sich gerade das "innovativste" Schlusskapitel noch ausführlicher wünschen können. Insgesamt haben die Autoren jedoch einen gelungenen ersten Überblick verfasst, von dem man sich – anschließend an ihren eigenen Ausblick – nur wünschen kann, dass er die Forschungspraxis anregt. Ein vorsichtiger Optimismus könnte immerhin für junge Forscherkohorten angebracht sein, für die ein Buch wie dieses den Einstieg in Methodenkenntnisse darstellt. [28]

Anmerkungen

1) Auch die Debatte zu Qualitätsstandards qualitativer Sozialforschung (Moderation durch Franz BREUER, Jo REICHERTZ und Wolff-Michael ROTH) enthält konstruktive Beiträge, die qualitative und quantitative Methoden miteinander ins Gespräch bringen: siehe http://www.qualitative-research.net/fqs/fqs-d/debate-1-d.htm, insbesondere hier BREUER (2003) sowie ROST (2003). <zurück>

2) Beispielsweise haben Vertreter der qualitativen und quantitativen Richtung "ihre" je eigene Sektion in der DGS, und gemeinsame Empfehlungen für eine Methodenausbildung (REHBERG 2003), die beide Stränge umfassen, können anscheinend nur mit Hilfe der Unterstellung zustande kommen, dass in einem Studiengang 22 Semesterwochenstunden für den Methodenbereich zur Verfügung stehen, was angesichts der Propagierung gestufter Studiengänge eher zu bezweifeln ist. <zurück>

Literatur

Breuer, Franz (2003, Mai). Qualitative und quantitative Methoden: Positionen in der Psychologie und deren Wandel. Ein Kommentar zu Texten von Jochen Fahrenberg und Jürgen Rost [36 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research [On-line Journal], 4(2), Art. 44. Verfügbar über: http://www.qualitative-research.net/fqs-texte/2-03/2-03breuer-d.htm [Zugriff: 07.04.2004].

Kelle, Udo & Erzberger, Christian (2001). Die Integration qualitativer und quantitativer Forschungsergebnisse. In Susann Kluge & Udo Kelle (Hrsg.) (2001), Methodeninnovation in der Lebenslaufforschung. Integration qualitativer und quantitativer Verfahren in der Lebenslauf- und Biographieforschung (S.89-133). Weinheim: Juventa.

Kluge, Susann & Kelle, Udo (Hrsg.) (2001). Methodeninnovation in der Lebenslaufforschung. Integration qualitativer und quantitativer Verfahren in der Lebenslauf- und Biographieforschung. Weinheim: Juventa.

Lamnek, Siegfried (2002). Methodenintegration am Beispiel der Lebenslauf- und Biografieforschung. Rezensionsaufsatz: Reinhold Sackmann & Matthias Wingens (Hrsg.) (2001). Strukturen des Lebenslaufs. Übergang – Sequenz – Verlauf / Lutz Leisering, Rainer Müller & Karl F. Schumann (Hrsg.) (2001). Institutionen und Lebensläufe im Wandel. Institutionelle Regulierungen von Lebensläufen / Claudia Born & Helga Krüger (Hrsg.) (2001). Individualisierung und Verflechtung. Geschlecht und Generation im Lebenslaufregime / Susann Kluge & Udo Kelle (Hrsg.). (2001). Methodeninnovation in der Lebenslaufforschung. Integration qualitativer und quantitativer Verfahren in der Lebenslauf- und Biographieforschung [65 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research [On-line Journal], 3(4), Art. 5. Verfügbar über: http://www.qualitative-research.net/fqs-texte/4-02/4-02review-lamnek-d.htm [Zugriff: 07.04.2004].

Rehberg, Karl-Siegbert (2003). DGS-Empfehlung zur Methodenausbildung. Soziologie 4/2003, 69-76.

Rost, Jürgen (2003, Februar). Zeitgeist und Moden empirischer Analysemethoden [45 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research [On-line Journal], 4(2), Art. 5. Verfügbar über: http://www.qualitative-research.net/fqs-texte/2-03/2-03rost-d.htm [Zugriff: 07.04.2004].

Schreier, Margrit & Fielding, Nigel (Hrsg.) (2001). Qualitative and quantitative research: Conjunctions and divergences / Qualitative und quantitative Forschung: Übereinstimmungen und Divergenzen. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research [On-line Journal], 2(1). http://www.qualitative-research.net/fqs/fqs-d/inhalt1-01-d.htm [Zugriff: 07.04.2004].

Zur Autorin

Dr. Nicole BURZAN ist Junior-Professorin für Sozialstrukturanalyse und empirische Methoden im Fachbereich Kultur- und Sozialwissenschaften der FernUniversität in Hagen. Arbeitsschwerpunkte: Quantitative und qualitative Forschungsmethoden, Soziale Ungleichheit, Individualisierung, Zeitforschung, Biographieforschung, "Inklusionsprofile" (ein DFG-Projekt zu einer differenzierungstheoretischen Sozialstrukturanalyse).

Kontakt:

Dr. Nicole Burzan

Fernuniversität Hagen
FB Kultur- und Sozialwissenschaften
Fleyer Str. 204
D-58084 Hagen

E-Mail: nicole.burzan@fernuni-hagen.de
URL: http://www.fernuni-hagen.de/SOZ/

Zitation

Burzan, Nicole (2004). Rezension zu: Christian Seipel & Peter Rieker (2003). Integrative Sozialforschung. Konzepte und Methoden der qualitativen und quantitativen empirischen Forschung [28 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 5(2), Art. 11, http://nbn-resolving.de/urn:nbn:de:0114-fqs0402114.



Copyright (c) 2004 Nicole Burzan

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.