Volume 20, No. 3, Art. 16 – September 2019



Qualitative Inhaltsanalyse – Abgrenzungen, Spielarten, Weiterentwicklungen

Philipp Mayring

Zusammenfassung: Grundlagen und Techniken qualitativer Inhaltsanalyse sind vor über 35 Jahren vorgeschlagen worden und erfreuen sich im Rahmen qualitativ orientierter sozialwissenschaftlicher Textanalyseansätze anhaltender Beliebtheit. So soll hier ein Resümee gezogen, auf die Rezeption eingegangen und ein Ausblick gegeben werden.

Im Beitrag werden drei Bereiche behandelt: Zum einen sollen die Grundlagen des Vorgehens skizziert werden, die Abgrenzungen zu anderen textanalytischen Ansätzen erlauben. Hier gilt es auch, die Unterschiede zur quantitativen Inhaltsanalyse herauszustreichen. Die Kategorisierungen erfolgen dort automatisch nach einem bestimmten Algorithmus, während bei der qualitativen Inhaltsanalyse die Zuordnung von Kategorien zu Textbestandteilen immer interpretativ bleibt. Im Gegensatz zu anderen interpretativen Textanalyseansätzen geschieht dies allerdings streng regelgeleitet. Dann wird auf die Rezeption der qualitativen Inhaltsanalyse eingegangen und es wird versucht, dabei aufgetretene Missverständnisse zu klären. Schließlich werden Vergleiche zu neueren Ansätzen qualitativer Inhaltsanalyse, wie sie von Margrit SCHREIER und Udo KUCKARTZ vorgeschlagen wurden, angestellt. An einem Beispiel wird das Vorgehen nochmals erläutert. Abschließend wird auf Weiterentwicklungen (eine kostenfrei nutzbare Software zur qualitativen Inhaltsanalyse) hingewiesen.

Keywords: qualitative Inhaltsanalyse; Textanalyse; CAQDAS; qualitative Forschung; Methodenvergleich

Inhaltsverzeichnis

1. Einführung

2. Grundlagen Qualitativer Inhaltsanalyse

3. Rezeptionen und Spielarten

3.1 Ähnliche Konzeptionen einer qualitativen Inhaltsanalyse

3.2 Kritik und Missverständnisse

3.3 Qualitative Inhaltsanalyse nach Kuckartz

3.4 Qualitative Inhaltsanalyse nach SCHREIER

4. Ein Beispiel

5. Ausblick und Weiterentwicklungen

Literatur

Zum Autor

Zitation

 

1. Einführung

Die Techniken qualitativer Inhaltsanalyse, mit denen wir in unserer Arbeitsgruppe (FENZL & MAYRING 2017; MAYRING & FENZL 2019; MAYRING & GLÄSER-ZIKUDA 2008) bis heute arbeiten, wurden Ende der 1970er Jahre im Rahmen eines Forschungsprojektes zu den psychosozialen Auswirkungen von Arbeitslosigkeit entwickelt (ULICH et al. 1985). Damals wurden mit Betroffenen offene halbstrukturierte Interviews im Längsschnitt über ein Jahr wiederholt geführt (ca. 600 Interviews), die in einer großen Menge an transkribiertem Material mündeten. Gesucht war ein Textanalyseverfahren, das diese Menge bewältigen kann. Die in den Kommunikationswissenschaften zur Analyse von Massenmedienmaterialien (z.B. aus Zeitungen) entwickelte Content Analysis bot sich an, auch wegen ihrer Systematik und Regelgeleitetheit. Der Grundgedanke der qualitativen Inhaltsanalyse war nun, auf der Systematik und Regelgeleitetheit der quantitativen Content Analysis aufzubauen und für verschiedene qualitative Textanalyseaufgaben (Zusammenfassungen, Explikationen, Strukturierungen des Textmaterials) Prozeduren zu entwickeln und zu begründen, die auch quantitative Analysen (Kategorienhäufigkeiten) nicht ausschließen. Letzteres erscheint gerade für größere Textmengen geboten, um über eine reine einzelfallbezogene explorative Forschungsstrategie hinausgehen zu können (MAYRING 2010a). Die Methodik wurde erstmals 1983 vorgestellt (MAYRING 2015) und wird bisweilen auch als Mixed-Methods- oder auch als hybrider Ansatz (HUSSY, SCHREIER & ECHTERHOFF 2010), in sich qualitative und quantitative Analyseschritte beinhaltend, bezeichnet. Mir erschiene eine Charakterisierung als "qualitativ orientierte kategoriengeleitete Textanalyse" heute angemessener, da der qualitative Schritt der Zuordnung von Kategorien zu Textstellen zentral bleibt und die Analyse von Kategorienhäufigkeiten nicht immer notwendig ist. [1]

Diese Offenheit für qualitative und quantitative Auswertungsschritte ist vielleicht ein Grund dafür, dass der Ansatz für sozialwissenschaftliche Textanalysen breit eingesetzt wird. Stefan TITSCHER, Michael MEYER, Ruth WODAK und Eva VETTER (2000) fanden in einer systematischen bibliometrischen Analyse in den Literatur- und Forschungsdatenbanken FORIS, SOLIS, Sociofile, Psyndex und MLA offene inhaltsanalytische Formen mit 39 Prozent (1.621 Fundstellen) als häufigstes textanalytisches Verfahren, gefolgt von Konversationsanalysen (21%), standardisierter Inhaltsanalyse (19%), Grounded-Theory-Methodologie (12%), objektiver Hermeneutik (5%) und Ethnografie (2%). Maria Jesus CARRERA-FERNANDEZ, Joan GUARDIA-OLMOS und Maribel PERO-CEBORELLA (2014) identifizierten in einer Analyse von qualitativ orientierten Zeitschriftenartikeln speziell in der Psychologie (Web of Science als Datenbasis) die qualitative Inhaltsanalyse weit an erster Stelle, gefolgt von Grounded-Theory-Methodologie, Diskursanalyse und Aktionsforschung. Das soll der Anlass sein, ein Resümee der Grundlagen, Rezeptionen und Entwicklungen zu ziehen. Zunächst werden zentrale Theoriebausteine der qualitativen Inhaltsanalyse dargestellt. Im folgenden Abschnitt wird auf ähnliche Konzeptionen und die Rezeption des Ansatzes eingegangen, und dabei werden auch Missverständnisse aufgezeigt. An einem Beispiel verdeutliche ich das Vorgehen und skizziere in einem abschließenden Ausblick Weiterentwicklungen. [2]

2. Grundlagen Qualitativer Inhaltsanalyse

Ich möchte in der Charakterisierung der qualitativen Inhaltsanalyse, wie wir sie entwickelt haben (MAYRING 2015; MAYRING & FENZL 2019), die für mich wesentlichen Punkte herausstellen:

  • Bei der qualitativen Inhaltsanalyse wird (wie bei der quantitativen Content Analysis) kategoriengeleitet vorgegangen, das ist ihr Erkennungsmerkmal. Mit Kategorien sind dabei Bedeutungsaspekte des Textes gemeint, die auf sprachliche Kurzformeln gebracht sind. Die Textauswertung ist damit selektiv auf das Kategoriensystem beschränkt. Textgehalte, die nicht in Kategorien angesprochen werden, ebenso wie ein ganzheitlicher Eindruck des Textes, werden nicht berücksichtigt bzw. müssten mit anderen Textinterpretationsverfahren angegangen werden.

  • Bei der qualitative Inhaltsanalyse wird fragestellungsbezogen gearbeitet. Die textanalytischen Fragestellungen (ggf. durchaus mehrere) werden aus der übergeordneten Fragestellung des Forschungsprojektes abgeleitet. Am Ende der Auswertung sollte eine Beantwortung dieser Fragestellungen stehen. Das grenzt die qualitative Inhaltsanalyse von gänzlich offenen, explorativen Verfahren wie z.B. der Grounded-Theory-Methodologie ab.

  • Qualitative Inhaltsanalyse zeichnet sich durch eine strenge Regelgeleitetheit und Systematik aus. Mittels Ablaufmodellen wird das Vorgehen Schritt für Schritt beschrieben, da sich dies in zahllosen Forschungsprozessen bewährt hat. Die konkreten Regeln für die einzelnen Techniken werden in einer Pilotphase überarbeitet, sollten danach nicht mehr geändert werden.

  • Ich habe eine Reihe von spezifischen Auswertungsmöglichkeiten im Rahmen der qualitativen Inhaltsanalyse beschrieben. Zuletzt habe ich acht Techniken vorgeschlagen und ausgearbeitet (MAYRING 2015):
    1. Zusammenfassung
    2. Induktive Kategorienbildung
    3. Enge Kontextanalyse
    4. Weite Kontextanalyse
    5. Formale Strukturierung
    6. Inhaltliche Strukturierung
    7. Typisierende Strukturierung
    8. Skalierende Strukturierung.
    Dazu kommen Mischtechniken. An anderer Stelle (MAYRING 2014) habe ich die Strukturierungen als ordinale oder kategoriale deduktive Kategorienanwendung bezeichnet und die typisierende sowie die inhaltliche Strukturierung neben anderen als Mischtechniken gefasst. Die Entscheidung für eine spezifische inhaltsanalytische Technik hängt von der Formulierung der Fragestellung ab. Es ist möglich, einzelne Techniken, aber auch mehrere gleichzeitig in einem Textdurchgang anzuwenden.

  • Die inhaltsanalytischen Regeln für die einzelnen Techniken sind nicht beliebig, sondern finden ihre theoretische Fundierung in Prozessen alltäglicher Textverarbeitung, wie sie in der kognitiven Psychologie und Psycholinguistik analysiert werden. Für Zusammenfassung und induktive Kategorienbildung sind dies die reduktiven Operatoren (Auslassung, Generalisation, Konstruktion, Integration, Selektion und Bündelung; MANDL 1981), an denen sich die schrittweise Reduzierung von Bedeutungseinheiten orientiert. Für Explikationen sind es die Kontexttheorien aus der Linguistik. Für deduktive Kategorienanwendungen sei auf die Kategorisierungstheorien aus der Allgemeinen Psychologie und der Sprachentwicklungsforschung verwiesen (MAYRING 2014). Hier wurde festgestellt, dass die genaue Fassung einer Allgemeinkategorie im menschlichen Verständnis einer expliziten Definition (Definitionsansatz), einer kognitiven Verankerung von typischen Beispielexemplaren der Kategorie (Prototypenansatz) und Regeln zur Abgrenzung von Kategorien untereinander (Entscheidungsgrenzenansatz) bedarf (MURPHY 2002), die in dem von mir vorgeschlagenen Vorgehen den Kodierleitfaden in seiner Dreiteiligkeit mit Definitionen, Ankerbeispielen und Kodierregeln begründen (MAYRING 2015). Ich versuche also in der Bestimmung inhaltsanalytischer Regeln auf Strategien im alltäglichen Umgang mit Texten zurückzugreifen, ein in qualitativer Forschung verbreitetes Verfahren, wenn beispielsweise bei den Regeln für narrative Interviews auf linguistische Ansätze alltäglichen Erzählens zurückgegriffen wird. [3]

3. Rezeptionen und Spielarten

3.1 Ähnliche Konzeptionen einer qualitativen Inhaltsanalyse

Neben den von unserer Arbeitsgruppe vorgeschlagenen Techniken qualitativer Inhaltsanalyse gibt es eine Reihe ähnlicher Verfahren, die kurz angesprochen werden sollen (siehe dazu MAYRING 2010b). Der Medienforscher David L. ALTHEIDE (1996) hat unter dem Titel "Ethnographic Content Analysis" ein Verfahren konzipiert, bei dem mit deduktiven Kategorien (Codes), die im Analyseprozess verfeinert werden, an das Material herangegangen wird und für jede Kategorie Zusammenfassungen erstellt werden, ein Vorgehen, das einer Prozedur qualitativer Inhaltsanalyse ähnlich, allerdings nicht so regelgeleitet gestaltet ist. [4]

Zur Auswertung von Protokollen lauten Denkens (eine in der Kognitionsforschung bedeutsame Erhebungsmethode) haben K. Anders ERICSSON und Herbert A. SIMON (1999) eine Protocol Analysis entwickelt, der zufolge im Material nach Erklärungen, Beschreibungen, Rechtfertigungen und Rationalisierungen gesucht wird und diese in eine Sequenz gebracht werden. Relativ unklar bleiben die genauen Interpretationsregeln. [5]

Im amerikanischen Sprachraum verbreitet ist eine aus der quantitativen Inhaltsanalyse entwickelte Codebook Analysis (z.B. NEUENDORF 2002), die an den Prozeduren der Content Analysis ansetzt, bei der aber Kategorien verwendet werden, die definiert werden müssen und nicht automatisch erfassbar sind. Das dafür verwendete Codebook enthält die Kategoriennamen und Kurzdefinitionen, allerdings ohne die Genauigkeit des in der qualitativen Inhaltsanalyse für ähnliche Zwecke verwendeten Kodierleitfadens (tabellarische Zusammenstellung von Definitionen, Ankerbeispielen und abgrenzenden Kodierregeln) aufzuweisen. [6]

Ähnliche Wege werden bei der Thematic Text Analysis (z.B. STONE 1997) beschritten, bei der im Material inhaltliche Gegenstandsbereiche mit den Prozeduren der Content Analysis erfasst und ausgezählt werden. Bei der Suche wird nach den zentralen Themen entweder mit theoretischen Vorgaben gearbeitet, oder die Orientierung erfolgt an Worthäufigkeitslisten und Wortkombinationshäufigkeiten. In beiden Fällen kann bei der qualitativen Inhaltsanalyse genauer definiert und textnäher vorgegangen werden. Allerdings werden unter der Bezeichnung Theme Analysis auch ganz frei interpretative, an phänomenologischer Psychologie orientierte Vorgehensweisen beschrieben (MEIER, BOIVINE & MEIER 2008). [7]

Ähnlichkeiten bestehen auch zum qualitativ inhaltsanalytischen Vorgehen bei der Auswertungstechnik, die von Bruce L. BERG (2004) in seinem Lehrbuch qualitativer Sozialforschung vorgeschlagen wird. BERG nimmt Bezug auf die quantitative Inhaltsanalyse und argumentiert, dass das Auszählen von Textelementen ein Zwischenschritt im Textverstehen sein kann, "a means for identifying, organizing, indexing, and retrieving data" (S.269). Dabei können deduktive (analytic) oder induktive (grounded) Kategorien, die explizit definiert werden müssen, verwendet werden. Unklar bleibt allerdings, wie dies genau zu geschehen hat. [8]

Hsiu-Fang HSIEH und Sarah E. SHANNON (2005) unterscheiden drei Ansätze qualitativer Inhaltsanalyse: induktive Kategorienentwicklung (als "konventionelle Inhaltsanalyse" bezeichnet), deduktive Kategorienanwendung (directed content analysis) und summative Inhaltsanalyse, bei der zentrale Begriffe (auch quantitativ durch Wortzählungen ermittelt) in ihrem jeweiligen Kontext interpretiert werden. Letztere Spielart bleibt jedoch etwas unklar. [9]

3.2 Kritik und Missverständnisse

Es sind auch Kritikpunkte an der qualitativen Inhaltsanalyse, wie ich sie entwickelt habe, vorgebracht worden. Die Einschätzung mancher aus der Soziologie stammender dezidierter Vertreter_innen qualitativer Forschung, die vorgeschlagenen Verfahrensweisen seien der quantitativen und nicht der qualitativen Forschung zuzurechnen (z.B. REICHERTZ 2007), wird durch oben Gesagtes entkräftet (siehe zur expliziten Erwiderung MAYRING 2007). Andererseits lässt sich die "qualitativ orientierte kategoriengeleitete Textanalyse" (siehe Abschnitt 1) auch in einer Zwischenstellung zwischen qualitativer und quantitativer Forschung lokalisieren. Warum aber Jo REICHERTZ die qualitative Inhaltsanalyse als nicht elaborierte Ad-hoc-Strategie der Textanalyse bezeichnet, bleibt gänzlich unklar. Die theoretischen Hintergründe der Ablaufmodelle wurden ja oben gekennzeichnet. [10]

Norbert GROEBEN und Ruth RUSTEMEYER (1995) sehen die Inhaltsanalyse gerade in dieser Zwischenposition, als Scharnier zwischen qualitativem und quantitativem Paradigma. Sie stellen fest, dass ein Verständnis der Inhaltsanalyse als klassisch empiriewissenschaftliche "Beobachtungsmethode" keineswegs Bedeutungsaspekte völlig ausschließt, ihre Verstehensmethode allerdings auf konstante "Abbildung" ausgerichtet sei, weniger auf Verstehen als "subjektive Explikation ästhetischer oder pragmatischer Sinnpotenziale" (S.529) in einem nie abgeschlossenen Rekonstruktionsprozess. Demgegenüber sehe ich, dass Forschungsergebnisse immer vorläufig, durch Kritik und Replikation weiterentwickelbar sind, andererseits auf diesem Wege auch immer wieder fixiert werden müssen. Die Einschätzung allerdings, die qualitative Inhaltsanalyse sei nur eine quantitative Inhaltsanalyse ohne abschließende Quantifizierungsschritte (ähnlich auch LAMNEK 1989, S.192), ist ein Missverständnis, da gerade in den ersten Schritten der Zuordnung von Kategorien zu Text qualitativ orientierte Interpretationsregeln das Zentrum bilden, wie es in quantitativer Inhaltsanalyse üblicherweise vernachlässigt wird. [11]

In ähnliche Richtung argumentiert Ulrich OEVERMANN (2004), wenn er qualitativ-inhaltsanalytisches Textinterpretieren als subsumptionslogisch kritisiert; Textstellen würden Kategorien fix zugeordnet. Dabei wird übersehen, dass die Kategorien in einem zirkulären Prozess sorgfältig schrittweise an das Material angepasst werden. Ist dies einmal geschehen, ist die Einschätzung allerdings durchaus treffend. Wie man völlig ohne Subsumptionslogik zu wissenschaftlichen Ergebnissen gelangen könnte, bleibt aber unklar. [12]

Jochen GLÄSER und Grit LAUDEL (2009) diskutieren die Möglichkeiten der qualitativen Inhaltsanalyse in der Auswertung von offenem Interviewmaterial und kritisieren die von mir vorgeschlagene Vorgehensweise als "methodologische Prinzipien der Sozialforschung nicht gleichzeitig angemessen berücksichtigen[d]" (S.9), da die Kategoriensysteme an das empirische Material angepasst werden müssen, weshalb sie Modifizierungen der Verfahrensweisen vorschlagen. Mir scheint dagegen dieser Schritt der Pilottestung der Kategorien und Modifizierung in Rückkoppelungsschleifen gerade zentral und unverzichtbar und auch arbeitsökonomisch machbar. GLÄSER und LAUDEL behaupten, dass das Kategoriensystem in meinem Vorgehen nur an 30 bis 50 Prozent des Materials abgeglichen wird. Wie aber oben beschrieben wurde, gilt dies nur für die Regeln (Kategoriendefinition, Abstraktionsniveau) bei induktiver Kategorienbildung; auch auf der letzten Seite des Materials können neue induktive Kategorien hinzugefügt werden. Auf dieser Fehlrezeption beruht dann auch die Einschätzung, "dass das Mayringsche Verfahren letztlich Häufigkeiten analysiert, anstatt Informationen zu extrahieren" (S.199). Denn bei induktiver Kategorienentwicklung kann das gewonnene Kategoriensystem als eigenständige Antwort auf die Forschungsfrage (Welche Formen von xy gibt es?) ohne Häufigkeiten stehen bleiben, ganz abgesehen davon, dass die Aussage, welche Kategorien häufig auftauchen, oft eine wichtige Information darstellt. [13]

So finden sich auch in der vergleichenden Analyse qualitativ-inhaltsanalytischer Ansätze von Margrit SCHREIER (2014) viele Missverständnisse. Es wird behauptet, dass in meinem Ansatz wegen der Betonung der Theoriegeleitetheit des Verfahrens keine Entwicklung von Kategorien am Material konzipiert wurde, was aber so nicht richtig ist (siehe oben). Auch wird die Subsumptionsstrategie induktiver Kategorienbildung fälschlicherweise der inhaltlich-strukturierenden qualitativen Inhaltsanalyse zugewiesen (ich habe hier "Zusammenfassung" vorgeschlagen, MAYRING 2015, S.103). Es wird behauptet (SCHREIER 2014), dass bei deduktiver Kategorienanwendung die Grenzen zwischen den Kategorien fließend seien, wohingegen ich dies mittels Kodierregeln explizit auszuschließen versuche. Weiter sagt SCHREIER, dass die von mir formulierte Kontextanalyse (Explikation) ein Schritt im Ablauf einer strukturierenden Inhaltsanalyse sei, sie ist aber bei der von mir vorgeschlagenen Vorgehensweise völlig getrennt. [14]

Auch die Einschätzung von Christoph STAMANN, Markus JANSSEN und Margrit SCHREIER (2016), dass deduktive Kategorienanwendung ein in der Forschungspraxis nachrangiges Verfahren sei und in erster Linie das Vorwissen der Forschenden expliziere, kann nicht geteilt werden. Die Frage, ob und in welchem Grade in einer Interviewstudie Arbeitslose belastet sind (MAYRING 2015), wird in jedem einzelnen Fall interpretativ, aber regelgeleitet, am Kodierleitfaden orientiert, festgelegt. Was unter Belastung zu verstehen ist, wird natürlich theoriegeleitet vorab definiert. Auch hier wird wieder Subsumption fälschlicherweise als induktive Strategie bezeichnet. Auch werden die Unterschiede der einzelnen Techniken zu wenig gesehen, und alle Techniken werden als ein einheitliches qualitativ-inhaltsanalytisches Verfahren aufgefasst. [15]

3.3 Qualitative Inhaltsanalyse nach Kuckartz

Die Konzeption qualitativer Inhaltsanalyse von Udo KUCKARTZ (2012, 2014) geht in eine Richtung, die die Stärken der Methodik meiner Meinung nach wenig nutzt. Aufgrund der Regelgeleitetheit und Systematik und auch wegen ihrer Herkunft aus den Kommunikationswissenschaften ist die qualitative Inhaltsanalyse eigentlich für größere Textmengen konzipiert. Eine Interviewstudie mit 30 Personen kann schnell zu Transkripten von tausend Seiten führen. Stichproben mit weniger als 30 Personen erlauben eigentlich keine Verallgemeinerungen über explorative, hypothesengenerierende Aussagen hinaus (vgl. Abschnitt 3.4). KUCKARTZ sieht als ersten Schritt eine initiierende Textarbeit (2012, S.49ff) vor, die hermeneutisch-interpretativ angelegt ist und aus einem kompletten Lesen des Textes besteht, wobei für die Forschungsfrage wichtige Stellen markiert werden sollen, was ebenso relativ vage bleibt. Dies soll in Fallzusammenfassungen und Memos zum Text münden. Dann soll eine Profilmatrix (S.73ff) erstellt werden, bestehend aus einer Tabelle, die z.B. zentrale Themen und ausgeschnittene Textstellen der einzelnen interviewten Personen enthalten soll. Erst danach setzt die Analyse mit inhaltsanalytischen Basismethoden (S.75ff) ein, wiederum mehrere Textdurchgänge erfordernd. Dies ist nur mit kleineren Textmengen möglich und würde bei einer Interviewstudie mit 30 Personen nach meiner Kalkulation mehr als ein halbes Jahr reine Textarbeit erfordern. Man vergibt damit meiner Meinung nach das Potenzial der Inhaltsanalyse. Darüber hinaus stellt der Vorschlag eigentlich eine nicht näher begründete Mischform verschiedener Textanalyseansätze dar, da einige Schritte sehr offen interpretativ, wenig überprüfbar, und einige Schritte strenger regelgeleitet, mehr überprüfbar sind. Darin könnte auch eine problematische Vermengung unterschiedlicher wissenschaftstheoretischer Positionen (Konstruktivismus mit Postpositivismus) liegen. Auch stellt es aus meiner Sicht einen Widerspruch dar, dass einerseits Zusammenfassungen vorgenommen werden sollen, was ein eher exploratives Verfahren darstellt, andererseits aber eine Fragestellung vorgegeben wird, an der sich alle Analysen ausrichten sollen. Welche Rolle dann die (sehr aufwendigen) Zusammenfassungen spielen sollen, wird nicht klar. [16]

Schließlich werden Basismethoden qualitativer Inhaltsanalyse vorgestellt, die sich an meinen Arbeiten orientieren, aber nur eine nicht weiter begründete Auswahl des Repertoires darstellen. Aus den von mir vorgestellten Techniken wählt KUCKARTZ (2012, 2014) drei aus (inhaltliche, typisierende und skalierende Strukturierung, siehe Abschnitt 2), wobei jedoch nicht deutlich wird, warum gerade diese drei den anderen von mir explizierten Techniken vorgezogen werden. Weiterhin bezieht er sich bei den Fallzusammenfassungen nicht auf das unter Abschnitt 1 beschriebene inhaltsanalytische Verfahren und übergeht z.B. die meiner Meinung nach bedeutsamste Technik der induktiven Kategorienbildung (Abschnitt 2). [17]

Damit wird einiges an Möglichkeiten qualitativer Inhaltsanalyse vergeben. Die Konzeption entspricht einer Mischung aus gänzlich offenem, explorativem, hermeneutisch-interpretativem Arbeiten am Textmaterial und systematischer Inhaltsanalyse, die so aufwendig ist, dass sie sich nur für kleinere Textmengen eignet. [18]

3.4 Qualitative Inhaltsanalyse nach SCHREIER

Ähnlich problematisch und verwirrend erscheint mir die Konzeption qualitativer Inhaltsanalyse von Margrit SCHREIER (2012). Hier wird das Verfahren so beschrieben, dass zunächst ein übergeordnetes Kategoriensystem (Coding Frame) entwickelt wird, die Kategorien dann definiert und pilotgetestet und schließlich in einem weiteren Schritt auf das Material angewendet werden. Das halte ich bei induktiver Kategorienentwicklung für viel zu zeitintensiv Hier schlage ich vor, in einem einzigen Materialdurchgang die Kategorien zu entwickeln und den Textstellen zuzuweisen. Bei induktiver Kategorienentwicklung ist auch nicht, wie SCHREIER ausführt, ein ausführlicher Kodierleitfaden (Kategoriendefinition, Ankerbeispiele und Kodierregeln) notwendig, wie ich es nur für deduktive Kategorienanwendungen konzipiert habe. Theoriegeleitete Definitionen jeder einzelnen Kategorie sind hier gar nicht machbar, da ja die Kategorien am Material ad hoc entwickelt wurden. Ankerbeispiele sind nicht notwendig, da die Textstelle, an der die Kategorie entwickelt wurde, bereits markiert ist und damit das Ankerbeispiel darstellt. Einzig Kodierregeln zur Abgrenzung könnte man andenken, aber auch das wäre nicht notwendig, müssten diese doch für jede einzelne induktive Kategorie vorgenommen werden, die in der Regel im Verlauf zusammengefasst oder hierarchisch strukturiert (Hauptkategorien) werden. SCHREIER beschreibt dann zur Entwicklung induktiver Kategorien (Data-Driven) vier unterschiedliche Ansätze: Zusammenfassung, Grounded-Theory-Coding, Subsumption und Kontrastierung. Auch dies erscheint mir wenig einleuchtend und wenig anwendbar. Zusammenfassung ist für induktive Kategorienbildung meist viel zu aufwendig, da ja alles Material berücksichtigt werden muss. Ich sehe Zusammenfassungen nur bei sehr homogenem Material und offener, deskriptiver Fragestellung als sinnvoll an. In induktiver Kategorienbildung hingegen werden laufend, einer Kategoriendefinition und einem festgelegten Abstraktionsniveau folgend, neue Kategorien zu einer vorher festgelegten Thematik gebildet. Grounded-Theory-Coding folgt einer offenen, explorativen, theoriebildenden Strategie, die eigentlich von weiteren Prozessen der Fallkontrastierung, des Theoretical Samplings und des Memoverfassens begleitet werden sollte. Davon unterscheidet sich die inhaltsanalytische induktive Kategorienbildung, da hier bereits eine Kategoriendefinition als Selektionskriterium vorgegeben wird und dazu im Sinne eines deskriptiven Designs (nicht explorativ, noch zu überprüfend) Kategorien formuliert werden. Subsumption, die dritte induktive Strategie nach SCHREIER, führt nach meinem Verständnis überhaupt nicht zu induktiven Kategorien, sondern weist nur, falls das gewünscht ist, bereits entwickelten induktiven Kategorien weitere Textstellen zu, um zu Kategorienhäufigkeiten zu gelangen. Die von SCHREIER angesprochene inhaltliche Strukturierung wurde von mir als Mischtechnik beschrieben (MAYRING 2014, S.103), wobei ich nicht die Ansicht teile, dies sei "die zentrale Variante qualitativer Inhaltsanalyse" (SCHREIER 2014, §16). Deduktive Kategorienanwendungen (Concept-Driven Coding Frame) werden von SCHREIER (2012) im Gegensatz zur hier vertretenen Anschauung als relativ unüblich in qualitativer Forschung bezeichnet, da sie eher hypothesentestend und nicht explorativ oder deskriptiv orientiert seien. Wenn ich aber wissen möchte, ob in offen erhobenem Textmaterial vorab bestimmte (und durch Kodierleitfaden genauestens definierte) Aspekte angesprochen werden, so kann dies durchaus deskriptive Funktionen erfüllen, und der Zuordnungsprozess der Kategorien zum Textmaterial bleibt qualitativ-interpretativ. [19]

Verwirrend bei SCHREIER ist auch der Umgang mit den für Inhaltsanalyse so wichtigen Analyseeinheiten (KRIPPENDORFF 2018). Zunächst werden die Units of Analysis (synonym mit Sampling Units oder Units of Enumeration) gebildet, z.B. in Interviewstudien die einzelnen Fälle. Ich hingegen sehe Analyseeinheiten als Überbegriff und Auswertungseinheit als erste zu bildende Festlegung, definiert als die Textportion, der ein Kategoriensystem gegenübergestellt wird (MAYRING 2015). Das ist bei induktiver Kategorienbildung immer das gesamte Material, da ja das Kategoriensystem fortlaufend erweitert wird. Bei deduktiver Kategorienanwendung kann die Auswertungseinheit der einzelne Fall sein, da ggf. für jeden Fall eine Kategorienzuordnung erwünscht ist. Die Einheit ist also eine Festlegung im Sinne einer Definition, abhängig von der konkreten Fragestellung und der gewählten Auswertungstechnik. Sie kann nicht als erster unabhängiger Segmentierungsschritt vorgenommen werden. Die zweite zu bildende Einheit ist die Kodiereinheit, bei SCHREIER (2012) definiert als die Teile der Analyseeinheiten, die sinnvoll interpretiert werden können in Bezug auf das verwendete Kategoriensystem. Die Kodiereinheiten sollen nach SCHREIER so gewählt werden, dass jede Kodiereinheit zu genau einer Subkategorie passt. Ich stelle mir hier den konkreten Kodiervorgang am Material vor, bei dem für die Kategorisierung jeweils relevante Textstellen markiert werden, und würde das als Fundstellenbestimmung bezeichnen, nicht als Kodiereinheit. Die Kodiereinheit dagegen soll nach meiner Meinung in Übereinstimmung mit der inhaltsanalytischen Literatur eine allgemeine Festlegung der Sensibilität der Analyse sein. Reicht schon eine im Text mitschwingende Andeutung für eine Kategorisierung, oder müssen klare Bedeutungseinheiten identifizierbar sein oder gar ganze Absätze (z.B. die komplette Antwort auf eine Interviewfrage)? Dies kann ganz unterschiedlich sein, sollte festgelegt und begründet werden und ist auch entscheidend für die Überprüfung einer Interkoderübereinstimmung. [20]

Es bleibt also ein etwas verwirrendes Bild. SCHREIER scheint es nur um eine eher deskriptive Erfassung des Textes durch ein hierarchisches Kategoriensystem mit Dimensionen und Subkategorien zu gehen, in meinem System eine von vielen inhaltsanalytischen Vorgehensweisen. Was dann der nach SCHREIER weitere Schritt der Bildung einer Matrix von Kodiereinheiten mal Kodierungen, bei größeren Materialmengen ein sehr aufwendiger und letztlich unübersichtlicher Prozess, bringen soll, wird nicht klar. [21]

4. Ein Beispiel

An einem fiktiven Beispiel möchte ich das Vorgehen bei der qualitativen Inhaltsanalyse genauer verdeutlichen. In einer Evaluationsstudie soll die Qualität universitärer Lehrveranstaltungen eines bestimmten Typus überprüft werden. Da standardisierte Instrumente (Fragebögen) gerade im Bereich der Zufriedenheitserfassung immer einem positiven Bias unterliegen (meist der Wert 2 auf der Schulnotenskala) und keine Auskunft über spezifische Stärken und Schwächen des Lehrveranstaltungstypus liefern, fällt die Entscheidung für offene Interviews mit den Teilnehmer_innen. [22]

Es werden nach einem Stichprobenplan 40 Personen bestimmt. Ein kleines Rechenexempel mag die Notwendigkeit dieser Stichprobengröße unterstreichen. Angenommen, in der Population sind ein Drittel Unzufriedene. Rechnet man dies in Prozentangaben um und berechnet das Konfidenzintervall (bei 5% Irrtumswahrscheinlichkeit und mittlerer Effektgröße), so ergibt die Poweranalyse folgende Konfidenzintervalle:

  • Stichprobengröße 12 Personen: 4 Unzufriedene entsprechen 14% bis 61%,

  • Stichprobengröße 24 Personen: 8 Unzufriedene entsprechen 18% bis 53%,

  • Stichprobengröße 36 Personen: 12 Unzufriedene entsprechen 20% bis 50%. [23]

In einer Stichprobe von 24 Personen führt die Berechnung des Vertrauensintervalls also dazu, dass die acht Unzufriedenen in der Stichprobe (eine Minderheit also) bis zu 53% der Population entsprechen, also die Mehrheit darstellen könnten. Es wird klar, dass erst bei einer Stichprobengröße von über 36 Personen von einem Drittel Unzufriedener darauf geschlossen werden kann, dass auch in der Population nur eine Minderheit der Personen unzufrieden ist. Bei kleineren Stichproben lässt sich nur schlussfolgern, dass es Zufriedene und Unzufriedene gibt. Das wusste man aber vielleicht schon vorher. Bei dieser Berechnung des Konfidenzintervalls ist darauf hinzuweisen, dass sie eigentlich nur bei Zufallsstichproben legitim ist. Für Nicht-Zufallsstichproben müssten also die Konfidenzintervalle noch stärker ausschlagen! Deshalb ist es so wichtig, auch in qualitativer Forschung größere Stichproben zugrunde zu legen, die dann auch zu größeren Materialmengen führen und entsprechend dafür geeignete Auswertungsmethoden erfordern. Ansonsten verbleibt die Analyse im Explorativen. [24]

Die Transkription der 40 Interviews, in denen nach einem Interviewleitfaden zu den Erfahrungen in der Lehrveranstaltung, zur Zufriedenheit und zu Stärken und Schwächen gefragt wurde, ergibt ca. 400 Seiten Text. Hier erst einmal, wie von KUCKARTZ (2012, 2014) vorgeschlagen, einen kompletten Lesedurchgang mit interpretativen Anmerkungen, interpretativen Zusammenfassungen und Fallanalysen vorzunehmen, erscheint viel zu aufwendig und auch wenig kontrolliert. Sich einen ersten Eindruck vom Textmaterial zu machen, ist in jedem Falle auch meiner Meinung nach hilfreich. In der qualitativen Inhaltsanalyse werden an das Textmaterial zwei Fragestellungen herangetragen: Wie zufrieden sind die Personen mit der Lehrveranstaltung? Was schätzen sie als Stärken und Schwächen der Lehrveranstaltung ein? Für die Zufriedenheitseinschätzung wird eine deduktive ordinale Kategorienanwendung erforderlich sein (z.B. mit fünf Kategorien: sehr zufrieden – eher zufrieden – teils/teils – eher unzufrieden – sehr unzufrieden), die einen Kodierleitfaden benötigt. Hier wird vorab bzw. in der Pilotphase nach Definitionen, Ankerbeispielen und Abgrenzungsregeln gesucht. Die Definition sollte theoriegeleitet sein. Hier könnte eine Zufriedenheitstheorie der multiplen Vergleiche (MICHALOS 1985) relevant sein, bei der Zufriedenheit als kognitiver Prozess der Einschätzung der eigenen Situation in Bezug auf Vergleichsmaßstäbe (z.B. meine bisherigen Erfahrungen, meine Idealvorstellung, der Durchschnitt) verstanden wird. Den Vergleichsmaßstab festzulegen und in den Kodierleitfaden aufzunehmen, ist entscheidend für die Kodierung. So könnte die Regel für "sehr unzufrieden" sein, dass im gesamten Interview (d.h. als Auswertungseinheit festgelegt: das ganze Interview) nirgends positive Punkte im Hinblick auf die Lehrveranstaltung aufgetaucht sind, gleichzeitig gravierende Kritikpunkte angeführt wurden und die Frage nach dem Gesamteindruck eindeutig negativ ausfiel. Ist eines dieser Kriterien nicht erfüllt, wird eine andere Kategorie ("eher unzufrieden" oder "nicht erschließbar/missing") zugewiesen. Daraufhin kann jedes der 40 Interviews mit einem Zufriedenheitswert verbunden, und es können Kategorienhäufigkeiten berechnet werden; die Beantwortung der ersten Frage wird möglich. [25]

Die zweite Frage teilt sich in zwei Vorgänge induktiver Kategorienbildung zu Stärken und zu Schwächen auf, ist aber gleichzeitig (auch zusammen mit der ersten Fragestellung) in einem Materialdurchgang zu bearbeiten. Hier brauchen wir eine Kategoriendefinition, bei der – wiederum theoriegeleitet – genau festgelegt wird, was unter Stärke bzw. Schwäche der Lehrveranstaltung zu verstehen ist. Weiter muss das Abstraktionsniveau bestimmt werden, um zu einer Liste von Stärken und Schwächen zu gelangen, die einheitlich, überschaubar, interpretierbar und im Forschungsbericht mitteilbar ist. Hier kann man, wie SCHREIER (2012) in ihrer eigenen Beispielstudie zu Entscheidungskriterien von Personen im Gesundheitsbereich darstellt (435 Subkategorien, 89 Hauptkategorien) zu viele oder zu wenige Kategorien erhalten. Das Vorgehen könnte stattdessen sein, ein mittleres Abstraktionsniveau festzulegen, das eine Kategorie wie "Herr Müller hat in den letzten beiden Wochen keine Literaturhinweise gegeben" als zu spezifisch, die Kategorienformulierung "Unzureichendes Lehrveranstaltungsmaterial" aber als zu allgemein ausweist und zu einer Formulierung "Zu wenig Literaturhinweise in der Lehrveranstaltung" führt. Das Abstraktionsniveau sollte ebenfalls in der Pilotstudie festgelegt werden. Man kann nun entweder nur induktiv formulierte Kategorien sammeln und zu einer Liste zusammenstellen oder per Subsumption mehrfaches Kategorisieren zulassen, um zu einer Häufigkeitsverteilung zu gelangen, was in dieser Evaluationsstudie sinnvoll wäre. Was sind die hauptsächlich wahrgenommenen Stärken und Schwächen der Veranstaltungsform? [26]

Der ganze Auswertungsvorgang ist zeitökonomisch machbar, aber durch die theoriegeleiteten Regeln so genau gefasst, dass er überprüfbar ist. Für deduktive Kategorienanwendungen ist eine hohe Kodierübereinstimmung erwünscht, die auch mit zufallskorrigierten Übereinstimmungsindizes (z.B. Kappa) überprüfbar ist. Bei induktiven Kategorienentwicklungen wird man die Übereinstimmung "händisch" nach Ähnlichkeit einschätzen, da die genauen Kategorienformulierungen sprachlich variieren können. Das Ziel der qualitativen Inhaltsanalyse ist damit klar geworden: die systematische, fragestellungs- und theoriegeleitete Auswertung von Textmaterial aus beispielsweise offenen Interviews, offenen Fragebögen, Beobachtungen oder Dokumenten für empirische Studien mit auch größeren Stichproben. [27]

5. Ausblick und Weiterentwicklungen

Die wesentlichen Weiterentwicklungen der qualitativen Inhaltsanalyse durch unsere Arbeitsgruppe in den letzten Jahren (FENZL & MAYRING 2017; MAYRING & FENZL 2019) waren der Systematisierung der einzelnen Techniken, der theoretischen Fundierung der inhaltsanalytischen Regeln und der Entwicklung einer speziell für qualitative Inhaltsanalyse geeigneten Software gewidmet. Gerade in diese letzte Richtung gehen auch die weiteren Bemühungen. Eine spezielle Software (neben den bisherigen Ansätzen computerunterstützter qualitativer Analyse (Computer Assisted Qualitative Data Analysis Software [CAQDAS], siehe z.B. KUCKARTZ, GUNENBERG & DRESING 2007) wurde notwendig, da die einzelnen Ablaufschritte der qualitativen Inhaltsanalyse in gängigen Programmen nur schwer umsetzbar sind. So ist es beispielsweise schwierig, die zentralen inhaltsanalytischen Regeln (Kategoriendefinition, Abstraktionsniveau, Kodierleitfaden) laufend neben der Auswertung einsichtig zu halten. Dies ginge nur eingeschränkt mit der Memo-Funktion in MAXQDA, die eigentlich zur Grounded-Theory-Methodologie gehört. Eine Tabellenschreibweise, für Zusammenfassung und Kodierleitfaden zentral, gelingt nur unzureichend. Wir haben deshalb ein eigenes Softwareprogramm QCAmap (FENZL & MAYRING 2017; MAYRING 2014) entwickelt, das folgende Vorteile bietet:

  • kostenfreie Nutzung;

  • interaktiv durch die einzelnen Schritte der Inhaltsanalyse führend;

  • Voreinstellungen für die einzelnen Techniken wie Zusammenfassung, induktive Kategorienentwicklung und deduktive Kategorienanwendung;

  • Voreinstellungen für die einzelnen festzulegenden Analyseeinheiten und inhaltsanalytischen Regeln;

  • laufende Pflege und Weiterentwicklung als Webapplikation;

  • interaktives Arbeiten mehrerer Auswerter_innen, auch für Interkodervergleiche;

  • ein Handbuch (MAYRING 2014) im kostenfreien Download. [28]

Durch den interaktiven Charakter des Programms wird sichergestellt, dass die wesentlichen Schritte der qualitativen Inhaltsanalyse auch tatsächlich vollzogen werden. Das Programm ist bisher in mehr als fünfzehntausend Projekten seit 2013 eingesetzt worden. Hier ist für das Jahr 2019 eine Überarbeitung mit neuen Möglichkeiten geplant. Ein Zukunftsprojekt wäre auch die Einbindung von Videoanalysen. [29]

Gerade wegen ihrer Zwischenstellung zwischen qualitativer und quantitativer Analyse erscheint die qualitative Inhaltsanalyse als wichtiger methodischer Ansatzpunkt, in Forschungsprojekten nicht nur Messungen und numerische Daten aus standardisierten Interviews, Fragebögen, Beobachtungssystemen oder Testinstrumenten einzubinden, sondern auch offene Befragungen und Beobachtungen zu berücksichtigen, die dabei anfallenden Texte aber möglichst systematisch, fragestellungsgeleitet, theoriegeleitet und regelgeleitet auszuwerten. [30]

Literatur

Altheide, David L. (1996). Qualitative media analysis. Thousand Oaks, CA: Sage.

Berg, Bruce L. (2004). Qualitative research methods for the social sciences (5. Aufl.). Boston: Pearson.

Carrera-Fernandez, Maria Jesus; Guardia-Olmos, Joan & Pero-Ceborella, Maribel (2014). Qualitative methods of data analysis in psychology: An analysis of the literature. Qualitative Research, 14, 20-36.

Ericsson, K. Anders & Simon, Herbert A. (1999). Protocol analysis. Verbal reports as data (3. Aufl.). Cambridge, MA: MIT Press.

Fenzl, Thomas & Mayring, Philipp (2017). QCAmap: eine interaktive Webapplikation für Qualitative Inhaltsanalyse. Zeitschrift für Soziologie der Erziehung und Sozialisation ZSE, 37, 333-340.

Gläser, Jochen & Laudel, Grit (2009). Experteninterviews und qualitative Inhaltsanalyse als Instrumente rekonstruierender Untersuchungen (3. Aufl.). Wiesbaden: VS Verlag für Sozialwissenschaften.

Groeben, Norbert & Rustemeyer, Ruth (1995). Inhaltsanalyse. In Eckart König & Peter Zedler (Hrsg.), Bilanz qualitativer Forschung. Band II: Methoden (S.523-554). Weinheim: Deutscher Studien Verlag.

Hsie, Hsiu-Fang & Shannon, Sarah E. (2005). Three approaches in qualitative analysis. Qualitative Health Research, 15, 1277-1288.

Hussy, Walter; Schreier, Margrit & Echterhoff, Gerald (2010). Forschungsmethoden in Psychologie und Sozialwissenschaften. Heidelberg: Springer.

Krippendorff, Klaus (2018). Content analysis: An introduction to its methodology (4. Aufl.). Thousand Oaks, CA: Sage.

Kuckartz, Udo (2012). Qualitative Inhaltsanalyse. Methoden, Praxis, Computerunterstützung. Weinheim: Beltz Juventa.

Kuckartz, Udo (2014). Qualitative text analysis. A guide to methods, practice & using software. London: Sage.

Kuckartz, Udo; Grunenberg, Heiko & Dresing, Thorsten (Hrsg.) (2007). Qualitative Datenanalyse: computergestützt (2. Aufl.). Wiesbaden: VS Verlag für Sozialwissenschaften.

Lamnek, Siegfried (1989). Qualitative Sozialforschung. Band 2: Methoden und Techniken. Weinheim: Beltz.

Mandl, Heinz (1981). Zur Psychologie der Textverarbeitung. Ansätze, Befunde, Probleme. München: Urban & Schwarzenberg.

Mayring, Philipp (2007). Über "gute" und "schlechte" qualitative Sozialforschung. Erwägen, Wissen, Ethik, 18, 251-253.

Mayring, Philipp (2010a). Design. In Günter Mey & Katja Mruck (Hrsg.), Handbuch qualitative Forschung in der Psychologie (S.225-237). Wiesbaden: VS Verlag für Sozialwissenschaften.

Mayring, Philipp (2010b). Qualitative Inhaltsanalyse. In Günter Mey & Katja Mruck (Hrsg.), Handbuch qualitative Forschung in der Psychologie (S.601-613). Wiesbaden: VS Verlag für Sozialwissenschaften.

Mayring, Philipp (2014). Qualitative content analysis. Theoretical foundation, basic procedures and software solution, http://nbn-resolving.de/urn:nbn:de:0168-ssoar-395173 [Zugriff: 1. Januar 2019].

Mayring, Philipp (2015). Qualitative Inhaltsanalyse. Grundlagen und Techniken (12. überarb. Aufl.). Weinheim: Beltz.

Mayring, Philipp & Fenzl, Thomas (2019). Qualitative Inhaltsanalyse. In Nina Baur & Jörg Blasius (Hrsg.), Handbuch Methoden der empirischen Sozialforschung (2. Auflage, Band 1) (S.633-648). Wiesbaden: Springer VS.

Mayring, Philipp & Gläser-Zikuda, Michaela (Hrsg.). (2008). Die Praxis der Qualitativen Inhaltsanalyse (2. Auflage). Weinheim: Beltz.

Meier, Augustine; Boivine, Micheline & Meier, Molisa (2008). Theme-analysis: Procedures and application for psychotherapy research. Qualitative Research in Psychology, 5, 289-310.

Michalos, Alex C. (1985). Multiple discrepancies theory (MDT). Social Indicators Research, 16, 347-413.

Murphy, Gregory L. (2002). The big book of concepts. Cambridge, MA: MIT Press.

Neuendorf, Kimberly A. (2002). The content analysis guidebook. Thousand Oaks, CA: Sage.

Oevermann, Ulrich (2004). Manifest der objektiv hermeneutischen Sozialforschung. In Jurij Fikfak, Frane Adam & Detlef Garz (Hrsg.), Qualitative research. Different perspectives, emergent trends (S.101-134). Ljubljana: Založba.

Reichertz, Jo (2007). Qualitative Sozialforschung – Ansprüche, Prämissen, Probleme. Erwägen, Wissen, Ethik, 18, 195-208.

Schreier, Margrit (2012). Qualitative content analysis in practice. London: Sage.

Schreier, Margrit (2014). Varianten qualitativer Inhaltsanalyse. Ein Wegweiser im Dickicht der Begrifflichkeiten. Forum Qualitative Sozialforschung / Forum Qualitative Social Research, 15(1), Art. 18, http://dx.doi.org/10.17169/fqs-15.1.2043 [Zugriff: 1. Januar 2019].

Stamann, Christoph; Janssen, Markus & Schreier, Margrit (2016). Qualitative Inhaltsanalyse – Versuch einer Begriffsbestimmung und Systematisierung. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 17(3), Art. 16, http://dx.doi.org/10.17169/fqs-17.3.2581 [Zugriff: 1. Januar 2019].

Stone, Phillip J. (1997). Thematic text analysis: New agendas for analyzing text content. In Carl W. Roberts (Hrsg.), Text analysis for the social sciences. Methods for drawing statistical inferences from texts and transcripts (S.35-54). Mahwah, NJ: Erlbaum.

Titscher, Stefan; Meyer, Michael; Wodak, Ruth & Vetter, Eva (2000). Methods of text and discourse analysis. London: Sage.

Ulich, Dieter; Hausser, Karl; Mayring, Philipp; Strehmel, Petra; Kandler, Maya & Degenhardt, Blanca (1985). Psychologie der Krisenbewältigung. Eine Längsschnittuntersuchung mit arbeitslosen Lehrern. Weinheim: Beltz.

Zum Autor

Philipp MAYRING war bis zu seiner Pensionierung 2018 Professor für Psychologische Methodenlehre, Leiter der Abteilung für Angewandte Psychologie und Methodenforschung sowie Leiter des Zentrums für Evaluation und Forschungsberatung ZEF an der Alpen-Adria Universität Klagenfurt (Österreich). Er leitet jetzt den Verein zur Förderung Qualitativer Forschung-Association for Supporting Qualitative Research (ASQ) in Klagenfurt. Seine Forschungsschwerpunkte liegen im Bereich qualitative Inhaltsanalyse, Mixed Methods und angewandte Psychologie.

Kontakt:

Philipp Mayring

Verein zur Förderung Qualitativer Forschung ASQ
Mössingerstr. 19, 9020 Klagenfurt, Österreich

E-Mail: philipp.mayring@qualitative-content-analysis.org
URL: https://philipp.mayring.at/

Zitation

Mayring, Philipp (2019). Qualitative Inhaltsanalyse – Abgrenzungen, Spielarten, Weiterentwicklungen [30 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 20(3), Art. 16, http://dx.doi.org/10.17169/fqs-20.3.3343.



Copyright (c) 2019 Philipp Mayring

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.