Volume 17, No. 2, Art. 21 – Mai 2016



Rezension:

Thorsten Dresing, Thorsten Pehl & Christian Spengler

Susanne Fuß & Ute Karbach (2014). Grundlagen der Transkription. Eine praktische Einführung. Opladen & Toronto: UTB; 124 Seiten; ISBN 978-3-8252-4185-8; 12,99€

Zusammenfassung: Die Autorinnen Susanne FUẞ und Ute KARBACH haben wiederkehrende Fragen gebündelt, die ihnen im Laufe ihrer Praxistätigkeit sowohl als Transkribierende als auch als Lehrende begegnet sind. Diese haben sie mit den 2014 erschienenen "Grundlagen der Transkription" fachgerecht aufbereitet. In neun nicht zwingend aufeinander aufbauenden Kapiteln stellen sie einen gut fundierten Überblick über die wichtigsten Aspekte (sozial-) wissenschaftlicher Transkriptionsprozesse dar. Dazu haben sie ein modulares System an Regeln erarbeitet und bieten damit Hilfestellung vor allem für wissenschaftliches Personal und Studierende, die neu auf diesem Gebiet sind. Eher erfahrenen Lesenden wird dieses Werk wenig neue Erkenntnisse vermitteln, allerdings bietet es eine sehr gute modulare Strukturierung methodischer Entscheidungen im Transkriptionsprozess. Über die behandelten Themen hinaus werden keine weiterführenden Literaturverweise gegeben. Das Buch liefert eine klare Gliederung der behandelten Grundaspekte, eine verständliche Ausdrucksweise und aufgrund der vielen Beispiele einen guten Einstieg ins Thema. Für zukünftige Auflagen wären Ergänzungen zu damit verbundenen Bereichen wie z.B. der Interviewführung und eine stärkere Einbettung in den sozialwissenschaftlichen Methodendiskurs wünschenswert. Auch der Blick über den deutschsprachigen Diskurs könnte kommende Auflagen um wichtige Aspekte erweitern.

Keywords: Transkription; Transkribieren; qualitative Sozialforschung; Grundlagen; Einführung

Inhaltsverzeichnis

1. Einleitung

2. Vorstellung der Inhalte

2.1 Was ist ein Transkript und wie komme ich dazu? Regeln, Systeme, Aufbau und Formalia

2.2 Welche Ausstattung benötige ich für Transkription am Computer? Technische Aspekte

2.3 Was gilt es rechtlich zu beachten? Anonymisierung, Datenschutz und Datensicherheit

2.4 Wie gehe ich mit speziellen sprachlichen Phänomenen um? Praxistipps

3. Diskussion und Kontextualisierung

4. Fazit

Literatur

Zu den Autoren

Zitation

 

1. Einleitung

Mit "Grundlagen der Transkription" stellen Susanne FUẞ und Ute KARBACH eine praktische Einführung in den (sozial-) wissenschaftlichen Transkriptionsprozess vor. In neun Kapiteln, die als thematische Einheiten auch für sich gelesen werden können und nicht unbedingt auf die vorherigen Ausführungen angewiesen sind, vermitteln sie einen gut fundierten Ein- und Überblick über die wichtigsten Aspekte der Transkription: über formale Aspekte wie z.B. die Gestaltung und der Aufbau eines Transkriptes bis hin zu Themen, die auf den ersten Blick nicht offensichtlich erscheinen, z.B. der sichere Umgang mit Daten und Transkripten, Datenschutz und Datensicherheit, also Aspekte die gerade in Zeiten der zunehmenden Technisierung und Digitalisierung verschiedener Lebensbereiche auch die Arbeit Studierender und wissenschaftlich tätiger Personen vermehrt betreffen. Dabei richten sie sich explizit an wissenschaftliches Personal und Studierende, die neu auf diesem Gebiet sind, und können hierbei auf eigene Erfahrungen ihrer Praxistätigkeit sowohl als Transkribierende als auch Lehrende zurückgreifen. Das eigentliche Kernstück des Buches stellt aber das von ihnen entwickelte modulartige Transkriptionssystem dar, in dem sie ein breites Spektrum möglicher verbaler und nonverbaler Phänomene zu sinnvollen Modulen komprimieren. Anhand vieler Beispiele erläutern sie diese Module und bieten Entscheidungshilfen für deren optimalen Umfang und Einsatz an. [1]

Im Folgenden wird zunächst der Inhalt des Buches ausführlicher besprochen. Im Anschluss unternehmen wir den Versuch, mithilfe des vorgestellten Buches und der darin behandelten Themen durch eine Kontextualisierung unter dem Aspekt "Wissenschaftliches Arbeiten im 21. Jahrhundert" eine weiterführende Diskussion über Chancen und Risiken der Digitalisierung der Hilfsmittel und Arbeitsweisen anzustoßen. [2]

2. Vorstellung der Inhalte

Die neun Kapitel des Buches lassen sich zu vier Themenschwerpunkten zusammenfassen. Der erste Schwerpunkt beschreibt das direkte Wechselspiel zwischen Transkription und Transkript, stellt Systeme und Regeln vor und gibt Hinweise auf eine sinnvolle formale Gestaltung. Dies skizzieren wir in Abschnitt 2.1. Dann werden die eher indirekten, technischen Aspekte besprochen, z.B. Fragen zur Aufnahme und Qualität sowie der Einsatz von verschiedenen Software-Lösungen zur Transkriptionsunterstützung (Abschnitt 2.2). Der dritte Themenschwerpunkt umfasst eher rechtliche Fragen von Anonymisierung und Datenschutz, gibt aber auch Hilfestellung zum sicheren Umgang mit Daten (Abschnitt 2.3). Im vierten Abschnitt werden abschließend noch einige praktische Tipps zur Hilfe bei der Transkription behandelt (Abschnitt 2.4). [3]

2.1 Was ist ein Transkript und wie komme ich dazu? Regeln, Systeme, Aufbau und Formalia

Die ersten sechs Kapitel des Buches gehen der Frage nach, was eigentlich genau ein Transkript ausmacht und wie man dorthin gelangt. FUß und KARBACH stellen dazu drei Arten von Transkripten sowie ihre Grenzen vor – das zusammenfassende, das journalistische und das wissenschaftliche Transkript. Die Autorinnen beziehen sich im Weiteren explizit auf wissenschaftliche Transkription. Das wesentliche Unterscheidungsmerkmal machen sie im zunehmenden Grad der Detailgenauigkeit sowie Komplexität und Zeitaufwand aus. Als Ausgangspunkt für die Analyse solle das fertige Transkript eine möglichst exakte und detailreiche Verschriftlichung darstellen und gleichzeitig den Kriterien der Nachvollziehbarkeit und Transparenz gerecht werden. Andererseits sollten die dafür notwendigen Regeln zu einem gewissen Grad der Vereinheitlichung führen, relativ leicht anwendbar und auch erlernbar sein. Diese drei Ziele – also: Nachvollziehbarkeit, Einheitlichkeit und Erlernbarkeit – erforderten ein verständliches, festgelegtes Repertoire an Zeichen, das die je interessierenden Phänomene gut darstelle. [4]

Bisher seien verschiedene Regelsysteme formuliert worden, die jeweils an konkrete Forschungsvorhaben angepasst würden. FUẞ und KARBACH stellen hierzu drei aus den Sozialwissenschaften stammende Regelsysteme zur Verdeutlichung kontrastierend gegenüber. Anstatt der dort vorgenommenen Formulierung allgemeiner Standards zur Transkription unternehmen die Autorinnen den Versuch, mögliche auftretende und zu transkribierende Phänomene zu acht sinnvollen Modulen zu bündeln, welche je nach Forschungskontext gegenstandsangemessen ausgewählt und angewandt werden können. Auch hierbei verhält es sich wieder so, dass mit zunehmender Zahl an ausgewählten Modulen einerseits die Detailgenauigkeit, andererseits aber auch die Komplexität des Transkriptes steigt. Die Module sind allerdings leicht verständlich und anhand vieler Anwendungsbeispiele beschrieben, sodass insgesamt ein guter Eindruck über die mögliche Anwendung vermittelt wird. [5]

Verkürzt zusammengefasst behandeln die Module folgende Entscheidungen:

  • Sprachglättung: Wie transkribiert man Umgangssprache und Dialekt?

  • Pausen: Wie werden Sprechpausen und Zögern gekennzeichnet?

  • Sprachklang: Wie werden Betonung oder Lautstärke gekennzeichnet?

  • Lautäußerungen: Welche Laute werden wie erfasst? Werden auch Zögerungslaute wie z.B. "ähm" erfasst?

  • Wortabbrüche und Verschleifungen: Wie werden Passagen geschrieben, die unvollständig oder grammatikalisch inkorrekt ausgesprochen werden?

  • Nicht-sprachliche Ereignisse: Wie werden Husten, Telefonklingeln und ähnliche Ereignisse notiert?

  • Interaktion: Wie wird festgehalten, ob/wann GesprächspartnerInnen gleichzeitig sprechen?

  • Unsicherheit, Unterbrechung und Auslassung: Wie wird mit unverständlichen Passagen oder unbekannten Fremdwörtern umgegangen? Gibt es Situationen, die nicht transkribiert werden? [6]

Es fehlt nach unserer Erfahrung beim Modul "Sprachklang" (FUẞ & KARBACH, S.43ff.) die Thematisierung der Zeichensetzung. Die Unterscheidung zwischen Punkt, Frageintonation und Komma ist nicht unbedingt eindeutig "hörbar" bzw. ein entsprechend linguistisch ausgerichtetes Transkript nicht ohne Schulung erstellbar. Ebenso fehlt die Thematisierung des Umgangs mit fremdsprachlichen Transkripten (vgl. hierzu KRUSE, BETHMANN, NIERMANN & SCHMIEDER 2012). [7]

Aufgefallen ist uns, dass z.B. das Modul "Sprachglättung" (FUẞ & KARBACH, S.38-42) einen zu vereinfachenden Eindruck der zugrundeliegenden Problematik, nämlich der Manipulation von Sinn und Inhalt, vermittelt. Aus einer Audioaufnahme lassen sich beispielsweise nur noch schwer Daten über Gestik und Mimik ableiten, daher verliert man hierbei viele Informationen und Bedeutungsebenen. Ebenso verhält es sich auch bei der Umschreibung von Dialekten in Umgangs- bzw. Hochsprache: Dialektale Begriffe lassen sich häufig nicht außerhalb ihres Konzeptionssystem synonym in Hochsprache übersetzen. [8]

Sehr gut lässt sich dies z.B. an mundartlichen Kraftausdrücken darstellen. Während der sogenannte "schwäbische Gruß", also ein "legg me am Arsch", im dortigen Sprachgebrauch eine regional gebräuchliche Formulierung darstellt, um z.B. eine übertriebene Forderung abzuweisen und ein Gespräch zu beenden, verhält es sich in anderen Sprachregionen wahrscheinlich anders. Ein in Hochdeutsch übertragenes und damit seines sprachlichen Kontextes beraubtes "leck' mich am Arsch" könnte im fertigen Transkript dann fälschlicherweise als Beleidigung interpretiert werden. [9]

Das eigentliche Problem, das man ggf. durch die Übersetzung in "das Hochdeutsche" zu lösen versucht, ist die Tatsache, dass es keine verallgemeinerbaren Regeln zum Verschriftlichen von Dialekten gibt. Konsequenterweise müsste man für stark dialektal gefärbte Sprache eine Transkription in Lautschrift vorschlagen, was allerdings eine entsprechende phonetische Schulung voraussetzt und sich stark auf die Lesbarkeit des Transkriptes auswirkt. Die Entscheidung, Mundart im Original zu transkribieren, bürdet linguistisch ungeschulten Transkribierenden eine enorme Arbeitsleistung und einen kreativen Spielraum auf, was nicht im Sinne eines transparenten und nachvollziehbaren Transkriptionssystems liegen kann. [10]

Die Autorinnen gehen selbst kurz auf die Problematik ein, dass durch die Transkription einer Gesprächssituation auch eine Transformation der Daten stattfindet (S.25f. "Die Grenzen eines Transkriptes"). Wünschenswert wäre es, die möglichen Implikationen dieser "selektiven Konstruktion" und die damit verbundene De- und Re-Kontextualisierung durch die Forschenden für den Forschungsprozess zu behandeln, z.B. die mögliche Missinterpretation von ironischen Aussagen bei fehlender Kennzeichnung etwa der Sprachmelodie. [11]

Allerdings erheben die beiden Autorinnen keinen Anspruch auf die Vollständigkeit des modularen Systems und betonen, dass dieses mit weiteren Elementen ausgebaut werden könne. Die neue, sehr systematische Aufbereitung der methodischen Entscheidungen im Transkriptionsprozess durch FUẞ und KARBACH weckt jedoch bei uns den Wunsch nach einer stärkeren methodischen Einbindung und Problematisierung. So würde der Beitrag über einen reinen Einstieg hinaus eher auch seinem Anspruch eines "Grundlagen"-Buches (wie im Titel genannt) gerecht. So wird z.B. in den Sprachwissenschaften und auch Sprachphilosophie schon länger darüber debattiert, inwieweit eine Transformation von Sprache und Texten auch deren Inhalt verändert (vgl. z.B. WERLEN 2002 oder WHORF 2008 [1984]). Diese und ähnliche Diskurse können verständlicherweise nicht umfassend in solch einem Werk abgehandelt werden. Sie könnten aber (wenn auch nur als weiterführende Verweise) zu einem differenzierteren Verständnis der Problematik beitragen, und so auch erfahreneren Lesenden neue Perspektiven eröffnen. [12]

Wertvolle Anknüpfungspunkte könnten beispielsweise aus "Transcription as Theory" von Elinor OCHS entnommen werden. OCHS hat bereits 1979 darauf hin gewiesen, dass Transkripte keine objektiven Datenquellen darstellen, sondern durch die Transkribierenden, gestützt durch explizite und implizite theoretische Annahmen, konstruiert werden, und dass die Art der Konstruktion und deren Darstellung den späteren Analyseprozess und damit auch die Resultate wesentlich beeinflussen. [13]

Eine weitere aufschlussreiche Arbeit wäre der Aufsatz von Christina DAVIDSON "Transcription: Imperatives for Qualitative Research" (2009). Sie untersucht darin in einer Metastudie 46 englischsprachige Artikel und 30 Buchkapitel zum Thema Transkription im Zeitraum von 1979 bis 2009 und erarbeitet die Gemeinsamkeiten und Unterschiede in den epistemologischen Annahmen verschiedener Disziplinen und Theorien. Neben den auch von FUẞ und KARBACH angesprochenen theoretischen, selektiven und transformativen Aspekten der Transkription gestalten laut DAVIDSON unter anderem auch noch interpretative, reflexive und repräsentative Elemente diesen Prozess wesentlich mit. [14]

Bezüglich der konkreten Auswahl und Anwendung der Module äußern sich FUẞ und KARBACH leicht widersprüchlich. Einerseits raten sie dazu, im Zweifelsfall eher möglichst ausführlich zu transkribieren. Andererseits schreiben sie z.B.: "Liegt der Fokus der Auswertung auf der Inhaltsebene, so kann das Regelsystem der Transkription gegebenenfalls reduziert werden" (S.57). Dies impliziert, dass es so etwas wie eine einheitliche Inhaltsebene gibt. Gerade die Diskussion und Definition der Frage, was denn "der Inhalt" eines Sprachaktes sei, kann aber als Basisaufgabe und Auseinandersetzung vieler qualitativer Verfahren angesehen werden, so z.B. die Unterscheidung zwischen latentem und manifestem Sinn bei OEVERMANN, ALLERT, KONAU und KRAMBECK (1979) oder zwischen Objektsinn und dokumentarischem Sinngehalt bei MANNHEIM (1964 [1931]). [15]

Pauschale Formulierungen an dieser Stelle könnten gerade bei Unerfahrenen einen vereinfachten Eindruck erwecken. Deshalb halten wir es für wichtig, Entscheidungen zur Transkription auch immer im Gesamtzusammenhang des jeweiligen Forschungsinteresses zu verstehen. Die beschriebene Problematik der Offenheit vs. Arbeitspragmatik ist unauflösbar mit dem Prozess der Transkription verbunden. Vereinfachende Ratschläge tragen leider dazu bei, diese Problematik zu verschleiern, statt sie ins Zentrum der eigenen Reflexion zu stellen. [16]

Auch wenn einige Stellen weiter ausgeführt werden könnten, so liefern die von FUẞ und KARBACH dargestellten Aspekte dennoch genügend Informationen und Anreize, um zu vermitteln, dass die Form der Transkription methodische Entscheidungen beinhaltet, und sie ermöglichen einen fundierten Überblick über die anstehenden Themen (Module). [17]

2.2 Welche Ausstattung benötige ich für Transkription am Computer? Technische Aspekte

Kapitel 7 beschäftigt sich mit der Frage nach der technischen Ausstattung und den technischen Möglichkeiten der Transkription. Dabei geht es unter anderem um die Wichtigkeit einer möglichst guten und störungsfreien Qualität der Aufnahme sowie den Einsatz von verschiedenen Software-Lösungen zur Nachbearbeitung und Transkriptionsunterstützung. Besonders zu erwähnen ist an dieser Stelle die von FUẞ und KARBACH aufgestellte "Checkliste: Störungsfreie Aufnahme". Die dabei behandelten Probleme sind meist spezieller Art, aber gerade so allgemeine und vermeintlich unbedeutende Aspekte wie ein vergessenes Kabel oder ein nicht geladener Akku können ein noch so gut durchgeplantes Forschungsvorhaben frühzeitig ins Wanken bringen. [18]

Ein kurzer Abschnitt beschäftigt sich mit Software zur Nachbearbeitung von Aufnahmen und benennt gängige Funktionen. Ähnlich verhält es sich mit Software zur Unterstützung der eigentlichen Transkription. Einige wenige Programme werden beispielhaft angeführt und die Vorteile der Funktionen einer solchen Software im Vergleich zur Arbeit mit gewöhnlichen Mediaplayern und Textverarbeitungsprogrammen dargestellt. Auf eine ausführliche Gegenüberstellung der Programme oder Anwendungsbeispiele wurde verzichtet. [19]

Auch hinsichtlich des Einsatzes und Nutzens von Spracherkennungssoftware äußern sich die Autorinnen. Diese sei beim derzeitigen technischen Stand nicht ausgereift, um gesprochene Sprache, vor allem Umgangssprache von unterschiedlichen SprecherInnen, verlässlich in Textform wiederzugeben. Da sich die Technologie stetig weiterentwickelt, könne die Frage bezüglich eines sinnvollen Einsatzes von Spracherkennungssoftware nicht abschließend geklärt werden. In einer solchen Feststellung lässt sich jedenfalls erkennen, dass die Hoffnung auf eine technische Lösung zur Transkription besteht, die aktuell leider (immer) noch nicht erfüllt werden kann (vgl. DRESING, PEHL & LOMBARDO 2008). [20]

2.3 Was gilt es rechtlich zu beachten? Anonymisierung, Datenschutz und Datensicherheit

Das achte Kapitel befasst sich mit den wichtigen Themen der Anonymisierung, des Datenschutzes und der Datensicherheit. Als Argumentationsgrundlage beziehen sich die Autorinnen hierfür u.a. auf das Bundesdatenschutzgesetz (BDSG) sowie das durch das Persönlichkeitsrecht im Grundgesetz geschützte Recht auf informationelle Selbstbestimmung. FUẞ und KARBACH stellen einige Strategien für die Maskierung bzw. Anonymisierung von sensiblen oder personenbezogenen Daten vor. Sie verweisen an dieser Stelle auch auf die Zusammenarbeit mit externen Dienstleistenden bspw. zur Transkription und beschreiben weiterhin relevante Faktoren, die einen sicheren Umgang mit (sensiblen) Daten sowie deren Schutz, zumindest ansatzweise, gewährleisten sollen. Dabei machen sie gleichzeitig auf einen wichtigen Punkt aufmerksam, nämlich dass Datenschutz nicht primär die "Daten schützt", sondern dieser Schutz der Wahrung des Grundrechts auf informationelle Selbstbestimmung der untersuchten Personen dient, deren Informiertheit und Einverständnis insoweit Voraussetzung für Forschung ist. [21]

Dies ist umso bemerkenswerter, wenn man bedenkt, dass die kommende(n) Generation(en) an wissenschaftlichem Nachwuchs als "Digital Natives" vielleicht gar nicht mehr primär auf die Idee kommen, "offline" mit Karteikarten, Akten und abschließbaren Schränken zu arbeiten, sondern sich vorzugsweise digital organisieren. Wenn man weiterhin bedenkt, dass Rechner nicht unbedingt trennscharf ausschließlich für Arbeit/Forschung und Privates genutzt werden, sondern vielleicht abwechselnd für verschiedene Zwecke Einsatz finden, gewinnt dieses Thema noch mehr an Bedeutung. Gerade deshalb erachten auch wir es für wichtig, dass nicht nur auf einen sorgsamen Umgang mit Daten, analog oder digital, seien sie profan oder auch noch so sensibel, Wert gelegt wird, sondern dass dieser Umgang auch adäquat gelehrt und vermittelt wird. Einen ausführlichen Überblick über die rechtliche Situation in Deutschland liefert hierfür z.B. der 2015 von Tobias GEBEL et al. publizierte Artikel "Verboten ist, was nicht ausdrücklich erlaubt ist. Datenschutz in qualitativen Interviews". [22]

FUẞ und KARBACH geben auch Hinweise zur Wahl von sicheren Passwörtern und verweisen auf Software zum sicheren Versenden von Dateien und E-Mails und zum sicheren Löschen von Dateien. Hier wäre ggf. eine Hilfestellung zur Einrichtung – bzw. ein Verweis auf entsprechende Quellen – sinnvoll gewesen, da gerade eher unerfahrene Personen z.B. die Verschlüsselung von E-Mails unter Umständen nicht so einfach realisieren können. Wir vermuten, dass dies mit ein Grund ist, warum sich dieses Verfahren in der Praxis bisher nicht etabliert hat. [23]

In einer Passage zum sicheren Löschen lassen sich FUẞ und KARBACH von der Fehlannahme leiten, dass nicht ordnungsgemäß gelöschte Dateien zwar noch auf der Festplatte verbleiben, aber "für den Laien unerreichbar" seien (S.105): Auch für LaiInnen ist die Wiederherstellung von gelöscht-geglaubten Daten denkbar einfach geworden. Neuere Programme führen durch den Wiederherstellungsprozess, sodass nach kurzer Internetrecherche und einigen Mausklicks gelöschte Dateien wieder sichtbar werden. [24]

Insgesamt liefert dieses Kapitel wenn auch etwas knapp nicht nur Unerfahrenen wichtige Anregungen für die Reflektion der eigenen Arbeitsweise. Dabei bezieht sich die Bedeutung des Themas Datensicherheit über die Transkription hinaus auf alle Arbeitsphasen von Erhebung, Speicherung, Archivierung, Analyse bis zur Weitergabe der Daten (z.B. im Team) und sollte entsprechend ernst genommen und berücksichtigt werden sollte. [25]

2.4 Wie gehe ich mit speziellen sprachlichen Phänomenen um? Praxistipps

Am Ende des Buches gehen FUẞ und KARBACH noch einmal der Frage nach, wie man mit bestimmten sprachlichen Besonderheiten am besten umgehen kann und stellen eine Zusammenstellung nützlicher Tipps zum Umgang mit Zahlen, Abkürzungen und Ähnlichem vor. Hier erwähnen FUẞ und KARBCH den Umgang mit Phänomenen, die in Transkriptionssystemen meist nicht erwähnt werden, jedoch im Transkriptionsprozess vor allem bei AnfängerInnen Fragen aufwerfen könnten. Wie sollen Zahlen geschrieben werden? "Vier" oder "4"? Wie werden Abkürzungen transkribiert, gesprochene Einzelbuchstaben und Satzzeichen, fehlerhafte Ausdrücke oder Anglizismen? Die Beispiele und Erklärungen sind sehr anschaulich, allerdings ist dieser Teil im Vergleich zu den anderen Kapiteln relativ kurz und ließe sich durchaus mit zusätzlichen Beispielen erweitern. Denkbar wären z.B. noch Hinweise zu nicht-englischen fremdsprachlichen Begriffen, dem Umgang mit NichtmuttersprachlerInnen, Forschung im Ausland bzw. weiterführende Hinweise zur Transkription von fremdsprachlichem Datenmaterial. [26]

Im Anhang werden außerdem neben einer zusammengefassten Übersicht der Module noch verschiedene Muster-Vorlagen bereitgestellt. Eine auf Seite 102 erwähnte "Muster-Vertraulichkeitsvereinbarung" ist allerdings leider nicht abgedruckt. [27]

3. Diskussion und Kontextualisierung

Mit dem hier vorgestellten Buch "Grundlagen der Transkription" geben die beiden Autorinnen Susanne FUẞ und Ute KARBACH den Lesenden ein Werkzeug zur Hand, das es mit dieser Zielsetzung und Systematik bisher noch nicht gegeben hat. Das "Praxisbuch Interview, Transkription & Analyse" (DRESING & PEHL 2015) ist zwar auch an EinsteigerInnen gerichtet, formuliert jedoch ein eigenes, bewusst einfach gestaltetes Transkriptionssystem. Norbert DITTMARs "Transkription" (2009 [2002]) ist für linguistisch ausgerichtete Systeme insgesamt deutlich ausführlicher, verbleibt jedoch in der Darstellung stets "innerhalb" etablierter Transkriptionssysteme (vgl. ausführlicher zu DITTMARs Buch KOCH 2003a, 2003b). [28]

Das Werk von Susanne FUẞ und Ute KARBACH liefert einen guten Anstoß für einen reflektierten Blick auf die Transkription, die, wie DAVIDSON es beschreibt, in der methodischen Literatur bisher eher als "taken for granted" (2009, S.37) verstanden wurde. Die Transkription ist als Hilfsmittel für viele qualitative Forschungsvorhaben fast schon ein integraler Bestandteil geworden, eine systematischere Auseinandersetzung erfolgt in deutschsprachigen Veröffentlichungen bisher aber überwiegend in linguistischen Kontexten (z.B. DITTMAR 2009 [2002]; siehe dazu auch KOCH 2003a, 2003b) oder rudimentär in methodischen Lehrbüchern. Zwar gibt es auch hier Ausnahmen, wie z.B. der Beitrag von Christoph VOLPERT "Zur Fixierung von Vergänglichem" (1996): Anhand einer Interviewsituation mit einer stark schwerhörigen Gesprächspartnerin und anschließender Transkription und Analyse skizziert er verschiedene Problembereiche, welche teilweise erst wirklich wahrgenommen werden können, wenn eigene "kommunikative Selbstverständlichkeiten" (S.136) aufgebrochen und reflektiert werden. [29]

In der englischsprachigen Literatur lassen sich zwar einige methodische Reflexionen zur Transkription finden. Beispielhaft sei hier Cindy BIRD (2005) erwähnt, die unter dem Titel "How I Stopped Dreading and Learned to Love Transcription" die positiven Faktoren des mühsamen Transkriptionsprozesses diskutiert, oder der Artikel von Malcolm ASHMORE und Darren REED (2000) über die Beziehungen zwischen Aufnahme und Transkript unter konversationsanalytischer Perspektive. Doch auch für den englischsprachigen Kontext kommt DAVIDSON (2009, S.12) zu dem Schluss, dass der Arbeitsschritt der Transkription hauptsächlich in linguistischen und ethnografischen Forschungskontexten reflektiert werde. [30]

Indem sich FUẞ und KARBACH Entscheidungen im Transkriptionsprozess und dessen Resultaten zuwenden, ist es möglich, ein Verständnis für diesen als methodisches Instrument zu entwickeln und dies wiederum (lehrend) zu vermitteln und zu diskutieren. Dies ist sicher nicht allein im Rahmen einer methodischen Problematisierung möglich, da die Transkription stets im jeweiligen Forschungszusammenhang zu betrachten und an die entsprechenden theoretischen Grundannahmen anzupassen ist. Die Autorinnen beschränken sich insoweit aber, wie es der Untertitel verrät, auf "eine praktische Einführung", auch wenn epistemologische Reflexionen trotzdem eine sinnvolle Ergänzung darstellen würden. [31]

Einschränkend sollte erwähnt werden, dass es in der Literatur auch Standpunkte gibt, die weniger eine solch reflexive und modulare Gestaltung vertreten, sondern eine fachspezifische Standardisierung der Transkription anstreben, so JEFFERSON (1984) in der Konversationsanalyse sowie DU BOIS (1991) oder EHLICH (1993) mit dem HIAT-System in der Diskursanalyse. Nicht in jedem fachlichen Kontext scheint daher eine modulare Zusammenstellung, wie von FUẞ und KARBACH vorgeschlagen, angemessen bzw. erwünscht. [32]

Neben den methodischen Aspekten und damit einhergehenden Entscheidungen werden von FUẞ und KABACH auch arbeitspraktische Fragen thematisiert, die sich speziell aus der Verwendung von digitalen Aufnahmen bzw. Daten ergeben. Durch die "Digitalisierung" der Daten wird einerseits die Datenerhebung erleichtert, andererseits sind zusätzliche ethisch-rechtliche Aspekte der Verwendung, Anonymisierung, Archivierung usw. von Daten zu beachten. Dies trifft insbesondere zu, weil die Nutzung von Computern heute vergleichsweise selbstverständlich ist (S.71f.). Und weil "die in Form von Interviews oder Gruppendiskussionen erhobenen Daten heutzutage vorwiegend in digitalisierter Weise vorliegen … [ist] es sehr komfortabel …, diese per E-Mail oder über digitale Plattformen auszutauschen" (S.103). [33]

Genau hierbei geht es über das Thema der Transkription hinaus um eine Sensibilisierung für die Problematik des "digitales Arbeiten" bzw. darum, Computerverständnis und -nutzung von Forschenden zu thematisieren und zu reflektieren. Etwas allgemeiner gefasst könnte man auch unter der Überschrift: "Digitales Wissenschaftliches Arbeiten" eine weiterführende Diskussion über Chancen und Risiken der Digitalisierung von Hilfsmitteln und Arbeitsweisen anstoßen (siehe hierzu z.B. GIBBS, FRIESE & MANGABEIRA 2002). Denn eine gewisse Analogie zwischen der Transkription, die lange als "taken for granted" bzw. selbstverständlich angesehen wurde, und dem Wandel zu einer zunehmend digital organisierten Arbeitsweise ist nicht von der Hand zu weisen. Erst wenn diese Aspekte benannt, beschrieben und diskutiert werden, können sich ein Verständnis und angemessener Umgang daraus entwickeln. Speziell das Kapitel über "Anonymisierung, Datenschutz und Datensicherheit" in FUẞ und KABACH ist ein wichtiger Beitrag in diese Richtung und liefert diesbezüglich wertvolle Hinweise. [34]

4. Fazit

Die dargestellten Inhalte sind eine gute Ausgangsbasis für die eigene Auseinandersetzung mit der Thematik (nicht nur) für EinsteigerInnen. Der bloße Titel "Grundlagen der Transkription" erscheint vielleicht etwas zu vielversprechend, da für eine grundlegende Beschreibung des Verfahrens auch noch weitere Aspekte zu berücksichtigen wären, etwa eine Thematisierung der jeweiligen methodischen Folgen und mögliche Auswirkungen der jeweiligen Transkriptionsentscheidungen auf den anschließenden Interpretationsprozess. Ebenso wünschenswert wie sinnvoll wäre auch eine ausführlichere Diskussion der mit Transkriptionen einhergehenden epistemologischen Problemstellungen, also z.B. inwieweit und unter welchen Annahmen die Aufzeichnung bzw. Niederschrift auch repräsentativ für das eigentliche Ereignis herangezogen werden kann. Der Titel "Eine praktische Einführung" untertreibt allerdings, da die behandelten Inhalte über die bloße Einführung in die Praxis hinausgehen. Und durch die Konzeption eines modularen Systems und die damit verbundenen Anwendungsregeln und Checklisten liefern die Susanne FUẞ und Ute KARBACH einen wichtigen Beitrag zur Methodenliteratur der qualitativen Sozialforschung und rücken das Verfahren der Transkription als ernstzunehmenden Prozess der Datenaufbereitung ein Stück weiter in den Fokus. [35]

Literatur

Ashmore, Malcolm & Reed, Darren (2000). Innocence and nostalgia in conversation analysis: The dynamic relations of tape and transcript. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 1(3), Art.3, http://nbn-resolving.de/urn:nbn:de:0114-fqs000335 [Datum des Zugriffs: 13. Februar 2016].

Bird, Cindy M. (2005). How I stopped dreading and learned to love transcription. Qualitative Inquiry, 11(2), 226-248.

Davidson, Christina (2009). Transcription: Imperatives for qualitative research. International Journal of Qualitative Methods, 8(2), http://ejournals.library.ualberta.ca/index.php/IJQM/article/view/4205/5401 [Datum des Zugriffs: 28. Januar 2016].

Dittmar, Norbert (2009 [2002]). Transkription. Ein Leitfaden mit Aufgaben für Studenten, Forscher und Laien (3. Aufl.). Wiesbaden: VS.

Dresing, Thorsten & Pehl, Thorsten (2015). Praxisbuch Interview, Transkription & Analyse. Anleitung und Regelsysteme für qualitativ Forschende (6. Aufl.). Marburg: audiotrankription.de, http://www.audiotranskription.de/audiotranskription/upload/Praxisbuch%206.%20Auflage_web.pdf [Datum des Zugriffs: 13. Februar 2016].

Dresing, Thorsten; Pehl, Thorsten & Lombardo, Claudia (2008). Schnellere Transkription durch Spracherkennung? Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 9(2), Art. 17, http://nbn-resolving.de/urn:nbn:de:0114-fqs0802174 [Datum des Zugriffs: 13. Februar 2016].

Du Bois, John W. (1991). Transcription design principles for spoken discourse research. Pragmatics, 1(1), 71-106.

Ehlich, Konrad (1993). HIAT: A transcription system for discourse data. In Jane A. Edwards & Martin D. Lampert (Hrsg.), Talking data: Transcription and coding in discourse research (S.123-148). Hillsdale, NJ: Erlbaum.

Gebel, Tobias; Grenzer, Matthis; Kreusch, Julia; Liebig, Stefan; Schuster, Heidi; Tscherwinka, Ralf; Watteler, Oliver & Witzel, Andreas (2015). Verboten ist, was nicht ausdrücklich erlaubt ist: Datenschutz in qualitativen Interviews. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 16(2), Art. 27, http://nbn-resolving.de/urn:nbn:de:0114-fqs1502279 [Datum des Zugriffs: 28. Januar 2016].

Gibbs, Graham R.; Friese, Susanne & Mangabeira, Wilma C. (2002) (Hrsg.). Technikeinsatz im qualitativen Forschungsprozess. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 3(2), http://www.qualitative-research.net/index.php/fqs/issue/view/22 [Datum des Zugriffs: 1. März 2016].

Jefferson, Gail (1984). Transcription notation. In J. Maxwell Atkinson & John Heritage (Hrsg.), Structures of social interaction (S.ix-xvi). New York: Cambridge University Press.

Koch, Katja (2003a). Rezension zu: Norbert Dittmar (2002). Transkription. Ein Leitfaden mit Aufgaben für Studenten, Forscher und Laien. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 4(1), Art. 21, http://nbn-resolving.de/urn:nbn:de:0114-fqs0301217 [Datum des Zugriffs: 26. Februar 2016].

Koch, Katja (2003b). Appendix zur Rezension: Norbert Dittmar (2002). Transkription. Ein Leitfaden mit Aufgaben für Studenten, Forscher und Laien. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 4(1), Art. 46, http://nbn-resolving.de/urn:nbn:de:0114-fqs0302467 [Datum des Zugriffs: 1. März 2016].

Kruse, Jan; Bethmann, Stephanie; Niermann, Debora & Schmieder, Christian (2012). Qualitative Interviewforschung in und mit fremden Sprachen. Weinheim: Beltz Juventa.

Mannheim, Karl (1964 [1931]). Wissenssoziologie. Neuwied: Luchterhand.

Ochs, Elinor (1979). Transcription as theory. In Elinor Ochs & Bambi B. Schieffelin (Hrsg.), Developmental pragmatics (S.43-72). New York: Academic Press.

Oevermann, Ulrich; Allert, Tilman; Konau, Elisabeth & Krambeck, Jürgen (1979). Die Methodologie einer "objektiven Hermeneutik" und ihre allgemeine forschungslogische Bedeutung in den Sozialwissenschaften. In Hans-Georg Soeffner (Hrsg.), Interpretative Verfahren in den Sozial- und Textwissenschaften (S.352-434). Stuttgart: Metzler.

Volpert, Christoph (1996). Zur Fixierung von Vergänglichem. In Franz Breuer (Hrsg.), Qualitative Psychologie. Grundlagen, Methoden und Anwendungen eines Forschungsstils (S.135-137). Opladen: Westdeutscher Verlag, http://www.qualitative-forschung.de/information/publikation/modelle/breuer/ [Datum des Zugriffs: 1. März 2016].

Werlen, Iwar (2002). Sprachliche Relativität. Eine problemorientierte Einführung. Tübingen: Francke.

Whorf, Benjamin Lee (2008 [1984]). Sprache, Denken, Wirklichkeit. Beiträge zur Metalinguistik und Sprachphilosophie (25. Aufl.). Reinbek: Rowohlt.

Zu den Autoren

Dr. Thorsten DRESING hat in Marburg Pädagogik und Soziologie studiert und an der Philipps-Universität Marburg zum Thema "Entwicklung und Evaluation eines hybriden Onlineseminars zur Textanalyse" promoviert. Hauptberuflich ist er geschäftsführender Gesellschafter der dr. dresing & pehl GmbH – audiotranskription.de und entwickelt die Transkriptions- und QDA-Programme f4, f5 und f4analyse. Freiberuflich ist er seit 2000 Dozent für qualitative Sozialforschung und gibt Workshops zur Transkription, computergestützten Auswertung und qualitativer Inhaltsanalyse.

Kontakt:

Dr. Thorsten Dresing

dr. dresing & pehl GmbH
Deutschhausstraße 22A
D-35037 Marburg

Tel.:+49 (0) 6421 590 979 0

E-Mail: thorsten.dresing@audiotranskription.de
URL: http://www.audiotranskription.de

 

Thorsten PEHL hat in Marburg und Halle (Saale) Pädagogik und Psychologie studiert. Er ist geschäftsführender Gesellschafter der dr. dresing & pehl GmbH – audiotranskription.de und entwickelt Transkriptions- und QDA-Software. Freiberuflich ist er Dozent für qualitative Sozialforschung mit dem Fokus auf qualitativer Inhaltsanalyse und f4analyse.

Kontakt:

Thorsten Pehl

dr. dresing & pehl GmbH
Deutschhausstraße 22A
D-35037 Marburg

Tel.:+49 (0) 6421 590 979 0

E-Mail: thorsten.pehl@audiotranskription.de
URL: http://www.audiotranskription.de

 

Christian SPENGLER, B.A., hat an der Philipps-Universität Marburg Sozialwissenschaften studiert und arbeitet für audiotranskription.de. Seine Arbeits- und Forschungsschwerpunkte sind qualitative Methoden der Sozialforschung, Nutzung und Einfluss von neuen Medien auf Gesellschaft und Wissenschaft, CAQDAS, Datenschutz und -sicherheit, Metaphernanalyse.

Kontakt:

Christian Spengler

c/o dr. dresing & pehl GmbH
Deutschhausstraße 22A
D-35037 Marburg

Tel.:+49 (0) 6421 590 979 0

E-Mail: info@audiotranskription.de
URL: http://www.audiotranskription.de

Zitation

Dresing, Thorsten; Pehl, Thorsten & Spengler, Christian (2016). Rezension: Susanne Fuß & Ute Karbach (2014). Grundlagen der Transkription. Eine praktische Einführung [35 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 17(2), Art. 21,
http://nbn-resolving.de/urn:nbn:de:0114-fqs1602217.



Copyright (c) 2016 Thorsten Pehl, Thorsten Dresing, Christian Spengler

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.