Volume 1, No. 1, Art. 16 – Januar 2000

Von der Text- zur Hypertextanalyse: Konsequenzen für die Qualitative Forschung

Johannes Moes

Zusammenfassung: Während immer mehr Texte über das "World Wide Web" verbreitet und auch zunehmend in der sozialwissenschaftlichen Forschung zum Untersuchungsgegenstand werden, fehlt es an Reflexionen darüber, welche Konsequenzen sich aus dem Wandel vom Text zum Hypertext ergeben. Der Beitrag zeigt einige der Unterschiede auf, die für die qualitative Forschung relevant erscheinen, und strukturiert sie unter dem Aspekt verschwimmender Abgrenzungen.

Keywords: qualitative Forschung, Online-Forschung, Textanalyse, Dokumentenanalyse, Hypertext, World Wide Web, Homepage, Website

Inhaltsverzeichnis

1. Einleitung

2. Empirischer Hintergrund

3. Vom Text zum Hypertext: Verschwimmende Abgrenzungen

4. Ausblick

Anmerkungen

Zum Autor

Zitation

 

1. Einleitung

In den Neunzigerjahren hat das Internet als Informations- und Kommunikationsmedium rasant an Bedeutung gewonnen. Neben der "Killer Application" E-Mail – die Internetanwendung, die bis heute an Zahl und Bedeutung alle anderen Verwendungsformen bei weitem aussticht – ist dies besonders auf die Entstehung und Durchsetzung des World Wide Web (WWW) zurückzuführen. In dem Masse, wie Dokumente im WWW-Standardformat HTML (Hypertext Mark-up Language) veröffentlicht werden, steigt auch die Zahl der Untersuchungen empirischer Sozialforschung, die Quellen dieses Formats berücksichtigen. Leider lässt sich kaum Auseinandersetzung damit finden, welche Konsequenzen ein solcher Wechsel des Formats für Untersuchungen, vor allem im Bereich qualitativer Forschung hat. [1]

Ist ein Hypertext anders zu behandeln, anders zu analysieren als ein herkömmliches Dokument auf Papierbasis? Wo bestehen Unterschiede, wo muss die jeweilige Methode diese berücksichtigen? Eine vorläufige Literaturrecherche zu diesem Gebiet führte im deutschen Sprachraum zu keinem Ergebnis1). Besonders in der Bundesrepublik gibt es eine Auseinandersetzung über "Online Research" (was ein möglicher Oberbegriff für spezifische Forschungsansätze wie der hier diskutierte wäre) bislang vorwiegend im Bereich quantitativer Forschung, als Verdienst einiger unermüdlicher Protagonisten2). Die ausufernd breite Basis von "how to do" Büchern im Bereich Webdesign wurde wegen ihres geringen spezifischen Gewichts für Fragen sozialwissenschaftlicher, qualitativ-empirischer Analyse nicht berücksichtigt. [2]

Dieser Artikel versteht sich also keineswegs als Literaturübersicht und auch nicht als Entwurf einer allgemeinen Theorie, sondern soll lediglich praxisgesättigte Eindrücke wiedergeben, die verschiedene Aspekte einer "Hypertextanalyse" anreißen. Dabei ist eine feinere Differenzierung zwischen den Spezifika jeweiliger qualitativer Textanalysemethoden wie z.B. Diskursanalyse, Inhaltsanalyse, objektive Hermeneutik o.ä. für eine Diskussion wünschenswert, für diesen ersten Schritt der Reflexion allerdings zu vernachlässigen. Meines Erachtens sind die aufgeführten Aspekte weitgehend methodenunspezifisch. Wenn der Artikel zu einer breiteren Auseinandersetzung mit empirischen Methoden der Erforschung der Computernetze beiträgt, hat er seinen Zweck erfüllt. [3]

2. Empirischer Hintergrund

Die empirischen Erfahrungen, auf die sich die folgenden Anmerkungen beziehen, wurden in einem laufendem Promotionsprojekt zur Erforschung von sogenannten "Netzkritikorganisationen" gewonnen. Darunter werden solche (Nichtregierungs- und Nicht-profitorientierten-) Organisationen verstanden, die sich für eine kritische Nutzung der Computernetze einsetzen. Das Spektrum von Organisationen, welches unter diesem recht heuristischen Begriff gefasst wird, ist breit – der Begriff dient zunächst einer vorläufigen, offenen Erschließung des Feldes. Das Spektrum reicht von lokalen Initiativen, welche sich für einen allgemeinen und kostengünstigen Zugang zum Internet und für die Verbreitung kritischer Nutzungskompetenz einsetzen bis hin zu Lobbyverbänden, die direkt Expertise für (oder gegen) staatliche Regulierung z.B. im Bereich Kryptographie3) bereitstellen. In einem Ländervergleich (Deutschland, USA und teilweise Niederlande) werden die Wechselbeziehungen bzw. das Verwobensein zwischen "technischen" und "sozialen" Organisationsstrukturen untersucht. Methodisch werden eine Reihe unterschiedlicher Verfahren angewandt: Neben Interviews bzw. Gruppendiskussionen mit Organisationsmitgliedern und teilnehmender Beobachtung (auf öffentlichen Mailinglisten und in-real-life Treffen) kommt dabei die Analyse unterschiedlicher Dokumente (Mitgliederrundbriefe, papierene Selbstdarstellungen und eben Organisations-Homepages) zum Tragen. Verbindende methodologische Klammer für diese unterschiedlichen Datenquellen ist dabei die "Grounded Theory". [4]

Der Fokus auf "Netzkritikorganisationen" als Hintergrund der gewonnenen Erfahrungen muss auch als Einschränkung für die Verallgemeinerbarkeit des Folgenden gesehen werden: die im Projekt analysierten Seiten wurden meist von ehrenamtlich tätigen Organisationsangehörigen selbst geschrieben und designed, die gleichzeitig relativ hohe technische Kompetenz aufweisen. Die Organisationen wiederum sind meist recht klein und wenig formalisiert, auch unter dem Aspekt der Arbeitsteilung oder Hierarchisierung. Andere Untersuchungen, die sich etwa mit der Selbstdarstellung von Individuen auf ihren privaten Homepages oder den Webauftritten großer Unternehmen beschäftigen, die meist von spezialisierten Agenturen oder eigenen Abteilungen aufgebaut und betreut werden, mögen das Folgende nur eingeschränkt übertragbar finden. [5]

3. Vom Text zum Hypertext: Verschwimmende Abgrenzungen

In erster Linie jedoch geht es um die allgemeinen Unterschiede zwischen papierbasiertem Text und WWW-basiertem Hypertext und Konsequenzen für die qualitative sozialwissenschaftliche Analyse. Strukturiert werden die Eindrücke unter dem Leitmotiv "verschwimmender Abgrenzungen".

4. Ausblick

Hier wie generell geht es für die qualitative Analyse selbstverständlich nicht um die Analyse als Bewertung im Modus von "Besser-Schlechter", sondern um die Interpretation, was in dieser Formatierung an Textverständnis, Betonung, Zielgruppenorientierung etc. steckt. Gleichwohl ist eine Analyse im Sinne eines "Besser-Schlechter" eine Gefahr, in die wir beim Untersuchen der Homepages von Netzkritikorganisationen wiederholt geraten sind. In dieser Hinsicht muß sich die Perspektive der Sozialforschung grundsätzlich von der des Webdesign unterscheiden, indem sie nicht bewertet, wie gut oder schlecht eine Seite ihrer (selbst zu definierenden) Aufgabe gerecht wird, sondern fragt: warum ist es so? Was läßt sich daraus über die soziale Welt lernen? Dass Fragen (wie auch in diesem Bericht) häufiger zu finden sind als Antworten und meist zu neuen Fragen führen, halte ich nicht für ein Manko, sondern für eine Qualität der Sozialwissenschaften. [13]

Auf die Gefahr hin, die Strukturierungsidee dieses Berichts zu sehr zu strapazieren: die Analyse von Hypertexten löst gesichert geglaubte Grenzen innerhalb der empirischen Sozialforschung auf. Ein Text lässt sich nicht klar abgrenzen von einem anderen, eine Homepage sich nicht lösen aus ihrem Kontext, unterschieden geglaubte Medien vermischen sich, Textgattungsgrenzen verlaufen, technische Form wird Inhalt, objektive ForscherIn und subjektive Person lassen sich nicht trennen, ein Text ist nichts zeitlich Festes mehr. Vielleicht geht nur eine Sicherheit verloren, die immer schon vorgeblich war. In jedem Fall stellt das Internet, in diesem Fall das WWW, in seiner ständigen Veränderung die sozialwissenschaftliche Phantasie vor große Herausforderungen. Wenn es als Provokation wirkt, damit sich die Wissenschaft der Welt weniger formalisiert, weniger objektivistisch und weniger unpersönlich nähert, ist dies schon ein Erfolg. [14]

Anmerkungen

1) Eine Anfrage (von anderer Seite) auf der "german internet research-list" (gir-l) verlief m.W. ebenfalls ergebnislos. <zurück>

2) http://www.online-forschung.de, http://www.online-forschung.de/kom/gir-l. <zurück>

3) Die Kryptographie, also Entwicklung von Verschlüsselungsverfahren, stellt einen für die Internet-Regulierung zentralen Politikbereich dar. Eine öffentliche "Debatte" stellt sich hier eher über Bilder und Schlagworte vom "Big Brother" vs. Nazi- oder Kinderpornohändlerring her, d.h. es werden wenig sachorientiert Extremvisionen vom Überwachungsstaat bzw. den sich der Verfolgung entziehenden Verbrechern gegeneinander gestellt. Sachlich gesehen kollidieren in diesem Bereich teilweise staatliches bzw. geheimdienstliches Kontrollbedürfnis und unternehmerisches Interesse am Schutz sensibler Daten, teils harmonieren sie aber auch. Gesellschaftliche Aspekte wie z.B. Datenselbstbestimmung bleiben oft ausgeblendet. Dennoch waren nationale Politiken in diesem Bereich oft unentschlossen, z.B. in der Bundesrepublik, und daher aufgeschlossen für die Expertise von engagierten Computer-Fachleuten. <zurück>

4) http://www.xanadu.com <zurück>

5) Wobei man sich nicht darüber hinwegtäuschen sollte, dass das Internet seine eigenen ökonomischen Zwänge hat. Zwar ist die materielle Basis Speicherplatz nicht knapp, dafür aber die Übertragungsrate (lange Dokumente werden u.U. langsam geladen), und vor allem die Ressource Aufmerksamkeit: wer im Internet (und nicht nur dort) nicht schnell davon überzeugen kann, die Aufmerksamkeit der RezipientInnen zu verdienen, hat schon verloren. <zurück>

6) Zum Verständnis: Mittels einer "Browserabfrage" wird meist ein Dokument in einer für die jeweilige Ansichtssoftware optimierten Form zugänglich gemacht, es gibt also mehrere Varianten. Cookies sind kleine Dateien, die auf der Festplatte des "browsenden" Rechners gespeichert werden und so seine Wiedererkennung ermöglichen. Plugins sind Softwareerweiterungen für die Browser, z.B. um animierte Seiten darstellen zu können – eine Seite wird dann je nach Aktualität der installierten Plugins anders aussehen. <zurück>

7) Es gibt verschiedene "Offline-Browser", die für diese Aufgabe benutzt werden können, beispielsweise "Offline Explorer", "WebZip", "Websnake" oder "Teleport Pro". Alle bieten zeitlich begrenzte Testversionen und kosten um 50$. <zurück>

Zum Autor

Johannes MOES, Studium Politikwissenschaft und Soziologie in Hamburg und Berlin, promoviert über "Netzkritikorganisationen im internationalen Vergleich".

Kontakt:

Johannes Moes

E-Mail: jmoes@zedat.fu-berlin.de

Zitation

Moes, Johannes (2000). Von der Text- zur Hypertextanalyse: Konsequenzen für die Qualitative Forschung [14 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 1(1), Art. 16, http://nbn-resolving.de/urn:nbn:de:0114-fqs0001169.

Revised 7/2008

Forum Qualitative Sozialforschung / Forum: Qualitative Social Research (FQS)

ISSN 1438-5627

Creative Common License

Creative Commons Attribution 4.0 International License