Werner Früh

Inhaltsanalyse
Vergleich Inhaltsanalyse – Befragung o offene Fragen bei Befragung: Antworten werden einer Inhaltsanalyse unterzogen o bei geschlossenen Fragen: der Forscher gibt seine inhaltsanalytischen Kategorien in Form von Antwortmöglichkeiten bereits vor Inhaltsanalyse wird im Forschungsprozess nur vorweggenommen o das Ankreuzen einer Antwortvorgabe durch den Interviewer ist eine Feldverschlüsselung, d.h. eine implizite Inhaltsanalyse der Antworten

1. Die empirisch-wissenschaftliche Vorgehensweise allgemein
Definition -

Definition: empirische Wissenschaft ist die systematische, intersubjektiv nachvollziehbare Sammlung, Kontrolle und Kritik von Erfahrungen Systematische Vorgehensweise und deren durchgängige Anwendung o Ausgangspunkt ist eine Frage/Vorstellung/Vermutung über reale Sachverhalte (Gedachtes, Begriff, Problem) o dem folgt der Versuch einer theoretischen Erklärung in Form von Hypothesen oder Theorien o diese theoretischen Erklärungsversuche werden durch den Einsatz bestimmter Methoden überprüft, indem sie an konkreten, erfahrbaren Sachverhalten getestet werden diese konkreten, erfahrbaren Sachverhalte sind nicht immer die mit dem theoretischen Begriff/der Vorstellung gemeinten Korrelate in der Realität selbst, sondern meist nur ihre sinnlich wahrnehmbaren Symptome bzw. Indikatoren Intersubjektive Nachvollziehbarkeit o wie jeder Mensch trägt der Forscher ein kollektiv wie subjektiv geprägtes Realitätsmodell in seinem Bewusstsein, welches ihm als Handlungsgrundlage dienen soll und daher nur für das Handeln relevante Aspekte der Realität und auch diese nur in der notwendigen Form –also nicht notwendigerweise „wirklichkeitsgetreu“ abgebildetbeinhaltet das kognitive Realitätsmodell simuliert Realitätsbeziehungen; es benutzt keine realen Objekte, sondern Vorstellungen davon und folgt daher nicht notwendig den Gesetzen der Realität, sondern denen des Geistes im Alltag konfrontieren wir dieses Modell intrapersonal im Hinblick auf subjektive Plausibilität Die systematische, offengelegte und damit kritisierbare Vorgehensweise der empirischen Wissenschaft verlangt dagegen, dass sowohl die Vorstellungen des Forschers als auch der anvisierte Realitätsausschnitt in eine dritte Modalität, nämlich die empirischer Daten überführt werden nur so ist es möglich, dass sich Vorstellungs- und Objektwelt intersubjektiv nachvollziehbar miteinander vergleichen lassen Im Gegensatz zur Alltagserfahrung muss die empirisch wissenschaftliche Erfahrung vom analysierenden Subjekt losgelöst werden; im Sinne des Objektivitätsbegriffes des kritischen Rationalismus bedeutet dies, eine unbestritten subjektiv-beeinflusste Perspektive intersubjektiv kommunizierbar, nachvollziehbar, reproduzierbar und kritisierbar zu machen, indem Forschungsgegenstand und -interesse, Datengewinnung sowie anzuwendende Analyse- und Interpretationsweise detailliert offengelegt werden, damit sie auch von Dritten auf ihre Brauchbarkeit hin überprüft werden können; durch diese Offenlegung ist die Methode auch unabhängig von ihren Anwendern die empirischen Methoden etablieren eine explizite Metaebene in Form von Datenstrukturen mit einem systematischen und offengelegten Bezug sowohl zum anvisierten theoretischen Konstrukt als auch zur Wirklichkeit

Systematik

-

Inter- subjektivität durch...

...Metaebene: Daten

...Offenlegung des o Forschungsprozesses

1

2. Die Inhaltsanalyse als empirische Methode
Definition -

Die Inhaltsanalyse ist eine empirische Methode zur systematischen, intersubjektiv nachvollziehbaren Beschreibung inhaltlicher und formaler Merkmale von Mitteilungen; (meist zum Zwecke einer darauf aufbauenden interpretativen und/oder durch Zusatzkriterien gestützten Inferenz) Empirische Methode bezeichnet die Art und Weise, in der die Inhaltsanalyse zu wissenschaftlichen Erkenntnissen führt also die Modalität des Zugangs zur Realität o Erkenntnisobjekt besitzt ein wahrnehmbares und intersubjektiv identifizierbares Korrelat in der Realität (auch Werte und Normen, ges. Klassen etc.) auch innerpsychische Vorgänge sind wahrnehmbar, insofern sie systematisch zu objektivieren, z.B. indem sie nach vorgegebenen Kriterien in ein allgemein verständliches Zeichensystem überführt werden beobachtbar und wahrnehmbar bezeichnen lediglich die prinzipielle Möglichkeit, einen gemeinten Tatbestand intersubjektiv zu reproduzieren o die Methode1 bestimmt die Modalität des Zugangs zur Realität und dadurch die Modalität der Daten

empiri- sche Methode

Messen -

Der Empiriebegriff im hier gemeinten Sinne beinhaltet den Vorgang des Messens o gemessen wird nicht ein Objekt, sondern ein spezifisches Merkmal dieses Objekts, welches der Bezugspunkt dieser Messung ist o bzgl. dieses Merkmals weist jedes Objekt eine spezifische Ausprägung auf und steht damit zu anderen Objekten in bezug auf dieses Merkmal in einer bestimmten Relation o im Vorgang des Messens werden den Merkmalsausprägungen quantifizierende Symbole, meistens Zahlen zugewiesen, wobei quantifizieren nicht notwendigerweise zählen bedeutet (auch simplere Relationen können durch Zahlen sinnvoll ausgedrückt werden) messen und quantifizieren werden hier synonym verwandt o Messen ist das Überführen eines empirischen Relativs (beobachteter Realitätsausschnitt) in ein numerisches Relativ (Datenstruktur) mit den Prämissen der Objektivität und Systematik (Maßstab und Messverfahren sind offengelegt und auf das angegebene Textmaterial in gleicher Weise angewandt worden) o das erstellte numerische Relativ repräsentiert damit ein empirisches Relativ o Repräsentationsproblem: Homomorphie das empirisch-quantifizierend erstellte Datenmodell soll dem analysierten Ausschnitt des Realitätsmodells bzgl. der Elemente und deren Relationen homomorph sein: • • jedem Element der numerischen Daten muss mindestens ein Element unserer empirischen Wahrnehmung entsprechen

die empirischen Relationen zwischen den Elementen sind genau in den numerischen Relationen abzubilden die Homomorphie der beiden Strukturen ist eine Anforderung, deren Erfüllung es jeweils nachzuweisen gilt ( das ist das Repräsentationsproblem) Isomorphie, also die umkehrbare Abbildungsfunktion ist nicht notwendig (Bsp.: Länge – Brett) die entstandenen Zahlenrelationen können nicht losgelöst von den gemessenen Strukturen behandelt werden, da die Homomorphie zwischen Realitätsmodell und Datenmodell fast immer nur partiell ist, und damit die zulässigen mathematischen Rechenoperationen mit den numerischen Werten eingeschränkt sind deshalb ist eine Messtheorie notwendig, die angibt welcher Ausschnitt eines numerischen Relativs als homomorphe Repräsentation eines empirischen Relativs gelten kann, also welche Zahlenrelationen relevant/gültig sind; die Messtheorie begründet die Homomorphie der beiden Systeme und definiert ihre Grenzen
1 „Methoden“ im engeren Sinne sind empirische Messinstrumente/empirische Erhebungstechniken wie Fragebo-

gen, Kategoriensystem. Beobachtungsschema

2

o

o

Problem der Eindeutigkeit beim Messen bezieht sich auf die unterschiedlichen Skalentypen Kriterium der Eindeutigkeit ist die Art der mathematischen Transformationen, die einen Skalentyp invariant lassen Nominalskala = klassifizieren, daher die Frage: ist das überhaupt messen? die Quantifizierung, die dabei vorgenommen wird, ist lediglich implizit dadurch, dass die Zuordnung zu einem bestimmten Symbol die Zuordnung zu einem anderen ausschließt, bzw. sich die Relation auf „kommt vor 1“ / „kommt nicht vor 2“ beschränkt eine explizite Quantifizierung, und damit Messung in unserem Sinne geschieht erst einen Schritt später, wenn nämlich die Klassen bezüglich ihrer Relation untereinander verglichen und z.B. in eine Rangordnung gebracht werden; damit ist aber das Nominalskalenniveau verlassen. eine Klassifizierung auf Nominalskalenniveau ist noch keine Messung, aber eine relationale Beschreibung und Häufigkeitsauszählung qualitativ verschiedener Kategorien bzw. Klassen; die Inhaltsanalyse führt also zunächst eine systematische Beobachtung durch, indem sie Textmerkmalen Kennziffern für Kategorien zuordnet; zur Messung wird das erst dann, wenn im Auswertungsschritt Häufigkeiten durch Auszählen der Kategorien ermittelt werden. dem qualitativen Akt der Beobachtung und Identifizierung eines Textmerkmals folgt dessen zählend-quantitative Weiterverarbeitung ( Scheinalternative qualitativ – quantitativ, da eine „qualitative“ Textstruktur in ein numerisches Relativ überführt wird)

Systematik

-

die Systematik beinhaltet o eine klar strukturierte Vorgehensweise beim Umsetzen der Forschungsaufgabe in eine konkrete Forschungsstrategie Formulierung empirisch prüfbarer Hypothesen Festlegung des relevanten Untersuchungsmaterials Festlegung der Analyse-, Codier- und Messeinheiten Entwicklung des Kategoriensystems mit Definitionen + allgemeinen Codieranweisungen Überprüfung von Validität und Reliabilität o die konsequente, durchgängig invariante Anwendung dieser Forschungsstrategie auf das Untersuchungsmaterial (Invarianz der Codierregeln) Intersubjektive Nachvollziehbarkeit/Objektivität o Methode soll vom analysierenden Subjekt abgelöst werden o Ergebnisse müssen reproduzierbar, kommunizierbar und kritisierbar sein o dabei müssen die gemessenen Merkmale auch auf die Forschungsfrage definitorischbezogen werden, so dass nicht nur die eigentliche Inhaltsanalyse, also Datenerfassung, sondern auch die Interpretation der Daten nachvollziehbar ist

Inter- subjektivität

Gegenstand und Erkenntnisinteresse Vorteile der Inhaltsanalyse als Methode gegenüber anderen Forschungsmethoden o die Inhaltsanalyse erlaubt als einzige Methode Aussagen über Kommunikatoren und Rezipienten, die nicht bzw. nicht mehr erreichbar sind o der Forscher ist nicht auf Kooperation von Versuchspersonen angewiesen o Faktor Zeit spielt eine untergeordnete Rolle; man ist nicht an Termine der Datenerhebung gebunden (Befragung Bundestagswahl...) o Untersuchungsobjekt verändert sich nicht durch die Untersuchung non-reaktiv o Untersuchung ist (auch aufgrund der Nonreaktivität) beliebig am selben Gegenstand reproduzierbar oder wiederholbar (mit modifiziertem Analyseinstrument) o Inhaltsanalysen sind meist billiger als andere Datenerhebungsmethoden 3

-

der Sinn jeder Inhaltsanalyse besteht darin, unter einer bestimmten forschungsleitenden Perspektive Komplexität zu reduzieren, indem Textmengen hinsichtlich theoretisch interessierender Merkmale klassifizierend beschrieben werden o notwendigerweise geht dabei Information verloren durch die Selektion prinzipiell interessierender Textmerkmale und das Ignorieren der anderen durch die klassifizierende Vereinheitlichung in Kategorien; die originären Bedeutungsdifferenzen der in einer Kategorie zusammengefassten Mitteilungsmerkmale bleiben unberücksichtigt dieser Informationsverlust auf der Textebene ist jedoch Voraussetzung für einen Informationsgewinn auf der Aggregatebene (strukturelle Zusammenhänge, Bezüge)

o verschiedene Ansätze

der eigentliche Untersuchungsgegenstand einer Inhaltsanalyse sind nicht Textmerkmale oder Mitteilungen, sondern der sich in der Mitteilung manifestierende Kommunikationsvorgang o formal-deskriptiver Ansatz beschreibt Mitteilungen anhand rein äußerlicher, nicht-inhaltlicher Merkmale z.B. zur Erstellung von Texttypologien o diagnostischer Ansatz will durch Inferenz2 etwas über die Entstehungsbedingungen, also über die Beziehung Kommunikator – Mitteilung aussagen Intentionen, Kompetenz, Eigenschaften, Wertvorstellungen des Autors prognostischer Ansatz versucht, von Mitteilungsmerkmalen auf deren Wirkungen auf den Rezipienten zu schließen Verständlichkeits-/Wirkungsforschung Problematik von Inferenzziehungen besonders bei instrumenteller Sprachverwendung (in Werbung, Drehbüchern...) lässt sich kaum von Inhalten auf Eigenschaften der Kommunikatoren schließen man muss zusätzliche Informationen über Kommunikatoren und Rezipienten besitzen es ist lediglich möglich, probabilistische Aussagen zu treffen; diese werden immer aus der Perspektive des Forschers getroffen besonders bei Wirkungsaussagen können verschiedene Forscher aufgrund des selben inhaltsanalytisch erstellten Datenmaterials zu vollkommen verschiedenen Interpretationen gelangen; ob diese jeweils richtig oder falsch sind, lässt sich nicht an den inhaltsanalytischen Ergebnissen überprüfen, sondern nur an weiter hinzugezogenen Außenkriterien (z.B. Ergebnisse experimenteller Wirkungsstudien) wird ein stringenter Beweischarakter der Daten angestrebt, dann sind aus inhaltsanalytischen Befunden allein weder direkte Wirkungsaussagen noch Aussagen über die Mitteilungs- oder Wirkungsabsichten des Autors abzuleiten. Solche Aussagen sind nur mit Hilfe externer Zusatzinformationen möglich

o

o

-

wozu dann überhaupt Inhaltsanalysen bei derart eingeschränkter Aussagekraft? o keine spezifische Restriktion der Inhaltsanalyse o jederzeit Evaluationsstudien möglich o Inhaltsanalyse wird gerade dort eingesetzt, wo Daten über Absichten und Wirkungen anders nicht zu erhalten sind o großer Teil der Inhaltsanalysen wird allein zur Beschreibung, Strukturierung und zum Vergleich durchgeführt, also nicht mit dem primären Forschungsinteresse der Inferenz

2 Inferenz = interpretativer Schluss von Mitteilungsmerkmalen auf externe Sachverhalte

4

Vergleich mit anderen Textanalyseverfahren
Hermen. Textinterpretation

Hermeneutische Textinterpretation o seit dem 19. Jahrhundert Entwicklung zur universellen Theorie des Umgangs mit historisch-gesellschaftlichen Gegenständen allgemein, insbesondere künstlerischliterarischer Art o werkimmanente Position vertritt die Ansicht, dass in den Kulturwissenschaften anders als in den Naturwissenschaften, der Erkenntnisgegenstand nicht zum Objekt gemacht werden könne vielmehr müsse man sich auf den Gegenstand einlassen, seine entstehungsbedingten Bedeutungsstrukturen nachvollziehen, um ihn zu verstehen o werkübergreifende Position neben der werkimmanenten Interpretation spielt auch Hintergrundwissen eine entscheidende Rolle für das angemessene Verstehen eines Werkes o Technik: Unterscheidung: beschreibende, deutende und wertende Aussagen zuerst inhaltliche und formale Beschreibung des Textes nach der Lektüre wird ein Eindruck formuliert, der anhand bestätigender Textstellen oder –bezüge belegt werden muss daraus lassen sich Schlussfolgerungen ziehen, die eine Bewertung und Einordnung des Werks erlauben; dabei zieht die werkübergreifende Position die Zusatzinformationen hinzu o Charakteristika der Methode für die Interpretation einzelner Texte deren originärer Sinngehalt soll in allen relevanten Merkmalen herausgearbeitet werden die Stichhaltigkeit der vorgeschlagenen Interpretationsweise ist diskursiv zu begründen Abwägung der Argumente und Gegenargumente die der Interpretation zugrundegelegten Kriterien können, müssen aber nicht definiert und offen gelegt werden; die Kriterien können für unterschiedliche Textstellen unterschiedliche sein inkonsistente Merkmale können u.U. ignoriert werden (wenn als irrelevant erachtet); legitim, weil nur die Stimmigkeit eines subjektiven Rezeptionseindrucks belegt werden soll Beschreibung, Interpretation und Wertung sind miteinander verschränkt, eines ergibt sich aus dem anderen die Analyse ist nach der Auseinandersetzung mit dem Text abgeschlossen; das Ergebnis liegt nach der Textinterpretation vor Linguistische Textanalyse (Textsemantik) o ein Text besteht aus einer Abfolge von Wörtern o isolierte Wörter (Lexeme) haben einen Bedeutungsgehalt, der sich in Form einzelner Bedeutungskomponenten (Seme) beschreiben lässt o Bedeutungen können immer nur in Relationen und Oppositionen gedacht werden: ein Sachverhalt oder Begriff bedeutet erst in seiner Abgrenzung von anderen etwas o das jeweils relevante Sem eines Lexems ergibt sich aus der Relation zu Bedeutungen desjenigen Wirklichkeitsausschnittes, auf den das Lexem sich bezieht; auf welchen Wirklichkeitsausschnitt ein Lexem referiert, bestimmt der Kontext o die bei isolierter Betrachtung feststellbare Polysemie der in einem Text vorkommenden Wörter wird durch die Verwendung in ihrerseits bedeutungshaltigen Kontexten monosemiert o dann spricht man von Textemen (statt von Lexemen)

Linguistische Textanalyse

5

o o

die syntagmatische und/oder semantische Verkoppelung mehrerer Lexeme infolge gleicher Merkmale (Seme) nennt man Semrekurrenz jede Semrekurrenz etabliert eine Isotopieebene im Text (Sinnabschnitt, Leitthema); verschiedene Isotopieebenen können ineinander verschachtelt oder parallel zueinander den Text strukturieren das Resultat einer linguistischen Textanalyse sind Erkenntnisse über Isotopieebenen, Lexeme, relevante Seme...; Also, welche sprachlichen Mittel in einem beliebigen Text kohärente Bedeutungsstrukturen erzeugen einzelnen Text und seinen konkreten Inhalt benutzt sie nur, um ihre Allgemeingültigkeit beanspruchenden Aussagen zu prüfen und ihr Verfahren zu demonstrieren; der Inhalt ist also beliebig und austauschbar alle nur denkbaren „legitimen“ Bedeutungen sollen rekonstruiert werden, nicht nur relevante Textinhalte das Erkenntnisinteresse der Linguistik zielt auf die Sprache und deren Bedingungen, weniger auf konkrete Anwendungen von Sprache in Form spezifischer Texte mit spezifischen Inhalten und Funktionen

Inhaltsanalyse selektives I.

(sozialwissenschaftliche) Inhaltsanalyse o Selektionsinteresse an den ausgewählten Texten interessieren nur diejenigen Merkmale, die für die Klärung der Forschungsfrage relevant sind Abstraktionsinteresse von den im Text enthaltenen Bedeutungskomplexen werden wiederum nur relevante semantische Komponenten, die ein sprachlicher Ausdruck neben anderen besitzt, abstrahiert; d.h. das zu messende theoretische Konstrukt (Bsp.: „Gewalt“) ist nur selten explizit im Text genannt; es muss aus den Bedeutungskomplexen herausgelöst werden wie weit diese abstrahierenden Schlussfolgerungen durch Freilegung semantischer Implikationen plausibel getrieben werden können, hängt u.a. von der Definitionsarbeit des Forschers ab (Problem: unterschiedliches Vorwissen etc. der Codierer führt zu unterschiedlichen Ergebnissen) Klassifikationsinteresse die Inhaltsanalyse fasst verschiedene theoretische Kriterien ( „Körperverletzung“, „niederreißen“, „niederknüppeln“) zu einem komplexeren Konstrukt („Gewalt“) zusammen, wobei die Spezifika der einzelnen Merkmale verloren gehen Mengen konkreter Äußerungen werden hinsichtlich ihrer Bedeutung als äquivalent betrachtet, so dass sie sich derselben Kategorie zuordnen lassen Unterscheidung nach kommunikativem Fokus jede Äußerung transportiert mehrere Informationen, wobei in der Regel nach dem dominierenden Aspekt der Information eine Hauptaussage von Nebenaussagen unterschieden werden kann Unterscheidung nach kommunikativer Funktion Mitteilung als Information Mitteilung als Handlung Sprechakt die Inhaltsanalyse analysiert Kommunikationsinhalte Kommunikationsinhalte sind jedoch nicht nur die Einzelinformationen eines konkreten Einzeltexts, sondern auch kollektive Kommunikationsmerkmale wie kulturelle Wertvorstellungen, Stoffauswahl/Themen ...

abstrahierendes I.

o

klassifizierendes I.

o

kommunikativer Fokus

o

kommunikative Funktion

o

o

6

letztere Merkmale globaler Kommunikationsvorgänge, latente Kommunikationsstrukturen, zeigen sich oftmals nur an einem größeren Textkorpus, nicht am Einzeltext Gegenstand der Inhaltsanalyse können also prinzipiell alle Inhaltsaspekte sein, sofern sie sich explizit definieren lassen. Als kommunikationswissenschaftliche Methode interessiert sich die Inhaltsanalyse aber insbesondere für die kommunikativ relevanten Inhalte o die Inhaltsanalyse ist eine gezielte Suchstrategie; der Forscher muss bereits vor der Analyse ziemlich genau wissen, wonach er suchen will, weil sonst u.U. wichtige Daten fehlen, um die Fragestellung sinnvoll bearbeiten zu können o Datenerhebung, Analyse und Interpretation sind getrennte Arbeitschritte, wobei die Inhaltsanalyse mit der Bereitstellung statistischer Informationen auf Aggregatebene (also nach der Analyse der Daten) endet Erkenntnisinteresse der Inhaltsanalyse ist es, über den Einzeltext hinausgehende Informationen struktureller Art zu erhalten. Obwohl die Inhaltsanalyse durchaus auch linguistisch relevante Daten erheben kann, beschränkt sie in ihrer sozialwissenschaftlichen Version ihr Erkenntnisinteresse in der Regel auf solche konkreten Bedeutungen, die Gegenstand von Kommunikationsvorgängen sind.
hermeneutische Interpretation Erkenntnisinteresse Sinndeutung „verschlüsselter“ Botschaften linguistische Textanalyse sprachwissenschaftliches Interesse; was macht den Text zum Text? nicht konkrete Inhalte der Texte Demonstration von zulässigen/unzulässigen Bedeutungszuweisungen anhand von Beispielen sozialwissenschaftliche Inhaltsanalyse selektives, abstrahierendes und klassifizierendes Interesse

Verfahren

Intuition und Hintergrundwissen; der Interpretationsentwurf wird dann anhand textimmanenter und/oder textexterner Fakten zu belegen versucht einzelner Text/kleine Zahl von Texten der Text als Einheit, dessen Sinngehalt auf allen Ebenen (grammatikalischstilistische, semantische, pragmatische, ästhetische) es zu deuten gilt

empirisch: Fragestellung Datenerhebung Analyse Interpretation Kommunikationsinhalte von Textmengen nicht alle, sondern nur die im Hinblick auf die Problemstellung relevanten Kommunikationsinhalte sollen erfasst werden Systematik und „Objektivität“

Gegenstand

Sprache anhand von Texten (als Beispiele und Forschungsobjekte)

Kriterien Ziel

Angemessenheit und Plausibilität Textverstehen und Deutung des originären Sinngehaltes Erkennen allgemeiner Regeln, nach denen Bedeutungsrepräsentationen mit Hilfe sprachlicher Zeichen funktionieren

Aussagen über Strukturmerkmale definierter Textmengen

qualitativ quantitativ

Die „qualitativ-quantitativ-Debatte“ o Inhaltsanalyse verbindet zwei qualitative Analyseschritte (theoretische Vorarbeiten und Interpretation) durch einen quantifizierenden o Früh: unzutreffend dichotomisierende Bezeichnungen, im Gegenteil ist die Kontrastierung theoretisch und praktisch gegenstandslos die „Probleme“ und die Erkenntnisse über sie in der Sozialforschung immer qualitativen Charakter haben auch die Interpretation eines Leitfadeninterviews trägt implizit quantifizierenden Charakter (Häufigkeit und Intensität von Äußerungen der Vpn werden interpretiert) 7

der „quantitative Sozialwissenschaftler“ muss sich vergegenwärtigen, dass er es nicht mit Quantitäten an sich, sondern immer mit der Bedeutung von Quantitäten zu tun hat die verachtete Quantifizierung geschieht schon bei der Auszählung von Häufigkeiten die qualitative Richtung betont das verstehende Sich-Hineinversetzen; Früh betrachtet dies jedoch als immanente Leistung der Textrezeption, also nicht als spezifisch qualitativ die qualitative Forschung beansprucht für sich, die volle Komplexität ihrer Gegenstände erfassen zu wollen, während die quantitative Forschung ihren Gegenstand atomisiere, in Variablen zerstücke und ihm damit seine eigentliche Bedeutung nehme • Früh: auch der qualitative Forscher ist nicht in der Lage, einen Menschen oder Text in seiner Ganzheit wahrzunehmen, weil sukzessiv einzelne Merkmale fokussiert werden

allerdings agiert die qualitative Forschung mit einer größeren Anzahl individueller, kontextueller und situativer Merkmale, das heißt fellbezogener und flexibler in ihren Beschreibungsmerkmalen; o diese Fallbezogenheit ist jedoch zur Klärung vieler Forschungsfragen weder notwendig noch durchführbar (z.B. Durchschnittsalter) o der qualitative Forscher will (unterstellterweise) solche Durchschnittswerte und quantitative Merkmale gar nicht wissen, sondern interessiert sich für einige aussagekräftige Fälle in allen Details, um informationsreiche Erkenntnisse zu gewinnen; wenn er aber auf der Grundlage präzise beschriebener Einzelfälle Generalisierungen vornimmt, sind dies Spekulationen (unterschiedlicher Plausibilität, aber ohne – statistische- Beweiskraft) der eigentliche Konflikt liegt im unterschiedlichen Erkenntnisinteresse der „Schulen“, nicht in konkurrierenden Methodenauffassungen zum selben Gegenstand: Detailorientierung vs. Generalisierung Induktion – Deduktion Kategorieno theoriegeleitete Kategorienbildung deduktiv bildung Ableitung der Hauptkategorien aus der Forschungsfrage o empiriegeleitete Kategorienbildung induktiv Ausdifferenzierung in Unterkategorien und zusätzliche Hypothesen dabei: • • • • Selektion/Reduktion: Extraktion und Isolation relevanter Textpassagen Bündelung: Gruppierung der extrahierten Textpassagen auf einheitlicher Abstraktionsebene Generalisierung/Abstraktion: Zuweisen von Labels, die den abstrahierten gemeinsamen Bedeutungsgehalt bezeichnen

o

o

Rückbezug auf Theorie: Können die als relevant betrachteten Textpassagen den Hauptkategorien zugeordnet werden? Bildung von Unterkategorien oder Generierung weiterer Hypothesen beides nicht in Reinform ( Popper: alle Wahrnehmung ist theoriegeleitet, daher auch die empiriegeleitete Kategorienbildung insofern teilweise deduktiv; die reine Induktion gibt es nicht) die theoriegeleitete Kategorienbildung sichert die Vollständigkeit bezüglich Forschungsfrage und Hypothesen; die empiriegeleitete K. bezüglich des Untersuchungsmaterials

8

3. Die Inhaltsanalyse als Forschungsprozess Forschungsinteresse
o o o o erkenntnistheoretischer/logischer Aspekt Problem überhaupt empirisch lösbar? methodisch-pragmatischer Aspekt erlaubt der methodische Kenntnisstand eine befriedigende Lösung? ethischer Aspekt Ertrag/Interesse ist das Problem relevant, sind Forschungen überhaupt sinnvoll?

Methodenwahl
o Angemessenheit der Methode? misst sie das Problem am direktesten Aufwand angemessen?

Inhaltsanalyse
1) Planungsphase a) Problemstellung b) Projektplanung c) Hypothesenbildung 2) Entwicklungsphase a) Theoriegeleitete Kategorienbildung: Explikation der Hypothesen; Bestimmung von Art und Struktur der Daten (Dimensionen; Variablen; Skalenniveau); Hauptkategorien b) Empiriegeleitete Kategorienbildung: Operationale Definition der Kategorien und Codierregeln; Bestimmung der Analyse-, Codier- und Kontexteinheiten; Unterkategorien 3) Testphase a) Probecodierung b) Codierung mit Validitäts- und Reliabilitätstest 4) Anwendungsphase a) Aufbereitung der Daten und Datenerfassung b) Datenkontrolle und Datenbereinigung c) Auswertung (per EDV mit statistischen Rechenverfahren)

Interpretation und Bericht

Forschungsfrage und Hypothesen - Wissenschaft ist problemlösendes Verhalten relevantes Problem muss zugrunde liegen - das Erkenntnisinteresse muss vor Beginn der Forschungen klar formuliert werden, da sich Planung, Durchführung und Interpretation auf dieses beziehen o welche Daten müssen erhoben werden? o welche interpretativen Schlüsse sind möglich?
offene Fragestellungen

Vorgehensweise bei offenen Fragestellungen o es ist nicht klar, nach welchen Merkmalen im Text gesucht werden soll 9

1.) Vorschalten einer Explorationsphase, in der ein repräsentativer Querschnitt des Untersuchungsmaterials nach möglicherweise interessanten Merkmalen untersucht wird Triangulation durch Forscher mit unterschiedlichen Interessen Kontrastierung mit unterschiedlichem Untersuchungsmaterial 2.) theoriegeleitete Kategorienbildung allgemeines Vorwissen wird in allgemeine Kategorien überführt, die dann im Zuge der empiriegeleiteten Kategorienbildung rückwirkend modifiziert, präzisiert etc. werden
Hypothese

oder

-

Der Hypothesenkatalog übersetzt die allgemeine Forschungsfrage in prüfbare Behauptungen o Hypothesen sind intersubjektiv prüfbare Feststellungen Forschungsfragen (in Form einer Frage) = offene Hypothesen als Behauptung formulierte Problemstellungen = geschlossene Hypothesen Dimensionale Analyse der in der Problemstellung anvisierten theoretischen Konstrukte o Konstrukt wird benannt und beschrieben o alle zur Beschreibung benutzten bedeutungstragenden Begriffe sind einzeln zu erläutern unendlicher Regress von Definitionen Hauptkategorien die Nullhypothese muss –methodisch gesehen- mit gleicher Chance zurückgewiesen wie (vorläufig) akzeptiert werden können Festlegung von Kategorientypus und Skalenniveau in bezug auf das zu lösende Problem o dabei müssen die in der Analyse möglicherweise anzuwendenden Rechenverfahren berücksichtigt werden, um nicht schon durch die Datenerhebung mögliche Interpretationswege auszuschließen o Kategorientypen Thematisierungstyp kommt ein Thema, gleich in welcher Form und Intensität, vor, wird es erfasst Häufigkeiten Bewertungstyp zusätzlich zum bloßen Vorkommen wird die im Text zum Ausdruck kommende Einstellung zum Thema/Bewertung gemessen Pro/Contra? Heftig oder gemäßigt? ... Argumentationstyp • • Argumente (also Kriterien, Begründungen, Standpunkte) werden erfasst • •

Dimensionale Analyse

-

Kategorientypen

o

es müssen Fakten und deren logische Verknüpfung im Text enthalten sein die Typen stellen unterschiedliche Anforderungen an die Codierer; da bei höheren Typen subjektive Kriterien stärker in die Codierung einfließen, sollte immer der einfachst-mögliche Kategorientyp verwandt werden

Qualitätskriterien des Kategoriensystems Vollständigkeit o Vollständigkeit (erschöpfend) das in der Forschungsfrage vorgegebene Kommunikationsmerkmal ist auf der Begriffsebene und der Ebene des Datenmaterials vollständig erfasst bildet die Summe der Unterkategorien den Bedeutungsgehalt der Hauptkategorie vollständig ab? Trennschärfe o Trennschärfe + Exklusivität jede Kategorie repräsentiert einen eindeutigen, klar abgrenzbaren Bedeutungsgehalt (eindimensional) bei der Codierung zur eindeutigen Zuweisung eines Indikators notwendig bei der Auswertung notwendig, um originären Informationsgehalt der Kategorie als gesichert annehmen zu können 10

-

Operationale Definition der Variablen o macht den Codierungsprozess explizit o nennt die empirisch fassbaren Entsprechungen zu den Kategorien auf der Objektebene (= im Text) o gibt die Regeln, an, nach denen die empirisch erhaltenen Objektmerkmale in Daten überführt werden o muss sicherstellen, dass alle Texte unter dem gleichen Gesichtspunkt analysiert werden, alle Codiereinheiten die selbe Chance haben, codiert zu werden, und ihre Zuordnung zu Kategorien über die ganze Untersuchung bei allen Codierern in gleicher Weise vorgenommen wird Systematik insbesondere durch Invarianz der Codierregeln im Anschluss an die verbale Umschreibung des Bedeutungsgehalts einer Kategorie werden exemplarisch Indikatoren aufgezählt Indikator = empirisches Äquivalent für nicht direkt sinnlich wahrnehmbare Sachverhalte die Forderung nach Vollständigkeit (hier: innerhalb einer Kategorie) ist derart zu erfüllen, dass die Kategoriendefinition incl. der Beispielindikatoren geeignet sein muss, alle in der konkreten Mitteilung empirisch vorfindbaren Indikatoren aufgrund der Sprachkompetenz des Codierers zu identifizieren semantische Vollständigkeit, die vom Codierer durchaus noch regelgeleitete Analogieschlüsse ausgehend von den „Ankerbeispielen“ verlangt es sind Codierregeln zu formulieren, die definieren, wie die gefundenen Indikatoren in Datenformat zu überführen sind Codiereinheit • • gibt die Bezugsgröße im Text an, die je einmal zu codieren ist formal-syntaktische Definition (z.B. Wort, Satz) o Vorteile hohe Verlässlichkeit leichte Anwendbarkeit o Nachteil formaler Definitionen: formale Präsentation von Mitteilungen und stilistische Eigenheiten des Autors schlagen sich nieder

o

o

o

semantische Definition (Basisaussage, Sinneinheit) o z.B. Codiereinheit Basisaussage (= semantisch eigenständige Aussage zu einem Sachverhalt) und Formulierung einer Codierregel, die die Codierung von aufeinanderfolgenden synonymen Basisaussagen ausschließt o Sinneinheit: zusammenhängende Textpassage, in der zum selben Gegenstand etwas ausgesagt wird o Gefahr systematischer Codierereinflüsse auf die Ergebnisse, weil die Codiereinheit schwieriger zu identifizieren und nicht so eindeutig abgrenzbar ist Kontexteinheit • • der Codierer darf nur die innerhalb einer Kontexteinheit enthaltenen Informationen zur Monosemierung der Indikatoren benutzen

wieder Möglichkeit formaler (z.B. Abschnitt) oder semantischer (z.B. Sinneinheit) Bestimmung Analyseeinheit definiert die Größe, über die in der Studie eine Aussage getroffen werden soll (also die Einheit, die Codiereinheiten auf sich beziehen, z.B. „Artikel“) Messeinheiten • bei formalen Textmerkmalen (cm², Seitenzahl…) •

11

Inhaltsanalyse als wissenschaftliche Methode: o Offenlegung des Verfahrens Objektivität o Vollständigkeit der Kategorien und Indikatoren o Trennschärfe der Kategorien und Indikatoren o Invariante Anwendung einer klar strukturierten Umsetzung der Forschungsfrage Systematik Erkenntnistheoretische Grundlagen der Kommunikation (Früh) o Wahrnehmung (und damit auch die Rezeption von Texten) stellt einen simultan gekoppelten Einflussprozess von zwei Seiten dar, nämlich dem Objekt (Text) einerseits und dem Wahrnehmenden (Rezipienten) andererseits Transaktion die Bedeutung eines Zeichens setzt diejenige seiner Teile voraus, diese erhalten jedoch ihre Bedeutung erst vor dem Hintergrund der ganzen Zeichenbedeutung Bedingung dafür ist die Kenntnis des jeweilig benutzten Zeichensystems (Sprache, Zahlen, Symbolsprache etc. …)

Transformations- statt Transportmodell der Rezeption - Transportmodell o soziale Realität wird als bestimmbarer, unverfälschter Bedeutungskomplex betrachtet, der im mehrstufigen Kommunikationsprozess zunächst durch die Fixierung im Taxt /Medium und dann durch eine subjektive Selektion und Interpretation des Publikums wiederholt deformiert und verzerrt wird Information ist eine fixe Bedeutungsstruktur, die durch Kommunikation mehr oder weniger effizient transportiert werden soll - Transformationsmodell o Interpretation wird als konstitutiver Bestandteil sozialer Realität betrachtet, ohne dabei die Existenz einer „objektiven“, aber originär nicht bestimmbaren Realität zu leugnen o Realität wird damit als permanenter Transformationsprozess beschrieben, der sich an einem vorgegebenen „Rohmaterial“ von ereignisspezifischer Bedeutungspotenz vollzieht, wobei die Freiheit der jeweils subjektiven Bedeutungstransformation durch die konventionalisierte Bedeutungspotenz des Stimulus eingeschränkt wird o Kommunikation ist dynamischer Transformationsprozess während permanenter Interpretationsprozesse - Strategien der Rezeption und Informationsverarbeitung o Reduktion Selektion und Vergessen, Zerfall struktureller Zusammenhänge der Information o Modifikation/Transformation Generalisierung, Verdichtung, Abstraktion, Konkretisierung, Hervorhebung o Elaboration produktiver Umgang mit der Information Konstruktion neuer Zusammenhänge, Assoziationen, Schlussfolgerungen ( kognitiv), Bewertungen ( evaluativ) Zielvorstellungen des Transformationsmodells: möglichst umfassende und intensive Auseinandersetzung des Rezipienten mit der Botschaft positive Bewertung von Modifikation und Elaboration (im Gegensatz zum Transportmodell) Konsequenzen für die Inhaltsanalyse - diese Strategien (s.o.) müssen für eine Inhaltsanalyse bei den Codierern durch Definition eines Interpretationskorridors kontrolliert, nicht aber eliminiert werden -

12

-

-

für die Codierer subjektiv irrelevante Textmerkmale dürfen nicht einfach ausgeblendet werden ( Kontrolle) o Abstraktionen, Gewichtungen, Zusammenfassungen hingegen sind erforderlich (z.B. für die Identifikation von Basisaussagen, Hauptaussagen etc.) der Codierer ordnet die verstandenen Bedeutungen den Kategorien zu es sind prinzipiell alle Inhaltsaspekte (auch höherer Bedeutungslatenzen) codierbar, die sich intersubjektiv evident beschreiben lassen, so dass verschiedenen Personen dieselben Passagen übereinstimmend interpretieren diese sind so gesehen manifeste Textmerkmale (manifest sind Mitteilungselemente dann, wenn die vorgegebene Instruktion und Definition ausreicht, damit möglichst viele Interpreten dieselben Textmerkmale mit denselben Bedeutungen verknüpfen und sie dann denselben Kategorien zuordnen; nicht nur, wenn sie tatsächlich formal „dastehen“) Anforderungen an den Forscher also: 1) praktikable operationale Definitionen der zu codierenden Inhalte 2) welchen Anspruch stellt der Forscher an die Daten? Prioritäten: Validität der Untersuchung vs. Reliabilität bei der Datenerhebung o • Validität (Gültigkeit) o misst der Forscher mit seinem methodischen Instrumentarium auch tatsächlich, was er messen will? Ist das anvisierte theoretische Konstrukt angemessen erfasst? Reliabilität (Verlässlichkeit) o betr. Präzision und unmissverständliche Beschreibung und die korrekte Anwendung des methodischen Instrumentariums o Kriterium: Reproduzierbarkeit der Ergebnisse Intracoder-Reliabilität Intercoder-Reliabilität Reliabilität ist notwendige Bedingung für Validität, umgekehrt gilt das nicht Lösung für Probleme Validität vs. Reliabilität („harte“ vs. „weiche“ Indikatoren) o Bestimmung der zentralen, stichhaltigsten Indikatoren durch Evaluierungstechniken Verbesserung der Validität o erhöhter Definitionsaufwand und intensivere Codiererschulung Verbesserung der Reliabilität o Konstruktion „harter“ und „weicher“ Kategorien Verbesserung der Validität durch selektive Reliabilität

Validität

Reliabilität

• •

Zusammenfassung - die Inhaltsanalyse ist eine empirische Methode zur systematischen und intersubjektiv nachvollziehbaren Beschreibung inhaltlicher und formaler Merkmale von Mitteilungen (meist zum Zwecke einer darauf aufbauenden, interpretativen und/oder durch Zusatzkriterien gestützten Inferenz) o empirische Methode bezeichnet die Modalität des Zugangs zur Realität o Erkenntnisobjekt besitzt intersubjektiv identifizierbares Korrelat in der Realität o schließt Systematik und Objektivität ein - Selektionsinteresse: die Inhaltsanalyse ist eine vom Forscher definierte Suchstrategie, die sich nur auf theoretisch relevante Bedeutungsaspekte bezieht - Klassifikationsinteresse: die Inhaltsanalyse ist ein offengelegter Vorschlag des Forschers zur theoretisch relevanten Strukturierung bzw. Gruppierung von Bedeutungen - Abstraktionsinteresse - Die Inhaltsanalyse erfasst in der Regel die Bedeutungen kommunikativ verwendeter Zeichen, nicht deren formale Gestalten

13

-

-

bei der Rekonstruktion/Identifikation der Bedeutungen im Text können alle vorhandenen kommunikativen Kontextinformationen und das Sprachverständnis der Codierer in kontrollierter Weise eingebracht werden die Inhaltsanalyse ist eine ausgewählte systematische Interpretationsweise, deren Spielraum und Evidenz möglichst weitgehend offengelegt und kontrolliert ist das Erkenntnisinteresse der Inhaltsanalyse zielt in der Regel auf strukturelle Informationen über Textmengen. Sie erfasst Strukturen von Textmengen als Aggregatdaten die Inhaltsanalyse erfasst bzw. generiert Bedeutungen und Bedeutungsstrukturen in dialektisch alternierenden, qualifizierend-quantifizierenden Analyseschritten die Inhaltsanalyse segmentiert den Erkenntnisprozess. Sie weist Bedeutungen und Bedeutungsstrukturen in Texten und Textmengen zum Zwecke einer von ihr getrennten, sinnverstehenden Interpretation nach

Zusammenfassung des praktischen Ablaufs einer Inhaltsanalyse Planungsphase nach Hypothesenfindung: o Festlegung der Grundgesamtheit o Festlegung der Stichprobe hinsichtlich der einbezogenen Publikationen (bzgl. Art/Form) • repräsentativ für Grundgesamtheit (Zufallsauswahl) ggf. mit Gewichtung nach Auflage/Reichweite, falls die Chance, gelesen zu werden einfließen soll

oder geschichtet nach begründeten und offengelegten Kriterien; meist kommen in den Kriterien zusätzliche Hypothesen zum Ausdruck des Analysezeitraums • • Entwicklungsphase theoriegeleitete Kategorienbildung mit theoretischen Definitionen durch dim. Analyse danach empiriegeleitete Kategorienbildung o Bildung von Unterkategorien und ggf. neuen Hauptkategorien; jedoch keine Zusammenfassungen der im theoriegeleiteten Prozess gebildeten Kategorien! o operationale Ergänzungen + Modifikationen der Definitionen o Vorgehensweise Bildung einer Substichprobe, die erneut geteilt wird (f. Kategorienbildung und späteren Reliabilitätstest) 1) Selektion/Reduktion von relevanten Textpassagen aus der Substichprobe 1 2) Bündelung nach inhaltlichen Gemeinsamkeiten auf einheitlicher Abstraktionsebene 3) Generalisierung/Abstraktion/Bezeichnung 4) Rückbezug auf Theorie: können die bezeichneten Bündelungen den bereits bestehenden Hauptkategorien zugeordnet werden? Festlegung von Kategorientypus + Art und Struktur der zu erhebenden Daten Probecodierung mit Besprechung zwischen Codierern Erstellung eines vollständigen Hypothesenkatalogs und eines Codebuchs, welches 1) Formale Identifikationskennzahlen für die Analyseeinheiten 2) allgemeine Codieranweisungen 3) das Kategoriensystem 4) ausführliche Kategoriendefinitionen mit operationaler Ausführung enthält 14 wiederum, Zufallsauswahl oder systematische Auswahl, aber Achtung vor systematischen Verzerrungen dadurch (immer derselbe Wochentag o.ä.)

-

Testphase

-

Codiererschulung o ausführliche Besprechung und Übung im Team o Entwurf eines Codierbogens o Reliabilitätstest Ergebnis sagt lediglich etwas über die Qualität der Messvorschriften und deren Anwendung, nicht über die der Indikatoren, aus Auswahl des Testmaterials • • • • mindestens 30-50 Nennungen pro Variable müssen möglich sein günstig: 200-300 mögliche Nennungen bei stark formalem Charakter der Variable auch weniger möglich, oder getrennte Codierung der verschiedenartigen Variablen geschichtete Stichprobe erforderlich, weil ja die Anwendung des Instrumentariums auf alle spezifischen Textsorten des Untersuchungsmaterials anwendbar sein soll um Problemen bei der Auswertung vorzubeugen, sollte der Rückbezug der Codierungen auf die Indikatoren/Textstellen möglich gemacht werden Erstellung einer Auswertungsmatrix der Paarvergleiche dadurch sind Probleme einzelner Codierer oder von Variablen identifizierbar

o

Validitätstest ausgehend von der Annahme der face-validity des Instrumentariums (d.h. die in den Augen des Forschers gelungene/valide Übertragung der Forschungsfrage in das Instrumentarium kann der Reliabilitätstest zwischen Forscher und Codierern als Validitätstest innerhalb der Methode genutzt werden ob der Forscher allerdings „valide Vorstellungen“ hat, ob also die Methode in bezug auf die „Realität“ valide ist, ist damit nicht ausgesagt

Anwendungsphase strukturierte Stichprobe sollte rotiert werden, damit der strotz allem noch vorhandene Codiererbias nicht voll in eine Textsorte eingeht und damit deren Charakter/Ergebnisse systematisch verzerrt evtl. auftretende Zweifelsfälle sollten sofort in der Gruppe diskutiert, deren Lösung schriftlich festgehalten und damit für alle Codierer verbindlich gemacht werden. Voraussetzung ist allerdings, dass das Problem garantiert zum ersten Mal auftritt, d.h. nicht schon ähnliche Fälle abweichend codiert worden sind im Zuge einer langen Codierperiode sollte ein weiterer Reliabilitätstest eingeschoben werden, um Lerneffekte bei den Codierern zu überprüfen Verbesserungen auf dem Codierbogen müssen immer eindeutig gemacht werden (durch Farbe/Überkleben) evtl. Korrekturlesen von Codierbögen bzgl. offensichtlicher Fehler, z.B. bei eigentlich durchgängigen Variablencodierungen)

-

-

Auswertungsphase Erstellung des Rohdatensatzes durch Eingabe der Daten der Codierbögen und deren Kontrollabgleich mit einer zweiten Eingabe Überführung des Rohdatensatzes in eine Systemdatei (auswertungsprogrammspezifisch) mit Definition von Fällen und Variablen samt deren Benennungen

Erweiterungen - synthetische Kategoriensysteme anstatt phänotypische (Aufsplittung in allgemeine Merkmale, wie z.B. Funktion, Darstellungsform, Inhalt... anstatt Kindersendung, Politisches Magazin etc.); d.h. Konstrukte werden zunächst in ihre Merkmale aufgelöst und in der Auswertung

15

-

-

wieder zusammengesetzt (synthetisiert), wobei diese Merkmale immer als zusammengehörig zu identifizieren sein müssen Erfassung einer argumentativen Tendenz o explizite/implizite Argumente gleichwertig o Anzahl der insgesamt vorgebrachten Argumente abzüglich der sie neutralisierenden Argumente = gültige Argumente, die im Sinne einer Tendenz wirksam sind o Ordinalskala 1-7 mit Positionen 4 = neutral, 2 = kontra, 6 = pro, jeweils eine Position als Verstärkung oder Abschwächung; mehrfache Abschwächung 0; neutralisiert Erfassung spezifischer Interaktionszusammenhänge o Erfassung von Akteuren 1 und 2, Der Interaktionsmodalität, dem Thema und der evtl. zum Ausdruck gebrachten Wertung (bzgl. Akteur 1, 2 oder einer externen Person) o Codiereinheit ist eine Interaktionskomponente, die sich dadurch auszeichnet, dass die oben genannten Merkmale invariant bleiben

16

Sign up to vote on this title
UsefulNot useful