You are on page 1of 51

 POCZĄTKI METODOLOGII:

Od starożytności wyróżniamy 2 nurty w myśli ludzkiej, 2 rodzaje refleksji:

a. o zewnętrznej rzeczywistości oraz psychicznym wnętrzu człowieka;


b. o sposobie poznawania rzeczywistości zewnętrznej i własnego wnętrza.

 2 GŁÓWNE DZIAŁY FILOZOFII:


a. ontologia
b. epistemologię.

 METODOLOGIA - Gr. Methodos oznacza drogę, sposób. Logos oznacza naukę.


Dały one początek pojęciu metodologii. Metodologia to nauka o metodzie, nauka o
nauce, metanauka. Każda z nauk (poza nielicznymi) posiada swój realny przedmiot i
obiekt, np. geologia – ziemia, pedagogika – społeczeństwo, ekonomia – gospodarka.
Są to tzw. Nauki pierwszego rzędu, nauki realne, czyli takie, które mają realne,
przedmiotowe odniesienie.

Sposoby poznania w naukach realnych nazywa się metodologią nauk realnych. W


naukach realnych, w wyniku poznania, badania empirycznego, powstają wytwory
zwane teoriami. Inaczej: pewne procesy poznawcze uczonych prowadzą do
uformowania rezultatów – teorii.

Teorie dotyczą zawsze i tylko ZJAWISK, bądź PROCESÓW, które stanowią


przedmiot badań uczonych.

 PRZEDMIOT BADAŃ METODOLOGII:


- Czynności poznawcze uczonych oraz ich rezultaty. Rezultaty te są realne, bo uczeni
żyją i tworzą w danym czasie i miejscu.

 PODZIAŁ NAUK REALNYCH:

a. NAUKI PRZYRODNICZE: fizyka, biologia, chemia, geologia itp.


b. NAUKI SPOŁECZNE: socjologia, pedagogika, ekonomia, etnologia,
psychologia, historia, filozofia, prawo
c. NAUKI HUMANISTYCZNE: filologie, nauki o sztuce i muzyce itp.

 PARADYGMATY UJMOWANIA ROZWOJU NAUKI:


KUMULATYWISTYCZNY paradygmat rozwoju nauki – zakłada, że każdy badacz i
każde pokolenie badaczy dokłada swoją cegiełkę do naukowego gmachu, że
osiągnięcia naukowe się kumulują.

ANTYKUMULATYWISTYCZNY paradygmat rozwoju nauki – zakłada, że nauka


podlega rewolucjom, które kwestionują jej dotychczasowy stan wiedzy i reorientują
myślenie o poszczególnych zjawiskach i procesach.

 ETYKA BADAŃ SPOŁECZNYCH - Każde badanie w naukach społecznych


poddawane jest ocenie etycznej. Niekiedy jest to ocena instytucjonalna (komisje
etyczne), innym razem jest to ocena dokonywana wewnątrz zespołu badawczego.
Każdy badacz jest zobowiązany do przestrzegania zasad etycznych. Dlatego tak ważne
jest nie tylko przyswojenie norm etycznych, lecz także ich internalizacja. Oznacza
ona uznanie tych norm i działanie zgodnie z nimi w przypadku każdego
podejmowanego postępowania badawczego.

ZASADY ETYKI BADAŃ W NAUKACH SPOŁECZNYCH


PROWADZONYCH Z UDZIAŁEM LUDZI:

- Zasady etyki badań w naukach społecznych, a ściślej rzecz biorąc zasady etyki
badań prowadzonych z udziałem ludzi są względnie proste. Składają się na nie:

- Informacja na temat przedmiotu badania, przewidywanego czasu trwania,


ewentualnych ryzykach związanych z uczestnictwem oraz możliwości
upowszechniania jego wyników.

- Dobrowolność uczestnictwa w badaniu – każdy badany ma prawo do odstąpienia od


udziału w badaniu w dowolnym momencie. Innymi słowy – respondent może zgodzić
się na wzięcie udziału w badaniu naukowym, ale może w jego trakcie taką zgodę
cofnąć i zrezygnować.

- Świadoma zgoda na udział w badaniu. Niezwykle istotny element każdego badania.


Może oznaczać zgodę bierną lub czynną.

- Bierna – zgoda wiąże się z uzyskaniem akceptacji badania wyrażonym przez


określone audytorium np. rodziców na zebraniu szkolnym.

- Czynna – zgoda jest pisemną deklaracją uczestnictwa w badaniu składaną na


przykład prze opiekunów prawnych dziecka.
- UWAGA! W przypadku osób nieletnich wymagana jest czynna zgoda opiekunów
prawnych.

- NIE WOLNO prowadzić badań, np. w szkole, po zasięgnięciu opinii i wyrażeniu


zgody przez dyrektora placówki. Dyrektor jako organ administracyjny podejmuje
jedynie decyzję o wejściu badacza na teren szkoły. Nie może udzielić zgody na
badanie dzieci (zwłaszcza do 12 roku życia). Takie prawo przysługuje jedynie
opiekunom prawnym.

- Zapewnienie poufności zgromadzonych danych.

- Zapewnienie anonimowości badanym.

- Unikanie szkodzenia badanym.

PROCES POZNAWCZY W NAUKACH SPOŁECZNYCH. TEORIA I


JEJ FUNKCJE.

 PROCES POZNAWCZY W NAUKACH SPOŁECZNYCH:

a. POWTARZALNY – drogę docierania danych empirycznych można przebyć


wielokrotnie. (możemy dotrzeć do danych wielokrotnie, tzn. że mamy pewien
model działania, który nam pozwala wielokrotnie mierzyć jakieś zjawisko)
(sprawdza się, bo ktoś to kiedyś wymyślił i się sprawdza – to są serio jego słowa,
ja tylko notuje) (ta powtarzalność się sprawdza i powtarzalność jest warunkiem
porównywalności? Nie rozumiem I am sorry te notatki nie będą miały sensu)

b. PORÓWNYWALNY – musi dotyczyć tego samego problemu.

Z zagadnieniem porównywalności wiąże się:

- STANDARYZACJA – następuje ona dzięki posługiwaniu się tym samym


narzędziem.

- NATURALIZACJA – pozyskiwaniu danych w tych samych warunkach,


najlepiej w warunkach najbliższych przedmiotowi badań, (np. jak badasz pracę
nauczycieli to najlepiej w szkole itd.) (chodzi nie tyle o wykorzystywanie ankiety,
a przede wszystkim obserwacje ich)
- KATEGORYZACJA – zamykanie możliwych reakcji przedmioty w procesach
obserwacyjnych oraz respondenta w procesach komunikacyjnych. Inaczej:
ujmowanie tych reakcji w gotowych członach, które ułatwiają porównywanie.
(wiążemy kategoryzacje, szczególnie w narzędziu badawczym z jakimiś członami)
(ujęcie pytań i odpowiedzi w gotowe kategorie)

- INTERSUBIEKTYWNA KOMUNIKOWALNOŚĆ – czyli ten sam język


teoretyczny. (każda dziedzina generuje swoją terminologie – pewien zestaw pojęć
i teorii jest wspólny)

- INTERSUBIEKTYWNA KONTROLOWALNOŚĆ – możliwość sprawdzenia


wyników badań przez innych badaczy. (dwa wymogi – jawność, przejrzystość
postępowania i replikacja czyli na podstawie chyba jakiś badań ktoś chce
potwierdzić czy uzyskane wyniki są prawidłowe?)

 PROCES POZNAWCZY W NAUKACH SPOŁECZNYCH

Proces poznawczy, który spełnia powyższe wymogi, a także jest celowym i


systematycznym nazwiemy naukowym.
Musi jednak dotyczyć problemów ważkich lub/i praktycznie znaczących.

(Tym co odróżnia proces poznawczy w naukach społecznych i nie tylko to jest też
interpretacja tzw. humanistyczna) (Interpretacja jest kluczem, stawiamy też pytanie
czy możliwe jest dotarcie do prawdy obiektywnej, bo interpretacja bywa różna.)
Oprócz wielości interpretacji możemy też mówić o jej trafności lub sile.

 KONTROLA TWIERDZEŃ JAKO ZADANIE METODOLOGII

 EPOISTEMOLOGIA jest filozoficzną nauką o wszelkim poznaniu, zaś


metodologia (jako część epistemologii) zajmuje się poznaniem ucznionych.

Do jej zadań należą:

- Formułowanie zdań proponowanych na twierdzenie nauki(danej dyscypliny


empirycznej),

- Kontrola zdań proponowanych na twierdzenia nauki,


- Łączenie skontrolowanych zdań w szersze zespoły, a tych w systemy.

 REZULTATY KONTROLI TWIERDZEŃ:


Kontrola twierdzeń w nauce może mieć następujące wyniki

- Falsyfikacja – to rozstrzygnięcie o nieprawdziwości zdania. Inaczej: jest to


odrzucenie, obalenie zdania. Falsyfikacja prowadzi do twierdzeń orzekających o
braku. Można uznać zdanie za nieprawdziwe w sensie logicznym,
epistemologicznym lub psychologicznym.

- Dyskonfirmacja – jest to podważanie twierdzenia, czyli osłabienie jego


uzasadnienia. Twierdzenie „ubywa” wiarygodności.

- Konfirmacja – to uznanie zdania za wysoce prawdopodobne ze względu na jego


dotychczasowe uzasadnienie. Inaczej – jest to przechodzenie od hipotezy do
zdania uzasadnionego empirycznie (przez pewną liczb prób badawczych, jednak
nie można osiągnąć weryfikacji poprzez powiększanie liczby prób empirycznych).

- Weryfikacja – jest to całkowite potwierdzenie zdania, czyli uznanie zdania za


prawdziwe. Prawdziwość oznacza tu obowiązywanie zawsze, wszędzie, bez
wyjątku.

W naukach społecznych, w tym w pedagogice, nie można doprowadzić ani do


pełnej falsyfikacji twierdzenia, ani do jego weryfikacji. Dlatego mówimy jedynie o
dyskonfirmacji lub konfirmacji.

METODY BADAWCZE W NAUKACH SPOŁECZNYCH

 METODY – PROCEDURY – TECHNIKI BADAWCZA


 Można mówić o swoistym ułożeniu metod, procedur i technik badawczych oraz
relacji nadrzędności.

 METODA – to sposób rozwiązywania problemu naukowego, który dodatkowo


zawiera założenie ontologiczne i metodologiczne dotyczące przedmiotu objętego
poznaniem. Sposób ten obejmuje również poszczególne kroki badawcze dotyczące
postępowania poznawczego (badawczego) jako całości.

 PROCEDURA BADAWCZA – przeciwieństwie do metody badawczej nie


zawiera ani założeń ontologicznych, ani metodologicznych. Oparta jest jedynie na
kryteriach: czasu, kosztów, wysiłku. Właśnie efektywność jest tu bardzo ważnym
momentem.

RODZAJE PROCEDUR SONDAŻOWYCH:

- SONDAŻ ZWYKŁY (BADANIE POLINGOWE) – najprostszy sondaż, który


ma za zadanie szybko i sprawnie zebrać informacje. Nadaje się do takich
zastosowań, gdzie chcemy szybko zebrać opinie na jakiś temat. Opinie nie mają
charakteru głębinowego, czyli nie zawsze są przemyślane itd., oraz są zmienne.
EXIT POLL (wersja sondażu zwykłego) – np. badanie po wyjściu z lokalu
wyborczego – reguła 3 jedynek, albo jedności – 1 czas prowadzenia badania, 1
miejsce, 1 pytanie. W celu monitorowania jakichś zjawisk czy procesów
edukacyjnych, w warunkach szczególnie zmiany edukacyjnej (w sensie, że w
takim wypadku też się go używa).

- SONDAŻ POGŁĘBIONY (SURVEY) – sondaż diagnostyczny – może służyć


tylko diagnozie, a nie eksploracji i wyjaśnieniu. On w ogóle nie wytłumaczył co to
tylko pierdzieli na około.

PROCEDURA BADAŃ TERENOWYCH – badacz, bądź jego zespół, ma


kontakt bezpośredni z badanymi, zwykle jego naturalnym środowisku. Używana
często w antropologii kulturowej. Sondaż oznacza również wykorzystanie innych
technik. Długotrwały kontakt, obserwacja. Może służyć eksploracji, odkryciu
nowego zjawiska.

BADANIE PANELOWE (LONGITUDINALNE/PODŁUŻNY) – oparte jest na


panelu badawczym, czyli jakiejś części zbiorowości, jakiejś próbie badawczej,
zbiorze jednostek, który poddajemy pomiarowi w określonych odstępach czasu.
Np. pytanie „kim chcesz być w przyszłości” powtarzane w tej grupie co jakiś
konkretny upływ czasu.

 TECHNIKA BADAWCZA – to konkretny sposób postępowania w jakiejś


wyróżnionej fazie postępowania badawczego/ Techniki odpowiadają frazom
postępowania, stąd możemy mówić o technikach: problematyzacji, konkretyzacji,
operacjonalizacji, doboru próby, otrzymywania danych, pomiaru, analizy danych
itd.

Najczęściej utożsamia się techniki wyłącznie z otrzymywaniem danych, czyli np.:


technika ankiety, wywiadu. To błąd, ponieważ rozmaite techniki pojawiają się na
różnych etapach postępowania badawczego – j.w.

TECHNIKI KOMUNIKACYJNE:

- WYWIADY – zawsze współwystępuje z obserwacją


a. kwestionariuszowy – pozwalająca na dotarcie do uwarunkowań pewnych opinii,
do ich uzasadnień, jest już średnio głębinowa. Jest prowadzony w oparciu o
kwestionariusz, tzn. że mamy przygotowane szczegółowo pytania do tego
wywiadu (zamknięte i otwarte).

b. pogłębiony (in depth interview) – tu jest lista dyspozycji do wywiadów, tzn.


zawiera ogólnie kierunki prowadzenia tego wywiadu, np. pytamy tylko o sytuacje
mieszkaniową.

c. zogniskowany (grupowy) (Focus group interview) – nie bierze w nim udziału


jeden rozmówca, tylko więcej (niby 8-12). Badacz pełni rolę moderatora, a fokus
prowadzony w oparciu o scenariusz, Jest podział na role, bo można mieć inne
pytanie do osoby A, B, C. Fokus określamy też jako dyskusję grupową. Ma
wywiązać się dyskusja pomiędzy uczestnikami badania. Moderator analizuje
dyskusje i wyciąga z niej wnioski dotyczące przedmiotu badania.

„Fokus, badanie fokusowe bądź w skrócie FGI (ang. focus group interview) to
współczesne określenia znanej techniki gromadzenia danych w naukach
społecznych. Można zapytać, dlaczego właśnie ta technika skłania do szczególnej
refleksji odnośnie jej empirycznego statusu? Dlatego, że „ma już swoje lata” i
dlatego, że nowe czasy, nowoczesne społeczeństwa oraz nowoczesne badania
empiryczne stawiają coraz to nowe wyzwania przed wywiadami w ogóle, a przed
wywiadami grupowymi w szczególności.” – z artykułu prof. Banaszaka
- ANKIETY – taka technika pozyskiwania danych, która jest uzyskiwana przez
kwestionariusz, czyli jest wysoce ustandaryzowana i zakłada w przeważającej
liczbie przypadków brak kontaktów między badaczem a respondentem. W
ankiecie liczba pytań otwartych jest zminimalizowana. Różnica między
kwestionariuszem wywiadu a ankiety jest taka, że ten ankiety ma instrukcje. Tzn.
każde pytanie w nawiasie będzie miało instrukcje dla respondenta, a w wywiadzie
jak są instrukcje to dla badacza.

a. rozdawana – może zakładać kontakt z respondentem, ale też nie

b. internetowa – np. poprzez rozsyłane linki

c. audytoryjna – sorry, nie słuchałam

TECHNIKI OBSERWACYJNE:
- POŚREDNIA

- BEZPOŚREDNIA

 Najczęściej stosowane metody (samodzielnie lub komplementarnie) w naukach


społecznych, w tym w pedagogice to:

1. Metoda historyczno-porównawcza
2. Metoda monograficzna
3. Metoda biograficzna
4. Metoda statystyczna
5. Metoda eksperymentalna
6. Metoda typologiczna
7. Metoda ekologiczna
8. Metoda sytuacyjna.

 PROJEKTOWANIE BADAŃ JAKOŚCIOWY I MIESZANYCH ( W NAUCE O


INFORMACJI – INFORMATOLOGII) – ELEMENTY I ETAPY (problem
badawczy, pytania badawcze, cele badań, wybór paradygmatów, wybór typu
badań, wybór podstawy teoretycznej, wybór strategii/metodologii, wybór
perspektywy epistemologicznej, wybór metody/metod badawczych, dobór próby
badawczej itd.
DABBIE EARL – LOGIKA DOBORU PRÓBY:
 DOBÓR PRÓBY – proces wyboru obserwacji.

Rozwijał się poprzez badania zachowań i preferencji politycznych. Badania zachowań


politycznych stanowią jedną z niewielu okazji do przekonania się o trafności
szacunków – w dniu wyborów badacze społeczni przekonują się na ile ich badania
były trafne lub nie.

OSTATECZNYM CELEM DOBORU PRÓBY JEST WYBRANIE Z POPULACJI


TAKIEGO ZESTAWU ELEMENTÓW, ABY OPIS TYCH ELEMENTÓW
TRAFNIE ODDAWAŁ OBRAZ CAŁEJ POPULACJI, Z KTÓREJ ZOSTAŁY ONE
DOBRANE.

 TYPY DOBORU PRÓBY

a. PRÓBY PROBABILISTYCZNE – jest oparta na rachunku prawdopodobieństwa.


U jej podstaw leży dobranie „próby losowej” z listy zawierającej nazwiska
wszystkich osób z badanej populacji. Dziś stosowana np. do ogólnokrajowych
sondaży wyborczych.

b. PRÓBY NIEPROBABILISTYCZNE – badania społeczne prowadzone są często w


sytuacjach, w których niemożliwe jest dobranie prób probabilistycznych tego
rodzaju, jakie stosuje się w dużych sondażach. Np. gdy ktoś chce badać
bezdomnych, to nie istnieje lista osób bezdomnych i jest mało prawdopodobne, że
zdołamy ją stworzyć.

TYPY DOBORU NIEPROBABLISTYCZNEGO:

- DOBÓR OPARTY NA DOSTĘPNOŚCI BADANYCH – zdawanie się na


dostępność przedmiotów badania dobieranych do próby, czyli np. dobór próby
poprzez zatrzymywanie ludzi na ulicy. Jest ryzykowna, bo nie dopuszcza żadnej
kontroli nad reprezentatywnością próby. Może być uzasadniona tylko, gdy badacz
chce zbadać cechy osób przechodzących przez dane miejsce o określonych porach
lub gdy nie ma możliwości zastosowania mniej ryzykownych metod doboru próby.

- DOBÓR CELOWY LUB ARBITRALNY – dobranie próby na podstawie


własnej wiedzy o badanej populacji oraz celach badań. Np. w początkowej fazie
tworzenia kwestionariusza można chcieć dobrać jak najróżniejszych
respondentów, by sprawdzić szerokie zastosowanie pytań.

- METODA KULI ŚNIEŻNEJ – uważana przez niektórych za formę doboru


przypadkowego. Ta procedura jest właściwa, gdy trudno jest odszukać członków
jakiejś specyficznej populacji, takiej jak bezdomni czy nielegalni imigranci. W tej
metodzie badacz zbiera dane o kilku członkach badanej populacji, których da się
odszukać, a następnie prosi te osoby o dostarczenie informacji potrzebnych do
odszukania innych członków tej populacji, których akurat zna. Określenie „kula
śnieżna” odnosi się do procesu akumulacji, gdyż każda odszukana osoba podaje
inne sposoby. Jako, że reprezentatywność prób wyłonionych za pomocą tej
procedury może być poddana w wątpliwość, jest ona używana przede wszystkich
do celów eksploracyjnych.

- DOBÓR KWOTOWY – podobnie jak próba losowa, uwzględnia kwestię


reprezentatywności, chociaż każda z tych dwóch metod podchodzi do niej zupełnie
odmiennie. W próbie kwotowej wychodzi się od macierzy lub tabeli, opisującej
istotne dla badania cechy populacji. W zależności od celów badania, badaczowi
może być potrzebna wiedza, np. jaki jest udział mężczyzn i kobiet w badanej
populacji oraz jaki jest udział każdej płci w poszczególnych kategoriach wieku,
poziomu wykształcenia, grupach etnicznych itd. Gdy macierz jest już stworzona i
dla każdej komórki tabeli określone zostały odpowiednie udziały procentowe,
należy następnie zebrać dane od osób mających wszystkie cechy określone w
danej komórce tabeli. Potem wszystkim osobom w danej komórce przypisuje się
wagę odpowiednią do ich udziału w całej populacji. Gdy zostaną w ten sposób
przeważone wszystkie elementy próby, całość danych powinna dać sensowną
reprezentację całej populacji.

 WYBÓR INFORMATORÓW

RESPONDENCI - w badaniach społecznych, pojęcie te odnosi się do ludzi, którzy


dostarczają informacji o sobie samym, umożliwiając w ten sposób badaczowi
stworzenie złożonego obrazu grupy, który ci respondenci reprezentują.

INFORMATOR – jest członkiem grupy, który może wypowiadać się bezpośrednio o


grupie.

 TEORIA I LOGIKA DOBORU LOSOWEGO – dobór nieprobabilistyczny,


chociaż jest poprawny przy niektórych celach badawczych, nie może dać gwarancji,
że obserwowana przez nas próba jest reprezentatywna dla całej populacji. Gdy
badacze chcą uzyskać dokładny opis statystyczny wielkich populacji, np. chcą określić
jakie procent danej populacji stanowią bezrobotni, jaki procent zamierza głosować na
danego kandydata lub jaki procent uważa, że ofiara gwałtu powinna mieć prawo do
aborcji, to powinni wybrać nieprobabilistyczny (losowy) dobór próby. Wszystkie duże
sondaże korzystają z metodo doboru probabilistycznego.
 ŚWIADOME I NIEŚWIADOME OBCIĄŻENIE PRÓBY

OBCIĄŻENIE DOBORU PROBY – oznacza, że wybrane osoby nie są „typowe”


czy „reprezentatywne” dla szerszej populacji, z której zostały dobrane. Taki rodzaj
obciążenia, nie musi być zamierzony. Trudno jest go uniknąć, gdy np. dobiera się
ludzi z najbliższego otoczenia.
Np. Kobiety stanową tylko 50% naszej mikropopulacji, a podgrupa najbliżej badacza
składa się z 70% z kobiet, a chociaż w populacji jest 12% Afroamerykanów, żadna z
tych osób nie znalazła się w próbie. Innym problemem mogą być własne skłonności
badacza, np. badacz podświadomie dobiera lub unika jakichś konkretnych osób ze
względu na ich specyfikę. Kolejny przykład to sondaże telefoniczne, bądź
internetowe, w których udział może wziąć każdy chętny, bez możliwości
zweryfikowania przez badacza, czy dana osoba faktycznie wpisuje się w grupę osób,
do których badanie jest skierowane.

 REPREZENTATYWNOŚĆ I PRAWDOPODOBIEŃSTWO WYBORU


Np. uznajemy próbę za reprezentatywną dla populacji, z której została dobrana, jeśli
zagregowane cechy tej próby ściśle odzwierciedlają te same zagregowane cechy
populacji. Jeśli np. 50% populacji stanowią kobiety, to próba musi zawierać w
przybliżeniu 50% kobiet, aby była reprezentatywna.
Próby nie muszą być reprezentatywne pod każdym względem; reprezentatywność
ogranicza się do tych cech, które są związane z głównymi celami badań, jednak nie
zawsze wiemy z góry, który cechy są istotne.

ESPEM (metody równego prawdopodobieństwa wyboru) - PODSTAWOWA


ZASADA DOBORU LOSOWEGO JEST NASTĘPUJĄCA: PRÓBA JEST
REPREZENTATYWNA DLA POPULACJI, Z KTÓREJ JEST DOBIERANA, JEŚLI
WSZYSCY CZLONKOWIE TEJ POPULACJI MAJĄ TAKIE SAME SZANSE, ŻE
ZOSTANĄ WYBRANI DO TEJ PRÓBY. PRÓBY MAJĄCE TAKĄ WŁASNOŚĆ,
SĄ OKREŚLANE CZĘSTO JAKO ESPEM.

ELEMENT – ta jednostka, o której zbiera się informacje, i która dostarcza podstaw


do analiz. W badaniach sondażowych, elementy to z reguły ludzie lub pewne typu
ludzi, jednak elementami mogą być także rodziny, stowarzyszenia itd. W danych
badaniach elementy i jednostki analizy często są te same, choć te pierwsze odnoszą się
do doboru próby, a te drugie do analizy danych.

POPULACJA – określony teoretycznie zbiór elementów badania.

BADANA POPULACJA – to ten zbiór elementów, z którego próba jest faktycznie


pobrana. Praktycznie wygląda to tak, że badacza rzadko mogą mieć pewność, że
każdy element pasujący do ustalonych teoretycznych definicje faktycznie miał szansę
bycia wybranych do próby. Znaczy jakby serio ja nic z tego nie rozumiem co tu
napisałam.
 DOBÓR LOSOWY – w losowaniu każdy element może zostać wybrany z takim
samym prawdopodobieństwem, niezależnie od innych zdarzeń w procesie sekwencji.
Przyczyną wyboru metody doboru losowego jest kontrola świadomego lub
nieświadomego obciążenia próby następującego ze strony badacza oraz to, że daje
dostęp do zasobów rachunku prawdopodobieństwa, co stanowi podstawę do
oszacowania cech populacji, a także do oszacowania dokładności prób.

JEDNOSTKA LOSOWA – to ten element lub zbiór elementów, który jest brany do
wylosowania na jakiś etapie procesu doboru próby.

 RACHUNEK PRAWDOPODOBIEŃSTWA, ROZKŁAD Z PRÓB I


SZACOWANIE BŁĘDU Z PRÓBY

RACHUNEK PRAWDOPODOBIEŃSTWA – dziedzina matematyki, która


dostarcza narzędzi potrzebnych badaczowi do opracowania technik doboru próby,
zapewniających reprezentatywność i do analizy statystycznej wyników uzyskanych z
tak dobranej próby. Dostarcza podstaw do szacowania parametrów w populacji.
Umożliwia badaczom szacowanie i osą d z jakim prawdopodobieństwem te szacunki
będą dokładnie odwzorowywać faktyczne parametry w populacji.

PARAMETR – to syntetyczny opis jakiejś zmiennej w populacji.

ROZKŁAD PRÓB DLA DZIESIĘCIU PRZYPADKÓW (PRZEPISUJE CAŁE,


BO NIC NIE ROZUMIEM): „Wyobraźmy sobie grupę dziesięciu osób, z których
każda ma pewną kwotę pieniędzy w kieszeni. Dla uproszczenia załóżmy, że jedna
osoba w ogóle nie ma pieniędzy, druga ma jednego dolara, trzecia dwa dolary, itd., aż
do osobny, która ma dziewięć dolarów. Rysunek 7.3 pokazuje taką dziesięcioosobową
populację. Naszym zadaniem jest określenie średniej kwoty pieniędzy dla tej
populacji: konkretnie, średniej liczby dolarów. Jeśli po prostu zsumujesz pieniądze
przedstawione na rysunku 7.3, okaże się, że suma wynosi 45 USD, więc średnia
wynosi 4,50 USD. Celem dalszego ciągu tego ćwiczenia jest oszacowanie tej średniej
bez rzeczywistej znajomości wszystkich dziesięciu jednostek. Dokonamy tego przez
dobranie prób losowych z tej populacji i zastosowanie średnich, obliczonych dla tych
prób, do oszacowania wartości średniej dla całej naszej populacji, Na początek
przypuśćmy, że mamy dobrać – losowo -próbę złożoną z tylko jednej osoby z tych
dziesięciu. Tak więc nasze dziesięć możliwych prób składa się z dziesięciu
przypadków pokazanych na rysunku 7.3. Dziesięć kropek na wykresie na rysunku 7.4
przedstawia owe dziesięć prób. Ponieważ losowaliśmy próby tylko jednoosobowe,
przedstawiają one również „średnie”, które otrzymalibyśmy jako estymatory dla
populacji. Rozkład tych kropek na wykresie nazywa się rozkładem z prób.
Oczywiście w zależności od tego, którą osobę wylosujemy, oszacujemy średnią dla
całej grupy jako wartość z zakresu od 0 USD do 9 USD. Jasne zatem, że dobieranie
próby tylko jednego przypadku nie jest dobrym pomysłem, gdyż z dużym
prawdopodobieństwem rozminęlibyśmy się znacznie z prawdziwą średnią wynoszącą
4,50 USD. A teraz załóżmy, że losujemy próby dwuosobowe. Jak się można
przekonać na podstawie rysunku 7.5, zwiększanie wielkości próby poprawia nasze
szacunki. Mamy teraz 45 możliwych prób: |0 USD 1 USD|, |0 USD 2 USD|, … |8
USD 9 USD|. Co więcej, niektóre z tych prób mają takie same średnie. Dla przykładu |
0 USD 6 USD|, |1 USD 5 USD| i |2 USD 4 USD| wszystkie mają średnią 3 USD. Te
trzy próby widać na rysunki 7.5 w postaci trzech kropek ponad średnią 3 USD. W
dodatku uzyskane przez nas 45 średnich z prób nie jest tak równo rozłożone, jak miało
to miejsce, kiedy nasza wielkość próby była równa tylko 1. Są one raczej jakby
skupione wokół prawdziwej wartości 4,50 USD. Tylko dwie z możliwych prób
odchylają się aż o 4 USD do prawdziwej wartości (|0 USD 1 USD| i |8 USD 9 USD|),
podczas gdy pięć prób daje prawdziwe oszacowanie 4,50 USD, osiem kolejnych prób
chybia celu o jedyne 50 centów (na plus lub minus). Przypuśćmy teraz że dobieramy
jeszcze większe próby. Jak sądzisz, jak wpłynie to na nasze szacunki? Rysunek 7.6
ukazuje rozkłady z prób dla prób o liczebności 3, 4, 5 i 6. Postęp rozkładów z prób jest
ewidentny. Każdy przyrost wielkości próby poprawia rozkład szacunków średniej.
Krańcowym przypadkiem w tym przykładzie jest oczywiście dobranie próby 10 osób.
Istniałaby tylko jedna możliwa próba (wszyscy) i dałaby nam ona prawdziwą wartość
średniej 4,50 USD.”
ROZKŁAD Z PRÓB I SZACOWANIE BŁĘDU Z PRÓBY -  miara
probabilistyczna określona na zbiorze wartości pewnej zmiennej losowej (wektora
losowego), przypisująca prawdopodobieństwa wartościom tej zmiennej[1]. Formalnie
rozkład prawdopodobieństwa można rozpatrywać bez odwołania się do zmiennych
losowych. (definicja z google, bo serio z książki nic nie ogarniam).

BŁĄD Z PRÓBY (LOSOWY) – poziom błędu oczekiwany dla danego rodzaju


próby, szacowany przez rachunek prawdopodobieństwa. Wzór na błąd z próby:
P, Q – parametry populacji w rozkładzie dwuwartościowym

Q=1–P

P–1–Q

n – liczba przypadków w każdej próbie

s – błąd standardowy

POZIOMY I PRZEDZIAŁY UFNOŚCI – składniki szacowania błędu z próby.


Dokładność statystyk z prób wyrażamy w kategorii POZIOMU UFNOŚCI co do tego,
że statystyki mieszczą się określonym PRZEDZIALE od parametru.

 POPULACJE I OPERATY LOSOWANIA

OPERATA LOSOWANIA – to lista lub quasi-lista elementów, z której losuje się


próbę. Jeśli próba studentów jest losowana z wykazu studentów, to wykaz ten jest
operatem losowania. Operat losowania musi być zbieżny z populacją, którą chcemy
badać. W najprostszym modelu doboru próby operatem losowania jest lista
elementów, tworzących badaną operatę, ale w praktyce to dostępne operaty losowania
definiują badaną populacje. Populacje, z których można dobrać próbę na podstawie
listy to np. uczniowie szkół, studenci i pracownicy uniwersytetów, pracownicy firm.

PRZEGLĄD POPULACJI I OPERATÓW LOSOWANIA (wskazówki, które


warto zapamiętać):
1. Wyniki badań opartych na próbie można uznać za reprezentatywne tylko w
odniesieniu do zbioru elementów tworzących operat losowania.

2. Operaty losowania nie zawsze zawierają naprawdę wszystkie elementy, które


mogłaby sugerować ich nazwa. Braki są niemal nieuniknione. Dlatego główną
troską badacza powinno być określenie zakresu braków i wyrównanie ich, jeśli to
możliwe.

3. Nawet, jeśli wyniki są uogólniane tylko na populację tworzącą operat losowania,


wszystkie jej elementy muszą mieć taką samą reprezentację w operacie losowania.
Najbardziej typowa jest sytuacja, w której każdy element występuje tylko raz.
Elementy pojawiąjące się więcej niż raz będą mieć większe prawdopodobieństwo
wyboru, w próbie zaś będą one, ogólnie rzecz biorąc, nadreprezentowane.

 TYPY DOBORU PRÓBY

a. PROSTY DOBÓR LOSOWY – podstawowa metoda, której użycie jest


zakładane w obliczeniach statystycznych w badaniach społecznych. Po właściwym
ustaleniu operatu losowania, badacz, który chce zastosować prosty dobór losowy,
numeruje kolejno wszystkie elementy listy, następnie używa się tablic liczb
losowych, aby dobrać elementy do próby.

b. DOBÓR SYSTEMATYCZNY – do próby dobierany jest systematycznie co k-ty


element listy. Pierwszy element powinien być wylosowany, aby uniknąć obciążeń,
czyli np. wylosowanie liczby między 1 a 10. Do tej próby zostałby włączony
element o tym numerze, plus każdy co dziesiąty element po nim.

INTERWAŁ LOSOWANIA – to standardowa odległość między elementami


dobieranymi do próby (w przykładzie wynosi on 10).

PROPORCJA LOSOWANIA – stosunek liczby elementów wylosowanych do


liczebności całej populacji (w przykładzie to 1/10)/

c. DOBÓR WARSTWOWY - metoda losowego doboru osób do próby badanej, w


trakcie którego najpierw dzieli się badaną zbiorowość na jednorodne grupy
(wydzielone z uwagi na płeć, wiek, miejsce zamieszkania, wykształcenie itp.), a
następnie z każdej grupy losuje się określoną liczbę jednostek. DEFINICJA Z
INTERNETU

 DOBÓR PRÓBY WIELOSTOPNIOWY GRUPOWY – zakłada na ogół podejście


wielostopniowe, z początkowym losowaniem grup elementów, zwanych także
gronami czy wiązkami – a następnie losowaniem elementów obrębie każdej
wylosowanej grupy. Dobór ten wymaga powtarzania spisywania i losowania.

PRÓBA GRUPOWA – może być stosowana wtedy, gdy narzędzie wyczerpującej


listy elementów wchodzących w skład populacji, jest niemożliwe lub bardzo trudne.
Jednak elementy populacji często są już pogrupowane w subpopulacje, a listy takich
subpopulacji albo już istnieją, albo można je bez trudu sporządzić.

 SCHEMATY DOBORU WIELOSTOPNIOWEGO A BŁĄD Z PRÓBY –


dwustopniowa próba grupowa cechuje się dwoma błędami z próby:

a. Początkowa próba grup reprezentuje populację tych grup z uwzględnieniem


zakresu błędu z próby.
b. Próba elementów dobranych w ramach danej grupy, reprezentuje wszystkie
elementy w grupie tylko w takich zakresie, jaki jest możliwy po uwzhlędnieniu
błędy z próby.

PRZYPOMNIENIE: Błąd z próby jest redukowany przez zwiększenie wielkości


próby oraz zwiększenie homogeniczności losowanych elementów.

 PODSUMOWANIE POBRABILISTYCZNEGO DOBORU PRÓBY:

- Dobór probabilistyczny pozwala na uniknięcie świadomych bądź nieświadomych


obciążeń próby powstałych z winy badacza. Gdy wszystkie elementy populacji mają
taką same (lub przeważoną) szansę znalezienia się w próbie, istnieje jak najwięsze
prawdopodobieństwo, że dobrana w tej sposób próba dokładnie odzwieciedla
populację wszystkich elementów.

- Pozwala oszacowanie błędu z próby.

GŁÓWNE ZAGADNIENIA (to wszystko przepisane z końca rozdziału):

- Badacze społeczni muszą wybierać obserwacje, pozwalające im dokonywać


uogólnień na ludzi i wydarzenia, których nie obserwują. Często wymaga to dobierania
próby, wybierania ludzi do obserwacji.

- Niekiedy można i należy stosować próby losowe, oparte na ścisłych technikach


statystycznych, ale kiedy indziej właściwsze są nieprobabilistyczne techniki doboru
próby.

- Nieprobabilistyczne techniki doboru próby obejmują dobór oparty na dostępności


badanych, dobór celowy lub arbitralny, metodę kuli śnieżnej i dobór kwotowy.
Ponadto badacze zajmujący się jakąś grupą społeczną mogą korzystać z informatorów.
Każda z tych technik ma swoje zastosowania, ale żadna z nich nie daje gwarancji, że
dobrana w tej sposób próba jest reprezentatywna dla populacji, z której została
dobrana.
- Metody probabilistycznego doboru prób są znakomitym sposobem dobierania prób
reprezentatywnych z dużych, znanych populacji. Metody te są w stanie zaradzić
problemowi świadomego lub nieświadomego obciążenia próby poprzez zapewnienie
każdemu elementowi w populacji znacznego (niezerowego) prawdopodobieństwa
znalezienia się w próbie.

- Kluczem do probabilistycznego doboru próby jest losowanie.

- Nawet najstaranniej dobrana próba nigdy nie jest doskonałą reprezentacją populacji,
z której została dobrana. Zawsze jest jakiś margines błędu z próby.

- Metody probabilistycznego doboru próby umożliwiają dla danej próby oszacowanie


oczekiwanego błędu z próby, poprzez przewidywanie rozkładu z prób ze względu na
dany parametr.

- Oczekiwany błąd w danej próbie określany jest w kategoriach poziomów ufności i


przedziałów ufności.

- Operat losowania jest listą lub quasi-listą członków populacji. Jest wykorzystywany
do losowania próby. Reprezentatywność próby zależy bezpośrednio od tego, w jakim
stopniu operat losowania uwzględnia wszystkich członków populacji generalnej, którą
próba ma reprezentować.

- Badacze mają do wyboru różne schematy losowania próby.

- Prosty dobór losowy jest logicznie najbardziej podstawową techniką doboru


probabilistycznego, ale rzadko stosuje się go w praktyce.

- Dobór systematyczny wiąże się z wybieraniem co k-tego członka z operatu


losowania. Metoda ta jest bardziej praktyczna niż prosty dobór losowy, a przy tym,
poza paroma wyjątkami – funkcjonalnie rozważna.

- Stratyfikacja, proces grupowania członków populacji we względnie homogeniczne


warstwy przed losowaniem, poprawia reprezentatywność próby, redukują wielkość
błędu z próby.

- Wielostopniowy dobór grupowy jest relatywnie złożoną techniką doboru próby,


która stosuje się często wtedy, gdy nie istnieje lista wszystkich członków populacji.
Na ogół aby uzyskać potrzebną wielkość próby, badacze muszą określić równowagę
między liczbą grup a ich liczebnością. Aby zrównoważyć błąd z próby związany z
procedurą wielostopniową, można zastosować podział na warstwy,

- Dobór probabilistyczny proporcjonalny do wielkości to specjalna, efektywna metoda


wielostopniowego doboru grupowego.
- Gdy występują różnice w prawdopodobieństwie znalezienia się w próbie między
poszczególnymi członkami populacji, to dla zapewnienia reprezentatywnego obrazu
całej populacji, badacze muszą nadać poszczególnym obserwacjom wagi. Generalnie
waga przypisana do konkretnego członka populacji powinna być odwrotnością
prawdopodobieństwa jego znalezienia się w próbie.

CRESWELL – PROCEDURY BADAŃ MIESZANYCH:


 KRÓTKA HISTORIA BADAŃ MIESZANYCH:
Kilka źródeł wskazuje na początki tego ujęcia w psychologii i macierzy wielu cech-
wielu metod Campbella i Fiske’a (1959)i opisuje jego dalszy rozwój w wyniku
rosnącego zainteresowania triangulacją ,czyli zespalaniem różnych źródeł danych
ilościowych i jakościowych, aż do powstania odrębnej metodologii badawczej

 TYPY STRATEGII MIESZANYCH I MODELE WIZUALNE


Jest kila typologii służących klasyfikacji i identyfikacji typów strategii mieszanych,
które można wykorzystać w projekcie badania. Creswell i Plano Clark (2007)
wyodrębnili 12 systemów klasyfikacyjnych pochodzących z takich dziecin jak:
ewaluacja badań, pielęgniarstwo, zdrowie publiczne, polityka edukacyjna i badania
edukacyjne oraz nauki społeczne i behawioralne. W klasyfikacjach tych autorzy
używają różnych określeń swoich schematów badawczych, a stosowane typologie w
wielu miejscach pokrywają się.

a. SEKWENCYJNA STRATEGIA EKSLANACYJNA jest popularną strategią


badań mieszanych, która szczególnie przemawia do wyobraźni badaczy
skłaniających się raczej ku badaniom ilościowym. Polega na pozyskiwaniu i
analizie danych ilościowych w pierwszej fazie badania oraz pozyskiwaniu i
analizie danych jakościowych w drugiej fazie, dla której podbudowę stanowią
wstępne wyniki ilościowe. Ten schemat stosuje się przede wszystkim do
eksplanacji i interpretacji wyników ilościowych poprzez pozyskiwanie i
analizowanie uzupełniających danych jakościowych. Może być szczególnie
użyteczny, gdy badanie ilościowe daje nieoczekiwane wyniki. Strategia ta może
lecz nie musi mieć szczególnej podbudowy teoretycznej. Prostota schematu to jego
zaleta. Główną wadę stanowi natomiast czasochłonność gromadzenia danych w
dwóch odrębnych fazach. Jest to utrudnienie zwłaszcza wtedy, gdy obu fazom
przypisuje się jednakową ważność.

b. SEKWENCYJNA STRATEGIA EKSPLORACYJNA jest podobna do


sekwencyjnego ujęcia eksplanacyjnego, lecz jej fazy są odwrócone. Składa się z
fazy pierwszej, w której gromadzone i analizowane są dane jakościowe i z fazy
drugiej, w której gromadzone są i analizowane dane ilościowe na podbudowie
wyników fazy pierwszej. Priorytet ma z reguły faza pierwsza. Schemat ten może
lecz nie musi być realizowany z wyrażoną wprost perspektywę teoretyczną. Celem
tej strategii jest zastosowanie danych i wyników ilościowych jako wsparcia
interpretacji wyników jakościowych. Ten model służy wstępnej eksploracji danego
zjawiska. Podaje się że powód wyboru tego ujęcia to zamiar ustalenia rozkładu
jakiegoś zjawiska w określonej populacji. Stosuje się ją również kiedy trzeba
opracować narzędzie ponieważ te które są , są niedostępne lub nieodpowiednie.
Jest łatwa do przeprowadzenia i przydatna dla badaczy, którzy chcą poznać jakieś
zjawisko , ale również poszerzyć swoje spojrzenie o wyniki jakościowe.

c. SEKWENCYJNA STRATEGIA TRANSFORMATYWNA jest projektem


dwufazowym z nastawieniem teoretycznym ukierunkowującym procedury
sekwencyjne. I tu wyróżnia się fazę wstępną, która uzupełnia fazę drugą,
rozwijająca się na podbudowie pierwszej. W tym schemacie na pierwszą fazę
składa się jedna lub druga metoda badawcza, można jednej z nich przypisać
priorytet lub obie potraktować jako równoważne. Model transformatywny w
przeciwieństwie do poprzednich jest podporządkowany perspektywie teoretycznej.
Podział na dwie fazy w tym przypadku umożliwia odwołanie się do różnych
perspektyw, aby skuteczniej zaangażować się na rzecz uczestników lub pełniej
zrozumieć zjawisko bądź proces zmieniający się w wyniku badania. Jedną ze
słabości modelu jest brak wskazówek, jak urzeczywistnić wizję transformatywną
za pomocą konkretnych metod.

d. RÓWNOLEGŁA STRATEGIA TRIANGULACYJNA jest chyba najbardziej


znanym z sześciu głównych modeli badań mieszanych. Ujęcie to polega na
jednoczesnym zbieraniu danych jakościowych i ilościowych i porównywaniu obu
baz danych w celu stwierdzenia zbieżności , różnic lub jakichkolwiek powiązań.
W tym modelu stosuje się na ogół osobno metody ilościowe i jakościowe, aby
słabości jednej metody zrekompensować mocnymi stronami drugiej. Gromadzenie
danych odbywa się równolegle w jednej fazie pracy badawczej. Najlepiej gdy obie
metody uznaje się za równorzędne., choć w praktyce często którejś przypisuje się
priorytet. Ten model jest korzystny ponieważ zna go większość badaczy, a jego
wyniki są dobrze uzasadnione i wiarygodne. Model ten ma także wiele ograniczeń.
Wymaga dużo nakładu pracy i doświadczenia, aby dobrze zbadać zjawisko
dwiema osobnymi metodami.
e. RÓWNOLEGŁA STRATEGIA ZANURZENIOWA podobnie jak poprzednia
strategia poprzestaje na jednej fazie gromadzenia danych, w której jednocześnie
pozyskuje się dane ilościowe i jakościowe. W przeciwieństwie do modelu
triangulacyjnego równoległa strategia zanurzeniowa główną metodę, która
ukierunkowuje projekt ,oraz drugorzędną bazę danych która w procesach spełnia
rolę pomocniczą. Metoda drugorzędna jako mniej ważna jest zanurzona lub
zagnieżdżona w metodzie dominującej. Owe zanurzenie może oznaczać, że
metoda drugorzędna zajmuje się innym pytaniem niż metoda główna lub służy do
pozyskiwania informacji na poziomie analizy. Ten model może mieć różne
zastosowania. Pozwala często uzyskać szersze spojrzenie w wyniku wykorzystania
różnych metod w przeciwieństwie do posługiwania się jedną dominującą metodą.
Jest to model atrakcyjny ponieważ badacz może gromadzić dwa typy danych
równolegle, w jednej fazie otrzymując dane ilościowe i jakościowe. Wiąże się
również z pewnymi ograniczeniami. Dane trzeba w jakiś sposób przekształcić ,
aby można było je zintegrować w analitycznej fazie badania. Przy porównywaniu
dwóch baz danych pojawią się niekiedy rozbieżności, które trzeba wyjaśnić.
Ponieważ zastosowane dwie metody mają różny priorytet, uzyskane wyniki mogą
mieć nierówną moc przekonywania, co utrudnia ostateczną interpretacje.

f. RÓWNOLEGŁA STRATEGIA TRANSORMATYWNA jest ukierunkowana


przez szczególną perspektywę teoretyczną, jednak w tym wypadku dane ilościowe
i jakościowe są pozyskiwane równolegle. Perspektywę badawczą może stawić
jedną z ideologii , takich jak teoria krytyczna, badanie zaangażowane,
uczestniczące lub struktura pojęciowa bądź teoretyczna. Perspektywa tu
uwidacznia się w sformułowaniu celu lub pytań badawczych. Ten model może
mieć cechy ujęcia triangulacyjnego lub zanurzeniowego. Mieszanie danych polega
na scalaniu, łączeniu lub zanurzaniu. Ponieważ ten model wykazuje cechy ujęcia
triangulacyjnego i zanurzeniowego , można mu przypisać wszystkie ich mocne i
słabe strony. Jednak dodatkową zaletą jest postać usytuowania badania
mieszanego w strukturze transformatywnej.

 4 ASPEKTY, OD KTÓRYCH ZALEŻY PROJEKT PROCEDUR BADANIA


MIESZANEGO:

a. ROZPLANOWANIE W CZASIE - autor projektu powinien zastanowić się nad


rozplanowaniem w czasie pozyskiwania danych jakościowych i ilościowych ,
decydując najpierw czy będą one zbierane fazami czyli sekwencyjnie czy
równocześnie czyli synchronicznie. Jeśli zbieranie danych dzieli się na fazy to
trzeba ustalić , które z tych danych będą pierwsze. Jeżeli autor zbiera najpierw
dane jakościowe to oznacza że chce dokonać eksploracji tematu z udziałem
uczestników w miejscu badania. Później będzie rozszerzał w drugiej fazie
pozyskując dane od większej liczby osób. Synchroniczne gromadzenie danych
oznacza, że dane ilościowe i jakościowe są zbierane w tym samym czasie i
równolegle wykorzystywane.

b. HIERARCHIA WAŻNOŚCI - należy uwzględnić w projekcie procedur drugi


czynnik czyli hierarchie ważności , czyli priorytet badań jakościowych bądź
ilościowych w danej pracy badawczej. Czasami są równoważne, a czasami
jednemu przypisuje się większe znaczenie. Priorytet zależy od zainteresowań
badacza i odbiorców pracy oraz od tego co autor chce przekazać. Hierarchie
uwidacznia się w umieszczaniu inf. jakościowych bądź ilościowych na pierwszym
miejscu, ile poświęca się uwagi jednemu lub drugiemu rodzajowi danych oraz w
przewadze ujęcia indukcyjnego ( wyodrębnianie zakresów tematycznych z danych
jakościowych) bądź dedukcyjnego ( testowanie teorii).

c. SPOSÓB MIESZANIA DANYCH - mieszanie danych okazuje się trudne


ponieważ dane jakościowe składają się z tekstów i obrazków a dane ilościowe z
liczb. Mieszanie dwóch typów danych dokonuje się na różnych etapach :
gromadzenia danych , analizy, interpretacji lub we wszystkich trzech fazach. W
projekcie badania mieszanego należy przedstawić zamiar mieszania danych i
wskazać, w którym miejscu planuje się dokonać operacji. Mieszanie może
oznaczać pełne mieszanie danych, pełne zachowywanie ich odrębności lub jakieś
rozwiązanie pośrednie między tymi dwiema skrajnościami. Łączenie oznacza
natomiast mieszanie danych ilościowych i jakościowych pomiędzy analizą danych
z pierwszej fazy a zbieraniem danych w drugiej fazie Możliwe jest równoległe
pozyskiwanie danych ilościowych i jakościowych i scalanie obu zbiorów przez
zamianę wątków jakościowych w liczby i porównywanie tych liczb z opisowymi
danymi jakościowymi. W tym wypadku mieszanie polega na integracji dwóch baz
danych przez zespolenie danych ilościowych z jakościowymi W ostatniej opcji
badacz może traktować jedną formę danych np. jakościowe jako podstawowy
materiał swojej pracy, a druga formę np. ilościowe jako informacje dodatkowe.
Tutaj nie integruje się danych, ani nie łączy między fazami. Następuje natomiast
zanurzenie drugorzędnej formy danych w kontekście szerszego badania, w których
forma danych jest inna.

d. TEORETYCZNE PODSTAWY BADANIA - teoretyczne lub transformatywne


podstawy badania należy wziąć pod uwagę czy całość projektu ma jakieś ogólne
podłoże teoretyczne. Może to być teoria nauk społecznych lub szersze nastawienie
teoretyczne takie jak perspektywa zaangażowana/uczestnicząca. Autorzy wnoszą
do swoich badań teorie struktury lub przeświadczenia, które w badaniu mieszanym
mogą być wyrażone wprost lub pośrednio. Teorie stanowią nadrzędną
perspektywę , która może być wykorzystywana we wszystkich strategiach badań
mieszanych. Martens (2003) pokazuje oddziaływanie perspektywy
transformatywnej we wszystkich fazach procesu badawczego badań mieszanych.
 ALTERNATYWNE STRATEGIE I MODELE WIZUALNE
W projekcie należy zamieścić opis strategii i jej model wizualny jak również wskazać
podstawowe procedury jakimi zamierza posłużyć się autor realizując daną strategie.
Do opisywania strategii badań mieszanych stosuje się specjalne oznaczenia.

1. SCHEMATY SEKWENCYJNE

a. SEKWENCYJNY SCHEMAT EKSPLANACYJNY (a)

b. SEKWENCYJNY SCHEMAT EKSPLORACYJNY (b)

c. SEKWENCYJNY SCHEMAT TRANSFORMATYWNY (c)


2. SCHEMATY RÓWNOLEGŁE

a. RÓWNOLEGŁY SCHEMAT TRIANGULACYJNY (a)

b. RÓWNOLEGŁY SCHEMAT ZANURZONY (b)

c. RÓWNOLEGŁY SCHEMAT TRANSFORMATYWNY (c)

 WYBÓR STRATEGII BADANIA MIESZANEGO


W projekcie badania należy wskazać konkretną strategię, jaką badacz zamierza
wykorzystać do gromadzenia danych. Powinien także przedstawić w postaci wizualnej
planowane procedury. Wskazówki badawcze: - wybrać jedno z sześciu ujęć
przedstawionych powyżej , podać definicje roboczą tego schematu, uzupełnioną
modelem wizualnym i uzasadnieniem - określ ilość czasu potrzebnego na zebranie
danych - jeśli masz ograniczenia czasowe wybierz model zanurzeniowy - jeśli brakuje
ci doświadczenia wybierz ujęcie eksplanacyjne - zapoznaj się z publikacjami gdzie
zastosowano różne ujęcia - znajdź publikacje w której zastosowane schemat, którego
sam planujesz użyć

 PROCEDURY GROMADZENIA DANYCH


Choć model wizualny i omówienie konkretnych strategii daje wyobrażenie o
procedurach, warto jednak omówić typy gromadzonych danych. Należy również
wskazać strategie doboru prób oraz procedury służące do oceny trafności danych -
określ jakie dany – zarówno ilościowe jak i jakościowe – będą pozyskiwane w trakcie
badaniach - zwróć uwagę na dobór próby ; w projekcie należy uwzględnić ścisłe
procedury gromadzenia danych ilościowych i jakościowych, odnosząc się do strategii
badań mieszanych; Teddlie i Yu (2007) zaproponowali 5 typów doboru próby.

5 TYPÓW DOBORU PRÓBY:


a. podstawowe strategie polegające na łączeniu danych ilościowych i jakościowych
b. sekwencyjny dobór próby
c. zintegrowany dobór próby
d. wielopoziomowy dobór próby
e. dobór próby z zastosowaniem jakiejś kombinacji

 ANALIZA DANYCH I PROCEDURY WALIDACJI


Sposób analizy danych w badaniu mieszanym zależy od typu strategii badawczej
wybranej dla procedur. W projekcie należy zatem wskazać procedury dla danego
schematu badania. Analizę przeprowadza się zarówno w podejściu ilościowym jak i
jakościowym.

NAJPOPULARNIEJSZE SPOSOBY ANALIZY DANYCH W BADANIACH


MIESZANYCH:

a. transformacja danych – stosując strategie równoległe , można kwantyfikować dane


jakościowe. Polega to na jakościowym definiowaniu kodów i zakresów
tematycznych, a następnie wyliczaniu ile razy pojawiają się one w danych
tekstowych
b. eksploracja elementów odstających – w modelu sekwencyjnym, w którym w
pierwszej fazie zastosowano analizę danych ilościowych uzyskuje się czasami
skrajne przypadki , niepasujące do przyjętego modelu. Uzupełniające wywiady
jakościowe pomagają wyjaśnić dlaczego owe przypadki odstają od próby
ilościowej

c. opracowanie narzędzia - stosując ujęcie sekwencyjne , należy w fazie wstępnej


gromadzenia informacji danych jakościowych wyodrębnić zakresy tematyczne i
konkretne wypowiedzi uczestników. W następnej fazie wypowiedzi te
wykorzystuje się jako tematy i kryteria skali, tworząc narzędzie sondażowe w
nawiązaniu do poglądów uczestników. W trzeciej , ostatniej fazie dokonuje się
walidacji narzędzia , wypróbowując je na większej próbie reprezentatywnej
populacji.

d. badanie kilku poziomów – w modelu zanurzeniowym na jednym poziomie


przeprowadza się sondaż ,aby uzyskać dla próby wyniki ilościowe. Jednocześnie
przeprowadza się wywiady jakościowe w celu eksploracji badanego zjawiska.

e. tworzenie matrycy – porównując dane gromadzone równolegle, zbiory danych


ilościowych i jakościowych łączy się ze sobą w matrycy. Oś pozioma może być
ilościową zmienna kategorialną , oś pionowa obejmowałaby wówczas dane
jakościowe.

 STRUKTURA PREZENTACJI RAPORTU


Podobnie jak analiza danych powinna być zgodna z typem planowanej strategii
badawczej.

STRUKTURA OSTATECZNEGO RAPORTU:

a. w badaniu sekwencyjnym raport z procedur zawiera osobno zbieranie i analizę


danych ilościowych oraz zbieranie i analizę danych jakościowych; w następnej
fazie autor komentuje wnioski.

b. w badaniu równoległym zbieranie danych ilościowych i jakościowych może być


przedstawione w osobnych częściach pracy, jednak analiza i interpretacja łączą
obie formy danych w poszukiwaniu zgodności lub podobieństwa wyników.

c. w badaniu transformatywnym zwykle na początku formułuje się ideę, którą


autor zamierza wspierać , a następnie wprowadza strukturę sekwencyjną lub
równoległą , która ukazuje przekazywane treści.
FRAKNFORT – POMIAR

 POMIAR - przyporządkowywanie cyfr lub liczb obiektom, zdarzeniom lub zmiennym


zgodnie z określonymi regułami. Pojęcie pomiaru jest ściśle powiązane z pojęciem definicji
operacyjnych. Definicje operacyjne to procedury pomiarowe łączące poziom pojęciowo-
teoretyczny z poziomem empiryczno-obserwacyjnym. Mówiąc dokładniej, pomiar to
procedura, w której przyporządkowuje się, zgodnie z określonymi zasadami, wartości
liczbowe — cyfry lub inne symbole — właściwościom empirycznym (zmiennym).

TRZY POJĘCIA WYKORZYSTYWANE DO DEFINIOWANIA POMIARU:


a. CYFRY - to symbole przedstawiane w postaci I, II, III,..., lub 1, 2, 3,... Cyfry nie
mają znaczenia ilościowego, dopóki im takiego sensu nie nadamy. Cyfry można
wykorzystywać do opisywania zjawisk, obiektów czy osób.

b. PRZYPORZĄDKOWANIE - oznacza przydzielanie. Cyfry lub liczby są


przydzielane obiektom czy zdarzeniom.

c. REGUŁY - określają procedurę, jaką posłużono się w trakcie przypisywania cyfr


lub liczb obiektom czy zdarzeniom. Reguła może stanowić: „Przyporządkuj
systemom politycznym liczby od 10 do 15, zgodnie ze stopniem ich
demokratyczności.

 STRUKTURA POMIARU
Reguły są najbardziej istotnym elementem procedury pomiarowej, ponieważ
wyznaczają jakość pomiaru. Złe reguły sprawiają, że pomiar jest pozbawiony sensu.
Pomiar jest bezsensowny wówczas, kiedy nie przystaje do rzeczywistości, kiedy
brakuje mu podstaw empirycznych. Funkcją reguł właśnie jest wiązanie procedury
pomiarowej z rzeczywistością.

„Przypuśćmy na przykład, że chcemy dokonać pomiaru miękkości trzech obiektów.


Jeżeli obiekt A może zarysować obiekt B i nie vice versa, to obiekt B jest bardziej
miękki niż obiekt A. Podobnie, jeżeli obiekt A może zarysować obiekt B i obiekt B
może zarysować obiekt C, to A prawdopodobnie również zarysuje C. Możemy zatem
wyciągnąć wniosek, że obiekt C jest bardziej miękki niż obiekt A. Ponieważ możemy
to sprawdzić, więc — po przeprowadzeniu kilku testów na zarysowanie — możemy
przyporządkować każdemu obiektowi liczby wskazujące na stopień jego miękkości.
W tej sytuacji procedura pomiarowa i system liczbowy są izomorficzne w stosunku do
rzeczywistości.”

INFORMIZM - oznacza „podobieństwo lub identyczność struktury". Podstawowym


pytaniem w dziedzinie pomiaru jest pytanie o to, czy wykorzystany system liczbowy
ma podobną strukturę do struktury mierzonych pojęć. W naukach fizycznych problem
izomorfizmu ma zazwyczaj znaczenie drugorzędne, ponieważ relacja pomiędzy
mierzonymi pojęciami a liczbami przypisanymi dokonanym obserwacjom jest
najczęściej bezpośrednio dana. W naukach społecznych natomiast naukowcy muszą
zawsze być świadomi tego, że podobieństwo to nie musi być ani oczywiste, ani wprost
określone: aby mogli oni dokonywać określonych operacji na liczbach, które zostały
przyporządkowane obserwacjom, struktura zastosowanej przez nich metody
przyporządkowania liczb obiektom musi być izomorficzna względem określonej
struktury liczbowej zawierającej te operacje

W naukach społecznych bardzo często dokonujemy pomiaru wskaźników pojęć.


Pojęć takich, jak: demokracja, motywacja, wrogość czy władza nie można
obserwować bezpośrednio; badacze wyprowadzają wnioski dotyczące tych pojęć na
podstawie pomiaru ich empirycznych, obserwowalnych wskaźników. Jeżeli w
systemie politycznym regularnie przeprowadza się wybory, to można sądzić, że jest to
jeden ze wskaźników demokracji. Jeżeli rozwiązując test dotyczący motywacji,
otrzymamy określony wynik, to psycholog może na tej podstawie wyciągnąć wnioski
o naszym poziomie motywacji. W przykładach tych określone zachowanie zostało
potraktowane jako wskaźnik pojęcia teoretycznego. Uczeni, badając pojęcia
abstrakcyjne, bardzo często opracowują wskaźniki złożone. Wiele istotnych pojęć
stosowanych w naukach społecznych to właśnie pojęcia wielopłaszczyznowe,
wymagające tworzenia złożonych wskaźników uwzględniających różne aspekty
badanego pojęcia.

Wskaźników nie można tworzyć arbitralnie. Powinny one mieć odniesienia zarówno
w teorii, jak i w empirii. I tak wskaźniki demokracji opisane w poprzednim
przykładzie zostały wyprowadzone i z teorii demokracji, i z rzeczywistego
funkcjonowania systemu politycznego. I chociaż sam proces pomiaru pojęć
bezpośrednio obserwowalnych jest taki sam jak proces pomiaru wskaźników pojęć, to
określenie reguł przyporządkowania w drugim przypadku sprawia więcej kłopotów,
ponieważ proces pomiaru wskaźników wymaga szerszego zakresu wnioskowania.
Trafność wyprowadzanych wniosków może z kolei zależeć od zastosowanej
metodologii i logicznej struktury teorii leżącej u podstaw badań. I wreszcie, procedura
pomiaru ma sens z punktu widzenia nauki jedynie wtedy, kiedy można ją powiązać z
jakąś teorią wyjaśniającą. Podsumowując, wskaźniki są określane przez definicje
operacyjne. Po dokonaniu obserwacji wskaźników badacze mogą zastąpić
obserwowane wartości tych wskaźników za pomocą cyfr lub liczb i przeprowadzić
analizę ilościową. Struktura numeryczna narzędzia pomiarowego musi być taka sama,
pod względem relacji i operacji, jak struktura wskaźnika; zatem obie struktury muszą
być izomorficzne.

 POZIOMY POMIARU
Ponieważ system numeryczny i mierzone właściwości empiryczne (wskaźniki) muszą
być izomorficzne, można wyróżnić różne sposoby pomiaru czy, używając języka
technicznego, różne poziomy pomiaru. (Czasami zamiast terminu „poziom pomiaru"
używa się terminu „skala". Skale można traktować jako instrument pomiarowy —
skalą jest licznik szybkości, podobnie jak linijka czy kwestionariusz). Operacje
matematyczne i statystyczne, jakie można przeprowadzić na określonym zbiorze liczb,
zależą od osiągniętego poziomu pomiaru. Omówimy cztery podstawowe poziomy
pomiaru — nominalny, porządkowy, interwałowy i stosunkowy — oraz istotę
podstawowych operacji dopuszczanych na każdym z nich.

a. POZIOM NOMINALNY - Najniższym poziomem pomiaru jest poziom nominalny.


Na tym poziomie wykorzystuje się cyfry lub inne symbole do klasyfikowania
obiektów lub obserwacji do określonej liczby kategorii. Te cyfry lub symbole tworzą
skalę nominalną lub inaczej klasyfikacyjną. Na przykład za pomocą cyfr 1 i 2 można
poklasyfikować określoną populację na mężczyzn i kobiety, gdzie 1 reprezentuje
mężczyzn, a 2 kobiety. Nominalny poziom pomiaru zostanie osiągnięty wówczas,
kiedy zbiór obiektów zostanie poklasyfikowany na kategorie, które będą wyczerpujące
(tzn. będą zawierać wszystkie obiekty określonego rodzaju), wzajemnie rozłączne
(tzn. żaden obiekt nie zostanie jednocześnie zaliczony do więcej niż jednej kategorii) i
każdej kategorii zostanie przypisany inny symbol, który będzie ją reprezentował. Od
strony matematycznej podstawową cechą nominalnego poziomu pomiaru jest to, że
właściwości obiektów wpadających do jednej kategorii są traktowane jako identyczne
dla wszystkich przypadków, tj. dla wszystkich przypadków wpadających do jednej
kategorii. Na nominalnym poziomie pomiaru naukowcy mogą klasyfikować obiekty,
stosując każdy zbiór symboli. Badacz może również zmieniać symbole, nie zmieniając
I otrzymywanych informacji, jeśli uczyni się to jednolicie i dla wszystkich kategorii

b. POZIOM PORZĄDKOWY - W naukach społecznych analizuje się wiele


zmiennych, które nie tylko można klasyfikować, ale też porządkować ze względu na
określone relacje. Typowymi relacjami są „wyższy", „większy", „bardziej pożądany",
„trudniejszy" itd. Relacje te można przedstawiać za pomocą symbolu >, który oznacza
„większy niż". Relacja > w odniesieniu do konkretnych własności może oznaczać „jest
wyższy niż ",,Jest 11 większy niż", „jest bardziej pożądany niż" itp. Ogólnie rzecz
biorąc, osiągnęliśmy porządkowy poziom pomiaru, jeżeli relacja > (obok
równoważności) zachodzi dla wszystkich obserwacji tworzących zbiór w pełni
uporządkowany (na przykład od „największego" do „najmniejszego").
RELACJA RÓWNOWAŻNOŚCI - zachodzi pomiędzy przypadkami posiadającymi
tę samą rangę, natomiast relacja > zachodzi pomiędzy każdą parą rang. Relacja > nie
jest zwrotna, nie jest symetryczna i jest przechodnia. Brak zwrotności relacji to
właściwość logiczna zachodząca dla każdego a wtedy, kiedy nie jest prawdą, że a > a.

NIESYMETRYCZNOŚĆ - oznacza, że jeżeli a > b, to b < a.


PRZECHODNIOŚĆ RELACJI - oznacza, że jeżeli a > b i b > c, to a > c.

c. POZIOM INTERWAŁOWY - Jeżeli, obok możliwości porządkowania zbioru


obserwacji w terminach relacji >. można również określić dokładną odległość
pomiędzy kolejnymi obserwacjami i ta odległość jest stała, to zrealizowaliśmy
interwałowy poziom pomiaru. Oprócz możliwości stwierdzenia, że jeden obiekt
jest większy niż drugi, możemy teraz określić, o ile dokładnie jednostek pierwszy
jest większy od drugiego. Aby można było dokonać takiego ilościowego
porównania, musimy dysponować dokładną jednostką pomiaru. Interwałowy
poziom pomiaru ma zatem określoną i stałą jednostkę pomiaru, która
przyporządkowuje liczbę rzeczywistą każdej parze obiektów w uporządkowanym
zbiorze. Przy tego rodzaju pomiarze stosunek dwóch interwałów (odległości) jest
niezależny od jednostki pomiaru Przykładami zmiennych mierzonych na poziomie
interwałowym są dochody, iloraz inteligencji (IQ), wyniki otrzymywane w teście
SAT, głosy wyborców czy odsetek przestępstw.
Na interwałowym poziomie pomiaru różnice pomiędzy obiektami są izomorficzne
względem systemu arytmetycznego. Przypisując liczby pozycjom obiektów na
określonej skali, możemy w sposób sensowny wykonywać szereg operacji
arytmetycznych na różnicach pomiędzy tymi liczbami.

WŁASNOŚCI FORMALNE INTERWAŁOWEGO POZIOMU POMIARU:

1. JEDNOZNACZNOŚĆ – jeżeli a i b oznaczają liczby rzeczywiste, to


wynikiem działań a + b i a x b jest jedna i tylko jedna liczba rzeczywista.

2. SYMETRYCZNOŚĆ – jeżeli a = b, to b-a

3. PRZEMIENNOŚĆ – jeżeli a i b oznaczają liczby rzeczywiste, to a + b = b + a


oraz ab = ba

4. PODSTAWIANIE – jeżeli a = b i a + c-d, to b + c-d; i jeżeli a-b i ac = d, to


bc=d

5. ŁĄCZNOŚĆ - jeżeli a, b i c oznaczają liczby rzeczywiste, to (a + b) + c = = a


+ (b + c) i (ab)c = a(bc)
d. POZIOM STOSUNKOWY - Zmienne, które mają naturalny punkt zerowy (tj. na
przykład taki punkt, w którym zamarza woda), można mierzyć na poziomie
stosunkowym. Zmienne takie, jak: waga, czas, długość czy powierzchnia mają
naturalny punkt zerowy i można je mierzyć na poziomie stosunkowym. Na tym
poziomie iloraz dwóch liczb jest również niezależny od jednostki pomiaru. Poziom
interwałowy i stosunkowy są do siebie podobne i podobne są zasady
przyporządkowywania liczb obiektom — z jednym wyjątkiem. Na poziomie
stosunkowym liczby przyporządkowujemy mierzonym wielkościom, począwszy od
zera absolutnego; na poziomie interwałowym punkt zerowy jest ustalany arbitralnie.
Stosunkowy poziom pomiaru jest najczęściej osiągany w naukach ścisłych (np. w
fizyce).

4 WARUNKI:

- zachodzi relacja równoważności

- zachodzi relacja „większy niż”

- znana jest wielkość dwóch dowolnych interwałów

- istnieje prawdziwy punkt zerowy.

W SKRÓCIE:

1. Poziom nominalny. Na poziomie nominalnym cyfry lub symbole są


wykorzystywane do klasyfikowania obiektów lub wyników obserwacji. Zjawiska
znajdujące się w jednej kategorii są sobie równe, lecz nie są równe zjawiskom
znajdującym się w innej kategorii (oznacza to, że na poziomie nominalnym zachodzi
relacja równoważności).

2. Poziom porządkowy. Jeżeli między zmiennymi zachodzi relacja porządku, to można


je mierzyć na poziomie porządkowym. Relację tego rodzaju oznacza się symbolem >
(większy niż). Na poziomie porządkowym również zachodzi relacja równoważności.

3. Poziom interwałowy. Jeżeli znana jest dokładna odległość między wynikami dwóch
obserwacji i jest ona stała, to możemy dokonać pomiaru na poziomie interwałowym.
Między zjawiskami mierzonymi na tym poziomie również zachodzi relacja
równoważności, a także jeden wynik może być większy (lub mniejszy) od drugiego.

4. Poziom stosunkowy. Jeżeli zmienne mają naturalny punkt zerowy, to można je


mierzyć na poziomie stosunkowym. Na poziomie stosunkowym również zachodzi
relacja równoważności, także relacja porządku (jeden obiekt jest większy niż inny)
oraz istnieje stały interwał
 TRANFORMACJA DANYCH - Zmienne, które da się zmierzyć na skali
stosunkowej, można również mierzyć poziomie interwałowym, porządkowym i
nominalnym.

 BŁĄD POMIARU - Wszelkie zróżnicowanie nie wynikające z rzeczywistych różnic


między mierzonymi.

TYPOWE ŹRÓDŁA BŁĘDU POMIARU:

a. otrzymane wyniki można przypisać pewnej innej właściwości powiązanej z


mierzoną właściwością, której badacz intencjonalnie nie zamierzał mierzyć

b. różnice otoczenia, w którym dokonuje się pomiaru, także przyczyniają się do


powstania błędu pomiaru. ( np. wiek , rasa , płeć )

c. różnice w sposobie stosowania narzędzia pomiarowego (np. słabe oświetlenie,


hałas, zmęczony ankieter) mogą powodować błąd pomiaru.

d. błąd pomiaru może również wynikać z różnic w przetwarzaniu danych (np. wtedy,
kiedy różne osoby niejednakowo kodują podobne odpowiedzi).

e. niejednakowa interpretacja wyników tego samego narzędzia pomiarowego.

RODZAJE BŁĘDÓW:

a. SYSTEMATYCZNE - pojawiają się wraz z zastosowaniem narzędzia pomiarowego i


występują w odniesieniu do wszystkich osób badanych i wszystkich badań. W sposób
systematyczny przyczyniają się one do zmniejszenia trafności otrzymanych wyników

b. LOSOWE - pojawiają się również wraz z każdym zastosowaniem narzędzia


pomiarowego, jednakże mają one charakter przypadkowy. Ze względu na rolę, jaką
odgrywa tu problematyka trafności i rzetelności, od niej rozpoczniemy omawianie
technik pozwalających zmniejszyć błąd pomiaru.

 TRAFNOŚĆ
Trafność dotyczy następującego pytania: „Czy udało nam się zmierzyć to, co
zamierzaliśmy zmierzyć?" Problem trafności pojawia się dlatego, że w naukach
społecznych, z nielicznymi tylko wyjątkami, mamy do czynienia z pomiarem
pośrednim. W takiej sytuacji badacze nigdy nie są do końca pewni, czy dokonują
pomiaru zmiennych, dla których zaprojektowali procedurę pomiarową.
RODZAJE TRAFNOŚCI:

a. TREŚCIOWA:
- TRAFNOŚĆ FASADOWA - odwołuje się do subiektywnej oceny trafności
narzędzia pomiarowego dokonanej przez badacza. W praktyce trafność fasadowa
nie dotyczy pytania, czy narzędzie pomiarowe mierzy to, co badacz chciałby, aby
mierzyło, lecz dotyczy raczej stopnia, w jakim badacz jest przekonany, że jego
narzędzie pomiarowe jest właściwe. Główny problem dotyczący trafności
fasadowej polega na tym, że nie istnieją dokładne i powtarzalne procedury, które
pozwoliłyby na ocenę narzędzia pomiarowego. Ponieważ dokładne powtórzenie
procedury pomiarowej jest rzeczą niezwykle trudną, badacz musi polegać na
ocenach subiektywnych.

- TRAFNOŚĆ DOBORU PRÓBY - interesujemy się przede wszystkim tym, czy


określona populacja (np. zbiór wszystkich przypadków w świecie rzeczywistym)
jest adekwatnie reprezentowana przez dane narzędzie pomiarowe. Innymi słowy,
czy twierdzenia, pytania lub wskaźniki — tj. treść narzędzia pomiarowego —
adekwatnie odzwierciedlają mierzoną właściwość. Założenie leżące u podstaw
trafności doboru próby to założenie dotyczące istnienia populacji treści składającej
się z dużej liczby pozycji (wyrażanych w postaci twierdzeń, pytań lub
wskaźników).

b. EMPIRYCZNA - Trafność empiryczna odwołuje się do związku pomiędzy


dwoma narzędziami pomiarowymi i ich wynikami. Naukowcy przyjmują, że jeżeli
narzędzie pomiarowe jest trafne, to powinien istnieć silny związek pomiędzy
wynikami uzyskanymi dzięki zastosowaniu tego narzędzia a rzeczywistym
związkiem zachodzącym pomiędzy mierzonymi zmiennymi.

TRAFNOŚĆ PROGNOSTYCZNA - jest wyrażana przez siłę związku


(współczynnik korelacji) pomiędzy wynikami danego narzędzia pomiarowego i
zewnętrznym kryterium. Taka analiza polega na obliczeniu współczynnika
korelacji pomiędzy dwoma zbiorami pomiarów. Ten konkretny współczynnik
korelacji nazywa się współczynnikiem trafności. Innymi kryteriami, które można
wykorzystać do badania trafności testów inteligencji, są na przykład wyniki testów
społecznego przystosowania czy oceny funkcjonowania.

DWA PROBLEMY OGÓLNE, KTÓRE NALEŻY UWZGLĘDNIĆ


BADAJĄĆ TRAFNOŚĆ PROGNOSTYCZNĄ:
- dotyczący wyboru kryterium
- dotyczący trafności kryterium

c. TEORETYCZNA - Badacze określają trafność teoretyczną, badając narzędzie


pomiarowe w świetle szerszego kontekstu teoretycznego po to, aby sprawdzić, czy
narzędzie pomiarowe jest powiązane z pojęciami i teoretycznymi założeniami tego
kontekstu. Lee J. Cronbach, pierwszy orędownik koncepcji trafności teoretycznej,
uważał, że „jeżeli osoba badająca testem pyta, jakie psychologiczne znaczenie
mają wyniki testowe lub dlaczego dana osoba uzyskuje określony wynik testowy,
to pyta ona o to, za pomocą jakich pojęć można właściwie wyjaśnić wykonanie
testu"6. Oczekiwania teoretyczne dotyczące mierzonej zmiennej pozwalają
badaczowi na sformułowanie twierdzeń o rodzaju i stopniu związku pomiędzy
określoną zmienną i innymi zdefiniowanymi zmiennymi. Aby określić trafność
teoretyczną narzędzia pomiarowego, badacz musi sprawdzić, czy takie związki
rzeczywiście zachodzą.

W SKRÓCIE:

Trafność treściowa. Przekonanie badacza, że narzędzie pomiarowe mierzy określoną


charakterystykę, jest odzwierciedlone w postaci tzw. trafności fasadowej — subiektywnej
oceny trafności narzędzia pomiarowego. Z kolei trafność doboru próby pozwala określić
zakres, w jakim pytania, twierdzenia i inne wskaźniki wbudowane w narzędzie pomiarowe
odzwierciedlają mierzoną właściwość.

Trafność empiryczna. Jeżeli narzędzie pomiarowe jest trafne, to powinien zachodzić silny
związek pomiędzy wynikami, jakie można prognozować na jego podstawie i wynikami
otrzymanymi za jego pomocą. Trafność empiryczną można również oszacować, porównując
wyniki danego narzędzia z wynikami otrzymanymi za pomocą innych narzędzi pomiarowych.

Trafność teoretyczna. Ten rodzaj trafności można oszacować, badając narzędzie pomiarowe
w świetle szerszego kontekstu teoretycznego.

 RZETELNOŚĆ - stosunek wariancji wyników prawdziwych do wariancji całkowitej


otrzymanych wyników". (Wariancja jest miarą rozproszenia wyników; opisuje, w
jakim stopniu wyniki różnią się od siebie)

WSPÓŁCZYNNIK RZETELNOŚCI - może zatem przyjmować wartości od 0


(kiedy pomiar nic zawiera niczego ponad błąd) do 1 (kiedy błąd został całkowicie
wyeliminowany). W praktyce nie można obliczyć wyniku prawdziwego niezależnie
od błędów, które mogą się pojawić w każdym akcie pomiaru. Dlatego należy
oszacować wielkość stosunku o;/o].

SPOSOBY SZACOWANIA RZETELNOŚCI:

a. METODA POWTÓRNEGO TESTOWANIA - Polega na dwukrotnym


przebadaniu tej samej grupy osób tym samym narzędziem pomiarowym i na
obliczeniu współczynnika korelacji pomiędzy dwoma zbiorami wyników
(obserwacji). Współczynnik ten nazywa się współczynnikiem rzetelności. W tym
wypadku błąd obejmuje wszystkie te czynniki, które powodują, że wynik
otrzymany przez daną osobę w jednym badaniu jest inny niż wynik tej osoby w
drugim badania.
JEJ OGRANICZENIA:
- pomiar dokonany za pierwszym razem może wpłynąć na pomiar dokonany za
drugim razem.
- ponieważ wiele zjawisk podlega ciągłym zmianom, może się zdarzyć tak, że
zmiany te wydarzą się w przerwie pomiędzy dwoma pomiarami i wpłyną na
obniżenie współczynnika rzetelności.

b. METODA FORM RÓWNOLEGŁYCH - Aby zastosować tę technikę, badacz


musi stworzyć dwie równoległe wersje narzędzia pomiarowego. Następnie
dokonuje się pomiaru tej samej grupy osób badanych za pomocą obu form i
koreluje otrzymane dwa zbiory wyników w celu otrzymania miary rzetelności.
Stosowanie tej techniki rodzi jednak nowy problem, a mianowicie, czy dwie formy
testu są oczywiście równoległe. Chociaż istnieją testy statystyczne pozwalające
sprawdzić, czy dwie formy testu są równoległe w terminach wskaźników
statystycznych, to| oceniając wyniki, badacze nadal muszą polegać na własnych
sądach .

c. METODA POŁÓWKOWANIA - Szacowanie rzetelności w metodzie


połówkowej polega na traktowaniu każdej z dwóch lub więcej części testu jako
niezależnej skali. Przypuśćmy, że naszym narzędziem pomiarowym jest
kwestionariusz. Kwestionariusz dzielimy na dwie części w ten sposób, że pytania
nieparzyste tworzą jedną część, a pytania parzyste drugą. Każda z dwóch części
kwestionariusza jest oceniana i traktowana niezależnie. Uzyskane w ten sposób
dwa zbiory wyników są następnie korelowane ze sobą. a współczynnik korelacji
jest traktowany jako miara rzetelności.

Aby na podstawie korelacji połówek testu oszacować rzetelność całego testu,


należy zastosować proroczy wzór Spearmana-Browna: Cronbach, Rajaratnam i
Glesser dokonali rewizji klasycznego pojęcia rzetelności . Ich zdaniem
podstawowym problemem teorii rzetelności powinna być odpowiedź na pytanie:
„Jak dalece (na jakie uniwersum) chcemy uogólniać potencjalne wyniki testowe?"
Zamiast pojęcia rzetelności wprowadzili oni pojęcie uniwersalizacji. Zgodnie z
teorią uniwersalizacji tym, co naprawdę nas interesuje, w jakim jeden zbiór
pomiarów jest podobny do innego zbioru pomiarów pochodzącego z uniwersum
wszystkich potencjalnych miar oraz pod kątem jakich właściwości są one do siebie
podobne. Ta sama zasada odnosi się do różnic pomiędzy zbiorami pomiarów
pochodzących z uniwersum potencjalnych miar.

PODSUMOWANIE:
1. Pomiar polega na przyporządkowywaniu liczb zmiennym, właściwościom czy
zdarzeniom zgodnie z określonymi regułami. Istotą tej definicji jest
sformułowanie ..zgodnie z określonymi regułami". Reguły te wiążą procedury
pomiarowe z rzeczywistością, tj. ustalają homomorfizm pomiędzy określoną strukturą
liczbową a strukturą mierzonej zmiennej. Określenie izomorfizmu jest warunkiem
przeprowadzenia takich operacji matematycznych na liczbach, które odpowiadają
rzeczywistym właściwościom.

2. Izomorfizm pomiędzy systemem liczbowym i właściwościami empirycznymi pozwala


na rozróżnienie czterech poziomów pomiaru: nominalnego, porządkowego,
interwałowego i ilorazowego. Ogólnie rzecz biorąc, poziom pomiaru określa, jakie
analizy ilościowe można przeprowadzać na określonym zbiorze wartości liczbowych.

3. Procedury pomiarowe są bardzo wrażliwe na zabieg transformacji danych i błąd


pomiaru. Właściwości, które można zmierzyć z większym poziomem precyzji, można
również zmierzyć z mniejszą precyzją, ale nie odwrotnie. Oznacza to, że niektóre dane
można przekształcić z poziomu ilorazowego na nominalny, ale żadnych danych z
poziomu nominalnego nie można przekształcić na poziom ilorazowy.

4. Błąd pomiaru odnosi się do dokładności i stałości samego narzędzia pomiarowego.


Źródło błędu może leżeć w złym określeniu tego, co rzeczywiście jest mierzone (np.
raczej inteligencja niż postawy), lub we wrażliwości pomiarów na czynniki sytuacyjne
(np. zdolność respondenta do koncentrowania się w pokoju pełnym hałasu). W
każdym wypadku błąd odzwierciedla problemy związane z mierzeniem, a nie
rzeczywiste różnice w wielkościach mierzonej zmiennej.

5. Pojęcia trafności i rzetelności są ściśle związane z pomiarem. Określają one źródła


błędu pomiaru. Trafność dotyczy pytania, z jaką dokładnością badacze mierzą to. co
chcieliby mierzyć. Tradycyjnie wyróżnia się trzy rodzaje trafności: trafność treściową,
trafność empiryczną i trafność teoretyczną. Każda z nich odnosi się do innego aspektu
sytuacji pomiarowej. Aby określić trafność narzędzia pomiarowego, badacz musi
zebrać dane na temat wszystkich trzech rodzajów trafności. 6. Rzetelność wskazuje na
wielkość błędu popełnianego w trakcie pomiaru. Operacyjnie zakłada się, że każdy
pomiar składa się z wartości prawdziwej i komponenty błędu. Miarą rzetelności jest
stosunek wariancji prawdziwej do całkowitej wariancji wyników. Badacze oceniają
rzetelność, stosując jedną z trzech następujących metod: metodę powtórnego
testowania, technikę form równoległych lub metodę połówkową. W teorii
uniwersalizacji przyjmuje się, że podstawowe zagadnienie rzetelności dotyczy
zakresu, w jakim jeden zbiór pomiarów jest podobny do innego zbioru pomiarów
pochodzącego z uniwersum wszystkich potencjalnych miar.
KVALE – PROWADZENIE WYWIADÓW
 PROWADZENIE WYWIADÓW JAKO DZIAŁANIE ETYCZNE
Badania są przesycone problemami natury etycznej, pojawiają się ze względu na
złożoność sytuacji – badanie prywatnego życia i omawianie je na arenie publicznej.

PROBLEMY ETYCZNE NA SIEDMIU ETAPACH BADANIA:

1. wybór tematu - badanie oparte na technice wywiadu powinno, oprócz naukowego


charakteru poszukiwanej wiedzy, brać pod uwagę polepszenie sytuacji ludzi
stanowiącej przedmiot badania

2. projektowanie - uzyskanie zgody jednostek na uczestnictwo w badaniu,


zagwarantowanie poufności

3. sytuacja wywiadu - stres podczas wywiadu, zmiana sposobu postrzegania samego


siebie

4. transkrypcja - anonimowości respondentów, zgodność transkrypcji z


wypowiedziami badanych

5. analiza - problem tego jak przenikliwie mogą być analizowane wywiady i czy
respondenci powinni mieć wpływ na to w jaki sposób interpretowane są ich
wypowiedzi

6. weryfikacja - odpowiedzialność moralna badacza polega na dostarczeniu wiedzy


pewnej i jak najlepiej zweryfikowanej

7. prezentacja wyników - problem dotyczy publikowania wywiadów o charakterze


osobistym oraz jakie skutki może mieć ta publikacja dla badanych grup

 PROBLEMY ETYCZNE W BADANIACH Z WYKORZYSTANIEM


TECHNIKI WYWIADU
Problemy etyczne pojawiają się na każdym etapie prowadzenia badań z
wykorzystaniem techniki wywiadu i powinny być brane pod uwagę od momentu
rozpoczęcia badań aż do złożenia ostatecznego raportu. Kwestie etyczne powinny
zostać rozważone podczas przygotowania protokołu etycznego do badania z
wykorzystaniem techniki wywiadu. W niektórych dziedzinach przed przystąpieniem
do realizacji badań opartych na wywiadach obowiązkowe jest przedstawienie projektu
komisji etycznej. Badacz musi przemyśleć wszystkie kwestie dotyczące wartości,
które mogą pojawić się w trakcie realizacji projektu badawczego. Niektóre komisje
etyczne chcą od razu znać wszystkie pytania, ale w przypadku wywiadu może być to
trudne, ponieważ w trakcie trwania wywiadu wychodzą różne niespodziewane wątki,
o które warto zapytać, a nie są one od początku uwzględnione w scenariuszu – czyli w
trakcie wywiadu wymyślisz sobie nowe pytanie.

 WSKAZÓWKI ETYCZNE
Wskazania etyczne w naukach społecznych zazwyczaj dotyczą uzyskania świadomej
zgody jednostek na udział w badaniu, poufności badania, konsekwencji prezentowania
wyników i roli badacza w procesie badawczym. Przykładowe pytania jakie badacz
powinien zadać sobie na początku procesu badawczego:
- Jakie mogą być korzystne konsekwencje badania?
- Kto będzie miał dostęp do wywiadów?
- W jaki sposób można zapewnić poufność wywiadów?
- Kto powinien udzielać zgody na wywiad badany czy ich zwierzchnicy?
- Jakie konsekwencje ma prowadzone badania dla osób biorących w nim udział?
- Czy rola badacza ma wpływ na badania?

a. ŚWIADOMA ZGODA - wymaga poinformowania badanych o ogólnym celu


badania i najważniejszych założeniach projektu, jak również o możliwych
zagrożeniach i korzyściach, jakie mogą wynikać z uczestnictwa w nim. Jeśli
jednak istnieje prawdopodobieństwo, że badanie doprowadzić do sytuacji
konfliktowy, pisemna zgoda będzie stanowić zabezpieczenie zarówno dla
badanego jaki dla badacza. Gdy chcemy później wykorzystać wywiad to najlepiej
sporządzić pisemną zgodę. Zgody powinien udzielić zależności od sytuacji np.
Przedstawiciel instytucji, rodzic dziecka, nauczyciel.

b. POUFNOŚĆ - oznacza że prywatne informacje które pozwalają na identyfikację


badanych nie mogą być ujawnione. Jeśli w raporcie mają zostać opublikowany
informacje które umożliwiają identyfikację respondentów, muszą oni wyrazi na to
zgodę. Pociąga to za sobą różne problemy etyczne i naukowe dylematy: – jakie
informacje mogą być udostępniony i kto może mieć do nich dostęp, – kolejny
problem gdy np. Badacz zapewnia o poufności wywiadu a uzyska wiedzę na temat
złego traktowania np. przemoc wobec dzieci, używanie narkotyków

c. KONSEKWENCJE - Prowadzący wywiad powinien wziąć pod uwagę to, że


otwartość i intymność sytuacji wiadomo mogą być zwodnicze i w rezultacie
skłonić respondenta do ujawnienia informacji których wcale nie chciał ujawnić.
Może to sprawić, że wywiad będzie podobny do terapii. Szczególnie wywiady
poświęcone osobistym tematom mogą prowadzić do wytworzenia relacji
terapeutycznej. Badacz powinien być czujny i wiedzieć jak daleko może się
posunąć w swoich pytaniach.

d. RZETELNOŚĆ BADACZA - wiedza, doświadczenie, szczerość, uczciwość – to


są decydujące czynniki. Badacz powinien być naszym przyjacielem - osoba która
przeprowadza wywiady powinna dobrze nas traktować i starać się dowiedzieć czy
od nas jak najwięcej, powinna być ciepła troskliwa i postrzegana jako nasz
przyjaciel.

 MIKROETYKA I MAKROETYKA W BADANIACH Z WYKORZYSTANIEM


TECHNIKI WYWIADU
Zazwyczaj zwraca się uwagę na te problemy etyczne wywiadów, które wiążą się z
osobistymi konsekwencjami udziału badanych w badaniach, natomiast często pomija
się społeczne skutki prowadzenia wywiadów. Wywiady marketingowe mogą
prowadzić do zwiększenia konsumpcji. Wywiady konsumenckie niezależnie czy są to
indywidualne wywiady badające motywacje czy wywiady grupowe, mogą być
prowadzone zgodnie ze wskazówkami etycznym. Jednak na poziomie makro ich
konsekwencje są dużo bardziej problematyczne. Np. Wiedza uzyskana przez wywiady
dotyczące stosunku nastolatków do palenia papierosów mogą służyć firmom
tytoniowym do ulepszenia reklam lub organizacjom do przygotowania kampanii
społecznych zniechęcających do palenia papierosów.

PODSUMOWANIE:
 SIEDEM ETAPÓW PROCESU BADAWCZEGO:

1. KONCEPTUALIZACJA - zanim zaczniesz prowadzić wywiady, formułuj cel


badania i problem badawczy. Odpowiedz na pytania: dlaczego i co i jak, zanim
pojawi się pytanie o to, jak czyli o metodę.

2. PROJEKTOWANIE BADANIA - zaplanuj przebieg badania, biorąc pod uwagę


wszystkie siedem etapów projektu badawczego, zanim zaczniesz prowadzić
wywiady.

3. PROWADZENIE WYWIADÓW - prowadź wywiady na podstawie scenariuszy


wywiadów.

4. TRANSKRYPCJA - przygotuj do analizy uzyskanych w wywiadzie materiał.

5. ANALIZA - zdecyduj jaką metodę analizy zastosujesz.

6. WERYFIKACJA - określ trafność, rzetelność i możliwość generalizacji danych


uzyskanych w wywiadach.-Rzetelność – jak spójne uzyskane są wyniki, trafność –
projekt oparty na wywiadach Bada rzeczywiście to co ma badać.
7. PRZYGOTOWANIE RAPORTU - prezentacja wyników badań, przedstawienie
wniosków w sposób czytelny.

 KONCEPTUALIZACJA - – postawienie pytań badawczych i teoretycznych do


badanego problemu. Podstawowe pytania podczas planowania projektu badawczego to
pytania typu dlaczego, co i jak:
- dlaczego – wyjaśnienia cel badania,
- co – uzyskanie wstępnej wiedzy na temat zjawiska, które będziemy badać,
- jak – zapoznanie się z różnymi technikami prowadzenia wywiadów i podjęcie
decyzji którą z nich zastosujemy.

CEL BADANIA – dlaczego?


Przykłady:
- dążenie do poznania sytuacji społecznej, historii czyjegoś życia – za pośrednictwem
wywiadów biograficznych – czy nawet wydarzeń historycznych,
- wywiady mogą mieć cele eksploracyjne lub być zorientowane na testowanie hipotez
- wywiady mogą mieć też charakter głównie opisowy i umożliwić wskazanie
podstawowych wymiarów świata życia badanych.
- wywiady mogą służyć wypracowaniu założeń teoretycznych na dany temat
- wywiad może być tak prowadzony by dostarczać wiedzy dotyczącej działań
zbiorowych.
- wywiady wykorzystywane są także jako materialne zaplecze dla dalszych projektów
praktycznych i teoretycznych.

WIEDZA NA TEMAT BADANEGO PROJEKTU – CO?


Konceptualizacja projektu badawczego wymaga jasno sformowania tematu badania –
udzielenia odpowiedzi na pytanie „co” . Pociąga za sobą konieczność wypracowania
pojęciowego i teoretycznego ujęcia podanego zjawiska w celu określenia obszarów
wiedzy, który będzie rozbudowany i pogłębiony. Skoncentrowanie się na temacie
badania pozwala wyróżnić te aspekty badanego zjawiska, które znajdują się w
centrum zainteresowania oraz te, które pozostaną na dalszym planie wiedzy na temat
badanego zjawiska. WIEDZĘ można uzyskać nie tylko przez studiowanie literatury i
teorii. Przebywanie w środowisku, w którym przeprowadzone zostaną wywiady
pozwoli badaczowi zapoznać się z lokalnym językiem, codziennymi zwyczajami i
strukturami władzy, a tym samym uświadomi mu o czym będą mówić respondenci.
Zaznajomienie się z lokalnymi ludźmi może także uwrażliwić na etyczne i polityczne
problemy danej społeczności, które powinny zostać ustalone podczas prowadzenia
wywiadu. Warto poznać kulturę i tradycję danej społeczności, pomoże to w
formułowaniu pytań badawczych.
KONCEPTUALIZACJA BADANIA NAD OCENIANIEM - ? NIE WIEM XD

 PROJEKTOWANIE BADANIA
Projektowanie badania z wykorzystaniem techniki wywiadu wymaga podjęcia decyzji
odnośnie do procedur i technik, które zostaną użyte w badaniu – udzielenia
odpowiedzi na pytanie – jak.

NIE WIEM, SERIO, Z TYCH NOTATEK CO KTOŚ ZROBIĆ NIC NIE


OGARNIAM, MOŻE KIEDYŚ DOPISZĘ COŚ.

 METODY MIESZANE
Obecnie w badaniach społecznych wywiady są często łączone z innymi metodami.
Można wykorzystywać metody jakościowe jak i ilościowe.

- wywiady są często stosowane w studiach przypadku, które koncentrują się na


konkretnej osobie, sytuacji czy instytucji.
- wywiady mogą być także wykorzystywane jako metody pomocniczy w połączeniu z
innymi technikami badawczym np. wywiady stosowane równoległe z obserwacją
uczestniczącą podczas badań terenowych stanowią ważne źródło informacji.

- często podczas konstruowania kwestionariusza wykorzystuje się wywiady


pilotażowe, aby wyłonić najważniejsze aspekty badanego tematu.

ZASOBY I WIEDZA SPECJALISTYCZNA


W chwili rozpoczęcia projektu możemy z łatwością przeoczyć znaczenie zasobów i
wiedzy specjalistycznej w projekcie badawczym. Najważniejsze pytania z tego
zakresu dotyczą ilości czasu, który badacz ma na realizowanie projektów, oraz tego,
czy dysponuje jakimś środkami na zlecenie prac, np. transkrybowane wywiadów.
Zazwyczaj samo prowadzenie wywiadu nie jest niezbyt czasochłonne, ale transkrypcja
wymaga bardzo dużych nakładów czasu, a wynajmowanie osób, które spiszą wywiady
może być kosztowne.

PODSUMOWANIE
SILVERMAN – TEKSTY
 TEKST - określa dane zawierające słowa i/lub obrazy, które zostały zapisane bez
interwencji badacza (np. Tak jak w wywiadzie).

Teksty pisane i wywiady mają wspólną cechę. Obydwa wskazują na lingwistyczny


charakter wielu danych jakościowych. Jeśli naszym celem jest poszukiwanie jakiejś
zakładanej „zewnętrznej” rzeczywistości w naszych danych (klasy, płci, władzy) to
surowym materiałem są tu słowa zapisane w dokumentach lub wypowiedziane w
wywiadach przez respondentów.

 ANALIZA TREŚCI - powszechnie akceptowana metoda badania tekstów,


szczególnie w sferze komunikowania masowego. W jej ramach badacze konstruują
zbiór kategorii a następnie liczą ilość stwierdzeń, które przyporządkowują do każdej z
nich. Kluczowy warunek jaki należy spełnić to stworzenie odpowiednio precyzyjnych
kategorii, tak aby różne systemy kodowania prowadziły do tych samych rezultatów na
tym samym materiale (np. Nagłówkach z gazet), który jest badany. W ten sposób w
analizie treści przywiązuje się szczególna uwagę do kwestii rzetelności stosowanych
miar – co ma gwarantować, że różni badacze uważają ich w ten sam sposób oraz
trafności ich rezultatów, osiąganej dzięki precyzyjnemu liczeniu używanych słów.
Natomiast w niektórych badaniach jakościowych z wielu różnych przyczyn może być
analizowana mała liczba tekstów i dokumentów. Celem jest zrozumienie kategorii
jakimi posługują się uczestnicy z życia społecznego i dowiedzenie się jak są one
używane w konkretnych działaniach, takich jak opowiadanie teorii, tworzenie akt.

 STRUKTURY NARRACYJNE - daną funkcję można popełnić wiele osób o


różnych rolach, ponieważ funkcja danej roli wyrasta z jej znaczenia dla struktury
opowieści jako całości. Kiedy uzmysłowimy sobie jak wiele danych jakościowych
(wywiady, dokumenty, konwersacje) przyjmują formę narracyjną jak zresztą same
raporty z badań, wtedy analizy legend wydają się być dziwnym poszukiwaniem
dosłowności. Jeśli analizujemy to, jak działa tekst, nie powinniśmy zapominać, że
nasze własne teksty mają swoją własną strukturę narracyjną zaprojektowaną tak, by
przekonać czytelnika, że w stosunku do każdego fragmentu tekstu “możemy
zauważyć, że “ to, co piszemy stosuje się do niego.

 ENTOGRAFIA - Podobnie jak badacze narracji, etnografowie bardziej interesują się


procesami dzięki, którym teksty odzwierciedlają “rzeczywistość” niż badaniem, czy
zawierają one prawdziwe lub fałszywe stwierdzenia.

 AKTA - są wytwarzane w określonych okolicznościach dla określonego odbiorcy.


Akta nigdy nie mówią same za siebie. Etnografowie starają się zrozumieć zarówno
format w jakim są stworzone ( np. Jakie kategorie pojawiają się w kwestionariuszu,
który następnie będzie wypełniany) jak i procesy towarzyszące ich wypełnianiu.
Kolejna kwestia dotyczy, że akta same w sobie nie są po prostu “zapisem” wydarzeń,
lecz są twórczo konstruowane z myślą o sposobie w jaki mogą być odczytywane.

 DANE STATYSTYCZNE

 ZAPISY OFICJALNYCH PROCEDUR - publiczne czy oficjalne zapisy nie


ograniczają do statystycznych tabel. Wspólną cechą wszystkich demokracji jest
gigantyczna dokumentalna oficjalnych spraw, zawierająca zapis postępowań
prawnych, spotkań biznesowych oraz prac parlamentów i komisji parlamentarnych.

 E-MAILE - komunikacja w coraz większym stopniu odbywa się za pomocą


technologii informacyjnej. Internet staje się głównym medium komunikacji opartej w
większości na tekście. Stworzyło to, przy dostępie dopuszczalnym, etycznie , nowe
pole dla badań etnograficznych nad danymi tekstowymi, takimi jak strony domowe,
czaty i korespondencja elektroniczna.

 ETNOMETODOLOGIA – ANALIZY KATEGORYZOWANIA


PRZYNALEŻNOŚCI

NARZĘDZIE KATEGORYZOWANIA PRZYNALEŻNOŚCI – MCD –


narzędzie składa się ze zbioru kategorii (np. dziecko, mamusia, ojciec= rodzina,
kobieta =płeć) oraz pewnych zasad dotyczących tego, jakie stosować te kategorie.

You might also like