Professional Documents
Culture Documents
Umysł i poznanie
1. PPP bada w większej mierze procesy nieświadome. Bada złożony system wyspecjalizowany w
odbiorze i przetwarzaniu informacji zwany umysłem.
2. P O J Ę C I A
procesy przetwarzania informacji – składają się na nie wszystkie operacje, dzięki którym
odbierane przez jednostkę informacje są transformowane, przekształcane, redukowane,
wzmacniane, zachowywane, przywoływane lub wykorzystywane w inny sposób.
solipsyzm – pogląd o istnieniu wyłącznie podmiotu, który poznaje już nie świat, lecz wyłącznie
własne miazmaty.
1
interioryzacja – rozwój poznawczy dokonuje się w ten sposób, że najpierw przejawia się w
zachowaniu a potem się uwewnętrznia. Można powiedzie, że umysł ewoluuje, przekształcając się z
postaci jawnej w postać ukrytą.
3. M O D E L E UMYSŁU
1. B L O K O W Y
McClelland i Rumelhart - krytyka modelów blokowych, bo człowiek nie analizuje pojedynczych cech
a całość wzorca jakim jest litera. Analiza sensoryczna dokonuje się równolegle z analizą
semantyczną, zmierzającą do stwierdzenia, co znaczy widziana przez nas litera. Ponadto litery
nabierają sensu dopiero w szerszym kontekście słowa, które tworzą. Informacje o znaczeniu liter i
słów przechowywane są w pamięci trwałej, dlatego analiza sensoryczna musi się dokonywać
równolegle.
2. K O N C E P C J A POZIOMÓW PRZETWARZANIA
Każda informacja jest przetwarzana przez te same struktury (w modelu blokowym były struktury),
ale na różnym poziomie głębokości. Nie ma tu wydębionych etapów przetwarzania i
odpowiadających im struktur.
Wraz z pogłębianiem przetwarzania wzrasta zarówno liczba, jak i złożoność operacji, jakim w toku
procesu przetwarzania poddawane sądocierające do systemu informacje.
3 poziomy przetwarzania:
2
OBIEG W T Ó R N Y – Zjawiska pamięciowe.
3. S Y S T E M MODUŁOWY
Metaforą umysłu modularnego jest skrzynka z narzędziami, w której znajdziemy mnóstwo różnych
specjalistycznych przyrządów, ale nie znajdziemy narzędzia uniwersalnego.
Cechy modułów:
1. Zależność od dziedziny – każdy moduł może działać tylko na określonej klasie bodźców (twarz
ludzka, dźwięki…), każdy moduł jest wyspecjalizowany w 1 funkcji i nie może pełnić żadnej innej,
2. Automatyczność działania – raz uruchomiony moduł nie może wyhamować, dopóki nie wykona
swego zadania. Działa szybko i nie angażuje uwagi, pamięci roboczej.
Moduły działają niezależnie od siebie. Domeną modułów jest przede wszystkim percepcja i
sterowanie motoryką, moduły obsługują wejście i wyjście systemu poznawczego, a centralne
funkcje tego systemu obsługuje uniwersalny „procesor” wszechstronnego zastosowania (jego
funkcja jest np. myślenie)
ROZDZIAL 2
REPREZENTACJE UMYSŁOWE
Reprezentacje są:
Trwałe – składają się na struktury wiedzy, powstają i zmieniają się w dłuższym cyklu
czasowym.
3
Nietrwałe – powstają doraźnie, np. w celu podjęcia decyzji, później zanikają, Są to np.
wyobrażenia, etykiety werbalne, sądy, modele umysłowe
Rodzaje reprezentacji:
- wg A. Paivio do reprezentacji zalicza się m.in. obrazy umysłowe, ślady pamięciowe, słowa
(elementy języka), sądy, pojęcia, reprezentacje pojęciowe (prototypy, listy cech) oraz schematy
- Rebena to obrazy umysłowe, słowa i idee ( abstrakcje)
- Eyesenck i Keane najbardziej restrykcyjny podział na:
reprezentacje analogowe-obrazy umysłowe, modele mentalne
reprezentacje w formie sądów/ twierdzeń
Wyróżniono wyobraźnie:
Twórczą- zdolność do tworzenia nowych wyobrażeń oraz pojęć i innych reprezentacji
poznawczych
Odtworczą- odpowiedzialna za tworzenie się wyobrażen obiektów wczesniej
spostrzeganych i dobrze znanych
Teoria Kosslyna:
4
Stanowisko obrazowe- wyobrażenia wzrokowe są kodowane w postaci reprezentacji
posiadających zarówno własności przestrzenne jak i zmysłowe. Inf werbalne i wizualne
maja różne kody
Stanowisko twierdzeniowe (propozycjonalne)- dane zmysłowe są kodowane w postaci
abstrakcyjnych zbiorów twierdzeń czy sądów tak jak inf werbalne
Paradygmat rotacji mentalnej- prezentowane cyfry, litery lub figury geometryczne wzajemnie
zrotowane lub jeszcze dodatkowo przekształcone (lustrzane odbicie). Badani odpowiadali na
pytanie czy dwa prezentowane bodźce są identyczne
Cooper i Shepard- rotowane litery (G,J,R) lub cyfry (2,5,7) nachylone pod różnmi kątami
mogły być też reprezentowane w lustrzanym odbiciu. Badani musieli swierdzić czy symbol
jest prezentowany prawidłowo
Shepard i Metzler- na monitorze prezentowano dwie rotowane względem sibie figury
trójwymiarowe
Stwierdzono : czas decyzji wzrasta wraz z wielkościa kąta rotacji
Niezależnie od płaszczyzny rotacji
Argumenty potwierdzające, że reprezentacje wyobrażeniowe maja charakter obrazowy:
- liniowa zależność miedzy kątem rotacji obiektu a czasem potrzebnym na podjecie decyzji
(niezależnie od: typu zadania- identyfikacja, porównanie; typu rotowanego symbolu- litery, cyfry,
symbole wymyślone; formy rotacji-płaszczyzna, przestrzeń
- badani pracowali w różnych warunkach- percepcji i wyobraźni a rezultaty w obu warunkach
niewiele się różniły
WYJĄTKI (wyklad)
Kąt 180- nie ma czasami efektu rotacji. Czas RT bardzo krótki- Koriat, Norman, Kimchi
Również badania Indos- Peterson, Raskos- Ewaldson wykazały możliwą zależność modalności
zmysłowej formy wyobrażeniowej
Reprezentacje werbalne
5
Clark- badanie z sylogizmami werbalnymi- im bardziej skomplikowana konstrukcja w stosunku do
przesłanek tym czas odpowiedzi jest dłuższy
Paradygmat weryfikacji treści zdań- badanym prezentuje się obazek przedstawiający „+” i „*” w
przestrzeni. Jeden symbol jest u góry a drugi na dole. Uczestnikom prezentuje się zdanie np. „plus
jest nad gwiazdką” a badani musza swierdzic zgodność zdania z obrazkiem
Clark i Chale – najpierw zdanie potem obrazek
McLeeod, Hunt i Mathews- odwrotnie
Im bardziej skomplikowane logicznie i gramatycznie zdanie, tym czas weryfikacji dłuższy
Obraz może zostać zakodowany werbalnie ale to jest mniej prawdopodobne niż kodowanie
obrazowe i na odwrót
Reprezentacje numeryczne
6
Hipoteza trzeciego języka/języka myśli- Anderson
- umysł nie gromadzi trwałęj wiedzy ani w
postaci obrazów, ani w postaci etykiet
werbalnych ale w postaci zbioru
sądów(twierdzeń)
- kod twierdzeniowy ma postać
abstrakcyjnych, amodalnych twierdzeń
opisowych
- sąd- forma reprezentacji umysłowej,
wyrażająca relacje pomiędzy obiektami
- rachunek predykatów- logiczny system
przetwarzania zdań abstrakcyjnych. Dzięki
niemu można przekształcać sądy
Oprócz obrazów, słów i sądów umysł generuje tzw. Modele mentalne- Philips Johson-Laird- są to
nietrwałe reprezentacje słowno-obrazowe o dość dużym poziomie odpowiedniości. Powstają na
bazie reprezentacji nietrwałych (spostrzeżeń, wyobrażeń) i trwałych (wiedzy)
ROZDZIAL 3
POJĘCIA
Mają różne stopnie ogólności – im bardziej ogólne pojęcie, tym bardziej jest zbiorem właściwości
typowych.
7
- Pojęcia matrycowe – inaczej sztuczne, naukowe - reprezentacje skończonej liczby cech
wspólnych wszystkim desygnatom. Cechy te przysługują wszystkim desygnatom w jednakowym
stopniu.
- Pojęcia naturalne – dominują w tworzeniu potocznej reprezentacji świata, są mniej precyzyjne,
posiadają bardziej i mniej typowe egzemplarze.
Pojęcie jako syntetyczny opis pewnej klasy desygnatów, zbiór cech istotnych, koniecznych i
wyczerpujących. Cechy te inaczej nazywa się cechami definicyjnymi.
b) Teorie probabilistyczne
Zawiera mniej i bardziej typowe właściwości obiektów, a co za tym idzie, mniej lub bardziej typowe
egzemplarze (wróbel vs kura).
Krytyka:
Zestaw cech prawdopodobnych niekoniecznie tworzy spójną kategorię pojęciową. Dwie
bliskie kategorie mogą mieć ten sam zestaw cech definicyjnych, a różnić się cechami
charakterystycznymi.
Nie można zdefiniować przez zestaw cech o dużym stopniu typowości – brak symetrii w
zakresie cech kategorii i cech egzemplarzy. (egz – poj/ poj-egz)
8
c) Teorie prototypów (Rosch, 1973)
Wymiar poziomy dotyczy desygnatów pojęcia znajdującego się na poziomie wyższym. Desygnaty
te różnią się typowością. Najbardziej typowy, reprezentatywny egzemplarzy to prototyp.
Problemy z klasyfikacją na skali typowości. Prototypy wspólne dla badanych z tej samej populacji,
ale mogą się różnić kulturowo (wróbel vs drozd), jak również płciowo (spódnica vs spodnie).
Podsumowując:
- prototyp jest konkretnym egzemplarzem (niekoniecznie rzeczywistym)
- proces kategoryzacji polega na określaniu stopnia podobieństwa (dystansu semantycznego)
między kategoryzowanym obiektem a prototypem (ma to odzwierciedlenie w różnicach w
rankingach typowości)
- pojęcia nabywane są na podstawowym poziomie hierarchii poprzez doświadczanie egzemplarzy
typowych
9
Przykład: reprezentacja pojęciowa psa: a) mój pies (prototyp), b) wilczur sąsiada i jamniczka
sąsiadki (egzemplarze ważne ze względów indywidualnych), c) pozostałe napotkane psy.
- Jeśli napotkany obiekt jest podobny do opisu któregoś ważnego egzemplarza, wówczas zostaje
zakwalifikowany do danej kategorii i sam staje się punktem odniesienia dla następnych
porównywanych obiektów.
Reed (1971) twierdzi, że taki proces jest zbyt czasochłonny, w związku z czym kategoryzacja ma
się odbywać poprzez ocenę podobieństwa obiektu z pierwszym napotkanym desygnatem pojęcia.
Stąd niezwykle ważne mają być pierwsze doświadczenia z egzemplarzami danego pojęcia
(chihuahua).
Krytyka:
Podsumowując:
Teoria egzemplarzy przedstawia najmniej ekonomiczną formę trwałego reprezentowania obiektów
rzeczywistych w umyśle.
W podejściu eklektycznym przyjmuje się, że teorie klasyczne odnoszą się do pojęć matrycowych i
abstrakcyjnych, natomiast teorie wzorców, szczególnie prototypów raczej do pojęć naturalnych i
konkretnych.
Reprezentacje pojęciowe wiążą relacje opisane w modelu sieci semantycznej (Collins, Quillan,
1969). Przechowywane są na trwałe w pamięci w postaci zhierarchizowanej sieci, składającej się z
punktów węzłowych i łączących te punkty relacji. W poszczególnych węzłach znajdują się
reprezentacje pojęciowe.
Właściwości charakteryzujące pojęcia przypisane są reprezentacjom pojęciowym na możliwie
najwyższym poziomie hierarchii ogólności.
10
Schematy są dobrze zintegrowanymi fragmentami sieci semantycznej. Jest w nich
zakodowany sens typowej sytuacji, do której schemat się odnosi, jak i znaczenie
typowej formy zachowania, która powinna zostać wygenerowana w reakcji na
typową sytuację.
- nabywanie wiedzy przez przyrost informacji (istniejące schematy rozwijane na skutek nowych
sytuacji)
- dostrajanie schematu do nowej sytuacji poprzez stopniową modyfikację subprocedur
- całkowita restrukturalizacja (relacje rozbite i utworzone nowe na drodze abstrahowania i indukcji)
Wg tej teorii, zadaniem sieci semantycznych jest umożliwienie człowiekowi szybkiej i adekwatnej
reakcji na zmienne warunki bodźcowe na podstawie ukształtowanej wcześniej wiedzy o świecie.
Rama jako struktura bardziej zależna od kontekstu sytuacji, a przez to znacznie bardziej
zróżnicowana – istotny aspekt społeczny
Jak to się dzieje, że nawet będąc po raz pierwszy w jakiejś sytuacji (np. napadu na bank),
potrafimy jakoś zinterpretować dane i zrozumieć cele i czynności innych ludzi uczestniczących w
zdarzeniu? Czy rzeczywiście musimy nabywać taką wiedzę na drodze doświadczenia?
11
MOP-y (Memory Organization Packets) – zbiory podobnych fragmentów różnych
schematów (np. możliwych form powitania) rozpoczynających reguły interakcje społeczne
Odnoszą się do pojedynczych rodzajów podobnych do siebie scen, które mogą wystąpić
w ramach wielu różnych schematów, iż których poszczególne scenariusze tych struktur
poznawczych mogą być budowane.
TOP-y (Thematic Organisation Points) – zbiory ogólnych tematów czy też motywów,
których złożone scenariusze mogą dotyczyć.
PODSUMOWUJĄĆ:
- W koncepcji schematów wiedza deklaratywna staje się podstawą dla wiedzy proceduralnej.
- W pozostałych koncepcjach bardziej znacząca wydaje się być wiedza proceduralna, a
różnorodnośc bądź stereotypowość generowanych zachowań staje się podstawą do do
formułowania wniosków odnośnie do możliwych struktur reprezentacji świata
ROZDZIAL 4
Burnett i Ceci – Wiedza może być wykreowana przez jednostkę dzięki wnioskowaniu, powiązaniu
posiadanych wcześniej informacji i myśleniu o tych informacjach w nowy sposób.
Metawiedza – wiedza typu „wiem, że wiem”. Dotyczy ona wiedzy o wiedzy posiadanej przez
jednostkę.
Kryteria, jakie powinny spełniać wyniki testów na potwierdzenie obecności wiedzy niejawnej:
- kryterium wyłączności – dana metoda ma umożliwiać dotarcie tylko do tej wiedz, która jest
wykorzystywana w wykonaniu danego zadania. Odporność na inną, niezwiązaną z zadaniem
wiedzą.
- kryterium czujności – test mierzący zakres wiedzy jawnej ma być na tyle wyczerpujący, aby
ujawnić pełną informację, której badani są świadomi.
Cleeremans – wiedza jest niejawna, kiedy wpływa na przetwarzani informacji bez uświadomienia
jej właściwości. Wiedza ta ma swoją reprezentację w pamięci trwałej, przez co może być z niej
wydobywana i wykorzystywana.
Wagner i Sternber – wiedza ukryta – „milcząca”; składnik inteligencji praktycznej. Wiedza ta nie
jest bezpośrednio wyrażana, a jej nabywanie odbywa się dzięki indywidualnemu doświadczeniu
jednostki. Jest nabywana samodzielnie, ma charakter proceduralny i jest stosowana w praktyce.
Jest konkretna i specyficzna dla kontekstu (sic!).
12
Podstawa rozróżnienia: niepełne uświadomienie zawartości wiedzy niejawnej – wiedza jawna jest
dostępna i świadoma.
Reber – podstawowym sposobem nabywania wiedzy niejawnej jest mimowolne uczenie się (proces
bez udziału świadomych strategii uczenia się i bez zamiaru nabycia wiedzy, bezwysiłkowy).
Paradygmaty badań nad mimowolnym uczeniem się i nabywaniem wiedzy niejawnej:
- uczenie się sztucznej gramatyki
- wyuczenie się sekwencji zdarzeń
- kontrola systemów dynamicznych
Możliwość jawnego wydobycia wiedzy niejawnej występuje tylko wtedy, gdy poziom tej wiedzy jest
dość wysoki.
Organizacja wiedzy
Tversky – podobieństwo znaczeń jest tym większe, im więcej para znaczeń posiada cech wspólnych
i im mniej dystynktywnych.
Teoria wiedzy semantycznej – kodowaniu podlega treść pojęć języka, czyli ich struktura głęboka, a
nie powierzchowna (forma informacji werbalnej).
Collins i Quillian – Wiedza zawarta w pamięci semantycznej ma postać sieci, w której węzłom
odpowiadają pojęcia, a połączeniom między nimi – ich wzajemne relacje. Sieć jest zorganizowana
hierarchicznie – pojęci bardziej ogólne znajdują się wyżej w hierarchii. Odległość pojęć w sieci jest
w ściśle związana z podobieństwem ich znaczenia. Pojęci o wyższym stopniu podobieństwa są
reprezentowane przez węzły znajdują się blisko w sieci.
Model zakłada dwa rodzaje relacji między pojęciami:
- relacja przynależności do klasy – relacje obejmują pojęcia z dwóch różnych poziomów hierarchii
sieci.
- relacja predykatywna – pełni funkcję orzeczenia, zawiera wiedzę o właściwościach obiektu. Jest
kodowana na możliwie najwyższym poziomie ogólności.
Collins i Loftus - podstawowy czynnik decydujący o połączeniach między elementami wiedzy uznali
związek skojarzeniowy – bardziej typowe obiekty są szybciej identyfikowane. Struktura wiedzy ma
postać sieci, w której węzłom odpowiadają pojęcia, podczas gdy ich etykiety werbalne są
reprezentowane w postaci wewnętrznego leksykonu. Im pojęcie jest bogatsze semantycznie, tym
więcej połączeń między węzłami, a co za tym idzie tym większa siła skojarzeniowa danego związku.
Proces przywoływania wiedzy odbywa się dzięki rozprzestrzeniającej się aktywacji.
13
Organizacja wiedzy proceduralnej
Systemy reguł – wiedza jest poznawczo reprezentowana za pomocą zestawu reguł. Reprezentacja
tego typu pozwala na tworzenia procedur działania.
Reguła – składa się z warunku wyznaczającego zbiór właściwości, które muszą być spełnione, aby
uruchomić daną czynność i samej czynności, czyli zbioru produkcji.
Zasada specyficzności reguł – prymat ma reguła bardziej wyspecjalizowana.
Zasada niepowtarzalności reguł – w procesie korzystania z wiedzy proceduralnej może mieć udział
specyficzny bufor pamięci, który zawiera pewien zbiór reguł, które zostały użyte w trakcie
bieżącego zadania.
Nabywanie wiedzy
14
Reber – wiedza niejawna nabywana jest na drodze uczenia się mimowolnego, rozumianego jako
proces poznawczy, w wyniku którego jednostka nabywa wiedzę nie jawną niezależnie od
świadomych intencji.
Nabywanie wiedze odbywa się niezależnie od świadomej kontroli albo bez udziału wiedzy werbalnej
o wszystkich nabywanych regułach.
Sternberg
- transformacja jawnej wiedzy o procedurach w „milczącą” wiedzę proceduralną; wiąże się z
pamięcią semantyczną
- niejawne uczenie się reguł proceduralnych na podstawie osobistych doświadczeń; wiąże się z
pamięcią epizodyczną
Wiedza ekspercka
- ekspert posiada bardzo obszerną wiedzę, ale jest ona ograniczona do pewnej dziedziny.
Schaumacher i Czerwiński:
- faza przedteoretyczna – wydobywanie przykładów z pamięci opartych na powierzchownym
podobieństwie cech danej sytuacji
- faza doświadczeniowa – odkrywanie związków przyczynowych obowiązujących w systemie.
Nabywanie wiedzy eksperckiej.
- faza ekspercka – dokonywanie abstrakcji na najwyższym poziomie, możliwość transferu wiedzy.
ROZDZIAL 5
UWAGA
-powiązana ze świadomością
-selektywna( selekcja dotyczy spostrzegania i wyższych procesów poznawczych, myślenia)
-pozwala na koncentracje na ważnych sygnałach
-konieczna do przystosowania się organizmu do środowiska.
Funkcje uwagi:
1. Selekcja źródła informacji
Wybór sygnału spośród szumów, ignorowanie dystraktorów.
2. przeszukiwanie pola percepcyjnego ( przez kodowanie cech i selektywna integracja
właściwości poszukiwanego obiektu w postać.
Przeszukiwanie:
-proste( 1 cecha), równoległe
-koniungcyjne( np. ruch i kolor), dłuższe i szeregowe(Treisman, Gelade)
15
ale!!cecha niepriorytetowa może przyciągać takim samym stopniu jak priorytetowa!
4. Podzielność uwagi
5. Przerzutność –przełączenie się między obsługiwanymi niezależnie procesami
przetwarzania info.
*paradygmat słuchania dychotycznego( cocktail party problem, Cherry)
*technika podążania(shadoving) wykorzystywana w badaniach Broadbenta Treisman i Moray’a
>koszty poznawcze w postaci dłuższego czasu wykonania, przy zahamowywaniu jednego procesu a
uruchamianiu alternatywnego.
*paradygmat przełączania( task switching)-efekt podłogowy????do sprawdzenia
Teorie
Filtr uwagi
Redukcja informacji docierających do systemu odbywa się na wejściu sensorycznym, poprzez
zablokowanie wszystkich źródeł info-prócz jednego
!to czego filtr nie zaakceptuje ulega degradacji zależy od modalności zmysłowej(wzrok, słuch itp.)
-->przejście przez filtr oznacza dalsze przetwarzanie info na głębszym poziomie-semantycznym a w
rezultacie daje świadome doznanie
~ Treisman
uwaga przełączana jest z jednego kanału sensorycznego na drugi aby śledzić treść komunikatu.
Filtr skleja info z kanału ważnego i ignorowanego, gdy taki zlep ma sens.
>związki iluzoryczne: połączenie wbrew instrukcji 2 odrębnych elementów sensorycznych różnych
źródeł sensorycznych (zbitek dwóch słów)
=>filtr uwagi otwierany jest od środka przez informacje, które przedostały się przez filtr, są
przetwarzane semantycznie wzmacniają dane próbujące się tam przedostać
propozycja Treisman została nazwana modelem ,,osłabiacza” gdyż info niepowiązane z wcześniej
przetworzonymi są słabiej obrabiane.
~ Johnson
zaproponował istnienie jednego filtra, ale zmieniającego charakter w zależności od poziomu
przetwarzania-elastyczność
=>im wyższy poziom przetwarzania tym większa pojemność filtra
16
=>możliwość działania zasady przetargu między szybkością a poprawnością
Filtr na poziomie sensorycznym działa wraz z zasadą wszystko albo nic. Na poziomie
semantycznym wraz z zasadą osłabiacza a na najgłębszym poziomie (odniesienie do ,,ja”)z zasadą
koniecznej świadomości i zasady przetargu.
Ograniczenia: analiza i selekcja dalej odbywa się tylko w jednym kanale przetwarzania.
~Theeuwes
model uwagi podążającej za najbardziej znaczącą( dystynktywną) prezentacją stymulacji
Najpierw polu uwagi wyodrębniamy element o najwyrazistrzych cechach
17
Im wyższy próg tym maleje prawdopodobieństwo FA ale rośnie OM
=>z upływem czasu obserwuje się jednak po prostu generalny wzrost liczby błędów.
Idealny obserwator ma niższe kryterium decyzyjne dla bodźców prawdopodobnych niż dal tych
mniej prawdopodobnych!!!
*eksp Baddeley’a -nieadekwatne oczekiwania co do prawdopodobieństwa wystąpienia sygnału są
przyczyną spadku czujności.
=>Baker , zależność między subiektywnym prawdopodobieństwem pojawienia się sygnału a
wielkością przedziału czasowego jest krzywoliniowa -odwrócone,,U”
trening przedłuża koncentrację
spadek czujności występuje w wyniku zmniejszenia się wrażliwości na bodziec przy dłuższej jego
ekspozycji w czasie
*Poziom wykonania zadania zależy od aktualnego stanu energetycznego organizmu( prawo
Jerkesa-Dodsona , odwrócone,, U”
Teorie podzielności
Badania prowadzone w paradygmacie słuchania dychotycznego
>Bernstein i badania nad dwiema czynnościami wykonywanymi niezależnie, przy braku ponoszenia
kosztów poznawczych( widzenie i słuchanie)potwierdziły jej założenia. Okazało się ponadto, że gdy
obie modalności dotyczą tego samego zadania info słuchowe skraca czas reakcji na jednocześnie
prezentowany bodziec wzrokowy.
=> Duncan- koncepcja uwagi ,,ukierunkowanej na obiekt”. Oznacza to iż podzielność uwagi w
zakresie jednego zadania lub obiektu jest możliwa bez ponoszenia dodatkowych kosztó( błędów,
wydłużonego czasu reakcji)
18
=>Nęcka i Szymura,( DIVA) ich badania wskazują na to, że uwaga jest mechanizmem
jednorodnym. W zadaniach trudnych system zaostrza politykę przydzielania zasobów, przy
zadaniach łatwych poszczególne składniki systemu uzyskują częściową autonomię!
Teorie przerzutności
*hipoteza przełącznika( Nęcka) przy zadaniach wykonywanych jednocześnie filtr przełącza się
między dwoma zadaniami( naprzemiennie jedno jest analizowane a drugie ignorowane). Jeśli
dokonuje się to dostatecznie szybko, koszty ograniczają się jedynie do czasu. Jeśli przełączanie się
jest zbyt wolne lub rzadkie, pojawiają się koszty poprawności( FA, OM)
> za powstawanie kosztów odpowiedzialna jest interferencja proaktywna: przy nowym zadaniu
utrzymująca się aktywacja z poprzedniego zadania utrudnia wzbudzenie nowej. Aby ją zredukować
potrzebna jest odpowiednio długa przerwa między zadaniami
* procesy przeduwagowe dotyczą obróbki info na wczesnych etapach( uwaga jest tu obecna)
!!obecnie uważa się że uwaga selekcjonuje info nawet gdy jej treść nie przedostaje się do
świadomości
> kryterium świadomego przetwarzania(Velmans) :
zdawanie sobie sprawy przebiegu procesu poznawczego i dysponowanie wiedzą o rezultatach tego
procesu. Świadomość procesu ma ponadto wpływ na jego przebieg
> Baar jest zdania że proces nieświadomy to taki gdzie nie wyzwala się subiektywne
doświadczenie, nie jest możliwe jego zrelacjonowanie ale ujawniają się skutki jego działania.
19
* bodziec podprogowy: jest na tyle silny, iż pobudza org sensorycznie, ale zbyt słaby by go
świadomie zauważyć. Działa powyżej absolutnego progu percepcji, ale poniżej progu świadomości.
>Mendelson i anagramy:
efekt nieuświadomionej podpowiedzi np. słowo zapamiętane w uprzednim zadaniu
eksperymentu pomaga rozwiązać zadanie z anagramami. Wielkość efektu zalezy od modalności
zmysłowej( większy przy modalności wizualnej)
>Dallas i Merikle
reakcja na słowo kanale ważnym( samochód) może być przyspieszona gdy w kanale ignorowanym
pojawi się słowo semantycznie związane( kierowca). Czas reakcji wydłuża się natomiast gdy w
kanale ignorowanym pojawi się synonim słowa( auto).
Poprzedzanie:
Bodziec wcześniejszy( pryma)wpływa na przetwarzanie bodźca docelowego!
Paradygmat*
>poprzedzanie repetytywne: krótka prezentacja tego samego bodźca przed tym jak ma on być
za chwilę rozpoznany
> poprzedzanie semantyczne: pryma nie jest identyczna z bodźcem docelowym, ale jest z nim
semantycznie związana( np., bibliotekaksięgozbiór)
>*gdy bodziec prymujący ułatwia przetworzenie b.docelowegopoprzedzanie pozytywne
>poprzedzanie podprogowe(sublimalne):pryma działa w bardzo krótkim czasie-badany jej nie
zauważa, ale obserwujemy zmianę w przetwarzaniu bodźca docelowego(!efekt ten można uzyskać
również przez prezentacje bodźca o bardzo małej intensywności)
>poprzedzanie peryferyczne: bodziec poprzedzający jest wystarczająco intensywny, trwa długo
ale osoba jest nieświadoma jego oddziaływania.
>poprzedzanie afektywne: przed bodźcem właściwym prezentowany jest bodziec o zabarwieniu
emocjonalnym-bodziec docelowy jest przez to inaczej interpretowany
>poprzedzanie sekwencyjne:
pryma maskabodziec docelowyreakcja
*paradygmat prymowania niesekwencyjnego( str. 226)
ROZDZIAL 6
Procesy nieautomatyczne dzięki nabywaniu wprawy mogą stać się procesami zautomatyzowanymi
(wtórnie automatyczne)- takie procesy są poza kontrolą świadomości, zmniejszają wysiłek
umysłowy, są intencjonalne oraz celowe
20
• przeciwieństwem są procesy pierwotnie automatyczne, które są bezwysiłkowe, poza kontrolą
świadomości, nieintencjonalne
↑ procesy słabo i silnie automatyczne
Schneider i Shriffin teoria kontinuum (efekt nabywania wprawy przesuwa się od bieguna kontroli
w stronę automatyzmu)
- model procesów automatycznych i kontrolowanych
→ system poznawczy podzielony na dwie ścieżki
• pierwsza wymaga kontroli ze strony uwagi, pojawia się w przypadku pojawienie się
nowych bodźców i braku strategii postępowania
• druga jest związana z automatyczną detekcją układu bodźców, jest poza kontrolą, czynności
zapisane są w pamięci długotrwałej, są niemodyfikowalne
Proces automatyzacji wymaga długiego treningu, procesy kontrolowane mogą stać się
automatycznymi
Możliwy jest transfer wprawy w zakresie zautomatyzowania czynności z jednego zestawu bodźców
na drugi
Możliwość kontroli procesów automatycznych- modyfikacja w takcie ich przebiegu (Logan, Tzelgov)
np. przerwanie pisania na maszynie, kiedy się popełni bład
Osoby badane czytają słowa spójne lub niespójne albo nazywają kolor atramentu użyty do napisania
słów spójnych lub niespójnych. Czytanie słów zwykle wymaga mniej czasu niż nazywanie kolorów,
ponieważ jest czynnością silnie zautomatyzowaną. Jeśli chodzi o nazywanie kolorów czynność ta jest
zwykle znacznie dłuższa w przypadku słów niespójnych w porównaniu ze spójnymi.
21
a) Stroop emocjonalny – nazywanie koloru jakim napisano słowo kojarzące się z lękiem albo
rzeczami lub sytuacjami o negatywnym zabarwieniu emocjonalnym
b) Stroop rozproszony – nazywanie koloru obiektu występującego w towarzystwie wyrazu
oznaczającego zupełnie inny kolor
c) Stroop figuralny – nazywanie figury stanowiącej tworzywo, a ignorowanie figury głównej,
osoby badane widzą figurę zbudowaną z innych figur
d) Stroop kierunkowy – badani mają za zadanie reagować za pomocą odpowiedniego
klawisza kursora klawiatury na strzałkę pokazującą kierunek przeciwny niż klawisz
Najważniejszym konstruktem tej teorii jest pojęcie egzemplarza- reprezentacja bodźca (S) i
sposobu reakcji (R).
Egzemplarz przechowywany jest w postaci wiedzy trwałej
Pojawienie się bodźca może spowodować jeden z dwóch sposobów przetwarzania informacji
- zastosowanie ogólnego algorytmu (automatyczna procedura)
- znanego z przeszłości sposobu poradzenia sobie z bodźcem (kontrolowane przetwarzanie)
zwiększona szybkość powoduje wzrost błędów, jednakże efekt ten ulega sukcesywnemu
zmniejszaniu w każdej kolejnej próbie tego samego testu, najbardziej istotne różnice na początku
(Szymura, Słabosz)
Innym negatywnym zjawiskiem jest transfer negatywny – dobrze wyuczona czynność utrudnia
wykonanie czynności podobnej, ale nie tożsamej z poprzednio wyuczoną
• Hamowanie
22
Hamowanie jest mechanizmem kontrolnym polegającym na, z jednej strony, utrudnieniu dostępu
do informacji nieistotnych, a z drugiej, na powstrzymaniu niepożądanej w danym momencie
aktywności neuronalnej, mentalnej lub behawioralnej.
Podstawowym zadaniem hamowanie jest blokowanie pobudek zarówno zewnętrznych, jak i
wewnętrznych.
Odporność na dystrakcję
Francolini i Egeth (1980) twierdzą, że w pewnych warunkach proces odrzucania dystrakcji może być
całkowicie skuteczny dzięki przestrzennej separacji konfliktowych aspektów bodźca:
- udane próby redukcji efektu Stroopa
- udane próby redukcji efektu flankerów
W Teście flankerów badani reagują na literę pojawiającą się w centrum ekranu. Litera ta jest
otoczona przez dwa bodźce zakłócające (flankery), którymi są inne litery pojawiające się po obu
stronach sygnału w jednym rzędzie. Flankery mogą być tożsame z sygnałem lub też mogą być
zupełnie innymi literami. Zadania testowe różnią się w zakresie przestrzennej lokalizacji bodźców
zakłócających (bliżej lub dalej od sygnału).
- Czas reakcji na sygnał znacznie się wydłuża, gdy pojawiają się flankery, w porównaniu do sytuacji,
gdy ich nie ma lub są tożsame z sygnałem. Wydłuża się tym bardziej, im bardziej podobne do siebie
są sygnały i dystraktory oraz im mniejsza jest ich wzajemna odległość (Eriksen i Eriksen)
[np. C A C / CCC/CAC/C C C]
Karen, O’Hara i Skelton wykorzystali w swoim badaniu zadanie Posnera i Mitchella (1967). Badani
mieli podjąć decyzję, czy para prezentowanych liter spełnia narzucone przez instrukcję kryterium
selekcyjne:
a) identyczności fizycznej (AA)
b) identyczności nominalnej (Aa)
c) identyczności opartej o regułę (np. Ae)
Wg nich przetwarzanie bodźców może być powstrzymywane bardzo wcześnie, na poziomie ich
rozpoznania (1), lub też bardzo późno, na poziomie przetwarzania ich znaczenia (2)
(1) dystraktory powodowały interferencję tylko w zadaniach, w których zastosowano kryterium
fizycznej identyczności (skutecznie odrzucane w warunkach wymagających uwzględnienia
znaczenia bodźców)
(2) interferencja stwierdzona w zakresie wszystkich zadań, niezależnie od kryterium selekcji
Dynamiczna wersja zadania Posnera i Mitchella- DIVA- pokazał, że sposób przeszukiwania pola
percepcyjnego jest zależny od odporności na dystrakcje.
23
Efekt tłumienia dystrakcji (Neill) – zastosowano zadanie Stroopa układając w specyficzny sposób
porządek bodźców na liście niespójnej. N+1 bodziec tej listy był napisany kolorem atramentu, który
był tożsamy ze znaczeniem bodźca N-tego
Reakcja na tłumiony wcześniej aspekt bodźca konfliktowego jest wolniejsza niż wówczas, gdy aspekt
ten nie był uprzednio odrzucany.
Efekt ten jest zależny od strategii rozwiązania przetargu między poprawnością a szybkością (Neill,
Westberry). Gdy badani, wykonujący zadanie Stroopa, poświęcali poprawność na rzecz szybkości,
nie stwierdzono efektu tłumienia dystrakcji, gdy zaś poświęcali szybkość na rzecz poprawności, efekt
ten wystąpił z jeszcze większą siłą.
Tłumienie dystrakcji jest krótkotrwałe- proces ten jest aktywny przez najwyżej 1000ms.
Zagadnieniem odporności na interferencję pamięciową zajęli się Andersen, Bjork i Bjork- określili oni
zjawisko zapominania z powodu przywoływania- odpamiętanie informacji z konkretnej kategorii
może spowodować brak możliwości przypomnienia innej informacji z tej samej kategorii.
Hamowanie pamięciowe (Pefrect, Mulin, Conway, Perry)- redukcja w zakresie poziomu aktywacji
reprezentacji pamięciowej.
- odpamiętywane są przede wszystkim egzemplarze ćwiczone
Funkcje zarządcze
24
- zlokalizowanych w przednich płatach czołowych mózgu
- ich upośledzenie – syndrom czołowy- dezorganizacja wszystkich form zachowania
Funkcje zarządcze:
1) przerzutność (pomiędzy zadaniami, procesami, czynnościami) [Wisconsin Card Sorting Test]
2) hamowanie (niepożądanej reakcji, bodźców zakłócających) [Wieża z Hanoi]
3) odświeżanie informacji w zakresie pamięci roboczej [Test Sternberga]
Collete i Van der Linden (2002) wykazali, że wykonywanie zadań wymaga aktywizacji zarówno
przednich płatów czołowych, jak i płatów tylnych, a w szczególności ciemieniowych obszarów kory
mózgowej.
Owen (2000) stwierdził, że mechanizm hamowania dominującej reakcji należy lokalizować tylko w
części przednich płatów czołowych, zawierających obszary:
- środkową część grzbietowo-boczną
- środkową część brzuszno-boczną
- grzbietową część przedniej części zakrętu obręczy
25
Kontrolą przetwarzania informacji w sytuacjach nowych zajmuje się nadzorczy system uwagi SAS
(polska nazwa tego sytemu: dominujący system zadaniowy).
Zadaniem SAS jest układanie „rozkładu jazdy” czynności kontrolowanych oraz ich bieżący
monitoring:
- tworzenie nietrwałej reprezentacji umysłowej dla sytuacji problemowej
Centralny system wykonawczy jest odpowiedzialny za kontrolę zadań jednoczesnych. Jego głównym
zadaniem jest zarządzanie zasobami uwagowymi systemu poznawczego i przeznaczenie ich do
wykonywania czynności jednoczesnych. Kontrola czynności jednoczesnych jest możliwa, a redukcja
kosztów poznawczych w wyniku efektywnej kontroli wydajna.
ALE: Istnieją takie zadania, które wydają się pobierać całą dostępną moc
centralnego systemu wykonawczego, a ich kontrolowanie jednocześnie z innymi
zadaniami okazuje się niemożliwe.
Np. test generowania liczb losowych
RODZIAL 7
26
Bodźce zdegradowane – bodźce niepełne, niekompletne, pojawiające się w nieoptymalnych
warunkach czasowych lub przestrzennych.
Percepcja głębi – możliwość spostrzegania absolutnego dystansu, jaki dzieli obserwatora od obiektu
oraz względnego dystansu, dzielącego poszczególne obiekty w polu wzrokowym od siebie.
Warunkuje percepcję przedmiotów, a ona z kolei jest warunkiem procesu kategoryzacji i myślenia
pojęciowego.
Identyfikacja obiektu
Humphreys i Bruce - Fazy identyfikacji obiektu (relatywnie odrębne, ale posiadające sztywne
następstwo czasowe):
- recepcja danych zmysłowych
- odzwierciedlenie obiektu w systemie poznawczym
- klasyfikacja percepcyjna obiektu – dane zmysłowe są porównywane z danymi umysłowymi
- klasyfikacja semantyczna – przywołanie danych dotyczących funkcji danego obiektu
- klasyfikacja leksykalna – przypisanie obiektowi określonej etykiety werbalnej
27
Spostrzeganie jest również procesem odgórnym. Reprezentacja percepcyjna obiektu jest
konfrontowana z danymi umysłowymi. Dowody na odgórny charakter percepcji:
- stałość spostrzegania (stałość wielkości, kształtu, jasności i barwy)
- wpływ nastawienia na spostrzeganie (wstępne przygotowanie umysłu do odbioru określonej
informacji – Bugelski i Alampay – łysy i szczur )
- złudzenia i błędy w spostrzeganiu (trójkąt Penrose’a, sześcian Neckera)
- wpływ kontekstu na spostrzeganie
Teorie percepcji
Teoria asocjacjonistyczna – spostrzeżenie to prosta suma wrażeń i powstaje (oddolnie) jako ich
połączenie na zasadzie praw kojarzenia:
- styczności wrażeń w czasie
- styczność wrażeń w przestrzeni
- wrażeń przez podobieństwo
- wrażeń przez wzajemny kontrast
Spostrzeżenie powstaje po wielokrotnym łącznym występowaniu poszczególnych wrażeń.
Głosi prymat części nad całością oraz wrażeń nad spostrzeżeniami.
Nie uwzględnia roli reprezentacji umysłowych w procesie percepcji.
Zasady, zgodnie z którymi system poznawczy wyodrębnia całości (figury) z tła różnorodnych
wrażeń:
- bliskość przestrzenna
- podobieństwo
- kontynuacja – wspólny ruch obiektów w tym samym kierunku
- pregnancja – „domknięcie” obiektu niedokończonego
- dobra figura - najpierw widzimy figurę, a następnie jej niedoskonałości
28
- odzwierciedlenie 3D – ostateczny produkt procesu percepcji – pełny trójwymiarowy obraz,
niezależny od kąta obserwacji. Są łatwo dostępne i konstruowane, niezależne od obiektu
widzianego z różnych perspektyw oraz elastyczne. Są konstruowane z różnych przestrzennych form
podstawowych.
Spostrzeganie twarzy –
koncepcja modeli (ujęcie holistyczne) vs. koncepcja cech (najważniejsze są rejony oczu, a najmniej
istotne rejony nosa)
ROZDZIAL 8
PAMIĘĆ
1. RODZAJE PAMIĘCI
29
1)
2) Klasyczny podział pamięci:
3)
4) Wywodzi się z blokowego modelu pamięci (Atkinson i Shifrin, 1968). Oparty na kryterium
czasu przechowywania. Dzieli się na: magazyn sensoryczny -> magazyn krótkotrwały(STS) ->
magazyn długotrwały(LTS).
a) Magazyn sensoryczny: powiązany ze zmysłami zmysłu np. wzroku, słuchu, węchu.
Przechowuje bodziec krótko (kilkaset milisekund). Ogromna pojemność a na pewno
większa od STM.
b) Magazyn pamięci krótkotrwałej: posiada informacje zarówno bodźcową jak i
przywołaną z LTS. Posiada różne kody podtrzymywania informacji jak np.
mechanizm bezgłośnego powtarzania. Mało pojemny. Funkcją jego jest
przetrzymywanie informacji w czasie niezbędnym do dalszego przetwarzania.
c) Magazyn pamięci długotrwałej: nieograniczony czas przechowywania informacji.
Funkcją jego jest umożliwienie skutecznej adaptacji jednostki w środowisku w
dłuższej perspektywie czasowej.
Utrata dostępu do informacji w LTM to powód „zapominania”(informacja ciągle jest ale nie
możemy wydobyć np. efekt końca języka).
Podwójna dysocjacja: dowód na odrębność STM i LTM. Pacjenci z uszkodzeniami mają np. efekt
świeżości ale nie mają efektu pierwszeństwa.
Interferencja: w STM przez nakładanie się podobieństwa akustycznego bodźców. W LTM przez
nakładanie się bodźców semantycznych.
Modele procesualne: wszystkie alternatywne dla modeli magazynowych ale ich nie kwestionuje.
30
Badani odpowiadali na różne pytania + jedno (czy słowo opisuje ich samych). Najłatwiej
odpamiętywali to właśnie pytanie.
Maskowanie wsteczne: nowy bodziec przy szybkiej prezentacji po starym (max 100ms) zaciera
go całkowicie.
Pamięć krótkotrwała:
Około 7 sekund. Zapominamy bo: zanik z upływem czasu, interferencja, przekierowanie
uwagi.
31
(powtórka z pkt 1. semantyczna itd.)
Pamięć trwała: dłuższy czas przechowywania i inne funkcje niż przemijająca. Gromadzi
informacje potrzebne do dobrej adaptacji do środowiska.
Decyzja leksykalna: badani mieli określić czy to słowo czy nie słowo
RODZIAL 10
5) Istota myślenia
Nęcka – myślenie jest jednym z narzędzi budowania modeli mentalnych – zawiera
alternatywne wersje wydarzeń, które mogłyby być skutkiem konkretnych działań. Jest taż
narzędziem wirtualnego testowania tych modeli
Pinker – nie ma dużej różnicy pomiędzy problemami, z jakimi borykali się nasi przodkowie
w długim procesie antropogenezy a rozwiązywaniem abstrakcyjnych problemów, z jakim
borykamy się dziś
- egzaptacja – proces adaptacji struktur mózgowych do zadań, które pierwotnie nie były im
stawiane
Cole – badanie na przedstawicielach plemienia Kpelle – różnice w myśleniu w sytuacjach
naturalnych i abstrakcyjnych
- utajona „definicja” inteligencji w danej kulturze wpływa na to, jakie zachowania będą w niej
cenione i wzmacniane; definicja ta jest ściśle związana z potrzebami i celami danej kultury
Carraher, Scheliman – powiązanie treści problemu z dotychczasowymi doświadczeniami
badanego wpływa pozytywnie na poprawność rozwiązania problemu
Ceci i Ruiz – eksperci w jednej dziedzinie nie potrafili dokonać transferu swojej wiedzy na
inną dziedzinę, mimo że stawiane przed nimi problemy były izomorficzne, tj. identyczne w
swojej strukturze głębokiej
Ceci – istotny wpływ na efektywność myślenia ma motywacja
Tobby i Cosmides – racjonalnośc ekologiczna – niepełne dostosowanie ludzkiego umysłu
do myślenia abstrakcyjnego, w przeciwieństwie do znakomitego dostosowania do myślenia
praktycznego
Trzy rodzaje modeli myślenia:
- modele deskryptywne – ich celem jest opis procesu myślenia w jego rzeczywistej postaci
ze wszystkimi systematycznymi błędami i uproszczeniami; podstawowa forma ekspresji –
heurystyki, czyli uproszczone reguły postępowania, stosowane w konkretnych sytuacjach
- modele preskryptywne – dotyczą poprawności z punktu widzenia stosowanych heurystyk
(zastosowanie heurystyki dostosowanej do charakteru zadania)
- modele normatywne - dotyczą poprawności myślenia z punktu widzenia pewnego
systemu norm, którym może być np. rachunek prawdopodobieństwa; czasochłonne i bardziej
wysiłkowe niż zastosowanie prostszych heurystyk
Maruszewski – krytykuje dwie podstawowe właściwości myślenia w rozumowaniu
potocznym: to, że myślenie jest procesem świadomym oraz kontrolowany charakter procesu
myślenia (intruzje w myśleniu)
Rodzaje myślenia
David Berlyne – dwa rodzaje myślenia: autystyczne i realistyczne
- myślenie autystyczne – nie jest nastawione na osiągniecie konkretnego efektu;
charakterystyczne dla stanu relaksacji, kiedy myślimy o przysłowiowych niebieskich
migdałach; pozwala fantazjować i zastępczo zaspokajać potrzeby, które chwilowo nie są
możliwe do zaspokojenia
- myślenie realistyczne – uwzględnia ograniczenia nakładane przez rzeczywistość, jest
ukierunkowanie na osiągnięcie jakiegoś celu (np. rozwiązanie problemów)
32
Otto Sezl – podział myślenia na produktywne i reproduktywne
- myślenie produktywne – efektem jest wytworzenie nowych treści intelektualnych;
nowość może dotyczyć albo wytworu będącego efektem myślenia albo procesu poznawczego,
który do tego wytworu doprowadził; treść i wynik m.p. są nowe z punktu widzenia
dotychczasowej wiedzy podmiotu myślącego, ale nie koniecznie z punktu widzenia innych
ludzi
- myślenie reproduktywne – sprowadza się do różnych form odtwarzania przeszłego
doświadczenia (np. wyciągnięcie pierwiastka kwadratowego z liczby 256, sporządzenie
rutynowego raportu)
podział myślenia na twórcze i odtwórcze
- myślenie twórcze – rodzaj myślenia, którego wynik jest oceniany jako nowy i wartościowy
w sensie poznawczym, estetycznym, etycznym albo użytkowy (Nęcka)
- myślenie odtwórcze – aktywność umysłowa, której wynik nie zyskał uznania jako nowy i
wartościowy dla społeczności
myślenie krytyczne – jest rodzajem myślenia realistycznego ukierunkowanego na
specyficzny cel, jakim jest ewaluacja; jego celem jest rzetelna i realistyczna ocena istotnych
aspektów aktywności intelektualnej człowieka;
- Sternberg – w przypadku, gdy myślenie krytyczne dotyczy samego siebie uważane jest
wtedy za proces metapoznawczy
- myślenie krytyczne krytyczna refleksja – ocena relacji między tym, jak działamy, a
tym, co jest w danej kulturze cenione jako spełniające kryteria etyczne
6) Podział oparty na kryterium rozwojowym
dwa rodzaje myślenia
- sensoryczno-motoryczne – przetwarzanie informacji ograniczone do bodźców
rejestrowanych sensorycznie w danym momencie, a operacje na nich dokonywane mają
postać czynności eksploracyjnych
- wyobrażeniowo-pojęciowe – dojrzała forma myślenia, charakterystyczną wyłącznie dla
człowieka od pewnego stadium rozwoju, gdzie wyobraźnia i pojęcia zajmują miejsce
spostrzeżeń, a abstrakcyjne operacje przejmują rolę czynności motorycznych
klasyfikacje myślenia według Piageta
- stadium myślenia sensoryczno-motorycznego
- stadium przedoperacyjne – rozwój myślenia pojęciowego
- stadium operacji konkretnych – umiejętność myślenia logicznego, odwracalność operacji
myślenia (dokonanie w umyśle odwróconego działania i wyprowadzenia logicznego wniosku)
oraz decentracja (uwzględnienie wmyśleniu więcej niż jednej cechy obiektów, a nawet
gradacji ich ważności
- stadium operacji formalnych – przeniesienie zdolności wykształconych w poprzednim
stadium na obiekty abstrakcyjne
myślenie postformalne (dialektyczne) – formułowanie w myśleniu tez i antytez oraz ich
późniejszego syntetyzowania, które może być podstawą sformułowania kolejnej tezy, a dla
niej stosownej antytezy itd.
a) Teorie myślenia
teoria Berlyne’a – myślenie jest ciągiem symbolicznych bodźców i reakcji; symboliczny
bodziec to taki, który posiada znaczenie i wywołuje reakcję, kiedy fizycznie bodziec nie jest
obecny; reakcja symboliczna – r. wywołana bodźcem symbolicznym (np. mowa, gesty,
czynności obrzędowe)
- myślenie typu S – jeżeli reakcje nawykowe rutynowo uruchamiane w danej kategorii
sytuacji, w wyniku procesu myślenia przenoszone są na inna kategorię sytuacji (zbliżone do
m. reproduktywnego)
- myślenie typu R – podmiot wykonuje reakcję lub sekwencję reakcji, której nigdy
wcześniej nie wykonywał (zbliżone do m. produktywnego)
33
- celów – stanowią kryteria czy standardy oceny możliwości
2) wnioskowania
Dowody wpływają na „moc” możliwości , ale z uwzględnieniem ich wag, które wynikają z
realizowanych celów.
Elementy struktury myślenia
Badanie struktury myślenia polega na wyróżnianiu składników budulcowych tego procesu
oraz sposobu (reguł)ich łączenia
Właściwości analizy struktury myślenia:
- materiał – rodzaj informacji przetwarzanych w procesie myślenia, który charakteryzuje się
określoną formą reprezentacji (konkretno-obrazowa vs. abstrakcyjna) i treścią (drzewo vs.
prawda)
- operacje umysłowe – przekształcenia dokonywane na reprezentacjach umysłowych
- reguły – sposoby uporządkowania łańcucha operacji umysłowych, składających się na
proces myślenia
Operacje i strategie
Do lat 60. XX w. uważano, że myślenie można sprowadzić do dwóch grup operacji: analizy
(proces dekompozycji złożonej całości na jej elementarne części) i syntezy.
Ponadto wyróżniono 3 operacje pochodne względem analizy i syntezy: porównywanie,
abstrahowanie i uogólnianie
Berlyne – w przebiegu procesu myślenia wyróżnić można:
- ogniwa – poszczególne stany wiedzy składające się na cały proces umysłowy
- operacje – przekształcenie jednego stanu ogniwa w drugi
- operacje kluczowe – są koniecznym warunkiem osiągnięcia celu
Łańcuch operacji symbolicznych posiada dwie charakterystyczne właściwości:
- pętle – operacje nie powodujące zmiany w jego ogniwach
- I rodzaju – polega na cofnięciu się do poprzedniego stanu
- II rodzaju – polega na wykonaniu operacji tożsamościowej (nie powoduje żadnej zmiany)
- rozgałęzienia – powstają, gdy w wyniku jakiejś operacji mogą zostać wypracowane różne
stany wiedzy; decydują o alternatywnym charakterze myślenia
b) Reguły, algorytmy i heurystyki
Reguły to sposoby uporządkowania łańcucha operacji umysłowych, składających się na
proces myślenia
Algorytm jest jednoznacznym i niezawodnym przepisem działania, zawierającym skończona
sekwencję operacji, jaką należy wykonać, aby osiągnąć określony cel; właściwości:
- niezawodny – prowadzi do uzyskanie jednoznacznego rezultatu w danej klasie zadań
- dobrze określony – jednoznaczna procedura postępowania
- masowy – można go stosować do każdego problemu z danej klasy
- jest zestawem sztywnych reguł – brak choćby niewielkiej części danych powoduje, że
uzyskany wynik jest błędny albo w ogóle niemożliwy do uzyskania
Heurystyka jest nieformalną, spekulatywną, uproszczoną albo skrótową metodą
rozwiązywania problemów lub podejmowania decyzji; jest zawodna i bardziej ryzykowna
od algorytmu oraz słabo określona, ma zastosowanie w przypadku problemów, których nie
da się jednoznacznie i kompleksowo określić; dwa powody stosowania heurystyk:
- złożoność sytuacji nie pozwala na wykonanie algorytmu
- oszczędność czasu i wysiłku poznawczego
Berlyne – wyróżnił 4 podstawowe reguły myślenia, tworzące grupę transformacji:
- składanie transformacji – zakłada istnienie takiej transformacji, która prowadzi do
identycznego wyniku, jak dwie jej składowe 3= (2 1)
- transformacja tożsamościowa 0 – złożona z dowolną inną transformacją i, daje taki
rezultat, jak zastosowanie wyłącznie i; zatem (i 0) = (0 i) = i
- odwracalność transformacji – zakłada istnienie przekształcenia p odwrotnego w
stosunku do i, a ich łączne zastosowanie daje wynik transformacji tożsamościowej 0,
znaczenie odgrywa kolejność zastosowanych transformacji p i i
- łączenie transformacji – dowolne trzy transformacje, połączone dowolnie parami na
zasadzie składania transformacji, dają ten sam rezultat
Rozumowanie dedukcyjne
Tu doczytac z książki
34
Rozumowanie warunkowe- jest częścią logiki zajmującą tzw. rachunkiem zdań.
Implikacja- funktor używany w rachunku zdań; składa się z dwóch zdań:
- poprzednik
- następnik
połączonych spójnikiem „ jeżeli… to…”
Aby implikacja była prawdziwa, zajście poprzednika jest warunkiem wystarczającym (ale
niekoniecznym) dla zajścia następnika, ale zajście następnika jest koniecznym skutkiem
uprzedniego zajścia poprzednika.
Schematy wnioskowania:
1) Modus Ponens:
Jeżeli p, to q
p
więc: q
2) Potwierdzenie Następnika:
Jeżeli p, to q
q
więc: p
3) Potwierdzenie Poprzednika:
Jeżeli p, to q
nie p
więc: nie q
4) Modus Tollens:
Jeżeli p, to q
nie q
więc: nie p
Zadanie selekcyjne (Wason) wymaga weryfikacji prawdziwości prostej hipotezy, że jeśli na kartce
z jednej strony napisano konkretną literę (np. A), to na drugiej stronie musi być napisana liczba
parzysta. Osoba badana widzi cztery kartki, dwie odkryte po stronie liczby, z dwie po stronie litery.
Musi wskazać te kartki, które koniecznie trzeba odkryć, aby sprawdzić, czy hipoteza jest
prawdziwa.
Większość ludzi przy wykonywaniu zadania odwołuje się do konfirmacyjnej strategii testowania
hipotez ( poszukiwanie przypadków potwierdzających regułę, przy niedostatecznym uwrażliwieniu
na przypadki, które jej przeczą). Tymczasem mnożenie przypadków potwierdzających nie daje
gwarancji prawdziwości hipotezy, bo wystarczy jeden przypadek przeczący hipotezie, aby ją obalić.
Zmiana treści implikacji z „abstrakcyjnej” na „życiową” znacznie zwiększa poprawność
rozumowania (Griggs, Cox).
W życiowej wersji więcej osób badanych wykonało zadanie poprawnie (efekt materiału
tematycznego).
Jednak, jeśli implikacja wymaga specyficznej wiedzy, efekt materiału tematycznego jest słabszy, a
nawet zupełnie zanika.
35
Ale kontekst może też się przyczynić do zmniejszenia poprawności rozumowania (Byrne), jeśli będą
podane informacje nieistotne.
Rozumowanie dedukcyjne
Człowiek jest z natury istotą racjonalną, co przekłada się na zdolność efektywnego używania reguł
logiki (logika mentalna).
Jeśli zdanie zostanie rozpoznane jako wymagające zastosowania reguł logicznych, uruchamia się
program rozumowania:
1. identyfikacja logiczna struktury przesłanek, ich treść jest przekładana na abstrakcyjną
formę sądów, operujących abstrakcyjnymi symbolami
2. jeżeli struktura konkretnego zdania zostanie uznana za dopasowaną do jakiejś reguły
umysłowej, zostaje uruchamiany odpowiedni program rozumowania; efektem jest
wygenerowanie konkluzji, sformułowanej w języku abstrakcyjnych symboli
3. przełożenie wniosku z formy abstrakcyjnej na język przesłanek.
Ludzie w sposób naturalny myślą logicznie, błędy popełniają raczej sporadycznie (Braine).
Rozumowanie bezpośrednie- zastosowanie w konkretnej sytuacji ogólnych schematów opartych
na abstrakcyjnych regułach.
Schematy biorące udział w rozumowaniu bezpośrednim dzielą się na
- rdzenne (takie jak modus ponens, korzystają z fundamentalnych reguł logicznych)
- posiłkowe (pełnią funkcje pomocnicze i są stosowane do generowania wniosków wspomagających
działanie schematów podstawowych)
- inną kategorią są schematy niezgodności( stosowane do testowania zawartości pamięci roboczej
pod kątem detekcji wniosków nieuprawnionych)
Model umysłowy:
- elementy sytuacji problemowej mają swoje odpowiedniki w modelu umysłowym
- model umysłowy odzwierciedla strukturę sytuacji problemowej
- możliwe jest zbudowanie większej liczby modeli umysłowych, dla jednego problemu
- możliwe jest włączenie niektórych elementów reprezentacji obiektów, o których mowa w
przesłankach
Etapy rozumowania:
1) skonstruowanie modelu stanu rzeczy opisanego w przesłankach
2) sprawdzenie czy domniemany wniosek jest zgodny z tym modelem
36
3) próba falsyfikacji konkluzji, poprzez skonstruowanie alternatywnych modleli wynikających z
przesłanek
Racjonalność nie polega na stosowaniu abstrakcyjnych reguł logicznych, lecz poszukiwaniu większej
liczby modeli, prawidłowo ujmujących informacje zawarte w przesłankach. Chodzi w szczególności
o uwolnienie się od modelu początkowego, czemu służy poszukiwanie kontrprzykładów- mechanizm
do falsyfikacji hipotez.
Zalety teorii:
- nie wymaga przyjmowania założeń wątpliwych lub niefalsyfikowalnych
- dobrze radzi sobie z wyjaśnieniem błędów negacji poprzednika i potwierdzenia następnika, nie
potrzebując w tym celu właściwie żadnych dodatkowych założeń
- świetnie radzi sobie z wyjaśnianiem wpływu treści o kontekstu na wynik rozumowania
- jest stosowana do wyjaśniania złożonych procesów poznawczych
Krytyka:
- niedopracowana
- nie opisuje mechanizmu poprawnego rozumowania, lecz koncentruje się na wyjaśnieniu błędów
- niejasny mechanizm poszukiwania kontrprzykładów, kontrprzykładów nawet samych modeli
mentalnych
Rozumowanie indukcyjne
Reguła relacyjna- osobom badanym prezentowany był ciąg liczb, zestawionych wg prostej reguły,
np. 2 4 6 – zadaniem było podanie innego ciągu wg reguły ciągu wzorcowego oraz próba
werbalizacji reguły.
37
pomyśle przeniesienie wiedzy zależy od abstrakcyjnych schematów rozumowania, które są
ogólnym reprezentacjami rozwiązań możliwych do zastosowania w różnych sytuacjach- im
bogatsze schematy tym łatwiej dostrzegać analogię
Rumelhart i Abrahamson testowali hipotezę, w myśl, której rozumowanie przez analogię wymaga
wydawania sądów na temat podobieństwa pomiędzy pojęciami ( konc. semantyczna- stopień
podobieństwa zależy od odległości pojęć w niej zawartych)
-autorzy uznali, że w wypadku wnioskowania przez analogię zadanie polega na znalezieniu takiego
wektora w wielowymiarowej przestrzeni pamięci, który miałby taką samą długość dla relacji A:B
jak i do relacji C:x, szukamy x; manipulowano eksperymentalnie odległością alternatywnych
członów x1- x4, wyprowadzoną z wielowymiarowym modelu Henley; (czyli nie tylko odległość
pomiędzy pkt w przestrzeni decyduje, ale i pomiędzy alternatywami)
wyniki potwierdziły model, tolerancja pomiędzy C a x-ami wynosi ok., 0,12 jedn.
Wlatz i współpracownicy
zadanie dedukcyjne- wnioskowanie przechodnie
zadanie indukcyjne- matrix problem
3 grupy pacjentów:
1. uszkodzenie kory przedczołowej
2. uszkodzenie przyśrodkowej części płata skroniowego
3. normalni
zwiększenie trudności zadań powodowało znaczne obniżenie poprawności u 1, odwołanie do WM
ROZUMOWANIE PROBABILISTYCZNE
efekt siły przekonań- treść logicznego wniosku pozostaje w związku z wiedzą czy przekonaniami
osób bzdanych
ROZUMOWANIE NIEFORMALNE
zdecydowanie odbiega od tego, które przyjmują logicy; włączanie nowych wiadomości do
przesłanek
ROZDZIAL 11
ROZWIĄZYWANIE PROBLEMÓW
38
Problem – rozbieżność między aktualnym stanem rzeczy a wyznaczonym bądź
narzuconym celem (pożądanym stanem), której nie można usnąć rutynowo)
Rozwiązywanie problemów – aktywność ukierunkowana na zredukowanie rozbieżności
pomiędzy stanem aktualnym a pożądanym, polegająca na realizacji zaplanowanej
sekwencji operacji poznawczych
Problem to rodzaj relacji między obiektywną zewnętrzną sytuacją bodźcową a jednostką lub grupą
ludzi. Istotą tej relacji jest to, że nie można osiągnąć celu, co wynika z różnych powodów (brak
forsy, wsparcia, wiedzy). Kiedy człowiek pomimo braku środków podejmuje się próby osiągnięcia
celu to znaczy, że wykonuje czynność rozwiązywania problemu.
2.TYPY PROBLEMÓW
PODZIAŁ PROBLEMÓW ZE WZGLĘDU NA ICH CECHY I STRUKTURĘ
Problem konwergencyjny (zbieżny) – ma jednoznaczne rozwiązanie – niezależnie od
przyjętej strategii – procesy poznawcze zbiegają się w jednym punkcie stanowiącym
rozwiązanie problemu
Problem dywergencyjny (rozbieżny) – dopuszcza wiele rozwiązań – każde może być
poprawne – procesy myślowe angażowane w rozwiązanie problemu rozbiegają się w wielu
kierunkach
Dymensja proste-złożone – różnica w poziomach komplikacji modelu umysłowego
Dymensja łatwe-trudne – różnica w wysiłku poznawczym włożonym w rozwiązanie
problemu
Problem dobrze określony – zawiera jasny opis kryteriów oceny jego osiągnięcia
Problem źle określony – niesprecyzowane dopuszczalne i niedopuszczalne zasady
rozwiązywania problemów – Wg Simona – problem źle określony można rozwiązać, jeśli
przekształci się go w dobrze określony
Problem wymagający wglądu - wymaga odrzucenia podstawowej przeszkody –
przyjętych ukrytych, fałszywych założeń, – kiedy je odrzucimy problem wydaje się prosty)
Wgląd wg WOLFGANGA KOHLERA to zjawisko nagłej zmiany percepcji problemu
poprzedzone zazwyczaj tzw. przerwą inkubacyjną
Problem bogaty semantycznie – sieć semantyczna związana z problemem jest
rozbudowana. Dysponujemy zasobem doświadczeń w jego rozwiązaniu, pomimo, że
problem jest nowy.
Problem ubogi semantycznie – nie może być odniesiony do naszych wcześniejszych
doświadczeń, ponieważ jego struktura jest całkiem nowa.
39
Problem ogólny –wymaga zastosowania prostych zasad logiki – niezależny od
specyficznej dziedziny wiedzy
Podział wprowadzony przez JAMESA GREENO – opiera się na zdolnościach operacjach umysłowych
angażowanych w proces rozwiązywania
Problem wymagający porządkowania – polega na organizacji obiektów według z góry
określonych reguł (np.anagramy – zadania wymagające reorganizacji ciągu liter tak, aby
utworzyły słowo)
Problem wymagający indukcji - polega na odkryciu i zastosowaniu relacji między
elementami problemu. (Np. ciągi liczb – 2,4,6..... zwany jest ten problem ekstrapolacją
serii, lub uzupełnianiem serii)
Transfer przez analogię – polega na przeniesieniu przez analogię relacji odnalezionej w obrębie
pierwszej pary pojęć przez drugą, wymaga dostrzeżenia relacji wyższego rzędy między
problemami.
Odwzorowanie – polega na takim ujęciu relacji A:B aby można ją było aplikować do obszaru
semantyczego związanego z C.
Transparencja – wg.GENTNERA u jej podłoża leży błąd lub brak procesu abstrahowania
( to tak jakby ktoś do szewc but księgowa dopasował słowo – trzewik)
Problem wieży z Hanoi – zadanie polega na „przeniesieniu” wieży zbudowanej z trzech lub
większej liczby krążków o różnej średnicy z jednego pręta na inny przy czym obowiązują 3 zasady
– można przenieść jeden krążek w jednym ruchu, można położyć tylko mniejszy na większym,
można je kłaść tylko na prętach.
Algorytm – za jego pomocą można rozwiązać cześć problemów transformacyjnych – jest to ścisły,
jednoznaczny przepis działania zawierający sekwencje operacji, jakie należy wykonać, aby osiągnąć
określony cel (dlatego można je modelować przy użyciu komputerów) – jego główną cechą jest
powtarzalność.
40
3. TEORIE ROZWIĄZYWANIA PROBLEMÓW
41
-problem istnieje
Wg GETZELS –
- problemu zbadanego nie trzeba definiować, ale potrzeba redefinicji lud ewentualnie
doprecyzowania
Wg KOSSOWSKA, NĘCKA
strategia analityczna – długie sekwencyjne, głębokie kodowanie, szybki i poprawny
wybór rozwiązania (wysoki poziom EQ)
strategia holistyczna – szybkie całościowe, płytkie kodowanie i wolny mniej poprawny
wybór
42
- daje możliwość wprowadzenia rozwiązania w życie
-następuje konfrontacja z WARUNKAMI BRZEGOWYMI ograniczeniami
Wg PROCTOR
-wyodrębnienie przeszkód
-ocena możliwości wprowadzenia w życie
- działania prewencyjne, plany awaryjne
Schematy wnioskowania:
1) Modus Ponens:
Jeżeli p, to q
p
więc: q
2) Potwierdzenie Następnika:
Jeżeli p, to q
q
więc: p
3) Potwierdzenie Poprzednika:
Jeżeli p, to q
nie p
więc: nie q
4) Modus Tollens:
Jeżeli p, to q
nie q
więc: nie p
Zadanie selekcyjne (Wason) wymaga weryfikacji prawdziwości prostej hipotezy, że jeśli na kartce
z jednej strony napisano konkretną literę (np. A), to na drugiej stronie musi być napisana liczba
parzysta. Osoba badana widzi cztery kartki, dwie odkryte po stronie liczby, z dwie po stronie litery.
Musi wskazać te kartki, które koniecznie trzeba odkryć, aby sprawdzić, czy hipoteza jest
prawdziwa.
Większość ludzi przy wykonywaniu zadania odwołuje się do konfirmacyjnej strategii testowania
hipotez ( poszukiwanie przypadków potwierdzających regułę, przy niedostatecznym uwrażliwieniu
na przypadki, które jej przeczą). Tymczasem mnożenie przypadków potwierdzających nie daje
gwarancji prawdziwości hipotezy, bo wystarczy jeden przypadek przeczący hipotezie, aby ją obalić.
Zmiana treści implikacji z „abstrakcyjnej” na „życiową” znacznie zwiększa poprawność
rozumowania (Griggs, Cox).
W życiowej wersji więcej osób badanych wykonało zadanie poprawnie (efekt materiału
tematycznego).
43
Jednak, jeśli implikacja wymaga specyficznej wiedzy, efekt materiału tematycznego jest słabszy, a
nawet zupełnie zanika.
Ale kontekst może też się przyczynić do zmniejszenia poprawności rozumowania (Byrne), jeśli będą
podane informacje nieistotne.
Rozumowanie dedukcyjne
Człowiek jest z natury istotą racjonalną, co przekłada się na zdolność efektywnego używania reguł
logiki (logika mentalna).
Jeśli zdanie zostanie rozpoznane jako wymagające zastosowania reguł logicznych, uruchamia się
program rozumowania:
1. identyfikacja logiczna struktury przesłanek, ich treść jest przekładana na abstrakcyjną
formę sądów, operujących abstrakcyjnymi symbolami
2. jeżeli struktura konkretnego zdania zostanie uznana za dopasowaną do jakiejś reguły
umysłowej, zostaje uruchamiany odpowiedni program rozumowania; efektem jest
wygenerowanie konkluzji, sformułowanej w języku abstrakcyjnych symboli
3. przełożenie wniosku z formy abstrakcyjnej na język przesłanek.
Ludzie w sposób naturalny myślą logicznie, błędy popełniają raczej sporadycznie (Braine).
Rozumowanie bezpośrednie- zastosowanie w konkretnej sytuacji ogólnych schematów opartych
na abstrakcyjnych regułach.
Schematy biorące udział w rozumowaniu bezpośrednim dzielą się na
- rdzenne (takie jak modus ponens, korzystają z fundamentalnych reguł logicznych)
- posiłkowe (pełnią funkcje pomocnicze i są stosowane do generowania wniosków wspomagających
działanie schematów podstawowych)
- inną kategorią są schematy niezgodności( stosowane do testowania zawartości pamięci roboczej
pod kątem detekcji wniosków nieuprawnionych)
Model umysłowy:
44
- elementy sytuacji problemowej mają swoje odpowiedniki w modelu umysłowym
- model umysłowy odzwierciedla strukturę sytuacji problemowej
- możliwe jest zbudowanie większej liczby modeli umysłowych, dla jednego problemu
- możliwe jest włączenie niektórych elementów reprezentacji obiektów, o których mowa w
przesłankach
Etapy rozumowania:
1) skonstruowanie modelu stanu rzeczy opisanego w przesłankach
2) sprawdzenie czy domniemany wniosek jest zgodny z tym modelem
3) próba falsyfikacji konkluzji, poprzez skonstruowanie alternatywnych modleli wynikających z
przesłanek
Racjonalność nie polega na stosowaniu abstrakcyjnych reguł logicznych, lecz poszukiwaniu większej
liczby modeli, prawidłowo ujmujących informacje zawarte w przesłankach. Chodzi w szczególności
o uwolnienie się od modelu początkowego, czemu służy poszukiwanie kontrprzykładów- mechanizm
do falsyfikacji hipotez.
Zalety teorii:
- nie wymaga przyjmowania założeń wątpliwych lub niefalsyfikowalnych
- dobrze radzi sobie z wyjaśnieniem błędów negacji poprzednika i potwierdzenia następnika, nie
potrzebując w tym celu właściwie żadnych dodatkowych założeń
- świetnie radzi sobie z wyjaśnianiem wpływu treści o kontekstu na wynik rozumowania
- jest stosowana do wyjaśniania złożonych procesów poznawczych
Krytyka:
- niedopracowana
- nie opisuje mechanizmu poprawnego rozumowania, lecz koncentruje się na wyjaśnieniu błędów
- niejasny mechanizm poszukiwania kontrprzykładów, kontrprzykładów nawet samych modeli
mentalnych
Rozumowanie indukcyjne
Reguła relacyjna- osobom badanym prezentowany był ciąg liczb, zestawionych wg prostej reguły,
np. 2 4 6 – zadaniem było podanie innego ciągu wg reguły ciągu wzorcowego oraz próba
werbalizacji reguły.
45
àD. Gentner- teoria odwzorowania struktury; najważniejsze jest dostrzeżenie podobieństwa
relacji zachodzących między elementami w obrębie dwóch różnych dziedzin (relacja ich
wewnętrznej struktury)
àinne stanowisko- uchwycenie odpowiedniości między strukturami dwóch dziedzin nie wystarczy-
potrzeba analizy podobieństw niższego rzędu, w tym cech powierzchownych obu dziedzin
àobecnie- w przypadku dziedzin słabo znanych dostrzegane podobieństwo zewnętrzne i dopiero
wraz z nabywaniem doświadczeń w obrębie funkcji czy mechanizmów
àpomyśle przeniesienie wiedzy zależy od abstrakcyjnych schematów rozumowania, które są
ogólnym reprezentacjami rozwiązań możliwych do zastosowania w różnych sytuacjach- im
bogatsze schematy tym łatwiej dostrzegać analogię
à Rumelhart i Abrahamson testowali hipotezę, w myśl, której rozumowanie przez analogię wymaga
wydawania sądów na temat podobieństwa pomiędzy pojęciami ( konc. semantyczna- stopień
podobieństwa zależy od odległości pojęć w niej zawartych)
-autorzy uznali, że w wypadku wnioskowania przez analogię zadanie polega na znalezieniu takiego
wektora w wielowymiarowej przestrzeni pamięci, który miałby taką samą długość dla relacji A:B
jak i do relacji C:x, szukamy x; manipulowano eksperymentalnie odległością alternatywnych
członów x1- x4, wyprowadzoną z wielowymiarowym modelu Henley; (czyli nie tylko odległość
pomiędzy pkt w przestrzeni decyduje, ale i pomiędzy alternatywami)
wyniki potwierdziły model, tolerancja pomiędzy C a x-ami wynosi ok., 0,12 jedn.
Wlatz i współpracownicy
àzadanie dedukcyjne- wnioskowanie przechodnie
àzadanie indukcyjne- matrix problem
3 grupy pacjentów:
1. uszkodzenie kory przedczołowej
2. uszkodzenie przyśrodkowej części płata skroniowego
3. normalni
àzwiększenie trudności zadań powodowało znaczne obniżenie poprawności u 1, odwołanie do WM
ROZUMOWANIE PROBABILISTYCZNE
àefekt siły przekonań- treść logicznego wniosku pozostaje w związku z wiedzą czy przekonaniami
osób bzdanych
ROZUMOWANIE NIEFORMALNE
àzdecydowanie odbiega od tego, które przyjmują logicy; włączanie nowych wiadomości do
przesłanek
46
ROZDZIAL 12
Sąd – wyrażone wprost twierdzenie na temat pewnego stanu rzeczy, np.: przynależności
obiektu do określonej kategorii, posiadania przez obiekt jakiejś cechy, wartości danego obiektu z
punktu widzenia pewnego kryterium, a także prawdopodobieństwa wystąpienia danego zdarzenia.
Decyzja – to wybór jednej możliwości decyzji spośród dwóch co najmniej dwóch opcji.
Samo dokonanie wyboru nie oznacza jeszcze podjęcia działania, ponieważ do tego potrzebna jest
skuteczna motywacja oraz obiektywne możliwości realizacji decyzji.
47
Złudzenie koniunkcji- zawyżanie prawdopodobieństwa posiadania przez obiekt pewnej cechy,
jeśli występuje ona z inną cechą (Tversky i Kahneman- problem Lindy- badani wskazywali na
większe prawdopodobieństwo posiadania dwóch cech niż posiadanie jednej z nich) -
złudzenie może wynikać z tego, że poszczególne elementy koniunkcji postrzegane są jako
logiczny ciąg zdarzeń powiązanych relacjami przyczynowo- skutkowymi. Zdarzenia tworzą
wtedy tzw. wiarygodny scenariusz, charakterystyczny dla szerszej klasy scenariuszy tego
samego typu.
2. Heurystyka dostępności- polega ona na kierowaniu się tymi przesłankami lub elementami
wiedzy, które są dostępne i łatwe do wydobycia z pamięci trwałej, a ignorowaniu tych,
które są trudno dostępne (przykład z szacowaniem częstości występowania w polskich
nazwiskach litery K jako przedostatniej- str 555).
Heurystyka dostępności (dysponujemy klasą ogólną, np. końcówki SKI- przykład powyżej- po czym
szukamy w pamięci konkretnych przykładów kategorii, jeśli znajdujemy je szybko i bez wysiłku to
przeceniamy częstość występowania elementów tej kategorii, a jeśli idzie nam wolno to mamy
tendencje do niedoszacowania częstości ich występowania) jest w pewien sposób odrotnością
heurystyki reprezentatywności (dysponując konkretnym przypadkiem- osoba o imieniu Linda-
odwołujemy się o szerszej klasy zjawisk lub obiektów, po czym przeceniamy prawdopodobieństwo
wystąpienia tego, co uważamy za charakterystyczne dla całej tej kategorii)
Heurystyka zakotwiczenia i dopasowania- prowadzi do błednej oceny wielkości liczbowych.
Odpowiada za niedoszacowanie bądź przeszacowanie głównie wartości statystycznych
SĄDY INTUICYJNE:
- poznanie intuicyjne- szeroka kategoria zjawisk dotyczących uczenia się, nabywania wiedzy,
języka oraz myślenia i rozwiązywania problemów. Wspólną cechą tych zjawisk jest to, że człowiek
wykonuje złożone czynności poznawcze, np. rozwiązywanie problemów, nie zdają sobie sprawy z
istotnych elementów tego procesu lub z jego przesłanek, a często nawet z tego, że w ogóle
dysponuje jakąś sprawnością poznawczą lub wiedzą
48
- sąd intuicyjny- nagły, bo w doświadczeniu wewnętrznym nie stanowi końcowego ogniwa
dłuższego ciągu rozumowania. Nagłość sądu apriorycznego jest cechą charakterystyczną ale nie
konieczną.
-oczywisty bo nie domaga się uzasadnień, jego prawdziwość nie budzi wątpliwości.
oczywistość sądu intuicyjnego nie występuje w każdym przypadku. Czasami doświadczamy
tzw poczucia wiedzy(FOK)-ale nie jest ono zawsze mocne i niezachwiane.
-aprioryczny, bo wydaje się nam, że powstał nie na podstawie doświadczenia i
wiedzy ale w wyniku tajemniczego olśnienia. Aprioryczność jest cechą nieodzowną
PODEJMOWANIE DECZJI
Klasyczna teoria decyzji (KTD)- opisuje zachowanie idealnego, doskonale racjonalnego sprawcy
(decydenta) w warunkach wymagających wyboru jednej spośród pewnej liczby dobrze znanych
opcji. Doskonale racjonalny decydent kieruje się zasadą użyteczności, biorąc pod uwagę przede
wszystkim te opcje, które niosą mu jakąś korzyść. Kieruje się także zasadą prawdopodobieństwa,
odrzucając opcje mało realne.
Teoria ta jest modelem preskryptywnym- podaje przepis na racjonalną decyzję ale nie opisuje
rzeczywistych zachowań ludzi w sytuacjach wymagających podjęcia decyzji.
Chcąc zmodyfikować KTD w taki sposób, aby opisywała rzeczywiste, a nie idealne
zachowania ludzi, wprowadzono pojęcie
- oczekiwanej subiektywnej użyteczności wyniku – SEU – oznacza ono wartość
konkretnej opcji jako funkcję subiektywnego prawdopodobieństwa jej wystąpienia i subiektywnej
użyteczności jej skutków.
- Pewna odmiana KTD, nazywana jest modelem kompensacyjnym. Zgodnie z tym
modelem, dostępne nam opcje oceniamy według szeregu kryteriów, a następnie wybieramy to, co
uzyskuje wyższą globalną sumę ocen. Zakładamy przy tym, że przyjęte kryteria równoważą się,
czyli możliwa jest kompensacja braków w jednej dziedzinie zaletami w innych. Model
kompensacyjny może też opisywać przypadki znacznie bardziej skomplikowane, gdzie
poszczególnym opcjom towarzyszą szacowane prawdopodobieństwa. Na przykład lekarz może
rozważać zastosowanie jednej z dwóch możliwych terapii, z których każda – oprócz zalet – ma
negatywne skutki uboczne, a ponadto każda cechuję się określonym prawdopodobieństwem
wyzdrowienia pacjenta. Prawdopodobieństwo to może być oceniane obiektywnie, np. na podstawie
ogólnej wiedzy medycznej i raportów z poprzednich przypadków stosowania danej terapii, lub
subiektywnie, na podstawie intuicji lekarza i jego osobistego doświadczenia klinicznego.
49
Mimo, że koncepcja oczekiwanej subiektywnej użyteczności oraz model kompensacyjny
wprowadzają istotne modyfikacje do klasycznej teorii decyzji, są to dalszym ciągu mało trafne
przybliżenia w stosunku do tego, jak ludzie naprawdę podejmują decyzje.
TEORIA PERSPEKTYWY
- Daniel Kahneman
- wiąże się ona ściśle z teorią obramowania- Kahnemana i Tversky’ego dotycząca wpływu
mentalnej reprezentacji problemu decyzyjnego na treść podejmowanych decyzji (eksperyment
ze studentami i wyborem programu ratowania ludzi przed epidemią- str 581)- poznawcza
reprezentacja problemu może ulec zmianie pod wpływem rodzaju użytych słów
- efekt obramowania jest przykładem asymetrii pozytywno- negatywnej-(Kahneman,
Tversky)- ludzie inaczej wartościują zyski a inaczej straty nawet jeśli sa one wyrazone w
porównywalnych jednostkach np. pieniężnych. Subiektywne poczucie straty rośnie znacznie
szybciej niż subiektywne poczucie zysku
50
- zasobność systemu poznawczego
doświadczenia-
kontekstu
Szczególną role odgrywają również takie zmienne indywidualne jak: temperament, osobowość,
ekspertywność (eksperci stosują bardziej wydajne strategie a także szybciej i trafniej
rozpoznają)
RODZIAL 13
Język- system kodowania znaczeń poprzez wykorzystanie skończonego zbioru symboli (dźwięków
mowy lub znaków pisma). Operowanie na symbolach podlega regułom gramatycznym, swoistym
dla każdego języka naturalnego lub sztucznego.
Mowa- używanie języka w celu przekazywania znaczeń oraz wpływania na zachowanie cudze lub
własne. W innym ujęciu mowa to zdolność gatunku ludzkiego do przekazywania i odbierania
komunikatów językowych za pomocą wyrażeń wokalnych lub znaków pisma.
Procesy przetwarzania języka- procesy przetwarzania informacji biorące udział w tworzeniu
wyrażeń językowych i ich analizie.
51
referencjalna- język może służyć do opisu rzeczywistości pozajęzykowej, też do opisu samego
siebie; referencjalnośc- odnoszenie się symbolu oznaczającego (słowa) do przedmiotu
oznaczanego (desygnat); relacje słowo-przedmiot tworzą znaczenie; słowo, desygnat i
znaczenie składają się na trójkąt semantyczny.
Poziomy języka:
fonologiczny- obejmuje podstawowe jednostki budulcowe komunikatu werbalnego (głoski,
fonemy); każdy język buduje swoje przekazy korzystając z około 30-40 głosek
semantyczny- obejmuje ulepione z głosek lub znaków pisma elementarne składniki znaczenia
(morfemy (rdzeń)- składniki słów, niosące pewną treść); na tym poziomie analizy języka
istotne staje się znaczenie, definiowane jako fragment wiedzy o świecie, wyrażonej pojęciami i
sądami:
- znaczenie denotacyjne- kiedy wiedza dotyczy faktów
- znaczenie konotacyjne- kiedy wiedza dotyczy emocji i skojarzeń
np. denotacja słowa dom to budynek, a konotacja to bogata siec skojarzeń (ciepły, rodzinny)
syntaktyczny- składa się z fraz i zdań, połączonych według reguł gramatyki; zdanie składa się
z:
- frazy nominalnej- określającej sprawcę i jego atrybuty
- frazy czasownikowej- określającej czynność i jej okoliczności
Strukturę zdania możemy zapisać w postaci drzewka derywacyjnego.
pragmatyczny- dotyczy społecznych aspektów języka, a właściwie jego użycia w funkcji
komunikacyjnej- czyli co komu i w jakim celu chcemy powiedzieć. Jest on szczególnie istotny w
przypadku wyrażeń ironicznych czy sarkastycznych, np. „no to pieknie!”.
52
obietnica, ulga, rozczarowanie-tymi terminami opisał przypadki, gdy słowo sygnalizuje
niebezpieczeństwo, nagrodę, minięcie zagrożenia lub brak zapowiadanej nagrody.
- warunkowanie sprawcze- człowiek spontanicznie używa pewnych dźwięków- najpierw
pojedynczych głosek i sylab, potem słów i pełnych zdań- otrzymując w zamian wzmocnienie
pozytywne lub negatywne; dzięki stosowaniu reguł kształtowania złożonych reakcji, dorośli są
w stanie wykształcić u dzieci umiejętność posługiwania się długimi, skomplikowanymi
strukturami językowymi. Czynnikiem wzmacniającym może być tutaj sam fakt naśladowania
innego osobnika, w szczególności kogoś ważnego.
poglądy natywistyczne:
- zdaniem Norma Chomsky’ego proces nabywania języka jest zdeterminowany wrodzonymi
strukturami mózgowymi (urządzenie do przyswajania języka- LAD); dziecko posiada wrodzoną,
ukrytą kompetencję językową, AGRUMENTY:
* istoty języka nie tworzą słowa, lecz struktury syntaktyczne, które są ukryte a przez to trudne
do bezpośredniego utrwalania poprzez wzmocnienia pozytywne
* struktur gramatycznych raczej nie uczymy się wprost w sposób jawny (dziecko posługuje się
już w pełni gramatycznym językiem, zanim pójdzie do szkoły)
* ludzie-zwłaszcza dzieci- używają zdań, których nie mieli okazji wcześniej usłyszeć
- Steven Linker- człowiek ma instynktowną zdolność do mówienia (instynkt językowy), czyli
wrodzoną gotowość do wykształcenia określonych struktur; dzięki ekspozycji na komunikaty
językowe, która musi nastąpić w okresie sensytywnym, uruchamiają się odpowiednie struktury
mózgowe, w wyniku czego proces przyswajania języka uzyskuje nadzwyczajne przyspieszenie i
wydajność.
- mowa ukierunkowana na dziecko- polega na modelowaniu (a nie karaniu) zachowań
werbalnych dziecka w następstwie wielokrotnego powtarzania krótkich, ale syntaktycznie
poprawnych zdań, np. „Kot mleko”- „Tak, kot pije mleko”.
Dwujęzyczność i wielojęzyczność:
- we współczesnym ujęciu dwujęzyczność i wielojęzyczność to zdolność do posługiwania się więcej
niż jednym językiem
- do pewnego momentu w rozwoju poznawczym drugi język przyswajamy tak jak pierwszy, to
znaczy szybko i bezwysiłkowo, korzystając z „instynktu językowego”
- kiedy minie okres sensytywny, przyswajanie drugiego języka staje się procesem powolnym i
wymagającym wysiłku, a jego efekty nigdy nie będą idealne
- do kosztów dwujęzyczności zalicza się interferencję między językami- znajomość więcej niż
jednego języka zwiększa ryzyko pomyłki w doborze słów i wyrażeń, spowalnia procesy
wydobywania słów z leksykonu mentalnego i wymaga zwiększenia kontroli na etapie artykulacji,
aby słowo z jednego języka nie „wcisnęło się” w komunikat sformułowany w innym języku
- osoby wielojęzyczne funkcjonują na wyższym poziomie świadomości metajęzykowej- osoby te
wyrażają się bardziej precyzyjnie, ponieważ staranniej dobierają słowa i struktury składniowe
53
Mówienie:
planowanie mowy: polega na podjęciu decyzji co do sensu przekazu i intencji jego
przekazania; wymaga uwzględnienia pragmatycznego aspektu języka;
- zasada kooperacji- mówca i słuchacz muszą ze sobą współdziałać (Paul Grice); 4 maksymy
językowe mające ułatwić kooperację:
1) maksyma ilości- komunikat powinien zawierać tyle danych, ile to konieczne- nie więcej i nie
mniej
2) maksyma jakości- mówca powinien mówić prawdę, ponieważ takie będzie prawdopodobne
oczekiwanie słuchacza (chyba, że słuchacz zdaje sobie sprawę, że komunikat jest fałszywy to OK.)
3) maksyma relacji- mówca powinien mówić na temat, bez dygresji i odbiegania od głównego
wątku- jeśli jednak dygresja czemuś służy, maksyma relacji nie zostaje złamana
4) maksyma sposobu- mówca powinien używać środków wyrazu dostępnych odbiorcy (głośna i
wyraźna artykulacja, nieużywanie słów i wyrażeń, których słuchacz nie rozumie ze względu na brak
wiedzy itp.)
- planowanie mowy dokonuje się z uwzględnieniem wspólnej płaszczyzny czyli podzielanych przez
obie strony konwersacji elementów wiedzy, często niejawnej- jeśli porozumiewają się osoby obce,
ustalenie wspólnej płaszczyzny może być bardzo trudne
- planowanie mowy jest minimalnie przesunięte w czasie w stosunku do realizacji planu=
wypowiadając zaplanowane wcześniej słowa, jesteśmy już mentalnie przy następnym fragmencie
wypowiedzi, świadczą o tym przejęzyczenia, w szczególności błędy antycypacji („Piciu, co ci zrobić
do misia?”)
- jednostką planowania mowy jest FRAZA
- przetwarzając frazę, mamy do czynienia ze szczególnym przypadkiem interferencji, wynikającej z
wykonywania dwóch czynności jednocześnie (planowanie wypowiedzi- realizacja planu)
54
- w procesie deszyfracji mowy współwystępują dwie czynności: segmentacja i odczyt znaczeń
zapisanych w pamięci semantycznej; segmentacja byłaby niemożliwa bez wstępnej hipotezy na
temat znaczenia słowa: tylko znaczenie eliminuje kolejne elementy z kohorty, aż do momentu
wyeliminowania wszystkich z wyjątkiem jednego
- łamanie kodu akustycznego u dorosłych posługujących się językiem ojczystym dokonuje się
automatycznie i bezwysiłkowo, stanowi jednak poważne wyzwanie dla kogoś, kto posługuje się
słabo opanowanym językiem obcym
rozbiór zdania:
- rozbiór zdania polega na utworzeniu umysłowej reprezentacji jego treści, czyli zbudowania ‘w
wyobraźni’ czegoś na kształt drzewna derywacyjnego
- zdania „ślepej uliczki” to szczególny rodzaj zdań dwuznacznych (np. Chłopiec odbił piłkę ręką
podtrzymując kolegę)-> zdania te tracą dwuznaczności po dodaniu przecinka
- zasada późnego domknięcia- odbiorca stara się domknąć frazę najpóźniej, jak się da;
domykanie frazy polega na ustaleniu granicy, poza którą zaczyna się nowa fraza zdaniowa
- w momencie, gdy dokona się rozbiór zdania, użytkownik języka przechodzi na poziom, który
Chomsky nazwałby strukturą głęboką; powierzchniowa forma wypowiedzi jest zapominana tak
szybko, jak tylko zbudowana zostanie reprezentacja głęboka
- parser- struktura odpowiedzialna za rozbiór zdania; jego głowne zadanie polega na przypisaniu
poszczególnym słowom odpowiednich funkcji, np. podmiotu, orzeczenia, dopełnienia; w przypadku
języka polskiego parser odpowiada przede wszystkim za prawidłową interpretację wskazówek
fleksyjnych (końcówki definiujące rodzaj, czas i tryb gramatyczny)
55