Professional Documents
Culture Documents
Residente (P.I.R.):
Preparación
Oposición
FUENTE: http://www.psicologia-online.com/pir/
I. Psicología Básica
Aprendizaje
Pensamiento
La Inducción Categórica
Introducción a la Inducción Categórica
La Estructuración Conceptual
Propiedades Probabilísticas de la Estructuración Conceptual
Enfoque de los Ejemplares en la Estructuración Conceptual
Combinación Conceptual de Sustantivo-Adjetivo
El Modelo de Especialización Conceptual
Modelo Híbrido de Ejemplares y Teorías Previas
Combinación Conceptual de Sustantivo-Sustantivo
El Proceso de Categorización
El Sistema de Reglas Distribuidas
El Proceso de Inducción Categórica
El Sistema de Activación Distribuida
Razonamiento Probabilístico
Nociones básicas de probabilidad
Enfoque de los heurísticos de razonamiento
El heurístico de representatividad
El heurístico de accesibilidad
El heurístico de anclaje y ajuste
Críticas al enfoque de los heurísticos
Enfoque de los Modelos Mentales
Razonamiento y calibración
Razonamiento Analógico Como Solución de Problemas
Introducción al Razonamiento Analógico
Teorías y modelos del razonamiento analógico
El enfoque cognitivo de tradición psicométrica
La teoría componencial
El enfoque cognitivo sintáctico
El enfoque pragmático
Teoría del razonamiento analógico progresivo
Caracterización de la transferencia analógica
Transferencia analógica positiva
Transferencia analógica negativa
El Lenguaje
Concepto de Lenguaje
Introducción al Concepto de Lenguaje
La Conceptualización Científica del Lenguaje
La Dimensión Estructural del Lenguaje
La Dimensión Funcional del Lenguaje
La Dimensión Comportamental
Lenguaje Humano y Otros Lenguajes
Características Estructurales del Lenguaje Verbal
Características Funcionales del Lenguaje Verbal
Características del Lenguaje como Modalidad de Comportamiento
Estudio del Lenguaje desde la Psicología
Introducción el Estudio del Lenguaje
El Sujeto y la Explicación de la Actividad Lingüística
La Metodología Observacional como Fuente de Evidencia
La Metodología Experimental
La Simulación como Método de Investigación
Complejidad de la Actividad Lingüística
Reconocimiento y Comprensión de Palabras
Introducción al Reconocimiento y Comprensión de Palabras
Diferencias Entre Comprensión de Palabras y de Oraciones
Semejanzas Entre Comprensión de Palabras y de Oraciones
Representaciones y Procesos en la Comprensión
Naturaleza de las Representaciones Léxicas
Teorías del Significado de las Palabras
Morfología
El Problema del Código de Acceso
Etapas y Procesos Implicados
Modalidades Sensoriales
Rutas de Acceso al Léxico
Pruebas Empíricas Relativas a las Rutas de Acceso
Metodos de Estudio de la Comprensión de Palabras
Procedimientos de Medición del Tiempo
Efectos Experimentales Registrados
Modelos de Reconocimiento de Palabras
Modelos Interactivos de Procesamiento Léxico
Modelos Autónomos de Comprensión de Palabras
Modelos Mixtos de Compresión de Palabras
Comprensión de Oraciones
Introducción la Comprensión de Oraciones
Componentes del Procesamiento de Oraciones
Estrategias de Análisis y Autonomía del Proceso Sintáctico
Hipótesis de la Segmentación en Cláusulas
Hipótesis de la Descodificación Continua
Postura Intermedia
Estrategias Estructurales de Análisis Sintáctico
Estrategias No Estructurales de Análisis Sintáctico
Procesadores Sintácticos en Inteligencia Artificial
Procesadores Sintácticos Autónomos
Procesadores Conexionistas
Reflexiones Críticas Sobre los Modelos de Procesamiento
Procesos Inferenciales en la Comprensión de Oraciones
Inferencias Perceptivas e Inferencias Cognitivas
Significado Literal y Significado Elaborado
Comprensión del Discurso
Introducción a la Comprensión del Discurso
La Teoría de la Dependencia Conceptual
Las Representaciones del Discurso
La Forma de las Ideas en el Discurso: Las Proposiciones
El Modelo Proposicional de Kintsch
Microestructura y Regla de Repetición de Argumentos
Las Proposiciones Como Unidades de Procesamiento Psicológico
El Efecto de Niveles
Macroestructuras y Temas
Comprensión y Conocimiento: Los Esquemas
Modelos Mentales y Escenarios en la Comprensión del Discurso
Inferencias Discursivas y Textuales
El Contrato Dado-Nuevo y la Comprensión del Discurso
Producción del Discurso y Conversación
Discurso, Conversación y Texto
El Carácter Intencional y Cooperativo del Discurso
El Discurso Como Actividad que se Desarrolla en un Contexto
Conocimiento Social, Perspectiva y Producción del Discurso
Conocimiento del Contexto, Físico y Deixis
El Discurso Como Estructura Lingüística Supraoracional
Cohesión
La Coherencia de los Discursos
Coherencia Global
La Coherencia Como Relevancia
La Naturaleza Esquemática de los Discursos
Representación y Procesos en la Producción de Discursos
Componentes Representacionales
Procesos de Planificación y Ejecución de Discursos
Emoción y Motivación
Estadística
Diseños de Investigación
Psicometría
Introducción a la psicometría
Introducción a la Psicometría
Recorrido histórico de la Psicometría
Orígenes y desarrollo de la teoría clásica de tests
Teoría Clásica de test
Teoría Clásica de test
Paralelismo entre las medidas de un test
Paralelismo entre dos test
Fiabilidad, validad y tipificación de los test
Fiabilidad de los test
Validez de los test
Tipicidad de los test
Teoría de respuesta al ítem
Teoría de respuesta al ítem
Distintos modelos de la teoría de la respuesta al ítem(TRI)
Estimación de parámetros de la teoría de la respuesta al ítem
Construcción de tests de la teoría de la respuesta al ítem
Aplicaciones de la teoría de la respuesta al ítem
Interpretación de las puntuaciones de la teoría de la respuesta al ítem
Personalidad
Psicología Social
La influencia social
La influencia social
Técnicas de influencia
Reciprocidad
La simpatía
Compromiso y coherencia
Vulnerabilidad a la influencia
La agresión
Definición de agresión
Supuestos psicosociales en el estudio de la agresión
Antecedentes de la agresión
El proceso de agresión
Efectos de los medios de comunicación de masas sobre la agresión
Agresión grupal y societal
El prejuicio y conductas colectivas (rumore, catástrofes, etc.)
El prejuicio y su definición
Prejuicio como sesgo cognitivo
Prejuicio como actitud negativa
Función actitudinal del prejuicio
Prejuicio en las relaciones entre grupos
Definición de rumor y su contenido
Antecedentes de los rumores
La forma de circulación de los rumores
Funciones de los rumores
Estudio de los rumores desde la psicología social
Conductas colectivas: Rumores y catástrofes
Tipos de catástrofes y conductas colectivas
Conductas de huida y rumores
Efectos psicológicos traumáticos provocados por las catástrofes
Catástrofes y procesos sociocognitivos
Dinámica social ante las catástrofes
Grupos y la relación entre grupos
Definición y características de Grupos
Proceso de categorización
Actividad grupal coordinada
El cambio social a través del grupo
El pensamiento grupal
La socialización grupal de los nuevos miembros
La formación del grupo
Relaciones entre grupos
Enfoques grupales
Investigación clásica sobre comportamiento intergrupal
Teoría de la identidad social
Teoría de la categorización del yo o autocategorización
`
La Psicología Social aplicada. Salud
La distinción entre psicología social básica y psicología social aplicada
Definición de psicología social aplicada
Aplicaciones de la psicología social
Psicología social aplicada: salud
Resultado de la relación paciente/médico: Calidad sanitaria
Aplicación de la Psicología Social al ámbito Jurídico
Introducción: Aplicación de la psicología social al ámbito jurídico
Aspectos psicosociales relacionados con la justicia
Aproximación psicosocial al fenómeno de la delincuencia
Factores sociales que influyen en la delincuencia
Delincuencia juvenil y femenina
Aspectos psicosociales del encarcelamiento
Introducción: Aspectos psicosociales del encarcelamiento
Efectos psicosociales de la prisionización
Alternativas psicosociales al encarcelamiento: En busca de la
reinserción social
V. Psicología Evolutiva
Historia de la Psicopatología
Origenes en Grecia de la Psicopatología
Los órigenes en Roma de la Psicopatología
Los orígenes en la Edad Media de la Psicopatología
Los orígenes en el renacimiento de la psicopatología
Los orígenes en la ilustración de la Psicopatología
Origenes de la Psicopatología en el siglo XIX
Los orígenes de Psicopatología en el siglo XX
Sistemas clasificatorios
Tipos de clasificación en psicopatología
Modelos de clasificación en psicopatología
Clasificaciones modernas: DSM y CIE 10
Revisión del DSM-IV: Aspectos fundamentales
Trastornos mentales y del comportamiento
Críticas y garantías de las clasificaciones psiquiátricas
Epideomiología en Psicopatologia
Epidemiología es la disciplina que estudia la enfermedad en
poblaciones humanas
Algunas Definiciones de epidemiología
Niveles de análisis en epidemiologia
Métodos de investigación en psicopatología
Psicopatología de la conciencia
Trastornos de la conciencia
Trastornos productivos de la conciencia
Trastornos del estrechamiento de la conciencia
Alteraciones positivas de la conciencia
Psicopatología de la atención
Psicopatología de la atención
Trastornos de la atención
Psicopatología cognitiva de la atención
Psicopatología de la orientación
Psicopatologia de la orientación
Alteraciones atencionales en trastornos mentales
Psicopatología de la sensopercepción
Psicopatología de la sensopercepción
Engaños Perceptivos
Teorías psicológicas sobre las alucinaciones
Tratamiento psicológico de las alucinaciones y delirios
Psicopatología de la memoria
Psicopatología de la memoria
Evaluación de la memoria mediante tareas
El síndrome amnésico
Fases del sindrome amnesico
Explicación de la amnesia
Amnesia y Demencias
Memoria y emoción
Alteraciones del reconocimiento
Psicopatología del pensamiento
Psicopatología del pensamiento y trastornos formales del
pensamiento
Teorías acerca del pensamiento
Los delirios
Diferencias de los delirios con otras creencias anomalas
Clasificación de los delirios: según su forma o según su contenido
El delirio y los trastornos mentales
Explicaciones psicológicas acerca de los delirios
Los factores de germinación y los factores de mantenimiento
Psicopatología del lenguaje
Concepto y clasificación de los trastornos mentales
Alteraciones secundarias del lenguaje
Disfasias infantiles
Dislalias infantiles y retraso simple del habla
La tartamudez
Psicopatología del lenguaje y cuadros clínicos
Psicopatología de la Afectividad
Psicopatología de la afectividad
Síntomas afectivos
Trastornos Psicomotores
Evaluación de la Psicomotricidad
Trastornos Psicomotores
Trastornos de la mímica
Delirium y demencias
Descripción del delirium
Diagnostico diferencial del delirium
Tratamiento del delirium
Envejecimiento Normal
Deterioro Cognitivo
Las demencias
Tipos de Demencias
La Enfermedad de Alzheimer
Evaluación de la demencia
Tratamiento de la demencia
Trastornos amnésicos y otros trastornos con etiología orgánica
Definición y criterios diagnósticos
Tipos de amnesia
Síndrome amnésicos
Evaluación y Tratamiento de trastornos amnésicos
Trastornos mentales con etiología orgánica identificada
Cambio de personalidad orgánico
Trastorno de ideas delirantes orgánico
Trastorno disociativo orgánico
Trastorno cognoscitivo leve
Trastornos del humor orgánicos
Trastorno de ansiedad orgánico
Trastorno sexual orgánico
Trastorno del sueño orgánico
Trastorno postencefálico
Trastorno postconmocional
Trastornos relacionados con sustancias
Definición y conceptos básicos de los Trastornos relacionados con
sustancias
Trastornos por consumo de sustancias: Dependencia de sustancias y
abuso de sustancias
Trastornos inducidos por sustancias: Intoxicación por sustancias y
abstinencia de sustancias
Modelos teoricos sobre drogas: Modelos psicoanalíticos
Modelo de salud pública, de creencias de salud y de competencia
Teorías del aprendizaje
Teorías actitud-conducta
Teorías psicológicas basadas en causas intrapersonales
Modelos basados en el enfoque sistémico y en los modelos de familia
derivados de ellos
El modelo social de Peele
Otros modelos teóricos
Clasificación de las drogas
Trastornos inducidos por el alcohol
Trastornos relacionados con alucinógenos
Trastornos relacionados con anfetaminas
Trastornos relacionados con los opiáceos
Trastornos relacionados con los sedantes, hipnóticos o ansiolíticos
Modelo de Prochaska y Diclemente
Prevención de recaídas
Aproximación al refuerzo comunitario
Tratamiento cognitivo-conductual
Terapia conductual de pareja y familiar
Terapia de exposición a pistas o señales
Tratamiento de la adicción al alcohol
Tratamiento de adicción a la cocaína :Manejo de contingencias,
Exposición a pistas o señales, técnicas de manejo de la ira.
Tratamiento del tabaquismo: Tratamientos medico-farmacológicos,
Tratamientos psicológicos
Adicción al cibersexo
Esquizofrenia
Concepto de esquizofrenia y diagnostico diferencial
Criterios para el diagnóstico de Tipo paranoide de esquizofrenia
Criterios para el diagnóstico de Tipo desorganizado de esquizofrenia
Criterios para el diagnóstico de Tipo catatónico de esquizofrenia
Criterios para el diagnóstico de Tipo indiferenciado de esquizofrenia
Criterios para el diagnóstico de Tipo residual de esquizofrenia
Síntomas positivos de la esquizofrenia
Síntomas negativos de la esquizofrenia
Tipos de esquizofrenia
Curso de la esquizofrenia
Modelos teóricos de la esquizofrenia: Teorías genéticas
Teorías bioquímicas de la esquizofrenia
Teorías de la autoinmunidad
Teorías virales
Teorías neurofisiológicas
Teorías Psicosociales
El tratamiento de la esquizofrenia
Trastornos psicóticos
Trastorno esquizofreniforme
Trastorno esquizoafectivo
Trastorno delirante
Trastorno psicótico breve
Trastorno psicótico compartido
Trastorno esquizotipico
Trastornos del estado de ánimo
Introducción y conceptos básicos de los trastornos del estado de
ánimo
Dicotomías descriptivas
Episodio depresivo mayor
Episodio maniaco
Criterios para el episodio maníaco
Episodio mixto
Episodio hipomaniaco
Criterios para el episodio hipomaníaco
Trastorno depresivo mayor
Trastorno distimico
Trastorno depresivo no especificado
Trastorno bipolar I
Trastorno bipolar II
Trastorno ciclotímico
Trastorno bipolar no especificado
Otros trastornos del estado de animo
Criterios para el diagnóstico deTrastorno del estado de ánimo debido
a.
Trastorno del estado de ánimo inducido por sustancias
Criterios para el diagnóstico de trastorno del estado de ánimo
inducido por sustancias
Modelos psicodinamicos
Modelos conductuales
Modelos cognitivos
Teoría de la indefensión aprendida de Seligman
Teorías conductuales-cognitivas
Teorías interpersonales de los trastornos depresivos
Modelos psicológicos y biológicos explicativos de los trastornos
bipolares
Tratamiento depresión
Terapia cognitiva para la depresión
Objetivos Terapéuticos de la depresión
El proceso de intervención de la depresión
Técnicas conductuales del tratamiento de la depresión
Tratamiento farmacológico
Tratamiento para el trastorno bipolar
Trastornos de ansiedad
Introduccion histórica,clasificación y conceptos básicos
Algunos conceptos sobre la ansiedad
Trastorno de pánico
La Agarofobia
Modelos cognitivos de la agorafobia: El modelo de Beck (1985) y el
modelo de guidano y Liotti (1985)
El modelo cognitivo del trastorno de pánico: El modelo de Clark
(1988)
Evaluación del trastorno de pánico y la agarofobia
Tratamiento del pánico y la agarofobia
Terapia farmacológica
Trastorno de ansiedad generalizada y modelos explicativos
Evaluación de la ansiedad
Intervención en ansiedad
Trastornos fóbicos
Modelos explicativos para las fobias especificas
Evaluación de las fobias especificas
Fobia social
Modelos explicativos para la fobia social
Evaluación y tratamiento para la fobia social
Teorías del aprendizaje en la fobia
Teorías de la preparación
Teorías incubación de la ansiedad
Teorías de condicionamiento y procesos cognitivos
Teorías de la ansiedad y procesamiento de la información
Ansiedad y procesamiento cognitivo: hacia una integración
Teorías biológicas de la ansiedad
Teorías y trastornos de ansiedad
Trastorno obsesivo compulsivo
Introducción histórica y descripción del TOC
Criterios para el diagnóstico de Trastorno obsesivo-compulsivo
Tipos de obsesiones
Manifestaciones clínicas del Trastorno obsesivo compulsivo
Modelos explicativos del Trastorno obsesivo compulsivo
Mecanismos y distintos factores moduladores implicados en las
obsesiones y compulsiones
Modelos conductuales del trastorno obsesivo compulsivo
Modelos biológicos del trastorno obsesivo compulsivo
Evaluación del Trastorno Obsesivo Compulsivo
Tratamiento psicológico del Trastorno Obsesivo Compulsivo
Tratamiento farmacológico del Trastorno Obsesivo Compulsivo
Tratamiento para obsesiones sin conducta compulsiva manifiesta
El estrés en la salud
Factores psicológicos en la salud
Concepto de Psicosomático
Los trastornos psicosomáticos
Teorías Psicosomáticas
Teorías de especificidad estímulo-respuesta(E-R)
Teorías de especificidad individuo-respuesta(I-R)
Teorías de especificidad psicológico física (P-F)
Teoría del conflicto o teoría de la emoción especifica
Los trastornos psicosomáticos como fenómenos multifactoriales
Enfermedad o salud: medicina psicosomática,medicina conductual y
psicología de la salud
Trastorno asociados al sistema inmune
Relaciones entre el sistema neuroendocrino y el sistema inmune
Factores psicológicos e inmunocompetencia
El cáncer
Estrés y cáncer
Cáncer y sistema inmune
Síndrome de inmunodeficiencia adquirida(SIDA)
Alergia y problemas en la piel
Artritis reumatoide
Trastornos Cardiovasculares
Hostilidad, ira y agresión
El tipo2 o propensión a trastornos cardiovasculares
Trastornos gastrointestinales
Trastornos inflamatorios del intestino
Trastornos respiratorios: El asma bronquial
El dolor crónico
Modelos teóricos en el dolor crónico
Trastornos somatomorfos
Introducción: Aproximación histórica y conceptual
Clasificación de los trastornos somatoformes
Trastornos somatomorfos: Trastorno de somatización
Trastorno somatomorfo indiferenciado
La hipocondría
Criterios para el diagnóstico de Hipocondría
Trastorno por dolor
Trastorno de conversión
Trastorno dismorfico corporal
Trastorno de somatización
Trastorno por somatización vs hipocondría
Diferencias entre el trastorno por somatización y el Trastorno por
conversión
Trastornos disociativos
Concepto de disociación
Fuga disociativa
Trastorno Disociativo De Identidad (Personalidad Múltiple)
La Despersonalización
Síndrome De Ganser
Trastornos disociativos y Síndromes orgánicos mentales
Trastorno de despersonalización
Trastornos de personalidad
Concepto de personalidad
Tipos diferenciados en los sistemas de clasificación
Cuestiones etiológicas y epidemiológicas
La contrastación empírico-estructural
Aspectos no incluidos en las clasificaciones que necesitan aclaración
Cuales son los trastornos de personalidad
Criterios diagnósticos generales para un trastorno de la personalidad
Trastorno paranoide de la personalidad
Criterios para el diagnóstico de Trastorno paranoide de la
personalidad
Trastorno esquizoide de la personalidad
Criterios para el diagnóstico de Trastorno esquizoide de la
personalidad
Trastorno esquizotipico de la personalidad
Trastorno antisocial de la personalidad
Criterios para el diagnóstico de Trastorno antisocial de la
personalidad
Trastorno límite de la personalidad
Criterios para el diagnóstico de Trastorno límite de la personalidad
Trastorno histriónico de la personalidad
Criterios para el diagnóstico de Trastorno histriónico de la
personalidad
Trastorno narcisista de la personalidad
Trastorno de la personalidad por evitación
Trastorno de personalidad por dependencia
Trastorno obsesivo-compulsivo de la personalidad
Trastornos de la conducta alimentaria
Anorexia nerviosa
Tipos de anorexia nerviosa
Epidemiología de la anorexia nerviosa
Etiopatogenia de la anorexia nerviosa
Manifestaciones clínicas de la anorexia nerviosa
Complicaciones en la anorexia nerviosa
Tratamiento e intervención en anorexia nerviosa
Bulimia nerviosa
Epidemiología de la bulimia nerviosa
Etiopatogenia de la bulimia nerviosa
Manifestaciones clínicas de la bulimia nerviosa
Diagnóstico de la bulimia nerviosa
Tratamiento e Intervención de la bulimia nerviosa
Modelos cognitivos de la anorexia nerviosa y la bulimia nerviosa
Trastornos del control de los impulsos
Definición y criterios diagnósticos de trastornos del control de los
impulsos
Los trastornos del control de los impulsos
Cleptomanía
Piromanía
Juego patológico
Tricotilomanía
Trastornos sexuales y de la identidad sexual
Trastornos sexuales y de la identidad sexual
Deseo sexual hipoactivo
Aversion al sexo
Excitacion de la mujer
Ereccion en el varón
Trastorno orgásmico femenino
Trastorno orgásmico masculino
Trastorno de Eyaculación precoz
Trastorno por Dispareunia
Criterios para el vaginismo
Trastorno sexual no especificado
Criterios para el diagnóstico de Trastorno sexual inducido por
sustancias
Trastornos de la erección
Eyaculación precoz
Trastorno de deseo sexual hipoactivo
Trastorno de la excitación sexual
Trastorno orgásmico
Dispareunia y vaginismo
El exhibicionismo
El Fetichismo
El Frotteurismo
La Pedofilia
Masoquismo sexual
Sadismo Sexual
Fetichismo Transvestista
Modelos explicativos de las parafilias y de los delitos sexuales que
pueden implicar
Trastorno de la identidad sexual
Trastornos del sueño
Las disomnias
El insomnio
Causas del insomnio
Alteraciones cronobiológicas del insomnio
Tratamiento del insomnio
Tratamiento farmacológico del insomnio
Tratamiento conductual del insomnio
Criterios para el diagnóstico de Insomnio primario
La Hiperinsomnia
Criterios para el diagnóstico de Hipersomnia primaria
Criterios para el diagnóstico de Narcolepsia
Criterios para el diagnóstico de Trastorno del sueño relacionado con
la respiración
Criterios para el diagnóstico de Trastorno del ritmo circadiano
Las Parasomnias
Criterios para el diagnóstico de Pesadillas
Criterios para el diagnóstico de Terrores nocturnos
Criterios para el diagnóstico de Sonambulismo
Criterios para el diagnóstico de Trastorno del sueño debido a...
(indicar enfermedad médica)
Sensación, Percepción, Atención y
Memoria
TEORÍA, MÉTODO Y PRINCIPALES PERSPECTIVAS EN
PSICOLOGÍA CIENTÍFICA
LA NATURALEZA DE LA SENSIBILIDAD
EL PARÁMETRO Β
Probabilidades a priori.
El experimentador determina previamente el número de veces que va a
aparecer la S y el R. A esa distribución de la S y el R se
denomina "probabilidades a priori" y se representan siempre en
proporciones: P(S), P(R).
Razón de probabilidades a priori.
Es el cociente de las dos probabilidades anteriores P(R) / P(S).
Ante la situación experimental el sujeto puede emitir dos respuestas:
decir Sí cuando cree detectar la señal.
decir No cuando cree que no se ha presentado.
Esto da lugar a cuatro posibles clasificaciones de las respuestas:
aciertos: el sujeto dice Sí y había aparecido la señal.
falsa alarma: el sujeto dice Sí y no se había presentado la señal.
fallo: el sujeto dice No pero la señal había sido presentada.
rechazo correcto: dice No y no se había presentado la señal.
Probabilidades condicionadas.
Son las probabilidades de cada una de las respuestas posibles.
Razón de verosimilitud (Ls).
Puesto que lo que interesa en la TDS es la detección de la señal por parte del
sujeto, para la obtención de este criterio sólo se consideran las respuestas Sí,
es decir, los aciertos y las falsas alarmas. Ls = P(Sí/S) / P(Sí/R).
La TDS parte de que la respuesta sensorial se encuentra determinada por el
criterio de decisión del sujeto, determinado, a su vez, por sus motivaciones y
expectativas. Para crear experimentalmente esos estados motivacionales en los
sujetos, se establecen recompensas diferenciales a sus respuestas según una
matriz de pagos.
Matriz de pagos.
Es una matriz de confusión en donde el experimentador establece las
consecuencias de cada una de las respuestas posibles. Según cómo se
administren las recompensas diferenciales será la actuación del sujeto.
Razón de consecuencias.
Es un cociente donde se sitúan por un lado las ganancias y pérdidas asociadas
al ruido y, por el otro, las ganancias y pérdidas asociadas a la señal.
Parámetro b.
Consiste en la multiplicación de la razón de consecuencias y la de
probabilidades a priori. Si no se establecen recompensas diferenciales, el
parámetro dependería de la razón de probabilidades a priori.
Regla de decisión.
Sirve para decidir si el sujeto ha detectado la señal:
se dice que el sujeto Sí ha detectado la señal cuando el valor de la razón
de verosimilitud es igual o mayor que el parámetro b (Ls > b ).
se dice que el sujeto No ha detectado la señal, cuando el valor de la
razón de verosimilitud es menor que el parámetro b (Ls < b ).
Para representar gráficamente esta decisión se tiene que hallar:
Parámetro de detectabilidad -d'-. Es la distancia entre la distribución del ruido
y la distribución de la señal.
cuanto más se separen estas distribuciones más se detectará la señal.
el criterio de decisión se deriva, por tanto, de las probabilidades a priori,
de los resultados de la matriz de pagos y del objetivo que se establezca
el sujeto.
la distancia entre ambas curvas se calcula estadísticamente.
CURVA ROC
TIEMPOS DE REACCIÓN
1) Medidas radiométricas:
Consideran toda la potencia lumínica emitida por la fuente luminosa dentro
del rango del espectro visible, son independientes del observador.
2) Medidas fotométricas:
Las medidas fotométricas tienen en cuenta al sujeto perceptual. Somos poco
sensibles a las longitudes de onda extremas. Nuestra curva de sensiblidad iría
del azul al rojo, pero sería en el centro (verde) donde la sensibilidad sería
mayor.
Para medir la intensidad luminosa de una bombilla podríamos hacerlo de dos
formas:
Capturar y medir la energía que emite, es decir, utilizando todas las
longitudes de onda de la bombilla dandole a todas el mismo valor.
Entonces estamos interesados en medir la potencia radiométrica total.
La unidad de medida que se utiliza son los watios.
Si estamos interesados en la potencia fotométrica lo importante es que
utilizemos todas las longitudes de onda, pero no todas tendrán el
mismo valor, sino que será una función de la curva de sensibilidad
espectral. La unidad de medida es el lumen (1w azul=24 lumenes, 1w
verde=64 lumenes)
Desde el punto de vista perceptual estas medidas son insuficientes por dos
motivos:
1º La fuente luminosa no tiene por qué ser fototrópica, puede no emitir
la misma energía en todas direcciones. Hay que tener en cuenta la
dirección.
2º Es importante tener también en cuenta la distancia a la que se situa
el observador o la distancia a la que están los objetos de la fuente
luminosa.
Para hablar de orientación hay que introducir el concepto de estereoradian,
que es un ángulo sólido, se puede entender como un cono cuyo ángulo está
situado en la fuente luminosa y cuya base sea igual a 1 radian. Lo que medimos
ahora es la cantidad de energía dentro del cono. Si medimos toda la energía
medimos intensidad radiante (W/estereoradian), si medimos la intensidad
fotométrica la unidad es lumen/estereoradian.
La medida que tiene en cuenta la distancia (más bien la superficie del objeto
iluminado), si utilizamos la radiométrica sería la irradiancia (watios/cm2). La
medida fotométrica sería la cantidad de luz que llega al objeto que es util para
nosotros, la llamamos iluminancia y se mide en
lux (lumen/estereoradian/m2).
Hasta ahora hemos hablado de fuentes puntuales, ahora lo haremos de
fuentes difusas, que son muy utilizadas (fluorescentes, televisión) y nos
interesan porque las podemos conceptualizar como la cantidad de luz que
cualquier objeto refleja. Esta potencia radiométrica tiene una medida
radiométrica llamada radiancia, y una fotométrica llamada luminancia, que es
la que nos interesa y se mide en candelas/m2.
EL SISTEMA VISUAL
Todo el procesamiento visual se inicia en los ojos y todas sus estructuras son
importantes. Le damos más importancia a la retina, que consideramos
dividida en dos partes: hemiretinas nasales (desde el nervio óptico hasta la
nariz) y hemiretinas temporales (desde el nervio óptico en dirección
temporal).
Esta división es importante porque en el ojo se producen varios fenómenos,
uno de los cuales es el cruzamiento de información, y otro es el
de convergencia de información.
A partir del ojo la información va al cortex visual. Antes se produce un
cruzamiento de fibras e información en el quiasma óptico, las fibras proyectan
en las fibras geniculares del tálamo y a las fibras coliculares.
Lo que nos interesa son los cruces de información a nivel del ojo y a nivel del
quiasma óptico. El campo visual se divide en izquierdo y en derecho. La
proyección del estímulo en el ojo izquierdo sufre una inversión en los dos
ejes. De estos una parte se proyectan en una hemiretina y la otra en la otra.
Esta información pasa por el quiasma óptico, donde un cruzamiento hace que
la información de nasal-temporal pase al campo derecho y los de nasal-
temporal pasen al campo izquierdo. El campo visual izquierdo pasa al
hemisferio derecho y el campo visual derecho pasa al izquierdo.
El ojo está compuesto de varias partes además de la retina. La cornea es
transparente, presenta una curvatura característica y además conduce la luz a
una velocidad superior a la del vacio. A continuación encontramos la cámara
gris que está llena de humor acuoso. Después está la pupila y el conjunto
múscular del iris. La pupila es importante por su capacidad de variar de
tamaño. El cristalino tiene forma de lente, lo que es muy importante para que
las imágenes de los objetos se formen en la retina. La curvatura del cristalino
es variable, este proceso se llama acomodación. Esta se produce por la acción
de los músculos ciliares. A continuación está la cámara posterior del ojo
rellena de humor vitreo.
Finalmente encontramos la retina, que contiene células sensibles a la luz. En
ella podemos distinguir dos elementos:
Fóvea o mácula, que contiene solo un tipo de fotoreceptores, los conos,
que se caracterizan por ser sensibles a distintas longitudes de onda. Se
encargan de la percepción del color.
Conforme nos alejamos de la fóvea encontramos que disminuye el
número de conos y aumentan los bastones. Estos serían los encargados
de la visión nocturna o escotópica, son más sensibles a la luz. A 20º de
la fóvea casi todo son bastones.
ANOMALIAS DE LA VISIÓN
Anomalias de la cornea
Astigmatismo, una cornea normal tiene un radio de curvatura
constante. En el astigmatismo no lo tiene igual. Esto hace que partes del
objeto se focalicen bien y otras no. Este problema se puede tratar,
algunas veces es innato y otras se debe a lesiones mecánicas.
Hay otras lesiones o infecciones producen defectos, como marcas rayas
o incrustaciones.
Anomalias de la retina
Desprendimiento, retinopatía, degeneración macular, retinitis pigmentaria,...
Anomalias del nervio óptico
La más frecuente es su destrucción o deterioro producida por el glaucoma, se
caracteriza por una presión anormalmente grande en la cámara posterior del
ojo. La causa más frecuente es que el humor acuoso debe ser renovado, si el
canal de drenaje se ocluye la presión sube.
Anomalías de convergencia
Son producto de la función de acomodación que realiza el cristalino. Hay dos
importantes:
Hipermetropía, se caracteriza por una dificultad de acomodación
respecto a los objetos situados a corta distancia del individuo. No se
consigue abombar lo suficiente para que la imagen se forme en la retina.
El hipermétrope puede ver bien los objetos lejanos pero no los
cercanos. También puede deberse a que el ojo sea demasiado corto.
Miopía, consiste en un exceso de abombamiento. Si el objeto está cerca
no hay problema. El problema está en los objetos lejános. También se
puede entender que el ojo es excesivamente largo, en cuyo caso la
mayoría de los objetos se verían borrosos. Se puede corregir
reduciendo la potencia refractiva, colocando una lente concava delante,
lo que hace que se acerquen los objetos lejanos. También se puede
recurrir a la queratotomían o tallar el cristalino para aplanarlo.
La intervención de los medios oculares produce borrosidad en la imagen. Esto
podríamos llamarlo función de dispersión del punto. La imagen es nítida en
el centro y conforme nos alejamos en cualquier dirección se hace más borrosa.
Esto quiere decir que tras los procesos anteriores habrá otros que corregiran
esto.
Campo receptivo
El campo receptor de una célula ganglionar sería la zona de la retina en la cual
la estimulación luminosa produce que la actividad de la ganglionar cambie.
En la retina hay varios campos receptivos. El que nos interesa es el campo
periférico. En una parte la actividad luminosa aumenta la actividad de la
ganglionar y en otra la disminuye, una es la zona ON y la otra es la OFF. Las
ganglionares ON-OFF tienen centro excitador y periferia inhibidora y
los OFF-ON al contrario.
Si se actúa sobre todo el campo receptivo la actividad no cambia ya que on y
off se contrarrestan. Si ilumina en dos partes, la zona oscura sobre off y la
luminosa sobre on, entonces habrá un aumento de actividad.
Estas células nos ayudan a codificar el tamaño de los estímulos y a identificar
los bordes. Las células no nos sirven para notar orientación. Las
ganglionares ON-OFF son importantes porque nos sirven para entender
cómo el sistema visual detecta los bordes, para ello están las llamadas bandas
de Mach que detectan los cambios de luminosidad.
Otro fenómeno es el de la rejilla de Hermann, en el cual se observan puntos
oscuros entre las rejillas y cuando miramos al lugar en el que había puntos
estos desaparecen. Los puntos entre intersección se perciben oscuros y
desaparecen cuando se intenta enfocar. Esto se debe a que los campos
receptores focales son pequeños (hay poca convergencia) y los campos
receptores peri y parafoveales son mayores.
AGUDEZA VISUAL
Es la capacidad del sujeto para ver detalles finos de los objetos. Será mayor
cuanto más pequeños sean los detalles que los sujetos son capaces de percibir.
Lo que nos interesa no es el tamaño del objeto, sino el tamaño de la imagen
en la retina. Por esto definimos el ángulo visual, que es el que forma la
proyección de un objeto sobre la retina. Llamamos a éste, ángulo alfa, y pone
en relación el tamaño del objeto con la distancia al observador. Es esta la
medida independiente que nos interesa.
Diferentes medidas de agudeza:
Agudeza de reconocimiento: Implica presentar al sujeto estímulos
complejos. El test de Snellen presenta letras que van variando de
tamaño de fila en fila. Lo que el sujeto tiene que hacer es leer las letras,
el test cesa cuando el sujeto no puede reconocer ya las letras. Una
persona con visión normal tiene una resolución de 1´ de arco.
Agudeza de resolución: Requiere del sujeto que sea capaz de localizar
en ese patrón algún detalle característico. El test de Landolt consiste en
decir hacia qué lugar está la abertura del objeto. Con este test se obtiene
una agudeza de 30" de arco. También se puede utilizar el test de onda
cuadrada que da información también de la sensibilidad al contraste.
Agudeza de detección: Consiste en pedir al sujeto solo que detecte la
presencia del objeto. Se obtiene una agudeza de 1/2 de arco.
Agudeza de verniero de localización: Se presentan dos lineas y la tarea
del sujeto es desplazar una de ellas para ponerla a una distancia mínima
antes de que la linea se perciba como una sola. Esta agudeza es
extraordinaria, en algun sujeto es a veces menor del tamaño de un cono
retiniano.
MOVIMIENTOS OCULARES
COLORIMETRÍA
Teoría tricromática:
Ya que hay tres colores fundamentales podemos pensar que también hay tres
fotorreceptores retinianos encargados cada uno de codificar un color,
sensibles a las longitudes de onda cortas, medias y largas.
David Brewser (1831) fué el primero en medir las curvas de sensibilidad a los
colores. Encuentra un pico en las longitudes de onda del rojo anaranjado,
verde y azul. Desde el punto de vista de la sensibilidad parece que hay tres
máximos.
Young (1802) escribió: "Es completamente imposible concebir que cualquier
punto de la retina contiene un número infinito de partículas, cada una capaz
de vibrar al unísono con cada posible ondulación, es necesariuo suponer que
hay un número limitado, por ejemplo, a los tres colores rojo, amarillo y azul".
Helmholt corrigió el error de Young señalando que los colores eran rojo
anaranjado, verde y azul. Estos fotorreceptores son máximamente sensibles a
estos colores pero también lo son a otros.
¿Cómo se discriminan los matices?
Si son colores básicos esto es muy sencillo, los activan fotorreceptores
distintos. El problema es cuando son matices distintos.
¿Cómo se codifica el brillo?
Los colores más brillantes activan más fotorreceptores que los menos
brillantes. Si hay más intensidad luminosa habrá más actividad.
¿Cómo se codifica la saturación?
El blanco incrementa la actividad de todos los receptores. Si el verde es puro
solo se activa el fotorreceptor del verde, si se desatura activará a otros, porque
lo que hacemos es añadir luz blanca.
Los colores metámeros produccen la igualación del patrón de actividad en los
tres receptores. Se considera que los receptores se activan en los dos colores
de la misma manera. Los colores complementarios igualan la actividad en los
tres fotorreceptores.
Se encuentran tres tipos de fotorreceptores con máxima sensibilidad 570 nm
(amarillo-rojizo), 535 nm (verde) y 445 nm (azul-violeta), pero estos colores
no son básicos. Este es un punto debil de la teoría.
Teoría de los procesos oponentes:
Fué formulada por Hering (1878) y se apoyó en datos psicofísicos:
1) Igualación de colores: Se presentan matices de color y el sujeto tiene
que utilizar el mínimo número de categorías para definir esos colores.
Casi todos utilizan cuatro, rojo, amarillo, verde y azul.
2) Postefectos del color: Se presentan cuatro círculos de color y se le
pide que mire el punto del centro. Se retira y se produce un efecto en
el que se tiene la ilusión de ver los colores opuestos.
3) Deficiencias en la visión del color: Los que tiene problemas con la
visión del rojo lo tienen también con el verde. Los que confunden el
azul con un color también confunden el amarillo con ese color. Esto
apoya la idea de cuatro colores que se organizan por pares.
4) Mezclas imposibles: Hay mezclas que son dificiles de procesar, con
verde y rojo los verdes se perciben sin color, una tonalidad oscura que
los separa. El color que se percibe no tiene nombre en ningún idioma.
Hering propone a nivel retiniano la existencia de tres sistemas de receptores:
uno para rojo-verde, otro para azul-amarillo y otro para blanco- negro. Esto es
falso a nivel fisiológico.
Svaetiche encontró a mediados de siglo células en las células horizontales de
la retina que se comportanban de forma curiosa. Unas tenían una respuesta
bifásica ante la luz verde, sube y cae, esto último asociado a la presencia del
rojo. Lo mismo encontró con azul-amarillo.
DeValois y Jacobs (1975) descubren un mecanismo semejante en el sistema
visual del macaco. Hay varios sistemas celulares en el sistema geniculado
lateral que sirven para los pares anteriores.
Una buena teoría del color debe ser tricromática a nivel de receptores, pero
debe incluir un mecanismo oponente a un nivel superior.
Teoría Retinex:
Fué formulada por Land, y lo que dice es que el color percibido en un objeto
es constante aunque cambie el grado de luminosidad. El color percibido en
una superficie se determina por las longitudes de onda que refleja, pero
también por las de las superficies circundantes. Esta teoría dice que el sistema
visual debe basarse en la reflectancia más que en la luminosidad. El sistema
visual realiza una comparación entre comparaciones, lo cual se realizaría en
V4.
Acromatopsia Cerebral:
Es la pérdida de la visión del color a consecuencia de una lesión en V4 o en
las vías que conducen a esa área.
Taxonomía:
Monocromatismo: Debido a la ausencia de conos.
Dicromatismo: Son problemas en la diferenciación de pares de
colores: rojo-verde (protanopía y deuteranopía) o del azul-amarillo
(tritanopía).
Tricromatismo anómalo: Requiere diferente proporción de los tres
colores primarios para obtener el de prueba.
ILUSIONES ÓPTICAS
Fíjate como el círculo central parece un hueco a través del que vemos a cierta
distancia un fondo que parece vibrar al mover nuestros ojos.
Ilusiones ópticas de la percepción del color y el contraste.
Las barras de color gris parecen más claras u oscuras dependiendo de que
esten situadas entre las barras negras o sobre ellas. Compruébalo con este
gráfico interactivo.
La zona donde convergen los cuatro rectángulos de color degradado parece
mucho más clara que el resto del fondo.
http://www.educacionplastica.net/moire.html
PERCEPCIÓN DE LA PROFUNDIDAD
PSICOLOGÍA DE LA ATENCIÓN
LA ATENCIÓN
Modelos de Filtro:
Los modelos de filtro recurren a la analogía de cuello de botella, es decir,
postulan la existencia de un filtro que regula la entrada de los inputs.
Los experimentos realizados sobre la atención consisten en mensajes
dicóticos. Los sujetos reciben, al mismo tiempo, dos mensajes verbales, uno
en cada oído y sólo deben atender a uno de ellos. El mensaje atendido es
recordado, mientras que el mensaje no atendido no lo es. De ahí que estos
modelos postulen la existencia de un filtro que selecciona sólo uno de los dos
mensajes.
Modelo de filtro rígido de Broadbent:
Los experimentos realizados por Broadbent consisten en presentar al sujeto
simultáneamente 2 mensajes verbales de forma dicótica, el sujeto atiende a
uno de ellos y luego es capaz de recordarlo, pero el mensaje no atendido no
es recordado.
Esto no es del todo cierto ya que Cherry (1953) desarrolló una variante
experimental que consistía en introducir variaciones en el mensaje irrelevante.
Estas variaciones consistían en lo siguiente:
el mensaje irrelevante comenzaba en un idioma y terminaba en otro.
el mensaje irrelevante comenzaba con una voz masculina y terminaba
con una femenina.
el mensaje irrelevante era interrumpido por una señal auditiva...
Al preguntar a los sujetos por el mensaje irrelevante no recordaban el
contenido ni el idioma, pero en algunos casos advirtieron el cambio de voz o
la señal auditiva, lo que implica que el mensaje irrelevante recibe un
procesamiento elemental, al menos en sus rasgos físicos aunque no de sus
propiedades semánticas.
Un paradigma experimental desarrollado por Broadbent (1954) conocido
como la técnica de amplitud de memoria dividida nos informa de que cuando
se presenta un mensaje verbal de modo simultáneo y dicóticamente (por
ejemplo: dígitos) los sujetos recordaban ambos mensajes, pero no en su orden
real de presentación, sino agrupados por canales. Sólo cuando la velocidad de
presentación se hace muy lenta (un ítem cada 2 segundos) los sujetos
recuerdan los ítems en su orden real de presentación.
Ej.: Oído Izquierdo: a, s, d.
Oído Derecho: q, w, e.
El orden de presentación fue: a, q, s, w, d, e.
El sujeto recuerda: a, s, d, q, w, e ó q, w, e, a, s, d. No lo recuerda según el
orden real de presentación, sino agrupado por canales.
Los principios básicos del modelo de Broadbent:
El sujeto recibe del medio muchos mensajes sensoriales, estos serán
procesados en paralelo, al mismo tiempo, y se retienen transitoriamente en la
memoria sensorial. Pero como según Broadbent, sólo podemos procesar un
mensaje cada vez para evitar la sobrecarga del canal central existe un filtro que
elige qué mensaje va a pasar al canal central. El resto de la información se
pierde.
Pero, ¿de qué depende que un mensaje sea seleccionado?
Según este autor dependerá de las propiedades del estímulo y de las
necesidades del organismo.
El modelo propuesto por Broadbent es denominado de filtro rígido porque
propone que el filtro es un dispositivo de todo-o-nada que solo se centra en
un mensaje cada vez.
Modelos de Filtro:
Los modelos de filtro recurren a la analogía de cuello de botella, es decir,
postulan la existencia de un filtro que regula la entrada de los inputs.
Los experimentos realizados sobre la atención consisten en mensajes
dicóticos. Los sujetos reciben, al mismo tiempo, dos mensajes verbales, uno
en cada oído y sólo deben atender a uno de ellos. El mensaje atendido es
recordado, mientras que el mensaje no atendido no lo es. De ahí que estos
modelos postulen la existencia de un filtro que selecciona sólo uno de los dos
mensajes.
Modelo de filtro atenuado de Treisman:
Treisman realizó experimentos cuyos resultados indicaban que el filtro no es
de todo-o-nada, como afirmaba Broadbent, ya que permite que el mensaje
irrelevante sea analizado, por lo menos en aquellos casos en el que es
discriminable en relación con el mensaje principal. Treisman (1969) propone
que el filtro es un mecanismo de atenuación de todos los mensajes. El mensaje
relevante traspasa el filtro mientras que los demás -irrelevantes- son atenuados
para no sobrecargar el mecanismo central de procesamiento.
El modelo propuesto por Treisman es similar al de Broadbent, la diferencia
fundamental es el modo de operar del filtro, es diferente ya que para
Treisman el filtro atenúa los mensajes irrelevantes, y el mensaje irrelevante
recibe cierto análisis.
Los mensajes atenuados reciben algún tipo de análisis, de esto se desprende
el hecho de que si se detecta algún rasgo sobresaliente en uno de los canales
no atendidos, nuestra atención se desviará hacia dicho mensaje.
Modelos de Filtro:
Los modelos de filtro recurren a la analogía de cuello de botella, es decir,
postulan la existencia de un filtro que regula la entrada de los inputs.
Los experimentos realizados sobre la atención consisten en mensajes
dicóticos. Los sujetos reciben, al mismo tiempo, dos mensajes verbales, uno
en cada oído y sólo deben atender a uno de ellos. El mensaje atendido es
recordado, mientras que el mensaje no atendido no lo es. De ahí que estos
modelos postulen la existencia de un filtro que selecciona sólo uno de los dos
mensajes.
Los modelos de filtro postcategorial defienden que el momento en que se
produce la selección del mensaje relevante es una vez se han analizado todos
los elementos de la información sensorial, es decir sitúan el filtro atencional
en los estadios finales de procesamiento de la información.
Los experimentos hechos dentro del marco de los modelos de filtro
postcategorial sugieren que todos los mensajes reciben algún análisis
semántico.
Las características operativas de los modelos de filtro postcategorial son las
siguientes:
Los inputs se almacenan momentáneamente en el almacén sensorial.
Los inputs se procesan en paralelo en un sistema analizador.
El filtro recoge los inputs ya analizados y evalúa sus características con
el objetivo de seleccionar el mensaje relevante.
El mensaje seleccionado pasa a la M.C.P.
Los modelos de filtro postcategorial, en la fase preselectiva los mensajes
reciben procesamiento de forma automática, sin control por parte del sujeto.
Dentro de los modelos de filtro postcategorial distinguimos el modelo
de Deutsch y Deutsch y el modelo de Norman.
Modelo de Deutsch y Deutsch:
El primer modelo de filtro postcategorial fue ideado por Deutsch y Deutsch
(1963).
Las señales sensoriales son almacenadas momentáneamente en el almacén
sensorial, a continuación son procesadas en paralelo por el sistema analizador,
después opera el filtro evaluando las características y con el objetivo de
seleccionar el mensaje relevante, finalmente el mensaje relevante es
transmitido a la M.C.P.
Modelo de Norman:
El modelo de Norman es un modelo de filtro postcategorial, por lo tanto
afirma que la atención entra en juego una vez se han analizado todos los
elementos de la información sensorial.
Norman añade que el mecanismo de la selección no solo se basa en las señales
sensoriales analizadas sino que también en las expectativas del propio sujeto
(pertinencia).
Los modelos de filtro postcategorial defienden que:
Se analizan en paralelo todos los mensajes sensoriales pero estos procesos de
análisis no alcanzan la conciencia del sujeto, pues solo el mensaje seleccionado
por el filtro es percibido por el sujeto. Así que los análisis previos al filtro
serían operaciones automáticas.
PROPUESTAS INTEGRADORAS
PSICOLOGÍA DE LA MEMORIA
EL REFLEJO
Fearing define el reflejo como la "respuesta elemental y directa de un efector
a la estimulación de un receptor". Son respuestas elementales y directas a un
estimulo exterior: la pupila se estrecha con la luz.
Así son por ejemplo los reflejos posturales, el reflejo rotular, el reflejo
tensional...
Consideración fisiológica del reflejo.
Como señala Fearing, desde el punto de vista fisiológico, el reflejo o arco
reflejo implica fundamentalmente cuatro elementos:
- el elemento receptor que viene constituido por algún órgano de los
sentidos
- la vía nerviosa aferente que transmite la excitación recibida en el
órgano sensorial a la médula espinal o cerebro
- la vía nerviosa eferente que transmite el impulso nerviosos generado
en la médula o en el cerebro, como reacción a la excitación aferente
- el efector propiamente dicho, que es un músculo o glándula que
reacciona con un movimiento o secreción, respectivamente.
Consideración conductual del reflejo.
Desde el punto de vista conductual, el reflejo es una respuesta:
1) Innata: no se adquiere.
2) Refleja: aunque puede ser modificada por mecanismos inhibitorios
fisiológicos.
3) Básicamente fija: no modificable por la experiencia.
4) Inmediata a la estimulación sobre el receptor
5) Específica a estimulaciones concretas.
Leyes del reflejo.
El estudio desde el punto de vista conductual o de la actividad del organismo,
ha llevado a los autores a señalar las leyes primarias y secundarias del reflejo.
Entre las primarias están:
- La ley del umbral se refiere a la intensidad mínima del estímulo que
es capaz de provocar la respuesta refleja. La adquisición de una mayor
sensibilidad de manera tal que una estimulación subliminal produzca
respuesta refleja, se llama sensibilización.
- La ley de la latencia señala que entre la estimulación y la producción
de la respuesta refleja siempre media un período de tiempo, de
ordinario muy breve, que recibe el nombre de período latente. A mayor
intensidad en la estimulación, menor período de latencia (relación
inversa).
- La ley de la magnitud-intensidad relaciona positivamente la magnitud
de la estimulación con la intensidad de la respuesta refleja evocada. La
relación magnitud-intensidad entre el estímulo y la respuesta refleja no
es absoluta por completo, sino que está influida por otras variables.
En cuanto a las leyes secundarias, la más importante es:
- La ley de la fatiga del reflejo: cuando una misma estimulación se aplica
sucesivamente y con muy breve espacio de tiempo entre una aplicación
y otra, la respuesta refleja muestra fatiga, esto es, aumenta la latencia,
disminuye la intensidad de la respuesta para una misma estimulación y
el umbral de la intensidad del estímulo para provocar la respuesta
refleja aumenta.
Reflejo y conducta.
El reflejo juega un papel importante en la configuración de la conducta de los
organismos, como elemento básico a partir del cual se adquieren nuevos y
muy variados programas de conducta.
EL reflejo, sin duda, tiene una función autorregulativa conductual y fisiológica
de enorme importancia para la supervivencia.
EL INSTINTO
HABITUACIÓN
CONDICIONAMIENTO CLÁSICO
CONDICIONAMIENTO OPERANTE
Skinner al tratar sobre las respuestas operantes dirá: "Una operante es una
parte identificable de la conducta de la que puede decirse, no que sea
imposible hallar un estímulo que la provoque (....) sino que, en las ocasiones
en que se observa su ocurrencia, no puede detectarse ningùn estímulo
correlacionado.
Se estudia como un acontecimiento que aparece espontáneamente con una
frecuencia dada".
Las respuestas operantes pueden ser divididas
en instrumentales y consumatorias:
- Respuesta instrumental: "Cuando es realizada por un organismo y se
encuentra encaminada a la consecución de una meta".
- Respuestas consumatorias: "Aquellas respuestas que realiza un
organismo justo en la consecución de la meta (comer, copular, beber,
etc.)".
Para llevar a cabo el análisis de las respuestas nos interesa distinguir dos
conceptos:
1.- Tasa: Es el nùmero de respuestas que se da por unidad de tiempo y
se presenta usualmente mediante gradientes de adquisición o extinción
(se dice, así, que una respuesta posee una tasa o un gradiente más
acelerado o más pronunciado que otra).
2.- Nivel asintónico de respuesta: Es el nivel máximo de adquisición y
que no se incrementa con posteriores intentos.
Otra división que podemos hacer sobre los refuerzos es ésta:
a)- Refuerzos primarios: Aquellos que poseen un valor reforzante
biológicamente determinado y no por aprendizaje, tal y como ocurre
en el caso del aire, comida y bebida.
b)- Refuerzos secundarios: Aquellos que han adquirido su valor por
aprendizaje tales como la recompensa social (alabanza) o el dinero.
Condicionamiento instrumental
Se distinguen cuatro tipos de condicionamiento instrumental (uno positivo y
tres negativos)
1.- El entrenamiento de recompensa:
El refuerzo utilizado es positivo y no se encuentra presente antes de la
realización de la respuesta deseada. En cuanto aparece la respuesta se aplica
el refuerzo.
Por ejemplo: cada vez que una rata apretaba una palanca se presentaba, en un
cánula, una pastillita o un grano de comida.
2.- El entrenamiento de castigo:
El refuerzo (estímulo punitivo) no se encuentra presente. Si el sujeto realiza
una acción prefijada aparece el refuerzo negativo (estímulo punitivo).
P. ejem: Un hijo de cinco años rompe un jarrón valioso para la madre y ésta
le da un bofetón.
3.- Los diseños de evitación:
El refuerzo aversivo se encuentra ausente antes de la realización de la
conducta, la realización de la respuesta adecuada lleva consigo que el refuerzo
no se presente.
P. ejem: el diseño de evitación de Sidman en el que se encuentra programada
la aplicación de un shock eléctrico en una caja de Skinner cada 5 segundos, a
menos que el animal (usualmente una rata) apriete una palanca. La respuesta
de apretar la palanca desconecta el circuito y el animal no recibe el shock.
4.- Los diseños de escape:
El refuerzo aversivo se encuentra presente antes de la realización de la
respuesta, la realización de esta respuesta lleva aparejada la desaparición de la
estimulación aversiva.
P. ejem: En una caja de lanzadera el animal se encuentra en un
compartimento con rejilla electrificada, aparece el shock eléctrico y la
respuesta del animal (saltar por encima de la barrera que separa los dos
compartimentos) lleva consigo la eliminación de la estimulación aversiva.
Indices de refuerzo
Se denominan índices de refuerzo a los modos de presentación de estos
refuerzos dentro de un experimento. Los podemos dividir en:
1.- Índices no intermitentes:
La aplicación continua de refuerzos para cada respuesta que aparece (ya sea
que adquiere o se extingue).
1.1.-Refuerzo continuo: Cada respuesta emitida por un organismo es
reforzada.
1.2.-Extinción: No se refuerza ninguna respuesta y es un proceso
similar al de extinción experimental en el condicionamiento clásico.
2.- Índices intermitentes:
La aplicación de menos volumen o nùmero de refuerzos que respuestas
realizadas. Por razones de espacio solo comentaremos los índices
intermitentes simples; se trata de índices relacionales entre respuestas y
refuerzo o entre tiempo y refuerzo.
En el caso de tomar en consideración el número de respuestas se habla de un
índice de razón y si se toma en cuenta un periodo temporal se habla de un
índice de intervalo.
2.1.-Índice de razón fija (RF): Se refuerza la respuesta correcta que
emite el organismo, después de que éste ha realizado un nùmero
determinado de ellas.
2.2.-Índices de razón variable (RV): A diferencia del caso anterior, la
razón de respuesta/refuerzo es una serie aleatoria alrededor de un valor
central y con un pequeño rango de variación.
2.3.-Índices de intervalo fijo (IF): Se refuerza la primera respuesta
correcta que aparece después de un intervalo temporal dado
(normalmente en minutos).
2.4.-Índice de intervalo variable (IV): Los refuerzos se presentan en
función de una serie aleatoria de intervalos temporales y de los que
ùnicamente se hace explícito el intervalo medio.
RELACIONES EMPÍRICAS CON REFUERZO POSITIVO
Podemos resumir los procesos básicos dividiéndolos en dos grupos: los que
fundamentan el aprendizaje y los que fundamentan la ejecución.
Los procesos básicos en el aprendizaje observacional son:
- Atención y discriminación: es necesario que el observador atienda a
la conducta que realiza el sujeto y que el observador discrimine los
aspectos más relevantes de dicha conducta. La imitación no es una
repetición exacta de la conducta modelo. Este proceso atencional es
muy influenciado por tres tipos de variables: las características del
modelo, las características del observador y las condiciones estimulares.
o · Las características del modelo que influyen positivamente en el
observador son que el sexo del modelo sea el mismo y la edad
sea semejante; el prestigio, estado y poder social del modelo; su
competencia y experiencia en la conducta que realiza y el trato
afectivo que el modelo establece con el observador.
o · Las características del observador que influencian
positivamente el aprendizaje observacional son: aparte de la edad
y el sexo, el nivel de inteligencia del sujeto que observa, su
educación anterior o historia de aprendizaje y sus características
afectivas o emocionales.
o · Las características estimulares que favorecen la imitación son
que los aspectos relevantes de la conducta del modelo sean
fácilmente discriminables y que la conducta del modelo sea
expuesta de modo real, mediante imágenes o descripción verbal.
- El proceso de retención o registro: almacenaje y recuperación del
material perceptual adquirido por la observación. La retención puede
mejorarse haciendo que el observador adopte una posición activa,
como contándose a sí mismo lo que observa. La observación pasiva del
modelo es menos eficaz, aunque sin embargo es más frecuente.
- Los procesos de elaboración cognitiva: es la reelaboración que hace
el sujeto del material que ha observado. Esta reelaboración puede
consistir en realizar un esquema general de la conducta observada.
Dicho esquema serviría al observador para organizar y guiar su
conducta en los casos en que la imitación no es pura repetición.
Los procesos básicos de ejecución del aprendizaje por observación son los
procesos de reproducción motora y los procesos de refuerzo. Las variables
que influyen fundamentalmente los procesos de reproducción motora son: las
capacidades físicas de los sujetos.
En cuanto a los procesos de refuerzo, precisamente el nombre de
condicionamiento vicario consiste en que se recibe el refuerzo en virtud del
refuerzo que recibe el modelo en la conducta que ejecuta. Así, somos
reforzados vicariamente. Lo mismo que el observador recibe refuerzo de la
conducta imitada en virtud del refuerzo que recibe el modelo, también la
conducta a imitar puede ser castigada vicariamente, en virtud del castigo que
recibe el modelo por ejecutar esa determinada conducta.
LA ESTRUCTURACIÓN CONCEPTUAL
La combinación de conceptos
Estos modelos estarán en consonancia con el punto anterior sobre la
estructuración conceptual.
La información conceptual se combina par producir otros conceptos. Este
proceso de combinación conceptual debería estar en consonancia con la
concepción que se tenga sobre la estructuración conceptual que hemos tratado
en puntos anteriores.
- El modelo de modificación selectiva
Combinación Conceptual de Sustantivo-Adjetivo
El modelo de modificación selectiva: asume una representación prototípica
con pesos diferenciados para la prominencia y la diagnosticidad de los
atributos y el procedimiento para el cómputo se basa en la semejanza (regla
de contraste de Tversky). Los resultados sobre el efecto de la conjunción
ilustran cómo funciona este modelo.
Desde la teoría del prototipo se asumía que, para la explicación de la
combinación conceptual y el cómputo de la tipicidad, bastaría aplicar la teoría
de conjuntos difusos.
* Osherson y Smith encuentran que las predicciones de la teoría de conjuntos
difusos no se cumplían en los juicios de tipicidad sobre la conjunción de
conceptos.
Se encontró que los sujetos evaluaban como mayor la tipicidad de un ejemplar
del concepto compuesto que del simple. También se evaluaban como más
típicas las conjunciones incompatibles. Estos resultados se conocen como "el
efecto de la conjunción".
Proponen el Modelo de Modificación Selectiva para explicar el proceso de
combinación conceptual dentro del marco teórico de los prototipos.
El modelo parte de una representación prototípica conforme a una
estructuración conceptual en la que se incluyen:
a) los atributos (ej. color) con pesos diagnósticos y
b) los valores de estos atributos (ej.rojo) ponderados con respecto a su
prominencia.
El procedimiento asume que cada constituyente del concepto compuesto
desempeña un papel distinto y asimétrico y que no puede explicarse por la
simple intersección de las propiedades de sus conceptos constituyentes.
El proceso parte de la identificación de:
- el concepto que desempeña la función de sustantivo como marco
conceptual sobre el que se va a operar
- el concepto que desempeña la función de adjetivo como aquello que
opera o modifica.
Cuando ocurre la combinación conceptual el concepto con función de
adjetivo pone en marcha la selección de las propiedades que se van a poner
en correspondencia entre ambos conceptos y las propiedades seleccionadas
adquieren mayor prominencia y valor diagnóstico.
Para determinar el cómputo de tipicidad de un ejemplar se utiliza la regla de
contraste de Tversky que calcula la semejanza mediante el contraste entre las
propiedades comunes y no compartidas entre ejemplar y prototipo. Cada
propiedad conlleva un índice que pondera la prominencia y el valor
diagnóstico de los atributos.
El modelo de modificación selectiva ofrece un procedimiento concreto y
específico para el cálculo de la tipicidad de los conceptos compuestos, pero
es muy simple y limitado:
- Está diseñado para conceptos compuestos con una sintaxis
determinada: sustantivo-adjetivo.
- Otra limitación es que trata adjetivos simples que sólo afectan a una
propiedad del prototipo cuando la realidad es que existen adjetivos más
complejos que afectan de manera múltiple al sustantivo que modifican.
Además, los adjetivos simples (como el color) también están
relacionados con otros.
Estas relaciones entre las propiedades forman parte del prototipo y el cambio
en el valor de un atributo también modifica al resto de los atributos con los
que se encuentra relacionado.
Tiene que haber algo más en el concepto compuesto que la ponderación de
la prominencia y diagnosticidad en el procedimiento de la modificación
selectiva.
Críticas: Modelo demasiado simple puesto que asume que los atributos son
independientes y su rango de aplicación se limita a los conceptos constituidos
por sustantivos y adjetivos.
Tipos de combinaciones:
· Wisniewski analiza la combinación "sustantivo-sustantivo" e identifica 3 tipos
básicos de combinaciones:
(1) por la relación entre el concepto base y el concepto que lo modifica
(perro perdiguero)
(2) por la propiedad que se aplica sobre el concepto base (pez martillo)
(3) por la combinación o conjunción de algunas de las propiedades de
ambos conceptos. (aparta-hotel).
También amplía el modelo de especialización conceptual con los procesos
de comparación y construcción para los conceptos compuestos por
propiedades y combinaciones híbridas. Estos dos procesos son necesarios
para determinar las semejanzas y diferencias entre el concepto base (pez) y el
que lo modifica (martillo) y poder integrar la nueva información para la
construcción del nuevo concepto combinado (pez martillo).
Modelo de especialización conceptual:
Puede explicar la relación entre el concepto base y el concepto que lo
modifica.
Modelo de especialización conceptual ampliado:
Se añaden los procesos de comparación y construcción (propiedades no se
suman, sino que se crean) para explicar la aplicación de propiedades y la
combinación híbrida de las mismas. Obsérvese la vinculación entre los
procesos de combinación conceptual, cambio conceptual y razonamiento
analógico.
EL PROCESO DE CATEGORIZACIÓN
RAZONAMIENTO PROBABILÍSTICO
EL HEURÍSTICO DE REPRESENTATIVIDAD
EL HEURÍSTICO DE ACCESIBILIDAD
EL ENFOQUE PRAGMÁTICO
Esta teoría fue propuesta por Keane (1985; 1990) para conciliar los dos
enfoques anteriores (sintáctico y pragmático). Según este autor, el papel que
desempeñan las características superficiales es importante siempre y cuando
se trate de atributos funcionalmente relevantes (FRA).
Winston: una teoría computacional en la que decía que si el emparejamiento
entre objetos de ambos dominios no se encuentra basado en algún principio,
las permutaciones potenciales serán enormes.
Esta teoría fue formulada por Keane, que señala que las teorías sobre
razonamiento analógico no tienen en cuenta el proceso inicial de
identificación de objetos paralelos entre 2 dominios de conocimiento. 3 tipos
de categorías de información para la explicación del proceso de identificación:
- Papel que el concepto objeto juega en el dominio
- Algún solapamiento de atributos entre objetos paralelos de ambos
dominios
- La información de atributos funcionalmente relevantes.
Y considera que para lograr un nivel óptimo de abstracción sin sobrecargar la
memoria de trabajo, es más probable que:
- La extrapolación inicial ocurra en el nivel más abstracto (esquema), y
sirva para identificar las proposiciones de solución del problema.
- Que se pueda acceder a las proposiciones de solución usando
directamente el conocimiento sobre la organización del problema en la
memoria.
Según esta teoría, después de identificar las proposiciones de solución del
dominio base, se propone que éstas interactúan con los objetivos del
problema. Los pasos concretos son:
1. Orientación de los fines
2. Identificación de los objetivos del dominio base
3. Realizar una transferencia relacional desde el dominio base. La
orientación del objetivo determina la manera de identificar los objetos
críticos y el atributo funcionalmente relevante (FRA) de los objetos
para proporcionar una orientación a la transferencia de predicados
relacionales.
4. Evaluación de fines u objetivos y subobjetivos
5. Elaboración de la respuesta más adecuada
Keane reformula sus planteamientos con su teoría de la analogía paso a paso
o analogía progresiva:
Analogía: Es encontrar y establecer ciertas correspondencias entre objetos y
relaciones del dominio fuente y el dominio objetivo para posteriormente
transferir información entre esos dominios y así poder llegar a solucionar el
problema, teniendo en cuenta las restricciones:
Las 2 primeras las aporta esta teoría como nuevas.
- Restricción de la memoria de trabajo
o La cantidad de razonamiento que la memoria de trabajo puede
mantener durante el razonamiento analógico es limitada.
o Esta restricción incorpora los límites en la capacidad de
información que se puede manejar cuando se razona y así se
podrían explicar algunos de los fracasos que cometemos para
extraer analogías correctas.
- Restricción de control
o El emparejamiento entre los 2 dominios y la transferencia se
hace de forma gradual, pudiendo variar la cantidad de elementos
que son procesados. La extrapolación se lleva a cabo mediante
un modelo paso a paso.
o Esta restricción explica que la analogía se lleva a cabo por
incrementos graduales paso a paso, y esto la diferencia de las
otras en las que el proceso entre los 2 dominios (vistos como
entradas de información), ocurría de una vez. Keane desmenuza
los dominios en unidades más pequeñas para poder ser
extrapoladas (así complementa a la restricción anterior).
- Restricción de la verificación
o La transferencia de elementos tiene que verificarse para
determinar si son apropiados para ser aplicados al dominio
objetivo. Si no fuese apropiada hay que abandonar esta
extrapolación para no realizar inferencias incorrectas.
o Se puede hacer por el conocimiento previo que está en la MLP.
- Restricción de la semejanza
o En el emparejamiento se prefieren elementos idénticos o
semánticamente semejantes frente a los desemejantes.
- Restricción pragmática
o Se seleccionan aquellas partes del dominio base y del dominio
objetivo que se interpretan como importantes para ser
extrapoladas, en función de los objetivos o fines de los sujetos.
- Restricción estructural.
o Refuerza la idea del isomorfismo entre los dominios como la
mejor relación estructural, desarrollándose una extrapolación
uno a uno entre los 2 dominios, aunque también pueden darse
emparejamientos de diferentes tipos de relaciones entre esos
dominios.
Determinados hallazgos experimentales inciden en ratificar el punto de vista
de Keane al afirmar que lo importante al construir análogos es eliminar las
proposiciones que sean innecesarias por irrelevantes y se incida en aquellos
objetos y relaciones que sean críticos para la solución del problema
Esta teoría comparte las restricciones estructurales con la teoría del
razonamiento pragmático y la de la extrapolación estructural (enfoque
sintáctico de Gentner, aunque no se expresa en términos de restricciones).
Lo que se incorpora a la memoria de trabajo:
- Si es un emparejamiento entre elementos, entonces se evalúa.
- Si es una transferencia, entonces se verifica. Este es el proceso esencial
para que se produzca aprendizaje de un dominio conocido a otro
nuevo. No se transfieren simples relaciones sino más bien cadenas de
relaciones.
Keane demuestra que existe una mayor dificultad para la recuperación de
análogos semánticamente remotos frente a los análogos más literales. Esto
puede relacionarse con lo propuesto por Schank: recuerdo a través del
contexto: el recuerdo está mediatizado por estructuras organizadas llamadas
"tópicos de organización temática" TOPS: representan información abstracta
independiente del dominio que coordinan y enfatizan el nivel abstracto de una
combinación de episodios.
La recuperación de análogos se concreta en:
- Identificación de los objetivos que se persiguen en la historia análoga
y el problema. La consecución de uno impide la del otro, lo que
conlleva a que se generen rasgos de bajo nivel.
- Generación de 2 tipos de rasgos a través de la especificación, los
objetivos y los objetos meta del TOP.
- Los procesos de búsqueda tienden a emparejar los rasgos con los
objetivos y los objetos de manera que aquellos rasgos que tienen éxito
en el encuentro constituyen los índices.
- Los procesos de búsqueda son relativamente inflexibles de manera
que los rasgos de objetivos sólo pueden ser emparejados con objetivos
idénticos o semánticamente parecidos, sucediendo lo mismo son los
rasgos de los objetos.
Extrapolación: relativamente flexible y tiene en cuenta la correspondencia
semántica detallada entre el problema y el análogo.
Recuperación: menos flexible y no tiene en cuenta estas correspondencias
detalladas.
De esta manera se podría homologar el funcionamiento de la recuperación
analógica de
Keane con la extrapolación estructural de Gentner con respecto a su rigidez.
Índices: Las características que se relacionen con éxito.
Keane, en contra de Gick y Holyoak, dice que se puede acceder directamente
a las proposiciones de solución usando un conocimiento esquemático.
Esta hipótesis del acceso directo está apoyada experimentalmente. Los sujetos
pueden identificar y usar soluciones proporcionadas de análogos previos,
como ayuda de resolver un problema propuesto. La aportación de una
solución análoga es suficiente para la generación de una solución convergente,
sin necesidad de aportar todo el análogo entero, aunque sigue siendo esto lo
preferible para lograr mayor solución.
El acceso directo indica que no tenemos que construir análogos que
contengan proposiciones innecesarias sino que hagan hincapié en los objetos
críticos y sus relaciones (según Keane).
Keane también demostró que los atributos funcionalmente relevantes (FRAs):
- son críticos para el éxito en la generación de la solución debido a que
facilitan la identificación de la solución crítica correcta.
- influyen significativamente en los procesos de extrapolación,
pudiendo considerarse también un factor importante en la transferencia
relacional.
(Aunque hay muchos casos de fracaso en la identificación del análogo a pesar
de la presencia de FRAs.)
Keane da un paso cualitativo al ampliar e integrar las restricciones propuestas
por las anteriores teorías. Pero sus restricciones son:
- Restricciones pragmáticas
- La verificación merece mayor análisis.
En general los problemas no son isomórficos : objetos de un dominio con
correspondencia en el otro.
Gick y Holyoak presentan una teoría de solución de problemas.
Keane (modelo TOP) parte de una teoría de la comprensión y de la memoria.
Es más completo ya que especifica las condiciones bajo las que se recupera el
análogo y también bajo las que no se recupera.
Modelo sintáctico: Los análogos se recuperan en función de las características
superficiales compartidas.
Modelo pragmático: Los análogos se recuperan en función de las
características superficiales y estructurales.
En la recuperación Keane admite que los 2 modelos pueden ser válidos bajo
las condiciones:
1. Hipótesis de las características superficiales y estructurales:
o - cuando ambos dominios puedan catalogarse como casos
específicos de una estructura supraordenada
o - cuando el dominio base está organizado en memoria con
relación a la misma estructura supraordenada
o - cuando la estrategia de recuperación que se requiere participa
de la estructura conceptual de ambos dominios
2. Hipótesis de las claves superficiales:
o - cuando el problema objetivo no se puede catalogar como caso
particular de una estructura supraordenada
o - cuando se desconoce total o parcialmente la naturaleza exacta
dela semejanza existente entre los dominios
LA DIMENSIÓN COMPORTAMENTAL
Hasta finales del siglo XIX el estudio del lenguaje consistió en una larga
espiral de reflexiones filosóficas y gramaticales y generó un prolongado y
multifacético debate sobre cuestiones extraordinariamente diversas:
· Las ideas que sirven de soporte al lenguaje y al entendimiento ¿son
innatas o se adquieren por medio de la experiencia sensorial?.
· ¿Es el pensamiento posible sin el lenguaje?.
· ¿Surgió el lenguaje en la especie humana como respuesta a una
necesidad psicológica o sociológica?
· ¿Se derivan los primeros vocablos de sonidos naturales o es una
especie de gesticulación vocal?.
Este debate sirvió de marco a la polémica ente anomalistas (los nombres son
el resultado de un pacto, consenso, convención o habito social)
y analogistas (hay una razón natural que vincula los nombre con sus
referentes, asegurando su exactitud). En el fondo esta polémica es de orden
teológico, el origen natural o sobrenatural del lenguaje.
A finales del siglo XVIII y principios del XIX Wilhelm Von Humboldt inicia
el estudio científico del lenguaje rompiendo con la interpretación tradicional
que asimilaba el lenguaje a un mero envoltorio, estático y encerrado en sí
mismo, con el que transmitir las ideas y conceptos. Con este autor el
término logos dejó de ser un simple producto del espíritu humano para
convertirse en un proceso.
Siguiendo a Humboldt, Moritz Lazarus y Heymann Steinthal difunden la idea
de que el lenguaje, por haber sido construido y utilizado por colectividades de
personas, constituye un instrumento de primer orden para profundizar en el
estudio de la actividad humana, al igual que otros productos culturales como
el arte, la mitología o las costumbres. Wundt comparte esta interpretación
acerca del lenguaje, pero al mismo tiempo sostuvo la idea de que el lenguaje
debe ser tratado como un proceso o actividad individual que debe ser objeto
de explicación por parte de la psicología general o experimental. Saussure
también sostiene que la lingüística debe ser considerado como una rama de la
psicología general.
LA METODOLOGÍA EXPERIMENTAL
MORFOLOGÍA
¿Qué señal acústica o visual del lenguaje pone en marcha los proceso de
reconocimiento? (llave que abre el diccionario)
Desde el punto de vista de la percepción esta "llave" debe ser la unidad
lingüística mínima a partir de la cual se dan constancias perceptivas fiables.
(desaparece la ausencia de invarianza perceptiva).
También se conoce como "código de acceso", "representación de acceso" o
"representación de contacto".
No tiene porque ser la palabra entera, pero al menos en el lenguaje hablado
tiene que ser más que la unidad mínima de representación lingüística.
La mayor parte de los investigadores coinciden en que tanto en habla como
en lectura, el acceso al léxico mental está guiado por la porción inicial de la
palabra, que se supone portadora de la información más relevante.
Una prueba de esto es que las palabras habladas suelen reconocerse en
tiempos mas breves de lo que dura su emisión completa y los errores fonéticos
que se cometen al hablar se detectan mas fácilmente si afectan a la porción
inicial de la palabra.
Aún así, no hay que pasar por alto otros factores que pueden condicionar la
importancia de la porción inicial de la palabra en el reconocimiento léxico;
por ello hay diversas hipótesis sobre la identidad del código de acceso al
léxico.
1. Modelos de una representación abstracta y relativamente superficial
Algunos modelos hablan de una representación abstracta y relativamente
superficial que facilita la puesta en marcha del reconocimiento
Esta representación es constante (no depende de características idiosincráticas
de la palabra, longitud, frecuencia o numero de palabras con que guarde
semejanza- "vecinos" de la palabra).
Entre las unidades que se han propuesto como código de acceso están:
i. Unidades fonémicas individuales. (Pisoni y Luce)
ii. Sílaba inicial (Mehler, segui)
iii. Sílaba ortográfica (taft)
iv. Porción acentuada de la palabra.
v. Rima (Grosjean y Gee).
2. Representaciones de Acceso en el Reconocimiento Léxico
Hay representaciones de acceso en el reconocimiento léxico, pero pueden
diferir de unas palabras a otras en función de "propiedades de la entrada
léxica" (de las características idiosincráticas de la palabra en oposición al punto
1.)
Autores como Marslen-Wilson y Tyler dan gran importancia a la porción
inicial de la palabra; en concreto a los 150 primeros milisengundos;
aunque "no se puede hablar de una unidad fija lingüísticamente definida que
sirva como representación de acceso; cada palabra representa un punto
óptimo de reconocimiento o unicidad y a partir de este momento se reducen
los posibles candidatos a entrada léxica".
3. Procesos de Reconocimiento
Los procesos de reconocimiento ocurren directamente, sin mediación
lingüística entre la señal acústica y la entrada léxica, operarían mediante la
acumulación de información acústica (Klatt) ó acústica y contextual (Morton,
Elman y Mclelland), así se activarían las representaciones almacenadas en la
memoria léxica del sujeto.
En estos modelos el problema de la ausencia de invarianza es desplazado hasta
su nivel léxico de procesamiento.
Si se habla de un código de acceso para el reconocimiento de palabras habrá
que explicar como se obtiene el código y cómo se utiliza para llegar a la entra
léxica.
Los modelos que postulan un código de acceso explican su obtención
por "segmentación o fragmentación" de la entrada sensorial en unidades
lingüísticas discretas.
Hay ciertos trabajos sobre los procesos de segmentación en el acceso al léxico:
Unos destacan el papel de la sílaba como unidad de segmentación y como
código de acceso en el reconocimiento léxico.
Experimentos de detección de sonidos y sílabas auditivas (Mehter) hablaron
que el tiempo necesario para detectar una secuencia CV de una palabra era
menor si la secuencia constituía una sílaba de la palabra de la que formaba
parte que si la secuencia no correspondía una sílaba de la palabra en cuestión
y a la inversa.
Los primeros estudios en francés con francoparlantes mostraron
silabificación, tanto con materiales en francés como en inglés. No hubo
silabificación con angloparlantes tanto en inglés como en francés; tenían
tiempos de reacción menores tanto con secuencias CV que con CVC.
Se llegó a la conclusión con estos estudios de que las estregias de segmentación
del habla para el reconocimiento léxico y el tipo de código empleado no
siguen pautas universales sino que dependen de las características
idiosincráticas del sistema fonológico de la lengua materna de los oyentes. Las
lenguas con estructura silábica regular facilitan el uso de la sílaba como código
de acceso, mientras que las de estructura silábica irregular o ambigua ignoran
este tipo de unidad lingüística. El oyente no sólo aplica las estrategias de
segmentación propias de la lengua materna en su lengua, además las extrapola
hacia lenguas de características fonológicas distintas.
En cuanto a reconocimiento visual el código de acceso es la sílaba ortográfica
que es igual a la sílaba fonológica más tantas consonantes como permitan las
reglas ortográficas y morfológicas del idioma.
En los primeros estudios de reconocimiento visual de palabras en inglés la
segmentación basada en la sigla ortográfica reconocía en tiempos menores que
la basada en la sigla fonológica.
Estos resultados no se han podido repetir en lenguas de silabificación regular.
Estudios en castellano manifiestan la superioridad de la sílaba fonológica
sobre la ortográfica para el reconocimiento de palabras.
MODALIDADES SENSORIALES
Evidencia experimental.
Pese a las inconsistencias teóricas hay pruebas de medicación fonológica
palabras escritas:
1.- Una prueba es que las palabras de ortografía irregular tardan más en ser
reconocidas. (No sería así si ambas clases de palabras fueran reconocidas
indistintamente a través de la ruta visual.)
2.- En un conocido experimento de reconocimiento léxico (Lewis y
Rubesnstein) los lectores tardaban mas en rechazar "pseudo-
homófonos" (pseudo-palabras que se pronuncian de forma idéntica a la
palabra real) que "pseudo-palabras".
Se interpretó como indicio de que se identifica a partir de la pronunciación
de la palabra.
3.- Mayor, Schvameveldt y Urdí pedían a los sujetos que respondieran a pares
de estímulos, algunos formados por palabras de ortografía semejante que
además rimaban y otros con ortografía semejante pero sin rima.
Los juicios léxicos más rápidos fueron en los pares ortográfica y
fonológicamente semejantes.
Se han juzgado estos datos (Garnham y Forster) como pruebas que muestran
recodificación fonológica sólo de forma indirecta y circunstancial ya que las
tareas a realizar pueden incluir procesos posteriores al propio proceso de
reconocimiento como tal.
Por eso estos datos no demuestran claramente que la recodificación sea un
proceso obligatorio para identificar palabras escritas, (aunque pueda ser una
estrategia de apoyo cuando el sistema visual de acceso fracasa y puede que
desempeñe un papel relevante en procesos post-léxicos de comprensión de
oraciones, al permitir primero un acceso visual y luego uno fonológico al
estímulo evitando que haya que retroceder constantemente en la lectura;
Foster).
Por otra parte y aunque se apoye la ruta fonológica, no excluye que pueda
haber uso de la ruta visual de acceso al léxico.
Las pruebas a favor de la ruta dual (independencia de ruta visual y fonológica
de acceso al léxico) vienen de dos fuetes:
1.Estudios experimentales: Estudio de Kleiman con dos tareas simultáneas:
· Clasificar palabras visualmente; unas veces decir si dos palabras tenían
significados parecidos o estaban semánticamente relacionadas y otras
vecesdecir si dos palabras rimaban.
· Mientras realizaban estas tareas tenía que repetir en voz alta una
secuencia de números que escuchaban por unos auriculares.
Se observó que la repetición de números (tarea que probablemente requiera
recursos fonológicos) interfería con los juicios de rima pero no con los
semánticos, lo que indica que el acceso del código fonológico es necesario
para realizar eficazmente ciertas clases de tareas en la lectura pero no todas.
Otros estudios muestran que las diferencias en el tiempo de reconocimiento
de palabras regulares e irregulares desaparecen si son palabras de alta
frecuencia (Seidenberg) y cuando se induce a los sujetos a responder con
rapidez (Stanovich y Baner); esto es, cuando se obstaculizan los procesos post-
léxicos de apoyo que parecen ser los responsables de la recodificación
fonológica.
2. Trastornos neurológicos de la lectura. (dislexias)
La sintomatología de las dislexias originadas en una lesión neurológica local
presenta pautas altamente selectivas y complementarias de déficit y
conservación:
· Algunos parecen tener inutilizada la ruta visual aunque está
prácticamente intacta la fonológica (dislexia superficial) y son incapaces
de leer correctamente las palabras regulares, se confunden entre
palabras homófonas y hacen regulares las palabras ortográficamente
irregulares; pero leen sin problemas las palabras regulares y las psudo-
palabras.
· La dislexia fonológica hace que les sea difícil leer palabras
infrecuentes o desconocidas (que requiere análisis fonológico) mientras
que leen normalmente las palabras familiares. Se dice que es un
trastorno selectivo de la ruta fonológica y sólo se usa la ruta visual.
· Finalmente, los disléxico-profundos no pueden leer pseudo-palabras
y cierto tipo de palabras (verbos y palabras con significado abstracto) y
cometen errores semánticos de sustitución de palabras. Es un trastorno
de tanto alcance que no es pertinente para discriminar las rutas de
acceso al léxico.
La mayoría de los autores hablan de la coexistencia de dos rutas de acceso,
una léxica o visual y otra fonológica (no léxica) y el empleo de una u otra
depende de varios factores tanto léxicos como idiomáticos;
En lo que a factores léxicos se refiere, las palabras más frecuentes se
reconocen por la ruta visual y las menos frecuentes o desconocidas por la
fonológica. Las irregulares por la visual.
En lo referente a factores idiomáticos y teniendo en cuenta que hay lenguas
ortográficamente transparentes y opacas, señalaremos que cuanto mas opaca
e irregular mas fácilmente se accederá por una ruta directa = visual y viceversa.
Finalmente, se supone que según aumenta la destreza lectora del individuo se
van abandonando las estrategias analíticas de la lectura y se van automatizando
los procesos de acceso individual a las entradas léxicas almacenadas en la
memoria.
COMPRENSIÓN DE ORACIONES
Por muy amplio y sofisticado que sea nuestro conocimiento léxico y por muy
rápidos y eficaces los procesos o estrategias que empleamos en recuperar el
significado de las palabras, todo ello sería de escasa utilidad si no tuviéramos
al mismo tiempo la capacidad de organizar o combinar los significados léxicos
individuales en unidades más complejas como las oraciones, y de analizar e
interpretar estas unidades complejas de significado mediante las cuales
representamos transmitimos hechos e intenciones comunicativas a nuestros
interlocutores.
El acceso al significado de las palabras que integran estas oraciones es
condición necesaria, aunque no suficiente para comprender su significado. Se
trata de elaborar una representación mental del contenido proposicional de
los mensajes, entendiendo por ello una representación que especifique los
predicados, o sea, las acciones, sucesos o relaciones descritos por la oración y
los argumentos o papeles que desempeñan los conceptos o entidades que
participan en tales acciones o sucesos.
Para comprender una oración es necesario emplear conocimientos y
estrategias que van más allá de la mera combinación de significados léxicos
individuales con arreglo a estrategias heurísticas y restricciones conceptuales y
de conocimiento mundano: es necesario analizar también la estructura de los
mensajes.
Estos mecanismos son en su mayoría inconscientes y operan de forma
automática y muchas veces predictiva, lo que a veces puede inducir a error:
cuando el sistema de comprensión cree descubrir una expresión estructural y
semánticamente completa tiende a dar por terminada e interpretada la
oración. Sin embargo, al recibir el fragmento siguiente, el procesador advierte
que este fragmento debe ser adjuntado a la oración en curso, por lo que se ve
obligado a revisar su interpretación inicial y elaborar una nueva (Oraciones de
vía muerta o garden path: ej.: A Pedro le secuestró un gángster su novia)
Resumiendo, los procesos semánticos de asignación de argumentos o papeles
temáticos a las entidades de la oración mantienen una dependencia directa
con respecto a los procesos de análisis de la estructura.
Uno de los problemas más importantes de la comprensión de oraciones es
precisamente el de determinar las relaciones que existen entre estas dos clases
de proceso, o sea, el grado de autonomía o de dependencia entre ellos.
Sin embargo, es necesario considerar otro tipo de demandas cognitivas no
menos importantes que las anteriores que plantea la comprensión de
oraciones.
El significado de los mensajes verbales no se agota en su representación
semántica o contenido proposicional, sino que incluye también un
componente pragmático o comunicativo relativo al intercambio de
intenciones entre los interlocutores. En la medida en que la fuerza ilocutiva es
un componente más del enunciado verbal, también ha de ser objeto de
interpretación por parte del sujeto que comprende, y requiere por ello una
explicación psicológica.
Cualquier oración se produce e interpreta en un contexto comunicativo: para
entenderlas no basta con atribuirles una representación semántica de
naturaleza proposicional. En ciertos casos las oraciones carecen de valor de
verdad (interrogativos e imperativos) y en otros muchos difícilmente se puede
interpretar su auténtico sentido (ironía, metáfora) sin tener en cuenta el
contexto conversacional o interpersonal que les rodea. En estos caso, pues,
no cabe hablar tanto de la verdad o falsedad del mensaje, sino más bien de su
adecuación o relevancia dentro de un contexto dado.
Si bien es evidente que para entender esta clase de mensajes sigue siendo
necesario derivar sus estructuras sintáctica y semántica, no lo es menos que
para lograr una comprensión cabal de los mismos hay que trascender su
significado literal y descubrir el sentido indirecto oculto, en definitiva el
significado que interesa.
Para que la comprensión sea efectiva es necesario que hablante y oyente
compartan, además de un código lingüístico común, una serie de
conocimientos extralingüísticos relativos al discurso, situación y estados
mentales del interlocutor. Una teoría de la comprensión del lenguaje debe
abordar estos fenómenos, de lo contrario quedaría excluida la explicación de
la forma en que los humanos interpretamos y producimos actos
comunicativos habituales como peticiones, promesas, ruegos, compromisos,
ironía, humor o metáforas, casos todos ellos de habla indirecta o
pragmáticamente marcada
Hipótesis de la cláusula
Los procesos de análisis de la estructura exigen que los mensajes verbales sean
troceados en unidades adecuadas para su interpretación semántica. El interés
por la naturaleza de las unidades de segmentación se remonta a los primeros
años 60 y respondía al afán de confirmar la realidad psicológica de las
estructuras postuladas por la gramática generativo-transformacional.
La H surgida de los primeros estudios se conoce como Hipótesis de la
cláusula, y se caracteriza por dos postulados:
1) Los mensajes se segmentan y organizan en la memoria inmediata del
oyente por cláusulas, es decir, unidades lingüísticas organizadas en
torno a un verbo
2) La información de cada cláusula se va registrando de forma literal y
al término de la misma se efectúa el análisis sintáctico y se codifica el
contenido semántico en un formato más abstracto para almacenarlo en
la MLP
La H (hipótesis) de la cláusula tiene tres implicaciones en materia de
procesamiento:
1) Predicción 1 de que el análisis y la interpretación de cada cláusula
imponen una sobrecarga computacional en torno a la frontera de
cláusula y no durante su recepción.
2) Predicción 2 de que el recuerdo de la cláusula en curso ha de ser
más fiel que el que se conserva de cláusulas previas a ella.
3) Supuesto de que las unidades de segmentación perceptiva en la
comprensión se definen en términos exclusivamente estructurales.
La primera predicción se confirmó en una serie de estudios de comprensión
oral de oraciones con una tarea subsidiaria (mirarse cuadro 10.0 por si acaso)
Los resultados indicaron que cuando la tarea subsidiaria se sitúa hacia el final
de la cláusula, los TR son significativamente más largos que cuando se
introduce en otros lugares del texto; esto sugiere que al término de cada
cláusula el sistema de comprensión tienen que dedicar un trabajo extra a
procesos de integración sintáctica, lo cual le resta recursos atencionales para
efectuar la tarea subsidiaria.
La segunda predicción recibió también apoyo experimental en estudios de
recuerdo inmediato de oraciones. En ellos se halló que el recuerdo del
material verbal se degrada de manera drástica cuando el sujeto tiene que
reproducir literalmente partes del texto que acaba de oír, pues tan sólo es
capaz de retener textualmente en la memoria la información contenida en la
última cláusula percibida.
Respecto a la tercera implicación, numerosos investigadores han puesto en
tela de juicio la idea de que las unidades de segmentación perceptiva del habla
tengan un carácter exclusivamente estructural por dos razones básicas:
Primero, porque la cláusula no sólo codifica unidades sintácticas, sino
también unidades conceptuales, siendo muchas veces imposible
establecer una clara distinción entre las primeras (que se definen en
virtud relaciones gramaticales) y las últimas (que se constituyen en
términos funcionales)
En segundo lugar, porque la tendencia a segmentar el texto por
cláusulas depende, a su vez, de un número de factores ajenos a la
cláusula, entre ellos el grado de cohesión o dependencia entre
cláusulas, o la posición relativa de las cláusulas subordinada y principal,
en el caso de oraciones compuestas con subordinación. Se ha
observado que las cláusulas con mayor dependencia tienden a
procesarse de forma más integrada que las que gozan de mayor
autonomía; de forma similar, en las oraciones con subordinación, la
anteposición de la cláusula subordinada a la principal minimiza el
efecto perceptivo de la cláusula, ya que la interpretación de la cláusula
principal puede verse afectada por el contenido de la subordinada pero
no a la inversa.
POSTURA INTERMEDIA
Estrategias estructurales
Según los defensores de modelos autónomos los efectos conductuales de los
fenómenos de vía muerta o de ambigüedad estructural ponen de manifiesto
que el procesador sintáctico opta por asignar el primer análisis disponible,
utilizando para ello estrategias de carácter estructural y con entera
independencia de las características semánticas de mensaje.
La estrategia utilizada en cualquier oración que produce un efecto de vía
muerta es la denominada estrategia de "adjunción mínima": el procesador
debe optar siempre por la estructura menos compleja de todas las posibles,
aquella que postule menos nodos sintácticos potencialmente innecesarios
Otra de las estrategias empleadas en el análisis sintáctico afecta a decisiones
relativas al cierre o terminación de las cláusulas. En casos de ambigüedad
transitoria los lectores suelen optar inicialmente por adjuntar un constituyente
potencialmente ambiguo a la cláusula en curso, estableciendo un cierre tardío
de la misma, en lugar de asignarle el papel de sujeto de la cláusula
subsiguiente, originando así un cierre temprano de la primera
cláusula.("Mientras el granjero cocinaba [el pollo]se escapó del corral") La
estrategia de cierre tardío produce a veces efectos opuestos a la adjunción
mínima, por lo que ambas pueden entrar en conflicto.
A la estrategia de cierre tardío se le llama también "principio de asociación a
la derecha", dado que tiende a asociar cada nuevo nodo de constituyente al
nodo inmediatamente anterior, situándolo a la derecha de éste y en el mismo
nivel jerárquico en la estructura.
A fin de determinar qué estrategia predomina en caso de conflicto, se han
llevado a cabo estudios con distintas clases de estructuras e incluso
comparando distintas lenguas. Aunque la evidencia obtenida es insuficiente,
la preferencia por una determinada estrategia parece depender del tipo de
construcciones a la que se aplique y, sobretodo, de las peculiaridades de cada
idioma.
Una tarea sintáctica que también puede enfocarse desde la perspectiva de las
estrategias de procesamiento es el ligamiento de categorías vacías (capítulo 5),
que consiste en la asignación de constituyentes sintácticos a las huellas que
aparecen en la estructura superficial del enunciado como resultado de la
aplicación de la regla transformacional "muévase".
Según los modelos de análisis sintácticos inspirados en la teoría de reacción y
ligamiento de Chomsky, para que una oración con un elemento desplazado
pueda ser correctamente interpretada, es preciso que el elemento desplazado
sea ligado o asociado con la posición que ocupaba en la estructura profunda,
y que deja una huella o categoría vacía en la estructura superficial.
En principio esta formulación del problema respondía a postulados de la
teoría lingüística para dar cuenta de ciertas propiedades estructurales de la
oración; se trataba de un problema de competencia lingüística, por lo que no
exigía que las categorías vacías tuvieran entidad psicológica, ni tampoco que el
proceso de ligamiento tuviera lugar sobre la marcha, durante la recepción del
enunciado por parte del sujeto.
No obstante, hay pruebas de que la asignación de antecedentes a éstas y otras
clases de categorías vacías es, en efecto, un proceso que tiene lugar sobre la
marcha durante la comprensión de oraciones. Varios autores han hallado
indicios de que en el momento de detectar la huella sintáctica la información
asociada a esa huella se halla más activada o está más disponible para el sujeto
que otros tipos de información
Por ejemplo, utilizando el paradigma de priming transmodal observaron que
los TRs a una palabra visual relacionada con el SN antecedente eran
significativamente más breves que a una palabra no relacionada con el
antecedente de la categoría vacía, siempre y cuando la presentación de la
palabra visual se hiciera simultánea con la posición de la categoría vacía en la
oración presentada auditivamente.
En otras palabras, a raíz de la aparición de la categoría vacía se produce una
reactivación transitoria en la memoria inmediata, del constituyente sintáctico
al que va ligada dicha categoría. Resultados similares se han obtenido en otros
estudios.
Estos datos proporcionan evidencia psicológica de la operación de ligamiento
de categorías vacías, pero no nos informan directamente de cuáles son las
estrategias empleadas. Para eso es necesario plantear situaciones de conflicto,
problemas de análisis que obliguen al sujeto a elegir entre diferentes
estrategias. Una de estas situaciones es la asignación de antecedentes a dos
categorías vacías incluidas en una misma oración.
Empleando oraciones de este tipo, Frazier, Clifton y Randall llevaron a cabo
un experimento para determinar si el proceso de asignación de antecedentes
a categorías vacías de ve afectado de algún modo por la distancia que media
entre ambos, o sea, por la posición relativa que ocupa el antecedente con
respecto a la huella sintáctica.
La H era que la estrategia cognitiva lleva una menor carga computacional para
el sujeto y, por consiguiente, la estrategia preferida es la de asignar
automáticamente la huella al antecedente más próximo. Así los casos en que
esta estrategia no sea operativa plantearán mayores dificultades de
interpretación. Utilizando una tarea de juicios acelerados de
comprensibilidad, hallaron que si se mantienen constantes otros factores, las
oraciones cuya interpretación requiere la estrategia del antecedente más
reciente recibían respuestas más rápidas que las que requieren la estrategia del
antecedente distante.
Uno de los postulados más cuestionado de los modelos autónomos de
procesamiento sintáctico es la idea de que las estrategias empleadas en el
análisis sintáctico son de carácter estructural. El argumento lógico en defensa
de este postulado se basa en consideraciones de economía de procesamiento:
al ser el procesador del lenguaje un sistema de capacidad limitada, tiene que
buscar un compromiso entre la rapidez y la eficacia en el procesamiento para
poder explotar al máximo sus recursos, lo que le obliga a tomar decisiones a
la mayor brevedad, muchas veces en ausencia de suficiente evidencia
confirmatoria. Dado que la información semántica potencialmente relevante
para optimizar esas decisiones es difícil de delimitar a priori, resulta más
oportuno postular unas rutinas automáticas que funcionan a partir de
información sintáctica, mucho más limitada.
Frente a esta postura, los modelos interactivos insisten en que la información
semántica presente en el contexto de la oración o del discurso se encuentra
igualmente accesible al procesador sintáctico, guiando o dirigiendo de
antemano la elección de estrategias de análisis. Bajo esta H se han propuesto
diversas estrategias no estructurales que interactúan con la información
sintáctica en la toma de decisiones.
PROCESADORES CONEXIONISTAS
EL EFECTO DE NIVELES
MACROESTRUCTURAS Y TEMAS
Intenciones y discurso
La primera idea a destacar en una caracterización psicológica del discurso, en
tanto que forma de actividad lingüística es, la de su carácter intencional. Que
las personas por lo general hablan "para algo" y que lo que dicen posee un
carácter instrumental respecto a ese «algo». A partir de la obra de Austin
(1962), a la intención comunicativa con la que se inicia que es realizada por,
una emisión lingüística suele llamársele «componente o fuerza ilocutiva de una
emisión.
A las emisiones que realizan intenciones comunicativas se las denomina,
siguiendo la tradición de los filósofos del lenguaje inspirados en Austin, «actos
de habla» (ej. Searte, 1969, 1975), siendo este uno de los conceptos muy
desarrollados por los filósofos del lenguaje.
Sin embargo, aunque, Levelt (1989) decía que los actos de habla (y su
componente de definición más característico: la "fuerza ilocutiva") parecen
expresar nociones "centradas en el hablante", estos conceptos no llegan a
proporcionar, por sí mismos, claves de explicación psicológica, es decir, claves
que informen de las representaciones y los procesos mentales que posibilitan
la realización, por parte de los hablantes, de actos de habla comunicativamente
eficaces. ¿Cuáles pueden ser estas claves?
Para encontrar estas claves, los teóricos de la Inteligencia Artificial, han
considerados los actos de habla, como casos prototípicos de «conducta
orientada a metas» o como casos de «solución de problemas guiados por
objetivos que implican la construcción de planes por parte de un sistema
inteligente. Los planes, por su parte, han sido concebidos como
representaciones simbólicas que pre-especifican la secuencia de acciones que
tal sistema debe realizar en orden a la consecución de las metas u objetivos
previamente definidos.
Las descripciones formales de los planes desarrollados por los teóricos de la
simulación para la explicación de los actos de habla y de otras conductas
intencionales han tendido a articularse en torno a tres núcleos
computacionales básicos, estos son:
a) Conocimiento factual del que dispone el sistema, es decir, una base de
conocimientos o conjunto de descripciones simbólicas referidas al estado
actual del mundo o de algunos de sus dominios. El conocimiento que los
sujetos tienen del mundo es un conocimiento complejo, de tipo declarativo,
que consta de tres elementos:
a.1) conocimiento general o enciclopédico del mundo
a.2) conocimiento de la situación comunicativa en que se realiza el
discurso
a.3) conocimiento de los modelos de mundo que poseen los
interlocutores.
Desde un punto de vista computacional, estos modelos incluyen dos tipos de
componentes:
- Uno esquemático y general: el que cada uno tiene sobre sus
interlocutores por el hecho de ser personas.
- Otro con conocimientos o metarrepresentaciones, más episódicas y
cambiante acerca de los conocimientos, las creencias y los deseos
actuales de los interlocutores concretos, en cada momento, lo que
Premack y Woodruff ha venido llamando teoría de la mente.
b) Un conjunto de operadores o acciones, que son procedimientos
parametrizados que permiten al sistema influir sobre el estado del mundo y
modificarlo. Los parámetros son fundamentalmente tres:
b).1- Sus condiciones de aplicabilidad, las llamadas pre-condiciones,
que deben darse para que las acciones puedan ejecutarse.
b).2- Los efectos que pueden derivarse de su ejecución, que deberán
contrastarse con ls metas perseguidas.
b).3- Los medios a través de los cuales puede el sistema ejecutar sus
acciones.
c) Un sistema o motor de inferencias que permite establecer
correspondencias entre los dos componentes anteriores. Este sistema de
inferencias suele identificarse con un conjunto de reglas definidas en forma
de pares "condición-acción" similares a los descritos por Anderson (1983) en
los llamados "sistemas de producción"
Dado un estado inicial del mundo (I), y un estado objetivo (O), un plan sería
la secuencia de acciones, que permite transformar (I) en (O) En ese, sentido,
la producción de un discurso, podría ser vista como la realización de una serie
de acciones lingüísticas planificadas por un sistema, como respuesta al intento
de consecución de un objetivo comunicativo.
Así los actos de habla individuales actúan como operadores parciales de que
se sirve el sistema para lograr objetivos, los discursos son interpretables como
conjuntos de actos de habla previamente planificados que se ejecutan uno a
uno en orden a la consecución de una meta.
Últimamente, numerosos investigadores han demostrado que actos de habla
básico tales como peticiones, por ejemplo, pueden ser modelados como
operadores de un sistema de planificación especializado en la consecución de
objetivos no lingüísticos a través de acciones lingüísticas. Podemos comentar
algunos de los supuestos que han sido más influyentes en la elaboración de
teorías psicológicas de la producción de los discursos naturales:
a) Funcionalmente los actos de habla deben de ser vistos, en opinión
de los teóricos de Inteligencia Artificial como operadores que afectan
primariamente a los modelos que tienen los hablantes y los oyentes de
si mismos Para ello se apoyan en lo dicho anteriormente sobre la teoría
de la mente, el conocimiento factual,( punto a) de la página anterior etc.
uno de los tres núcleos computacionales básicos.)
b) Para un sistema inteligente, la generación de un plan presupone la
elaboración de un objetivo, esto es de una representación relativa a un
estado no actual y deseable del mundo, que puede ser alcanzado
mediante la realización de ciertas acciones. La deseabilidad no puede
ser evaluada computacionalenmente en términos precisos y / o
discretos. Black et al (1983) ha dejado constancia, (a través de la
descripción estructural de las conversaciones naturales) de que en un
mismo discurso existen planes entrelazados, y que se suele intentar
realizar simultáneamente más de un objetivo comunicativo. Por lo que
la planificación de los discursos parece imponer al hablante la
realización de operaciones de cómputo (quizás no conscientes) relativas
a la priorización interna de sus objetivos, para alcanzar eficacia
comunicativa.
c) Los planes subyacentes a los actos de habla definen secuencias de
acciones a realizar para la consecución de una meta. La definición de
los planes del discurso se sitúa en un plano computacional incompatible
con el plano fenomenológico, cabe suponer que el hablante puede
tener un cierto conocimiento fenomenológico de su intención
comunicativa, pero nunca de la representación simbólica del plan que
computacionalemte determina su realización efectiva.
d) La definición de los mecanismos de inferencia que guían la ejecución
de los planes globales y la de sus correspondientes subplanes constituye
también objeto de una teoría computacional de los actos de habla
basados en la noción de plan
e) El fracaso de alguna de las submetas o la decisión de realizar una
submeta incompatible con el objetivo global, se entiende obliga al
sistema a revisar su plan y a planificar una secuencia nueva de acciones.
En este sentido, algunos autores han interpretado que los fallos
proporcionan al sistema información de utilidad para predecir qué
alternativas de acción pueden ser las eficaces en el futuro. Ello equivale
a afirmar que la actividad de producción del discurso es una actividad
que implica una posibilidad de autorregulación en base al análisis de
los resultados obtenidos en actividades previas (retroinformación) La
especificación del modo en que opera este dispositivo funcional debe
de formar parte también de una teoría computacional del discurso.
f) Las teorías de los actos de habla basadas en planes definen la
capacidad de los hablantes para elaborar planes alternativos que
pueden ser apropiados para la realización de una cierta intención
comunicativa. La explicación de los mecanismos que regulan la
selección de uno u otro plan formaría parte de una teoría de
la actuación. Aunque todavía no en ninguna teoría completa de este
tipo, sí existen intentos por identificar sus componentes básicos. Entre
ellos uno que se menciona con cierta frecuencia es que la selección final
entre planes alternativos se deriva de la evaluación que realiza el
hablante de la probabilidad de que su intención comunicativa pueda
ser reconocida e identificada adecuadamente por el interlocutor.
Diversos autores( Sperber Wilson (1986)) están de acuerdo al
manifestar que las conductas intencionales comunicativas no solo
realizan intenciones, además hacen manifiesta a otros la intención de
comunicar algo. Este carácter ostensivo que poseen las conductas
comunicativas es tan importante como su carácter intencional primario
de cara a una caracterización computacional (y por tanto psicológica)
de los discursos.
COHESIÓN
El concepto de cohesión, "ha sido creado para explicar relaciones que se dan
en el discurso... La cohesión se refiere al conjunto de recursos. que permiten
vincular una oración con las que se han presentado antes en el texto" Halliday
y Hasan (1976).
Dichos recursos, incluyen marcas morfosinticas especificas (ej. mecanismos
de coordinación, subordinación gramatical concordancias, etc.), pero,
también, mecanismos tales como las elipsis, la referencia y las repeticiones
léxicas.
Según Halliday y Hasan (1976); la cohesión de los textos es un fenómeno o
propiedad del sistema lingüístico y sólo puede ser entendida desde el propio
sistema lingüístico como instrumento de expresión de ideas. Sin embargo, son
muchos los autores que han cuestionado la utilidad de una interpretación tan
«centrada en el propio texto» como la de los mencionados Halliday y Hasan.
La textualidad, observan. Lanín et al., 1981; Brown y Yule, 1983; Schneuwly,
1985; Chaíka, 1990)., no es una propiedad que pueda ser interpretada sólo
por referencia a la existencia de relaciones gramaticales o semánticas dentro
de un texto. Ni tan siquiera, bajo el supuesto de que ciertas unidades
individuales del discurso (ej. las anáforas) sólo pueden ser entendidas en el
marco de tales relaciones.
La textualidad requiere la referencia a las condiciones semánticas o
pragmáticas y también conceptuales que hacen a las distintas partes del
discurso mutuamente relevantes entre sí en el marco de un contexto
comunicativo intencional y cooperativo; requiere, en definitiva, el recurso a
un plano de descripción más abstracto y menos lingüístico que el de la
cohesión. A dicho 'plano, en términos generales, se le identifica técnicamente
con el llamado plano de la coherencia.
Ejemplos de vínculos de cohesión y sus principales categorías
Categoría Subcategoría Ejemplo
Nos encontramos con
Referencia 1 Pronominal
Antonio y cenamos con él
Fuimos a una fiesta y... bueno,
2 Demostrativa
aquello fue una locura.
Se me acercaron tres tipos
3 Comparativa extraños El más bajo me
preguntó si llevaba fuego
Tiene mucha energía.
Elipsis 1 Nominal Desde luego, tiene mucha
más que yo
Querría quedarme aquí toda la
2 Verbal vida, *dejar de trabajar, *dejar
de aguantar al jefe.
¿Conoces Boston? Yo no, pero
3 De cláusula
mi hermana si *
Leí un libro la semana
Conjunción 1 Aditiva
pasada y me gusto bastante
Querían ir a Barcelona pero el
2 Adversativa
avión no pudo aterrizar
3 Causal No vino porque prefirió ir al cine
Estuve un rato con María, luego
4 Temporal
me fui al Rastro
Mi hermano necesita
Léxica 1 Igual raíz independizarse. Depende
mucho de mi padre,
Siempre miente, además se cree
2 Sinónimo que no nos damos cuenta de que
nos engaña
Me encanta el pescado fresco. El
3
otro día me comí un salmón
Superordinario
extraordinario
Se fue la luz. La lampara de mi
4 Item general
habitación chisporroteó un
momento y después todo se
volvió oscuro
COHERENCIA GLOBAL
Las propiedades básicas del discurso y las razones que inducen a interpretarlo
como forma de actividad intencional, su eficacia viene regulada por principios
como el de la "cooperación", que en intercambios comunicativos naturales, los
humanos elaboran y hacen uso de representaciones cambiantes según con
las personas con las que se comunica (especialmente de los "estados mentales"
de esas personas durante la comunicación, de sus intenciones comunicativas
y de los conocimientos que poseen y/o comparten con el hablante), de
los contextos o situaciones donde se llevan a cabo estas conversaciones y del
contexto lingüístico o discurso previo.
La caracterización formal de la "competencia pragmática o comunicativa", es
decir, los tipos de identificación de representación o conocimientos relativos
al contexto (intrapersonales, físicos o lingüísticos), constituyen piezas básicas
para la explicación cognitiva de la actividad lingüística como la construcción
de teorías sobre el conocimiento gramatical y su uso o sobre el conocimiento
general del mundo en la interpretación de los discursos y oraciones.
La dificultad que implica el intento de formalizar los aspectos más centrales y
contextual izados de la actividad lingüística, no existe ningunas propuesta que
constituya una "teoría explicativa" de la producción de discursos y
conversaciones.
Pese a esa inexistencia, de teorías psicológicas completas que expliquen
cognitivamente la `producción de discursos y conversaciones en contextos
comunicativos naturales,, existen propuestas y alternativas de procedencia
disciplinar heterogénea que abordan esta problemática.
Algunas de ellas relativas a los tipos de representaciones implicadas en la
realización de discursos y conversaciones eficaces; otras establecen hipótesis
sobre la naturaleza y/o funcionamiento de los procesos. En este apartado nos
haremos eco de unas y otras y comentaremos algunos datos evolutivos que
pueden aclarar la naturaleza de las representaciones que componen la
competencia pragmática y sus semejanzas y diferencias respecto a las que
componen la competencia lingüística y gramatical.
COMPONENTES REPRESENTACIONALES
NATURALEZA DE LA EMOCIÓN
Las emociones constituyen fuerzas poderosas que ejercen una gran influencia
sobre la conducta del hombre y de los animales.
El término emoción como concepto psicológico lo encontramos en áreas de
estudio tan diversas como la psicología general, la psicología clínica, la
psicobiología, la etología o la medicina psicosomática.
No existe todavía una unidad conceptual. Falta una teoría integradora.
La emoción resulta difícil de estudiar en el laboratorio en toda su amplitud
por varias razones. Por un lado existen consideraciones éticas. Por otra parte,
las técnicas de investigación pueden interferir con la emoción objeto de
estudio. Por otro lado, las emociones parece que están más ligadas a aspectos
clínicos y aplicados de la psicología que al estudio científico en el laboratorio.
La psicología científica, sobre todo de enfoque conductista, tiene serias
dificultades para admitir los informes introspectivos y mentalistas sobre los
sentimientos y las emociones.
La palabra emoción proviene de la palabra latina movere (mover hacia fuera).
Se utilizó para referirse a una agitación o perturbación física. Después pasó a
indicar una perturbación social o política. Finalmente, este término, como
indica Young (1961), se utilizó para referirse a cualquier estado mental agitado
y vehemente de las personas.
La emoción no es algo exclusivo del ser humano. Darwin estudió la conducta
expresiva de los animales relacionada con las posturas de sus cuerpos. Utilizó
una metodología observacional. Según Darwin, la expresión de las emociones
a través de cambios corporales y de movimientos específicos tiene una función
adaptativa en la vida del animal, pues sirve de preparación para la acción y
para la conservación de la vida del animal.
Trató también, el tema de lo innato y lo adquirido en la emoción. Muchas
emociones tiene carácter innato. También admitió que ciertas emociones o
gestos son aprendidos.
Las principales funciones son las de adaptación corporal para lo que pueda
venir, de comunicación con nuestros semejantes y de experiencia subjetiva.
Adaptación corporal.
Los cambios producidos a nivel corporal constituyen la función más básica de
la emoción. La expresión corporal cumple funciones adaptativas.
Existen tres sistemas que influyen en la adaptación corporal. Los tres
interactúan entre sí.
1. El sistema nervioso autónomo con dos subsistemas antagónicos, el
sistema nervioso simpático (más activo durante el estado emocional) y
el sistema nervioso parasimpático (que predomina durante el sueño).
2. El sistema endocrino, compuesto de glándulas que segregan
hormonas.
3. El sistema inmunológico, compuesto por células formadas en el
tuétano de los huesos y otras que destruyen las sustancias nocivas para
el cuerpo.
Según Cannon, el sistema nervioso simpático prepara al organismo para
soportar el estrés. Seyle señaló la coordinación existente entre los tres
sistemas. Habló de lo que se llama el síndrome general de adaptación. Pueden
distinguirse tres estadios en la respuesta al estrés. Durante el primer estadio se
produce la sensación de alarma.
La resistencia del organismo disminuye en un primer momento para después
empezar a movilizarse. La glándula suprarrenal segrega adrenalina y
noradrenalina. La respuesta endocrina consiste en hacer que la hipófisis
segregue la hormona ACTH que llega al torrente sanguíneo.
El segundo estadio es el estadio de resistencia. Ya no es necesaria la activación
de los sistemas autónomo y endocrino. Si la situación estresante se prolonga
demasiado se produce el tercer estadio llamado estadio de agotamiento.
Se activan de nuevo los sistemas autónomo y endocrino con el fin de
prolongar la vida por algún tiempo.
Este mecanismo no solo es responsable de la adaptación del individuo para
enfrentarse a las situaciones de estrés, sino que es también capaz de regular el
número de individuos de una población.
Comunicación social.
La conducta de un individuo influye en la conducta de otros de su misma
especie o de otras especies.
La expresión emocional es espontánea en el sentido de opuesta a la
comunicación voluntaria e intencional de carácter generalmente verbal.
Experiencia subjetiva.
Un hecho de conciencia por el cual el sistema cognitivo reconoce el estado
emocional del individuo. El propio individuo está informado de sus
sensaciones y emociones para que pueda actuar en consecuencia.
Las variables dependientes que se utilizan para medir las emociones son
fundamentalmente de tres tipos.
Los cuestionarios y autoinformes.
Las personas contestan a preguntas relacionadas con sus sentimientos y
emociones. Suponen una forma de recogida de información sobre la
experiencia subjetiva del propio individuo que intenta traer a su conciencia
estados internos. Deben ser fiables y válidos.
La fiabilidad hace referencia a la consistencia en el tiempo. La validez se
refiere a que estos instrumentos midan lo que dicen medir.
El uso de medidas conductuales.
Han sido las preferidas desde los enfoques conductistas de acercamiento al
estudio de la emoción. Medidas de conductas motoras que pueden observarse
externamente.
La primera se refiere a la medida de la emocionalidad, generalmente en el
campo abierto. Se suele poner al animal en un espacio nuevo para él. Esta
situación suele causar miedo en el animal.
Otras medidas que se han utilizado están relacionadas con el estudio
experimental de la frustración, tanto en animales como en niños. La respuesta
de frustración se produce cuando un obstáculo impide conseguir un objetivo
que puede satisfacer una necesidad.
La frustración aumenta la agresión, así como la existencia de agresión indica
que ha existido frustración.
Variables fisiológicas.
Registrar los cambios corporales a través de una serie de medidas fisiológicas
periféricas como la respiración, la tasa cardiaca, la conductancia de la piel. Las
medidas conductuales pueden consistir en la típica descripción de la conducta
por parte del experimentador.
Otras técnicas más sofisticadas son las técnicas de evitación activa y pasiva
utilizadas en el estudio del paradigma de la emoción condicionada.
Las medidas psicofisiológicas más utilizadas son:
La respuesta galvánica de la piel. La resistencia de la piel al flujo de la
corriente eléctrica. Esta medida fluctúa constantemente. Cuando se
produce una estimulación nueva se dan cambios en la respuesta
galvánica.
Circulación sanguínea. Las medidas más utilizadas son la presión
arterial y la tasa de pulso sanguíneo.
Tasa de respiración. Se trata de una de las medidas fisiológicas
utilizadas con más frecuencia en el estudio de las emociones.
Hasta ahora se ha sido capaz de diferenciar la intensidad de un cierto estado
de arousal, pero no se ha podido todavía mostrar la existencia de diferentes
patrones de actividad relacionada con las distintas emociones.
Otras medidas implican la estimulación de distintas partes del cerebro. Las
variables que se registran son medidas fisiológicas centrales.
La estimulación puede ser eléctrica o química. Hay diversas estructuras
implicadas en la conducta emocional, tales como el tálamo, el hipotálamo, la
formación reticular, el sistema límbico.
La expresión facial.
Para unos estas expresiones son universales, mientras que para otros
dependen de la cultura.
En los experimentos de Ekman y Friesen se mostraba a los sujetos fotografías
de distintas expresiones faciales a observadores de distintas culturas y les
pedían que indicara cual de las emociones que se presentaban en una lista
correspondía a la expresión mostrada en cada fotografía.
Cinco culturas diferentes coincidieron al asignar una emoción a cada una de
las cinco caras mostradas en las fotografías. Se concluyó que las expresiones
faciales eran universales.
TEORÍAS DE LA ACTIVACIÓN
TEORÍAS DE LA EVOLUCIÓN