You are on page 1of 12

Capítulo 5

Procesamiento del lenguaje

5.1 Comprensión de oraciones

5.1.1 ¿Cómo estudiamos la comprensión de oraciones?

Comprender una oración va más allá de comprender la suma de los significados


individuales de las palabras que la componen. En efecto, además de la
información que porta cada ítem, hay que identificar la información - semántica -
del conjunto sobre los roles temáticos, es decir qué persona u objeto realiza una
acción, sobre quién o sobre qué, en dónde; qué persona u objeto experimenta
un estado, sufre un proceso, etcétera; también la información sinstáctica sobre
qué adjetivos o frases preposicionales modifican a qué sustantivos, a qué o
quién refieren los pronombres; cuál es el alcance de los cuantificadores. Estos
aspectos conforman el contenido proposicional de una oración. En la
comprensión se trata, entonces, de elaborar una representación mental del
contenido proposicional, es decir, una representación que especifique las
acciones, sucesos o relaciones descriptos en la oración y los papeles que
desempeñan los conceptos que participan. En definitiva, las referencias y
predicaciones contenidas.

¿Cómo estudiar estos procesos de recuperación de la información léxica,


sintáctica y semántica? ¿Cómo se integra esa información en una única
representación? Las tareas experimentales más comunes que se usan para
investigar la comprensión de oraciones se dividen en dos:
a) procedimientos simultáneos (on line) y
b) procedimientos sucesivos (off line).
Entre los procedimientos simultáneos describimos:

144
El seguimiento: la tarea que debe realizar el sujeto informante consiste en
repetir en voz alta - a medida que las va escuchando - una secuencia de
oraciones; el investigador le ha dado la consigna de que realice esta actividad lo
más rápido posible. Lo que se mide es el desfasaje temporal que se produce
entre la entrada del estímulo y la reproducción efectiva por parte del informante;
al mismo tiempo se controlan los errores que pudiera cometer.
Las tareas transmodales: se le presenta a los sujetos una frase dentro de un
contexto lingüístico adecuado, por vía oral; al mismo tiempo - o al finalizar la
emisión - se le presenta una palabra considerada crítica por vía escrita. El
sujeto informante debe reconocer esa palabra - lo indica en un comando del
teclado - o debe leerla en voz alta lo más rápido posible. Se mide el tiempo de
latencia, es decir, el tiempo que tarda en realizar la tarea.
La detección de estímulos o monitoreo: el sujeto informante debe presionar
un botón o tecla cada vez que identifique, dentro de una secuencia de
enunciados, algún estímulo (puede ser una sílaba, un fonema o incluso un ruido)
que el investigador le haya informado con anterioridad que debe aparecer. Esta
técnica supone dos tareas simultáneas: 1) la comprensión auditiva y 2) la
identificación de este elemento externo. El tiempo de detección, que es la
variable a evaluar en la respuesta, es un indicador de la carga de procesamiento
del sistema, es decir, cuán "ocupado" está en el momento en que aparece el
estímulo que debe identificar.
También se han utilizado estudios de movimientos oculares para investigar la
comprensión de oraciones cuando el estímulo es visual. Mientras leemos,
nuestra mirada se desplaza por el texto de izquierda a derecha, y este
desplazamiento no es uniforme sino que avanza a saltos. Es decir, la mirada se
detiene en lugares sucesivos a gran velocidad. Estos movimientos discontinuos
son llamados movimientos sacádicos y las detenciones en un punto fijo,
fijaciones oculares. El tiempo promedio de los movimientos sacádicos es de
entre 25 y 50 mseg., mientras que las fijaciones, que sirven para registrar una
porción de texto, duran entre 200 y 250 mseg. Además se dan regresiones, o

145
sea, un avance en sentido inverso, una vuelta atrás para revisar nuevamente
ciertas zonas ya leídas. La información que se puede extraer a partir de esta
técnica de registro en cuanto a los procesos de comprensión escrita es la que se
relaciona con: 1) la distribución de las fijaciones, es decir, los puntos en que se
detiene la mirada y las unidades lingüísticas en las que recaen; 2) la duración,
que se considera indicio de la complejidad implicada en esa operación cognitiva
y 3) la cantidad de texto que abarca cada fijación ocular y qué información
media entre cada una de ellas.
La tarea consiste en presentar material escrito en una pantalla y la consigna
para el informante es que debe efectuar una lectura comprensiva del mismo.

Entre los procedimientos sucesivos, podemos citar:


Las tareas de juicio: se le solicita al sujeto que emita un juicio acerca de un
estímulo verbal que es presentado. Estos pueden ser de:
 verificación del valor de verdad, es decir, si lo que lee o escucha es
verdadero o falso;
 de gramaticalidad, es decir, si la oración propuesta es correcta o incorrecta
desde el punto de vista gramatical. Así, uno podría presentarle oraciones de
este tipo El coche que está en la esquina es de mi hermano o *El perro que
come la carne son de raza. En el segundo caso el informante debe relevar la
falta de concordancia entre el núcleo del sujeto y el verbo principal de la
oración, determinando así que no es correcta.
 de sinonimia. Se presentan dos oraciones como por ejemplo, Ese hombre
trabaja en una empresa como gerente general o Ese sujeto es un directivo
importante de una multinacional y el informante debe decidir si ambas se
refieren a la misma idea o no.
También puede usarse la producción de paráfrasis, que consiste en pedir al
sujeto que proporcione una oración sinónima a una presentada previamente.
Las tareas mencionadas pueden realizarse con restricciones temporales (con
medición de tiempo de reacción) o sin límites.

146
Además para investigaciones que se interesan en estudiar los procesos de la
memoria se realizan tareas de reconocimiento y recuerdo, que se detallarán
cuando tratemos la cuestion de la comprensión de textos.

5.1.2 Estrategias de análisis de oraciones

Tradicionalmente se ha sostenido que la tarea de comprensión de oraciones


requiere de dos procesos mentales específicos: el análisis sintáctico y la
interpretación semántica. El análisis sintáctico - o parsing - consiste en
asignar un estructura a los constituyentes de la oración. Para eso es necesario
reconocer las relaciones estructurales entre las palabras y el sintagma. La
interpretación semántica implica la asignación de papeles temáticos a estos
constituyentes oracionales.
Los primeros trabajos experimentales realizados tenían como supuesto teórico
las reglas generativo transformacionales propuestas por Chomsky (1957,
1965). Este supuesto teórico sostenía que en los procesos de comprensión que
realizan los hablantes, de alguna manera, se recorrían en sentido inverso estas
reglas para acceder a la estructura profunda de la oración. Con esta idea, se
comenzó a buscar correlaciones entre la complejidad transformacional de las
oraciones y ciertos parámetros de los procesos psicológicos implicados, como,
por ejemplo, el tiempo de latencia en el reconocimiento. Algunas primeras
experiencias mostraron que esto podía ser así: a mayor complejidad
transformacional mayor carga de procesamiento y, por lo tanto, mayor
necesidad de tiempo.
Así, una oración del tipo Sujeto - Verbo - Objeto en voz activa debería ocupar
menos tiempo para ser comprendida que su correspondiente pasiva, porque
esta última necesita más reglas para ser generada, precisamente las que
provocaron su transformación en pasiva. Como ejemplo, una oración como
María fue besada por Luis
requeriría más tiempo para ser procesada que

147
Luis besó a María
Sin embargo, pudo demostrarse que esto no era cierto para todas las oraciones
en voz pasiva. Esta supuesta dificultad y - por lo tanto - el tiempo empleado,
podía reducirse. En efecto, las latencias eran menores si se incorporaban
restricciones semánticas y pragmáticas en las oraciones. Por ejemplo, Slobin
(1966) encontró que las oraciones en voz pasiva no requerían mayor tiempo de
procesamiento - la complejidad transformacional predecía que sí lo necesitarían
- si eran pasivas irreversibles, es decir, si uno sólo de los sustantivos podía
cumplir la función de agente. Es el caso, de
La casa fue comprada por Guillermo
en el que, por cuestiones de selección léxica, sólo Guillermo puede realizar la
acción de comprar el objeto casa, a diferencia de los ejemplos anteriores en los
que tanto Luis como María pueden realizar - y recibir - la acción de besar. En
efecto,
*La casa compró a Guillermo
no es gramatical.
La dificultad de procesamiento, es decir, el mayor tiempo empleado puede
atribuirse a que el informante debe identificar quién besó a quién, mientras que
es evidente, desde el punto de vista léxico y semántico quién compró.
Estas experiencias comenzaron a hacer dudar a los investigadores sobre la
necesidad de “desandar” las reglas derivativas y sobre la necesidad de aplicar
obligatoriamente análisis sintácticos a los estímulos para poder comprender las
oraciones; por este motivo, la idea de la autonomía de la sintaxis frente a la
semántica comenzó a ser confrontada.
Hay autores que rechazan de plano la necesidad de realizar este análisis
sintáctico mientras que otros, más moderados, aúnque lo aceptan, destacan la
influencia de las propiedades semánticas y pragmáticas por sobre los procesos
sintácticos. Por esta razón, no consideran que el proceso de análisis sintáctico
sea siempre obligatorio y asumen que sólo se utilizan en casos específicos - por
ejempo, en cierta clase de oraciones ambiguas. Veremos entonces, algunas

148
posturas respecto a cuáles son y cómo operan los procesos involucrados en la
comprensión de oraciones. Nuevamente tendremos modelos autónomos y
modelos interactivos.

Modelos autónomos

La hipótesis de la cláusula (Caroll y Bever, 1976) surge de los primeros


estudios que se interesaron principalmente por conocer cuál era la unidad de
procesamiento durante la comprensión. Los autores proponen que los textos se
segmentan y organizan en la memoria inmediata del oyente por cláusulas, es
decir, unidades lingüísticas alrededor de un verbo; la información presente en
cada una se va registrando en forma literal. Luego, se realiza el análisis
sintáctico y se codifica el contenido semántico en un formato más abstracto –
más ligado al contenido que a la forma - para guardarlo en la memoria de largo
plazo. Así, la memoria operativa queda liberada para seguir procesando las
cláusulas siguientes. Esto significa que sólo una vez percibida la cláusula
completa se realizaría la interpretación. Experiencias realizadas para verificar
estos procesos indican que, efectivamente, el recuerdo literal de la última
claúsula es mejor que el de las cláusulas anteriores.
Supongamos que un informante escucha - o lee - una serie de oraciones;
supongamos también que después de haber recibido el estímulo de la cuarta
oración, le pedimos que la repita. Normalmente no tendrá problemas en hacerlo
sin errores. En cambio, si le pidiésemos que repitiera la primera, podrá
informarnos acerca de qué se trataba - esto es, recuerda el contenido - pero es
muy difícil que pueda recordarla literalmente.
Sin embargo, también se pudo establecer el hecho de que el borrado u olvido
de la información sintáctica recibida con anterioridad no es total si forma parte
de una unidad lingüística mayor, es decir, si no se ha estimulado al informante
con una serie de cláusulas aisladas entre sí, sino con cláusulas pertenecientes
a un texto. Estos resultados muestran que el pasaje de los contenidos

149
semánticos a la memoria de largo plazo no se produce automáticamente guiado
por la división de claúsulas sino que depende también de las relaciones entre
ellas, cuando existen.

Otra explicación posible para la comprensión de oraciones es la que ofrecen


Frazier y Fodor (1978) quienes formulan un modelo computacional que defiende
la autonomía del procesamiento sintáctico frente a las influencias semánticas o
contextuales. En el modelo conocido como la máquina de hacer salchichas,
donde proponen un procesamiento en dos etapas ordenadas secuencialmente.
La arquitectura sobre la que se apoya el procesamiento pretende reflejar las
limitaciones de la memoria de trabajo bajo las que opera el procesador humano.
En la lectura, por ejemplo este sistema inspecciona la oración de izquierda a
derecha y va configurando unidades para asignarles una estructura.
Así, en la primera etapa propuesta funciona un analizador sintáctico de la
estructura superficial; en la segunda un procesador temático que asigna los
papeles temáticos a los constituyentes analizados. El analizador sintáctico, a su
vez, consta de dos componentes. El primero es el empaquetador preliminar de
frases que segmenta la entrada perceptiva en secuencias de constituyentes de
hasta seis palabras. Todos los constituyentes son analizados de modo
simultáneo. El segundo es el supervisor de la estructura oracional que
ensambla y analiza los paquetes que ingresan desde el primer componente.
Este opera con el principio de adjunción mínima, es decir, adjunta cada nodo
nuevo al nodo más alto posible de la estructura ya computada. Según los
autores, el procesador temático sirve de interfaz entre dos sistemas:
a) el analizador de la estructura superficial, encapsulado y específico para el
lenguaje;
b) el sistema cognitivo general, inespecífico, que utiliza otras fuentes de
información como la contextual y la pragmática.
Aúnque el procesador temático es sensible a la información que previene del
sistema cognitivo general, para realizar su tarea el analizador sintáctico no

150
recibe ninguna influencia de estos factores. Es decir, que la sintaxis actúa de
manera autónoma haciendo caso omiso de toda información contextual que
pueda facilitar el procesamiento de la información con la que opera.

Los dos modelos explicados son ejemplos de cómo se llevaría a cabo la


comprensión de una oración y ambos sostienen la necesidad de un análisis
sintáctico y la independencia de éste respecto a cualquier otro factor que
pudiera influir en los procesos de análisis de la estructura del estímulo.

Modelos interactivos

Los estudios de Marslen Wilson y Tyler rechazan la hipótesis de la autonomía


de la sintaxis porque conduce necesariamente a una ordenación serial de los
procesos en distintos niveles, como lo exponen los modelos que explicamos en
el apartado anterior. Es decir, los modelos seriales suponen que debe
completarse primero el análisis sintáctico para que pueda comenzar la
interpretación semántica. En contraste, Marslen Wilson y Tyler, apoyan la idea
de la interacción entre los distintos niveles, es decir, la contribución simúltanea
– en paralelo - de las diferentes fuentes de información que están disponibles
durante la comprensión.
Las investigaciones que realizaron se basaron en el hecho de que el
reconocimiento de palabras en contexto se realiza muy rápidamente, mucho
más rápido que el reconocimiento de palabras aisladas. Incluso se realiza en un
punto muy temprano en relación con el tiempo que demora emitirla, o sea antes,
incluso, de que se hayan terminado de emitir todos los fonemas que la
componen (Ver Capítulo 3, en particular el punto 1.1.1, Técnicas
experimentales). Esto los llevó a postular que debería haber otros factores – la
información contextual, el conocimiento del mundo - que estaban interviniendo
en el procesamiento y que facilitaban los análisis.

151
La propuesta de estos investigadores consiste en que, desde la primera palabra
de una emisión, el sistema va construyendo una representación interpretativa
que es el resultado de la integración sobre la marcha de información lingüística y
no lingüística. Convergen, entonces, en el procesamiento de oraciones,
a) el análisis de las propiedades lingüísticas de la oración,
b) las restricciones que impone el contexto del discurso,
c) el conocimiento general del mundo del individuo.
La idea central del modelo es que, al oír y reconocer cada palabra, las
propiedades sintácticas y semánticas se hacen disponibles de inmediato para el
procesamiento y se integran en la representación que se está construyendo. O
sea, las propiedades sintácticas y semánticas de las oraciones no se
corresponden durante el procesamiento con niveles de análisis distintos. Lo que
se afirma no es que no exista el análisis sintáctico, sino que sirve para guiar el
análisis estructural dentro de la representación que se está desarrollando, sin
que se requiera proponer para esto un nivel funcionalmente distinto en el
procesamiento.
Veamos una experiencia en las que utilizaron segmentos ambiguos para poner
en evidencia la integración de la información léxica, estructural e interpretativa
durante la comprensión. La tarea consistía en la presentación de un contexto de
frase que incluyera un fragmento como, por ejemplo, shaking hands, que en
inglés puede interpretarse como dar la mano o manos temblorosas. La
información previa restringía la interpretación de la frase ambigua hacia una de
las dos lecturas. El objetivo era determinar si los efectos restrictivos operaban
sobre la marcha, es decir si cuando apareciera el fragmento ambiguo el oyente
ya había establecido una preferencia para la interpretación.
Se le presentó a los sujetos la claúsula contextual auditivamente y en forma
inmediata, una palabra escrita que podía servir para continuar la oración, esa
palabra era sólo compatible con una de las lecturas posibles. El sujeto debía
leerla lo más rápido posible. Los estímulos aparecían de la manera siguiente:

152
Contexto: Como procedimiento habitual para ganar votos...

a. shaking hands (dar la mano) ... ES


b. shaking hands (dar la mano) ... SON

Contexto: Al enhebrar una aguja...

a. shaking hands (las manos temblorosas).... ES


b. shaking hands (las manos temblorosas).... SON

La hipótesis consistía en que las latencias de lectura serían mayores si la


palabra (en el ejemplo dado, estas palabras son las variaciones del verbos ser)
no era la apropiada con la interpretación realizada sobre la marcha.
Efectivamente, esto se verificó y fue prueba suficiente para los autores de que
los distintos análisis se realizan conjuntamente a medida que va ingresando la
información estimular.

Marslen Wilson y Tyler caracterizan a los procesos que subyacen a la


comprensión como:
 óptimos: son capaces de realizar los análisis más tempranos pero seguros,
es decir, pueden asignar un análisis a la señal hablada en el punto teóricamente
más temprano con eficacia.
 interactivos: si el sistema funciona de manera óptima no se puede justificar
una separación secuencial - serial - de las distintas fuentes de análisis
(información léxica, semántica, sintáctica y conocimiento del mundo).
 obligatorios: una vez que el sistema recibe la señal apropiada debe aplicar
las operaciones pertinentes sobre ella.
 operan con el principio de prioridad de abajo hacia arriba: este es un
pequeño límite para la interactividad.

153
El sistema no puede adelantarse a la señal que ingresa, es decir, no comienza
a operar sin que se haya reconocido una cantidad mínima de información de
entrada. Por lo tanto se establece que debe comenzar el análisis de la señal
lingüística para que el sistema comience a construir la representación. En
palabras más sencillas, el sistema no adivina, sino que trabaja sobre seguro en
cuanto tiene un mínimo de información. Por eso se denomina de abajo hacia
arriba: los procesos de decodificación fonológica son condición necesaria para
que el resto del sistema también opere sobre el estímulo.
Estas dos últimas características garantizan una estructura de control interna del
sistema y definen una forma de trabajo en la que funcionan en paralelo múltiples
vías de análisis. Según los autores:

“ La estrategia principal empleada por el sistema para optimizar el uso de la


señal sensorial es trasladar el análisis de la misma lo más rápidamente posible a
un dominio en el que pueda disponerse de todas las fuentes de información para
proseguir su análisis e interpretación. El nexo esencial es el sistema de
reconocimiento de palabras. Sólo cuando la señal haya establecido contacto con
este sistema, podrá integrarse con el contexto estructural e interpretativo en el
que ocurre.”

Queda claro en esta cita, que el sistema debe comenzar a procesar la


información rápidamente, pero que los datos que provee la señal restringirán las
posibles lecturas que hace el sistema. Por eso los principios de abajo-arriba y la
obligatoriedad mantienen bajo control, de alguna manera, las interacciones de
las distintas fuentes de información.
En resumen, lo que proponen estos autores es que la comprensión es un
proceso continuo - es decir, no se produce a saltos, a través de unidades
determinadas como en el caso de la hipótesis clausular - y, al mismo tiempo,
muy rápido y eficaz. Por estas razones, lo plausible es pensar que se ponen a
consideración muy tempranamente todos los aspectos que facilitan la

154
interpretación de la emisión y se realizan colaborativamente – interactivamente -
los análisis requeridos, tanto sintácticos como semánticos (y pragmáticos), sin
que sea necesario postular que existan niveles específicos que procesen esta
clase de información.

En línea con esta posición, están los trabajos de Riesbeck y Schank (1978)
quienes destacan la importancia del conocimiento del mundo que genera
expectativas que se van chequeando en función de la información estimular que
ingresa al sistema. Asumen, como Marslen Wilson Y Tyler, la relevancia del
léxico para la comprensión y entienden que además de identificar los aspectos
lingüísticos propios de la oración es necesario, también, descubrir las
intenciones del hablante y ofrecer una respuesta adecuada para ellas.
Básicamente, consideran que la comprensión se realiza siempre en un
contexto, y por lo tanto el problema de la ambigüedad prácticamente
desaparece y pasa a ser un artilugio de las experiencias de laboratorio.
Respecto de este tema, no les parece nada útil proponer un analizador
sintáctico que genere varios análisis del estímulo y que, luego, para seleccionar
la lectura adecuada haya que recurrir a la información semántica o contextual.
Postulan entonces que la sintaxis sólo se utiliza en algunos casos (“cuando se
la necesita”) y que son básicamente, las expectativas las que guían los
procesos de comprensión.
Hemos revisado en esta sección algunas explicaciones que pretenden dar
cuenta de los procesos que intervienen en la comprensión de oraciones. Como
queda planteado, la discusión central surge del hecho de postular la necesidad
o no de un nivel de análisis sintáctico obligatorio que opere independientemente
de los otros niveles implicados en el procesamiento. Queda mucha información
por discutir, pero a los efectos de hacer un breve estado del tema, hemos
seleccionado para presentar algunos de los exponentes de las dos posturas.

155

You might also like