You are on page 1of 209

INDICE

1 ACTIVIDADES DE LA VIDA DIARIA EN UN CONTEXTO FORENSE ............................................ 1


1.1 Exploración Neurológica y la Conducta en la Vida Diaria ........................................................... 1
1.2 Relación entre Exploración Neurológica y Actividades de la Vida Diaria ................................... 8
1.2.1 Definición de Actividades de la Vida Diaria ........................................................................ 12
1.2.2 Aproximación a la Evaluación de las Actividades de la Vida Diaria ................................... 18
1.2.2.1 Evaluación Neuropsicológica .......................................................................................... 25
1.2.2.2 Evaluación Mediante Observación Directa ..................................................................... 34
1.2.2.3 Evaluación Mediante Encuestas a Informadores ............................................................ 36
1.3 Consideraciones Forenses ....................................................................................................... 40
2 LA EVALUACIÓN NEUROPSICOLÓGICA.................................................................................... 46
2.1 El Proceso de Evaluación Neuropsicológica ............................................................................ 46
2.2 Métodos Anatómicos ................................................................................................................ 62
2.3 Técnicas de Neuroimagen ........................................................................................................ 74
2.4 Técnicas de Registro ................................................................................................................ 79
2.5 Técnicas Psicofísicas ............................................................................................................... 81
2.6 Pruebas Neuropsicológicas ...................................................................................................... 81
3 LA EVALUACIÓN NEUROPSICOLÓGICA DEL FUNCIONAMIENTO COGNITIVO PRE-
MÓRBIDO ............................................................................................................................................. 83
3.1 Los Métodos Cualitativos de Estimación de Funcionamiento Cognitivo Pre-Mórbido .............. 83
3.1.1 Estimación Clínica del Funcionamiento Cognitivo ............................................................. 88
3.1.2 Datos Objetivos del Funcionamiento Pre-Mórbido ............................................................. 96
3.2 Los Métodos Estadísticos de Estimación de Funcionamiento Pre-Mórbido ............................. 98
3.2.1 Métodos Demográficos .................................................................................................... 101
3.2.2 Modelos de Funcionamiento Actual ................................................................................. 104
3.2.3 Métodos Combinados ...................................................................................................... 109
3.3 Aplicación de las Pruebas Psicológicas a la Medición de la Inteligencia................................ 111
3.3.1 Prueba de Stanford – Binet .............................................................................................. 111
3.3.2 Modernas Aproximaciones al Concepto de la Inteligencia ............................................... 114
3.3.3 Clasificación de la Inteligencia ......................................................................................... 118
3.3.4 Constitución de las Escalas de Wechsler ........................................................................ 119
3.3.5 Descripción de la Escala de Inteligencia Wechsler .......................................................... 125
3.3.6 Escala de Ejecución......................................................................................................... 127
3.3.7 Información Adicional Acerca de las Escalas de Inteligencia Wechsler para Adultos y para
Niños ……………………………………………………………………………………………………..128
4 LA EVALUACIÓN DE LA SIMULACIÓN ..................................................................................... 135
4.1 La Valoración de la Simulación como Variable Mediadora..................................................... 136
4.2 La Heterogeneidad del Fenómeno de la Simulación .............................................................. 136
4.3 La Prevalencia ........................................................................................................................ 138
4.4 Definición y Clasificación de la Simulación ............................................................................. 142
4.4.1 La Simulación Según el Manual Diagnóstico y Estadístico de Desórdenes Mentales ..... 142
4.4.2 Los Criterios Clasificatorios de Slip.................................................................................. 143
4.4.3 El Diagnóstico Diferencial de la Simulación ..................................................................... 144
4.5 Investigación de la Simulación ............................................................................................... 145
4.5.1 Diseños de Investigación en Simulación .......................................................................... 146
5 CONSIDERACIONES EN EL ANÁLISIS DE NEUROPSICOLOGÍA FORENSE ......................... 146
5.1 Conceptos Psicométricos ....................................................................................................... 147
5.2 Conceptos Estadísticos .......................................................................................................... 165
5.3 Conceptos Epidemiológicos ................................................................................................... 175
6 TRAUMATISMO CRANEOENCEFÁLICO: ASPECTOS CLÍNICOS Y FORENSES.................... 180
6.1 Epidemiología ......................................................................................................................... 181
6.2 Traumatismos Craneoencefálicos .......................................................................................... 182
6.2.1 Características Generales ............................................................................................... 182
6.2.2 Lesiones Abiertas y Cerradas .......................................................................................... 183
6.2.3 Consecuencias Neuropsicológicas de los Traumatismos Craneoencefálicos ................. 184
6.3 Evolución Clínica en los Traumatismos Craneoencefálicos ................................................... 187
6.3.1 Traumatismos Craneoencefálicos Leves ......................................................................... 188
6.3.2 Traumatismos Craneoencefálicos Moderados y Graves ................................................. 190
6.3.2.1 Atención y Fatiga .......................................................................................................... 191
6.3.2.2 Memoria y Aprendizaje ................................................................................................. 191
6.3.2.3 Funciones Ejecutivas .................................................................................................... 192
6.3.2.4 Comunicación ............................................................................................................... 192
6.3.2.5 Cambios Conductuales y Emocionales ........................................................................ 193
6.4 Proceso de la Recuperación y Pronósticos ............................................................................ 194
6.5 Evaluación Neuropsicológica de Pacientes con Traumatismo Craneoencefálico .................. 195
6.6 Consideraciones Forenses en los Traumatismos Craneoencefálicos .................................... 201
6.6.1 Valoración de Daños y Secuelas ..................................................................................... 201
6.6.2 Pronósticos y Evolución ................................................................................................... 203
6.6.3 Aspectos Psicopatológicos y Emocionales ...................................................................... 203
6.6.4 Ajuste Pre-Mórbido en el Traumatismo Craneoencefálico ............................................... 205
6.6.5 Evaluación Forense del Traumatismo Craneoencefálico ................................................. 206
6.6.6 Concordancia de los Datos Neuropsicológicos y Neurorradiológico ................................ 206
BIBLIOGRAFIA................................................................................................................................... 207
1 ACTIVIDADES DE LA VIDA DIARIA EN UN CONTEXTO FORENSE

1.1 Exploración Neurológica y la Conducta en la Vida Diaria

La Neuropsicología estudia la relación entre los procesos psicológicos complejos (lenguaje, memoria,
planificación de conducta, atención, control inhibitorio…) y el sistema nervioso (Barroso y Nieto,
1997). El término “forense” hace referencia a la aplicación de los conocimientos de un área a los
asuntos legales (Fernández-Guinea, 2001). Por lo tanto, podríamos decir que la Neuropsicología
Forense es la Neuropsicología aplicada a los asuntos legales. Verdejo y cols. (2004) la definen como:

“Toda neuropsicología, bien experimental o clínica, orientada a la producción de investigaciones


neuropsicológicas y a la comunicación de sus resultados, así como la realización de evaluaciones
y valoraciones neuropsicológicas para su aplicación al contexto legal” (p.60).

A diferencia de la Neuropsicología Clínica, que determina si existe o no deterioro


neuropsicológico; la Neuropsicología Forense debe responder a la denominada cuestión forense,
esto es, si la disfunción afecta al suceso bajo consideración legal o es resultado del mismo (Hom,
2003). El clínico trata de ayudar al paciente, mientras que el forense ayuda al esclarecimiento de
la verdad (Verdejo y cols. 2004).

La Neuropsicología Forense se nutre, por tanto, de la Psicología Forense y de la Neuropsicología


Clínica, disciplinas que constituyen sus precedentes más inmediatos (Fernández-Guinea, 2001;
Gilandas y cols., 1984). Por un lado, la aceptación del testimonio experto de un psicólogo en un
caso de responsabilidad criminal en el Distrito de Columbia (Estados Unidos) en 1962 es un hito
para la Psicología Forense. Por otro, los avances de la Neuropsicología Clínica desde los años 60,
ocupando un lugar como área especializada tanto en el campo experimental como en el
asistencial.

En nuestro país, el neuropsicólogo forense carece de reconocimiento social y es aún una


disciplina emergente (Verdejo y cols. 2004), si bien en países como Estados Unidos está
consolidada desde hace dos décadas. Gilandas y cols. (1984) comentan que el Neuropsicólogo
tiene una importante responsabilidad social para contribuir a las Ciencias Forenses, pues los
Juzgados cada vez dependen más del testimonio experto del neuropsicólogo, al incluir las leyes
déficits neuropsicológicos como secuelas merecedoras de compensación. Fernández-Guinea
(2001) destaca una serie de factores que han favorecido la unión entre la Neuropsicología y la
Ley:
1
 El incremento de investigaciones con métodos cuantitativos sobre relaciones entre cerebro
y conducta.

 La toma de decisiones sobre asuntos legales, como determinar la discapacidad.

 Los avances en interpretación para inferir presencia, localización y neuropatología.

 La determinación del pronóstico.

 La descripción de perfiles conductuales y cognitivos asociados a la enfermedad


neurológica.

 Las implicaciones del funcionamiento psicosocial.

 La decisión sobre las intervenciones más apropiadas.

La Neuropsicología Forense se enfrenta en la actualidad a una serie de retos orientados a


conseguir su desarrollo científico y profesional. Los avances realizados y las principales
estrategias asumibles por la disciplina en el ámbito legal español son repasados por Verdejo y
cols. (2004), aquí nos limitaremos a comentarlos de forma somera.

En primer lugar, destacan las dificultades para establecer los niveles de funcionamiento
premórbido. Para poder establecer que las funciones cognitivas están alteradas por un daño
cerebral es necesario conocer cómo eran esas funciones antes del daño. Lo ideal sería tener un
perfil neuropsicológico previo del sujeto, pero cómo eso resulta muy improbable, se han diseñado
métodos para estimar el funcionamiento premórbido, pero que adolecen de problemas
metodológicos. Por ello, los autores recomiendan integrar varios procedimientos, apoyarse en el
historial clínico e incluir aspectos de personalidad premórbida.

En segundo lugar, el desconocimiento de los porcentajes de base de diversos trastornos


neuropsicológicos. Los porcentajes de base, es decir, la frecuencia con la que algo ocurre, afectan
al valor predictivo del signo (conductual, puntuación en test o perfil de puntuaciones en una batería
neuropsicológica), no así a su especificidad y su sensibilidad. El problema es que muchos
neuropsicólogos tienden a confundir los conceptos e identifican el valor predictivo del signo con la
sensibilidad o especificidad de la prueba, con lo que se tiende a sobreestimar el trastorno. En
ausencia de porcentajes de base, los autores sugieren emplear grupos de control, calcular el
tamaño del efecto y comprobar el solapamiento entre las puntuaciones en los dos grupos.

En tercer lugar, los problemas para valorar la simulación. La simulación se define como “la
producción intencionada de síntomas físicos o psicológicos desproporcionados o falsos motivados
por incentivos externos” (American Psychiatric Association, 2002). Por ello, se han diseñado
2
métodos y estrategias para detectarla como son el análisis de incoherencias, el análisis de
patrones anómalos en instrumentos neuropsicológicos de diagnóstico, procedimientos de
evaluación basados en el rendimiento en pruebas específicas de respuesta forzada o el análisis
de patrones de simulación en pruebas de evaluación emocional.

En cuarto lugar, los límites en las relaciones entre la actuación en el test y la competencia
ecológica. En ámbitos legales resulta necesario determinar qué consecuencias funcionales en la
vida del sujeto tendrá el daño cerebral. Si el neuropsicólogo es incapaz de demostrarlo, el cliente
será el perjudicado al, por ejemplo, perder la percepción de una compensación económica. Los
autores estiman que en nuestro país se deben realizar estudios sobre la capacidad predictiva de
las pruebas de frecuente uso clínico sobre las actividades de funcionamiento diario, elaborar
informes detallados de las actividades laborales y habituales que el sujeto realiza en su vida diaria
y emplear medidas que han mostrado buen funcionamiento en los estudios empíricos.

En quinto lugar, la escasez de baremos de población española en los instrumentos


neuropsicológicos empleados en el ámbito forense. Por tanto, se hace más que necesario elaborar
baremos normativos en nuestro país.

En sexto y último lugar, la falta de prácticas estandarizadas en neuropsicología forense. En


España no existe un período de prácticas después de aprobar el examen de oposición, mientras
que, por ejemplo, en Estados Unidos para ser psicólogo forense se deben cursar mil horas de
formación teórica y cien horas de práctica tutelada. Verdejo y cols. (2004) proponen que, una vez
superados el examen, se ingrese en una escuela de práctica forense en la que se profundice en
formación teórica y luego rotar por las jurisdicciones en prácticas tuteladas. En toda esta
formación teórico-práctica se debe incluir específicamente y con un número suficiente de horas
contenidos de neuropsicología forense.

Otro aspecto que se debe tener en cuenta a la hora de trabajar en neuropsicología forense son las
controversias éticas. Bush y Martin (2006) proponen un modelo de toma de decisión para
enfrentarse a los problemas éticos que puedan surgir en la práctica diaria: (1) identificar el
problema; (2) considerar la importancia del contexto; (3) identificar y utilizar recursos éticos y
legales; (4) considerar los valores y creencias personales; (5) desarrollar posibles soluciones al
problema; (6) considerar las consecuencias potenciales de varias soluciones; (7) elegir e
implementar una acción, y (8) evaluar los resultados y poner en práctica los cambios necesarios.
Asimismo, el neuropsicólogo forense tiene a su disposición numerosos recursos para ayudarle a
afrontar esos diversos problemas éticos como son los códigos éticos, como el “Código
Deontológico del Psicólogo” (Colegio Oficial de Psicólogos, 1993), “Specialty Guidelines for
3
Forensic Psychologists” (Committee on Ethical Guidelines for Forensic Psychologists, 1991), o
“Ethical principles of psychologists and code of conduct” (American Psychological Association,
2002); formación continua en ética para profesionales; artículos, libros y capítulos sobre ética
neuropsicológica; comités deontológicos, las leyes y la consulta a los colegas de profesión (Bush y
Martin, 2006).

Uno de los principios éticos que viola la psicología forense frente a la práctica clínica es la
confidencialidad: el cliente es el órgano judicial y al cual se le debe devolver toda la información de
la pericial (Rodríguez-Sutil, 1999). Ello no implica que los resultados no se le deban dar también al
sujeto objeto de exploración, pues se está moralmente obligado a ello según el “Código
Deontológico del Psicólogo” (Colegio Oficial de Psicólogos, 1993):

 Artículo 42: “(…) El sujeto de un Informe Psicológico tiene derecho a conocer el contenido del
mismo, siempre que de ello no se derive un grave perjuicio para el sujeto o para el/la Psicólogo/a, y
aunque la solicitud de su realización haya sido hecha por otras personas”.

En definitiva, la gran especialización en el campo de la Neuropsicología Forense y los cambios en


las leyes hacen que la disciplina tenga un futuro prometedor (Fernández-Guinea, 2001) y se
encuentre en un momento clave de desarrollo científico y profesional, con una gran vinculación a
sus ciencias afines: la Psicología Forense y la Neuropsicología Clínica (Verdejo y cols., 2004).

El estudio de todo paciente atendido, requiere una historia clínica y exploración física lo más
completa posible. (Tabla 1).

Tabla 1 Exploración neurológica

 1 Valoración del nivel de conciencia y estado mental

 2 Exploración de nervios craneales.

 3 Valoración de masa muscular, tono y fuerza. Movimientos anormales.

 4 Sensibilidad.

 5 ROT y RCP.

 6 Coordinación.

 7 Marcha.

Exploración neuropsicológica:

Existen ciertos aspectos básicos de esta que siempre deben quedar reflejados en la historia clínica
de todo paciente con sospecha de disfunción neurológica. Los más importantes son:

4
Nivel de conciencia: Siempre debemos hacer constar el nivel de conciencia que presenta el paciente,
los principales son (consciente, letárgico, obnubilado, estuporoso y comatoso).

Orientación: Debemos constatar si el paciente está orientado en persona (¿cómo se llama usted?),
en espacio (¿Dónde estamos ahora?), y en tiempo (¿año, mes, día del mes, día de la semana?).

Lenguaje: Valoraremos el habla espontánea, la capacidad de compresión del mismo, (mediante


preguntas o órdenes de complejidad creciente), la capacidad de repetición y de nominación. Las dos
alteraciones principales del lenguaje son la disfasia (o afásica), y la disartria. La disartria consiste en
una alteración de la articulación del lenguaje, mientras la disfasia es un defecto en los mecanismos
receptivos, expresivos o integradores del lenguaje.

Exploración de pares craneales

La exploración de los pares craneales resulta básica. Las lesiones nos aportan gran información
respecto al lugar donde se localiza la lesión responsable. Reseñemos que el IV par es la menos
información suele aportar cuando se afecta de forma aislada.

1. I: De escaso interés e información poco valorable en el enfermo urgente.

2. II: Agudeza visual, (en condiciones normales puede bastarnos solicitando al paciente que
cuente los dedos de una mano del explorador a la distancia de un metro. En paciente con
afasia severa o alteración del nivel de conciencia se explora la presencia de movimiento de
parpadeo defensivo ante movimientos amenazantes de una mano del explorador (reflejo de
amenaza), aun siendo un método burdo, puede informar acerca de un posible déficit visual.
Campo visual: (se define como la porción de espacio en la que los objetos son visibles durante
la fijación de la mirada en una dirección. El campo se explora mediante las pruebas de
confrontación que comparan el campo visual del enfermo con el del propio explorador. Fondo
de ojo: (debe explorarse sin dilatar al menos inicialmente valorando: papila, mácula, vasos
sanguíneos y retina.

3. III, IV, VI: Tamaño de la hendidura palpebral (debemos descartar la presencia de ptosis).
Motilidad ocular extrínseca (la exploramos haciendo que, la paciente sigua con la vista la luz
de una linterna que iremos desplazando). Se exploran los movimientos de cada ojo por
separado (ducciones), y los de ambos de forma conjunta (versiones) evaluando distribución de
la mirada conjugada, paresias, reflejos oculo-cefálicos, nistagmus (conjugado o disociado,
ritmicidad, amplitud, dirección, latencia, involuntariedad y variaciones de su calidad con
estímulos externos). Motilidad ocular intrínseca (valorando tamaño pupilar y su simetría,
respuesta al reflejo foto motor directo y consensual, acomodación y convergencia).
5
4. V: Exploración del doble componente, (motor: músculos maseteros, temporales y pterigoideos
“masticación”, y sensitivo: sensibilidad facial en divisiones superior, media e inferior
“sensibilidad de la cara”. Reflejo corneal.

5. VII: Motilidad de la cara. Interesa determinar si es Central o Supranuclear (el déficit respeta la
porción superior contralateral) o Periférico o Nuclear (debilidad facial global). En pacientes
inconscientes se puede apreciar si existe asimetría facial al observar la mueca de dolor que se
produce al presionar en los procesos estiloideos, detrás del ángulo de la mandíbula.

6. VIII: Explorar porción coclear-audición (pruebas de Rinne y Weber), y porción vestibular


equilibrio (pruebas calóricas, índices de Barany, maniobras oculocefálicas).

7. IX y X: Se exploran juntos. Sensibilidad y motilidad velopalatina. Reflejo nauseoso.

8. XII: Motilidad de la lengua. Atrofia lingual, fasciculaciones.

Masa muscular, tono y fuerza. Movimientos anormales.

1. Visión de conjunto: buscando asimetrías, es útil la maniobra de Mingazzini (mantener los


cuatro miembros flexionados- contra gravedad- durante unos minutos).

2. Masa muscular. Valoración del tamaño y consistencia muscular.

3. Tono: Resistencia a la movilización pasiva. Se debe especificar no solo si existe hipo o


hipertonía, sino también el grado y tipo.

3.1. Espástica: (aumento de tono al inicio del movimiento, “navaja”. Es signo de lesión
piramidal.

3.2. Rueda dentada (aumento de tono “a saltos”., Es signo de lesión extrapiramidal.

3.3. Paratónica: Aumento de tono constante, oposicionista. Suele ser por lesión frontal.

4. Fuerza: Balance muscular por grupos de músculos, según su acción. Se debe fijar la
articulación correspondiente y oponer una fuerza equiparable. Se cuantifica de O-5.

O. No hay ninguna actividad muscular. No existe contracción muscular.

I. Se observa actividad muscular, pero no se consigue movimiento.

II. Movimiento horizontal. No se vence la gravedad. Solo es capaz de realizar un arco de


movimiento se elimina la gravedad.

III. Vence la gravedad, no la resistencia.

6
IV, Vence resistencia del examinador, pero la potencia es inferior a la norma (a veces se
divide este grado añadiéndole un signo + o -).

V. Normal.

Existen diversas maniobras para estudiar la fuerza muscular (Maniobra de Barré “extremidades
superiores”, Maniobra de Mingazzini “extremidades inferiores”.

Sensibilidad

Esta puede ser una de las partes más difíciles de la exploración, ya que es de las más subjetivas por
parte del paciente.

1. Sensibilidad superficial: (que incluye el tacto superficial, “rozando la piel con un algodón”,
dolorosa, “se usa un alfiler con dos extremos uno afilado y otro romo, y temperatura “se explora
usando tubos de vidrio o matraces llenos de agua caliente o fría).

2. Sensibilidad profunda (que incluye sensibilidad vibratoria) (parestesia, “haremos vibrar el


diapasón y lo coloraremos por su base sobre las prominencias articulares”, articular, que incluye
la posicional y artrocinética) “se explora movilizando de forma pasiva un dedo del pie del enfermo
o de la mano valorando dirección y movimiento.

3. Función cortical en la sensibilidad (estereognosia “capacidad de identificar objetos mediante el


tacto”, grafestesia “reconocer figuras o signos sobre la piel”, barognosia “capacidad de reconocer
el peso de los diferentes objetos). Discriminación entre dos puntos “se explora con un compás de
punta roma. Extinción sensitiva “doble estimulación sensitiva”.

ROT y RCP

Reflejos osteotendinosos profundos (ROT): son difíciles de obtener sin la colaboración del paciente.
Se deben explorar el maseterino dependiente del V par craneal, el bicipital (C6), tricipital (C7),
rotulianol (L3, L4), y aquíleo (S1), siempre en busca de ausencias y/o asimetrías. Habitualmente se
cuantifican en varios niveles. O (abolido), I (Hipoactivo), II (Normal), III (Exaltado sin clonus), IV
(Exaltado con clonus).

Reflejos cutáneo- superficiales: el más útil en la práctica ordinaria es el reflejo cutáneoplantar (RCP),
se desencadena al rozar el borde externo de la planta del pie desde el talón hacia los dedos, su
respuesta extensora (mal llamada Babinski), es siempre patológica e indica afectación de la vía
piramidal explorada. Menos utilizado son los cutáneo- abdominales y los cremasterinos.

7
Coordinación

Para la exploración valoraremos dos apartados claramente diferenciados:

Coordinación dinámica:

Prueba del dedo- nariz: (partiendo de la extensión completa del antebrazo, se flexiona a tocar nariz).
Prueba talón – rodilla: (decúbito supino, con talón de un pie a rodilla contralateral y deslizamiento
posterior. Maniobras alternantes (Diadococinesia, “se explora con la realización de movimientos
alternantes realizados de forma rápida “).

Coordinación estática:

Prueba de Romberg (con los pies juntos y cabeza erecta se comprueba si es capaz de mantener la
postura, o se produce lateralización. Se valora con los ojos abiertos, si está alterado valorar problema
vestibular o disfunción cordonal posterior, con ojos cerrados y alterado probable problema
cerebeloso).

Marcha

Se debe intentar categorizar como: Normal, Hemiparética (en segador), Atáxica (inestable
con aumento de la base de sustentación), Miopática o andinante (“como pato”), De otro tipo
(parkinsoniana, tabética-taloneante, es steppage, coreica, apráxica, histérica).

1.2 Relación entre Exploración Neurológica y Actividades de la Vida Diaria

¿Qué es la Neurología?

La Neurología es la especialidad médica que estudia la estructura, función y desarrollo del sistema
nervioso (central, periférico y autónomo) y muscular en estado normal y patológico, utilizando todas
las técnicas clínicas e instrumentales de estudio, diagnóstico y tratamiento actualmente en uso o que
puedan desarrollarse en el futuro. La Neurología se ocupa de forma integral de la asistencia médica
al enfermo neurológico, de la docencia en todas las materias que afectan al sistema nervioso y de la
investigación, tanto clínica como básica, dentro de su ámbito.

Las Enfermedades Neurológicas

La patología neurológica comprende el conjunto de enfermedades que afectan al sistema nervioso


central (el cerebro y la medula espinal) y el sistema nervioso periférico (los músculos y los nervios).
Las enfermedades más frecuentes y conocidas por la población son la demencia (la enfermedad de

8
Alzheimer, la demencia vascular y otras), el ictus (el infarto y la hemorragia cerebral), la epilepsia, la
enfermedad de Parkinson, la esclerosis múltiple, la migraña y los traumatismos craneoencefálicos.
También forman parte de este grupo otras enfermedades degenerativas y neuromusculares (la
esclerosis lateral amiotrófica, las distrofias musculares, las distonias, las neuropatías, las miopatías,
etc.) aunque son menos habituales.

Constituyen un conjunto de enfermedades muy frecuentes que afectan tanto a las personas jóvenes
como, y de forma muy especial, a las de edad avanzada. Además, pueden llegar a mermar de forma
muy grave muchas de nuestras capacidades (el movimiento, la memoria y el pensamiento, el
lenguaje, etc) por lo que sus consecuencias llegan a impedir a muchos de los enfermos realizar
incluso las actividades más básicas de la vida diaria: ocasionan muy frecuentemente discapacidad y
dependencia.

Entidades específicas

La demencia y los trastornos cognitivos.

La demencia es una enfermedad degenerativa que ocasiona trastornos graves de memoria y pérdida
de capacidades intelectuales, con olvidos, desorientación temporal y espacial, alteraciones del
comportamiento y del lenguaje, que va interfiriendo progresivamente en las actividades cotidianas del
paciente hasta hacerle completamente dependiente. La enfermedad es progresiva y en un tiempo
variable ocasiona la muerte del paciente.

La mayor parte de las demencias son debidas a la enfermedad de Alzheimer, pero también puede
aparecer como secuela de una enfermedad cerebrovascular, la llamada demencia vascular, que es la
segunda causa más frecuente de demencia. Además, otras enfermedades degenerativas del sistema
nervioso pueden presentar, a lo largo de su evolución, una demencia.

La enfermedad cerebrovascular.

Las enfermedades cerebrovasculares más importantes son el ataque isquémico transitorio, el ictus y
la demencia vascular. El ictus es la aparición de un déficit neurológico producido por un infarto o una
hemorragia cerebral. Los síntomas pueden ser variados (pérdida de fuerza o de sensibilidad,
dificultades en el lenguaje, la marcha o la visión, etc.) y es muy importante su reconocimiento precoz
para acudir rápidamente a un centro hospitalario. Las causas más frecuentes de los ictus están
relacionadas con los factores de riesgo vascular (la hipertensión arterial, la diabetes, el
hipercolesterolemia, el tabaquismo, cardiopatía u obesidad). Todos ellos son factores controlables
por lo que esta enfermedad es prevenible.

9
Por otra parte, en los últimos años, tratamientos como la trombolisis y el manejo en las Unidades de
Ictus han demostrado que pueden salvar la vida o evitar las secuelas graves. En ambos casos, el
paciente ha de ser tratado de forma urgente por el neurólogo y en un medio hospitalario con los
medios adecuados. El ictus es una enfermedad más frecuente en pacientes mayores de 65 años,
pero también puede afectar a jóvenes o incluso niños. Es la segunda causa de muerte en los
españoles y la primera causa de muerte entre las mujeres (cuando se consideran las enfermedades
específicas).

La enfermedad de Parkinson.

La enfermedad de Parkinson es otra de las enfermedades neurológicas más discapacitantes. Los


pacientes presentan temblor y grandes dificultades para moverse: desde caminar hasta vestirse o
girar en la cama. Es una enfermedad degenerativa, que puede terminar ocasionando la práctica
inmovilidad del paciente.

Hoy en día, se disponen de múltiples tratamientos con fármacos que ayudan mucho al control de los
síntomas de la enfermedad y también el tratamiento quirúrgico ofrece ya beneficios muy importantes
en los pacientes. No todos los pacientes presentan en mismo grado de afectación, de forma que sólo
un porcentaje de los mismos se encuentran en situación de dependencia importante.

La migraña.

La migraña es una enfermedad episódica. Se presenta en forma de crisis o ataques (la mayoría de
los pacientes tienen entre 1 y 4 crisis al mes) que duran entre pocas horas hasta 2-3 días. Es un tipo
común de dolor de cabeza que puede ocurrir con síntomas como náuseas, vómitos o sensibilidad a
la luz. En muchas personas, se siente un dolor pulsátil únicamente en un lado de la cabeza.

Algunas personas que padecen migrañas tienen síntomas de advertencia, llamados aura, antes de
que comience el verdadero dolor de cabeza. Un aura es un grupo de síntomas, generalmente
alteraciones en la visión, que sirven de signo de advertencia de que se va a presentar un terrible
dolor de cabeza. Sin embargo, la mayoría de las personas no presentan tales signos de advertencia.

La migraña es una enfermedad muy frecuente Aproximadamente afecta al 16% de las mujeres y al
8% de los hombres.

La epilepsia.

La epilepsia es otra de las enfermedades neurológicas comunes. Consiste en la aparición repetida de


ataques epilépticos que pueden ser de distinto tipo. Su causa puede ser idiopática, debida a alguna
alteración cerebral (las malformaciones, alteraciones congénitas) y otras veces resulta ser una

10
secuela o acompañante de alguna otra enfermedad neurológica (por ejemplo, el ictus, los
traumatismos craneoencefálicos o la demencia).

Actualmente, se dispone de múltiples fármacos que resultan muy eficaces para controlar los ataques,
pero un pequeño porcentaje de pacientes resulta resistente a los mismos y puede necesitar cirugía.
La epilepsia, además, puede afectar de forma muy importante a algunos aspectos concretos de la
vida cotidiana: conducir, practicar determinados deportes o incluso algunas actividades laborales,
están, a veces, seriamente limitadas, en estrecha relación con la gravedad de la enfermedad.

La esclerosis múltiple.

La esclerosis múltiple es una enfermedad en la que la mielina del sistema nervioso central se daña
en brotes sucesivos y va produciendo síntomas variados (pérdidas de fuerza o de sensibilidad,
pérdida de visión y descoordinación, incontinencia urinaria o pérdidas de visión) y a veces secuelas.
Afecta muy especialmente a pacientes jóvenes a partir de los 20 años.

Se llama “esclerosis” porque como resultado de la enfermedad se forma un tejido parecido a una
cicatriz (“escleroso”) en ciertas áreas del cerebro y de la médula espinal. Se llama “múltiple” porque
varias áreas del cerebro y de la médula espinal están afectadas.

Las enfermedades neuromusculares.

Resulta prácticamente imposible conocer el número real de pacientes afectados por enfermedades
neuromusculares en España: se trata de un amplísimo capítulo que incluye gran variedad de
enfermedades, algunas de ellas de muy escasa frecuencia, lo que dificulta la realización de estudios
completos sobre este grupo de enfermedades. Algunas de ellas, sin embargo, pueden llegar a ser
bastante conocidas por la población general: Esclerosis lateral amiotrófica (ELA), Atrofias espinales,
Distrofias musculares, Miastenia gravis.

Los traumatismos craneoencefálicos.

El traumatismo craneoencefálico (TCE) es la lesión cerebral ocurrida como consecuencia de una


fuerza externa. Sus causas son variadas (accidentes de tráfico, accidentes laborales, caídas
accidentales, etc.) pero afectan especialmente a personas jóvenes y edad laboral, ocasionando
graves interferencias, no sólo en la vida familiar sino también la personal y familiar. Las secuelas
pueden afectar a cualquiera de las funciones cerebrales: motoras, sensitivas, cognitivas, de
conducta, etc.

11
1.2.1 Definición de Actividades de la Vida Diaria

Las actividades de la vida diaria

Dentro de las diferentes posibilidades de actuación hay un tipo de actividades que son comunes a las
distintas culturas y tiempos y tienen que ver con la supervivencia y mantenimiento personal. Otras
conductas son rutinarias, esperables y, a veces, responden a las responsabilidades personales en
función de los distintos roles. A estas actividades se las conoce habitualmente como actividades de
la vida diaria (también conocidas como AVD).

El origen del término de las actividades de la vida diaria es relativamente reciente y surge dentro del
ámbito de la salud. Su primer uso está relacionado con una lista de comprobación de treinta y siete
actividades, en la obra titulada The physical demands of daily life (Deaver y Brown, 1945). No
obstante, este médico y fisioterapeuta no llegaron a definir qué eran las actividades de la vida diaria.
Cinco años más tarde, en 1950, se publicó otra escala de actividad de la vida diaria, esta vez
desarrollada por terapeutas ocupacionales, dirigida a evaluar las destrezas de los niños con parálisis
cerebral (Romero y Martorell, 2003).

Habrá que esperar a finales de los años 70 y primeros de los 80 para encontrar las primeras
definiciones formales de las actividades de la vida diaria. La Asociación Americana de Terapia
Ocupacional (A.O.T.A) elaboró la primera definición de actividades de la vida diaria (Moruno, 2003).
En ella se indica que los componentes de las actividades diaria incluyen el cuidado personal, el
trabajo y el juego o actividades lúdicas (Reed y Sanderson, 1999).

Más tarde, se definirían las actividades de la vida diaria como las tareas que una persona debe ser
capaz de realizar para cuidar de sí mismo independientemente, incluyendo el cuidado personal, la
comunicación y el desplazamiento (Reed y Sanderson, 1980).

Ann Catherine Trombly (Trombly, 1983) conceptualizaría del mismo modo las AVD, enfatizando el
valor que tienen las mismas para el desempeño de los roles personales y profesionales. De manera
muy similar, otros autores coinciden en considerar las actividades de la vida diaria como las tareas
de mantenimiento personal, movilidad, comunicación, el manejo del hogar, que capacitan al individuo
a lograr la independencia en su entorno (Pedretti, 1981; Mosey, 1986). Hay que observar que con el
avance de la década de los años 80 se amplía el concepto, contemplando no sólo las actividades
personales de independencia personal sino también aquellas que permiten tener independencia
económica y autonomía en otros ámbitos cotidianos como las actividades de participación social,
comunitaria y lúdica, aspecto que culminó en la década de 1990, con la escisión en actividades
básicas e instrumentales de la vida diaria.
12
De este modo, se hace necesario diferenciar las AVD según el grado de complejidad cognitiva. Así,
se puede hacer una taxonomía de las mismas en función de si se consideran básicas o
instrumentales.

Las actividades básicas de la vida diaria (ABVD) se caracterizan por ser universales, estar ligadas a
la supervivencia y condición humana, a las necesidades básicas, estar dirigidas a uno mismo y
suponer un mínimo esfuerzo cognitivo, automatizándose su ejecución tempranamente (alrededor de
los 6 años), con el fin de lograr la independencia personal. Habitualmente dentro de las ABVD se
incluyen la alimentación, el aseo, baño, vestido, movilidad personal, sueño y descanso.

No obstante, conviene reconocer el hecho de que las actividades relacionadas con la supervivencia
son actividades dependientes de cada cultura, que regula el modo para llevarlas a cabo
adecuadamente, a través de rituales que en algunas ocasiones hacen difícil su asimilación y
comprensión, así como su desempeño eficaz.

Poseen, además, como dice Moruno (2003), una función social básica, puesto que son indispensables para
ser admitido y reconocido como un miembro perteneciente a una determinada comunidad. Es decir,
constituyen el soporte mínimo para que se dé una integración social básica, permitiendo a cada sujeto
realizar actividades que lo incorporan a lo social y, a la vez, se conforman en insignias que permiten
reconocer a un individuo como perteneciente a una determinada cultura y sociedad (p.15)

En cambio, las actividades instrumentales de la vida diaria (AIVD) conllevan un mayor sesgo cultural,
están ligadas al entorno, suelen ser instrumentales, frente a las primeras que son finalistas, son un
medio para obtener o realizar otra acción, suponen una mayor complejidad cognitiva y motriz e
implican la interacción con el medio, tales como utilizar distintos sistemas de comunicación, escribir,
hablar por teléfono, movilidad comunitaria (conducir, uso de medios de transporte), mantenimiento de
la propia salud, manejo de dinero, realización de compras, establecimiento y cuidado del hogar,
cuidar de otro, uso de procedimientos de seguridad y respuesta ante emergencias.

No obstante, la Clasificación Internacional de la Salud, la Discapacidad y el Funcionamiento (CIF,


2001), no hace la distinción de actividades básicas e instrumentales y proponen otra taxonomía:

 Aprendizaje y utilización del conocimiento: experiencias sensoriales intencionadas,


aprendizaje básico, aplicación de conocimiento, resolución de problemas y toma de
decisiones.

 Tareas y demandas generales: realización de tareas sencillas o complejas, organizar rutinas


y manejar el estrés.

13
 Comunicación: recepción y producción de mensajes, llevar a cabo conversaciones y
utilización de instrumentos y técnicas de comunicación.

 Movilidad: cambiar y mantener la posición del cuerpo; llevar, mover y usar objetos; andar y
moverse y desplazarse utilizando medios de transporte.

 Autocuidado: lavarse y secarse, cuidado del propio cuerpo, vestirse, comer, beber y cuidar la
propia salud.

 Vida doméstica: conseguir un lugar para vivir, comida, ropa y otras necesidades; tareas del
hogar (limpiar y reparar el hogar, cuidar los objetos personales y de los del hogar y ayudar a
otras personas.

 Interacciones y relaciones interpersonales: llevar a cabo interacciones interpersonales,


particulares y generales de manera adecuada al contexto y entorno social.

 Áreas principales de la vida: educación, trabajo y empleo, y vida económica.

 Vida comunitaria, social y cívica: participación en la vida social fuera del ámbito familiar.

De cualquier modo, las actividades de la vida diaria están relacionadas con el logro de la
independencia personal y la autonomía. En este sentido, se entiende que la independencia personal
es la capacidad del individuo para satisfacer sus necesidades básicas, o realizar las actividades
básicas de la vida diaria. En cambio, el término autonomía incluye además la independencia
económica y la capacidad para tomar decisiones y obrar de acuerdo con las normas y creencias
propias. De este modo, la situación de dependencia puede ser definida como el estado de carácter
permanente en que se encuentran las personas que, por razones derivadas de la edad, la
enfermedad o la discapacidad, y ligadas a la falta o a la pérdida de autonomía física, mental,
intelectual o sensorial, precisan de la atención de otra u otras personas o ayuda importantes para
realizar las actividades básicas de la vida diaria.

Las actividades de la vida diaria también construyen la identidad personal, están relacionadas con
determinadas responsabilidades personales y sociales, son una forma de expresión y diferenciación
personal.

En resumen, los rasgos distintivos que caracterizan a las actividades básicas e instrumentales de la
vida diaria se pueden establecer en torno a:

 Los objetivos: es decir, las básicas son un tipo de actividad sobre la que se sustenta algo
fundamental, esencial en oposición a la cualidad de mediadoras de las otras, aquellas de las

14
que nos servimos para hacer algo, que utilizamos para lograr algo, y que pueden ser
delegadas en otros.

 La complejidad: las básicas se definen por su sencillez o simplicidad en contraposición con la


mayor complejidad de procesos cognitivos y sociales que define a las actividades
instrumentales.

 La privacidad: Las actividades básicas, son personales frente a las instrumentales que pueden
ser colectivas en el sentido de realizarse para interactuar con el entorno, públicamente sin
necesidad de intimidad.

¿Actividades de la Vida Diaria o Habilidades para la Vida Diaria?

Se ha propuesto que sería más correcto hablar de habilidades para la vida diaria en vez de
actividades de la vida diaria. De acuerdo con las definiciones de distintos autores se entiende que las
AVD pueden ser definidas como “la capacidad del individuo para llevar a cabo las actividades
cotidianas esenciales” (Fernández-Ballesteros, 1992, p.80). En este sentido, podría entenderse como
la capacidad o competencia del propio individuo para llevar a cabo las actividades de la vida diaria:

habría que utilizar la expresión habilidades para la vida diaria (HVD), más que la comúnmente utilizada
actividad de la vida diaria (AVD) (Fernández-Ballesteros, 1992, p.151).

Es posible que en este punto de la lectura nos preguntemos ¿qué diferencia hay entre las
habilidades adaptativas y las actividades de la vida diaria?, ¿cuál es la relación entre ambas? Lo
cierto es que dependiendo del origen o campo de aplicación y de los autores se ha venido utilizando
más una terminología que otra. Sin embargo, en general podemos afirmar que el término de
habilidades adaptativas surge del ámbito del retraso mental, al estudiar cierto tipo de habilidades
funcionales que son necesarias desarrollar para lograr la máxima independencia y autonomía
personal (AARM, 2002 y Schadock, 1999). En cambio, el término de actividades de la vida diaria es
más común en el ámbito de estudio de la discapacidad en general, como se expuso en el epígrafe
anterior al hablar de su origen.

A continuación, revisaremos brevemente qué se entiende por habilidades adaptativas, primero


atendiendo a su etimología y posteriormente en el ámbito específico de la psicología.

Atendiendo a su origen etimológico, el término habilidad (Del lat. habilĭtas, -ātis) según el Diccionario
de la Real Academia Española, significa “capacidad y disposición para algo, gracia y destreza en
ejecutar algo que sirve de adorno a la persona, como bailar, montar a caballo, etc; Cada una de las
cosas que una persona ejecuta con gracia y destreza”. También, se podría entender como la
competencia que alguien tiene para lograr un determinado objetivo. Mientras que, el término
15
actividad (Del lat. activĭtas, -ātis) se refiere al “conjunto de operaciones o tareas propias de una
persona o entidad, estando más relacionada con el desempeño o cumplimiento de las obligaciones
inherentes a una profesión, cargo u oficio o dedicarse a una actividad” (DRAE, 2001).

Dentro de las habilidades adaptativas se han incluido principalmente las habilidades para el
autocuidado personal, habilidades motrices, sociales, cognitivas, comunicativas y en algunos casos
también profesionales. En la Tabla 1 mostramos un resumen de las distinciones hechas por los
diferentes autores en los últimos años. Tabla 1: Clasificaciones de las habilidades adaptativas.

Autor(es) Dominios
Habilidades de autoayuda
Desarrollo físico
Habilidades de comunicación
Meyers, Nihira, y Zetlin (1979) Funcionamiento cognitivo
Actividades domésticas y ocupacionales
Autodirección y responsabilidad
Socialización
Físico/Motor
Autoayuda/Independencia
Kamphaus (1987). Interpersonal/Social
Responsabilidad
Cognitiva/Comunicación
Independencia personal
Responsabilidad Personal
Responsabilidad Social
McGrew y Bruininks (1989)
Habilidades Académicas Funcionales/Cognitivo
Profesional/Comunidad
Físico/Evolutivo
Desarrollo Motor
Habilidades para la Vida Independiente
Widaman, Borthwick-Duffy y Little (1991)
Competencia Cognitiva
Competencia Social
Competencia Cognitiva
Competencia Social
Widaman, Stacy y Brotwiuck-Duffy (1993)
Desadaptación Social
Desadaptación Personal
Comunicación
Autocuidado
Verdugo (1996) Vida en el hogar
Habilidades sociales
Utilización de la comunidad

16
Autodirección
Salud y seguridad
Académicas funcionales
Ocio y tiempo libre
Trabajo

De este modo, y atendiendo a la revisión bibliográfica realizada parece que el término actividad se
adecúa mejor al concepto aquí tratado: las actividades de la vida diaria. Así, se reconoce no sólo la
importancia e interés que tienen las destrezas de una determinada persona sino, que su esencia es
el producto de la interacción entre las destrezas del sujeto, las tareas u operaciones a realizar y el
contexto donde se lleva a cabo, así como los roles que satisface con las actividades que realiza, que
constituyen un elemento esencial en la formación y mantenimiento de la identidad personal.

Conclusiones

Las actividades de la vida diaria abarcan las actividades más frecuentes que realiza un sujeto, están
relacionadas con lo familiar, diario, cotidiano, con las necesidades humanas, con la independencia y
con el uso del tiempo. En función de su complejidad cognitiva y fin, hacia uno mismo o en relación
con el entorno, se han establecido dos niveles: actividades básicas y actividades instrumentales de la
vida diaria. En el origen de esta clasificación ya se alude a la importancia y necesidad de contemplar
los procesos cognitivos subyacentes a la actividad. De este modo, las actividades de la vida diaria no
pueden reducirse a la mera conducta motora observable.

Los primeros usos del término se hallan en el ámbito de la medicina de la rehabilitación y


actualmente constituye uno de los pilares del ejercicio profesional de los terapeutas ocupacionales.

Aunque en algunos textos se emplea el término de habilidades de la vida diaria o habilidades


adaptativas, éste hace más énfasis en la capacidad del individuo, mientras que el concepto y término
de actividades de la vida diaria incluye también la consideración de las tareas concretas y su relación
con el sujeto, con el contexto y entorno donde toman lugar y con su importancia en la construcción y
mantenimiento de la identidad personal y satisfacción de los roles y obligaciones de cada individuo.
Además, las actividades de la vida diaria están estructuradas temporal y secuencialmente. Su
desempeño está relacionado con la percepción de competencia e identidad personal, los intereses,
con el desarrollo de hábitos y estrategias.

Estos aspectos toman mayor trascendencia en el ámbito aplicado y el establecimiento de programas


de rehabilitación, donde es imprescindible considerar la tarea, el contexto y al sujeto.

17
1.2.2 Aproximación a la Evaluación de las Actividades de la Vida Diaria

El estudio de la actividad humana

A pesar de que distintas perspectivas psicológicas han ido enfatizando con mayor o menor interés la
relevancia de la acción y la actividad como tema del estudio psicológico. Son escasas las
aportaciones que consideran a las actividades humanas globalmente y no divididas en procesos.

En primer lugar, revisaremos la atención prestada por la psicología de la actividad a la funcionalidad


humana. Seguidamente revisaremos el paradigma de la psicología cognitiva, adentrándonos en
aquellos detalles que son esenciales para entender la actividad humana.

Canter (Canter, 1985) indica que una de las ventajas de centrarse sobre el término acción mejor que
en el término conducta, es que se encuentra implicada una clara distinción entre el estudio
psicológico convencional de respuestas y movimientos motores (lo que se denomina habitualmente
conducta) y el estudio de las secuencias localizadas de actividad humana. Afirma que no es
necesario ocuparse de las conductas limitadas de un organismo aislado, pudiendo en su lugar
centrar la atención de la psicología legítimamente en las actividades y experiencias humanas dentro
de sus marcos centrales. También es oportuno mencionar a la psicología cultural, que rescata la
intencionalidad y subraya el papel de los significados en toda acción humana, acorde con la
psicología soviética (Bruner, 1998).

Y aunque todavía hay una ausencia de una teoría global de la actividad humana que pueda ser
considerada como un nuevo paradigma, han existido en el siglo recientemente pasado distintos
intentos por abordarla (Mayor, 1985).

Dentro de estos intentos, cabe destacar a la psicología soviética que entiende que uno de los
objetivos de la psicología recae en el estudio de la estructura de la actividad humana. Dentro de la
psicología soviética, cabe destacar la teoría de la actividad de Leontiev (Leontiev, 1989) que fue
desarrollada con posterioridad a los trabajos de Vygotsky (Vygostky, 1964) en la que se señalan
distintos niveles de análisis de la actividad. La escuela socio-histórica estudia el desarrollo intelectual
entendido a partir de un sustrato biológico y mediado por la cultura, donde el término cultural se
refiere a todos los instrumentos, herramientas o productos de una cultura que han ido acumulándose
a lo largo del tiempo como útiles para la funcionalidad del ser humano. La cultura así entendida
proporciona las condiciones de posibilidad para actuar y, en último término, realizar actividades.

Cuando las “herramientas culturales” convencionales no son suficientes o útiles para facilitar el
desarrollo de una persona, es necesario hacer una determinada adaptación de dichos instrumentos.
Vygotsky plantea que este proceso se lleva a cabo como una “mediación”, es decir, se proporcionan
18
los medios necesarios para poder conseguir el objetivo, medios que son culturales. En general, los
instrumentos de mediación se pueden clasificar en dos tipos: materiales y simbólicos. Así, se
entiende la actividad humana como producto de la interacción de, al menos, tres elementos: el
sujeto, el entorno y la actividad o tarea en sí misma.

Según Leontiev (Leontiev, 1989) es posible diferenciar tres niveles en la actividad: actividad, acción y
operaciones. La actividad es entendida como una concretización individual, que tiene un origen social
y es útil para la satisfacción de necesidades. Rosa, Huertas y Blanco (Rosa, Huertas y Blanco, 1996)
lo explican del siguiente modo:

“Ésta la entendemos aquí como la faceta individual de la práctica social. Mientras, podemos considerar que
el grupo realiza prácticas sociales y el individuo se incorpora a éstas a través de la realización de
actividades concretas (p.e.: trabajar, estudiar, ir a clase, escribir, etc.). Toda la actividad, por tanto, tiene un
carácter social y está motivada, es decir, tiene un motivo concreto que la anima, aunque en ocasiones, este
motivo puede no estar presente en la conciencia” (p. 330).

De este modo, la actividad es en su origen social y, por tanto, está cargada culturalmente de valores,
dirigida a un fin, teleológica y motivada para conseguir una determinada meta.

El segundo concepto, es la acción, que está en un nivel jerárquico inferior al de la actividad y superior
al de las operaciones. La acción se diferencia de la actividad por dirigirse al logro de una meta
concreta. Habitualmente una actividad puede incluir distintas acciones, del mismo modo que se
pueden diferenciar distintas operaciones en una misma acción.

Rosa, Huertas y Blanco (op.cit.) ofrecen la siguiente definición: “La operación es lo que un sujeto
concreto hace con unos instrumentos concretos en una situación concreta” (p. 332).

Las acciones toman lugar y se desarrollan en un contexto concreto, aspecto que, por un lado, nos
permitirá la realización de actividades ofreciendo condiciones de posibilidad, y, por otro, nos limitará
la ejecución o rendimiento. Estos conceptos y modelo suponen un mapa especular de las propuestas
actuales sobre la discapacidad y autonomía (ver para su revisión la Clasificación Internacional del
Funcionamiento, la Discapacidad y la Salud, 2001). Igualmente, estas ideas también se aproximan a
las de Valsiner (Valsiner, 1997, 2001) cuando utiliza el término “affordances”.

En la Figura 1 se muestra cómo los tres términos se interrelacionan entre sí.

19
CONDICIONANTES
 Biológicos
 Psicológicos
 Sociales Actividad
 Culturales

Acciones
AActividad MATIZADAS POR:

 Grupo Sociocultural
Operaciones
 Contexto

 Capacidad/Habilidad

Figura 1: Teoría de Leontiev (Leontiev, 1989).

Otro autor de la misma tradición que Leontiev, Elkonin (Elkonin, 1971), hace una reflexión y
propuesta sobre el desarrollo psicológico a partir de la actividad, y diferencia entre actividades
orientadas hacia el significado de la actividad humana (aprendizaje de objetivos, motivos y normas
del grupo) y actividades mediante las cuales el niño adquiere las formas socialmente desarrolladas
de acción sobre los objetos y las normas sobre sus distintos usos. Tradicionalmente las actividades
de la vida diaria han sido clasificadas en básicas, que obedecería a la acción con los objetos de
Elkonin, y actividades de la vida diaria sociales, que presentan mayor similitud con las actividades de
acción social del mismo autor.

las características del ser humano es su tendencia, habilidad para interactuar y transformar el mundo
exterior, su medio y contextos, a través de su capacidad simbólica y de reflexión, así como por su
desempeño, ejecución y participación en diversas actividades (Piaget, 1947). También, para Piaget,
el niño debe construir sus capacidades a través de las interacciones con el ambiente. Los conceptos
suponen elementos perceptivos e información basada en la actividad, que son los que constituyen el
núcleo a partir del cual el sujeto puede identificar un objeto y le proporcionan un mecanismo que
facilita un funcionamiento adaptativo.
20
González (1995) recoge que tal es la importancia de la representación de las acciones, en las que se
incluyen tanto el movimiento como las propiedades que de él resultan, que Piaget supone que esos
movimientos y conductas motoras se interiorizan de tal forma que las interpreta como si se tratara de
un código de representación de las actividades de movimiento y causalidad. Hay dos procesos que
se han utilizado para explicar el desarrollo y la adaptación: la asimilación y acomodación.

A través de la asimilación el sujeto va interiorizando el entorno con el que interactúa, mientras que
mediante la acomodación el sujeto va modificando su estructura cognitiva para adaptarse a las
demandas del entorno. Cuando se ha alcanzado un determinado nivel de competencia, se pueden
atender a nuevas demandas del entorno que supondrán un nuevo desafío y desequilibrio. Aspectos
que están presentes en los principales modelos sobre la ocupación humana, donde no sólo la
competencia real, sino también la percepción de competencia supone un elemento clave para
entender las actividades cotidianas (ver Kielhofner, 2002; 2006; Trombly y Radomski, 2002, 2007;
Law, 1998).

Desde la psicología cognitiva existe una lectura particular de la actividad humana, donde al menos se
pueden identificar tres enfoques diferentes para el estudio de la actividad. Una primera aproximación
está dedicada al estudio de los procesos psicológicos subyacentes a la actividad, conocidos como
modelos de arriba a abajo (top down). Por otro lado, los modelos de abajo a arriba (bottom up)
proponen que son los objetos, el contexto de ejecución el que activa distintos procesos cognitivos,
como la percepción visual o auditiva, memoria semántica, memoria procedimental y el sistema motor
lo que finalmente conducirá a una respuesta, que deseablemente permita el uso correcto de los
objetos y contexto. Una tercera opción, es la representada por las arquitecturas cognitivas, como las
propuestas por Newell (1990) y Anderson (1983, 1990).

En general, la psicología cognitiva pretende descubrir cómo las representaciones mentales del
individuo determinan su comportamiento. Se concibe al hombre con una orientación pragmática, que
quiere controlar la realidad a través del establecimiento de planes y logro de metas (De Vega, 1998).
De este modo, se entiende que la mente recibe e interpreta las situaciones determinando así la
actividad o acción futura, para ello es preciso que adquiera la información, la represente, la identifica,
organice y dé significado, la almacene y la recupere o pierda, dé energía, actividad, mantenimiento y
dirija el sistema conductual, resuelva problemas, tome decisiones, produzca una respuesta motora o
mental y regule su propia actividad (Gadner, 1987).

De acuerdo con la primera perspectiva, Humphreys, Forde y Riddoch (Humphreys, Forde y Riddoch,
2001), han propuesto que la ejecución de actividades, que conllevan múltiples pasos, dependen de
distintos procesos cognitivos. Así, son dos los elementos esenciales para la ejecución de actividades.
21
En primer lugar, las representaciones almacenadas en la memoria, que son diferentes en función del
grado de automaticidad de la tarea, como esquemas detallados para una tarea rutinaria y como
esquemas generales para tareas no rutinarias, a los que habría que añadir el uso de estrategias y la
solución de problemas para realizar una actividad de manera eficaz. Y, en segundo lugar, los
procesos de recuperación de la información, considerando tanto la conducta motora como la
secuencia temporal.

En relación con el anterior modelo está la propuesta de los esquemas mentales (Shallice, 1982).
Resumidamente, propone que la conducta está mediatizada por esquemas mentales que interpretan
los inputs externos y especifican una respuesta o acción, aunque los estímulos pueden activar
distintos esquemas a la vez, lo que supone que existe un procesador para solucionar los conflictos,
que entra en funcionamiento de manera automática y actúa en situaciones que son familiares o
rutinarias, como ocurre en la mayoría de las actividades básicas de la vida diaria. Cuando la tarea a
realizar es nueva o se producen modificaciones en la misma, es preciso emplear más recursos
cognitivos, y así como la puesta en marcha del sistema de control atencional supervisor, que velará
para que la ejecución de la actividad sea lo más precisa posible; por ejemplo, cuando se está
aprendiendo a realizar una tarea nueva o surge un imprevisto en la misma (Kimber y Farah, 1993;
Burgess y Hitch, 1992, 1999; Rumelhart y Norman, 1982).

Según estos autores existe una jerarquía de información supraordenada, que genera esquemas
generales de acción o esquemas detallados. Los primeros permitirán la generalización, mientras que
los segundos son exclusivos de ciertas actividades, y ambos pueden ser dependientes del contexto.
Como advierte González Marqués (1995), la conducta es construida por el organismo: la situación
estimular se define, por tanto, no sólo a partir de las energías físicas de los estímulos sino también
de sus propias predisposiciones y precondiciones; los datos de la situación y los datos provenientes
del propio organismo en forma de estados internos motivacionales o hábitos adquiridos, son
transformados y manipulados activamente hasta llegar al nivel de pro positividad consciente; del
mismo modo, el organismo o el sujeto también interviene al seleccionar y ejecutar la respuesta. La
teoría cibernética (Weiner, 1948), supuso un hito fundamental en el desarrollo de la actual psicología
cognitiva, incluyendo la actividad humana, considerándola dirigida a un objetivo, es decir, propositiva,
mediada por la intencionalidad y la motivación del sujeto.

Una de las características rescatadas de la comprensión actual de las actividades de la vida diaria es
precisamente el estar orientada a una meta o fin y estar influidas ampliamente por la motivación del
individuo. Asimismo, el concepto de retroalimentación queda claramente patente en las actividades
de la vida diaria donde es inexcusable la consideración del entorno, ya sea físico, social o cultural en
22
el desempeño y participación en diferentes actividades. Evidentemente, para que esto sea posible el
concepto del ser humano requiere necesariamente la consideración de que es un ser con
representaciones mentales de información, sobre sus objetivos, el entorno, y con la capacidad de
modificar su comportamiento para lograr sus fines.

Otro elemento importante que influirá en la psicología cognitiva y en el entendimiento de las


actividades es la diferencia entre competencia y actuación como herencia de la perspectiva
chomskiana, que incluso ha quedado reflejado en el nuevo modelo de la Organización Mundial de la
Salud en la clasificación del funcionamiento, discapacidad y participación (en adelante CIF).

Brenner, Ginsburg y Von Crananch advierten que, aunque no existe un modelo único que represente
el enfoque de la acción humana, se pueden identificar ciertos aspectos comunes a la mayor parte de
los modelos de acción (Brenner, Ginsburg, & Von Cranach, 1985). En primer lugar, entienden que la
acción está organizada tanto jerárquica como secuencialmente. Enfatizan la importancia del
contexto, incluyendo el contexto inmediato de las acciones antecedentes en la secuencia, el contexto
situacional y la base sociocultural. Los procesos de feedback y feedforward, así como otros rasgos
de los sistemas abiertos, son también comunes a estos modelos, como lo es una interacción explícita
entre las categorías cognitiva y conductual de acción. Además, todos los modelos consideran que la
acción está dirigida a la consecución de metas.

Por otro lado, la psicología de la acción representa un movimiento de integración entre la psicología
cognitiva y conductual, rescatando la motivación y pro positividad de la persona para realizar una
determinada acción. Uno de los representantes de este enfoque es Atkinson que, junto a Birch,
propuso la “Teoría Dinámica de la Acción” (Atkinson y Birch, 1978), siguiendo la línea de estudio
planteada por Tolman (Tolman, 1925, 1932). En este sentido Garrido (Garrido, 1995) advierte que:

La acción se expresa en actividades, que se concretan y actualizan en actos. El concepto de actividad hace
referencia a los mecanismos bio-psico-sociales a través de los que el sujeto manifiesta las acciones. La
acción integra dos tipos de actividad, la actividad mental y la actividad física, que a su vez comprende
distintos niveles (p. 481).

Según recoge Garrido (op.cit) la psicología de la acción está influida por la postura de Gibson
(Gibson, 1960), en cuanto que la acción que la persona pueda realizar está posibilitada y a la vez
limitada tanto por el entorno como por el propio individuo de una forma recíproca, lo que Gibson
llama affordances del objeto y las effectivities del sujeto.

En íntima relación con la premisa anterior, es preciso considerar la característica o propiedad de


poder realizar representaciones y llevar a cabo procesos de elaboración cognitiva que se verá

23
influida tanto por la historia de aprendizaje y experiencia del individuo como por las circunstancias
ambientales o condiciones de posibilidad.

En la psicología cognitiva ha predominado la tendencia de programas de investigación sobre


aspectos parciales del procesamiento de la información. En este sentido, advierte Cañas que “se han
propuesto modelos y realizado experimentos sobre sensación, percepción, memoria, etc. Muchas
veces limitados a ciertas tareas especialmente diseñadas para realizar en el laboratorio y que poco
tenían que ver con la vida real” (Cañas y Waerns, 2001, p.28 y 29).

Similarmente, Newell propuso crear teorías lo más generales posibles y que integrasen la mayor
parte de las estructuras y procesos cognitivos, conocidas como arquitecturas cognitivas. Dentro de
las arquitecturas cognitivas caben destacar dos originadas dentro de la ciencia cognitiva: ACT-R
(Anderson, 1976) y SOAR (Newell, 1990) y otra propia de la investigación en ergonomía CCT (Kieras
y Polson, 1985). ACT-R (Anderson, 1993) se originó a partir del modelo HAM de Anderson y Bower
(1973) y posteriormente se amplió para explicar el aprendizaje y solución de problemas. Estas
estructuras se apoyan en las reglas de producción (si “condición”, entonces “acción”) y en cómo el
sistema cognitivo se adapta al ambiente. Se considera que el aprendizaje consiste en convertir el
conocimiento declarativo en conocimiento procedimental, que se produce en tres etapas: 1) fase
declarativa, donde el sujeto se repite mentalmente el conocimiento declarativo. Se utilizan las reglas
de producción.; 2) fase de compilación; en función de si la regla ha tenido éxito en una tarea, se crea
una regla nueva que es específica para un contexto donde se realiza la tarea. La compilación puede
producirse de dos maneras: por composición, es decir, varias reglas se combinan en una sola regla;
o por procedimentalización, cuando a una regla se le añade información específica de la tarea y del
contexto; y 3) fase procedimental, cuando las reglas que han sido compiladas pueden ser
automatizadas. Una vez que se ha producido el aprendizaje de una actividad, se puede producir una
transferencia positiva a otra actividad, cuando una regla es aplicable, o una transferencia negativa
cuando la regla no es útil en otra situación.

En general, los diferentes marcos teóricos tienen en común, en primer lugar, que el ser humano es
un ser activo, cuya actividad suele estar orientada hacia la consecución de un objetivo o meta,
aspecto que a su vez conlleva la consideración de la intencionalidad, la elección, determinación,
autonomía personal, la planificación de la acción, así como la resolución de los problemas previos,
en el transcurso o terminación de la actividad.

De este modo, la autonomía personal, la determinación y realización de una u otra actividad se


contemplan no sólo como una necesidad, sino como una característica plenamente humana. Y, en

24
segundo lugar, entienden que toda acción tiene lugar en un determinado entorno y contexto que van
a suponer un estímulo, desafío, un elemento facilitador o limitador.

1.2.2.1 Evaluación Neuropsicológica

La Neuropsicología Clínica (NC) es una disciplina clínica que tiene como objetivos la evaluación y
rehabilitación de las secuelas psicológicas secundarias al daño cerebral (Pérez García, Vilar y
Puente, 2009). Esta disciplina se considera la parte profesional de su disciplina básica de referencia
que es la Neuropsicología. Como disciplina profesional, tiene una amplia implantación en países
como Estados Unidos, Canadá, Alemania, Holanda, etc… pero todavía no tiene un reconocimiento
legal nuestro país. Sin embargo, la presencia de neuropsicólogos en contextos sanitarios, sociales o
legales es muy importante y está teniendo un crecimiento exponencial.

Definir conceptualmente la NC supone ponerla en relación con otras disciplinas similares de la


Psicología o de la Medicina. Sin embargo, definirla profesionalmente supone establecer un perfil
profesional, incluyendo actividades y competencias, que está reconocido y controlado legalmente por
los colegios profesionales y el gobierno de cada país. Esta diferenciación sigue siendo objeto de
debate, aunque está considerablemente aceptada (Adams, 2002; Ardila, 2002). Por otro lado, la
definición conceptual está más ligada a las actividades de investigación. En este sentido, no existen
desarrollos legislativos que limiten quién puede o no investigar en NC. Justo, al contrario, la NC se
beneficia de la multidisciplinar edad de profesionales que investigan en esta área siendo notables las
aportaciones de psicólogos cognitivos, psicofisiólogos, neurólogos, y neurocientíficos en general que
colaboran considerablemente al conocimiento de las relaciones cerebro – conducta y,
concretamente, a la evaluación y rehabilitación de las secuelas psicológicas del daño cerebral.

Sin embargo, la aplicación de todo ese conocimiento al paciente concreto con daño cerebral requiere
de unos conocimientos y de unas habilidades que garanticen la correcta práctica de la NC. Por esta
razón, la práctica profesional de la NC debe estar regulada y limitada al profesional que garantice
que el paciente recibe la mejor de las atenciones posibles y definida dentro de un perfil profesional. A
esto contribuyó considerablemente la Conferencia de Houston (1998) sobre la formación del
neuropsicólogo clínico auspiciada por las principales sociedades científicas internacionales. En
nuestro país, notables esfuerzos se están realizando por parte de la Federación de Asociaciones de
Neuropsicología españolas (FANPSE, www.fanpse.es) para establecer unos criterios de acreditación
de profesional experto en Neuropsicología Clínica que garanticen la calidad en el ejercicio
profesional.

25
Entre las actividades del neuropsicólogo clínico, la evaluación neuropsicológica es la actividad más
frecuente y característica. Diferentes aproximaciones se han desarrollado buscando mejorar los
procedimientos de la evaluación en aras a conseguir exitosamente los objetivos propuestos, aunque
en la actualidad, la mayoría de los neuropsicólogos utiliza la aproximación por baterías flexibles
descrita más adelante (Rabin, Barr y Burton, 2005). Sin embargo, utilizar una u otra aproximación
puede depender de los objetivos de la evaluación. Por esta razón, debemos considerar los diferentes
objetivos que puede tener una evaluación neuropsicológica, las diferentes aproximaciones que hoy
día se pueden realizar y el procedimiento para realizarla, aunque, en la práctica diaria, cada
neuropsicólogo se encuadra en una aproximación concreta y hace adaptaciones del mismo
procedimiento a los diferentes objetivos.

1. Definición y objetivos de la evaluación neuropsicológica o para qué evaluar

Como se ha indicado al inicio, la Neuropsicología Clínica (NC) es una disciplina aplicada que estudia
las manifestaciones psicológicas del daño cerebral (Lezak et al., 2004) y se puede considerar que las
dos principales áreas que la componen son la evaluación y la rehabilitación neuropsicológica (Pérez
García, 2009a). Sin duda, el área de evaluación es la de mayor tradición y desarrollo en el campo de
la Neuropsicología Clínica y, como es sabido, debe preceder a toda propuesta de rehabilitación en el
paciente (Blázquez-Alisente, González-Rodríguez y Paúl-Lapedriza, 2011).

La definición de evaluación neuropsicológica no es un punto de partida para los manuales de


evaluación neuropsicológica probablemente por dos razones: 1) porque no existe debate en torno a
“qué es” la evaluación neuropsicológica y 2) porque no es diferente en su conceptualización a la
evaluación psicológica, de la cual se diferencia en algunos de sus objetivos, en los instrumentos y en
la formación complementaria en diversas áreas de las neurociencias (Vanderploeg, 2000) que el
evaluador debe tener.

En este sentido, Vanderploeg (2000) define la evaluación neuropsicológica como “un proceso de
resolver problemas o responder preguntas” (Vanderploeg, 2000, pag. 2). Dicho proceso puede ser
diferente según la aproximación que el evaluador tenga, pero las preguntas que debe contestar son
comunes para todos los neuropsicólogos evaluadores y constituyen los objetivos de la evaluación
neuropsicológica. Atendiendo al contenido, Rodríguez (2009) entiende que la evaluación
neuropsicológica es un examen amplio de las funciones cognitivas, conductuales y emocionales que
pueden resultar alteradas después de un daño cerebral.

Es fundamental no confundir la evaluación neuropsicológica con la administración de pruebas o tests


neuropsicológicos. La evaluación comprende una serie de fases que empiezan con la entrevista

26
inicial y la recopilación de informes y termina con la emisión del informe y la información al paciente.
Una de esas fases es la administración de pruebas neuropsicológicas. Sin embargo, el objetivo de la
evaluación es obtener la información necesaria para contestar las preguntas de evaluación y esto se
debe hacer con pruebas neuropsicológicas, con entrevista, con autorregistros, con cuestionarios… o
con cualquier procedimiento que nos proporcione información fiable y válida. Por tanto, que las
pruebas neuropsicológicas sean el procedimiento más frecuentemente utilizado durante la evaluación
no nos puede llevar a reducir la evaluación neuropsicológica a la administración de pruebas
neuropsicológicas.

Este reduccionismo convertiría a los neuropsicólogos en “psicómetras”. La interpretación de las


pruebas desde los modelos científicos neuropsicológicos es lo que diferencia la evaluación
neuropsicológica y al neuropsicólogo de las demás profesionales. Con respecto a cuáles son los
objetivos posibles de la evaluación neuropsicológica existen diversas opiniones, aunque el
solapamiento entre ellas es considerable. Lezak et al (2004) ha propuesto que son cuatro los
objetivos de la evaluación neuropsicológica: 1) diagnóstico diferencial, 2) planificación de cuidados al
paciente, 3) planificación de la rehabilitación y 4) investigación. La propuesta más amplia sobre los
objetivos de la evaluación neuropsicológica es la realizada por Vanderploeg (2000) quien considera
10 posibles objetivos: 1) diagnóstico diferencial, 2) descripción de las áreas dañadas e intactas
cognitiva, emocional y psicológicamente, 3) ajuste de objetivos de rehabilitación, planificación de
necesidades educativas o de vuelta al trabajo, 4) planificación de altas e ingresos, 5) establecimiento
de compensaciones por incapacidad, 6) establecimiento de compensaciones personales por daños
(peritaciones judiciales), 7) evaluación de la competencia, 8) evaluaciones forenses, 9) investigación
y 10) entrenamiento de otros. En la tabla 1 se presentan distintas propuestas de objetivos de
evaluación propuestos por diversos autores (ver tabla 1).

Como se puede observar, existe relativo consenso en que los objetivos de la evaluación
neuropsicológica se podrían agrupar en 1) diagnóstico diferencial, 2) caracterización del deterioro
neuropsicológico en términos de áreas dañadas e intactas con el objetivo de conocer la naturaleza
del daño cerebral, planificar la rehabilitación, dar consejo educativo o vocacional o medir el cambio
después de una intervención, 3) la evaluación en contextos forenses y 4) la evaluación en protocolos
de investigación (Pérez García, 2009a).

27
TABLA 1
OBJETIVOS DE LA EVALUACIÓN NEUROPSICOLÓGICA
SEGÚN VARIOS AUTORES
Blázquez
Vanderploeg Prigatano et al. Lezak et al. Perea y Ardila Hebben y Rodríguez
Alisente et al.
(2000) (2003) (2004) (2005) Milberg (2009 (2009)
(2011)
Descripción de las
Identificar,
Describir los consecuencias
Determinar el Describir e describir y
cambios en cognitivas,
Diagnóstico estatus identificar cuantificar
alteraciones Diagnóstico emocionales y
diferencia cognitivo actual cambios déficits
cerebrales comportamentales
del paciente psicológicos cognitivos y
superiores de la disfunción
conductuales
cerebral
Descripción de
Contribución al
las áreas
Analizar los Determinar los diagnóstico
dañadas e Monitorizar los Planificación de Establecer
síntomas y correlatos preciso en
intactas cambios con y cuidados al medidas de
signos biológicos de contexto
cognitiva, sin tratamiento paciente línea base
presentes los resultados neurológicos y
emocional y
psiquiátricos
conductualmente
Ajuste de
Proveer Determinar si
objetivos de
información los cambios Diseño de
rehabilitación, Ayudar al Evaluar la
Planificación de adicional para están programas de
planificación de diagnóstico de eficacia de las
la rehabilita. efectuar un asociados con rehabilitación
necesidades síndromes intervenciones
diagnóstico alguna individualizado
educativas o de
diferencia patología
vuelta al trabajo
Determinar las
Proporcionar un Sugerir
secuelas
guion de la posibles Evaluar el
Evaluación de sociales, Valoración de la
Planificación de naturaleza de patologías cambio en el
la eficacia de laborales, eficacia de las
altas e ingresos las alteraciones subyacentes a tiempo y hacer
los tratamientos legales, intervenciones
y como la alteración pronósticos
familiares y
abordarlas cognitiva
personales
Proporcionar al
Evaluar el
Establecimiento paciente y Valoración
Sugerir Proporcionar estado afectivo
de familiares médico-legal del
Investigación procedimientos guía para la y cognitivo para
compensaciones consejo sobre nivel de deterioro
terapéuticos rehabilitación planificar la
por discapacidad las decisiones cognitivo
rehabilitación
de la vida diaria
Establecimiento
de
Proporcionar
compensaciones Desarrollar Evaluación en Contribuir al
guía para la Investigación
personales por investigación contextos diagnóstico
educación de clínica
daños neuropsicológica forenses diferencial
los cuidadores
(peritaciones
judiciales)
Planificar la
Evaluación de la
implementación
competencia
del tratamiento
Evaluaciones
forenses
Investigación
Entrenamiento
de otros

28
Diagnóstico diferencial

Con respecto al diagnóstico diferencial se ha producido un cambio en las aplicaciones de dichos


objetivos. Es comúnmente aceptado que el diagnóstico diferencial en alteraciones neurológicas y la
localización de la lesión es un objetivo “histórico” que hoy día ha quedado ampliamente superado por
las técnicas de neuroimagen (Crosson, 1994; Heaton y Marcotte, 2000; Lezak, 1995; Mapou, 1995;
Miller, 1992). Sin embargo, existen varios supuestos en los que el diagnóstico diferencial puede ser
útil. Ése es el caso de diagnósticos tempranos en patologías como las demencias y el diagnóstico de
patologías como traumatismos craneoencefálicos leves o procesos metabólicos o tóxicos (Lezak et
al., 2004; Miller, 1992). Particularmente importante por su frecuencia es el diagnóstico diferencial de
las demencias, delirium y trastorno amnésico (Antequera, Vivancos y Pérez García, 2011).

Asociado al avance de las técnicas de neuroimagen se ha producido el abandono de la evaluación


neuropsicológica con el objetivo de localizar daño cerebral. Actualmente, las técnicas de
neuroimagen son considerablemente más precisas y más baratas localizando daño cerebral que las
pruebas neuropsicológicas. Además, el nivel de sofisticación adquirido ha motivado que existan
profesionales especializados en su interpretación como son los neurorradiólogos o los médicos de
medicina nuclear, amén de otros profesionales relacionados como neurólogos, neurocirujanos o
neurofisiólogos.

Es obvio que la información proporcionada por las técnicas de neuroimagen contribuye, con el resto
de la información obtenida antes de la evaluación, al establecimiento de las hipótesis de deterioro
neuropsicológico. Por otro lado, la evaluación neuropsicológica puede contribuir considerablemente a
establecer las consecuencias emocionales, cognitivas y comportamentales de los hallazgos en las
pruebas de neuroimagen. Por tanto, en la actualidad, la localización de daño cerebral es
competencia profesional de otros especialistas, aunque, en el campo de la investigación, las técnicas
de neuroimagen están siendo considerablemente utilizadas por los neuropsicólogos para localización
anatómica de estructuras, especialmente si es neuroimagen funcional.

Caracterización del deterioro neuropsicológico

El objetivo más frecuente de remisión de un paciente al neuropsicólogo es caracterizar el deterioro


en términos de áreas afectadas y áreas intactas e informar de su severidad. Esta información puede
ser luego utilizada para a) medir el cambio, b) planificar la rehabilitación o c) predecir el
funcionamiento cotidiano del paciente (Rabin et al., 2005). La medida del cambio es uno de los
objetivos que más investigación está recibiendo en la actualidad debido a las considerables
dificultades que conlleva la eliminación del efecto de la práctica (Heaton y Marcotte, 2000).

29
Planificación de la rehabilitación

El objetivo de la evaluación para la planificación de la rehabilitación es considerado una de las áreas


de mayor desarrollo en el futuro de la Neuropsicología Clínica ya que la mayoría de las pruebas
neuropsicológicas informan sobre la presencia o no de daño, pero no de qué discapacidad causa ese
daño. La evaluación neuropsicológica con este objetivo debe informar de, al menos, los siguientes
aspectos (Lezak, 1995):

1. Cuáles deberían ser los objetivos de la rehabilitación.

2. Cómo medir los progresos durante la rehabilitación tanto para evaluar la eficacia de la intervención
como para revisar los objetivos, si fuera necesario.

3. Qué variables pueden interferir con la rehabilitación.

4. Cómo entrenar al paciente, es decir, cuál es la forma de aprendizaje que el paciente tiene intacta o
resulta más productiva.

Otro de los recientes e importantes objetivos de la evaluación neuropsicológica es la valoración


funcional de las alteraciones neuropsicológicas (Heaton y Marcotte 2000). Dicha valoración es
importante tanto en la planificación de la rehabilitación y el consejo para la reincorporación escolar
y/o vocacional como en la evaluación forense. Conocer qué habilidades de la vida cotidiana o laboral
de un paciente puede realizar y cuáles no ayuda a determinar los objetivos de la rehabilitación ya que
dichas áreas deben ser objetivo prioritario de nuestra intervención.

Ésta, que es una de las áreas de mayor desarrollo en la evaluación neuropsicológica, así como una
de las áreas hacia las que debe orientarse el desarrollo futuro (Lezak, 1995), está produciendo
importantes avances en la evaluación y rehabilitación de habilidades específicas con amplio valor
funcional como la habilidad de conducir después de un traumatismo craneoencefálico (Brouwer y
Withaar, 1997; Marcotte y Scott, 2009; Rizzo y Kellinson, 2010) y en la búsqueda de variables
predictoras de reincorporación laboral (Johnson, 1998; Kibby, Schmitter-Edgecombe y Long, 1998;
Sadek y Van Gorp, 2010). Esto último ha provocado el desarrollo de pruebas con validez ecológica,
aunque todavía son pocas las que cuentan con esta validez (Goldstein, 1996; McCue y Pramuka,
1998; Sbordone y Long, 1996).

Evaluación en contextos forenses

La evaluación en contextos forenses es otra de las áreas de la evaluación que está teniendo mayor
crecimiento e importancia (Heilbronner, 2004; Kanauss, Schatz y Puente, 2005; Larrabee, 2005). Las
aplicaciones que este tipo de evaluación tiene son amplias y abordan tanto aspectos civiles como

30
penales. En los aspectos civiles, el objetivo de la evaluación forense es determinar la existencia de
daño cerebral tras actividades personales o laborales, así como en casos de custodia de personas o
bienes. En el área penal, la evaluación neuropsicológica forense es utilizada para establecer la
capacidad para asistir al juicio o la presencia de daño cerebral que sirva como atenuante, entre otras
(Larrabee, 2005).

Evaluación en contextos de investigación

Por último, la evaluación neuropsicológica es demandada y necesaria en investigaciones que


impliquen, por ejemplo, algún tipo de neurocirugía, de psicofarmacología o cuando se quiere
determinar la existencia de alteraciones neuropsicológicas como síntomas de alguna enfermedad.
Así, por ejemplo, es necesario contar con una evaluación pre-post cuando se prueban nuevas
técnicas de cirugía como es el caso de la cirugía de la epilepsia o cuando se prueban tratamientos
neuroquirúrgicos de alteraciones cerebrales como es el caso de trasplantes neuronales en la
enfermedad de Parkinson. En estos casos, es imprescindible disponer de una evaluación
neuropsicológica que evalúe, por un lado, efectos no deseados de la intervención neuroquirúrgica y,
por otro, monitorice las mejoras en las funciones neuropsicológicas evaluadas.

Otra área de necesaria aplicación de la evaluación neuropsicológica es la investigación de nuevos


psicofármacos. Debido a que los efectos de los psicofármacos sobre los neurotransmisores, sus
agonistas o antagonistas no son específicos de un sistema cerebral, es frecuente que se encuentren
efectos secundarios que afectan a sistemas neuropsicológicos. Esto hace que sea necesario contar
con una evaluación neuropsicológica en los ensayos clínicos de psicofármacos. Por último, también
es necesario hacer una evaluación neuropsicológica para detectar la presencia de alteraciones
neuropsicológicas en enfermedades que cursan con afectación del Sistema Nervioso Central (SNC).
Así se detectaron alteraciones neuropsicológicas en enfermedades como el Síndrome de
Inmunodeficiencia Adquirida (SIDA) o el Lupus Eritematoso Sistémico (LES), entre otras.

2. Contenidos de la evaluación neuropsicológica o qué evaluar

Como hemos visto anteriormente, la evaluación neuropsicológica es un proceso que, como su


nombre indica, estudia las manifestaciones psicológicas de las alteraciones cerebrales. Sin embargo,
¿qué dimensiones de lo “psicológico” se evalúan durante la evaluación neuropsicológica? Por
defecto, se deben evaluar todas las dimensiones de la Psicología, es decir, los aspectos cognitivos,
emocionales y de personalidad, motores y sociales. El daño cerebral puede afectar a cualquiera de
ellos, pero no tiene por qué afectar a todos siempre ni con la misma intensidad. Por otro lado, el
desarrollo de una disciplina joven como la Neuropsicología Clínica hace que se vayan incorporando

31
áreas o dimensiones psicológicas que se deben evaluar. Así, las primeras evaluaciones se centraron
en la dimensión cognitiva, posteriormente se incorporaron la emocional y de personalidad, la motora
y, por último, la psicosocial. Sin embargo, actualmente el énfasis de la evaluación neuropsicológica
se hace en los aspectos cognitivos. Según Lezak et al. (2004) esto se debe a tres razones:

1. Porque las alteraciones cognitivas son muy salientes en la mayoría de las alteraciones cerebrales.

2. Porque pueden ser fácilmente medibles y correlacionales con datos neuroanatómicos.

3. Porque la estructura de la evaluación neuropsicológica dificulta la evaluación de otras dimensiones


de la conducta.

A estas razones expuestas por Lezak hay que añadir otras que nos parecen que favorecen la
focalización en la dimensión cognitiva:

1. El paradigma dominante actualmente en psicología es el cognitivo (aunque la revolución


emocional ha comenzado) y eso favorece que dispongamos de más información sobre el sistema
cognitivo que, por ejemplo, el emocional. Por tanto, al aplicar el corpus de conocimientos
psicológicos a los pacientes con daño cerebral se aprecia una mayor predominancia de los datos
cognitivos. Medimos más en las áreas en las que tenemos más variables dependientes.

2. Algunas dimensiones de la conducta como la emocional son difíciles de medir en los contextos
clínicos, al menos por ahora, con los procedimientos que actualmente dispone la psicología. Cómo
afecta el daño cerebral a la capacidad de amar del paciente es una cuestión que tardaremos en
contestar.

3. Lo que no se demanda, no se mide. Hasta hace pocos años, el objetivo de la evaluación


neuropsicológica era la determinación de presencia/ausencia de daño cerebral y localizarlo. Ninguna
importancia se concedía a las repercusiones funcionales del daño cerebral. Sin embargo, con el
desarrollo de la rehabilitación y la orientación neuropsicológica cada vez son más precisos los
instrumentos que nos informan sobre qué consecuencias funcionales tiene el déficit neuropsicológico
en el funcionamiento cotidiano. Esto ha producido un incremento en el desarrollo de medidas que
informen de los aspectos funcionales, tanto de habilidades básicas como complejas (psicosociales)
que nos permitan medir esta dimensión.

Sin embargo, la facilidad de evaluación y la mayor disponibilidad de pruebas no siempre son


sinónimos de relevancia. Aunque es considerablemente difícil medir los aspectos emocionales
(alteraciones en percibir o experimentar emociones) estos aspectos son de una gran importancia
para el paciente o la patología a evaluar (Aguilar, Verdejo García, Peralta, Sánchez y Pérez-García,
2005). Por esto, el evaluador debe hacer un esfuerzo por evaluar todas las áreas y no sólo aquellas
32
para las que dispone de pruebas neuropsicológicas. Según Lezak et al. (2004), las dimensiones de la
conducta a evaluar serían las siguientes: 1) cognitiva, 2) emocional/personalidad y 3) ejecutiva. En la
dimensión cognitiva se deben evaluar los sistemas de entrada, de almacenamiento, elaboración y
manejo de información y de salida del sistema cognitivo. Los sistemas de entrada están compuestos
por el sistema sensorial y el perceptivo. El de almacenamiento está compuesto por los diversos tipos
de memoria. El sistema de elaboración y manejo de la información almacenada está compuesto por
el pensamiento en sus diversos formatos (razonamiento abstracto, verbal, resolución de problemas,
etc.). Los sistemas de salida están compuestos por el habla, la escritura, gestos, expresiones faciales
y movimientos.

Por otro lado, en la dimensión emocional/personalidad de la conducta se deberían evaluar los


cambios y/o exacerbaciones de la personalidad que se pueden manifestar como desinhibición,
euforia, falta de control social, hipersensibilidad en las interacciones personales, baja tolerancia a la
frustración o agresividad, entre otros. En el ámbito emocional hay que evaluar la presencia de
ansiedad, depresión, labilidad emocional o aplanamiento emocional. También incluye en este
apartado los posibles cambios en la conducta sexual que pueden ser tanto pérdida como aumento
del interés sexual.

Por último, Lezak propone que en la dimensión ejecutiva de la conducta hay que evaluar la
capacidad del paciente de proponer metas conductuales, planificar su secuencia, controlar su
ejecución y conseguir llevarlas a cabo. Según la autora esta dimensión se podría confundir con la
cognitiva, pero está claramente diferenciada ya que la función ejecutiva se refiere a cómo llevar a
cabo la conducta y la dimensión cognitiva está relacionada con qué se puede llevar a cabo. De esta
forma, es posible encontrarse con un paciente con su memoria y pensamiento normales, pero no
sabe cómo llevar a cabo las conductas y, a veces, no puede ni proponerse metas conductuales.

En la actualidad, existen diversas propuestas sobre la estructura y componentes de la función


ejecutiva, aunque existe cierto consenso en considerar dos partes: la función ejecutiva “fría” que
estaría relacionada con aspectos de actualización y monitorización, control y cambio y la función
ejecutiva “caliente” relacionadas con la toma de decisiones y los aspectos más sociales y
emocionales de la persona. De esta forma, la función ejecutiva tendría cuatro componentes a
evaluar: actualización/monitorización, inhibición/impulsividad, cambio/flexibilidad y toma de
decisiones (Verdejo-García y Pérez García, 2007).

Sin embargo, aunque estas tres dimensiones recogen bien los contenidos de la evaluación
neuropsicológica, desde nuestro punto de vista dejan fuera otros aspectos importantes como las
variables motivaciones, las habilidades complejas como la solución de problemas, la repercusión del
33
deterioro neuropsicológico en el funcionamiento familiar, social y laboral del paciente y la repercusión
en los familiares del propio paciente. Sin embargo, estos contenidos se pueden evaluar desde
distintas aproximaciones que se describen a continuación.

1.2.2.2 Evaluación Mediante Observación Directa

Propósito

La observación directa y la fotografía ayudan a describir visualmente las condiciones de la


comunidad. Las observaciones y fotografías son métodos rápidos y fáciles de evaluar que se pueden
usar para coleccionar datos locales.

Use observación directa cuando desea

 Conseguir información acerca de los alrededores y los recursos de una comunidad, que no
están disponibles de otra manera.

 Aprender más y entender un comportamiento continuado, situación o actividad. Por ejemplo,


observando a jóvenes relacionarse con sus compañeros y observar como ellos reaccionan a
las presiones de los compañeros.

 Para conseguir evidencia física de un problema. Las fotografías pueden visualmente


documentar las actividades y condiciones de la comunidad, que no se pueden capturar
completamente en informes escritos. Por ejemplo, las fotografías que documentan los
anuncios sobre cigarrillos cerca de las escuelas, pueden revelar mensajes dañinos dirigidos a
los jóvenes.

 Documentar la diversidad étnica y creencias de salud, en forma no obstructiva.

Observación Directa

En nuestra vida diaria nosotros observamos diferentes comportamientos, situaciones, y acciones,


pero en una manera muy casual. Nosotros vemos y oímos cosas, pero muy raramente
documentamos lo que observamos. La observación directa nos permite, en una forma más
estructurada, grabar lo que vemos en nuestra comunidad. Por este medio, podemos observar y
grabar muchas cosas como, estructuras físicas, comportamientos y acciones y los servicios de salud
en la comunidad. Por ejemplo, uno puede observar la disponibilidad de suministros de accesorios
para relaciones sexuales seguras. Esto puede involucrar enviar observadores entrenados para
verificar qué tan fácil es para los jóvenes tener acceso y posibilidad de comprar condones en las
34
farmacias. Los observadores pueden notar dónde se venden los condones y dónde están localizados
o expuestos en el almacén.

Métodos de documentar las observaciones:

Usted puede documentar sus observaciones usando uno o varios de los siguientes métodos:

1) Guías de Observación. Estas son formas impresas ya elaboradas que tienen una lista de los
objetos observados y proveen suficiente espacio en blanco, para hacer las anotaciones de las
observaciones.

2) Lista de Comprobación y de Apuntes. Estas hojas o formas generalmente tienen preguntas Sí


/ No, o una escala de índices para evaluar las estructuras físicas alrededor de la comunidad.
También se pueden usar para evaluar actividades peligrosas, como la venta o uso de drogas
en un área específica.

3) Apuntes de Campo. Esta es la forma menos estructurada de los métodos de documentación


presentados arriba. Un cuaderno de apuntes se usa para anotar el ambiente y/ o los
comportamientos. Usualmente se deja en blanco un margen amplio al lado derecho del
cuaderno para escribir apuntes adicionales y para facilitar más adelante, el análisis de las
observaciones. Los apuntes de campo usualmente tienen el día, el lugar y cualquier
información relevante explicando lo observado.

Quiénes pueden ser los observadores:

Los observadores pueden ser cualquier persona de la comunidad incluyendo:

 Socios o miembros activos

 Residentes de la comunidad

 Representantes

 Miembros profesionales

 Estudiantes internos / graduados

 Voluntarios

Conduciendo las observaciones directas:

Después de decidir qué es lo que se va a observar en la comunidad y quiénes serán los


observadores, comience a efectuar sus observaciones directas. Primero, es importante crear un
plazo de tiempo en el que todas las observaciones deben hacerse y cuándo debe comenzar el

35
análisis de los datos y los apuntes de observación. Segundo, establezca una buena relación con la
comunidad y déjeles saber lo que está haciendo.

Tercero, capacite a los observadores acerca del propósito de las observaciones, cómo serán usadas
y las cosas que tiene que ver y anotar. Debe incluirse en la capacitación un resumen de las formas
de observación, cómo coleccionarlas y entrar los datos en las formas. Finalmente, permita tiempo
suficiente para que los observadores hagan observaciones directas. Asegúrese que recibe un
número significativo de observaciones antes de analizar sus conclusiones.

Resumen:

Las observaciones directas pueden proveer una gran cantidad de información acerca de la
comunidad. El usar las observaciones en combinación con otros datos cuantitativos, puede proveer
un cuadro vívido de las fortalezas de la comunidad, como también de sus problemas y necesidades.

1.2.2.3 Evaluación Mediante Encuestas a Informadores

Considerando las características mínimas que una base de datos secundarios debe cumplir para
poder ser utilizada en la evaluación de impacto de un programa o política, se identificó la ENNViH
como una base de datos adecuada para la evaluación de tres programas sociales.

La ENNViH es un estudio panel multitemático que recoge información amplia sobre indicadores
socioeconómicos, demográficos y de salud a nivel hogar e individual, así como información sobre la
adscripción de los hogares a diversos programas sociales. En 2002, sus unidades primarias de
muestreo fueron seleccionadas para obtener representatividad no sólo en el ámbito nacional, sino
también en el urbano, rural y regional.

La línea basal de la encuesta (ENNViH 2002) es una muestra compuesta por 8,440 hogares
distribuidos en 150 comunidades de 16 estados de la república mexicana, que incluyen alrededor de
35,000 individuos. En 2005-2006 se llevó a cabo el primer re-contacto de los individuos originalmente
encuestados. El diseño del seguimiento de la encuesta comprendió a todos aquellos individuos que
formaron la línea basal, sin importar su lugar de residencia. Esto llevó a ampliar la muestra en 2005-
2006 y abarcar otras entidades de la república, además de los 16 originales, e incluso hacer
entrevistas en Estados Unidos. La tasa de re-contacto en el citado periodo fue de 90 por ciento y la
muestra a nivel de individuos ascendió a cerca de 39,000.

36
Diseño de la muestra

El Instituto Nacional de Estadística y Geografía (INEGI) se encargó del diseño de la muestra de la


línea basal de la ENNViH. El marco muestral está formado por los hogares existentes en México en
2002. Sus características son:

a) Probabilístico, porque todas las unidades de muestreo tienen una probabilidad conocida y
distinta de cero de ser seleccionadas.

b) Estratificado, porque las unidades de muestreo con características geográficas y


socioeconómicas similares se agrupan para formar estratos.

c) Polietápico, porque la unidad última de selección (vivienda) es elegida después de varias


etapas.

d) Por conglomerados, porque las unidades de selección son grupos de unidades muéstrales.

Las unidades de muestreo fueron seleccionadas considerando que la representatividad fuera


nacional, rural, urbana y regional. Las regiones son las incluidas en el Plan Nacional de Desarrollo
2002-2006 del Gobierno Federal.

Seguimiento de la muestra de la línea basal

La actualización de la muestra se realizó de forma natural incorporando a la muestra original a todos


aquellos individuos que, por nacimiento o unión, eran considerados integrantes del hogar. Un hogar o
individuo panel se definió como aquel que pertenecía a la muestra original y fue encuestado en 2002.
En un hogar panel podía haber, o no, individuos nuevos y en todo hogar nuevo siempre existía un
individuo panel.

La actualización de la muestra de la línea basal en 2005 implicó lo siguiente: si los miembros de un


hogar panel ya no pertenecían al hogar, se buscaban y encuestaban; si llegaron nuevos integrantes
a un hogar panel, se entrevistaban y clasificaban como individuos nuevos, y si un individuo panel
salió del hogar y formó otro, éste se consideraba un nuevo hogar y se entrevistaba a todos sus
miembros.

En este sentido, el proceso de re-contacto en 2005 a partir del levantamiento basal constituyó un reto
importante debido a los problemas de pérdida de muestra por migración o cambio de domicilio. En el
caso de hogares o individuos que no fueron hallados en la misma dirección, se emprendieron
operativos de localización que incluyeron verificación con vecinos e informantes clave de la localidad.
En el caso de migrantes, se llevó a cabo el re-contacto de individuos y hogares que se mudaron a

37
alguno de los 16 estados de la muestra basal, a estados que no pertenecían a ésta y a Estados
Unidos.

Diseño de cuestionarios e información contenida en la ENNViH

Los cuestionarios de la ENNViH se ajustan al diseño de la Indonesian Family Life Survey; también se
consideró el diseño de otras encuestas de hogares en México con representatividad nacional, como
la Encuesta Nacional de Ingresos y Gastos de los Hogares (ENIGH), la Encuesta de Empleo Urbano
y la Encuesta Nacional sobre la Dinámica Demográfica para mantener la comparabilidad.

La construcción de los cuestionarios de la ENNViH implicó un cuidadoso trabajo de análisis que


incluyó la organización de diez seminarios interinstitucionales para discutir el contenido de los
aspectos que abarca la encuesta, diversas pruebas piloto para verificar la consistencia y el
funcionamiento de los cuestionarios y ensayos generales de levantamiento.

El cuadro 1 presenta los temas de los cuestionarios de hogares y los realizados en el ámbito
comunitario tanto en la encuesta de línea basal en 2002 como en el seguimiento de la muestra en
2005.

Cuadro 1. Información contenida en la línea basal 2002 y en el seguimiento 2005 de la ENNViH

Encuesta línea basal Seguimiento en 2005


Hogar Comunitario Hogar Comunitario
Gasto y autoconsumo a Información cuantitativa y En los cuestionarios de la Información general sobre
nivel hogar, decisiones de cualitativa retrospectiva ENNViH de 2005, la la población que habita la
ahorro, activos, crédito, acerca de: Escuelas. información recolectada es localidad. Aspectos
deudas, ingreso laboral y Centros de salud. afín con la de la línea sociales de la localidad.
no laboral, transferencias Pequeños proveedores de basal y se incluye Información acerca de
públicas y privadas y salud. Tiendas, información adicional desastres naturales.
participación de supermercados y acerca de la formación de Historia de infraestructura.
programas a nivel hogar e establecimientos los hijos, expectativas Asistencia social. Servicios
individual. Información mercantiles. Farmacias. individuales, preferencias educativos. Servicios
individual y retrospectiva intertemporales, médicos. Actividades
sobre créditos y comportamiento sobre comunitarias. Medios de
préstamos. Educación e altruismo y aceptación de transporte. Fuentes de
información retrospectiva riesgo. agua. Electricidad.
acerca de asistencia Oportunidades de crédito.
escolar y grados Industria, empresas y
reprobados para cada fábricas. Club de
miembro del hogar. migrantes. Precios de
Información retrospectiva bienes y servicios en
(dos años) acerca de las diferentes
decisiones laborales de establecimientos
cada miembro del hogar, mercantiles de la
incluyendo niños. localidad.
Información demográfica
acerca de la familia
extendida y familiares no
residentes del hogar (de
todos los miembros
adultos del hogar).
38
Información acerca de
migración permanente y
temporal. Medidas
antropométricas y
marcadores biológicos de
salud: peso, talla,
circunferencia de cintura y
cadera, presión arterial y
nivel de hemoglobina en la
sangre. Información
retrospectiva detallada
acerca de los servicios de
consulta externa y
hospitalización. Historia de
embarazo, uso de
anticonceptivos y servicios
pre y posnatales para las
mujeres en edad
reproductiva (entre 14 y 49
años de edad). Historia
matrimonial de cada
hombre y mujer miembro
del hogar. Incidencia de
crimen y victimización.
Información detallada
acerca de los negocios
familiares y uso de tierra.

Uso de la ENNViH para medir el impacto de tres programas sociales

Dadas las características de la ENNViH, ésta tiene ciertas ventajas sobre otras encuestas para medir
el impacto de programas sociales:

a) Su carácter multidimensional facilita el estudio de la interrelación de fenómenos demográficos


y socioeconómicos presentes en la dinámica del bienestar de la población; en particular,
permite abordar temas referentes a la salud de los individuos y los gastos que a este aspecto
destinan; las relaciones laborales que mantienen los individuos y las decisiones involucradas
en ellas; la asistencia escolar y el desarrollo cognitivo de los niños y jóvenes; el uso de tiempo
libre de los individuos; el consumo de los hogares; las condiciones de la vivienda y la
adquisición de activos del hogar; el uso de la tierra y la adquisición de activos productivos que
tienen que ver con actividades agropecuarias en el hogar, entre otros. Aunque los tres
programas estudiados en este documento no tienen objetivos comunes y tocan aspectos
diversos de los individuos y los hogares, se ha podido evaluar el impacto de ellos por la
diversidad de temas que contiene la ENNViH.

b) Su diseño longitudinal de largo plazo permite, por un lado, seguir a través del tiempo a los
miembros del hogar originalmente encuestados en la línea basal con independencia de que
hayan migrado y, por otro, estudiar los impactos de mediano y largo plazo de los programas
39
sociales sobre un amplio rango de indicadores de bienestar controlado por una serie de
variables que, en general, no están presentes en otras encuestas. Este carácter longitudinal
de la encuesta ha determinado la metodología utilizada y ha permitido obtener estimadores
más robustos que si sólo se tuvieran datos de un único periodo.

c) Su representatividad nacional, urbana, rural y regional contribuye a la evaluación del impacto


de diversos programas sociales y hace posible que sus resultados tengan validez externa y
representen el efecto que cada programa tendría si se aplicara en el ámbito nacional. Por ello,
dado que los programas estudiados no comparten el espacio geográfico en que operan, la
representatividad de la encuesta en diversos niveles ha generado mayor confianza en la
validez de las estimaciones para cada uno de ellos.

Sin embargo, se debe mencionar que, como en todos los estudios que utilizan bases de datos
secundarias, han surgido algunas limitaciones de la información que se han de considerar al
momento de leer los resultados de los análisis presentados en este documento. El mismo
carácter multidimensional que representa una ventaja al permitir evaluar programas con
diversos ámbitos de acción y objetivos, se convierte en una restricción, ya que, al abarcar
varios temas, la encuesta no alcanza a abordarlos con el detalle que se haría si se generara
una encuesta para el estudio de un programa en particular. Esto pone límites de forma
importante al alcance de los análisis realizados. Además, la pérdida de muestra en el panel
2002-2005 puede acentuarse una vez que se aborda un programa social específico, lo que
compromete la validez externa de los resultados.

1.3 Consideraciones Forenses

Surgió de consideraciones prácticas que realizó la Comisión de Servicios Forense-Psiquiátricos de


British Columbia (Canadá). Profesionales e investigadores de distintas disciplinas trabajaron
conjuntamente en su elaboración.

La HCR-20 es una guía para la valoración de riesgo. Se debe restringir a los contextos en los que
hay una elevada proporción de personas con historia previa de conductas violentas y con una alta
probabilidad de padecer un trastorno mental o de la personalidad. Se trata, pues, de un protocolo de
análisis de la situación y de un instrumento de investigación. Por ello debe emplearse con gran
precaución.

40
Sus posibles aplicaciones: valoración de permisos temporales, libertad condicional o grado de
internamiento y selección de candidatos a realizar salidas de la cárcel y acceso a tercer grado
penitenciario y otras medidas alternativas. También sirve para tratamiento ambulatorio y situaciones
similares en centros de reclusión y hospitales psiquiátricos.

Organización

El HCR-20 es un check-list (lista de chequeo) de factores de riesgo del comportamiento violento. Se


compone de 20 ítems, organizados en 10 factores del pasado o “históricos”, 5 variables presentes o
“clínicos” y 5 aspectos del futuro o “de gestión de riesgo” (ver figura 1).

Los factores históricos o estáticos tienen tanto peso como la combinación de los factores clínicos
presentes y las variables de afrontamiento futuro a las situaciones de riesgo.

Figura 1. Los ítems del HCR-20.

Afrontamiento del riesgo


Histórico (Pasado) Clínico (Presente)
(Futuro)
H1 Violencia previa
H2 Edad del primer incidente
violento
H3 Relaciones inestables de
pareja
H4 Problemas relacionados con
el empleo
R1 Ausencia de planes de futuro
H5 Problemas con el consumo viables
de sustancias adictivas
R2 Exposición a factores
H6 Trastorno mental grave C1 Carencia de introspección desestabilizantes
H7 Psicopatía C2 Actitudes negativas R3 Carencia de apoyo social
H8 Desajuste infantil C3 Presencia actual de síntomas R4 Incumplimiento a los
H9 Trastorno de personalidad de trastorno mental grave tratamientos prescritos
H10 Incumplimiento de C4 Impulsividad R5 Alto nivel de estrés
supervisión C5 No responde al tratamiento experimentado

Administración

Disponer de varias fuentes de información a la hora de evaluar el riesgo. Evaluación multimétodo,


revisión de información registrada en archivos, etc. para disponer de una buena base para la
entrevista y administración de pruebas al cliente.

Algunas cuestiones que hay que tener en cuenta son las que aparecen a continuación:

1) Disponibilidad para ser entrevistado

41
2) Revelaciones poco abiertas/comunicativas

3) Entrevistas detalladas

En la mayoría de los casos, la revisión de archivos, la entrevista y la administración de pruebas es


suficiente para completar el HCR-20. No obstante, para la sección de gestión del riesgo suele ser
necesario consultar a otros colegas responsables del plan de tratamiento o de reinserción en la
comunidad.

Capacidades o habilidades

Los usuarios de esta guía deben manifestar al menos dos habilidades básicas:

1. Experiencia en evaluaciones individuales. Estar entrenado y/o tener experiencia en realización


de entrevistas; administración e interpretación de instrumento estandarizados y en el
diagnóstico de trastornos mentales.

2. Conocimiento de los estudios sobre la violencia. Familiarizados con la literatura profesional y


de investigación sobre naturaleza, causas y manejo de la violencia.

Codificación

La codificación del HCR-20 requiere dos tipos de juicios:

1) A nivel de ítem: determinar la presencia o ausencia de cada uno de los 20 factores de riesgo
individualmente. Los ítems se codifican en una escala de tres puntos, según el grado de
presencia de los factores de riesgo.

0 No- el ítem está claramente ausente o no se puede aplicar


Quizá- el ítem está presente con probabilidad, o está presente con
1
una intensidad limitada
2 Sí- el ítem está claramente presente
No lo sabe- la información no es suficientemente válida para tomar
Omitir
la decisión acerca de la presencia o ausencia del ítem

2) Resumen o decisión final: se recomienda tomar una decisión final acerca del riesgo de
violencia utilizando una escala de 3 puntos. Bajo: riesgo limitado; moderado: cierto nivel de
riesgo; y elevado: riesgo de violencia alto o muy elevado.

3) Ítems de gestión de riesgo: clarificar el contexto en que se lleva a cabo la evaluación del
riesgo. “In” violencia en el interior de la institución y “Out” violencia en la comunidad.

4) Repetición de las mediciones: pueden variar en función del contexto y otras circunstancias las
estimaciones sobre el riesgo. Se recomienda repetir al menos cada 6 o 12 meses.
42
Definición de violencia

“El daño real, la intención o amenaza de llevar a cabo daño o perjuicio hacia una o más personas.
Las amenazas de daño deben ser claras y no ambiguas, y no solamente verbalizaciones vagas de
hostilidad. La violencia es un comportamiento que puede causar daño, producir miedo. El daño
resultante infligido a la víctima no es definitorio en sí mismo del acto violento. Al contrario, el acto es
violento en sí mismo.

Si existen estos criterios se pueden evitar consecuencias dudosas:

1) el comportamiento causa lesión física o de amenaza que causa miedo a una

o más personas;

2) el comportamiento da suficientes motivos para justificar una denuncia, causa

penal/persecución jurídica.

Métodos de evaluación

 Entrevista clínica semiestructurada Información sobre: conductas, emociones, pensamientos y


actitudes; historial de la vida y problema psicolegal; historial interpersonal y social; estructura y
composición familiar; desarrollo educativo, social y laboral.

 Exploración psicopatológica

Cinco categorías (Barlow y Durand, 2003):

a) Apariencia y conducta

b) Procesos de pensamiento

c) Estado de ánimo

d) Funcionamiento intelectual

e) Sensorio

 Instrumentos de autoinforme

a) Tests de cribado psicopatológico:

 “Cuestionario de salud general de Goldbeg” (General Health Questionnaire, GHQ;


Goldberg, 1996)

 “Listado de síntomas 90-revidado” (Symptom Checklist-90-Revised, SCL-90-R;


Derogatis, 2001)

43
b) Cuestionarios de la personalidad:

 “Cuestionario de 16 factores de personalidad” (Sixteen Personality Factor Test, 16


PF-5; Cattell et al., 1993)

 “Inventario NEO de personalidad revisado” (NEO Personality Inventory-Revised,


NEO-PI-R; Costa y McCrae, 2001)

c) Cuestionarios clínicos:

 “Inventario multifásico de personalidad de Minnesota-2" (Minnesota Multiphasic


Personality Inventory-2, MMPI-2; Hathaway y McKinley, 2000)

 “Inventario clínico multiaxial de Millon-II” (Millon Clinical Multiaxial Inventory, MCMI-


II; Millon, 2000, orig. 1987)

 “Examen internacional de los trastornos de la personalidad” (International


Personality Disorder Examination, IPDE; Loranger, 1999)

Formulación funcional forense

 Fase descriptiva de la formulación clínica

o Definición de los problemas

o Análisis funcional descriptivo

o Análisis de la adquisición y predisposición

 Fase inferencial de la formulación clínica

o Diagnóstico psicopatológico

o Formulación clínica y modelo psicopatológico

 Fase de tratamiento

Estructura del informe en psicología clínica forense

Las directrices a seguir en el desarrollo de un informe pericial psicológico (Graña, 1997) son
las que se describen a continuación:

1. Identificación:

o Datos de filiación del perito

o Datos de filiación del peritado

o Juzgado de procedencia y número de asunto

44
2. Metodología

o Entrevistas

o Pruebas complementarias

o Pruebas diagnósticas

o Otras pruebas de interés

o Bibliografía utilizada

3. Análisis descriptivo:

o Anamnesis y/o análisis de la situación psicológica del peritado

o Análisis funcional del trastorno psicopatológico o problema(s) psicológico(s) del peritado

o Antecedentes y/o adquisición del trastorno psicopatológico o problema(s) psicológico(s)

o Factores de predisposición o vulnerabilidad

o Otras áreas de interés para el informe: autocontrol específico y general, autoimagen, apoyo
social, situación vital y estilo de vida

o Exploración psicopatológica

4. Resultados:

o Impresión diagnóstica (DSM-IV en los cinco ejes, CIE-10) y justificación de los criterios que
cumple

o Resultados de las pruebas complementarias: psicodiagnóstico, entrevistas, observaciones

o Formulación forense: hipótesis explicativa

o Contraste de hipótesis

o Modelo psicopatológico y justificación teórica

o Consideraciones generales (relacionar de forma sintética el objetivo planteado y los


resultados obtenidos)

5. Discusión forense:

o Relación entre psicopatología, capacidades cognoscitivas, volitivas y delito

6. Conclusiones:

o Conclusiones finales enumeradas

45
2 LA EVALUACIÓN NEUROPSICOLÓGICA

2.1 El Proceso de Evaluación Neuropsicológica

Aproximaciones al proceso de la evaluación neuropsicológica o formas de evaluar

Diversas denominaciones han sido utilizadas para etiquetar las dos aproximaciones que existen en la
evaluación neuropsicológica como aproximación “cuantitativa” vs. “cualitativa”, aproximación “fija o
por baterías” vs. “flexible” o aproximación “psicométrica” vs. “centrada en el proceso”. Sin embargo,
dichas acepciones no son muy afortunadas ya que no describen adecuadamente la variabilidad que
existe dentro de cada aproximación. Probablemente, la denominación más adecuada sea la
propuesta por Russell (1997) quien denomina a estas aproximaciones como “contrastación de
hipótesis” vs. “análisis de patrones”.

En qué medida estas aproximaciones afectan a la evaluación neuropsicológica es una cuestión difícil
de discernir. Por un lado, se podría afirmar que dichas aproximaciones no afectan a la evaluación
neuropsicológica sino a la administración de pruebas neuropsicológicas ya que la aproximación de
análisis de patrones aboga por el uso de baterías de tests que siempre son los mismos,
independientemente de la patología o los síntomas del paciente.

Por otro lado, la aproximación de contrastación de hipótesis aboga por una selección de tests en
función de la patología y los síntomas del paciente. Sin embargo, si sólo fuera una cuestión de
administración de pruebas neuropsicológicas, los resultados de una u otra aproximación deberían ser
similares y esto no es así. La aplicación de una u otra aproximación lleva a la consecución de
diferentes resultados, como expondremos a continuación. Por tanto, la adopción de una u otra
aproximación excede el ámbito de la administración de tests y afecta a todo el proceso de
evaluación.

Por otro lado, algunos autores afirman que, aunque estas aproximaciones son conceptualmente
diferentes y llevan a resultados diferentes, la tendencia actual es abandonarlas para utilizar una
combinación de ambas en una aproximación denominada baterías flexibles (Bauer, 2000; Groth-
Marnat, 2000; Vanderploeg, 2000). Esto se puede observan en un reciente estudio realizado por
Rabin et al. (2005) entre los socios de la división 40 de APA, los de NAN y los de INS donde
encuentra que el 68% utiliza la aproximación por baterías flexibles, un 20% la aproximación flexible
(contrastación de hipótesis) y un 11% la aproximación por baterías estandarizadas (análisis de
patrones). Además, han surgido evoluciones de cada una de ellas que han aproximado
considerablemente los procedimientos de evaluación (Poreh, 2006).
46
La aproximación centrada en el análisis de patrones

Russell (1994) establece los orígenes históricos de esta aproximación en los trabajos de Kirk
Goldstein y Martin Scheerer (1941). Ellos fueron los primeros que elaboraron una batería de tests
que administraban a sus pacientes. Sin embargo, son los trabajos de Halstead (1941) los que se
consideran los precursores directos ya que fue este autor el que elaboró la primera batería de tests
neuropsicológicos (Reitan and Wolfson, 2009). Esa batería fue el embrión que utilizó Reitan (1955)
para elaborar la que actualmente es la batería neuropsicológica más utilizada “La Batería
Neuropsicológica Halstead-Reitan” (Halstead-Reitan Neuropsicological Battery, HRNB) (Russell,
1994). Esta batería surgía dentro de la intención de medir con instrumentos psicométricos las
funciones cerebrales. Por esta razón, esta aproximación ha recibido el nombre de “psicométrica” o
“cuantitativa”.

Según Goldstein (1997), los fundamentos teóricos de esta aproximación serían los siguientes:

1. Utiliza un modelo cerebral factorial, es decir, propone que la organización cerebral puede ser
mejor entendida agrupando factorialmente sus funciones y comparando unos factores con
otros.

2. El objetivo fundamental de utilizar baterías es detectar dimensiones afectadas e intactas


comparando unos tests con otros. Esta comparación sólo es posible extrapolarla a otros
pacientes si siempre se usan los mismos tests.

3. El modelo para hacer inferencias a partir de los resultados de administración de los tests
neuropsicológicos es matricial: a la hora de hacer inferencias se utilizan todos los datos
simultáneamente comparándolos entre sí.

El proceso de evaluación neuropsicológica dentro de esta aproximación consiste en la administración


al paciente de una batería de tests que no se puede modificar y que debe ser administrada
completamente y de modo estandarizado. Siempre se administra la batería completa
independientemente de los síntomas o la patología que presente el paciente. Los defensores de esta
aproximación defienden la utilidad de hacer esto ya que 1) no hacerlo así puede hacer que áreas
afectadas y no detectadas por el paciente pueden escapar a la evaluación y 2) de esta forma
disponemos de información no sólo de las áreas afectadas sino de las que están intactas y esta
información es muy útil para planificar la rehabilitación o dar consejo (Reitan and Wolfson, 2009).

La administración de la batería puede ser ciega o no, es decir, puede ser antes de hacer la entrevista
clínica conociendo los principales datos clínicos del paciente o después de haber hecho la entrevista
clínica, aunque no existe acuerdo al respecto (Goldstein, 1997).
47
La decisión de deterioro se realiza comparando la ejecución del paciente con la de un grupo
normativo. Este grupo normativo está igualado en las variables principales que pueden afectar la
ejecución como son la edad y la escolaridad. La decisión de si el paciente presenta una ejecución
alterada en las pruebas administradas está en función de puntos de corte que se corresponden con
criterios estadísticos de la población normal. Así, se suele utilizar como criterio para indicar que una
ejecución pertenece al rango del deterioro cuando es inferior a la del 5% de la población “normal”.

Otra característica de esta aproximación es que considera la utilización de personal técnico para la
administración de la batería. En esta aproximación, como la interpretación se basa en los resultados
de los tests, y no en cómo se ha llegado al resultado (proceso) e incluso, como se expuesto antes,
puede ser un proceso ciego, no es necesario que sea el neuropsicólogo la persona que administre
las pruebas (Lezak et al., 2004; Russell, 1994). Esto repercute en los costos de la evaluación ya que
el neuropsicólogo puede ver más pacientes en esta aproximación. Sin embargo, la administración de
la batería completa puede llevar entre 3 o 4 horas como es la “Batería Neuropsicológica Luria-
Nebraska” (Luria-Nebraska Neuropsychological Battery, LNNB) hasta 8 o 10 horas como es el caso
de la HRNB. La interpretación de los resultados de la batería se realiza analizando los perfiles o los
índices de las baterías y se requiere que el clínico tenga experiencia y fundamentados conocimientos
(Broshek y Barth, 2000; Golden, Freshwater y Vayalakkara, 2000).

Para llevar a cabo este análisis se requiere que el clínico tenga experiencia y fundamentados
conocimientos (Moses y Purish, 1997), en contra de lo que opina Lezak (1995). Por esta razón, los
principales desarrollos que se han producido dentro de esta aproximación no han sido el desarrollo
de nuevas baterías sino el desarrollo de sistemas computerizados para realizar el análisis de
patrones en los que se fundamenta (Russell, 1997).

Hasta el momento se han desarrollado tres sistemas: 1) “Escalas de Déficit Neuropsicológico”


(Neuropsychological Deficit Scale, NDS) (Reitan, 1991), 2) las “Normas Completas para la Batería
Halstead-Reitan Ampliada (Comprehensive Norms for an Extended Halstead-Reitan Battery,
CNEHRB) (Heaton, Grant y Matthews, 1991) y 3) el “Sistema de Evaluación Neuropsicológica
Halstead-Russell” (Halstead-Russell Neuropsychological Evaluation System, HRNES) (Russell,
1994). Russell (1997) realiza una completa descripción y comparación de los tres sistemas llegando
a la conclusión de que los tres son equivalentes, aunque estén apoyados en grupos normativos
diferentes. Con los tres se obtienen los mismos resultados.

Aunque esta batería se construyó en los años 50, sigue en continuo desarrollo y los últimos avances
se han centrado en obtener un Índice de Deterioro Global, obtener índices de detección de la

48
simulación o desarrollar una forma corta de tipo screening que se podría administrar en unos 30
minutos (Reitan y Wolfson, 2009).

Sin embargo, la utilización de este procedimiento de evaluación presenta algunas limitaciones en


relación a la naturaleza del déficit que son bien cubiertas por la aproximación de contrastar hipótesis.

La aproximación centrada en la comprobación de hipótesis

Esta aproximación se puede decir que tiene dos focos de desarrollo histórico. El primero es el
laboratorio y los trabajos de A.R. Luria que empezaron en los años 30, aunque fueron conocidos en
el mundo occidental posteriormente gracias a A.L. Christensen en los años 70. Luria no era partidario
de la aproximación psicométrica y prefería hacer un análisis de los pacientes guiándose por su teoría
sobre las funciones superiores en el hombre (Jorgensen y Christensen, 1995), en consonancia con la
ideología dominante (revuelta anti-tests).

El segundo foco se encuentra en el Hospital de Veteranos de Boston en el que E. Kaplan desarrolló


su trabajo en contacto con importantes neurólogos conductuales de la talla de Norman Geschwind.
En este contexto desarrolló la idea de Werner (1937) de que había que diferenciar entre resultado y
proceso ya que se podía llegar al mismo resultado fallando en diferentes aspectos. Esto dio lugar a lo
que se conoció como la aproximación centrada en el proceso (Poreh, 2006).

Los fundamentos conceptuales que Goldstein (1997) propone para esta aproximación son los
siguientes:

1. El modelo cerebral que proponen es el modular (Moscovitch y Nachson, 1995).

2. El objetivo principal no es buscar dimensiones sino síndromes neuropsicológicos, es decir,


conjuntos de síntomas neuropsicológicos que suelen ir juntos. Así, por ejemplo, es importante
identificar tipos de afasias o amnesias.

3. El modelo para hacer inferencias a partir de los resultados de los tests es lineal: de los resultados
de un test se extraen nuevas hipótesis y así hasta que se conoce la naturaleza del déficit.

Sin embargo, aunque estos fundamentos conceptuales caracterizan la aproximación por


contrastación de hipótesis, Bauer (1994) ha distinguido varias “formas de trabajo” diferentes dentro
de esta aproximación: 1) la aproximación de Luria, 2) la aproximación de la Neuropsicología cognitiva
y 3) la aproximación de la escuela de Boston.

La principal característica y virtud de la aproximación de Luria es que la evaluación está


completamente guiada por la teoría de Luria sobre el cerebro (Luria, 1969). Como Jorgensen y
Christensen (1995) afirman, para poder realizar este tipo de aproximación durante la evaluación

49
neuropsicológica es necesario tener amplios conocimientos de Neurología y de Neuropsicología
basada en varios años de experiencia clínica ya que la calidad de la evaluación depende de la
capacidad del neuropsicólogo de 1) generar hipótesis sobre las causas de los síntomas, 2) de
seleccionar las tareas adecuadas para comprobarlas y 3) de discriminar una ejecución normal de una
patológica.

Otra de las variantes propuestas por Bauer (1994) como pertenecientes a la aproximación flexible es
la Neuropsicología cognitiva. La Neuropsicología cognitiva es una disciplina básica cuyo principal
objetivo es obtener un mayor conocimiento del funcionamiento normal del sistema cognitivo a través
del estudio de pacientes con daño cerebral (Ellis y Young, 1992; Riddoch y Humphreys, 1994). Para
conseguir este objetivo se utiliza metodología experimental estableciendo hipótesis extraídas de las
teorías cognitivas vigentes. En esta variante conocer el resultado de la tarea no es importante sino
conocer qué procesos o componentes de procesos están implicados en ella y conocer en cuál ha
fallado. Otro importante aspecto para la Neuropsicología cognitiva es desarrollar tareas lo más
“puras” posibles, en el sentido de procesos cognitivos implicados. Sin embargo, los tests
desarrollados no suelen estar disponibles de modo amplio, salvo excepciones como las pruebas
visoespaciales de E. Warrington, ya que han sido generadas en el contexto de investigación de un
paciente o grupo de pacientes (Bauer, 1994).

Por último, Bauer (1994) establece la aproximación de la escuela de Boston iniciada y desarrollada
por E. Kaplan como otra variante de la aproximación centrada en la contratación de hipótesis.
Probablemente, esta sea la variante más representativa de la aproximación por contrastación de
hipótesis y, por esta razón, va a ser descrita con mayor detalle que las anteriores.

El objetivo principal en esta aproximación es conocer la naturaleza del deterioro. Para llevar a cabo
este objetivo es fundamental estudiar el proceso que sigue el paciente durante la realización de las
pruebas y no es tan importante el resultado ya que a este resultado se puede llegar por alteraciones
en diferentes partes del proceso. Por esta razón, esta aproximación se conoce como “centrada en el
proceso”. No responder con el nombre de un objeto cuando éste se le presenta puede ser el
resultado de no identificar el objeto porque no lo reconoce (agnosia), identificar el objeto, pero
desconocer qué es (déficit en el acceso al almacén semántico) o, por último, saber qué es y no poder
producir su nombre (déficit en el acceso al almacén fonológico). En los tres casos el resultado final es
anomia y si hubiéramos utilizado un técnico para administrar la tarea o no hubiéramos administrado
otras tareas para obtener más información, desconoceríamos la causa de dicha anomia.

White y Rose (1997) describen cinco estrategias que utilizan los neuropsicólogos centrados en el
proceso para conocer la naturaleza del déficit del paciente:
50
1. Evaluar las estrategias o estilos de procesamiento que el paciente utiliza mientras realiza
la tarea. Un ejemplo de esto es la ejecución en el subtests de bloques del WAIS
(Wechsler Adult Intelligence Scale, WAIS) (Wechsler, 1987). En esta tarea, el
evaluador debe registrar el orden en el que el paciente coloca los cubos, incluidos los
errores. De esta forma, estos evaluadores han encontrado que existen varias
estrategias como las gestáltica, la analítica o la de ensayo-error.

2. Descomponer las tareas o tests en los componentes de procesamiento cognitivo


necesarios para realizarla. Por ejemplo, el aprendizaje de una lista de palabras
requiere atención, aprendizaje, almacenamiento, recuperación y reconocimiento.
Siguiendo esta lógica han elaborado tests que, tras administrarlos, nos dan
información de en qué proceso está fallando el paciente. Un ejemplo de este tipo de
tests es el “Test de Aprendizaje Verbal de California (California Verbal Learning Test,
CVLT) (Delis, Kramer, Kaplan y Ober, 1987).

3. Llevar al paciente al límite de su ejecución haciendo la tarea cada vez más difícil hasta
que el paciente falle. De esta manera se pueden detectar déficit que no son lo
suficientemente importantes o severos para que se manifiesten y el paciente los
detecte.

4. Observación cualitativa de los errores del paciente focalizándose en la búsqueda o


identificación de signos patognómicos característicos de tipos específicos de daños
cerebrales. Así, el clínico busca errores como perseveraciones, errores en el habla
espontánea, temblores, errores en los movimientos, etc. 5. Observación sistemática y
caracterización de la conducta del paciente. El clínico se fija en todos los aspectos de
la ejecución del paciente. Así, por ejemplo, se toman medidas de habla espontánea en
las que se analiza el volumen, la claridad, el contenido, la estructura gramatical, etc.

El criterio de deterioro en la aproximación centrada en el proceso depende de las tareas que están
siendo utilizadas. Las tareas pueden ser cualitativas y, por tanto, el criterio de deterioro reside en la
experiencia y habilidad del clínico o puede estar utilizando tareas que están cuantificadas y
baremadas y, por tanto, el criterio aquí es la comparación con una población “normal”. En la
aproximación centrada en el proceso se está dando el fenómeno de cuantificar y baremar aspectos
cualitativos de los tests neuropsicológicos (Bauer, 1994; Lezak, 1995; White y Rose, 1997), lo cual
facilita su interpretación.

51
El procedimiento de evaluación que se sigue en la aproximación centrada en el proceso sigue los
siguientes pasos que a continuación describimos (White y Rose, 1997). En primer lugar, se realiza
una entrevista clínica en la que se recogen las quejas del paciente, se revisan los informes médicos
sobre la lesión y se estable el estatus funcional del paciente, con el fin de conocer qué tests se
pueden administrar. En segundo lugar y en función de los datos de la entrevista, el evaluador
selecciona los tests que van a administrar. Aunque no existe unanimidad sobre el criterio de
selección, estos autores recomiendan utilizar un conjunto de tests que abarque ampliamente las
diferentes áreas conductuales. De esta forma se evalúan aspectos que el paciente puede que no
haya detectado y además conocemos qué otros aspectos de la conducta están intactos. Además de
los seleccionados, el evaluador puede ir añadiendo o generando otros hasta que conteste sus
hipótesis sobre la naturaleza del déficit del paciente. La corrección de algunos tests será doble: la
forma estándar y la desarrollada por enfoque centrado en el proceso (por ejemplo, el WAIS).
Finalmente, se emitirá el informe que debe incluir el motivo de consulta, los tests utilizados, sus
resultados, las conclusiones sobre estos, posible localización del daño (si es requerida), diagnóstico
diferencial y recomendaciones terapéuticas.

Las críticas recibidas por la falta de evidencia científica sistemática para muchos de los análisis
propuestos (Erickson, 1995) ha motivado que el enfoque de la escuela de Boston evolucione a un
nuevo enfoque denominado Aproximación de Proceso Cuantitativa (Poreh, 2006). Además de estas
aproximaciones, nuevas aproximaciones están surgiendo como la aproximación de Benton-Iowa
(Tranel, 2009) o la aproximación analítica (McKenna y Warrington, 2009) que no están siendo muy
utilizadas y que el tiempo colocará en su justo lugar.

El proceso de evaluación neuropsicológica o cómo evaluar

Aunque, como hemos visto, existen diversas aproximaciones a la evaluación neuropsicológica, que
implican variaciones en el proceso, la tendencia que se impone es la utilización de las baterías
flexibles. Por tanto, en este apartado se va a describir el proceso de evaluación neuropsicológica por
baterías flexibles según la propuesta de Pérez García (2009a).

Variables a considerar antes de la evaluación

Existen algunas cuestiones que el evaluador debe conocer o considerar antes de la evaluación
neuropsicológica. A continuación, vamos a considerar la elección del momento de evaluación y la
disponibilidad de información antes de evaluar al paciente.

Con respecto a cuál es el mejor momento para evaluar, Lezak et al. (2004) afirma que depende del
tipo de problema. Así, si el daño cerebral es de aparición repentina, por ejemplo, un TCE o ACV, no

52
se debería evaluar al paciente en la fase aguda y deberíamos esperar hasta los 3 meses para
realizarla. Las razones son que en fase aguda 1) el paciente se fatiga más, 2) va tener más
conciencia de sus déficits, favoreciéndose, así, estados de ánimo depresivo y 3) la recuperación
espontánea es tan rápida que las mejorías pueden ser casi diarias. Puede interesar hacer una
evaluación entre 1 y 3 meses con el objetivo de estudiar la capacidad del paciente o medir las
secuelas para hacer un seguimiento, pero esta evaluación debe ser breve y ajustada al estado del
paciente.

Cuando ha pasado la fase aguda, entre los 3 y los 6 meses, se puede aplicar una evaluación
neuropsicológica completa, abarcando todas las dimensiones de la conducta. Si deseamos hacer
seguimientos de los programas de rehabilitación y de la reincorporación social y vocacional, Lezak et
al. (2004) propone que las evaluaciones se realicen 1 o 2 años después de daño cerebral. Por último,
si deseamos evaluar patologías que tienen un inicio progresivo, por ejemplo, enfermedades
degenerativas o tumores, la evaluación debe realizarse ante los primeros síntomas para,
posteriormente, comparar con seguimientos entre 6 y 8 meses después. Este seguimiento puede ser
bastante aclaratorio, aunque Lezak et al. (2004) propone que se haga otro entre los 12 y 18 meses
que debe ser prácticamente definitivo para establecer un diagnóstico o conocer la tendencia de los
déficits neuropsicológicos.

Por último, antes de empezar la evaluación deberíamos contar con todos los datos posibles respecto
al caso, como su expediente escolar, otras pruebas psicológicas realizadas anteriormente o su
historial médico. Sin embargo, en la mayoría de las ocasiones no disponemos de estos datos antes
de la entrevista, sino que deben ser recogidos durante la entrevista. Una excepción a esto es que, en
ocasiones, dependiendo del contexto en el que se realiza la evaluación neuropsicológica, contamos
con el historial médico. La historia médica del paciente en relación al daño cerebral nos
proporcionará información sobre la lesión cerebral, los síntomas y/o los tratamientos a los que está
sometido. La información que nos proporciona depende del tipo de patología cerebral. Así, por
ejemplo, en un TCE o ACV es importante buscar en la historia si hubo estado comatoso (profundidad
y duración) o la localización de la lesión, entre otras.

Fases del proceso de evaluación

Las principales fases de la evaluación neuropsicológica son la entrevista clínica, la administración de


pruebas y la comunicación de resultados al paciente o profesionales que han remitido al paciente.
Cada una de estas fases nos proporciona la información necesaria para avanzar en un proceso
dinámico que finaliza cuando el clínico tiene certeza y confianza en que ha alcanzado los objetivos
de la evaluación (Pérez García, 2009a).
53
La Entrevista Clínica

En primer lugar, la evaluación neuropsicológica debe comenzar con una entrevista clínica. La
entrevista es una parte fundamental de la evaluación ya que tiene como objetivos:

1. Conocer el estado del paciente.

2. Conocer el problema.

3. Establecer las hipótesis sobre cuáles puede ser las alteraciones neuropsicológicas.

4. Guiar la selección de las pruebas neuropsicológicas para comprobar esas hipótesis.

La efectiva consecución de esta información durante la entrevista requiere una amplia formación y
experiencia por parte del evaluador ya que esta información guía el resto de la evaluación y permite
interpretar los resultados según los factores específicos de cada persona (Sbordone, 2000). Existen
modelos y plantillas de entrevistas que pueden ayudar a la realización de ésta (p.e., Blázquez-
Alisente et al., 2011; Perea, Ladera y Echeandía, 1998; Spreen y Strauss, 1998).

Debido a las características de la población a ser evaluada, la entrevista al paciente debe ser
siempre completada con una entrevista al familiar (Sbordone, Seyranian y Ruff, 1998). La entrevista
al familiar tiene los mismos objetivos y las mismas fases que la entrevista al paciente. Dicha
entrevista puede ser conjunta o separada del paciente, aunque es conveniente que la explicación de
los objetivos de la entrevista (Lezak et al, 2004) sea conjunta. Si se van a realizar entrevistas
separadas, conviene advertir que se van a realizar con el objetivo de que cada parte hable con mayor
confidencialidad y para obtener dos puntos de vista diferentes. Ya que en muchas ocasiones la
información más fiable es la del familiar, es conveniente entrevistar en primer lugar a éste, aunque no
hay estudios sobre cuál es el orden más efectivo.

Es fundamental que el terapeuta sepa establecer una buena relación con el paciente que favorezca
la obtención de la información. Para esto debemos conseguir la confianza del paciente y esto será
más probable en tanto más claro tenga el paciente qué hace allí. Lezak (1995) propone una serie de
medidas que deben ser llevadas a cabo para conseguir una buena cooperación por parte del
paciente. Estas son:

1. Explicar el objetivo de la evaluación y comunicar la razón por la que ha sido enviado a un


neuropsicólogo clínico.

2. Explicar en qué va a consistir la evaluación, explicándole que principalmente se examinará su


memoria, atención, etc. y que eso no es indicativo de “locura”.

54
3. Explicar qué uso van a tener los resultados: el paciente debe saber quién recibirá el informe y
cómo será usado.

4. Garantizarle la confidencialidad de los resultados.

5. Proporcionar información de los resultados: el paciente debe saber quién le informará de los
resultados y, si es posible, cuándo.

6. Explicarle de modo resumido en qué consisten los tests neuropsicológicos. Lezak (1995) propone
unas instrucciones que, por su sencillez, creemos que merecen ser consideradas:

“Le voy a pedir que realice diferentes clases de tareas. Algunas le recordarán la escuela ya que son sobre
cuestiones que usted ya sabe o sobre problemas aritméticos o de memoria, igual que un profesor. Otras
serán diferentes tipos de puzzles o juegos. Algunas cosas que le pediré que haga le pueden resultar
divertidas o tontas; algunas serán muy fáciles y otras serán tan difíciles que no sabrá de qué estoy
hablando, pero todas ellas me ayudarán a comprender mejor cómo funciona su cerebro, qué está
funcionando bien, en qué cosas tiene dificultades y cómo podría ayudarle” (Lezak, 1995, pag. 118).

7. Conocer la actitud del paciente frente a la evaluación. Dependiendo de cuál es el motivo de


consulta, el paciente puede ver la evaluación como algo bueno para él o algo amenazante para
él. Debemos explicarle al paciente las consecuencias tanto de una excelente colaboración como
de la no colaboración para que el paciente tome una decisión realista sobre la evaluación.

Una vez que hemos conseguido una buena relación con el paciente y éste conoce para qué ha sido
enviado al neuropsicólogo clínico, debemos seguir la entrevista conociendo la historia del paciente
(Sbordone, 2000; Vanderploeg, 2000). Es fundamental tener información sobre su historia escolar,
familiar y social, laboral y de problemas médicos hasta el momento de daño cerebral, etc. Un listado
de áreas a explorar se puede encontrar en Perea et al. (1998) y Sbordone (2000). Esta información
es especialmente importante para entender el problema del paciente y para entender la ejecución del
paciente en los tests neuropsicológicos.

A continuación, realizaremos una detallada descripción del estado del paciente y de sus quejas. Esta
información puede ser completada con listas de síntomas y observación directa del comportamiento
del paciente, cuestionarios o pruebas breves de status cognitivo (Sbordone, 2000). En un principio
dejaremos que el paciente exponga sus quejas, pero después revisaremos todas las dimensiones de
la conducta en busca de secuelas del daño cerebral. Así, se deben revisar los aspectos cognitivos,
emocionales y de personalidad y conductuales (agresividad, desinhibición, etc.). Por último, es muy
importante conocer cómo estas alteraciones están impactando la vida cotidiana del paciente en el

55
ámbito familiar, social y laboral. Esta información contribuye al establecimiento de los objetivos de la
rehabilitación neuropsicológica y al conocimiento de las incapacidades que el paciente presenta.

La información obtenida durante la entrevista deber haber servido para establecer las hipótesis sobre
las alteraciones neuropsicológicas del paciente. A su vez, estas hipótesis deben guiar la selección de
pruebas para estudiar estas alteraciones. Sin embargo, como hemos indicado anteriormente, se
deben seleccionar pruebas para evaluar todas las dimensiones conductuales y que nos informen
sobre las áreas neuropsicológicas dañadas e intactas.

Administración de Tests Neuropsicológicos

Como vimos en el apartado de aproximaciones a la evaluación neuropsicológica, se está imponiendo


administrar baterías flexibles de tests. Después de éstas, se administran tests específicos para
estudiar con mayor profundidad los déficits encontrados y para responder a las hipótesis de la
evaluación. Existe una descripción de los instrumentos neuropsicológicos que se pueden utilizar para
evaluar distintas patologías y/o procesos en manuales de Neuropsicología como los de Junqué y
Barroso (2009), Pérez García (2009b), o Tirapu, Ríos y Maestú (2011). Puesto que la composición de
las baterías y los tests posteriores pueden ser diferentes dependiendo de los objetivos o la población,
algunos autores han propuesto criterios a seguir para la selección de los tests. Lezak et al. (2004) ha
propuesto los siguientes criterios:

1) elegir los tests dependiendo del objetivo de la evaluación.

2) elegir tests fiables y válidos.

3) elegir tests sensibles (cuando el objetivo es detectar) o específicos (cuando el objetivo es


conocer la naturaleza del déficit).

4) elegir tests que tengan formas paralelas, especialmente en evaluación para la rehabilitación.

5) considerar tanto el tiempo de administración como el coste del test.

6) si se utilizan tests no estandarizados, estudiar con detalle la interpretación de los autores, las
normas estadísticas y su fiabilidad para comprobar si son razonablemente aceptables.

Vanderploeg (2000) establece los siguientes criterios para seleccionar las pruebas
neuropsicológicas:

1) Los tests seleccionados deben cubrir todos los dominios conductuales relevantes para
responder al motivo de consulta o a otras condiciones que se sospechen.

2) Se deben seleccionar pruebas para evaluar tanto habilidades de bajo nivel (por ejemplo, viso-
perceptivas) como de alto nivel (por ejemplo, memoria).
56
3) Si se va a evaluar cuantitativamente, utilizar tests que estén bien baremados.

4) Utilizar pruebas cuyo nivel de dificultad esté ajustado al nivel de deterioro del paciente.

5) Evitar los tests que no estén validados como pruebas neuropsicológicas ya que “los tests de
daño cerebral siempre miden alguna habilidad cognitiva, pero las medidas de habilidades
cognitivas no son necesariamente tests de daño cerebral”.

6) Si se utilizan varias pruebas para evaluar el mismo dominio cognitivo (por ejemplo, memoria)
seleccionar tests que midan diferentes aspectos de ese dominio, es decir, pruebas que no
correlacionen mucho entre sí y, por tanto, sean redundantes.

Además, Vanderploeg (2000) establece nueve principios que se deben seguir a la hora de su
administración. Los principios propuestos son los siguientes:

 Principio 1º: Seguir los procedimientos estandarizados de administración tal como estén
descritos en el manual del test. Si el paciente tiene alguna limitación que dificulta este
principio, aplicar el principio 2.

 Principio 2º: Lo importante es que se administre el test en condiciones estandarizadas más


que aplicar exactamente las mismas palabras o procedimiento. Por esta razón, a veces el
evaluador debe ampliar instrucciones o repetirlas para asegurarse que el paciente ha
entendido lo que tiene que hacer o puede aceptar otra modalidad de responder (señalar en
vez de hablar).

 Principio 3º: Minimizar los factores extraños que pueden influir en el rendimiento del paciente
en las pruebas, por ejemplo, ruidos, luces, etc.

 Principio 4º: Asegurar que el paciente está alerta y lo suficientemente activado para ser
evaluado. La excepción a esto es cuando el objeto de evaluación es el nivel de activación. La
alerta y la activación se mantienen proporcionando descansos periódicos y manejando
factores como el volumen y la entonación de la voz.

 Principio 5º: Presentar las tareas perceptuales y visoespaciales centradas en el campo visual
del paciente. Esto no compensa de una posible negligencia visual unilateral, pero estandariza
la administración. Si hacer esto perjudica la ejecución del paciente, comprobarlo después de la
administración estandarizada como parte de la evaluación de los límites de la ejecución del
paciente.

57
 Principio 6º: En tareas que controlan el tiempo, controlar las respuestas con un cronómetro y
registrar además el tiempo de respuesta del paciente por si después se puede utilizar para
conocer los límites de ejecución del paciente.

 Principio 7º: Proporcionar sólo la ayuda y ánimo necesarios para mantener la ejecución de la
conducta del paciente en la tarea, con cuidado de que éstos no aumenten artificialmente el
rendimiento del paciente.

 Principio 8º: Periódicamente revisar los manuales de los tests para minimizar las desviaciones
en su administración.

 Principio 9º: La evaluación neuropsicológica es un proceso de evaluación dirigido por unos


objetivos y no sólo de administración de pruebas. Por esta razón, si existen conflictos entre lo
que debe hacerse para conseguir los objetivos de la evaluación y la administración de
pruebas, la evaluación tiene preferencia.

Una vez que se han seleccionado las pruebas, debemos decidir el orden de administración. Se
considera que el orden de administración de las pruebas no afecta de modo importante a la ejecución
del paciente si se siguen ciertas recomendaciones (Lezak et al.2004):

1) colocar los tests difíciles al principio ya que el paciente está menos fatigado, pero no el
primero ya que el paciente se puede desmoralizar.

2) combinar pruebas fáciles y difíciles.

3) combinar pruebas verbales y no verbales.

4) por último, organizarlos aprovechado las demoras que algunas pruebas exigen para
administrar otros.

Es preciso que las pruebas que se administran en la demora no interfieran con el test que está
siendo demorado. Otra variable a considerar es la ampliación de la administración estandarizada de
los tests para comprobar los límites de la ejecución del paciente. Esta ampliación no supone una
modificación de la administración estandarizada y proporciona una valiosa información sobre la
naturaleza del déficit. Por ejemplo, durante la administración de los cubos de la Escala de
Inteligencia para Adultos de Wechsler (Wechsler Adult Intelligence Scale, WAIS) (Wechsler, 1981)
podemos parar la ejecución del paciente cuando llega al límite del tiempo de respuesta establecido
(administración estandarizada) pero también podemos dejar al paciente que continúe para
comprobar si puede completar la figura (comprobación de límites de ejecución). Las conclusiones
pueden ser diferentes ya que si el sujeto es incapaz de completar la figura ni durante el tiempo límite

58
ni después del tiempo límite la conclusión es que el paciente no “sabe o puede” ejecutarla. Pero si el
paciente completa la figura después del tiempo límite de respuesta, debemos plantearnos la hipótesis
de que tal vez el paciente tiene baja velocidad de procesamiento que interfiere con su ejecución. No
permitir al paciente continuar después del tiempo límite nos hubiera impedido constatar este dato.
Kaplan, Fein, Morris y Delis (1991) han formalizado y comercializado esta forma de administración
del WAIS (Wechsler, 1981).

Otra cuestión que debemos considerar, especialmente en los seguimientos y en la evaluación para la
rehabilitación, es el efecto práctico que ocurre cuando se administra varias veces un test (Lezak,
1995). El inconveniente que supone el efecto práctico se debe a que las mejoras debidas a este
efecto se mezclan con las producidas por la recuperación espontánea o los efectos de la
rehabilitación, de modo que es difícil conocer cuánto se debe a uno y cuánto a los otros. Los
procedimientos para evitarlo incluyen la utilización de formas paralelas de los tests, cuando éstas
están disponibles; el espaciamiento temporal de las medidas, para lo cual no disponemos de criterios
que nos guíen en la elección del intervalo temporal óptimo; y, por último, estudiar los incrementos
que produce el efecto práctico para descontarlos en las evaluaciones sucesivas de los pacientes.

Por último, también se ha planteado el uso de técnicos para la administración de los tests
neuropsicológicos, correspondiendo al neuropsicólogo la elección de éstos y su integración dentro
del contexto de la evaluación (Lezak, 1995). Esta discusión está centrada en el contexto
norteamericano ya que, hasta donde nosotros conocemos, aún falta mucho desarrollo en el campo
profesional de la Neuropsicología Clínica española hasta llegar a debatir este punto.

En el contexto norteamericano, el uso de técnicos para la administración de los tests


neuropsicológicos supone ventajas como ahorro de tiempo y costes tanto en la investigación como
en la práctica clínica, el paciente es observado por dos profesionales y puede evitar al
neuropsicólogo no experto en administrar tests una fuente de ansiedad. Sin embargo, también
presenta inconvenientes como no observar directamente la ejecución del paciente perdiendo así
valiosa información cualitativa y depender de la habilidad de un técnico en la administración para
realizar luego la interpretación. Esto hace que el neuropsicólogo debe seleccionar con sumo cuidado
al técnico y éste debe estar bien entrenado para que el neuropsicólogo pueda confiar en él.

Una vez finalizada la administración de tantos tests como sean necesarios para confirmar nuestras
hipótesis sobre el diagnóstico diferencial o sobre la naturaleza del déficit debemos completar el
proceso de evaluación informando al paciente sobre los resultados de la evaluación.

59
Comunicación de los Resultados al Paciente

La comunicación de los resultados al paciente es la fase final de la evaluación a la que estamos


obligados (Tranel, 2009; Walsh, 1999). La comunicación de los resultados al paciente se debe
realizar de dos formas: informe oral e informe escrito.

Después de haber terminado la administración de las pruebas, haberlas corregido y haberlas


interpretado, el neuropsicólogo clínico debe citar al paciente y a algún familiar para comunicarle los
resultados (Williams y Boll, 2000). La comunicación al paciente debe contener información no sólo
sobre cuáles son sus déficits sino también cuáles son sus habilidades intactas, cómo pueden afectar
éstas a su funcionamiento cotidiano, proponer y discutir la aplicación de rehabilitación
neuropsicológica y si no, proporcionar recomendaciones terapéuticas para su funcionamiento
cotidiano. Si hemos decidido realizar otra evaluación de seguimiento, éste es el momento de
justificarla y concertarla.

El informe escrito es una herramienta fundamental no sólo para comunicar los resultados al paciente
sino para la comunicación con otros neuropsicólogos y otros profesionales (Axelrod, 2000; Hebben y
Milberg, 2009; Walsh, 1999; Williams y Boll, 2000). El estilo de redacción y la forma de escribir un
informe debe seguir el criterio de la claridad, orden y precisión. Axelrod (2000) recomienda utilizar el
Modelo de Proceso de Exposición (Expository Process Model, EPM) (Ownby 1992) en la redacción
de los informes y, además, recomienda seguir los siguientes criterios:

1. Usar lenguaje comprensible.

2. Evitar terminología técnica neuropsicológica incomprensible para los no neuropsicólogos.

3. Usar palabras que le den precisión al contenido.

4. Utilizar frases cortas.

5. Presentar una idea en cada párrafo.

6. No incluir material irrelevante.

7. Evitar ambigüedades e inconsistencias.

8. Revisar el borrador para que no contenga errores.

Según Hebben y Milberg (2009) existen varias máximas que hay que tener en cuenta a la hora de
escribir un informe:

1. Asegurarse que estamos reflejando las puntuaciones correctas de las pruebas.

2. Evitar palabras y jerga técnica.

60
3. Ajustar la longitud del informe a la persona que lo va a recibir.

4. Incluir los datos relevantes de la historia.

5. Evitar incluir datos irrelevantes.

6. Hacer una descripción física y conductual del paciente.

7. Nombrar y describir las pruebas administradas.

8. Incluir las puntuaciones de las pruebas.

9. Proporcionar las puntuaciones de todas las pruebas, no solo las que han salido afectadas.

10. Considerar todas las evidencias para la interpretación de los resultados y no solo la
información de las pruebas.

11. No usar cada puntuación de cada prueba para localizar la lesión.

12. Proporcionar recomendaciones específicas y útiles.

13. Describir todas y cualquier modificación que se haya realizado de las pruebas y el impacto que
puede haber tenido en la interpretación.

Aunque no existen criterios sobre qué apartados debe tener un informe, ya que esto depende de la
orientación del evaluador y del objetivo de la evaluación, el criterio para realizar un buen informe
neuropsicológico es que contenga toda la información necesaria para que otro profesional puede
replicar la evaluación. Las secciones que como mínimo un informe neuropsicológico debe contener
son las siguientes:

1. Motivo de consulta.

2. Antecedentes: historia familiar, escolar, social, laboral y médica del paciente.

3. Proceso de evaluación: pruebas administradas según el orden de administración.

4. Resultados: tanto de la entrevista como de las pruebas neuropsicológicas agrupados por


dimensiones conductuales.

5. Juicio clínico / interpretación de los resultados.

6. Resumen del caso con los principales resultados e interpretación.

7. Recomendaciones terapéuticas

Axelrod (2000), Hebben y Milberg (2009) y Williams y Boll (2000) presentan ejemplos de informes
que pueden ser de utilidad al profesional.

61
Resumen y conclusiones

En resumen, la evaluación neuropsicológica es un proceso dinámico que trata de contrastar hipótesis


sobre qué áreas psicológicas (cognitivas, emocionales y comportamentales) están dañadas y cuáles
intactas como consecuencia de un daño cerebral. Este objetivo global puede variar dependiendo de
si el objetivo es el diagnóstico diferencial, la caracterización en términos de tipo y severidad de las
secuelas, la planificación de la rehabilitación, la emisión de informes forenses o la investigación.

Por otro lado, aunque en el pasado se utilizaban varias aproximaciones en la evaluación, en la


actualidad, la forma mayoritaria es la aproximación por baterías flexibles. En esta aproximación, es
fundamental hacer una entrevista inicial que establezca las hipótesis de deterioro y luego administrar
pruebas de forma dinámica hasta aceptar o refutar dichas hipótesis. Este proceso requiere de una
adecuada formación y entrenamiento para garantizar que los resultados obtenidos son adecuados.

2.2 Métodos Anatómicos

La Anatomía es el estudio de la estructura de los cuerpos organizados. Se refiere comúnmente al


cuerpo humano, pero la anatomía comparada correlaciona las estructuras de los diferentes animales
y plantas. Este estudio de la forma y estructura de los seres organizados se denomina también
morfología. La Anatomía se divide en macroscópica (sin ayuda de técnicas de aumento) y
microscópica (con ayuda de técnicas de aumento), según el tamaño de las estructuras estudiadas; la
última, que se refiere básicamente a los tejidos, se conoce como histología. Además, la anatomía del
desarrollo o embriología se refiere a la descripción del embrión y del feto. Estos son actualmente los
tres componentes de todo programa de morfología que se completa, para comprender al ser vivo.

El término Anatomía proviene de la palabra griega temnein, que significa cortar, por lo tanto,
tradicionalmente el estudio de la anatomía está ligado etimológicamente a la disección. También se
realiza por el estudio de la forma y de los caracteres de la superficie del cuerpo vivo que representa
la anatomía bioscópica o de superficie y por los métodos clásicos de examen físico del cuerpo
humano. Además, este estudio del ser vivo se complementa con la anatomía endoscópica, que
visualiza el interior de las vísceras con el uso de aparatos ópticos. La anatomía radiológica, que
aprovecha el efecto fotográfico de los rayos X al penetrar la materia sólida y ser absorbidos de
acuerdo con la densidad de aquella.

El estudio radiológico se ha complementado con el uso de los medios de contraste con


procedimientos especiales, tales como la tomografía o radiografía seriada por planos paralelos, la

62
cinerradiografía y la televisión, que registran y graban una imagen radiográfica en movimiento. La
escintigrafía o gammagrafía delimita la forma y el tamaño de ciertos órganos por captación de
radioisótopos selectivamente administrados. La termografía, cuya imagen reproduce el mapa de la
radiación térmica y de su reparto en el cuerpo, se usa especialmente para la mama. La ecografía o
sonografía, obtenida por reflexión de ultrasonidos, delimita estructuras aun profundas como las
cavidades cardíacas, el espesor de sus paredes, el desplazamiento de las valvas, o vísceras
abdominales y pélvicas; se usa de rutina en el monitoreo fetal y la exploración del corazón y sistema
circulatorio.

El estudio de la anatomía, o más bien la morfología humana, no se limitan a la disección o mirar bajo
el microscopio, sino que se debe tener la imagen de un organismo vivo, funcional y dinámico, para
lograr una comprensión completa y satisfactoria tanto de su estructura como de su función. En este
curso haremos un estudio sistemático o descriptivo que significa estudiar por sistemas de órganos,
es decir, óseo, articular, muscular, etc.

Posición anatómica

Debido a que el individuo es capaz de adoptar diversas posiciones con el cuerpo, se hizo necesario
en anatomía buscar una posición única que permitiera toda descripción anatómica. Una vez definida
hay la posibilidad de establecer la ubicación y localización de cada una de las partes, órganos y
cavidades del cuerpo humano.

Esta posición requiere varias condiciones:


1. Estar de pie
2. Cabeza erecta sin inclinación mirando al horizonte (plano meatoorbitario o Frankfort)
3. Ojos abiertos, mirando al frente y al mismo nivel
4. Miembros superiores extendidos a los lados del cuerpo
5. Palmas de las manos mirando hacia anterior
6. Miembros inferiores extendidos y juntos
7. Pies paralelos y talones semi-juntos

Planos anatómicos

En base a la posición anatómica se trazan tres planos imaginarios. Generalmente se habla de


secciones, cortes o planos, pero sólo cuando dividen al cuerpo completo, NO DEBEN SER
APLICADOS ÓRGANOS.
63
Plano Coronal o Frontal

Es el plano que se traza a través de la línea longitudinal media que pasa por las orejas y divide al
cuerpo en dos partes NO IGUALES, anterior y posterior. Se llama coronal debido a que pasa por la
sutura coronal (Articulación del hueso frontal con los dos parietales).

Plano Mediano o Mediosagital

Línea media perpendicular al plano coronal que divide al cuerpo humano en dos partes asimétricas
derecha e izquierda.

Plano Horizontal

Divide al cuerpo en una mitad superior e inferior.

Los planos paralelos se denominan: Paracoronal, Paramediano (sagital) y Parahorizontal


respectivamente.

Terminología anatómica

Son términos que se utilizan para la ubicación de las estructuras y órganos y están basados en la
posición anatómica. Normalmente se habla de una línea media o mediana en donde intersectan los
planos frontal y mediosagital.

64
Superior, Cefálico o Craneal: Lo que está hacia arriba, superior o más cerca de la cabeza. El
húmero se ubica superior al radio.

Inferior, Podal o Caudal: Lo que está hacia abajo, inferior o más cerca de los pies. La tibia se ubica
inferior al fémur.

Anterior o Ventral: Lo que está hacia adelante de la línea mediana, está mirando al frente. El
corazón se ubica ventral a la columna vertebral.

Posterior o Dorsal: Lo que está hacia atrás de la línea mediana, está mirando hacia la espalda. El
corazón se ubica dorsal al esternón.

Medial: Lo que se acerca o está más cerca de la línea mediana. La ulna se ubica medial al radio.

Lateral: Lo que se aleja o está más lejos de la línea mediana. El radio se ubica lateral a la ulna.

Proximal: Lo que se encuentra cerca o próximo del punto de articulación de los miembros (hombro y
cadera). La rodilla es proximal en comparación al tobillo.

Distal: Lo que se encuentra lejos o distante del punto de articulación de los miembros (hombro y
cadera). El tobillo es distal en comparación a la rodilla.

Externo: Lo que está por fuera o al exterior de un órgano o estructura. La sustancia compacta se
ubica externa en los huesos.

Interno: Lo que está por dentro o al interior de un órgano o estructura. La sustancia esponjosa se
ubica interna en los huesos.

Ipsilateral: Estructura u órgano que se ubica al mismo lado del cuerpo. Ojo derecho y riñón derecho
son ipsilaterales.

Contralateral: Estructura u órgano que se ubica en el lado contrario del cuerpo. El hemisferio
cerebral derecho controla la movilidad contralateral del cuerpo.

Superficial: Estructura u órgano que se ubica cerca de la superficie del cuerpo.

Profundo: Estructura u órgano que se ubica lejos de la superficie del cuerpo.

Luego del estudio de los términos anatómicos por separado existen términos combinados que
describen posiciones intermedias o más exactas de lo que se quiere describir. Por ejemplo:
superolateral, lo que describe que se acerca hacia superior o craneal y alejado del plano medio.

Algunos aspectos del sistema esquelético humano

El esqueleto humano es un endoesqueleto relacionado íntimamente con los músculos, a los que
presta inserción. Por esto es que el esqueleto humano está fuertemente ligado a todo lo que es el
65
movimiento y a la actividad motora del individuo. Además, los huesos confieren protección a órganos
vitales, como por ejemplo al sistema nervioso a través de la cabeza ósea y columna vertebral.
También es una importante fuente de reserva de sales minerales (por ejemplo, calcio) y una fuente
constante de formación de células sanguíneas (hematopoyesis).

El término sistema esquelético consiste en el conjunto de huesos y articulaciones del cuerpo


humano. El esqueleto humano se encuentra formado por:

 Un eje dividido en segmentos para aumentar su flexibilidad.

 Dos pares de miembros, pélvicos y pectorales, también segmentados.

 La cabeza ósea, extremo modificado del eje.

 Huesos sesamoideos, desarrollados en tendones y ligamentos.

Los huesos responden a las fuerzas aplicadas sobre su superficie siguiendo un patrón característico.
La primera fase es elástica y depende de la rigidez del hueso. En esta fase, la deformación es
temporal y se mantiene solo durante el tiempo de aplicación de la fuerza tras lo cual, el hueso
recupera su forma original. Si la fuerza aumenta, se entra en una fase plástica y el hueso, aunque se
recupera parcialmente, queda deformado. Por último, cuando la fuerza aplicada es superior a la
resistencia del tejido se produce la fractura.

La disposición del material constituyente del hueso depende de las tensiones habituales que son
ejercidas sobre él. En la diáfisis (región media de los huesos largos), puede apreciarse una
estructura tubular con una disposición fuerte, ligera y económica del material. En su porción media, el
grosor aumenta puesto que fuerzas de tensión y curvatura son mayores que en otras porciones. La
estructura ósea de las regiones articulares, en cambio, es completamente trabecular cubierta por una
fina cáscara externa de hueso compacto.

Esta estructura puede encontrarse también en huesos que soportan grandes cargas de compresión.
Las diferentes disposiciones de la estructura ósea trabecular o compacta varía de acuerdo a las
diferentes fuerzas aplicadas sobre el hueso. De esta manera, en huesos grandes, por ejemplo,
pueden encontrarse ambos tipos estructurales. La principal función del hueso y en su conjunto, del
esqueleto, está dirigida a la ejecución del movimiento, a la realización de la actividad motora
prestando inserción a la musculatura formando palancas. Otra función del esqueleto es la de servir
de reserva de minerales.

En el tejido óseo, el depósito y la eliminación de sales de calcio se producen con igual facilidad. Si el
organismo necesita de un aporte extra de calcio, lo obtiene del hueso, y viceversa. Además, se le ha

66
asignado al hueso un papel protector. Pero este es un punto discutible puesto que incluso en los
lugares donde encuentra base aquel carácter protector (bóveda craneana, costillas, columna
vertebral) se encuentra la inserción de importantes músculos. El hueso también aloja, entre sus
espacios trabeculares, la médula ósea, hematopoyética o adiposa; o bien, posee en algunos huesos
de la cabeza ósea cavidades de aire, formando los llamados "huesos neumatizados".

La arquitectura ósea posee una gran semejanza con la arquitectura mecánica utilizada por el
hombre: palancas, vigas, columnas de soporte, arcos son algunos ejemplos de esta relación. Pero
esta relación no se corresponde solo con las formas y arquitectura internas sino también con los
usos. Diversos investigadores, por ejemplo, intentan demostrar que la disposición de las trabéculas
óseas se corresponde con la transmisión de las fuerzas.

El adulto posee 206 huesos aproximadamente con exclusión de los huesos supernumerarios y
sesamoideos. Sin embargo, este número de piezas óseas varía con la edad, por ejemplo, al
momento del nacimiento tenemos alrededor de 300 piezas óseas y al momento de la vejez el número
disminuye notablemente por la fusión de ellos, aspecto que se refleja notablemente en los huesos de
la cabeza ósea, otro ejemplo es el hueso coxal que en el niño está dividido en tres fragmentos ilion,
isquion y pubis.

El esqueleto consta de un eje dividido en segmentos para permitir su movilidad, y de dos pares de
apéndices o miembros que están igualmente divididos en partes articuladas para la locomoción,
prensión, etc. El eje se denomina sistema esquelético axial y está formado por cabeza ósea, columna
vertebral y tórax, este sistema alberga las vísceras u órganos, distribuye y soporta el peso corporal.
Los pares de apéndices corresponden a los miembros superiores e inferiores que están articulados y
conectados al sistema esquelético axial a través de los cíngulos, denominándose como sistema
apendicular.

En la siguiente imagen nombra todas las líneas que se indican. Principalmente


encontrarás huesos o partes de esos huesos, algunas articulaciones (Art.) para que
vayas familiarizándote con ellas, además de segmentos corporales que están indicados
mediante llaves. Trata de resolverlo sin ayuda, luego cuando hayas completado lo que
más sabes recurre a los módulos, atlas o libros que se le han recomendado.

67
68
69
Clasificación de los huesos según su forma

Los huesos se clasifican de acuerdo a la forma que poseen en cuatro grupos: Largos, Cortos o
Breves, Anchos o Planos e Irregulares.

Huesos Largos: Predomina la longitud. Consta de dos extremidades o epífisis y un cuerpo o


diáfisis. La unión de la diáfisis con las epífisis se denomina metáfisis. En un corte longitudinal se
distingue una cubierta externa de sustancia compacta (láminas), más abundante en la diáfisis y una
porción interna denominada sustancia esponjosa (trabéculas) muy abundante en las epífisis.
Interna en la diáfisis existe una canal medular que en el adulto contiene grasa (médula ósea
amarilla), este canal está revestido por una membrana denominada endostio. Las trabéculas de
sustancia esponjosa delimitan aréolas (espacios), comunicada entre sí que albergan la médula ósea
roja. Cada trabécula está recubierta por endostio.

La médula ósea es un tejido especial que se encuentra llenando las cavidades que se forman dentro
de los huesos, tanto las que pueden quedar entre las trabéculas de la sustancia esponjosa como la
que existe en la diáfisis de los huesos largos. La medula ósea puede ser de dos tipos; amarilla y roja.
La médula ósea roja tiene gran cantidad de vasos sanguíneos y la amarilla es rica en grasa. Al final
del embarazo todas las cavidades óseas del feto están ocupadas por medula ósea roja, pero
progresivamente disminuye siendo sustituida por la amarilla, de tal forma que en el adulto existe
medula ósea roja en los huesos del tronco (esternón, costillas, vértebras…) y en las partes

70
proximales de los huesos de las extremidades más próximas al tronco. La médula ósea roja posee
además células hematopoyéticas.

En la figura se muestran las partes de un hueso largo, en este caso el húmero (hueso
ubicado en el sistema esquelético apendicular, miembro superior, brazo).

71
Huesos Planos: Son los huesos de la bóveda craneal, que poseen láminas de sustancia compacta
(tablas interna y externa) que encierran a una de sustancia esponjosa denominada diploe. Existen
otros huesos planos que no poseen diploe que se caracterizan por estar formando una cavidad.
Como ejemplo están: escápula, costillas, esternón, coxales, sacro y cóccix.

Huesos Breves (o Cortos): Están formados por sustancia esponjosa rodeada por una lámina de
sustancia compacta. Como ejemplo están los huesos del carpo y tarso.

Huesos Irregulares: Son huesos sin una forma regular con sustancia compacta externa y esponjosa
interna. Esta se concentra en lugares específicos del hueso. Como ejemplo están las vértebras y
huesos de la cara.

Descripción Ósea

Durante las sesiones prácticas aprenderás a realizar una descripción ósea, para ellos, debes primero
disponer del hueso a describir, una imagen que puede ser la de la guía correspondiente o bien un
atlas y la descripción entregada en la guía de laboratorio. Para describirlo primero debes ubicar y
mantenerlo en posición anatómica y seguir el siguiente modelo de descripción.

 Nombre del hueso

 Ubicación anatómica,

 Lateralidad (decir de qué lado es, izquierdo o derecho).

 Tipo de hueso

 Realizar la descripción nombran si es hueso largo sus epífisis y diáfisis, si es hueso plano
nombras sus caras, márgenes y ángulos.

 Funcionalidad que posee este como tal.

Debes nombrar cada una de sus partes de forma ordenada y dando su ubicación anatómica. En los
siguientes módulos en este sitio encontrarás la descripción de cada hueso.

Los sitios donde se insertan tendones y ligamentos o partes fibrosas de los músculos, dejan marcas
rugosas en la superficie del hueso, si la inserción es carnosa dejan marcas relativamente lisas. Los
tendones, vasos o nervios pueden marcar depresiones. La mayoría de las superficies articulares son
lisas y están cubiertas de cartílago hialino o articular.

Marcas de inserción: proceso, espina, cresta, tuberosidad (túber), hámulo, línea, epicóndilo.

Marcas de depresión: canal, surco, conducto, foramen, fosa. Superficies articulares: fóvea, cóndilo,
tróclea, cabeza, cavidad glenoidea, faceta, carilla, proceso articular.

72
1. Faceta: Superficie articular aplanada, pequeña y circunscrita

2. Fovea: Pequeña depresión en una superficie ósea

3. Cóndilo: Eminencia articular convexa y lisa

4. Fosa: Excavación ancha, más o menos profunda

5. Surco: Depresión alargada

6. Incisura: Depresión o escotadura en forma de muesca en el borde de un hueso

7. Hiato: Apertura más o menos alargada

8. Proceso: Proyección ósea

9. Espina: Proyección ósea puntiaguda

10. Hamulus: Proceso en forma de gancho

11. Tuberosidad: Eminencia ósea rugosa

12. Tubérculo: Proyección ósea pequeña y roma

13. Trocánter: Proyección ósea localizada en la epífisis proximal del fémur

14. Cresta: Proyección ósea alargada

15. Línea: Proyección ósea alargada de escasa elevación

16. Labios: Bordes limitantes de una elevación ósea

17. Epicóndilo: Elevación ósea proximal al cóndilo

18. Cabeza: Superficie articular en la epífisis o en un proceso de un hueso

19. Foramen: Agujero óseo

20. Canal: Túnel de paredes óseas

21. Apertura: Orificio de un canal

22. Fisura: Depresión de un hueso o entre dos huesos

23. Lámina: Delgada plancha ósea

24. Tróclea: Superficie en forma de polea

25. Cavidad Glenoidea: Superficie cóncava semiovalada.

73
2.3 Técnicas de Neuroimagen

El estudio del sistema nervioso central y de los procesos cognitivos se acompaña de un conjunto de
técnicas de exploración complementaria: análisis de pará- metros neuroquímicos, registros
electrofisiológicos (EEG, potenciales evocados) y técnicas de neuroimagen. En especial, estas
últimas han evolucionado con una rapidez vertiginosa y han supuesto una auténtica revolución en el
diagnóstico neurorradiológico. Las técnicas más modernas pueden clasificarse en dos grandes
grupos, en función del tipo de información que ofrecen:

1. Estudio de la anatomía y estructura cerebral (neuroimagen estructural):

• TAC (Tomografía axial computarizada)

• RMN (Resonancia magnética nuclear)

2. Estudio de la fisiología y función cerebral (neuroimagen funcional):

• SPECT (Tomografía por emisión de fotón único)

• PET (Tomografía por emisión de positrones)

• RMNf (Resonancia magnética nuclear funcional)

Las técnicas de neuroimagen estructural son de gran utilidad para la detección y localización de la
lesión (por ejemplo, tumores cerebrales), al mismo tiempo que proporcionan una línea base que
permite comparar y controlar diferentes trastornos patológicos agudos y subagudos (por ejemplo, la
absorción o expansión del edema o hematomas cerebrales después de un T.C.E.). Una vez
superada la fase aguda, la RMN constituye la técnica de elección para el seguimiento y control
posterior, al ofrecer una mayor resolución que permite detectar lesiones pequeñas o difusas que
pueden pasar desapercibidas pero que resultan esenciales para explicar las alteraciones
neuropsicológicas que muestran los pacientes con un daño cerebral.

Las técnicas de neuroimagen funcional registran la perfusión sanguínea regional y el metabolismo de


la glucosa o el consumo de oxígeno, lo que supone un indicador más directo de la actividad cerebral
La idea central para entender su funcionamiento es que tanto el flujo sanguíneo como el metabolismo
aumentan de forma proporcional al incremento de la actividad en una determinada región cerebral;
por lo tanto, la presencia de anomalías o déficit en estos parámetros sugieren la existencia de áreas
de disfunción cerebral.

La aparición de estas nuevas técnicas está desplazando la preferencia del método clásico de la
neurología conductual del análisis de las lesiones por una metodología de registro funcional. Ello se

74
explica por varias razones: a) en el ámbito de la investigación básica permiten determinar con más
precisión las estructuras cerebrales y redes neurales que se relacionan con un proceso cognitivo
particular (por ejemplo, atención o lenguaje); b) en tareas de evaluación y diagnóstico clínico, ofrecen
correlaciones más precisas entre las alteraciones funcionales cerebrales objetivadas por las mismas
y las alteraciones cognitivas y conductuales que persisten después de un posible daño cerebral, y c)
en el proceso de rehabilitación y seguimiento de los resultados del tratamiento, presentan una mayor
sensibilidad para registrar cambios en la activación de diferentes áreas cerebrales después de una
intervención farmacológica o conductual, que no son detectadas con las técnicas estructurales.

Mientras que los ERP permiten una evaluación dinámica de la actividad cerebral, las técnicas de
tomografía axial computarizada (TAC) y de resonancia magnética (RM) permiten comparar posibles
diferencias estructurales entre niños con trastornos del desarrollo y controles normales.

Tomografía axial computarizada (TAC)

La tomografía axial computarizada (TAC) permite visualizar la anatomía cerebral para determinar
la existencia de lesiones focales, cambios estructurales y tumores. En un TAC se usa un fino haz de
rayos X que gira 360º alrededor del área que se va a explorar. Cada sección TAC (corte) se obtiene
independientemente y puede repetirse.

Los datos resultantes se transforman mediante análisis de Fourier en una escala de grises para crear
una imagen.

Ventajas de la TAC el poco tiempo necesario para obtener una imagen y la posibilidad de repetir
una única sección si ocurre un movimiento o cualquier otro artefacto.

Limitaciones de la TAC la resolución relativamente baja con la que se visualizan las estructuras de
sustancia gris y sustancia blanca y que las secciones TAC se obtienen según un plano axial, lo que
limita la visualización de los lóbulos temporales y la fosa posterior. Se usa radiación en las
exploraciones mediante TAC para poder obtener las imágenes.

Resonancia Magnética (RM)

La resonancia magnética (RM) permite examinar de modo no lesivo las estructuras


neuroanatómicas en un cerebro vivo. Con la RM se visualiza el tejido cerebral de forma casi similar a
la de un estudio postmortem, con una nitidez superior a la de las exploraciones con TAC.

El equipo de RM incluye una gran bobina magnética cuyo campo magnético tiene una intensidad de
hasta 3 teslas (T) para su aplicación a seres humanos y de hasta 7 T en el caso de animales. El tesla
es la unidad que indica la intensidad de un campo magnético.

75
Una RM consiste en un conjunto de varias secuencias complementarias. Las exploraciones rutinarias
usan secuencias en T1 y T2. Las imágenes ponderadas en T1 proporcionan excelentes detalles
anatómicos de la mielina y las anomalías estructurales. Las ponderadas en T2 son sensibles al
contenido de agua de los tejidos y se emplean para determinar la extensión de las lesiones.

Las exploraciones mediante RM no son lesivas y no usan radiación, están bastante libres de riesgo,
pero son costosas y solo se hacen cuando se sospecha una anomalía cerebral. Son más sensibles
que el TAC para localizar lesiones y cuando se unas una sustancia de contraste como el gadolinio se
puede diferenciar tumor del edema que lo rodea.

La RM ha sustituido a la evaluación neuropsicológica para este fin en casos en que se sospecha la


existencia de tumores o lesiones. Este tipo de evaluación neuropsicológica sigue siendo sensible a
daños sutiles o a daños a nivel microcelular que la RM no puede detectar.

Resonancia Magnética funcional (RMf)

La resonancia magnética funcional (RMf) es una técnica que se usa principalmente en


investigación. Permite cartografiar el flujo o volumen sanguíneo cerebral, así como los cambios en el
volumen sanguíneo cerebral, su flujo y su grado de oxigenación. Es una de las técnicas más
avanzadas.

La RMf permite estudiar la activación cerebral mediante secuencias de imagen ecoplanar (secuencia
EPI). Esta técnica no usa sustancias radioactivas para visualizar el cerebro. La sustancia de
contraste se considera inocua.

Esta técnica no lesiva permite a los investigadores explorar la relación entre el aumento de actividad
metabólica en diferentes regiones locales del cerebro durante tareas cognitivas o perceptivas y de
este modo identificar las regiones corticales involucradas en diferentes funciones.

Dislexia: en las investigaciones sobre dislexia usando imágenes de RM se encontraron diferencias


específicas de la dislexia en regiones neuroanatómicas implicadas en el procesamiento del lenguaje.
Los mejores lectores tienen regiones más amplias en la parte central del cuerpo calloso que los
peores lectores.

Neuroimagen funcional

Se puede visualizar como el cerebro procesa los fonemas, las palabras y los encadenamientos de
palabras y sonidos. Existen 3 sistemas neurales en el hemisferio izquierdo que se usan en la lectura:

1. El sistema anterior incluye la circunvolución frontal inferior y participa en la articulación y el


análisis de palabras.

76
2. El sistema parietal y temporal participa en el análisis verbal.

3. El sistema occipitotemporal se relaciona con la identificación rápida y la fluidez de las


palabras.

A medida que madura el niño, las 2 regiones posteriores se van implicando en los problemas de
aprendizaje. El área del cerebro relacionada con el procesamiento rápido y automático del material
escrito (región occipitotemporal) está alterada en quienes tienen problemas de lectura. La disfunción
de esta región también se relaciona con las dificultades de encontrar la palabra que suelen
experimentar niños y adultos con dislexia.

TDAH: el hallazgo de que el esplenio (la parte posterior del cuerpo calloso) es más pequeño en los
casos de TDAH puede ser algo específico de este trastorno. No se encontraron diferencias en las
regiones anteriores del cuerpo calloso, en la longitud de éste o en el tamaño total del área callosa.
Eso indica que la diferencia en la respuesta a la medicación puede estar mediada por la menor
cantidad de conexiones entre las regiones posteriores del cerebro.

RM estructural

Un estudio de RM estructural encontró que las regiones frontales tenían un volumen menor en niños
con TDAH que en los sujetos de control, dándose la mayor diferencia en la región frontal derecha. Se
encontró por otro lado que la región del núcleo caudado y otros núcleos basales anteriores tenían
asimismo un volumen menor los niños con TDAH que los sujetos de control.

El análisis de la sustancia blanca del área frontal reveló un volumen significativamente menor de
dicha sustancia en la región frontal derecha en la muestra de sujetos con TDAH.

Las diferencias en regiones hemisféricas específicas implican un proceso durante el desarrollo


nervioso que altera la configuración del sistema neural, particularmente en el hemisferio derecho, en
los niños con TDAH. También se han hallado diferencias en el cuerpo calloso.

En niños con TDAH se ha observado que la región del núcleo caudado es más pequeña. El núcleo
caudado está íntimamente ligado al sistema dopaminérgico. Las lesiones del núcleo caudado en
adultos y en animales provocan conductas muy parecidas a las que se observan en los niños
hiperactivos. La hiperactividad es un síntoma frecuente en caso de infartos que afecten al núcleo
caudado. Dicha diferencia podría estar relacionada con un descenso del nivel de neurotransmisor
que se transmite a los lóbulos frontales, lo cual afecta al nivel de habilidades de atención compleja.

77
Se ha encontrado que el núcleo caudado derecho es menor y simétrico al núcleo caudado izquierdo
en la muestra de niños con TDAH, mientras que en el grupo de control el volumen del núcleo
caudado derecho era mayor que el del izquierdo.

El volumen del núcleo caudado disminuía significativamente con la edad en los sujetos de control,
pero en el grupo de TDAH no se daban diferencias.

Hay datos que indican diferencias entre niños con TDAH y los del grupo control en la región anterior
de la circunvolución del cuerpo calloso (o circunvolución del cíngulo) (CCA). El volumen de la CCA
derecha es menor en niños con TDAH que no han recibido tratamiento con estimulantes. La CCA es
una estructura que parece ser crucial para dirigir la atención, así como para ser consciente de la
resolución adecuada o inadecuada de un problema.

El cerebro de los niños con TDAH puede caracterizarse por ciertas anomalías neuroevolutivas y que
éstas podrían asociarse y relacionarse con anomalías prenatales en la migración celular y la
maduración cerebral.

Las exploraciones con RM podrían demostrar que existen diferencias de estructura cerebral entre los
subtipos del TDAH. Dado que los subtipos del TDAH responden de modo distinto a la medicación
sugiere que dichos subtipos podrían comprometer a diferentes mecanismos cerebrales.

RM funcional

Lo estudios de neuroimagen funcional han hallado:

 Menor grado de activación en la región dorsolateral del lóbulo frontal y en la CCA.

 Durante las inhibiciones ineficaces, los grupos de control muestran mayor activación en la
CCA y en la CPFVL que los niños con TDAH.

Las investigaciones sobre el TDAH mediante resonancia magnética funcional (RMf) se han centrado
principalmente en el control de inhibición de la respuesta. En adultos normales estas tareas de
inhibición implican a la corteza prefrontal dorsolateral (CPFDL).

Autismo (TEA)

El uso de neuroimagen estructural de niños con un trastorno del espectro autista (TEA) indica:

 Diferencias en el cuerpo calloso, particularmente menor cantidad de fibras, así como en el


área sagital media y en la densidad de la sustancia blanca. Estas diferencias se relacionan
con dificultades de procesamiento del lenguaje y de memoria operativa.

78
 Un aumento del tamaño cerebral que se debe a una mayor cantidad de sustancia blanca. En
adolescentes y en adultos con autismo no se ha observado un aumento del tamaño cerebral,
pero sí mayor perímetro cefálico.

 Una hipoactivación en las áreas prefrontales en sujetos con TEA y una activación más alta en
los sujetos de control, sobre todo en la región prefrontal izquierda.

 Una reducción metabólica significativa en la circunvolución cingulada anterior (CCA), área que
juega un papel importante en la supervisión de los errores y en los circuitos frontoestriados
implicados en el procesamiento visoespacial.

 Menos activación en la circunvolución facial fusiforme (CFF) derecha cuando un niño con TEA
contempla rostros. Al parecer, los niños con TEA prestan menos atención a las caras.

 Disminución del volumen del cuerpo calloso y anisotropía fraccional reducida (AF) en la rodilla,
el esplenio y la totalidad del cuerpo calloso.

Los niños con TEA necesitan más recursos cerebrales para procesar la información verbal. Esa falta
de eficacia puede hacer que tarden más tiempo en procesarla y restarles recursos para comprender
el significado de la prosodia del que habla o interpretar sus expresiones faciales.

La activación de la corteza temporal superior puede estar involucrada en la percepción de los


estímulos sociales, gracias a sus conexiones con la amígdala y los lóbulos centrales. Estas áreas
son importantes para procesar las expresiones faciales.

En conjunto, los resultados sugieren que los niños con TEA podrían estar usando sus redes neurales
de modo ineficaz y que éstas tienen escasa conectividad en comparación con las de los niños de su
misma edad.

2.4 Técnicas de Registro

Concepto de registro:

Encontramos para este término dos acepciones:

 Lugar: donde se centraliza la entrada y/o salida de documentos.

 Libros u otros medios: donde será anotada y referida toda la documentación de entrada y/o
salida que tiene lugar.

La finalidad básica del registro en términos generales es el control de todos los documentos que
entran y/o salgan en los diferentes órganos de la entidad.
79
Clases de registros:

 Registro general: es el registro de la correspondencia. Consiste en anotar toda comunicación


tanto de entrada como de salida que se establezca con el exterior, puede ser de dos tipos:

 Registro general de entrada. - se hará el correspondiente asiento de todo escrito que se


reciba, y se pueden utilizar dos procedimientos:

de registro único: un libro para los diferentes departamentos de un mismo órgano.

de registro múltiple: un libro por cada departamento de la misma entidad que reciba
correspondencia.

 Registro general de salida. - se anotará la salida de los escritos y comunicaciones oficiales


dirigidas a otros órganos o a particulares. Pueden utilizarse procedimiento de registro único o
múltiple.

 Registro auxiliar: los órganos administrativos podrán crear en las unidades administrativas
correspondientes de su propia organización otros registros con el fin de facilitar la
presentación de escritos y comunicaciones. Dichos registros serán auxiliares del registro
general, al que comunicarán toda anotación que efectúen.

 Registro de archivo: para inscribir todos aquellos documentos que han sido archivados.

Contenido de los registros:

- Numero de inscripción. (Orden temporal de recepción.)

- Epígrafe expresivo de la naturaleza del documento.

- Identificación del interesado.

Funciones:

Todo documento que entre o que salga de la Administración deberá ser registrado para que quede
constancia de su entrada o salida. El registro cumple fundamentalmente la función de facilitar la
localización de un determinado escrito o documento además de:

 Dar testimonio de que un documento ha pasado o no por la entidad en cuestión.

 Conocer el destino final de un documento (sí ha sido destruido o archivado).

 Localizar el lugar concreto donde se halla el documento o escrito.

 Conocer los datos más significativos de un documento sin necesidad de consultarlo


directamente ya que el registro queda anotado esto.

80
2.5 Técnicas Psicofísicas

En general, las técnicas psicofísicas se han empleado para determinar el tipo de relación existente
entre ciertos aspectos estimulares y diferentes tipos de respuestas y experiencias fenomenológicas,
evaluadas mediante la identificación, reconocimiento o tiempo de reacción ante tales estímulos. Sin
embargo, en un principio estas técnicas se emplearon principalmente para estudiar los procesos
implicados en la detección estimular, es decir, determinar el valor mínimo de estímulo que es posible
detectar (umbral absoluto) y la discriminación entre varios valores estimulares, es decir, la capacidad
para detectar un cambio mínimo entre dos valores distintos de estímulos (umbral diferencial).

2.6 Pruebas Neuropsicológicas

Una cuestión fundamental que merece ser analizada es el establecimiento de una serie de criterios
fundamentales que han de tenerse en cuenta a la hora de seleccionar los instrumentos de evaluación
que vamos a emplear. Autores como Wade han establecido una distinción entre criterios mayores y
criterios menores. Entre los primeros se incluyen la ética, fiabilidad, validez y sensibilidad a los
cambios clínicos, mientras que, entre los segundos cabe resaltar la viabilidad de administración, la
validación de las pruebas con poblaciones similares, la aplicación de las mismas por diferentes
grupos de trabajo y la existencia de protocolos claros y precisos de administración y puntuación.

Aquí se van a comentar algunas preguntas generales que conviene plantearse antes de decidir los
instrumentos de evaluación que van a ser administrados, en especial cuando se trata de obtener una
información que pueda ser de utilidad en el diseño, implementación y valoración de los programas de
tratamiento.

 ¿Son adecuados los contenidos planteados y su nivel de dificultad?

 ¿Ofrecen información sobre los mecanismos cognitivos alterados subyacentes?

 ¿Cuál es la validez ecológica de las pruebas?

 ¿Hasta qué punto estas pruebas son sensibles a los cambios en la situación clínica
experimentados por los pacientes?

Adecuación de los contenidos y grado de dificultad. Cuando alguien se enfrenta a la necesidad de


realizar una evaluación neuropsicológica trata con personas que conservan un conjunto de
habilidades muy diversas en función de sus características personales, topografía de las lesiones,
nivel de deterioro, etc. Ello impide hablar de un protocolo rígido de evaluación y de un conjunto de
81
pruebas establecidas de antemano, y exige por contra un nivel de conocimiento que permita
determinar en cada caso las pruebas de evaluación más adecuadas.

Así, por ejemplo, para alguien con una inteligencia previa superior, un nivel de ejecución dentro de
los límites normales en algunas pruebas en las fases iniciales del trastorno no implica
necesariamente que no exista deterioro. Y en las fases más avanzadas de la enfermedad, cuando
las puntuaciones en los tests cognitivos son mínimas, se hace preciso acudir de forma preferente a
escalas funcionales que valoren el grado de capacidad de los pacientes.

Tabla 1. Principales objetivos de la evaluación neuropsicológica (Muñoz, Céspedes, Tirapu, 2001)

 Descripción detallada de las consecuencias de la lesión o disfunción cerebral en términos de


funcionamiento cognitivo, posibles trastornos de conducta y alteraciones emocionales.
 Definición de los perfiles clínicos que caracterizan a diferentes tipos de patologías que cursan
con deterioro neuropsicológico.
 Contribución al establecimiento de un diagnóstico más preciso en determinadas enfermedades
neurológicas y psiquiátricas, en especial en aquellos casos en los que existen alteraciones
funcionales no detectadas con las técnicas de neuroimagen habituales y en los que se
encuentran en las primeras etapas de procesos patológicos degenerativos.
 Establecimiento de un programa de rehabilitación individualizado, a partir del conocimiento más
adecuado de las limitaciones, pero también de las habilidades conservada, que permita optimizar
el funcionamiento independiente y la calidad de vida del paciente.
 Determinación de forma objetiva de los progresos de cada paciente y valoración de la eficacia de
los diferentes tratamientos (quirúrgicos, farmacológicos, cognitivos y conductuales).
 Identificación de los factores de pronósticos tanto de la evolución que experimentan las personas
afectadas por alteraciones neuropsicológicas como el nivel de recuperación que se puede
alcanzar a largo plazo.
 Valoración médico-legal del nivel de deterioro cognitivo, que sirva de apoyo a las interpretaciones
de testimonios y peritaciones judiciales, y/o de cara a el establecimiento de posibles
indemnizaciones.
 Verificación de hipótesis sobre las relaciones entre el cerebro y la conducta, que permita mejorar
nuestra comprensión del modo como el cerebro procesa la información.

Los mecanismos cognitivos alterados. Las pruebas empleadas han de proporcionar información que
permita explicar la disminución del rendimiento de un determinado paciente en términos de alteración
en una o más operaciones o componentes de un modelo de funcionamiento cognitivo normal. Los
resultados numéricos por sí mismos son de poca utilidad para el establecimiento de las estrategias
de rehabilitación más apropiadas para cada caso individual. Se hace necesario un análisis más
minucioso tanto de los errores cometidos por los pacientes como de la existencia de posibles formas
alternativas de resolver las tareas que se proponen, pues el conocimiento de estos factores resulta
de gran interés para el diseño posterior del programa de rehabilitación.

82
La validez ecológica. La validez ecológica hace referencia a la necesidad de emplear medidas que
exploren el grado en que las funciones evaluadas se generalizan a la vida real. Dicho de otro modo,
intenta evaluar las relaciones entre los rendimientos del sujeto en un test y la capacidad de funcionar
en el mundo real.

En ocasiones las situaciones experimentales de algunas pruebas neuropsicológicas son tan


artificiales que los resultados obtenidos tienen muy poco valor a la hora de predecir el nivel de
funcionamiento real. Es posible encontrar déficits sutiles que no provocan dificultades en las tareas
de vida diaria y viceversa.

Por ello, la tendencia más actual de la evaluación neuropsicológica es desarrollar nuevos


instrumentos que exploren conductas y actividades similares a las características del medio natural
donde se desarrolla habitualmente la vida de los pacientes.

La sensibilidad al cambio. Algunas de las medidas más utilizadas en la exploración neuropsicológica


ofrecen categorías muy generales y poco descriptivas. Apenas informan de la magnitud de los
cambios ni de las áreas en que éstos se producen, y ambos aspectos son esenciales tanto en
relación con el proceso de rehabilitación como para conocer la evolución del trastorno.

Es necesario escoger pruebas que sean capaces de reflejar los cambios que se producen por el
paso del tiempo o con los diferentes tratamientos, con el objeto de ir incorporando nuevos elementos
o revisar aquellos objetivos que no se están desarrollando de forma satisfactoria.

3 LA EVALUACIÓN NEUROPSICOLÓGICA DEL FUNCIONAMIENTO COGNITIVO PRE-


MÓRBIDO

3.1 Los Métodos Cualitativos de Estimación de Funcionamiento Cognitivo Pre-Mórbido

El proceso de evaluación engloba la exploración, el diagnóstico y el plan de acción terapéutica


(Manga y Ramos, 2001), permitiendo diseñar un perfil de capacidades preservadas y afectadas, este
perfil establecerá la línea base que nos ayudará a comparar la evolución y éxito de nuestro de
intervención. La evaluación neuropsicológica, es, por tanto, un importante elemento en el proceso no
sólo de diagnóstico, sino en el proceso de tratamiento (Mauri, Pascual, Tejero, Iñiguez, Escalza y
Morales, 2001) proporcionando datos para predecir y determinar los resultados después de una
lesión cerebral (Lynch, 1990).

83
Para Tirapu, Martínez, Casi, Albéniz y Muñoz (1999) en el proceso de evaluación deben considerase
una serie de aspectos, los cuales tendrán una gran relevancia en el proceso de rehabilitación: El
empleo de métodos de evaluación y observación cualitativos y cuantitativos.

La necesidad de recabar información de personas significativas para el paciente en aras a obtener


información relevante sobre su historia personal, curso del problema, patrones de conducta.

La observación del paciente en otros ambientes donde las demandas del entorno sean diferentes y
exijan procesos mentales flexibles y dinámicos.

La utilización de un conjunto o baterías de tests que hayan demostrado su sensibilidad para


discriminar entre grupos de individuos con daño cerebral y grupos normales.

El estudio de las pautas de ejecución durante la realización de las pruebas neuropsicológicas (los
tests elicítan conductas).

Los resultados en las diferentes pruebas han de integrase en un modelo comprensivo que pueda
explicar satisfactoriamente los datos obtenidos.

Y, el estudio de los síntomas en el espacio y en el tiempo. En palabras de los mismos autores, los
ingredientes esenciales de la exploración neuropsicológica son: La historia clínica o anamnesis, la
observación y la aplicación de pruebas.

La evaluación neuropsicológica exige un estudio interdisciplinario, no se puede reducir


exclusivamente a la aplicación de pruebas formales, ni a la cualificación de los síntomas sin seguir un
estudio sistemático. La flexibilidad, creatividad y la experiencia del examinador son características
importantes para lograr una evaluación neuropsicológica adecuada (Peña, Hernández y Jarne,1997).
Seguidamente describimos este proceso siguiendo las orientaciones de Muñoz y Tirapau (2001), de
los profesores Manga y Ramos (2001) y las indicaciones de Peña, Hernández y Jarne (1997).

La evaluación neuropsicológica no es una mera aplicación de tests, sino que se trata de un proceso
donde la aplicación de las pruebas tan solo es un paso. Los principales pasos que deben seguirse
son:

 El proceso comienza con la observación y recogida de datos: la conducta del paciente levanta
la sospecha de la existencia de déficit cognitivo.

 Esa sospecha nos llevará a la formulación de una hipótesis.

 Sobre la base de esta hipótesis se elegirán las técnicas y pruebas de evaluación que pueden
comprobarla.

 Corrección y valoración de las pruebas.


84
 Con esta valoración se procederá a integrar los datos para darles una interpretación global.

 El resultado de la valoración finalmente se contrasta con la hipótesis previamente establecida.

 Descripción, predicción y toma de decisiones.

Las hipótesis que se haya planteado conducirán a la necesidad de una valoración neuropsicológica
global, utilizando para ello una serie de instrumentos y una valoración de funciones específicas,
recurriendo a una serie de instrumentos.

Habitualmente el proceso de evaluación comienza con la revisión de los informes previos, cuya
información sirve de base para determinar la gravedad y naturaleza de la disfunción, los resultados
de las técnicas de neuroimagen, la presencia de complicaciones asociadas, la evolución de la
sintomatología y el nivel de dependencia o recuperación alcanzado hasta el momento. Es importante
contar con los resultados de la exploración neurológica del paciente, es decir, saber si presenta
defectos motores, sensoriales, alteraciones de pares craneales, etc. Es imposible conocer las
funciones mentales superiores sin saber si hay alteraciones a niveles funcionales más básicos.

La entrevista con el paciente es la siguiente tarea a realizar, en ella se obtienen información en


primer lugar sobre la historia del paciente y sobre variables mediadoras tales como la edad, el nivel
del funcionamiento premórbido, el grado de escolaridad y situación laboral alcanzado...

La historia clínica es un requisito imprescindible para poder interpretar en ese marco contextual los
datos obtenidos mediante la observación y la aplicación de pruebas. Además, la entrevista permite
conocer la descripción que hace el paciente de la situación actual, los problemas específicos y la
importancia que concede a los mismos, así como el grado de autoconciencia de las limitaciones
existentes.

Asimismo, se debe obtener información sobre los patrones de conducta y personalidad previa para
conocer el nivel de ajuste previo y / o descartar la existencia de problemas de inadaptación social
que puedan contribuir a explicar los problemas emocionales actuales. Puede ser conveniente
entrevistar de forma independiente al paciente y a los familiares.

La observación puede aportar muchos datos sobre un conjunto de comportamientos útiles para el
diagnóstico. Por observación directa el profesional de la neuropsicología clínica obtiene información
valiosa a lo largo de toda la exploración sobre la apariencia, colaboración e interacción del paciente
con sus familiares y con el propio examinador.

Una cuidadosa observación ayuda a diferenciar entre trastornos orgánicos y/o psiquiátricos, así como
al diagnóstico de ciertos síndromes neuroconductuales, como un estado confusional agudo, un

85
síndrome de Balint o un síndrome frontal. La observación del estilo de respuesta, su actitud ante la
evaluación, el grado de conciencia sobre su estado actual y las razones que motivaron el examen
son aspectos que también se han de considerar (Orsini, Van Gorp y Boone, 1988).

El estudio del sistema nervioso central y de los procesos cognitivos se acompaña de un conjunto de
técnicas de exploración complementaria: análisis de parámetros neuroquímicos, registros
electrofisiológicos (EEG, potenciales evocados) y técnicas de neuroimagen.

Junqué y Barroso (1994) exponen los métodos y técnicas comúnmente usados por la
neuropsicología para realizar sus investigaciones, los cuales en ocasiones son utilizados con un fin
diagnóstico. Diferenciando tres métodos: el método lesional, comentado en el marco teórico, el
método instrumental y los métodos funcionales.

El método instrumental utiliza técnicas y procedimientos que le permiten el control de variables que
afectan indirectamente al funcionamiento cerebral. Son propias de esta metodología las técnicas de
división sensorial y las técnicas de interferencia. Los métodos que registran los cambios de la
actividad cerebral (electromagnética o metabólica) producidos por la manipulación de variables
conductuales se denominan corriente mente métodos funcionales. Las técnicas utilizadas por estos
métodos pueden ser, por la naturaleza de registro que realizan, de tipo electromagnético, como la
Electroencefalografía (EEG) y la Magnetoencefalografía (MEG), y de metabólico, como la Tomografía
por Emisión de Positrones (TEP), la Tomografía Computarizada por Emisión de Fotones Simples
(SPECT) y la Resonancia Magnética Funcional (RMF). Las técnicas más modernas son clasificadas
por Muñoz y Tirapu (2001) en dos grandes grupos, en función del tipo de información que ofrecen:

 Estudio de la anatomía y estructura cerebral (Neuroimagen Estructural): TAV (Tomografía


Axial Computarizada) y RMN (Resonancia Magnética Nuclear).

 Y, estudio de la fisiología y función cerebral (Neuroimagen Funcional): SPECT (Tomografía


por Emisión de Fotón Único), PET (Tomografía por Emisión de Positrones), RMNF
(Resonancia Magnética Nuclear Funcional) y Magnetoencefalografía.

Las técnicas de neuroimagen estructural son de gran utilidad para la detección y localización de la
lesión (por ejemplo, tumores cerebrales), al mismo tiempo que promocionan una línea base que
permite comparar y controlar diferentes trastornos patológicos agudos y subagudos.

A la luz de todos estos instrumentos y habilidades necesarias que deben ser desplegadas en una
evaluación neuropsicológica, coincidimos con Kolb y Whishaw (1986) quienes consideran que una
valoración neuropsicológica es complicada y requiere un aprendizaje extenso para evaluar

86
apropiadamente los resultados, la experiencia en interpretar test de personalidad o de inteligencia no
constituye una base suficiente para iniciar la valoración neuropsicológica.

La evaluación neuropsicológica puede hacerse a través de una serie de baterías de pruebas


comunes, siempre y cuando el profesional evaluador sepa interpretar los déficits del paciente a
través de una lectura sustentada en un adecuado conocimiento de las funciones cerebrales
superiores y de las manifestaciones que producen sus alteraciones. Es este conocimiento, el que,
permitirá, según Castaño (2003), diseñar estrategias racionales terapéuticas y con una base
científica.

Muñoz y Tirapau (2001) agrupan los instrumentos a aplicar en tres grandes grupos:

 Escalas breves o pruebas de rastreo cognitivo.

 Baterías neuropsicológicas generales.

 Y, test específicos.

Muchos neuropsicólogos encuentran en la interpretación cualitativa de los resultados de un test y el


análisis de los errores una interesante información clínica (Kaplan, 1988). Para detectar las
alteraciones que se observan en el intelecto dinámico descrito por Luria (1973) es necesario hacer un
detallado análisis de los errores que cometen los sujetos cuando tienen que resolver un problema.
Estos errores se caracterizan por:

 Alteraciones de la capacidad selectiva.

 Alteraciones en el mantenimiento de actividades.

 Déficit en la capacidad para formar asociaciones, formar conceptos y clasificar.

 Y, fallos en la resolución de problemas.

Estas características se resumen en las propias palabras de Luria (1973) cuando escribe sobre las
consecuencias del intelecto dinámico sobre la conducta, “estas personas no analizan las condiciones
del problema, ni se percatan de las condiciones importantes del mismo: incluso si llegan a ello, las
conexiones no controlan el curso subsiguiente de las operaciones intelectuales. El sistema de
operaciones que normalmente conduce a la solución de un problema se desintegra y es reemplazado
por una serie de conexiones fragmentarias sin una estructura jerárquica claramente definida... y la
ausencia de un plan para resolver un problema, la omisión de la fase de investigación previa y la
sustitución de verdaderas operaciones intelectuales por actos impulsivos y fragmentarios son signos
típicos de este tipo de alteraciones”.

87
3.1.1 Estimación Clínica del Funcionamiento Cognitivo

La metodología de la evaluación neuropsicológica en la clínica es la misma que la que se utiliza en la


investigación básica con casos únicos. Al fin y al cabo, éstos últimos son pacientes que, tras la
evaluación neuropsicológica, han resultado ser casos relevantes para la teoría. En ambos casos, una
vez que se han verificado las hipótesis acerca de cuál es el componente del sistema que está
dañado, es preciso determinar cuánto y cómo está alterado ese componente. Para ello, hay que
hacer un estudio lo más exhaustivo posible de cómo se manifiestan sus alteraciones en cada una de
las diferentes funciones en las que participa.

En el marco clínico, debido a que esta evaluación es necesaria para establecer la línea de base de
las discapacidades del paciente antes de iniciar su tratamiento, suele formar ya parte del plan de
rehabilitación. Pero, además, en el marco clínico hay que evaluar cómo la alteración de un
componente se manifiesta en cada una de las situaciones de la vida cotidiana del paciente, lo que,
en cambio, no se suele considerar en la investigación básica. En cuanto a la quinta etapa del
proceso, vuelve a ser coincidente en la clínica y en la investigación.

Esta coincidencia en la metodología de la evaluación en la clínica y en la investigación es lo que


hace que, si en el departamento de neuropsicología clínica del que proceden los casos de una
investigación se trabaja debidamente, el investigador se encuentre ya hechas las tres primeras
etapas de la evaluación neuropsicológica y sólo tenga que centrarse él en la cuarta etapa.

Cuando las investigaciones utilizan diseños de grupo, éstos pueden imponer variantes más o menos
importantes en cada una de las etapas del proceso.

En la práctica clínica de la neuropsicología los pacientes suelen acudir remitidos por el neurólogo, el
psiquiatra, el juez o el abogado, o pueden acudir simplemente por iniciativa propia o de la familia.
Una vez realizada una entrevista inicial con el paciente y con su familia, el neuropsicólogo puede ver
con claridad la conveniencia de llevar a cabo directamente la primera etapa de una exploración
neuropsicológica o puede, alternativamente, considerar más conveniente realizar antes una
exploración encaminada a determinar si las quejas por las que se acude a consultar son o no
realistas. Esto se debe a que los tests cognitivos se queman más con los individuos que tienen un
cerebro intacto que con los pacientes y, teniendo en cuenta que son muy pocos los tests que tienen
formas paralelas (o que, teniéndolas, éstas no evitan que se queme el test), es preciso reservarlos
para cuando son realmente necesarios.

La comprobación de si las quejas del paciente son o no realistas es especialmente importante en el


caso de las quejas de memoria, ya que los tests de memoria son los instrumentos de evaluación que
88
más quemados resultan tras una aplicación. Y, precisamente en la actualidad, debido a las
campañas de información acerca de la enfermedad de Alzheimer, es frecuente que se acuda a
consultar por una autoevaluación errónea de pérdida de memoria. En el apartado 10.3.3 hemos
comentado el procedimiento a seguir en estos casos.

En el otro extremo está el psiquiatra que no remite sus pacientes al neurólogo más que cuando ve
que no responden a las dosis más elevadas de neurolépticos; o el forense que insiste en interpretar
las conductas debidas a los deterioros cognitivos severos de un paciente lesionado cerebral
postraumático, en términos de «desorganización psicótica de la personalidad» que, en consecuencia,
no requiere evaluación neuropsicológica; o el médico de familia que se niega a remitir al neurólogo a
un paciente que presenta una clara demencia frontal, asegurando que no le pasa nada (se trata de
tres casos reales).

En todo caso, como hemos visto, el proceso evaluador comienza siempre con una entrevista. Es
conveniente hacer siempre esta primera entrevista al paciente solo en primer lugar. Sólo después se
repite con la familia (sola o en presencia del paciente, según los casos). Ambas entrevistas versarán
sobre el motivo de consulta, cómo se manifiesta éste en la vida cotidiana y, eventualmente, cuáles
creen ellos que pueden ser sus antecedentes.

La entrevista con el paciente que, ante todo, ha de estar adaptada a sus posibilidades de
comunicación (que pueden ser muy reducidas) está encaminada a evaluar la conciencia que tiene de
sus síntomas y de su condición, en general, y su capacidad para dar información objetiva acerca de
sí mismo (sin que nadie le «apunte» o le contradiga o, incluso, le diga antes de que entre en la
entrevista lo que ha de contestar, casos frecuentes si la familia está presente en esa entrevista o si
se hace ésta con la familia antes que con el paciente). Al final de la entrevista, se le explicará su
objetivo y se le indicará que, para lograrlo, se preguntará a su familia acerca de las mismas
cuestiones.

La observación del paciente durante esta entrevista inicial (cómo camina, cómo nos saluda, cómo se
sienta, su grado de orientación espacial, cómo reacciona a las cuestiones que se le plantean, etc.),
desde que entra en el despacho hasta que se ha ido, es un complemento básico de la información
verbal recogida en ella. En su conjunto, esta información nos va a orientar acerca de cómo comenzar
la evaluación.

La entrevista con la familia tiene dos partes bien diferenciadas. La primera parte, de la que vamos a
hablar aquí, es una entrevista inicial, previa a la evaluación del paciente, que se suele hacer en una
sesión. La segunda parte se lleva a cabo al final de la evaluación. Si no se plantea intervención,

89
puede estar constituida por un par de sesiones. En caso contrario, forma ya parte del plan de
rehabilitación y hablaremos de ella al tratar de dicho plan.

La entrevista inicial ha de incluir, además de las cuestiones señaladas, cuestiones y apreciaciones


acerca de la percepción que tienen el paciente y su familia de lo que le pasa a aquél, su conciencia
del déficit que presenta (incluyendo las alteraciones de sus conductas adaptativas), de la naturaleza
real del problema y de las consecuencias materiales y emocionales que ello conlleva para todos. La
reacción al problema de cada miembro de la familia que convive con el paciente y su disponibilidad y
posibilidades de colaborar en la rehabilitación han de ser igualmente exploradas. Se trata de
cuestiones que pueden ser realmente espinosas. Entre las más espinosas cabe destacar dos. Una
de ellas se plantea cuando la pareja del paciente declara más o menos abiertamente que estaba
harta del cónyuge y que no está dispuesta a ayudarle o, incluso, que desea romper los vínculos con
él. La otra cuestión espinosa, muy frecuente, se plantea cuando la familia deja saber que quieren que
el paciente se recupere, pero no tanto como para que le vayan a quitar la «discapacidad
permanente» o la indemnización. Este último tipo de familias, suelen boicotear de una forma u otra el
proceso de rehabilitación. A este mismo tipo pertenecen las familias que buscan que se trate gratis a
su paciente porque se gastaron la indemnización en comprarse un piso. Quizá las instituciones
responsables deberían velar más por los intereses del paciente y asegurarse de que la
indemnización, hasta donde es necesario, se utiliza, ante todo, en la rehabilitación óptima posible del
paciente.

Es conveniente que estas entrevistas estén basadas en una pauta previamente establecida, que
contenga una parte de carácter general y otra parte más adaptada a cada tipo de motivo de consulta
con que se trabaja (por ejemplo, «demencias» o «afasias») y a las características demográficas de la
población que acude al centro en el que se trabaja. Una pauta no es un cuestionario, que se aplica
tal cual, a cada individuo, sino un repertorio de temas que han de ser tratados en una entrevista. El
neuropsicólogo deberá, por tanto, tratar cada uno de esos temas de modo espontáneo y flexible,
adaptándose sobre la marcha a las condiciones nuevas que se puedan presentar en cada caso
concreto.

A menos que la evaluación neuropsicológica forme ya parte de un proceso de rehabilitación (por


ejemplo, en un centro de rehabilitación), en la entrevista con el paciente y su familia se discutirán los
objetivos y la naturaleza de dicha evaluación, el número de sesiones que pueden ser necesarias, el
horario más adecuado de trabajo para unos y otros, etc.

En resumen, la entrevista inicial tiene, al menos, los siguientes objetivos: 1) recoger información
objetiva acerca del paciente; 2) determinar el grado de conciencia que el paciente tiene de sus déficit
90
y la objetividad con la que puede comunicar información acerca de sí mismo; 3) hacer una primera
estimación de las repercusiones que los déficit del paciente tienen en su vida profesional, familiar y
social; 4) estimar lo más aproximadamente posible cuál era el funcionamiento del paciente en su vida
cotidiana (profesional, familiar y social) antes de contraer la lesión cerebral, incluyendo si en su
escolaridad tuvo algún tipo de dificultades de aprendizaje; 5) determinar los cambios de ese
funcionamiento observados por la familia tras la lesión; 6) apreciar la percepción del problema y de
sus consecuencias que tiene la familia, y la capacidad de ésta para hacer frente a él y para colaborar
en la rehabilitación; 7) hacer una primera estimación del grado en que la familia necesita apoyo
psicológico; 8) informar al paciente y a su familia acerca de la naturaleza de la evaluación
neuropsicológica que va a comenzar, respondiendo a todas sus preguntas acerca de dicha
evaluación; 9) establecer con el paciente y con su familia una relación positiva que facilite la
evaluación; 10) orientarnos acerca de cómo enfocar ésta.

Una información muy importante que se ha de extraer (y quizá abstraer) de esta entrevista es el nivel
de funcionamiento intelectual premórbido del paciente y la condición premórbida de su cerebro. Esta
última hace referencia a posible déficit cognitivos presentes con anterioridad a su actual motivo de
consulta. Esos déficits pueden haberse manifestado ya durante su escolaridad (por ejemplo, si el
propio paciente o uno de sus familiares manifiesta que le costaba mucho «fijarse» en clase, es
probable que haya tenido siempre déficits atencionales e, incluso, que esos déficits sean la causa del
accidente que ha padecido ahora). En cuanto a la información acerca del nivel intelectual premórbido
se desprende, por un lado, de cómo se ha desenvuelto el paciente en su vida cotidiana y, por otro, de
cómo se enfrenta actualmente, tanto a las tareas con las que no tiene dificultades como a aquellas
con las que sí las tiene. Ciertas estrategias compensatorias que utiliza un paciente para hacer frente
a sus déficits nos dan más información acerca de su nivel cognitivo premórbido que ningún test
posible.

En cuanto a la evaluación de las variables afectivas y emocionales del paciente, hay que tener
presente que sus déficits cognitivos interfieren en el procesamiento de la información que entra en el
sistema, constituyendo un prisma a través del cual esa información se deforma de una manera que
no podemos determinar. Esto incide seriamente en la validez de los instrumentos de evaluación de
dichas variables. Tanto si pensamos en las preguntas de un cuestionario como si pensamos en las
imágenes de un test proyectivo, no sabemos qué información es la que, en realidad, ha entrado en el
sistema. Además, tampoco sabemos cómo procesa su sistema esa información, pero, sin duda, lo
hace de manera diferente a como lo hace el cerebro normal. En consecuencia, no podemos saber a
qué está respondiendo un paciente neuropsicológico cuando nos da sus respuestas verbales (u

91
otras) a cada uno de los elementos de uno de esos tests. No tenemos, por tanto, base alguna para
interpretar esas respuestas. En el caso de los cuestionarios: a) no sabemos si comprende o si
interpreta las preguntas en los mismos términos en los que lo hace un cerebro normal; b) no
sabemos hasta qué punto puede recuperar de su memoria a largo plazo la información a la que hace
referencia la pregunta y ponerse mentalmente en esa situación pero, dada la pérdida de capacidad
de abstracción que conlleva toda lesión cerebral, es poco probable que lo pueda hacer, al menos de
un modo suficiente; c) es poco probable que pueda mantener esa pregunta y esa situación activas en
su memoria de trabajo, durante todo el tiempo necesario para reflexionar acerca de la respuesta: por
lo general, se trata de preguntas largas y el que se le repitan o las pueda releer no suele resolver
mucho el problema; d) no sabemos hasta qué punto es capaz de reflexionar sobre ella o si, en
realidad, se está inventando las respuestas. Pero, sobre todo, es demasiado poco probable que
pueda hacer todas estas operaciones, y desde el momento en que falla una de ellas nuestra
interpretación de los datos deja de ser válida.

Por todo lo dicho, en la evaluación neuropsicológica las variables no cognitivas de la personalidad se


suelen estimar mediante la observación del paciente. Sólo cuando, una vez iniciado el programa de
rehabilitación, se considera que la familia está en condiciones de colaborar en esa evaluación, por un
lado, y los diferentes especialistas implicados en la rehabilitación pueden participar en ella, por otro,
se lleva a cabo una verdadera evaluación de esas variables. De esto hablaremos dentro del marco
del plan de intervención.

Cuando hablamos de la orientación acerca de cómo enfocar la evaluación no nos referimos sólo a la
decisión acerca de comenzar directamente por la evaluación neuropsicológica o abordar antes el
tema de si las quejas son o no realistas. Nos referimos, además y cualquiera que sea la decisión que
tomemos, a: a) el tipo de pruebas que elegimos para empezar (verbales o no verbales, más o menos
fáciles, dirigidas a una u otra función); b) el ritmo con el que comenzamos a trabajar (que, desde
luego, se debe de adaptar sobre la marcha a las características del paciente); c) la necesidad de
adoptar, por ejemplo, una actitud especialmente estructurante, o d) la necesidad de rehabilitar, por
ejemplo, la atención (o ciertas conductas desadaptadas) del paciente antes de poder llevar a cabo la
evaluación neuropsicológica.

Durante la etapa de la evaluación de base se utilizan sobre todo (pero no sólo) tests psicométricos.
Sin embargo, ya hemos visto que la metodología de utilización de los tests psicométricos en
neuropsicología cognitiva es muy diferente de la que se utiliza en los otros ámbitos de la psicología
aplicada.

92
Ello se debe (entre otras) a dos razones fundamentales: 1) La evaluación neuropsicológica está
orientada al proceso y referida al propio individuo. Es decir, está orientada al análisis de los procesos
cognitivos subyacentes a las respuestas del individuo y, por tanto, subyacentes a sus puntuaciones.
Para ello, los tests, sin perder su condición de instrumentos psicométricos, se utilizan ante todo como
instrumentos para suscitar las conductas que se desea analizar en términos de los subsistemas o de
los procesadores concretos que participan en la ejecución de cada tarea. Además de comparar al
individuo con un grupo normativo, es preciso compararlo consigo mismo, en cuanto a su ejecución en
diferentes tareas y en cuanto a su ejecución en las mismas tareas en diferentes momentos. 2) La
condición cognitiva de los pacientes neuropsicológicos (a la que se añaden los eventuales déficit
sensoriales y motores) no permite utilizar válidamente con ellos la misma metodología de aplicación
de los tests que se utiliza con los individuos que tienen un cerebro intacto. Las características
generales de la metodología de la evaluación en neuropsicología cognitiva han quedado expuestas
en las Secciones 9 y 10. Sólo recordaremos aquí que, sean cuales sean los instrumentos elegidos
para la evaluación, hay unas normas generales que deben ser tenidas siempre en cuenta durante su
aplicación. Las siguientes son las que consideramos más importantes:

1. En ningún caso se evalúa al paciente en presencia de un familiar o amigo. Es bien sabido lo


difícil que es impedir que esas terceras personas interfieran con la evaluación haciendo
comentarios a las respuestas del paciente, completándolas, corrigiéndolas con palabras o con
gestos o tratando, incluso, de responder por él, cuando no de recriminarle por sus fallos. Todo
esto es incompatible con una evaluación psicológica. Es, desde luego, interesante conocer
esa actitud de los familiares hacia el paciente y conocer y comparar la actitud del paciente en
presencia de esas terceras personas con la actitud que ha tenido en las condiciones normales
de la evaluación (es decir, a solas con el neuropsicólogo). Pero es preciso que esa evaluación
se haga en una sesión especial, al margen del proceso principal.

2. Debido a que no sabemos de antemano cuáles son las capacidades del paciente, y a fin de
prevenir una pronta frustración, es importante comenzar la aplicación de los tests diciendo
algo así como: «Vamos a hacer una serie de tareas; algunas van a ser muy fáciles, otras
serán menos fáciles y otras serán difíciles o muy difíciles, tanto, que pocas personas pueden
hacerlas. Yo le voy a pedir que las intente todas, para que podamos estar seguros de qué
cosas puede hacer usted y qué cosas no puede hacer». Se empezará siempre la evaluación
con alguna tarea que ofrezca una probabilidad razonable de ser bien ejecutada por el paciente
concreto. Cuando éste comience a mostrarse frustrado ante sus fracasos, se le podrá
recordar: «Ya le he dicho que había tareas fáciles y tareas difíciles, y ahora le estoy

93
presentando algunas de las tareas más difíciles». Si el paciente nos dice que no puede hacer
esas cosas porque ha ido poco o nada al colegio, podemos decirle: «Algunas personas que no
han ido al colegio han aprendido algunas de estas cosas en la televisión o las han leído, y yo
necesito saber si usted ha aprendido así, pero, en realidad, no tiene por qué saberlas».

3. Las instrucciones de los tests se leen al pie de la letra. Se le dice al paciente: «Escuche
atentamente porque le voy a leer lo que tiene que hacer». Una vez que se ha comprobado que
está escuchando atentamente (y no antes) se procede a leer esas instrucciones.

4. Es imprescindible controlar en todo momento la atención del paciente (incluyendo su amplitud,


su distribución espacial y su capacidad de centrarse en la tarea y de permanecer centrada en
ella), a fin de no tomar como fallos de otras funciones cognitivas sus fallos de atención.

5. También es preciso asegurarse de que eventuales déficit de las funciones de comprensión


verbal del paciente no están interfiriendo con su comprensión de las instrucciones.

6. Si el paciente da respuestas irrelevantes, se le deberá preguntar: «¿Qué le he preguntado?» o


«¿Qué le he dicho que hiciera?». Si su respuesta a estas preguntas es errónea, es preciso
repetirle las instrucciones y asegurarse de que las ha comprendido y las recuerda, antes de
dejarle que empiece a responder. Pero una cosa es repetir las instrucciones y otra muy
diferente repetir los estímulos de un test. No en todos los tests se pueden repetir los estímulos
sin que cambie con ello la naturaleza del test. Por ello, si se desea utilizar el grupo normativo,
es preciso atenerse rigurosamente en esto (como en todo) a las instrucciones del manual.

7. En ningún caso se le dice al paciente, a modo de introducción de un nuevo test: «Ahora


vamos a hacer un test de memoria (o de atención o de aritmética)». Simplemente se le leen
las instrucciones del nuevo test o, a lo sumo, se le dice: «Ahora vamos a hacer otra cosa».

8. En la etapa psicométrica se aplica cada test de acuerdo con las instrucciones del Manual. No
sólo porque lo contrario impediría usar las normas para obtener puntuaciones típicas, sino,
además, porque en cuanto introducimos el menor cambio, no sabemos cómo estamos
modificando la tarea ni, por tanto, cómo hemos de interpretar las respuestas del sujeto en ella.
Sin embargo, en ocasiones, puede ser más interesante sacrificar estas normas en aras de
obtener información cualitativa que nos ayude a determinar el origen de las dificultades de un
paciente concreto. Sólo es lícito modificar las instrucciones de aplicación de un test: a) si lo
hacemos sabiendo lo que estamos haciendo; b) si lo hacemos para detectar una variable que,
en su formato original, el test no permite detectar, y c) si es posible hacerlo sin quemar el test.

94
9. Un tipo de modificaciones de las instrucciones del manual que se han de hacer siempre en
neuropsicología, y que no interfieren con la posibilidad de obtener puntuaciones típicas, son
las siguientes: a) Se comienza siempre la aplicación con el elemento 1 del test y no se detiene
dicha aplicación después de un determinado número de fracasos consecutivos, como suelen
indicar los manuales de aplicación. En otras palabras, cada test se aplica entero. Sólo
después de haber concluido la aplicación psicométrica de un test se podrá utilizar éste en
tanto que tarea experimental (modificando alguna de sus condiciones), a fin de tratar de
determinar la etapa del procesamiento del que proceden los errores o dificultades del sujeto.
b) En los elementos de los tests que tienen un límite de tiempo no detenemos al paciente al
agotarse el tiempo límite; en su lugar, se anota la cantidad de tarea realizada dentro del
tiempo límite (y se puntúa sólo esa) y el tiempo empleado en completar el elemento.

10. Se anotan al pie de la letra todas las respuestas verbales y comentarios del paciente o se
graban, si parece necesario o si las funciones del lenguaje parecen estar alteradas, a fin de
poder realizar un análisis detallado ulterior.

11. Se observa, especialmente en los tests manipulativos, cómo procede el paciente y se anota su
conducta usando diagramas cuando convenga. Además, puede ser conveniente grabar en
vídeo la ejecución del paciente, a fin de poder analizarla luego más detenidamente.

12. En principio, no se debe de hacer ninguna pregunta que no esté contemplada en el manual.
Pero si la conducta del paciente aconseja hacerlo, debemos anotar al pie de la letra esa
pregunta, a fin de poder estimar luego sus consecuencias. En cualquier caso, la pregunta ha
de ser lo más neutra posible (a fin de no proporcionarle información suplementaria). Además,
no se podrán utilizar las normas para puntuar ese test.

13. Si se observan errores abundantes al principio de una prueba, y estamos seguros de que el
paciente ha comprendido las instrucciones, puede ser una indicación de que éste necesita un
«calentamiento». En ese caso, se le pasan de nuevo, al final, los elementos fracasados, pero
si ahora los hace correctamente, no se podrán incluir dichos aciertos en el cómputo de
puntuaciones para obtener la puntuación típica.

14. Si se observan errores abundantes a partir de la mitad de la prueba, ello puede deberse a que
el paciente está cansado. En este caso, se debe interrumpir la evaluación y, si ello no
interfiere con su naturaleza, se le aplican de nuevo, al principio de otra sesión, los elementos
fracasados (empezando por su último acierto en esa prueba), continuando luego con los

95
siguientes. Esta vez, nada impide incluir todos los aciertos en el cómputo para obtener la
puntuación típica.

15. No obstante, a fin de prevenir estos cansancios es conveniente hacer siempre una pausa de
algunos minutos antes de empezar un nuevo test. Antes de reanudar la aplicación, se puede
preguntar al paciente: «¿Podemos empezar otra tarea?» Es preferible hacer una pausa,
incluso larga, antes de comenzar cada test, que tener que interrumpir éste una vez
comenzado. Esto es especialmente cierto cuando se va a aplicar un test de aprendizaje, ya
que estos tests no se pueden interrumpir ni retomar en otra ocasión.

16. Hemos dicho que, en principio, cada prueba se aplica entera. No obstante, en ocasiones
parece oportuno interrumpir definitivamente la aplicación de un test. Para ello, se tienen en
cuenta los siguientes criterios: a) está claro que todos los elementos que quedan por aplicar
superan las posibilidades culturales y/o cognitivas del paciente y éste se muestra frustrado; b)
el paciente ya no puede ofrecer información nueva (por ejemplo, porque persevera en una
respuesta).

17. A fin de evitar interferencias no deseadas ni controladas, en ningún caso se aplica un test de
aprendizaje y memoria en el intervalo de tiempo que transcurre entre las pruebas de recuerdo
a corto y a largo plazo de otro test de aprendizaje y memoria. En realidad, no se deberán
aplicar dos pruebas de este tipo en la misma sesión. Este es uno de los escollos de las
escalas o baterías de memoria que hay en el mercado.

3.1.2 Datos Objetivos del Funcionamiento Pre-Mórbido

Durante las pasadas décadas ha habido un interés sin precedentes en el ajuste psicosocial de los
pacientes psiquiátricos a la comunidad que, incluso, se ha extendido a los pacientes con
enfermedades somáticas. En psiquiatría este interés del ajuste comunitario de los pacientes ha
tenido un crecimiento natural en relación con los cambios en las tendencias de tratamiento, con la
evolución desde las custodias manicomiales al cuidado de pacientes ambulatorios. La preocupación
por el ajuste social se hace aparente cuando se produce la desinstitucionalización de los pacientes
con trastornos crónicos y surgen los problemas de integración en la comunidad.

Varias escalas fueron desarrolladas para el análisis del ajuste social. Las primeras escalas, que
aparecieron en los años 50 y 60, fueron usadas para evaluar el ajuste posthospitalario de los
pacientes esquizofrénicos dados de alta en régimen de tratamiento con los entonces nuevos

96
neurolépticos, o para analizar los resultados de la psicoterapia en la selección de pacientes
ambulatorios. Es en los años 70 cuando se realizan ya análisis sistemáticos del funcionamiento
social de los pacientes, comenzando éstos a formar parte de la evaluación, tanto de su estado inicial
como del resultado de su tratamiento (Weissman y col. 1981).

Con el desarrollo de la clasificación americana DSM-lll, en el que se incluye una evaluación global del
sujeto como un eje más del diagnóstico, se da un ímpetu adicional para la clarificación de estas
áreas conceptuales de funcionamiento psicosocial.

El escepticismo hacia la esquizofrenia como una enfermedad unitaria ha supuesto a lo largo de su


historia una serie de esfuerzos por clasificar y subclasificar a los pacientes que la padecen. Por otra
parte, la mala confianza en la sintomatología, dada su enorme variabilidad con el tiempo, como
medio exclusivo para hacer los diagnósticos en psiquiatría, ha hecho que distintos autores se fijaran
en otros criterios tales como la historia previa de los pacientes y su pronóstico como medio de
clasificar e intentar clarificar esta compleja enfermedad. La diferenciación procesual reactivo es un
ejemplo de ello.

Además, el consenso general era y es que los trastornos esquizofrénicos no son estáticos, sino que
pueden ser comprendidos mejor desde un punto de vista longitudinal, desde una perspectiva de
desarrollo o maduración (Zubin y Spring 1977, Nuechterlein y Dawson 1984). La evaluación
transeccional en un momento determinado en el tiempo no supone una ventaja frente al proceso de
evaluación que tiene en cuenta el comienzo, curso y resultado de los trastornos esquizofrénicos.

Como consecuencia de todo esto surgió una extensa literatura intentado usar el buen o mal nivel de
funcionamiento premórbido para subclasificar a los pacientes esquizofrénicos. Harrow y col. (1986)
hacen referencia a muchos de estos trabajos y además consideran que la dimensión
proceso/reactiva, basada en la distinción entre mal y buen ajuste premórbido, ha sido una de las
maneras más importantes de categorizar la esquizofrenia.

Antes de seguir adelante sería conveniente definirlo que se entiende por ajuste premórbido. Para ello
nos vamos a basar en el concepto aportado por Strauss y col. (1977-b). Consideran ajuste
premórbido a todas aquellas características de una persona, especialmente sus relaciones
interpersonales y funcionamiento ocupacional, que pueden ser encontradas en cualquier momento
antes del comienzo de los síntomas floridos de la esquizofrenia.

Según Phillips (1953) la competencia premórbida en términos sociales podría ser valorada por la
medida en que un individuo fue capaz de cumplir con las expectativas apropiadas para el sexo y la
edad antes del comienzo de la enfermedad. Así, el individuo con un mal ajuste premórbido sería

97
aquél que no pudo alcanzar una o más de esas metas de maduración antes del inicio del trastorno, o
el que pudo alcanzarlas, pero en un período posterior de la vida que el que es considerado
apropiado.

Clásicamente el ajuste premórbido se ha enfocado en el ajuste social, pero Strauss y col. (1977-a)
consideraron útil ampliarlo a otras áreas de la vida del sujeto, tanto psicosociales como biológicas.
Entre las primeras estaban las relaciones sociales y el funcionamiento laboral; entre las segundas
había variables tales como la activación autonómica. “El ajuste premórbido debe ser conceptualizado
como de naturaleza bio-psico-social”.

A raíz de los estudias de ajuste premórbido se empiezan a discriminarlos papeles de tres


componentes mayores del proceso patológico:

- Las características del paciente antes del comienzo de la patología manifiesta.

- El tipo de patología.

- El curso del trastorno.

Con la exploración del ajuste premórbido se intentan evaluar las características más cruciales que
anteceden a la sintomatología y al curso de la enfermedad.

3.2 Los Métodos Estadísticos de Estimación de Funcionamiento Pre-Mórbido

El método estadístico consiste en una secuencia de procedimientos para el manejo de los datos
cualitativos y cuantitativos de la investigación. Dicho manejo de datos tiene por propósito la
comprobación, en una parte de la realidad, de una o varias consecuencias verificables deducidas de
la hipótesis general de la investigación. Las características que adoptan los procedimientos propios
del método estadístico dependen del diseño de investigación seleccionado para la comprobación de
la consecuencia verificable en cuestión.

El método estadístico tiene las siguientes etapas:

1. Recolección (medición) 2. Recuento (cómputo) 3. Presentación 4. Síntesis 5. Análisis

Tales etapas siempre se encuentran en el orden descrito y cada una de ellas consiste, de manera
resumida, en lo siguiente:

98
1. Recolección (medición)

En esta etapa se recoge la información cualitativa y cuantitativa señalada en el diseño de la


investigación. En vista de que los datos recogidos suelen tener diferentes magnitudes o
intensidades en cada elemento observado (por ejemplo, el peso o la talla de un grupo de
personas), a dicha información o datos también se les conoce como variables.

Por lo anterior, puede decirse que esta etapa del método estadístico consiste en la medición de
las variables.

La recolección o medición puede realizarse de diferentes maneras; a veces ocurre por simple
observación y en otras ocasiones se requiere de complejos procedimientos de medición; en
algunas ocasiones basta con una sola medición y en otras se requiere una serie de ellas a lo
largo de amplios períodos de tiempo.

La calidad técnica de esta etapa es fundamental ya que de ella depende que se disponga de
datos exactos y confiables en los cuales se fundamenten las conclusiones de toda la
investigación.

Es tan grande la importancia, de esta etapa que algunas clasificaciones de las investigaciones se
basan en la forma en que ocurre la medición; por ejemplo, si la información es recogida en una
sola ocasión suele decirse que la investigación es transversal; en cambio, si la información es
recogida a lo largo del tiempo se denomina longitudinal a la investigación.

En ocasiones, la recolección de la información debe ocurrir en grupos tan grandes de individuos


que se hace impráctico tratar de abarcar a todos ellos; entonces es cuando se ponen en práctica
procedimientos de muestreo. Tales procedimientos de muestreo están subordinados a la
consecuencia verificable que se desea comprobar y al diseño de investigación seleccionado.

2. Recuento (cómputo)

En esta etapa del método estadístico la información recogida es sometida a revisión, clasificación
y cómputo numérico.

A veces el recuento puede realizarse de manera muy simple, por ejemplo, con rayas o palotes; en
otras ocasiones se requiere el empleo de tarjetas con los datos y, en investigaciones con mucha
información y muchos casos, puede requerirse el empleo de computadoras y programas
especiales para el manejo de bases de datos.

En términos generales puede decirse que el recuento consiste en la cuantificación de la


frecuencia con que aparecen las diversas características medidas en los elementos en estudio;

99
por ejemplo: el número de personas de sexo femenino y el de personas de sexo masculino o el
número de niños con peso menor a 3 kilos y el número de niños con peso igualo mayor a dicha
cifra.

3. Presentación

En esta etapa del método estadístico se elaboran los cuadros y los gráficos que permiten una
inspección precisa y rápida de los datos.

La elaboración de cuadros, que también suelen llamarse tablas, tiene por propósito acomodar los
datos de manera que se pueda efectuar una revisión numérica precisa de los mismos.

La elaboración de gráficos tiene por propósito facilitar la inspección visual rápida de la


información.

Casi siempre a cada cuadro con datos le puede corresponder una gráfica pertinente que
represente la misma información.

Presentar la misma información tanto en un cuadro como en su correspondiente gráfico permite


obtener una clara idea de la distribución de las frecuencias de las características estudiadas.

4. Síntesis

En esta etapa la información es resumida en forma de medidas que permiten expresar de manera
sintética las principales propiedades numéricas de grandes series o agrupamientos de datos.

La condensación de la información, en forma de medidas llamadas de resumen, tiene por


propósito facilitar la comprensión global de las características fundamentales de los
agrupamientos de datos.

Tales medidas de resumen, al ser comunicadas , permiten a los interlocutores evocar de una
misma manera la esencia de los datos; por ejemplo, cuando alguien informa que el promedio de
calificaciones de un grupo de alumnos es 9.6, en una escala que va del 0 al 10, la imagen que se
transmite es la de un grupo con buen aprovechamiento escolar; igualmente, cuando se dice que
el porcentaje de defunciones con una cierta técnica quirúrgica es de 80%, las personas que
escuchan se imaginan que se trata de un procedimiento peligroso subordinados a la
consecuencia verificable que se desea comprobar y al diseño de investigación seleccionado.

100
3.2.1 Métodos Demográficos

La descripción de las principales características poblacionales es de suma importancia tanto para la


definición de necesidades como para las estrategias de intervención. Se requiere de esa información
a fin de poder describir enfermedades y problemas de salud e identificar sus determinantes (objeto
de la epidemiología); así cómo identificar los grupos poblacionales sobre los que se actuará.

Población, desde un punto de vista estadístico, es sinónimo de universo; es decir, conjunto de


elementos que constituyen un colectivo que es objeto de estudio. En salud pública, siendo la
población humana ese colectivo, aquella nominación hace referencia (casi siempre) a individuos,
personas, definidas por alguna razón o característica especial. Una de esas características, por las
que más habitualmente se define una población, es la de compartir un espacio geográfico: la
población de Argentina, de Corrientes, de un barrio de Resistencia, etc. Pero, también, la
característica de definición puede ser otra que comparte el conjunto.

Podemos decir, así, la población de mujeres embarazadas, de menores de 5 años de edad, de niños
no vacunados, de hipertensos, de fumadores, de desocupados, de los que no disponen de agua
potable, etc. Como podemos ver, en la definición de una población hay aspectos biológicos propios
del individuo (edad, sexo, medidas antropométricas, estados fisiológicos, etc.) y de interrelación con
el entorno (sociales, culturales, económicos, ecológicos, etc.). Una población, entonces, se determina
por la elección del observador respecto a las características (variables) de interés. Para definir una
población es necesario especificar, además, dos aspectos (sin los cuales sería difícil identificarla): el
tiempo y el lugar. La “población infantil de desnutridos” no tendría una clara definición si no se hace
referencia a esas dos dimensiones por la cuales, por otra parte, se estudian los fenómenos de salud.

Una distinción que suele hacerse es entre población en estudio y población objeto. Cuando se habla
de la primera se hace alusión a aquella población cuyas características se desean describir. En tanto,
la segunda expresión tiene que ver, más, con las intervenciones; es decir, la expresión hace
referencia a la población sobre la que se aplicarán determinadas acciones. Claro está que, en
muchas ocasiones, ambas finalidades no son más que etapas de un mismo proceso. Pero, en otras
circunstancias, se estudia una población para definir otra (subgrupo de la general) que será objeto de
algún programa, de algún conjunto de actividades; es decir, de alguna intervención. Esta población
suele ser aquélla que, por alguna característica particular presenta una vulnerabilidad especial para
algún problema de salud. Es la que se denomina población a riesgo.

La disciplina que estudia las características de la población es la demografía. Una definición de


demografía dice: “Es la ciencia que tiene por objeto el estudio de las poblaciones humanas; tratando,
101
desde un punto de vista principalmente cuantitativo, su dimensión, su estructura, su evolución y sus
características generales”.

Podemos decir que la demografía se encarga de la cuantificación de aspectos poblacionales, tales


como: volumen, estructura y distribución geográfica; así como los cambios que estos aspectos tienen
en el tiempo (evolución). Estos cambios son debidos a tres fenómenos básicos: fecundidad,
mortalidad y migraciones.

Esquematizando los conceptos dados, entonces, la demografía estudia:

 VOLUMEN FECUNDIDAD
 ESCTRUCTURA MORTALIDAD
(CAMBIOS EN EL TIEMPO
MIGRACIONES
 DISTRIBUCIÓN
DEBIDOS A)
 GEOGRÁFIA
FUENTES DE DATOS

Las fuentes de datos demográficos pueden ser primarias o secundarias.

FUENTES PRIMARIAS. Es cuando los datos han sido obtenidos y elaborados por el propio
investigador o usuario de la información. En salud esta situación se da cuando se conocen los
“límites” de la población de referencia; es decir, se puede determinar esta población por delimitación
geográfica o por conocerse a los usuarios de un servicio. El conocimiento cabal del universo se
tendrá cuando se haya efectuado un censo propio (a cargo del servicio o programa de salud) con los
datos de su interés. Esta circunstancia es posible en poblaciones pequeñas y cuando, como se dijo,
se puede definir su extensión.

FUENTES SECUNDARIAS. Son a las que con mayor frecuencia se recurren. Básicamente, los
censos de población y los registros. A los primeros, en nuestros países (América Latina) se los
denominan Censo de Población y Vivienda, por recoger datos acerca de ambas características
poblacionales. La Argentina ha realizado ocho censos (1895, 1914, 1947, 1960, 1970, 1980, 1991 y
2001). En ellos se recogen información “individualizada” de todas las personas que han pernoctado
la noche anterior en el domicilio censado (esto se llama “de juri”). Además de las características
básicas de población y de vivienda, se recoge información respecto a ocupación, mortalidad,
fecundidad, etc.

Estas últimas sirven para completar las que proveen los registros y, eventualmente, corregirlas. El
censo es una fuente de datos poblacionales muy completa; aunque su limitante es la periodicidad de
su ejecución. Los registros, en tanto, recogen información de manera permanente. El más vinculado
a los aspectos demográficos es el Registro de Hechos Vitales. A cargo del mismo están las oficinas

102
del Registro Civil de las Personas; el que provee la información a Estadísticas de Salud Pública que
las procesa y difunde. De los hechos que se anotan en este registro interesan aquí, básicamente, los
nacimientos y las defunciones. También, este registro se encarga de las anotaciones de
casamientos, adopciones, legitimaciones, etc., de utilidad más restringida en el campo de la salud.
Para migraciones existe, también, un registro: el que llevan las direcciones de migraciones. Su uso
es, también, más limitado en demografía. Gran parte del conocimiento y de las estimaciones acerca
de los movimientos migratorios se derivan de la información de los censos.

Por último, se obtiene información de población, también de encuestas. En Argentina, por ejemplo, la
Encuesta Permanente de Hogares (EPH) recoge (dos veces al año) información sobre aspectos
socio-económicos en los principales centros urbanos del país. Esos datos, luego, son extrapolados a
nivel país.

ASPECTOS DEMOGRÁFICOS

Lo que sigue es una síntesis de los principales aspectos demográficos de interés en salud y,
sobretodo, en epidemiología y de las técnicas de medición más habitualmente utilizadas. No se hará
mención de valores de indicadores por no considerarse ese el objetivo de esta presentación. Existen
fuentes de datos nacionales y jurisdiccionales en la Región (actualizados periódicamente) que
brindan amplia información al respecto.

VOLUMEN

Es ésta la primera de las características que interesan de una población. En salud su conocimiento
es indispensable por varios motivos; entre ellos: para la identificación de casos de una enfermedad o
problema de salud, para la previsión de las actividades (y, obviamente, de los insumos necesarios
para llevarlas a cabo) y para la adecuada valoración del impacto de tales fenómenos sobre la
población.

CRECIMIENTO POBLACIONAL. Como ha sido visto anteriormente, los cambios poblacionales en el


tiempo pueden deberse, exclusivamente, a uno de estos tres factores: fecundidad, mortalidad y
migraciones. A éstos se los denomina “componentes demográficos”. Ellos son los que actúan como
variables inmediatas que determinan los cambios demográficos; aunque, son la resultante de
fenómenos más estructurales (sociales, económicos, histórico, culturales, etc.). Estos componentes
afectan a todos los aspectos que estudia la demografía: volumen, estructura y distribución
geográfica.

Por fecundidad se entiende el peso o impacto de la reproducción humana sobre la población. La


mortalidad hace referencia a tal influencia dada por el hecho biológico de la muerte. Las migraciones
103
son los desplazamientos territoriales de las personas que, igualmente, determinan cambios
demográficos.

De acuerdo a lo dicho, la población variará en función de los nacimientos, las defunciones, las
inmigraciones y las emigraciones que ocurran en un período. El crecimiento poblacional estará dado
por la frecuencia de estos fenómenos. Esto determina el “crecimiento poblacional total” que se
expresa con valores absolutos. Si a éste se lo relaciona con la población inicial, se tendrá el
crecimiento poblacional proporcional para el período. Si, en cambio, se relaciona ese valor absoluto
con la población estimada a mitad del período y se divide por los años del mismo (podrían ser otras
unidades de tiempo que no sean años; aunque éstos son los más utilizados) se tendrá la tasa anual
media de crecimiento poblacional (expresada por 100 o por 1000).

Las migraciones son las de más difícil estimación, en razón de que: no siempre se dispone de datos,
son menos previsibles (los motivos de las migraciones suelen cambiar más rápidamente) y, salvo
casos especiales, no suelen repercutir tanto en el crecimiento poblacional. Debido a esta dificultad en
establecer una “tendencia” (como puede hacerse con los otros componentes) y a que es posible
efectuar una buena estimación, aun no incluyéndolas, la tasa referida en el párrafo anterior suele
calcularse con los datos de nacimientos y defunciones y, entonces, se tendrá la tasa de crecimiento
vegetativo o tasa de crecimiento natural.

3.2.2 Modelos de Funcionamiento Actual

La reciente eclosión de las neurociencias cognitivas ha generado un creciente interés por


comprender las funciones y los sustratos neurales de las denominadas funciones cognitivas de alto
nivel. En las dos últimas décadas, la neurología conductual y la neuropsicología han evolucionado a
pasos agigantados bajo el influjo de los modelos teóricos provenientes de la psicología cognitiva,
pero también por el avance de nuevos y sofisticados métodos que permiten estudiar la actividad
cerebral durante los procesos cognitivos. Así, las técnicas de neuroimagen y los modelos
computacionales de las funciones cognitivas de alto nivel han arrojado nuevos datos y modelos sobre
el intrincado mundo del funcionamiento cerebral.

Durante muchos años se ha postulado que los lóbulos frontales se hallan implicados en la
secuenciación de los actos motores requeridos para ejecutar eficazmente una acción. Sin embargo,
en las dos últimas décadas se ha ido profundizando en el papel que juegan los lóbulos frontales y
cómo su función se extiende hacia el control de los procesos cognitivos. Así, un sólido cuerpo de

104
evidencia científica demuestra que esta región cerebral, como estructura, se halla implicada en la
ejecución de operaciones cognitivas específicas, tales como memorización, metacognición,
aprendizaje y razonamiento.

De esta relación se infiere que los lóbulos frontales se encargan de una función ejecutiva o
supervisora de la conducta. Sin embargo, esta definición resulta vaga e imprecisa, ya que no logra
anclar los procesos mentales en el funcionamiento cerebral, al no precisar cómo las funciones
ejecutivas operan sobre contenidos cognitivos.

Por otro lado, el córtex prefrontal es la región cerebral con un desarrollo filogenético y ontogénico
más reciente y, por ello, la parte del ser humano que más nos diferencia de otros seres vivos y mejor
refleja nuestra especificidad, y constituye aproximadamente el 30% de la corteza cerebral.

Desde un punto de vista funcional, se puede afirmar que en esta región cerebral se encuentran las
funciones cognitivas más complejas y evolucionadas del ser humano, y se le atribuye un papel
esencial en actividades tan importantes como la creatividad, la ejecución de actividades complejas, el
desarrollo de las operaciones formales del pensamiento, la conducta social, la toma de decisiones y
el juicio ético y moral.

En esta línea, los tipos de déficit que tanto en la clínica como en la investigación se atribuyen a
lesiones del córtex prefrontal incluyen una interacción de alteraciones emocionales, conductuales y
cognitivas. Dentro de estas alteraciones en el funcionamiento cognitivo destacan los denominados
déficits ejecutivos.

Así, términos como ‘funcionamiento ejecutivo’ o ‘control ejecutivo’ hacen referencia a una serie de
mecanismos implicados en la optimización de los procesos cognitivos para orientarlos hacia la
resolución de situaciones complejas o novedosas.

En este sentido, el constructo de funciones ejecutivas no se puede considerar bien definido, pero se
refiere a los procesos cognitivos implicados en el control consciente de las conductas y los
pensamientos. Algunos componentes integrados en estos procesos son la memoria de trabajo como
capacidad para mantener la información en línea, la orientación y adecuación de los recursos
atencionales, la inhibición de respuestas inapropiadas en determinadas circunstancias y la
monitorización de la conducta en referencia a estados motivacionales y emocionales del organismo.
De manera más concreta, estas funciones pueden agruparse en torno a una serie de componentes,
como son las capacidades implicadas en la formulación de metas, las facultades empleadas en la
planificación de los procesos y las estrategias para lograr los objetivos, y las aptitudes para llevar a
cabo esas actividades de una forma eficaz.

105
Luria, fue el primer autor que, sin nombrar el término, conceptualizó las funciones ejecutivas como
una serie de trastornos en la iniciativa, en la motivación, en la formulación de metas y planes de
acción y en la automonitorización de la conducta asociada a lesiones frontales.

El término ‘funciones ejecutivas’ es debido a Muriel Lezak, quien las define como las capacidades
mentales esenciales para llevar a cabo una conducta eficaz, creativa y aceptada socialmente.

A su vez, Sholberg considera que las funciones ejecutivas abarcan una serie de procesos cognitivos,
entre los que destacan la anticipación, elección de objetivos, planificación, selección de la conducta,
autorregulación, automonitorización y uso de feedback. Mateer (citada por Junqué), continuando con
esta línea cognitivista, refiere los siguientes componentes de la función ejecutiva: dirección de la
atención, reconocimiento de los patrones de prioridad, formulación de la intención, plan de
consecución o logro, ejecución del plan y reconocimiento del logro.

Desde el punto de vista neuroanatómico, se han descrito diferentes circuitos funcionales dentro del
córtex prefrontal. Por un lado, el circuito dorsolateral se relaciona más con actividades puramente
cognitivas, como la memoria de trabajo, la atención selectiva, la formación de conceptos o la
flexibilidad cognitiva. Por otro lado, el circuito ventromedial se asocia con el procesamiento de
señales emocionales que guían nuestra toma de decisiones hacia objetivos basados en el juicio
social y ético. El córtex prefrontal, pues, debe considerarse como un área de asociación heteromodal
interconectada con una red distribuida de regiones corticales y subcorticales (Fig. 1).

Si el sistema es supramodular, debe plantearse qué sistemas participan en el funcionamiento


ejecutivo, y dentro de estos sistemas, qué papel juega la memoria de trabajo. En los años 1980 y
1989, Joaquín Fuster publicó su teoría general sobre el córtex prefrontal, y consideró que éste era
fundamental en la estructuración temporal de la conducta. Según este autor, dicha estructuración se
llevaría a cabo mediante la coordinación de tres funciones subordinadas:

 Una función retrospectiva de memoria a corto plazo (MCP) provisional.

 Una función prospectiva de planificación de la conducta (no olvidemos que la memoria es


retrospectiva y prospectiva).

 Una función consistente en el control y supresión de las influencias internas y externas


capaces de interferir en la formación de patrones de conducta.

Por otra parte, cuando afirmamos que las funciones ejecutivas son el resultado de un sistema
supramodal de procesamiento múltiple, reconocemos implícitamente su relación recíproca con otras
funciones cerebrales en una doble dirección. Así, por un lado, las funciones ejecutivas afectarán a

106
otros procesos cognitivos (procesamiento top-down), pero también otros procesos cognitivos influirán
en un adecuado funcionamiento ejecutivo (procesamiento bottom-up).

Parece evidente que tanto el propio concepto (ejecutivo) como sus descripciones se apoyan en
modelos predominantemente cognitivistas que basan sus definiciones en aproximaciones más o
menos afortunadas a los modelos de procesamiento de la información. Estos nuevos modelos de la
neurociencia cognitiva tratan de explicar el sustrato de las funciones cognitivas de alto nivel, y
aunque el término pueda resultar novedoso, ya en 1939 Rylander señalaba que ‘el síndrome frontal
produce alteraciones en la atención, incremento de la distractibilidad, dificultad para captar la
totalidad de una realidad compleja... los sujetos son capaces de resolver adecuadamente tareas
rutinarias, pero incapaces de resolver tareas novedosas’. Todas estas descripciones señaladas ya
sugieren que la psicología cognitiva tiene dificultades para proveer de una adecuada ‘caracterización’
de los procesos ejecutivos, que conforman una de las principales funciones de los lóbulos frontales.
Ante esta falta de un modelo único que establezca una relación más sólida entre cerebro, mente y
conducta compleja, estos modelos ‘inestables’ plantean dificultades importantes para el estudio del
funcionamiento cerebral.

No podemos negar que el concepto de funciones ejecutivas es un concepto excesivamente utilizado,


dando por hecho que la simple ejecución deficitaria en uno o varios ‘test frontales’

Figura 1
107
Córtex prefrontal: 1) Orbitofrontal; 2) Dorsolateral; 3) Ventromedial; 4) Cingulado anterior.

refleja trastornos en determinadas áreas de la conducta y que esa conducta depende de una
localización concreta en el cerebro. En este sentido, el término ‘funciones ejecutivas’ resulta
excesivamente genérico en su intención de describir funciones metacognitivas y de autorregulación
de la conducta, y las definiciones sobre lo que contiene no parecen reflejar que se trate de un
sistema unitario, sino, más bien, de un sistema supramodal de procesamiento múltiple.

Desde una perspectiva evolutiva, podemos afirmar que:

 Las funciones ejecutivas comienzan a emerger el primer año de vida.

 Las funciones ejecutivas se desarrollan en un amplio rango de edades, con un importante pico
entre los 2 y los 5 años y a partir de los 12 años.

 Las alteraciones en el funcionamiento ejecutivo pueden ocurrir en distintas situaciones y


etapas, y estas alteraciones parecen hallarse en consonancia con las exigencias de las tareas.

 Como veremos a lo largo de este capítulo, las funciones ejecutivas pueden ser abordadas
desde una perspectiva meramente cognitiva o fría relacionada con la corteza frontal
dorsolateral, y desde otra perspectiva emocional o cálida dependiente de la corteza
orbitofrontal.

 Las dificultades en las funciones ejecutivas puede ser una alteración común a diferentes
perturbaciones.

 Diferentes alteraciones del desarrollo cognitivo pueden explicarse por la afectación de estas
funciones.

Como se ha señalado anteriormente, las alteraciones en las funciones ejecutivas se han considerado
prototípicas de la patología del lóbulo frontal, fundamentalmente de las lesiones o disfunciones que
afectan a la región prefrontal dorsolateral. Así, se ha acuñado el término ‘síndrome disejecutivo’ para
definir las dificultades que exhiben algunos pacientes con una marcada dificultad para centrarse en la
tarea y finalizarla sin un control ambiental externo.

En segundo lugar, presentan dificultades en el establecimiento de nuevos repertorios conductuales, y


una falta de habilidad para utilizar estrategias operativas. En tercer lugar, muestran limitaciones en la
productividad y creatividad, con falta de flexibilidad cognitiva. En cuarto lugar, la conducta de los
sujetos afectados por alteraciones en el funcionamiento ejecutivo pone de manifiesto una
incapacidad para la abstracción de ideas que muestra dificultades para anticipar las consecuencias

108
de su comportamiento, lo que provoca una mayor impulsividad o incapacidad para posponer una
respuesta. Dada la multiplicidad de manifestaciones de este síndrome disejecutivo, parece necesario
distinguir las funciones ejecutivas de aquéllas que no lo son, con el fin de establecer una taxonomía
funcional que nos permita distinguir las ejecuciones, habilidades y conductas que son características
de un adecuado funcionamiento ejecutivo.

Asimismo, conviene destacar que son muy numerosas las patologías neurológicas y los trastornos
mentales en los que se han descrito alteraciones en alguno de o todos los componentes del
funcionamiento ejecutivo. Entre los primeros podemos destacar los tumores cerebrales, los
traumatismos craneoencefálicos, los accidentes cerebrovasculares, la enfermedad de Parkinson, la
esclerosis múltiple y el síndrome de Gilles de la Tourette. En lo que respecta a la patología
psiquiátrica, las alteraciones disejecutivas han sido estudiadas, entre otras, en la esquizofrenia, en el
trastorno obsesivo-compulsivo, en el trastorno disocial de la personalidad, en el autismo o en el
trastorno por déficit de atención.

Esto sugiere que el término ‘funcionamiento ejecutivo’ describe de forma inadecuada una función y,
además, no depende de una estructura anatómica única. En la neuropsicología clásica no resulta
demasiado complicado describir los diferentes cuadros afásicos y su relación con lesiones cerebrales
específicas; sin embargo, nos encontramos en la clínica cotidiana con demasiados ejemplos que
ponen de manifiesto la alteración del funcionamiento ejecutivo en ausencia de afectación frontal.

Dicho de otro modo, hemos de reconocer con humildad que cuando nos referimos a las funciones
ejecutivas, y pretendemos establecer una relación clara entre estructura, función y conducta, no
poseemos una teoría neuropsicológica firme; y que la alteración de las funciones ejecutivas no
resulta un buen ‘marcador cerebral’, algo así como lo que ocurre con la serotonina y la psicopatología
(resulta un marcador biológico excesivamente inespecífico). Es propósito de este capítulo revisar los
modelos explicativos sobre el funcionamiento y control ejecutivo, con el fin de intentar aproximarnos
a una clarificación conceptual.

3.2.3 Métodos Combinados

En el diseño del plan rehabilitador se debe combinan un número de estrategias y técnicas


individualizadas (ver Fernández, 2001; Tirapu, Casi, Ugarteburu y Albéniz, 2002; García y Sánchez,
2004) de acuerdo con las necesidades neuropsicológica y educativas detectadas en la evaluación
neuropsicológica. Diversos autores (Hartlage y Golden, 1990; Lynh,1990; Calvo, Carrascoso y

109
Hernández, 1992) nos describen lo diversos instrumentos y técnicas que permiten desarrollan una
evaluación neuropsicológica. En este contexto de rehabilitación, puede ser de gran ayuda los
recursos que nos proporcionan las nuevas tecnologías, las cuales están en constante progreso
(Moreno, 2001).

Manga y Fournier (1997) consideran que la acción terapéutica puede centrase en los puntos débiles
que se muestran en el perfil Neuropsicológico, en las habilidades intactas que son puntos fuertes, o
bien en ambos. León Carrión (1994) y Muñoz y Tirapu (2001) distinguen diferentes orientaciones en
el proceso de rehabilitación neuropsicológica: la restauración de la función dañada, compensación de
la función perdida y optimización de las funciones residuales. Las técnicas y estrategias pueden
agruparse, por consiguiente, en tres niveles diferentes (Anderson, 1994; Benedicy, 1989): (i)
Restauración: Se estimula y mejora las funciones cognitivas alteradas mediante la actuación directa
sobre ellas. (ii) Compensación: Se asume que la función alterada no puede ser restaurada y, por ello
se intenta potenciar el empleo de diferentes mecanismos alternativos o habilidades preservadas. (iii)
Sustitución: El aspecto central de la intervención se basa en enseñar al paciente diferentes
estrategias que ayuden a minimizar los problemas resultantes de las disfunciones cognitivas, tal y
como se realiza, por ejemplo, cuando se enseña a los individuos a utilizar diferentes ayudas
externas. Uno de los enfoques que mejor recogen estas técnicas es el que han planteado Herrmann
y Parenté (1994) para la intervención de las funciones cognitivas. Este modelo multimodal hace
hincapié en la interacción de la cognición, la experiencia, la emoción, y asume que existen tres tipos
de variables que afectan al funcionamiento cognitivo: (a) Activas: Hacen referencia a las operaciones
cognitivas que pueden ser aprendidas y que afectan al contenido de la información (p. ej. estrategias
de búsquedas de información relevante, resolución de problemas). (b) Pasivas: Son variables que no
afectan de modo directo a lo que es aprendido o recordado, pero sí a la disposición para el
aprendizaje (p. ej. El estado de salud general y condición física, la falta de sueño, el nivel de
motivación...). (c) Soporte: Incluyen las variables externas al sujeto que permiten sustituir
determinadas funciones cognitivas (p. ej. Pedirle a alguien que nos recuerde algo).

110
3.3 Aplicación de las Pruebas Psicológicas a la Medición de la Inteligencia

3.3.1 Prueba de Stanford – Binet

Hacia finales del siglo XIX se perfilan ya dos corrientes enfrentadas en el estudio de la inteligencia y
en su medida. La primera, iniciada por Galton (1822-1911), se caracteriza por una concepción de la
capacidad intelectual basada en procesos mentales y sensoriales simples. Influido por la tradición
asociacionista y por los avances de la fisiología sensorial, Galton (1869) elaboró diversas pruebas
para estimar toda clase de parámetros psicofísicos (umbrales de percepción, tiempo de reacción,
agudeza visual, capacidad respiratoria, etc.), a partir de los cuales pretendía obtener una medida
objetiva de la inteligencia. En contraste con esta metodología y con los presupuestos teóricos que
subyacían a ella, Binet (1857-1911) desarrolló una concepción de la inteligencia más centrada en sus
productos que en sus constituyentes básicos. Frente a la simplicidad de las pruebas utilizadas por
Galton, las escalas de inteligencia de Binet y Simon (1905, 1908) y Binet (1911) se caracterizan por
incluir pruebas más complejas, destinadas a explorar procesos mentales de orden superior, tales
como la memoria, las imágenes mentales, la comprensión o el juicio. En la formación intelectual y en
la trayectoria profesional de Alfred Binet se puede apreciar la diversidad de intereses, el eclecticismo
y la naturaleza heterogénea de esta figura. Se licenció en Derecho en 1878; inició estudios de
Medicina que nunca concluyó; leyó las obras de los principales psicólogos en la Biblioteca Nacional
de París; en 1882 comenzó a trabajar con Charcot en el Hospital de la Salpêtrière; en 1891 inició su
colaboración en la Sorbona como ayudante de laboratorio de Beaunis, a quien más tarde sucedería
en la dirección; en 1895 fundó la revista l’Année Psychologique; defendió su tesis doctoral sobre el
Sistema Nervioso Sub-intestinal de los Insectos (Binet, 1894); además de su conocida Escala de la
Inteligencia (Binet y Simon, 1905, 1908; Binet, 1911), publicó numerosos libros y artículos sobre
temas tan variados como el testimonio legal (Binet, 1900), la grafología (Binet, 1906) o el fetichismo
(1887); también escribió obras de teatro, algunas de las cuales fueron representadas en París (Binet
y Lorde, 1909, 1913). Incansable trabajador y autodidacta, Binet nunca alcanzó un status académico
acorde con sus aportaciones a la Psicología. A lo largo de su vida, intentó sin éxito en varias
ocasiones lograr una posición docente. Sintiéndose injustamente tratado por la comunidad
psicológica, intensificó sus relaciones con los pedagogos, encauzando su actividad hacia el ámbito
aplicado de la psicología educativa.

111
LA CONSTRUCCIÓN DE LA ESCALA MÉTRICA DE LA INTELIGENCIA DE
ALFRED BINET
Entre 1899 y 1900 Binet ingresó en la Société Libre pour l’Étude Psychologique de l’Enfant,
organización de la que sería nombrado su presidente dos años después. Esta institución fue fundada
por Ferdinand Buisson (1841-1932), profesor de Ciencias de la Educación en la Sorbona,
republicano y socialista radical. La Sociedad, que aún existe actualmente, contaba entre sus
objetivos básicos el sensibilizar a las autoridades sobre la problemática asociada a la escolarización
de los niños con retraso mental.
En 1904 el ministro francés de Instrucción Pública, Joseph Chaumié (1849-1919), creó una comisión
interministerial para analizar la situación en los centros escolares. El momento histórico en el que
tiene lugar esta iniciativa es la consolidación de la Tercera República y la ascendencia al poder de la
izquierda radical. La política educativa de este período se caracteriza por una progresiva
secularización de las instituciones, la aplicación del conocimiento científico a la práctica escolar y la
doctrina de la solidaridad de Léon Bourgeois (1851-1925) (Foschi y Cicciola, 2006).
Aunque relativamente ajeno al mundo de la política, Binet encontró este marco muy favorable para
llevar a la práctica sus proyectos. Un paso decisivo en este sentido fue formar parte de la comisión
de 1904, presidida por el propio Bourgeois y cuya finalidad era fijar las condiciones de escolarización
para los alumnos con deficiencia mental. La idea era establecer unas clases especializadas para los
niños de entre seis y dieciséis años con este tipo de déficit. Esto planteaba la necesidad de idear un
sistema diagnóstico para discriminar entre los niños normales y aquellos que padecían un cierto
grado de retraso intelectual. A Binet se le encomendó esta tarea, de la cual resultaría la primera
prueba de inteligencia (Binet y Simon, 1905), llamada pomposamente test mental.
De acuerdo con sus intereses y actividad profesional e investigadora, Binet se sitúa en la tradición
naturalista y cientificista de la Psicología francesa de fin de siècle, que se inicia con los trabajos de
Hippolyte Taine (1828-1893) y Théodule Ribot (1839-1916). En el enfoque de Binet convergen
diferentes modalidades de experimentalismo: de laboratorio, clínico, psicométrico y evolutivo. Sobre
esta base metodológica, en colaboración con el médico Theodore Simon (1873-1961), elaboró su
primera versión de la Escala de Medida de la Inteligencia (Binet y Simon, 1905).
El test consistía en treinta elementos que eran puntuados como acierto o error. En él, se combinaban
pruebas sensoriomotrices (coordinación visual, motora, etc.) con otras, en mayor número, de carácter
cognoscitivo (memoria, discriminación de información, pensamiento divergente, etc.). La correcta
resolución de muchas de las tareas requería la coordinación de habilidades físicas e intelectuales. En
contraste con el tipo de pruebas empleadas por Galton, la mayor complejidad de los ítems supuso un
avance substancial en la evaluación de la inteligencia dentro del contexto clínico. La escala estaba

112
destinada a niños de entre tres y doce años. Los elementos se encontraban dispuestos en orden
ascendente de dificultad, acompañándose de cuidadosas instrucciones para su aplicación.
Algunos han sugerido que la escala de 1905 más que un test de inteligencia era una prueba de falta
de inteligencia (Gondra, 1997), puesto que 27 de los 30 ítems que la componían estaban pensados
para los beneficiarios de la educación especial. Sólo aquellos que lograban superar las tres últimas
pruebas (relacionadas con el razonamiento y la capacidad de abstracción) se consideraban dentro
del rango de la normalidad.
A través de su aplicación, los autores comprobaron cómo los primeros elementos resultaban
demasiado sencillos para la mayoría de los niños, mientras que los últimos entrañaban serias
dificultades, incluso para muchos de los mayores. Esto motivó la primera revisión de la escala, tres
años más tarde (Binet y Simon, 1908). En ella, se eliminaron los 5 primeros ítems y se incluyeron 33
nuevos. Las tareas fueron dispuestas en orden cronológico, desde los tres hasta los trece años.
Cada elemento se identificaba con una determinada edad, en función de la correspondiente de los
sujetos que, en un cierto porcentaje, conseguían responderlo satisfactoriamente. La prueba se
baremó con una muestra de 300 niños y se prestó particular atención a la adaptación social,
entendida como un elemento esencial de la normalidad. El número de pruebas no era el mismo para
cada nivel de edad, lo que dificultaba la cuantificación de los resultados y el modo de aplicar el test.
La siguiente revisión (Binet, 1911) trataba de resolver las dificultades de las anteriores. Con este
propósito, se fijaron cinco pruebas para cada uno de los niveles de edad (6-12 años). En cuanto al
modo de proceder, se determinó establecer en primer lugar la edad basal (aquella en la que se
superaban todas las tareas), para añadir posteriormente un año por cada cinco ítems (de superior
dificultad) resueltos satisfactoriamente. La escala fue baremada con una muestra de 120 niños. De
forma adicional, se incluyeron dos nuevos niveles, quince años y adultos. Las escalas de Binet se
enmarcan en un proyecto más amplio de mejora de la inteligencia por medio de la actividad
educativa. Los autores prefirieron el término nivel mental al de edad mental, debido a las
connotaciones innatistas e inmovilistas de este último. Parte del trabajo de Binet (1909) consistió en
la elaboración de ejercicios (ortopedia mental) pensados para incrementar la capacidad intelectual de
los niños, tanto de los normales como de los retrasados. En sus aportaciones encontramos una
concepción amplia de la inteligencia, entendida como una capacidad susceptible de modificación y
relacionada con la adaptación social de los individuos (Binet, 1909, p. 150).

113
3.3.2 Modernas Aproximaciones al Concepto de la Inteligencia

La inteligencia es la facultad humana de poder conocer (acción pasiva o receptiva) y elaborar (acción
operativa o productiva). Es equivalente a decir entendimiento (que alude más a lo receptivo) o
razonamiento (que alude más a lo operativo). Como facultad humana primordial ha sido amplia y
profundamente estudiada por los filósofos, sociólogos y psicólogos de todos los tiempos.

Más que definir ahora su estructura psicológica, interesa describir sus actuaciones y analizar su valor
como órgano receptor de ideas y como fuente productora de los contenidos teóricos y abstractos.

 Conceptos de Inteligencia

Siendo la inteligencia tan importante y definitiva en la marcha humana, es importante entender lo que
es como facultad y como actuación.

 Operaciones mentales

Sea cual fuere la mejor definición de inteligencia, lo más importante en el orden práctico es analiza lo
que esta facultad es capaz de hacer.

- Modos de actuar. En general, la mente realiza un proceso que va desde a impresión de los
datos hasta su expresión interior, por medio de la comprensión y la expresión exterior a través
del lenguaje.

- La impresión consiste en la labor sencilla y decisiva de captar, por vía sensorial, tanto interior
como exterior, aquellos objetos que se presentan como pensamiento.

- La comprensión supone la elaboración y ordenación de esos datos recibidos. Solo la mente


puede organizarlos en conformidad con las leyes naturales de la lógica o coherencia, y de la
crítica o discernimiento sobre su realidad.

- La expresión equivale a la formulación de conceptos y relaciones, que se efectúa de forma


múltiple en sistemas cada vez más complejos del pensamiento.

Si la expresión es interior, el resultado lo llamamos pensamiento. Si es más bien exterior, lo solemos


denominar lenguaje. Ambas cosas, internas y externas, son correlativas.

 El resultado es el pensar

Pensar es más que comprender. Es encadenar datos y comunicarlos primero a sí mismo y después a
los demás.

114
En especial, la mente configura su pensamiento en tres niveles exclusivos del hombre. A ninguno
ellos llegan el animal, el cual solo puede asociar impresiones sensoriales y reaccionar con más o
menos facilidad ante ellas.

Los tres niveles del pensamiento humano son los siguientes:

 El idear o concebir. Es la operación más sencilla. Con ella producimos ideas (o visiones
interiores) o conceptos (productos concebidos en la mente). Expresamos interiormente objetos
o realidades recibidas del exterior. Lo hacemos de dos formas:

- de una manera rápida o singular, a partir de un objeto único, elaborando intuiciones;

- o de manera más lenta o acumulativa, usando objetos que se superponen en la mente y


conseguimos abstracciones o ideas generales.

Intuir y abstraer son, pues, los dos modos de idear o de concebir.

Los términos, vocablos o palabras son las expresiones verbales, orales o escritas, con las que
expresamos al exterior las intuiciones y las abstracciones.

Juzgar o relacionar. Es la operación por la que comparamos dos conceptos. Nuestra mente
relaciona los conceptos y puede concluir que concuerdan o que discrepan; incluso, puede vacilar
ante esa comparación.

Por eso, las relaciones o juicios pueden hacerse de tres formas:

Afirmar es expresar la concordancia de dos conceptos. Cuando decimos: la casa es alta,


comparamos casa y altura.

Negar es expresar discrepancia entre los dos objetos: la casa no es alta.

Dudar es mostrar la imposibilidad de la mente para expresar la concordancia o la discrepancia.


Conduce a formular juicios indefinidos, imprecisos, dubitativos, que se formulan en forma de
posibilidades, sospechas, dudas o interrogantes.

La expresión externa del juicio se hace mediante las frases, las propuestas, las sentencias.

El razonar. Equivale a elaborar series o cadenas de juicios relacionados entre sí, que tienen algún
tipo de nexo o vinculación.

Es la operación más compleja de la mente. A ella llegamos solo cuando hemos adquirido suficiente
grado de madurez o capacidad mental para hilvanar juicios.

La expresión externa de los razonamientos se llama argumentación. El razonamiento interior y la


argumentación exterior pueden hacerse de muchas maneras.
115
- Deducir es razonar, partiendo de juicios generales para conseguir particulares.

- Inducir es llegar a juicios generales desde varios particulares.

- Analizar es razonar, haciendo juicios sobre aspectos parciales.

- Sintetizar es razonar con juicios global, unitario, sintético.

- Discurrir es hacer juicios sucesivos, sin repetir ninguno, hilvanados.

- Reflexionar es razonar reiterando o repitiendo varios juicios.

A la luz de todos estos procesos y formas el pensar no es difícil entender que el formar la mente en
cada uno de los campos en los que podemos actuar con ella es de máxima importancia. Por ejemplo,
al referirnos a los campos matemático, científico, social, e incluso al religioso, habremos de trabajar
con conceptos abstractos (masa, peso, figura, fórmula, alma, salvación, virtud, misterio) y
necesitaremos mucho tiempo, paciencia, ejercicios para formular afirmaciones o negaciones.

Necesitaremos que la mente haya madurado lo suficiente. Entenderemos lo original que es transmitir
esos conceptos a los niños pequeños y la gran tarea que ello representa.

Detrás de los conceptos podremos hacer juicios (Dios es bueno, el alma es pura) y al final podremos
argumentar (el alma es pura porque Dios es bueno y así lo ha querido).

Cuando esto se comprende las prisas ceden, los esquemas mentales se flexibilizan, se respeta el
ritmo de cada persona, se hace lo que se puede y se pide a Dios que Él mismo haga el resto.

Medida de la inteligencia

Siempre ha existido entre los psicólogos cierto empeño por explorar y medir la capacidad intelectual
de los hombres, unas veces por simple curiosidad científica y humana; y también se ha desarrollado
el interés por tratar más adecuadamente a cada uno, sobre todo en los años de la formación de la
inteligencia.

Hay dos maneras de conseguir este objetivo:

 La primera es empírica, vulgar y global. Los productos de la mente indican cómo es cada uno.
Llamamos “listos o inteligentes” a los que piensan bien, se adaptan con habilidad y consiguen
resultados buenos en la vida por sus ideas.

 La otra es más técnica, científica y rigurosa, más objetiva y comparativa, lo que significa que
se detecta con instrumentos adecuados.

Se suele hacer con pruebas o test mentales, que son instrumentos que permiten, de alguna forma,
medir los resultados de la mente.
116
El primero que elaboró un test científico de inteligencia fue A. Binet, que en 1905 trató de medir la
inteligencia por su capacidad de resolver cuestiones o problemas. Él fue quien habló del concepto de
madurez mental, estableciendo la relación entre instrucción lograda y edad cronológica o tiempo
vivido.

 Los niveles mentales

D. Y. Weschler (18961981), a partir del concepto de coeficiente mental o de edad mental, elaboró
una escala, muy difundida en su tiempo, que sigue empleándose hoy. Su base es el concepto de C.I.
(Coeficiente intelectual) y hace posible catalogar a las personas por su nivel mental y sospechar con
aproximación su capacidad de comprensión.

La escala simplificada es la siguiente:

1. Genios son los que tienen coeficiente de 140 o superior. Poseen gran facilidad para la
abstracción y la comprensión. Cuentan con enormes recursos para los trabajos teóricos. Pero
también corren el riesgo de no adaptarse bien a la vida, tanto por sus exigencias ante los
demás como por cierta dificultad para vivir armónicamente en grupo.

2. Superdotados son los que están entre 120 y 130 de C.I. Son muy capaces, desarrollan
intensa actividad intelectual en múltiples frentes. Pero también encuentran dificultades para
acomodarse a los que son lentos.

3. Listos están entre 120 a 110. Son los que muestran habilidad mental. Poseen recursos en
todos los terrenos. Pueden, en ocasiones, confiar en sus capacidades y fiarse de sí mismos
multiplicando sus campos de trabajo.

4. Normales son lo que tiene entre 110 y 90. Sus aciertos dependen del cultivo de su
inteligencia. Sus capacidades pueden aprovecharse al máximo si son ordenados y previsores.
Todo para ellos depende del trabajo con que se ayuden. En la medida en que su inteligencia
se cultiva pueden rendir lo suficiente para salir airosos en las diversas empresas.

5. Los torpes se mueven entre 90 y 80. Tienen que hacer esfuerzos para avanzar y aceptar sus
limitaciones. Con frecuencia precisan ayuda exterior. Es bueno que se acostumbren a
equiparar aspiraciones posibilidades.

6. Los deficientes están entre 70 y 80. Son frágiles y no pueden con muchas de las
pretensiones que les pueden sugerir los padres o los educadores. Pueden llegar a la
frustración y al fracaso. No se les debe exigir más de lo que pueden dar, sobre todo
tratándose de conocimientos abstractos.

117
7. Muy deficientes son aquellos que tienen un coeficiente por debajo de 70. Pueden ser medios,
severos y profundos (según su nivel). En todos los casos no pueden seguir procesos normales
y precisan, en todos los terrenos, de una atención singular.

3.3.3 Clasificación de la Inteligencia

Howard Gardner señala que no existe una inteligencia general y total, sino que coexisten múltiples
inteligencias. Define a la inteligencia como un conjunto de capacidades que permiten que una
persona resuelva problemas o forme productos que son de importancia en su vida.

Su teoría se basa en tres principios:

 La inteligencia no es una sola unidad, sino un conjunto de inteligencias múltiples.

 Cada inteligencia es independiente de las otras.

 Las inteligencias interactúan entre sí, de otra manera nada podría lograrse.

Gardner plantea ocho inteligencias, cada una con sus características, habilidades y desarrollo propio.
Una persona puede tener mayor dominio en una, inclinación hacia varias, menor grado en otras y
puede también tener una combinación de ellas.

1. Inteligencia auditiva-musical. Los niños que la muestran se sienten atraídos por los sonidos
de la naturaleza y por todo tipo de melodías. Disfrutan siguiendo el compás de la música con
el pie, golpeando o sacudiendo algún objeto rítmicamente. Son hábiles en el canto, en la
ejecución de instrumentos y en la apreciación musical.

2. Inteligencia corporal-kinestésica. Se aprecia en los niños que usan su cuerpo para expresar
emociones como danza y expresión corporal. Destacan en actividades deportivas y en
trabajos de construcción donde se utilizan materiales concretos. También se aprecia en
aquellos que son ágiles al ejecutar un instrumento.

3. Inteligencia lógico-matemática. Los niños que la desarrollan analizan con facilidad


planteamientos y problemas. Se acercan a los cálculos numéricos, estadísticas y acertijos
lógicos con entusiasmo. Desarrollan habilidades en computación y pensamiento científico.

4. Inteligencia verbal-lingüística. Se encuentra en los niños que les encanta redactar historias,
leer, jugar con rimas, trabalenguas y en los que aprenden con facilidad otros idiomas. Les es
fácil la comunicación, expresión y transmisión de ideas en forma verbal.

118
5. Inteligencia visual-espacial. Está en los niños que estudian mejor con gráficos, esquemas y
cuadros. Les gusta hacer mapas conceptuales y mentales. Entienden muy bien planos y
croquis. La base sensorial de esta inteligencia es el sentido de la vista, así como la habilidad
de formar imágenes mentales.

6. Inteligencia interpersonal. La tienen los niños que disfrutan trabajando en grupo, entienden
al compañero y son convincentes en sus negociaciones con pares y mayores. Está
relacionada con la capacidad de comprensión hacia los demás, como notar las diferencias
entre personas, entender sus estados de ánimo, su temperamento e intenciones.

7. Inteligencia intrapersonal. La demuestran los niños que son reflexivos, de razonamiento


acertado y suelen ser consejeros de sus pares. Conocen sus emociones y saben nombrarlas.
Desarrollan la capacidad de construir una percepción precisa respecto de sí mismo, de
organizar y dirigir su propia vida.

8. Inteligencia naturalista. Se da en los niños que aman a los animales y las plantas, que
reconocen y les gusta investigar características del mundo natural y el creado por el hombre.
Tienen la capacidad de observar, experimentar y entender las cadenas naturales de
organización ecológica.

3.3.4 Constitución de las Escalas de Wechsler

La escala original, llamada "Wechsler-Bellevue" fue construida y desarrollada por David Wechsler en
1939. Tenía dos versiones: las formas I y II. En 1949 Wechsler adaptó la forma II, que dio como
resultado la Escala de Inteligencia de Wechsler para Niños (WISC). En 1955 Wechsler realizó una
revisión de la forma I, que elimina la superposición existente entre el WISC y la forma I. Este nuevo
instrumento, destinado a la medición de la inteligencia del adulto, dentro de un enfoque global de la
inteligencia, es la Escala de Inteligencia para Adultos WAIS. En enero de 1981 Wechsler dio término
a la estandarización de esta escala revisada, con el objeto de poner al día este instrumento, y
preservar así su efectividad y validez. La nueva versión se llama WAIS-R.

El presente manual corresponde a una nueva redacción en castellano de la Escala de Inteligencia de


Wechsler para Adultos WAIS, de 1955, sobre la base de las normas de la adaptación del test hecha
en 1960 por Olga Berdicewski y Rebeca Herreros, de la Universidad de Chile, y con el objeto de
facilitar su aplicación por parte de los estudiantes de psicología, agregando información sobre el test,
su aplicación y los criterios de corrección.

119
Este test ampliamente usado en nuestro país, no ha sido aún estandarizado para nuestra población.

El concepto de C.I.

El primero en usar el término de Coeficiente Intelectual (CI) fue W. Stern en 1912 como un método
para comparar el puntaje de un niño en la Escala de Inteligencia de Binet con la ejecución de un
grupo de niños de la misma edad. El WAIS usa un método similar para medir la inteligencia del
adulto. Los CI del WAIS definen un nivel de inteligencia al comparar la ejecución de un sujeto de
cualquier edad con los puntajes promedio obtenidos por sujetos de su mismo grupo etario.

El primero en usar el término de Coeficiente Intelectual (CI) fue W. Stern en 1912 como un método
para comparar el puntaje de un niño en la Escala de Inteligencia de Binet con la ejecución de un
grupo de niños de la misma edad. El WAIS usa un método similar para medir la inteligencia del
adulto. Los CI del WAIS definen un nivel de inteligencia al comparar la ejecución de un sujeto de
cualquier edad con los puntajes promedio obtenidos por sujetos de su mismo grupo etario.

Por lo tanto, el CI puede definirse como una razón entre el rendimiento logrado por un sujeto y el
esperado, que es el promedio logrado en la estandarización o adaptación, por su grupo de edad.

CI = . Puntaje obtenido por el sujeto .


Puntaje promedio de su grupo atario
Así, el CI tiene el mismo significado básico sin considerar la edad del sujeto. Un CI de 120 obtenido
por una persona de 65 años y por una de 22, refleja la misma posición relativa con respecto a
personas de un mismo grupo de edad. Pero en otro sentido, CI idénticos no tienen el mismo
significado a diferentes edades, ya que los puntajes promedio cambian con la edad, disminuyendo;
por tanto, se requiere de un nivel más alto de habilidades, en sentido absoluto, para obtener un CI de
120 a los 25 que a los 65.

La conversión de puntajes brutos a puntajes standard está hecho sobre la base del rendimiento del
grupo etario de 20-34 años, llamado "grupo de referencia", tanto en la estandarización
norteamericana como en la adaptación chilena.

Por lo tanto, es posible obtener un puntaje de la eficiencia del sujeto, comparando su rendimiento con
el del grupo de referencia, en puntajes standard. Este puntaje se llama Coeficiente de Eficiencia.

Descripción del Test

El WAIS es un test individual, que consta de dos escalas: verbal y manual, las que se dividen en los
siguientes sub-tests:

120
Escala Verbal Puntaje Máximo (*)

Información 29 preguntas 29

Comprensión 14 preguntas 28

Aritmética 14 preguntas 18

Semejanzas 13 preguntas 26

Dígitos 9 y 8 series 17

Vocabulario 40 preguntas 80

Escala Manual

Símbolos 90 casilleros 90

Completación 21 preguntas 21

Cubos 10 dibujos 48

Ordenación 8 historietas 36

Ensamblaje 4 figuras 44

(*) Estos son puntajes brutos.

(**) En todos los subtests manuales y en el de aritmética se controla el tiempo, existiendo tiempo
límite para la respuesta.

Aplicación del test

Se acostumbra pasar las 11 subpruebas en el mismo orden que se detalla más arriba. El tiempo que
demora la aplicación depende de la capacidad y personalidad del examinado y de la destreza y
práctica del examinador. Puede administrarse en una o en dos sesiones.

Criterios de suspensión

Existe un criterio de suspensión que se detalla en las Instrucciones para la Administración del test,
para todos los subtests con excepción de Completación y Ensamblaje. En la prueba de cubos,

121
cuando los fracasos son porque el sujeto no alcanza a ejecutar la figura dentro del tiempo límite, pero
lo hace correctamente, se recomienda seguir administrando el subtests, ya que entrega información
valiosa sobre el funcionamiento del sujeto.

Registro de la información

Existe un protocolo para registrar las respuestas. Se recomienda anotar en él rigurosamente:

 El tiempo que demora en dar la respuesta, en todos los subtests que tienen tiempo límite,
aunque el sujeto lo haga bien dentro del plazo permitido.

 Las respuestas del sujeto "ad verbatim", sin importar lo largas que puedan ser.

 Los comentarios, exclamaciones, gesticulaciones y cualquier otro dato que percibe el


examinador.

 Indicar con una marca (I) cuando el examinador haya interrogado al sujeto, antes de la
respuesta adicional e incluso si no la hay.

Instrucción para obtener puntajes brutos, puntajes standard, Cl y Coeficiente Intelectual

Puntajes brutos:

Los puntajes brutos se obtienen de la suma de puntos asignados a cada ítem de cada subtests.

Se obtiene un puntaje bruto para cada subtests.

NOTA: Es necesario chequear la suma de puntos cuidadosamente; como asimismo revisar que se
haya dado los puntos correspondientes en los subtests de Información, Comprensión, Aritmética y
Vocabulario, donde generalmente no se comienza con los primeros ítems.

Puntajes standard:

Los puntajes brutos (anotados en la primera página del Protocolo), se convierten en puntajes
Standard, usando para ello la Tabla de Conversión de Puntajes Brutos a Puntajes Standard que
aparece en la última página del protocolo.

Estos puntajes standard están basados en el grupo de referencia y deben usarse para TODOS los
sujetos, cualquiera sea su edad.

Para obtener el puntaje standard, ubique el puntaje bruto de cada prueba, y lea el valor que aparece
al margen (en ambos márgenes aparece el mismo puntaje para mayor facilidad). Coloque el puntaje
standard frente al bruto, en el casillero correspondiente en la primera página del Protocolo.

122
Suma de puntajes standard

Una vez hecho lo anterior, SUME separadamente los puntajes standard en cada una de las escalas
(Verbal y Manual): esto es, sume los puntajes standard de los 5 tests manuales. De este proceso
obtendrá entonces dos puntajes: el puntaje verbal y el puntaje manual, los que debe anotar también
en el Protocolo, primera hoja.

NOTA: Las tablas de puntaje están hechos sobre la base de 6 subtests verbales y 5 subtests
manuales.

Prorrateo

Algunas veces el administrador no administra todos los subtests o alguna queda invalidado durante
la administración. En estos casos, es necesario hacer un prorrateo de los puntajes, para poder
estimar el CI.

Debe prorratearse por separado los puntajes de la Escala Verbal y la Escala Manual. NUNCA debe
prorratearse el puntaje total.

Multiplique la suma de los puntajes standard de las pruebas verbales aplicadas, por 6 (seis) y divida
por el número de pruebas que administró.

Multiplique la suma de los puntajes standard de las pruebas manuales administradas, por 5 (cinco) y
divida por el número de pruebas que aplicó.

Ejemplo:

Se aplican 4 pruebas verbales y 3 manuales. La suma de los puntajes standard de las verbales es
46, multiplique por 6.

= 276, y se divide por 4 = 69

69 es el puntaje verbal obtenido por el sujeto estimativamente.

La suma de los puntajes standard de los 3 subtests verbales es 33, se multiplica por 5.

= 165 y se divide por 3 == 55

55 es el puntaje manual del sujeto.

Posteriormente, se suman los dos puntajes para obtener el puntaje total, en este caso

69 + 55 = 124.

Cálculo del CI (Coeficiente Intelectual)

El test de WAIS entrega 3 CI para cada sujeto:

123
CI verbal, CI manual y CI total.

Para obtener el CI correspondiente a cada sujeto, es necesario conocer exactamente la edad del
sujeto (se recomienda anotar la fecha de nacimiento y la fecha de aplicación del test en el protocolo y
hacer EN CADA CASO el cálculo, sin confiar en el reporte verbal que el sujeto haga de su edad).

Localice en el índice, las Tablas de Conversión de Puntaje Standard a CI, ubicando la tabla que le
corresponde al grupo etario del sujeto para las Escala Verbal y Escala Manual, y lea directamente el
CI que corresponde al Puntaje Manual (CI Manual). En la página siguiente, aparece la conversión del
puntaje total en CI total.

Coeficiente de Eficiencia

Cuando un sujeto no pertenece al grupo de referencia (25-34 años), es interesante obtener el


Coeficiente de Eficiencia. Para ello proceda de la siguiente manera:

Busque el CI correspondiente al puntaje total del sujeto en la tabla de CI total correspondiente al


grupo de referencia (25-34 años). Ese es el coeficiente de eficiencia del sujeto.

Ej.: Un sujeto de 76 años obtiene un puntaje total de 110 puntos, ello significa que tiene un CI de
125, o sea inteligencia superior, de acuerdo a la tabla correspondiente a su grupo de edad. Su
coeficiente de eficiencia será de 100 (buscando en la tabla correspondiente al grupo 25-34 años, a
110 de puntaje total corresponde un CI de 100.

Clasificación de la inteligencia según Wechsler

Esta clasificación tiene una distribución normal (curva de Gauss), con un promedio de 100 y
desviación standard de 15.

Clasificación CI Porcentaje inc.

Retardo Hasta 69 2.2%

Limítrofe 70-79 6.7

Normal Lento 80-90 16.1

Normal promedio 90-109 50.0

Normal superior 110-119 16.1

Superior 120-129 6.7

Muy superior 130 y más 2.2

124
Clasificación del Retardo Mental, según la A.A.M.D. (American Association on Mental
Deficiency)

Retardo profundo hasta 24, Retardo severo 25 – 39, Retardo moderado 40 – 54, Retardo leve 55 -69.

3.3.5 Descripción de la Escala de Inteligencia Wechsler

1. INFORMACIÓN

Instrucciones: Comience con el ítem 5 y conceda 4 puntos por los ítems 1 al 4, si el sujeto contesta
bien tanto el ítem 5 como el 6. Si fracasa en cualquiera de ellos, pase los ítems 1 al 4, antes de
proseguir con el ítem 7.

Lea cada pregunta tal como figura en este manual. Si la respuesta a alguna pregunta no estuviera
completa o fuese poco clara, puede el examinador decir:

"Explíqueme lo que quiere decir" o "Dígame (o dime) algo más",

pero sin hacer preguntas que pudieran ayudar a dar la respuesta. Tampoco se deben deletrear
palabras. No altere la redacción de ninguna pregunta. Si el sujeto no oyó bien, puede repetirse la
pregunta, sin modificar su redacción. Registre, al pie de la letra, las respuestas del sujeto a cada
pregunta. Anote también los comentarios que haga.

Criterio de suspensión: 5 fracasos consecutivos

Corrección: 1 punto por cada respuesta correcta. A continuación, figuran los elementos esenciales
para considerar correcta una respuesta. Cuando hay varias respuestas aceptables (figuran
separadas por puntos) basta con que el sujeto conteste una para concederle el puntaje.

Puntaje máximo: 29 puntos.

Preguntas Respuestas aceptables


1. ¿Cuáles son los colores de la bandera
Blanco, azul y rojo.
chilena?
2. ¿Cuál es la forma de una pelota? Redonda
3. ¿Cuántos meses hay en un año? 12
4. Gabriela Mistral fue una mujer famosa ¿qué
Poetisa...autora...escritora
fue ella?
Comience Aquí
5. ¿Qué es un termómetro? Instrumento (cosa, etc) para medir la temperatura.
6. ¿Qué es el Vaticano? Residencia del Papa. Sede del Gobierno Papal.
7. Nombre 4 personas que hayan sido Desde F. Errázuriz se puede nombrar cualquier
125
presidentes de Chile desde 1900 presidente inclusive el actual. (En página 44
encontrará una lista de los presidentes de Chile
desde 1900 a 1988).
8. ¿Cuál es la estatura promedio de la mujer
Desde 1,5 a 1,6 mts.
chilena?
9. ¿En qué dirección viajaría usted si fuera de
De sur a norte ... Norte.
Concepción a Lima?
Fermenta ... fermenta produciendo burbujas de
10. ¿Por qué la levadura hace subir la masa? bióxido de carbono haciendo subir la masa ... se
expande, forma burbujas.
11. ¿Cuál es la capital de Italia? Roma
En América del Sur (si se da otra respuesta
correcta, por ej. al este de Bolivia, o al sur de
12. ¿Dónde está Brasil?
Venezuela, pregunta: ¿En qué continente está
Brasil?)
13. ¿Cuál es la población de Chile? Acepte de 10 millones a 12 millones y medio.
14. ¿Cuándo se celebra el natalicio de
20 de agosto.
0'Higgins?
15. ¿De dónde se saca el caucho? Árboles ... savia del árbol, petróleo ... alcohol.
Cervantes ... Miguel de Cervantes y Saavedra. Si
16. ¿Quién escribió don Quijote de la Mancha? contestan que es anónimo diga, “Bien, pero a
quién se atribuye”.
Homero. Si contestan que es anónima, dígale
17. ¿Quién escribió la Ilíada?
"Bien pero a quién se atribuye".
Escrituras mahometanas ... la Biblia de los
mahometanos ... escrituras sagradas
18. ¿Qué es el Corán?
mahometanas. (Se acepta también musulmán en
vez de mahometano).
19. ¿Cuántas semanas hay en un año? 52
100° ... 212° F .... 373° K ... (Si no se especifica la
20. ¿A qué temperatura hierve el agua?
escala, pregunte: "De qué escala".
Los géneros oscuros absorben el calor del sol ...
21. ¿Por qué los géneros de color oscuro son
los claros reflectan (repelen) el calor del sol (No dé
más abrigadores que los géneros de color
el punto, si el sujeto contesta que los géneros
claro?
oscuros "mantienen", o" atraen" el calor).
África. (Si contesta por ej.: "al sureste de la costa
22. ¿Dónde está Egipto? mediterránea", o "en el mediterráneo", diga "si,
pero en qué continente está")
Arterias, venas y capilares. (No se acepta el
23. Nombre tres clases de vasos sanguíneos
nombrar vasos específicos como aorta o vena
del cuerpo humano.
cava pero dé puntaje por venillas y arteriolas).
24. ¿Quién escribió Fausto? Goethe ... Gounod.
25. ¿Cuál es la distancia entre Buenos Aires y
1.000 a 1.400 Kms.
Santiago?
La creación ... el comienzo del mundo ... comienzo
26. ¿Cuál es el tema principal del génesis?
del hombre ... la primera historia hebrea.
27. ¿Qué es la etnología? El estudio de las razas
126
28. ¿Recuerda usted cuántos senadores había
en el Senado de Acepte entre 40 a 50 Acepte entre 40 a 50
Chile?
Libros de discutida autoridad del Antiguo
29. ¿Qué son los apócrifos?
Testamento

3.3.6 Escala de Ejecución

La Escala de Ejecución está igualmente integrada por 5 sub-tests obligatorios y uno suplementario. A
continuación, se detalla cada uno de ellos.

l. Figuras Incompletas: Implica reconocer el elemento que falta a una figura (objeto conocido) de la
vida diaria. Evalúa capacidad de observación, discriminación perceptual, habilidad para separar lo
esencial de lo accesorio y concentración. '' ·

2. Secuencia de Figuras: Implica solucionar situaciones en orden secuencial de figuras puestas en


desorden. Evalúa Organización témporo-espacial de los elementos, capacidad para establecer
secuencias lógicas, atención, concentración y capacidad de anticipación.

3. Diseño ton Cubos: Exige reproducir modelos con cubos. Evalúa la función viso-motora, habilidad
para reproducir partes formando un todo, tipo de inteligencia, procesos cognitivos y método de
trabajo.

4. Rompecabezas: Exige armar rompecabezas. Evalúa manejo de la función viso-motora y el sistema


para reproducir modelos interiorizados, método de trabajo, modo perceptivo de aprehensión,
atención y concentración.

5. Dígitos y Símbolos: Implica reproducir figuras gráficas a. partir de modelos externos. Evalúa la
habilidad grafo-motora, rapidez para el aprendizaje, coordinación ojo-mano, desarrollo perceptual
atención, concentración y memoria inmediata.

6. Laberintos (suplementario): Exige encontrar la solución a un laberinto usando lápiz. Evalúa la


habilidad grafo-motora, ·atención, concentración, capacidad de observación y capacidad de
anticipación.

La Edad de Funcionamiento de cada sub-test -aparte de la prueba sustituye la Edad Mental de otras
pruebas de inteligencia. Permite comparar el puntaje parcial con la norma esperada en cada sub-test,
que representa una función intelectual específica, facilitando así la interpretación de los datos desde
una perspectiva del desarrollo del individuo. Los puntajes más altos señalan los recursos potenciales,
en tanto que los más bajos indican las áreas que son necesarias estimular, permitiendo así una

127
aproximación cualitativa y bases para estructurar un trabajo individual posterior. El. estudio cualitativo
de las diferentes funciones mentales está representado por los resultados de cada uno de los sub-
tests.

La administración de la prueba es de una hora y media aproximadamente y la calificación de 30


minutos. Es necesario entrenamiento y supervisión para tomar y administrar el test y sólo deben
hacerlo estudiantes de Psicología en el último año y psicólogos profesionales. La interpretación
deben realizarla psicólogos profesionales, dada la exigencia de conocimientos y experiencia que son
necesarios para la adecuada interpretación de esta técnica.

3.3.7 Información Adicional Acerca de las Escalas de Inteligencia Wechsler para Adultos y
para Niños

Wechsler Adultos

La WAIS-IV conserva 12 de las pruebas de la WAIS-III (Cubos, Semejanzas, Dígitos, Matrices,


Vocabulario, Aritmética, Búsqueda de símbolos, Información, Clave de números, Letras y números,
Comprensión y Figuras incompletas) e incorpora tres pruebas nuevas: Puzles visuales, Balanzas y
Cancelación. Se han suprimido las pruebas Historietas y Rompecabezas y las aplicaciones
opcionales Aprendizaje incidental y Copia, de la prueba Clave de números. Al suprimir Aprendizaje
incidental y Copia de la prueba Clave de números, se elimina la posibilidad de separar las
dificultades de procesamiento de la información de la influencia de la memoria visual y de la habilidad
y coordinación visomotora (copia).

Las doce pruebas procedentes de la WAIS-III se han modificado profundamente: a) se han


reformulado o sustituido bastantes ítems, se han añadido nuevos y se ha reducido el tipo de ítems en
una prueba; b) se han modificado las consignas de aplicación, los criterios de puntuación y las
normas de inicio y finalización, y c) se han reducido o eliminado las bonificaciones por tiempo en
algunos ítems.

La escala puede administrarse entre los 16 y los 89 años y 11 meses de edad, aunque para las
pruebas opcionales Balanzas, Letras y números y Cancelación, solo existen baremos para el
intervalo de edad 16-69 años.

128
Descripción

La WAIS-IV está formado por quince pruebas, diez principales y cinco opcionales que se agrupan en
cuatro índices: Comprensión verbal (ICV), Razonamiento perceptivo (IRP), Memoria de trabajo (IMT)
y Velocidad de procesamiento (IVP). A partir de las puntuaciones de las diez pruebas principales se
puede obtener un Cociente de inteligencia total (CIT), que es una buena medida del funcionamiento
intelectual general. Además de estos cuatro índices, la WAIS-IV permite obtener un Índice de
capacidad general (ICG) a partir de las puntuaciones de las tres pruebas principales del ICV y del
IRP. Este índice es menos sensible que el CIT a la influencia de la Memoria de trabajo y de la
Velocidad de procesamiento y puede ser una buena medida de la capacidad general, cuando haya
discrepancias importantes entre los cuatro índices, o la persona evaluada presenta problemas de
atención, de memoria, de aprendizaje o de rapidez y precisión perceptiva y visomotora. La tabla 1
recoge las pruebas de la WAIS-IV, las tareas que requieren, los aspectos que evalúan, su agrupación
en los diferentes índices y su carácter, principal u optativo. Las pruebas principales deben aplicarse
siempre que se desee obtener las puntuaciones compuestas del índice correspondiente; las
opcionales proporcionan valiosa información adicional que permite analizar mejor las capacidades de
la persona evaluada. Las puntuaciones de las pruebas opcionales pueden utilizarse para sustituir a
alguna de las pruebas principales del mismo índice, si por alguna razón han quedado invalidadas
(errores en la administración, interrupciones, limitaciones sensoriales o físicas, bloqueos, patrones de
respuestas repetitivos, etc.). El número delante de cada prueba indica el orden de administración.

Tabla 1. Pruebas de la WAIS-IV, tarea y aspectos evaluados.

129
130
* Sólo pueden aplicarse entre los 16 y los 69 años.

Además del CIT y de los cuatro índices (ICV, IRP, IMT, IVP), la WAIS-IV permite obtener ocho
puntuaciones de procesamiento, una para Cubos (cubos sin bonificación por tiempo, CSB), seis para
dígitos (Dígitos en orden directo, DD; Dígitos en orden inverso, DI; Dígitos en orden creciente, DC;
Span dígitos en orden directo, SpanDD; Span dígitos en orden inverso, SpanDI, y Span dígitos en
orden creciente, SpanDC) y una para Letras y números (Span letras y números, SpanLN). El análisis
del procesamiento permite evaluar mejor el rendimiento y los límites del sujeto en estas pruebas.

3. Objetivos.

La WAIS-IV se puede utilizar en el proceso de evaluación psicológica con propósitos de clasificación,


descripción, predicción o planificación de intervenciones (APA, 2002). La WAIS-IV se utiliza,
preferentemente, en ámbitos clínico y de la salud, forense, escolar y de recursos humanos. A
continuación, se recogen algunos de los usos del WAIS-IV en estos contextos.

Ámbito clínico y de la salud:

1. Recoger información que sea de utilidad para el diagnóstico diferencial de trastornos neurológicos,
psicológicos o psiquiátricos, a fin de establecer la afectación del funcionamiento intelectual.

2. Describir el funcionamiento intelectual en términos de habilidades y dificultades cognoscitivas de la


persona evaluada.

3. Analizar las áreas fuertes y débiles de funcionamiento intelectual de la persona, servir de pauta
para preparar programas de intervención, y valorar su eficacia.

Ámbito forense:

1. Recoger información que permita hacer recomendaciones sobre las capacidades cognitivas de
personas que están implicadas en procesos legales

2. Identificar y evaluar aptitudes y habilidades que puedan influir en la determinación de


responsabilidades legales de la persona evaluada.

Ámbito escolar:

1. Diagnóstico de las aptitudes cognoscitivas en personas que tienen necesidades educativas


especiales: problemas de aprendizaje, trastornos del aprendizaje, superdotados, etc.

131
2. Valoración de las capacidades y dificultades cognitivas de estas personas para elaborar planes de
intervención.

3. Evaluación de los resultados de los planes de intervención.

4. Predicción del rendimiento académico.

5. Orientación vocacional y profesional de los estudiantes de bachillerato y universitarios.

Ámbito de recursos humanos:

1. Certificar que la persona evaluada tiene las aptitudes necesarias para un determinado trabajo o
actividad.

2. Obtener información que permita hacer predicciones sobre el rendimiento futuro.

3. Elaborar planes de formación destinados a mejorar las habilidades y el rendimiento.

4. Hacer recomendaciones sobre promoción o recolocación.

Wechsler Niños

Wechsler elaboró la escala de Wechsler-Bellevue para adultos en 1939. Esta escala ha sido
prototípica, y bajo distintas formas y sucesivas adaptaciones, ha perdurado hasta la actualidad como
una buena medida de las capacidades intelectuales. El uso de las pruebas de Wechsler se ha ido
extendiendo a la mayoría de países, y se han realizado versiones para distintos niveles de edad
(adultos, edades escolares y preescolares). Las sucesivas modificaciones han ido incorporando, con
acierto, las principales aportaciones conceptuales del momento.

La prueba que se describe a continuación constituye la última de las adaptaciones realizadas en


España1.

Características generales.

La cuarta edición de la escala de inteligencia para niños de Wechsler, WISC-IV (2005), es la última
actualización de la escala publicada originalmente en 1949 (WISC). La versión revisada de la escala
(WISC-R) se publicó en Estados Unidos en el año 1974 y la adaptación española en el 1993. En el
año 1991 se publicó la tercera versión del WISC (Wechsler Intelligence Scale for Children, WISC-III),
de la que no hay adaptación española. El WISC-IV puede aplicarse a niños y adolescentes entre 6
años y 16 años y 11 meses.

El WISC-IV ha incorporado muchas mejoras técnicas, respecto a sus antecesores: las instrucciones
de administración son más fáciles; la hoja de respuestas es muy clara, tiene un diseño cuidado y
ofrece espacios amplios y claves visuales que la hacen atractiva y fácil de utilizar; las reglas de

132
administración y de puntuación son más uniformes, lo que permite disminuir los errores de
puntuación, que es una de las equivocaciones más frecuentes en la administración de las escalas de
Wechsler (Kaufman, 1990), al mismo tiempo que se aumenta la fiabilidad entre evaluadores. La
duración de la administración de los 10 tests principales, necesarios para el cálculo del Cociente de
inteligencia total (CIT) y los índices de Comprensión verbal, Razonamiento perceptivo, Memoria de
trabajo y Velocidad de procesamiento oscila entre 65 y 80 minutos; si se aplican los 15 tests, el
tiempo de administración es de dos horas aproximadamente.

Descripción

El WISC-IV está formado por quince tests. Nueve de ellos pueden ser considerados clásicos ya que
están presentes desde las primeras versiones (Cubos, Semejanzas, Dígitos, Claves, Vocabulario,
Comprensión, Figuras incompletas, Información, y Aritmética). Búsqueda de símbolos ya fue
incorporado en el WISC-III, y los 5 restantes están en la prueba por primera vez (Conceptos, Letras y
números, Matrices, Animales y Adivinanzas), aunque hayan sido obtenidas de otras pruebas. La
tabla 1 recoge una descripción de los quince tests del WISC-IV. El número delante de cada uno de
ellos indica el orden de administración.

Tests principales

1. Cubos. En este test hay que construir con cubos coloreados en rojo y blanco unos dibujos, de
complejidad creciente. Evalúa la capacidad de análisis y síntesis visual y la reproducción de dibujos
geométricos abstractos.

2. Semejanzas. Mide la capacidad para expresar las relaciones entre dos conceptos, el
pensamiento asociativo y la capacidad de abstracción verbal. La tarea consiste en encontrar las
semejanzas que hay entre dos palabras, que se refieren a objetos comunes, o entre dos conceptos.

3. Dígitos La tarea consiste en repetir una serie de dígitos que se presentan oralmente. Los dígitos se
han de repetir en orden directo (igual que los presenta el evaluador) o en orden inverso al que
presenta el evaluador. Evalúa la memoria auditiva inmediata, la atención y la resistencia a la
distracción

4. Conceptos. Se muestran dos o tres filas de dibujos y la tarea consiste en escoger dos o tres
dibujos, un dibujo de cada fila, que tengan características comunes o mantengan alguna relación
conceptual entre sí. Analiza la capacidad para relacionar estímulos visuales, encontrar semejanzas
entre ellos, y la formación de conceptos

133
5. Claves. La tarea consiste en completar, con los símbolos adecuados, unos dibujos o dígitos.
Evalúa, la rapidez y destreza visomotora, el manejo de lápiz y papel y, especialmente, la capacidad
de aprendizaje asociativo.

6. Vocabulario. Requiere que se defina o se diga el significado de términos de dificultad creciente.


Refleja el nivel de educación, la capacidad de aprendizaje y el ambiente en el que se desenvuelve la
persona evaluada.

7. Letras y números. En esta tarea se presentan oralmente una serie de números y de letras
mezclados. Después se deben repetir los números en orden ascendente y las letras en orden
alfabético. Evalúa atención, concentración y memoria de trabajo.

8. Matrices. Se trata de elegir el dibujo que completa una serie matricial multiplicativa, que está
incompleta. Mide razonamiento abstracto y capacidad para procesar información visual.

9. Comprensión. La tarea consiste en explicar qué se debe de hacer en determinadas circunstancias


o porqué se siguen determinadas prácticas. Evalúa el juicio práctico, el sentido común y la
adquisición e interiorización de elementos culturales.

10. Búsqueda de símbolos. En este test se presentan uno o dos símbolos y el sujeto debe decidir si
alguno de ellos está presente dentro de un conjunto. Evalúa rapidez y precisión perceptiva y
velocidad para procesar información visual simple.

Tests complementarios u optativos

11. Figuras incompletas. La tarea consiste en indicar qué elemento clave falta a unos dibujos.
Requiere la identificación de objetos y utensilios familiares, y distinguir y diferenciar entre los
aspectos esenciales y no esenciales.

12. Animales. La tarea consiste en marcar, en un tiempo limitado, en un conjunto de imágenes,


todas las figuras que coinciden con un modelo dado. Evalúa rapidez y precisión perceptiva y
velocidad para procesar información visual simple.

13. Información. Evalúa la información adquirida tanto a través de la educación formal, en la escuela,
o informal, en el ambiente en el que se desenvuelve la persona evaluada. La tarea consiste en
contestar preguntas que abarcan diferentes tipos de conocimientos.

14. Aritmética. La tarea consiste en resolver mentalmente problemas aritméticos que se presentan de
forma oral. Evalúa la habilidad para utilizar conceptos numéricos abstractos, operaciones numéricas
y la capacidad de atención y concentración

134
15. Adivinanzas. La tarea consiste en identificar un concepto, a partir de la información que se da en
diversas frases o pistas. Evalúa la habilidad para inferir un concepto o término verbal, concreto o
abstracto, del que se le han dado diversas características.

4 LA EVALUACIÓN DE LA SIMULACIÓN

En los últimos años se ha hecho más frecuente la participación de los neuropsicólogos en procesos
legales con el propósito de comunicar información relevante para la toma de decisiones judiciales. En
este sentido, resulta habitual que jueces y abogados soliciten a estos profesionales la realización de
evaluaciones neuropsicológicas que determinen la naturaleza, la severidad y la legitimidad de los
déficits cognitivos.

El efecto que ha tenido esta demanda se puede ver reflejado en la cantidad de publicaciones
sobre neuropsicología forense (NF), dentro de la cual el estudio del fingimiento, la simulación
o la exageración de síntomas cognitivos resulta ser la más desarrollada. A modo de
referencia, aproximadamente el 86% de las publicaciones Orenses están dirigidas a la
investigación en simulación (Sweet, King, Malina, Bergmany Simmons, 2002).

Según Strauss, Sherman y Spreen (2006), el interés que ha erado en la


neuropsicología el concepto de la simulación se en "motivado por dos razones. La
primera se debe a la mayor conciencia que tienen los clínicos sobre la frecuencia con
la que "estos casos. La segunda tiene que ver con el hecho de que profesionales que
realizan evaluaciones neuropsicológicas tienen un mejor conocimiento del fenómeno y
mejores métodos para Su detección. Lo anterior se ha traducido no sólo en un
aumento de solicitudes para que los neuropsicólogos se refieran a la presencia o
ausencia de simulación entre los evaluados sino también a la exigencia de estas
mediciones como estándares de evaluación en contextos forenses.

El propósito de este capítulo será exponer, a partir de una revisión bibliográfica


comprensiva, los supuestos bajo los que opera el concepto de la simulación, la
definición y criterios para su diagnóstico, metodologías de investigación en el campo
de la simulación, así como las estrategias y técnicas más efectivas usadas para Su
detección.
135
4.1 La Valoración de la Simulación como Variable Mediadora

Una premisa fundamental en neuropsicología y en un amplio espectro de la psicología consiste en


presumir que nuestras evaluaciones están basadas en instrumentos de medición que son válidos y
fiables. Esto nos otorga la seguridad -al menos metodológica y estadísticamente- de que los
resultados obtenidos representan una medición «verdadera» del atributo en cuestión. Sin embargo,
la precisión de los resultados no sólo depende de las capacidades técnicas del instrumento que
utilizamos sino también de una gran cantidad de factores mediadores como, por ejemplo, el sexo, la
edad, la baja escolaridad, aspectos culturales, estados emocionales, fatiga, el entorno físico, la
motivación o el intento por obtener una ganancia secundaria (Sweet, 1999).

Una variable mediadora es cualquier factor que afecta significativamente a la relación predictiva entre
variables (Anastasi y Urbina, 2000). En otras palabras, esta variable tiene un poder predictivo
diferencial y es representada habitualmente como un factor que afecta a la correlación entre las
variables que estamos estudiando (Baron y Kenny, 1986). Así, la necesidad de controlar dichas
variables en el análisis e interpretación de los resultados es fundamental para toda la evaluación
neuropsicológica. No tomarlas en cuenta puede conducirnos a errores diagnósticos y a efectuar
recomendaciones no apropiadas. A modo de ejemplo, obviar en determinado paciente el efecto que
puede tener un bajo nivel de instrucción escolar puede llevarnos a interpretar que los bajos
resultados obtenidos en un instrumento son compatibles con una lesión cerebral adquirida (cuando
no la tiene) o que se considere que el paciente se encuentra más afectado de lo que en realidad
está. Ahora bien, lo anterior no significa que todas las mediciones se vean afectadas por estos
factores o que la misma variable mediadora se aplique a todas las medidas (Sweet, 1999).

4.2 La Heterogeneidad del Fenómeno de la Simulación

El proceso diagnóstico de la simulación es frecuentemente caracterizado como una dicotomía


presencia-ausencia más que como una variable multidimensional. Esta aproximación puede no ser
precisa, ya que asume que toda la información obtenida del paciente puede ser explicada por la
simulación, cuando en realidad los pacientes pueden tener ejecuciones normales en algunas
medidas mientras que en otras están simulando (Palmer, Boone, Allman y Castro, 1995). Esta
variabilidad se fundamenta en que el público, en general, tiene una serie de concepciones
equivocadas acerca de las lesiones cerebrales y sus déficits asociados (Willer, Johnson, Rempel y
Linn, 1993; Gouvier, Prestholdt y Warner, 1988). En este sentido, Goebel (1983) encontró en un
136
grupo de simuladores que el 36% de los sujetos investigados intentó fingir en todas las pruebas,
mientras el resto fingió sólo en algunas de la batería Halstead-Reitan.

Los problemas de memoria son una de las quejas más frecuentes en los pacientes con alteraciones
neurológicas y no es de sorprender que también lo sea en los simuladores. Entre los déficits de
memoria que pueden ser fingidos destacan los referidos a la información autobiográfica (Wiggins y
Brandt, 1988; Rosenfeld, Ellwangery Sweet, 1995), memoria reciente (Greiffenstein, Baker у Gola,
1994; Millis y Putnam, 1994; Millis, Putnam, Adams y Ricker, 1995; Mittenberg, Azrin, Millsapsy
Heilbronner, 1993) o memoria de reconocimiento verbalo visual (Millis, 1992; Millis y Putnam, 1994;
Langeluddeckey Lucas, 2003, Bindery Rohling, 1993; Suhr, Tranel, Wesely Barrash, 1997, Coleman,
Rapport, Millis, Rickery Farchione, 1998). Sin embargo, no es posible asumir el tipo de déficit de
memoria que será elegido para ser simulado. Más allá de lo planteado anteriormente, numerosas
investigaciones han encontrado que los simuladores escogen también otros tipos de déficit, como los
sensorio-perceptivos y motores (Larrabee, 2003, Greiffenstein, Bakery Gola, 1996; Rapport,
Farchione, Coleman y Axelrod, 1998; Bindery Willis, 1992; Frederick, Sarfaty, Johnston y Powell,
1994; Heaton, Smith, Lehman y Vogt, 1978; Mittenberg, Rotholc, Russelly Heilbronner, 1996,
Truebloody Schmidt, 1993) o déficits en tareas de resolución de problemas (Bernanrd, McGrathy
Houston, 1996; Suhry Boyer, 1999; Grevey Bianchini, 2002, King, Sweet, Sherer, Curtissy
Vanderploeg, 2002).

Beetar y Williams (1995) han sugerido que los simuladores pueden escoger entre un número posible
de estrategias cuando están respondiendo a un test neuropsicológico. Estas estrategias incluyen
respuestas al azar, respuestas erróneas intencionadas, respuestas lentas o fallos por inatención. En
este sentido, Goebel (1983) empleó en 14l sujetos una entrevista para indagar acerca de los
métodos que se utilizan para simular al realizar la batería Halstead-Reitan. Los resultados mostraron
que el 36% de los encuestados respondió lentamente, intentó mostrarse confundido o demasiado
lento para entender, mientras que el 30% dio respuestas erróneas y el 14% mostró
descoordinaciones motoras u otras estrategias menos frecuentes.

La intensidad de la exageración de los síntomas también le otorga una dificultad adicional a la


evaluación de la simulación. Como se expondrá más adelante, esta variable es más accesible a la
investigación empírica (Elwanger, Rosenfeld, Sweety Rhatt, 1996; Martin, senfeld, Bolter. Todd,
Gouvier y Niccols, 1993; Rosenfeld y cols, 1995).

137
4.3 La Prevalencia

Los datos que se derivan de las investigaciones sobre la prevalencia más el de la simulación son de
lo más dispar, aunque parece existir cierto consenso a la hora de situarla entre un 33 y un 60%
(Greiffensthan tein y cols, 1994. Haines y Norris, 1995). No obstante, algunas investigaciones sitúan
dicha prevalencia entre el 1 y el 50% (Rey, nolds, 1998) y otras, entre el 13 y el 17% (Duncan, 2005).
En los extremos podemos situar a Lezak (1995), que opina que es «muy raro» encontrarse con
casos de simulación y a Greiffenstein et al. (1994) que sitúan la prevalencia de los pacientes con
síndrome postconmocional (que son los casos más comunes en los procesos de litigio) en un 66%.
En medio nos encontramos con todo tipo de posicionamientos: Trueblood y Schmidt (1993)
encontraron que el 15% de los pacientes neuropsicológicos presentan una pobre motivación. Rogers,
Sewell y Goldstein (1994) opinan que la simulación se da en el 17% de las evaluaciones forenses;
Guilmette, aS Whelihan, Sparadeo y Buongiorno (1994) vieron evidencia de una baja motivación en
el 18% de los sujetos que esperaban obtener un reconocimiento de minusvalía. Constantinou, Bauer,
Ashendorf, Ca Fisher y McCaffrey (2005) hablan de un 30% de simuladores entre los pacientes con
traumatismo craneoencefálico leve (TCE-L) que están en litigio. Binder (1993) la sitúa en el 33% en
esta misma población. Gervais, Rohling, Green y Ford (2004) detectaron que un 43% de pacientes
con diferentes diagnósticos en búsqueda de compensación económica eran simuladores. Youngjohn,
Burrows y Erdal (1995), que la prevalencia de simulación es del 48% en los pacientes con síndrome
postconmocional en procesos de litigio. Y finalmente, Ardolf Denney y Houston (2007) la sitúan en el
54,3% de los pacientes neuropsicológicos en el contexto criminal.

A pesar de todas estas diferencias, hoy en día disponemos de dos estudios que nos permiten arrojar
un poco de luz al problema de la estimación de los porcentajes de base. El primero de ellos ese de
Mittenberg, Patton, Canyock y Condit (2002), en el que se analizaron 33.531 casos de pacientes en
búsqueda de compensación económica por los déficits alegados y que ya habían sido evaluados por
los miembros de la American Board of Clinical Neuropsychology. Los autores establecieron el
porcentaje de base de la Simulación para distintos trastornos del siguiente modo: 39% para los
pacientes con TCE-L; 35% en casos de fatiga crónica o fibromialgia; 31% en pacientes con dolor
crónico; 27% en casos de daño neurotóxico y 22% en los pacientes con daño causado por
accidentes eléctricos.

En el segundo estudio, desarrollado por Larrabee (2003), se analizaron once casos relevantes para
determinar el porcentaje de base de la simulación en contextos neuropsicológicos con ganancias
secundarias potenciales. En el 40% de ellos (548 de un total de 1.363) se encontró un déficit en la

138
ejecución sugerente de simulación. En la tabla 1 se presenta un resumen de las diferentes
prevalencias de base encontradas en los distintos estudios.

Tabla 1: Estimación de la prevalencia de base de la simulación en diferentes estudios

ESTUDIO POBLACION ESTIMULACION DE LA


PREVALENCIA DE
SIMULACION

Truebloody Schmidt (1993) Pacientes neuropsicológicos 15%

Ducan (2005) Pacientes forenses psiquiátricos 13 – 17%

Rogers, Sewell y Goldstein Pacientes forenses 17%


(1994)

Guilmette, Whelihan, Sparadeo Pacientes en búsqueda de 18%


y Buongiorno (1994) compensación

Constantinou et al. (2005) Pacientes con TCE-L EN 30%


LITIGIO

Binder (1993) Pacientes con TCE-L en 33%


proceso de litigio

Mittenberg et al. (2002) Pacientes en búsqueda de 39%


compensación con TCE-L

Larrabee (2003) Pacientes en búsqueda de 40%


compensación

Gervais et al. (2004) Pacientes en búsqueda de 43%


compensación

Youngjohn et al. (1995) Paciente con SPC en procesos 48%


de litigio

Greiffeinstein et al. (1994) Paciente con SPC 66%

Ardolf et al. (2007) Pacientes neuropsicológicos 54%


contexto criminal

Nota: TCE-L= traumatismo craneoencefálico leve; SPC= síndrome postconmocional

139
Algunos factores que, desde nuestro punto de vista, contribuyen a explicar estas variaciones en los
estudios sobre la incidencia de la simulación son los siguientes: 1) qué test se han utilizado-test con
diferentes sensibilidades darán lugar a líneas base diferentes; 2) qué criterios se siguen para
diagnosticar la simulación -una ejecución indicativa de simulación en un test o en dos; necesidad de
realizar los test por debajo del azar o no...; 3) el punto de corte seleccionado para los test -ya que
normalmente aparecen varios; 4) efectos de la posición de los test -un test de simulación no obtiene
los mismos resultados si se administra al principio o al final de la evaluación; 5) las características del
grupo evaluado -en procesos de litigio, población neuropsicológica general, población psiquiátrica. 6)
el tipo de grupo-análogos simuladores o sospechosos de simulación;7) el tipo de daño que presentan
los pacientes evaluados -traumatismos, ACVs, demencias, esquizofrenia... y la severidad del mismo
y 8) factores dependientes del evaluador-astucia, escepticismo, sesgos…

Uno de los principales problemas de los estudios sobre simulación es que generalmente no
consideran los índices de exactitud predictiva empleados en los estudios de validación: sensibilidad,
especificidad, valor predictivo positivo (VPP) y valor predictivo negativo (VPN). Aplicados a la
evaluación de simulación, estos índices reflejan la proporción de simuladores detectados por un
determinado método (sensibilidad), la proporción de sujetos no simuladores correctamente
clasificados por el método (especificidad), la proporción de sujetos clasificados como simuladores
que realmente están simulando (VPP) y la proporción de individuos clasificados como pacientes que
en realidad son pacientes (VPN) (Rosenfeld et al., 2000). Los conceptos de sensibilidad y
especificidad son frecuentemente confundidos -o empleados indistintamente con los de VPP y VPN,
respectivamente. Sin embargo, es fundamental conocer sus diferencias, ya que confundir dichos
índices nos puede llevar errores a la hora de establecer nuestra confianza en los resultados de una
determinada prueba.

La sensibilidad hace referencia al porcentaje de personas clasificadas como simuladoras por una
determinada prueba, mientras el VPP hace referencia al porcentaje de simuladores detectados entre
la población total de simuladores. Así, lo que diferencia principalmente la sensibilidad y el VPP es
que este último depende directamente de la prevalencia («base rate») de simulación. Pensemos en
dos poblaciones: una en la que la prevalencia de simulación es del 5% (esto es, 5 de cada 100
individuos son simuladores) y otra en la que la prevalencia de simulación es del 50%.
Indiscutiblemente, no es lo mismo detectar al 15% de los simuladores en ambas poblaciones. Por
poner un ejemplo concreto, si una persona obtiene un total de catorce ítems difíciles correctos en el
Victoria Symptom Valdity Test, la probabilidad de que esté simulando es del 24% si la prevalencia de
simulación es del 5%, pero asciende al 86% si la prevalencia es del 50%. El poder predictivo es, en

140
definitiva, un índice de la confianza que podemos tener en que el resultado de un test sea acertado
(Bianchini et al., 2001).

El VPP suele considerarse el índice más relevante para evaluar la eficacia de una determinada
prueba, debido a las importantes implicaciones que tiene la incorrecta clasificación de un paciente
verdadero como simulador (Rogers, 1997, Rosenfeld et al., 2000). Específicamente, un diagnóstico
incorrecto de simulación puede tener importantes consecuencias financieras, sociales, jurídicas,
Sanitarias, ocupacionales y personales (Bianchini, Mathias y Greeve, 2001; Rosenfeld, Sands y Van
Gorp, 2000; Gouvier, Lees-Haley y Hammer, 2003; Chafetz, 2008; Chafetz, Abraham, Kohlmaier,
2007), Laincorrecta clasificación de un simulador como un paciente verdadero también implica
consecuencias negativas. Por ejemplo, un sujeto que es capaz de fingir un trastorno cognitivo y que,
como consecuencia de ello, se determine que no es responsable de los cargos que se le imputan,
puede evitar las consecuencias legales de una acción criminal o recibir una condena reducida por
tener como atenuante una Supuesta patología psiquiátrica o neurológica, No obstante, si
comparamos los dos tipos de errores, el segundo parece menos grave y más fácil de subsanar
(Rosenfeld et al., 2000; Bianchini et al., 2001).

Centrándonos en las repercusiones sociales y económicas y teniendo en consideración que las tasas
de simulación alcanzan aproximadamente el 40% en casos de pensiones de invalidez en el sector
privado (Larrabee, 2003; Mittenberg et al., 2002), si las tasas de simulación en el sector público son
equivalentes, entonces cabe pensar que enormes sumas de dinero pudieran estar siendo gastadas
de manera fraudulenta (Chafetz et al., 2007).

A modo de conclusión, hay evidencia suficiente para establecer que el porcentaje de base de
simulación de los TCE-L, que es el trastorno más frecuentemente fingido (Haines y Norris, 1995), se
sitúa en torno al 40%. Este porcentaje es consistente con el encontrado en población española (Vilar,
Santiago, Gómez, Verdejo, Llamas y Pérez, 2007; Vilar, Gómez, Santiago, Rodríguez, Puente y
Pérez, 2008). Sin embargo, nada sabemos todavía de la prevalencia de la simulación en los países
latinoamericanos, por lo que se necesitan estudios que corroboren la exactitud de estas cifras en
nuestro contexto.

141
4.4 Definición y Clasificación de la Simulación

La detección de la simulación no sólo depende de que las herramientas que utilicemos sean
precisas, sino que también está sujeta a una definición operacional clara que permita su
identificación. A continuación, se expondrán los criterios para el diagnóstico de la simulación y su
diagnóstico diferencial.

4.4.1 La Simulación Según el Manual Diagnóstico y Estadístico de Desórdenes Mentales

Numerosas definiciones y criterios han sido publicados para el diagnóstico de simulación, siendo el
más conocido de estos el que ofrece el «Manual diagnóstico y estadístico de desórdenes mentales
en su cuarta edición revisada» (DSMIV-R; APA, 2000). Según el DSM-IV-R, la simulación
corresponde a la producción intencional de síntomas físicos o psíquicos falsos o extraordinariamente
exagerados, los cuales se encuentran motivados por incentivos externos como, por ejemplo, evitar el
deber militar, evadir el trabajo, obtener compensaciones económicas, eludir la justicia en causas
criminales u obtener medicinas. De acuerdo con los criterios diagnósticos propuestos por el DSM IV-
R, se debería sospechar simulación si se da la combinación de cualquiera de los siguientes casos: a)
presencia de un contexto médico-legal; b) evidentes discrepancias entre las quejas sobre estrés o
invalidez referidas por la persona y los hallazgos objetivos; c) falta de cooperación durante la
evaluación diagnóstica e incumplimiento de un tratamiento prescrito y d) la presencia de un trastorno
de personalidad antisocial.

Sin embargo, numerosos autores han puesto de manifiesto problemas con estos criterios (Sweet,
1999; Larrabee, 2005; Spreen y Strauss, 2006), incluyendo la falta de relevancia que se le otorga al
contexto neuropsicológico (a diferencia del psiquiátrico), la dificultad para evaluar los estados
internos de los examinados, la influencia que tienen las motivaciones conscientes e inconscientes en
el comportamiento de un examinando y que los déficits fabricados o exagerados pueden coexistir con
deficiencias reales.

142
4.4.2 Los Criterios Clasificatorios de Slip

Estas limitaciones han llevado a investigadores y clínicos a elaborar definiciones y criterios


alternativos para la simulación. Slick, Sherman e Iverson (1999) desarrollaron un conjunto de criterios
diagnósticos a partir de información psicométrica, conductual e información colateral que han tenido
una buena respuesta entre los investigadores y forenses neuropsicólogos. Los autores sostienen que
la simulación de una disfunción neurocognitiva (SND) está basada, por una parte, en la fabricación o
exageración Volitiva de una disfunción cognitiva y, por otro lado, en las ganancias secundarias
externas obtenidas derivadas del punto anterior.

Aunque estos criterios no han sido totalmente aceptados por la comunidad científica fuera del ámbito
neuropsicológico, han sido ampliamente empleados por investigadores y en contextos clínicos,
debido a su utilidad, sistematicidad y especificidad. Las categorías diagnósticas propuestas para la
SND son: definitiva, probable y posible (véase la tabla 2).

Tabla 2. Criterios diagnósticos para la simulación de daño neurocognitivo, adaptado de Slick,


Sherman e Iverson (1999)

Simulación de disfunción Simulación de disfunción Simulación de disfunción


neuropsicológica DEFNTIVA neuropsicológica PROBABLE neuropsicológica POSIBLE

Presencia de incentivos Presencia de incentivos Presencia de incentivos


externos sustanciales. externos sustanciales. externos sustanciales.

Definitivo sesgo de respuesta Dos o más tipos de evidencia Uno o más tipos de evidencia
negativo, entendido como la de los test neuropsicológicos de lo referido por el sujeto
ejecución por debajo del azar (criterio A); un tipo de evidencia (criterio B). La conducta del
(p<0.05) en una o más medidas de los test neuropsicológicos sujeto en el criterio B no puede
de función cognitiva de la (criterio A) y uno o más tipos de ser explicada por factores
elección forzosa. La conducta evidencia de lo referido por el psiquiátricos, neurológicos o del
del sujeto no puede ser sujeto (criterio B). La conducta desarrollo; de no poder
explicada por factores del sujeto no puede ser descartar alguna de estas
psiquiátricos, neurológicos o del explicada por factores etiologías, ésta ha de ser
desarrollo. psiquiátricos neurológicos o del especificada.
desarrollo.

143
Criterio A Criterio B

a) Probable sesgo de respuesta: la ejecución a) La historia referida es discrepante con la


es consistente con la simulación en uno o historia documentada.
más documentada de los test b) Los síntomas referidos son discrepantes
psicométricos o índices bien validados de con los patrones conocidos de
simulación. funcionamiento cerebral.
b) ) Discrepancia entre los datos de los test y c) Los síntomas referidos son discrepantes
los patrones de funcionamiento cerebral. con las observaciones conductuales.
c) Discrepancia entre los datos de dos o más d) Los síntomas referidos son discrepantes
test neuropsicológicos de un dominio y la con la información obtenida de
conducta observada. informadores colaterales.
d) Discrepancia entre los datos de dos o más e) Evidencia de exageración o fabricación de
test neuropsicológicos de un dominio e disfunción psicológica. Por ejemplo,
informes colaterales fiables. indicada por escalas o índices bien
e) Discrepancia entre los datos de dos o más validados de medidas de ajuste
test estandarizados de función cognitiva psicológico (por ejemplo, MMPI – 2)
para un dominio y la historia antecedente
documentada.

Slicket al. (1999) recomiendan realizar un minucioso diagnóstico diferencial antes de concluir
que una persona está simulando. Para esto proponen como estrategia el método de la duda
razonable, ya que hay que tener en cuenta las limitaciones metodológicas de la evaluación y,
por otro lado, el coste que tiene un error de falso positivo.

4.4.3 El Diagnóstico Diferencial de la Simulación

Psicométricamente resulta relevante señalar que la SDN puede incluir cualquier tipo de rendimiento
que se encuentre por debajo del máximo esfuerzo realizado ante un test (Strauss et al., 2006), lo que
puede generar confusión con diferentes categorías diagnósticas como la somatización, la
disociación, el desorden facticio u otras formas de baja motivación o comportamientos oposicionistas.
En este sentido, la simulación es sólo una de tantas expresiones del rendimiento subóptimo, por lo
que ambos términos no deben utilizarse como sinónimos (Strauss et al., 2006).
144
Las inconsistencias en un test son el resultado de variables motivacionales (Larrabee, 2005) que por
un lado pueden ser debidas a factores que están fuera del control consciente del paciente -como la
ansiedad, la depresión o el trastorno disociativo y, por otro lado, pueden ser el resultado de un acto
consciente e intencional que busca distorsionar los resultados, como ocurre en el trastorno facticio y
la simulación (verson y Binder, 2000; Larrabee, 2000).

Aun cuando en el trastorno facticio se observa una fabricación deliberada de síntomas -la persona
intenta representar una manifestación psicopatológica y/o cognitiva-, la única motivación que busca
el paciente es recibir atención y tratamiento médico como respuesta a sus necesidades psicológicas.
De este modo, el trastorno facticio no puede ser diagnosticado en condiciones donde hay una posible
o real recompensa externa, característica de la simulación (Sweet, 1999).

Por otro lado, en los trastornos somatomorfos y disociativos, los individuos parecen haber adoptado
conductas de indefensión, incompetencia o están tan convencidos de su deficiencia que en las
evaluaciones buscan legitimar o confirmar su condición. Sin embargo, en estos casos la causa
parece ser más inconsciente que producto de un acto consciente y deliberado (DSM IV-R; APA,
1994).

Una diferencia adicional entre estos criterios diagnósticos y la simulación puede ser el grado de
participación y adhesión a los tratamientos médicos, ya que habitualmente los pacientes que están
intentando simular no colaboran con ellos, mientras que para muchos pacientes con trastornos
facticios y Somatomorfos éste es Su objetivo central.

4.5 Investigación de la Simulación

La investigación sobre simulación ha crecido de forma exponencial en las últimas décadas. Sin
embargo, no todos los estudios sobre este tópico presentan el mismo rigor científico. En este
apartado se repasan los principales diseños de investigación que son empleados en el estudio de la
simulación, exponiendo las principales ventajas e inconvenientes de cada uno de ellos. Además,
realizaremos una breve exposición de la metodología empleada para la detección de la simulación,
destacando algunos aspectos prácticos que deben ser considerados por los profesionales cuando se
enfrentan a una evaluación forense.

145
4.5.1 Diseños de Investigación en Simulación

Quizás el principal problema de la investigación de la simulación es que excepcionalmente poco


frecuente que alguien admita que está simulando. Para intentar solventar este obstáculo los
investigadores se han valido de dos aproximaciones: personas a las que se les pide que simulen un
daño (análogos) y pacientes que presentan un elevado riesgo de exagerar sus déficits o que cumplen
ciertos criterios de déficits inconscientes o no creíbles (Lezak, Howieson y Loring, 2004).

De estas dos aproximaciones se derivan cuatro tipos de diseños de investigación en el campo de la


simulación (Rogers, 1997): estudios de caso único, estudios de prevalencia diferencial, diseños de
grupos conocidos y diseños de análogos.

5 CONSIDERACIONES EN EL ANÁLISIS DE NEUROPSICOLOGÍA FORENSE

El desarrollo de cualquier ámbito aplicado en el territorio científico se puede plantear, someramente,


como una derivada de la ciencia más básica. Eso no es una excepción en el caso de la
neuropsicología forense que, dadas sus propias características, debe desarrollarse en su forma más
aplicada desde la concepción propia de un objeto de trabajo específico y compartido con otros
ámbitos de la ciencia. No es este aspecto algo diverso o extraño de otros ámbitos de la psicología
general, pero si adquiere una cierta importancia recordar aquí que la ejecución de los
neuropsicólogos en el ámbito forense se efectúa ante actores que, en general, no son
neuropsicólogos y por tanto la peritación se convierte en una herramienta de aseveración científica
ante terceros, cuya forma de analizar el objeto psicológico es, como mínimo, incompleto y alejado del
corpus teórico y contrastado de las teorías científicas.

Es desde esta perspectiva donde nos hemos situado para redactar las siguientes páginas, puesto
que lo que se pretende es establecer algunas aportaciones sencillas que, desde la óptica
metodológica, ayuden a los neuropsicólogos forenses a reducir la probabilidad de cometer algunos
errores metodológicos que a menudo reducen la verosimilitud de sus aseveraciones y pueden ser
objeto de refutación simple y sencilla.

Además, debemos contribuir a la mejor delimitación del objeto de estudio de los neuropsicólogos en
general y de la acción forense en particular, puesto que las actuaciones públicas en los foros que no
nos son propios, son de extrema importancia dada su trascendencia y relevancia social. En esencia,
el lector encontrará en las siguientes páginas una pequeña guía de conceptos propios de la

146
metodología en psicología, con la pretensión de que le ayude a considerar correctamente cada una
de las piezas relevantes en la configuración de la peritación. Si se quiere, podríamos decir que las
siguientes páginas son un glosario resumido y breve de los puntos a los que los neuropsicólogos
forenses deberían prestar atención y conocer a fondo para no ofrecer fisuras metodológicas en el uso
de los conceptos habituales del proceso de peritación. Planteamientos como los que aquí se
introducen no son nuevos puesto que en otras disciplinas ya se han elaborado [por ejemplo, Last
(1995) en informes epidemiológicos o Chow, Shao y Wang (2008), para el análisis de ensayos
clínicos].

La estructura del capítulo está construida en base a tres grandes apartados. El primero tratará sobre
conceptos psicométricos que consideramos de relevancia en la actividad pericial. El segundo revisa
tópicos relativos a la estadística y el tercero explora elementos que provienen de la epidemiología y
que han demostrado ser de utilidad en el campo de las ciencias del comportamiento.

5.1 Conceptos Psicométricos

La tradición de la medición en psicología se ha centrado en la generación de variables con recorrido


empírico que, como mínimo, nos permiten ordenar sujetos en una dimensión continuada para saber
su posición en relación al resto de la población. Eso quepa- rece fácil de decir, no lo es en el
momento de establecer buenas aproximaciones empíricas a lo que se quiere medir.

Debemos asumir que entre aquello que se pretende medir y el instrumento o resultado concreto que
se obtiene puede existir una distancia considerable.

Son numerosos los fenómenos de interés en psicología que no pueden ser observados de manera
directa. Estos fenómenos se conocen como variables latentes o constructos. Además de ser
inobservables, estas variables tienden a ser constructos complejos, especialmente por su
multidimensionalidad. Por lo que, si bien un atributo observable como la altura puede ser medido con
un único instrumento, variables como la personalidad o la inteligencia no pueden ser evaluadas de la
misma forma. Tal complejidad requiere de la utilización de instrumentos con múltiples ítems como
indicadores de esta variable latente (Lanza, Flaherty y Collins, 2003).

Así pues, una variable atente es el resultado de la combinación lineal de variables observables, por
ejemplo, ítems del test ponderado por unos coeficientes (saturaciones o cargas factoriales) que
determinan el peso relativo de cada variable observable en la creación de la latente. Los valores de
la latente son el resultado, como decíamos, de la combinación de las observables. El uso de este tipo

147
de variables no está exento de determinados riesgos, como la construcción de variables latentes
absolutamente irreales que dan como resultado un artefacto estadístico. Siempre es posible
encontrar un modelo estadístico con alguna combinación lineal entre variables observables para
generar una puntuación en una latente. Otra cosa es definir y saber que ese valor representa
adecuadamente una variable presente en la naturaleza del objeto medido y que por tanto ese valor
empírico dispone de una definición teórica y operacional y correcta que lo avale. Existen múltiples
ejemplos de lo que se ha venido en denominar «falacia nominalista», que consiste en creer que, si
nuestros datos y nuestro criterio nos han permitido poner un nombre determinado a esa variable
latente, ello hace, pero sé que la variable exista y que tenga una correcta definición teórica y
operacional (Loelhin, 1984). A la vista de todo lo anterior, se puede plantear que la mayoría de
variables que los neuropsicólogos forenses utilizan y que se derivan del uso de pruebas psicológicas
baremas, son variables latentes. Esto hace que se definición no esté solamente en ellas mismas,
sino en aquellas observables que las definen.

Escala, cuestionario, entrevista y test

Los científicos del comportamiento deben obtener constantemente estimaciones cuantitativas de las
características que poseen los individuos o grupos, concepto que reciben el nombre de medidas
(Clack-Carter, 2002). Entre las herramientas de medición más utilizadas en psicología se puede
distinguir entre:

Test o prueba psicológica

De acuerdo con la visión de Cronbach (1998), un test es un procedimiento sistemático que permite la
observación de la conducta a fin de describirla con la ayuda de escalas numéricas o categorías
establecidas. Anastasi y Urbina (1998) enfatizan que es una medida objetiva y estandarizada de esta
conducta, a la que se puede añadir un soporte de argumentos lógicos, teóricos y empíricos sólidos
(Viladrich, 2005). Para conseguir esto, el evaluador tiene que recoger la información preguntando u
observando a las personas de mismo modo. Una forma de hacerlo es presentando a los individuos
bajo estudio, un conjunto de estímulos construidos (llamados también reactivos) a los que tienen que
responder de una forma u otra. Las respuestas permiten al que aplica la prueba asignar
calificaciones o números a los individuos, de modo que indiquen el grado en que los sujetos poseen
el atributo o el grado en que «saben» lo que está haciendo sometido a prueba en comparación con
los otros evaluados.

148
Escalas

La expresión «escala» hace referencia a un conjunto de procedimientos creados por la investigación


social para «medir» determinadas variables individuales o grupales. En las ciencias del
comportamiento, la traducción de estos constructos al lenguaje de la investigación empírica no es
simple, ya que en esencia son propiedades que no es posible observar directamente sino sólo
apreciar sus comportamientos o sus opiniones, que se derivan de la propiedad subyacente y que
están influidos por está (Corbetta, 2007). La técnica de las escalas sirve para conseguir este objetivo
de forma más sistemática y formalizada. Por ello, se asume que representa un conjunto coherente y
orgánico de indicadores de ítems de un constructo determinado. La combinación de estos
indicadores nos permite obtener una puntuación que estima la posición de cada sujeto respecto al
constructo evaluado. Cualquiera de los cuestionarios habituales sirve de ejemplo de este tipo de
aproximaciones, basadas fundamentalmente en una métrica ordinal y que «posiciona» al sujeto
medido, pero difícilmente le asigna un valor empírico que representa una buena aproximación a la
intensidad del rasgo medido. El resultado final de la escala es una puntuación que se basa en las
respuestas individuales y que se asigna a cada uno de los sujetos que responden al instrumento.

Cuestionario

Tal vez el instrumento más utilizado para recolectar los datos sea el cuestionario. Consiste en un
conjunto de preguntas respecto a una o más variables a medir. El contenido de las preguntas de un
cuestionario puede ser tan variado como los aspectos que mida. Básicamente podemos hablar de
dos tipos de preguntas: abiertas y cerradas. Las preguntas cerradas contienen categorías o
alternativas de respuesta que han sido delimitadas a priori por el investigador, es decir, se presenta a
los sujetos las posibilidades de respuesta y ellos deben elegir la opción que describa más
adecuadamente su contestación. Pueden ser dicotómicas o incluir varias alternativas. Por su parte,
las preguntas abiertas no delimitan de antemano las alternativas de respuesta por lo que el número
de categorías de respuesta es muy elevado; en teoría, es infinito (Corbetta 2007).

Entrevista

Corresponde a otra herramienta ampliamente utilizada en el proceso de evaluación psicológica.


Busca recopilar información del o los entrevistados a través de un proceso de comunicación
bidireccional directo (cara a cara), en el que existe una asignatura de roles (entrevistador y
entrevistado) con una relación asimétrica y que tiene objetivos prefijados (Corbetta, 2007; Anastasi y
Urbina, 1998; Fernández, 1993).

149
En general, diversos autores están de acuerdo en que las ventajas que tiene la entrevista con que
permite: 1) la observación directa de la conducta verbal y el comportamiento social del evaluado; 2)
una relación interpersonal; 3) conocer información relevante e idiosincrásica del comportamiento del
evaluado así como de sus particulares historias conductuales; 4) proporcionar información sobre la
conducta encubierta del sujeto; 5) suministrar una amplia cantidad de información en poco tiempo, 6)
proporcionar información sobre la génesis, mantenimiento y asociaciones idiosincrásicas de
estímulos en la historias de los evaluados; 7) discriminar entre la información relevante de la que no
lo es, ofreciendo la oportunidad de explotar áreas de mayor relevancia y 8) es una técnica de gran
flexibilidad y útil para múltiples propósitos.

Un último comentario en torno a los distintos tipos de instrumentos de medida. Asistimos con
frecuencia a la confusión entre ellos, especialmente entre el uso de escalas y cuestionarios. Es
habitual que se otorgue a los cuestionarios las propiedades métricas de las escalas. De hecho, hasta
podría ser justificable en el ámbito forense puesto que lo que se persigue por parte de los peritos es
la máxima contundencia en las aseveraciones, de forma que se asignan las propiedades de la escala
psicológica propias de los test neuropsicológicos baremados a simples entrevistas o cuestionarios
ordinales. Pues bien, confundir estos conceptos implica cometer un grave error que tiene las
siguientes consecuencias:

–Aumenta el error de medición, puesto que se asume que éste es el propio de un test, cuando el
sistema de construcción de un cuestionario es distinto.

–Se asume una métrica que no existe y por tanto se da pie a un posible artefacto.

–Se exceden las propiedades de generalizabilidad de los cuestionarios, dándoles más potencia de la
que realmente tienen.

–Se obvian las limitaciones de las propias pruebas psicológicas.

–Se dejan de lado las consideraciones éticas en el uso de las pruebas psicológicas.

Parece claro que, a la vista de lo anterior, la recomendación que puede hacerse desde el ámbito
metodológico es mantener una posición prudente y rigurosa ante los instrumentos de evaluación no
estandarizados y conocer con detalle los límites de la psicometría para no incurrir en falsas
interpretaciones y en atribuciones incorrectas a las medidas psicométricas.

150
Fiabilidad

Como todas las medidas, los test neuropsicológicos no son completamente perfectos en su precisión,
por lo que los puntajes de un test tienen que ser vistos como una estimación de los atributos o
funciones que se desea medir, pero asociada con algún grado de error en la medición. Cuando se
utiliza un test se pretende que el error sea el mínimo posible. En este sentido, la psicometría ha
intentado cuantificar e informar a los usuarios de los instrumentos acerca del error de medición para
mejorar la toma de decisiones (Gempp, 2006).

En psicometría, el concepto de fiabilidad está estrechamente ligado a la teoría clásica de los test, que
constituye el fundamento técnico de la mayoría de los test neuropsicológicos conocidos. No obstante,
la psicometría contemporánea ha planteado nuevas formas como el paradigma de la variable latente
la teoría de la respuesta al ítem (Gempp, 2006). De acuerdo con los planteamientos de este primer
modelo, la medición de cualquier fenómeno se conceptualiza con la siguiente formula básica:

𝑋 = 𝑉+𝐸

Donde «X» representa los valores observados (resultados disponibles), «V» los valores verdaderos y
«E» el grado de error en la medición. Cuanto mayor sea el error al medir, más se alejará del valor
real o verdadero el valor que observemos. Por ejemplo, si estamos midiendo la atención sostenida de
una persona y esta medición está contaminada por un grado de error considerable, la atención
registrada por el instrumento será muy diferente a la atención real que tiene esa persona.

Ahora bien, el término error se basa en múltiples fuentes de variabilidad que pueden afectar a las
puntuaciones en un test y no en la noción de equivocación. Lo que puede ser considerado varianza
del error en una aplicación puede ser considerado como parte del puntaje verdadero en otra,
dependiendo del constructo que está siendo evaluado, la naturaleza del test empleado y si el
propósito de la evaluación es relevante o no (Anastasi y Urbina, 1998).

Así, la fiabilidad de un test es la precisión con que el test mide el constructo que se pretende medir,
en una población determinada y en las condiciones normales de aplicación (Anastasi y Urbina, 1998;
Aiken, 1996). Como sostiene Kerlinger (1975), si las pruebas y las escalas no son fiables, las
predicciones que hagamos con ellas son inútiles y además peligrosas, ya que pueden alterar
nuestras conclusiones sobre los atributos que estamos evaluando, así como la relación entre
distintos atributos.

Los índices de fiabilidad señalan el monto en el que las medidas del test están libres de errores no
sistemáticos. Planteando de otro modo, es la proporción de la varianza observada la que puede ser
atribuida a la varianza del puntaje verdadero y no de error.
151
Es importante mencionar que podemos tener un instrumento que sea muy fiable pero que no
necesariamente sea válido.

Tipos de fiabilidad

Al igual que la validez, un test no sólo cuenta con una medida de fiabilidad. Por el contrario, se puede
señalar que tiene diferentes tipos que dependerán de cómo el instrumento sea utilizado. Por ejemplo,
una prueba puede ser muy fiable en población de sujetos adultos normales, pero muy poco fiable en
niños o personas con enfermedades neurológicas. La fiabilidad puede ser definida de varios modos;
por ejemplo, como consistencia interna, como consistencia a través del tiempo o estabilidad de la
medida, como consistencia entre formas alternativas o equivalencia de la medida y como
consistencia entre evaluadores.

La fiabilidad por consistencia interna refleja el grado en el que los diferentes ítems del instrumento
miden, en la misma proporción, el atributo o dominio cognitivo. La estimación de la consistencia
interna se realiza a través de la correlación entre los ítems del test. Este procedimiento genera una
estimación del puntaje verdadero asociado al error estándar de la medición (Nunnally y Berntein,
1995).

La fiabilidad test-retest es también conocida como estabilidad de la medida, y provee una estimación
de la relación entre los puntajes de un mismo test administrado en dos momentos diferentes. Así,
una prueba con una buena estabilidad temporal debe mostrar poco cambio a lo largo del tiempo, por
lo que no existirán efectos, diferencias o intervinientes que modifiquen significativamente el atributo
que está siendo evaluado. Ahora bien, la medición de aspectos dinámicos o habilidades cambiantes
producirá medidas de fiabilidad más bajas que las que evalúen elementos estables (Nunnally y
Bernstein, 1995). Es decir, la evaluación temporal de los fenómenos dinámicos comporta que las
sucesivas medidas presenten lo que se denomina «regresión a la media». Este efecto implica que las
mediciones reiteradas reducen la variabilidad de las mismas y generan distribuciones más centradas
en la media. Si no se tiene en cuenta este efecto, pueden darse interpretaciones erróneas ante lo
que no es más que un efecto de las propias distribuciones.

Un instrumento tiene un número infinito de posibilidades de evaluar la fiabilidad test-retest, ya que


depende de la cantidad de tiempo que se considere adecuada como intervalo entre la primera y la
segunda evaluación. No obstante, el intervalo puede afectar el coeficiente test-retest dependiendo de
la función que se está evaluando, así como el tipo de individuos que se evalúa, ya que existen
grupos de personas que muestran ser más variables que otros a lo largo del tiempo. Por ejemplo, las
puntuaciones ante un test en pacientes con TCE pueden variar más en fases agudas que en fases

152
postagudas. Por ello se recomienda que la estimación de la fiabilidad provenga de individuos sanos y
población clínica en la que la prueba desea utilizarse.

Fiabilidad como equivalencia de la medida o formas paralelas. En este procedimiento se


administran dos o más versiones equivalentes de instrumentos que son similares en contenido,
instrucciones, duración y otras características. Las versiones son administradas al mismo grupo de
sujetos dentro de un mismo período de tiempo, por lo que el instrumento muestra, a través de su
fiabilidad, si la correlación entre los resultados de ambas administraciones es significativamente alta,
lo que demuestra que los patrones de respuesta varían poco entre las aplicaciones.

La fiabilidad inter-evaluadores tiene que ver con los sistemas de medición que suponen cierta
cantidad de juicio de los investigadores. Por ejemplo, en la figura compleja de Rey, los evaluadores
deben otorgar una puntuación de 0, 1 o 2 a la figura realizada por cada sujeto, dependiendo de
diversos factores (presencia, localización, calidad). Por tanto, este procedimiento corresponde a la
comprobación de que dos o más jueces sean capaces de clasificar el mismo comportamiento de
igual manera. Esta puede ser evaluada utilizando el porcentaje de acuerdo a un índice Kappa, una
correlación producto-momento de Pearson o un coeficiente de correlación interclase (Clark-Carter,
2002).

Otra estimación derivada de la teoría clásica de los test en relación al concepto de fiabilidad
corresponde al cálculo del error estándar de medida (EEM), tema que será tratado más adelante.

Interpretación del coeficiente de fiabilidad

El coeficiente de fiabilidad puede ser interpretado directamente en términos del porcentaje de la


varianza atribuido a diferentes fuentes. De manera que, con una fiabilidad de 0,85, el 85% de la
Varianza puede ser atribuida al rasgo que está siendo evaluado y un 15% a la varianza de error, por
lo que cuando todas las fuentes de Varianza son conocidas para el mismo grupo, es posible calcular
la varianza del puntaje verdadero (Anastasi y Urbina, 1998).

Slick (2006) señala que una fiabilidad de 0,8 o mayores necesarias para instrumentos que son
utilizados en evaluaciones individuales. Mientras que Nunnally y Bernstein (1995) sostienen que una
fiabilidad de 0,9 es un criterio mínimo para aquellos test utilizados para tomar importantes decisiones
sobre los sujetos, siendo una fiabilidad de 0,95 un estándar óptimo. Esto se fundamenta en el hecho
de que pequeñas diferencias de puntajes se pueden traducir en importantes diferencias en la
precisión de los resultados. Según Muñiz (2005), la fiabilidad como estabilidad de la medida es
adecuada si es Superior O igual a 0.65 у excelente si es Superior o igual a 0,8; la fiabilidad como
equivalencia de la medida es adecuada si es superior o igual a 0,6 y excelente si es superior o igual

153
a 0,8; y la fiabilidad como consistencia interna es adecuada Si es superior o igual a 0,7 y excelente si
es superior o igual a 0,85.

Por otro lado, en base a Slick (2006) el nivel de fiabilidad aceptable para un uso clínico en fases
iniciales puede ser de 0,7 mientras que Burlingame, Lambert, Reisinger, Neff y Dossier (1995)
plantean que la fiabilidad mínima aceptable para los test neuropsicológicos es de 0,8 a 0,9 para la
consistencia interna y de 0,7 en test-retest. En términos de la fiabilidad interna para los test
neuropsicológicos, Cicchetti (1994) ha propuesto que una fiabilidad interna menor a 0,7 es
inaceptable, entre 0,7 y 0.79 es justo, entre 0,8 y 0,89 es buena y superiores a 0,9 excelente. En
tanto que para la fiabilidad inter-jueces, refirió que una fiabilidad por debajo de 0,4 es pobre, entre 0,4
y 0,59 está en el límite, entre 0,6 y 0,74 es buena y excelente entre 0,75 y 1.

Las dificultades que tiene la utilización de instrumentos con una baja fiabilidad dependerán del tipo
de evidencia que se encuentra afectada (consistencia interna, formas equivalentes, inter-
evaluadores, test-retest). Si bien las razones que pueden interferir en ella son de diversa índole, no
profundizaremos en estas temáticas ya que escapa a los propósitos de este capítulo. Para una
revisión más detallada se recomienda revisar autores como Anastasi y Urbina (1998) o Kerlinger
(1975).

Los índices de fiabilidad proporcionan una importante información sobre la calidad de las
puntuaciones arrojadas por un instrumento, las cuales bien utilizadas permiten afinar las
conclusiones obtenidas en una evaluación. Sin embargo, el efecto que puede tener el uso de test
neuropsicológicos con una baja fiabilidad o una elevada tasa de error en la práctica forense puede
ser muy arriesgado, con graves repercusiones en términos judiciales, sociales y económicos. Por
ejemplo, un neuropsicólogos forense pretende evaluar las capacidades visuoconstructivas de una
persona en el contexto de una demanda por daños y secuelas, para lo que se apoya en un test que
posee una baja consistencia interna (a = 45). Un evaluador inexperto podría rápidamente llegar a la
conclusión de que el resultado se encuentra dentro de un determinado parámetro de funcionamiento,
como si los resultados del test fueran ajenos a errores en la medición. No obstante, las
consecuencias de utilizar este instrumento se pueden traducir en que el instrumento sea poco
preciso para medir visuoconstrucción y, por ende, también las conclusiones a las que llegue el
profesional, ya que las puntuaciones estarán interferidas por otros factores (varianza del error). Es
decir, si esta misma persona Volviera a ser evaluada con este mismo test, existe la posibilidad de
que el resultado obtenido fuera muy distinto, independientemente de que hubiera o no sufrido un
cambio de magnitud en la capacidad visuoconstructiva.

154
Validez

La validez se refiere al grado en el que un instrumento evalúa lo que realmente pretende o quiere
medir (Nunnally y Bernstein, 1995). Corresponde a un aspecto técnico del desarrollo de un test y es
uno de los criterios más importantes para valorar si el resultado obtenido en un estudio es el
adecuado o qué test es el apropiado para medir un atributo en un contexto determinado (Kerlinger,
1975; Berent y Swartz, 1999; Slick, 2006). De manera que el neuropsicólogo tiene que estar
familiarizado con este concepto, conocer cómo puede utilizarlo para evaluar los diferentes
instrumentos neuropsicológicos y saber cómo puede afectar a los resultados obtenidos.

De acuerdo con Santisteban (1990), es importante evitar caer en la tentación de construir modelos de
validez en los que el único propósito es que la estética formal sea atrayente por sus formulaciones
matemáticas. Validar el modelo que sustenta un instrumento implica darle legitimidad a través de la
evidencia empírica de los supuestos teóricos que respaldan la suficiencia y lo apropiado de las
interpretaciones en base a los puntajes de las pruebas (Kane, 2001; Linn, 1997). De manera que la
validez de una prueba es resultado de la acumulación de evidencias y supuestos teóricos que se dan
en un proceso evolutivo que comprende todas las cuestiones experimentales, estadísticas y
conceptuales por medio de las que se evalúan las hipótesis y teorías científicas (Messick, 1995;
Nunnally y Bernstein, 1995).

Se puede obtener una variedad de evidencias de las puntuaciones producidas por un test dado,
siendo diversas las maneras de acumular estas evidencias para apoyar una inferencia específica, por
lo que cuando se estima la validez de un instrumento es necesario saber hasta dónde se
corresponden las posiciones de los individuos en la distribución de los puntajes obtenidos con
respecto a sus posiciones en el continuo que representa la variable criterio. El índice resultante de
este procedimiento es lo que se denomina coeficiente de validez. En términos estadísticos la validez
se define como la proporción de la varianza verdadera, que es relevante para los fines del examen.

Tipos de evidencia

Los modelos sobre validez son diversos, siendo el más frecuente el tripartito, en el que la validez
es clasificada de tres maneras: validez de contenido, validez de criterio y validez de constructo
(Anastasi y Urbina, 1998; Mitrushina, Boone, Rasan y D"Elia, 2005; Nunnally y Bernstein, 1995).
Para la American Educational Research Association (AERA), de la American Psychological
Association (APA) y de la National Council on Measurement in Education (NCME) (1999), la
validación ideal de cualquier instrumento requiere del estudio de diversas facetas (validez de
contenido, de proceso de respuesta, de estructura interna, de relaciones con otras variables y

155
consecuencial). La calidad de la validez resulta fundamental, por lo que es preferible contar con una
evidencia de una sola línea que con numerosas fuentes que carecen de la suficiente calidad.

La validez de contenido busca determinar en qué medida los Ítems de un instrumento son
representativos del dominio o universo de contenido del atributo que se desea medir. Por ejemplo,
para medir la memoria es necesario que un instrumento incluya reactivos sobre memoria visual,
memoria verbal, tareas de reconocimiento, de evocación inmediata y diferida, etcétera. El mayor
inconveniente de este tipo de validez es la dificultad para extraer muestras aleatorias de reactivos de
un universo de contenido (que existe sólo conceptualmente). Por último, y a diferencia de los otros
tipos de validez que generalmente son expresados de manera cuantitativa, el procedimiento que
comúnmente se emplea para determinar la validez de contenido es a través del juicio de expertos
(Berent y Swartz, 1999).

El segundo tipo corresponde a la validez de criterio, que consiste en la comparación de los puntajes
de un instrumento (variable independiente) con una o más variables externas (variables
dependientes) denominadas variables criterio. Este tipo de validez opera bajo el supuesto de que
estos criterios están teóricamente relacionados con el rasgo que el instrumento quiere medir. La
relación entre los puntajes de la variable en estudio y la variable criterio se expresa a través de un
coeficiente de correlación, el cual se interpreta como un índice de validez. Dentro de la validez de
criterio algunos autores han diferenciado dos subtipos: validez concurrente y validez predictiva. La
principal diferencia entre estos dos conceptos está en el momento temporal en el que se evalúa el
criterio externo, es decir: la validez concurrente correlaciona las puntuaciones del test en estudio con
aquéllas obtenidas de un instrumento que representa un criterio para el atributo (goldstandard), en
tanto que la validez predictiva pretende determinar el desempeño futuro de una persona en el criterio
externo a partir de la ejecución actual en el instrumento que se está estudiando. La mayor dificultad a
la que se enfrenta este tipo de validez es la obtención de criterios apropiados para validar una
prueba, ya que en algunos casos existen criterios múltiples, como también pueden existir los
predictores múltiples,

El tercer tipo de validez es la llamada validez de constructo, que examina hasta qué punto un
indicador mide adecuadamente el concepto. Los indicadores son las características observables que
son evaluadas a través de los ítems del instrumento en estudio. De acuerdo con Slick (2006), la
validez del constructo es útil cuando se pretende utilizar el desempeño de los sujetos en el
instrumento para inferir la posesión de ciertos rasgos o cualidades psicológicas. De manera que es
necesario que exista una conceptualización clara del atributo en estudio en relación con una «teoría»
determinada, la cual permitirá formarse la idea de cómo se manifiesta el atributo, así como las tareas
156
que son las apropiadas para evaluarlo. Cronbach (1972) sugirió tres pasos para establecer la validez
de constructo: a) identificar las construcciones que pudieran explicar la ejecución en el instrumento;
b) formulación de hipótesis comprobables a partir de la teoría que enmarca a cada construcción y c)
recopilación de datos para probar estas hipótesis. Campbell y Fiske (1959) sostienen que también se
pueden formular y evaluar hipótesis que planteen relaciones con otras variables en las que
teóricamente: a) es esperable encontrar una correlación positiva con el constructo en estudio, lo que
comúnmente se conoce como validez convergente y b) no es esperable encontrar ningún tipo de
relación con el constructo, conocida también como validez discriminante. Aunque los conceptos de
sensibilidad y especificidad pueden estar relacionados con la validez convergente y discriminante
respectivamente, no serán tratados en este apartado, sino con mayor profundidad en la sección de
clasificación estadística de los diagnósticos neuropsicológicos. De hecho, son dos conceptos
relacionados con la validez de criterio cuando el criterio externo es dicotómico y las puntuaciones del
test se dicotomizan para realizar un diagnóstico, por ejemplo, si padece demencia tipo Alzheimer o
no.

Qué garantiza la validez de un instrumento

La validez de un instrumento no depende exclusivamente de que los autores que lo diseñaron hayan
cumplido con los estándares necesarios para asegurar que sus resultados sean consistentes con los
objetivos para los que fue construido. Tal como menciona Prat iSantaolaria (2005), la responsabilidad
de los autores acaba donde empieza la de los usuarios. En este sentido, el usuario del test también
es responsable de conocer la validez de un test, así como estimar en qué medida estos instrumentos
son válidos para evaluar los objetivos que pretende conseguir (Anastasi y Urbina, 1998). Por
ejemplo, puede ocurrir que los autores de un test hayan explicitado adecuadamente cómo han de
interpretarse los resultados obtenidos de su aplicación y que un determinado usuario interprete las
puntuaciones más allá de las limitaciones del mismo, o que apliquen el test a una población para la
que no fue diseñado. Estos errores suelen deberse a la falta de información o formación de las
personas que utilizan los test, lo que en la toma de decisiones en el ámbito jurídico puede tener
enormes repercusiones.

Por lo tanto, es importante tener en cuenta que, a la hora de interpretar la validez de un test, éste
depende de numerosos factores como el procedimiento de construcción utilizado y la evidencia
empírica que apoya sus resultados, las condiciones en que es utilizado, el objetivo que éste persigue
cuando se utiliza y la población a la que se pretende evaluar. Esto hace que, posiblemente, un
mismo test sea muy válido en determinadas circunstancias pero que no lo sea en otras.

157
En términos prácticos, una violación de la validez puede traducirse en que el instrumento mida un
constructo distinto del previsto, que evalúe sólo una pequeña porción del atributo, que muestre sesgo
para diagnosticar a los sujetos -las tasas de falsos positivos y verdaderos negativos serán elevadas-
o que no discrimine entre sujetos con diferentes tipos de patologías, etcétera.

Diversos autores se han pronunciado respecto a las consecuencias de una baja validez o los sesgos
que pueden tener los test (Messick, 1995). En la actualidad, la evaluación de las consecuencias
sociales del uso de los test se ha considerado como una fuente más de evidencia de la validez. Esta
corriente ha surgido como la respuesta consensuada entre los profesionales a la preocupación sobre
estos temas, llegando incluso a conformar parte de los últimos estándares de la AERA, APA y
NCME. Ahora bien, es deseo de los profesionales centrarse en temas como la «baja representación
del constructo» o la presencia de «fuentes irrelevantes de varianza» para decidir cuándo las
consecuencias sociales de la utilización de una determinada prueba neuropsicológica amenazan su
validez (Padilla, Gómez, Hidalgo, Muñiz, 2006; Crocker, 1997).

Error estándar de medición y error estándar de estimación

En el contexto de la evaluación, el concepto de error de medida se refiere a un componente que está


presente en todo proceso de medición. Este concepto se define como la desviación respecto del
valor real e indica que una prueba no sólo evalúa el atributo que se pretende medir sino también
factores distintos para los propósitos que fue construida, o que existe mucho error en la medición
(Anastasi y Urbina, 1998).

Se pueden distinguir dos tipos de errores: el error sistemático y el error aleatorio. El primero
corresponde a las desviaciones del valor real que el instrumento aporta siempre en el mismo sentido.
Generalmente se origina en el proceso de construcción del instrumento, pudiendo controlarse y
predecirse a través de modificaciones en el mismo instrumento. El segundo tipo de error no es
predecible, y dada su naturaleza, no podrá eliminarse totalmente, por lo que lo único que es posible
hacer es minimizarlo (Corbetta, 2007, Slick, 2006).

Como se mencionó en el apartado de la fiabilidad, un aspecto relevante en la obtención de evidencia


empírica se refiere al procedimiento de cómo un error de la medición puede influir en la interpretación
de las puntuaciones que obtiene una persona en una prueba. En este sentido, la fiabilidad de un
instrumento puede expresarse en términos del error estándar de medición (EEM), que corresponde a
la desviación estándar de la distribución de las puntuaciones de error asociadas a las puntuaciones
observadas en una medición cualquiera. Esta medida puede usarse para encontrar el intervalo de
confianza dentro del que es posible identificar la puntuación verdadera de una persona evaluada con

158
un test. Una de las características más útiles del EEM es que el valor del coeficiente está expresado
en las mismas unidades de escala que las puntuaciones del test, lo que permite su interpretación
directa. En este sentido, un EEM= 5,87 equivale a un error estándar de medida de 5,87 puntos en el
test que estamos utilizando. Por otro lado, el error estándar de la estimación está relacionado con la
validez de criterio y puede considerarse como un indicador del grado de precisión con que la
ecuación de regresión describe la relación entre las puntuaciones en el test y las puntuaciones en el
criterio externo (Slick, 2006).

Barenación o estandarización

La puntuación directa que una persona obtiene en un determinado test no nos dice mucho respecto
de su posición y el grado en que posee la variable; de manera que las puntuaciones deben
interpretarse siempre desde un marco de referencia claro y en relación a un parámetro con el cual
comparar el puntaje. A este parámetro habitualmente se le denomina norma, y se refiere a la
estandarización que se hace de un desempeño objetivo de una muestra representativa en la prueba
(Slick, 2006). En este sentido, la norma es la que nos permite situar el desempeño del sujeto en
relación con un grupo de referencia a fin de saber si su rendimiento es similar al del promedio, si está
ligeramente por debajo, arriba de éste o si se encuentra cerca de alguno de los extremos de la
distribución. Para esto debemos transformar la puntuación del sujeto en una medida relativa, la cual
nos permita comparar directamente diferentes individuos; esto es lo que conocemos como un
baremo (Vall-Llovera, 2005). Ahora bien, toda norma siempre se restringe a la población normativa
particular de la que se tomó la muestra (Anastasi y Ur. bina, 1998).

La baremación de un instrumento exige que la población de referencia utilizada cumpla con dos
criterios fundamentales: representatividad y homogeneidad. De lo contrario, se afecta la
generalización de las conclusiones derivadas a partir de las pսոtuaciones de un test.

En términos generales pueden distinguirse dos tipos de normas: aquéllas que comparan al Sujeto
con un patrón de desarrollo normal -también llamadas normas de desarrollo-, y aquellas que lo
evalúan en términos del desempeño de su grupo -normas intragrupo-. Las primeras sostienen que
las puntuaciones de los Sujetos adquieren sentido al indicarnos cuánto ha progresado la persona en
referencia al patrón de desarrollo normal para su etapa evolutiva. Son típicas de este tipo de normas
las pruebas que evalúan inteligencia y aquellas que se enfocan en el cumplimiento de las etapas del
desarrollo evolutivo de los sujetos. Las normas intragrupos comparan el rendimiento del sujeto con el
desempeño medio de su grupo de referencia, ubicándolo dentro del continuo definido por dicha
muestra normativa (Anastasi y Urbina, 1998; Santisteban 1990). Autores como Martínez Arias (1995)
prefieren distinguir entre normas nacionales, que son elaboradas a partir de muestras representativas
159
a nivel nacional y que contienen características que influyen en la interpretación de los resultados; las
normas locales, que se obtienen a partir de núcleos que representan una subpoblación concreta y,
finalmente, las normas de usuario, que se extraen a partir de una población definida para el usuario
del test.

Como ya habíamos mencionado, es frecuente que transformemos las puntuaciones directas que
obtenemos en un test para facilitar la comunicación de los resultados. En este sentido, es factible
distinguir distintos tipos de transformaciones. Sin embargo, nos centraremos sólo en las de mayor
uso en neuropsicología.

Puntuaciones estandarizadas

Los datos se pueden transformar teniendo en cuenta la variabilidad del grupo, de manera que no
solamente se consideran las puntuaciones y su distancia respecto a la media, sino que también
queda asociado a un valor de variabilidad. Entre los valores más conocidos se encuentran las
puntuaciones Z. Ty el Ql.

Centil

La evaluación de muchos de los atributos neuropsicológicos y sociales debe realizarse en función de


estándares construidos sobre el cálculo de percentiles o centiles (según su más actual aceptación).
Corresponden a puntos estimativos de una distribución de frecuencias, que permiten ubicar un
porcentaje dado de individuos por debajo o por encima de ellos (Slick, 2006). Existe el acuerdo de
numerar los centiles según el porcentaje de individuos existentes por debajo de ellos y no por
encima.

La utilidad de los percentiles surge de las dificultades que aparecen al determinar la variación y
límites de normalidad de un parámetro dado. Por ejemplo, si estamos interesados en conocer si un
niño de 5 años tiene un desarrollo psicomotriz dentro de la normalidad, es necesario que
conozcamos cuál es el grado de desarrollo de la población de niños normales a los 5 años, para lo
cual tendremos que recoger una muestra representativa de niños de esa edad y evaluar su grado de
desarrollo psicomotriz. Entonces podremos observar que no todos los niños tienen igual desarrollo
psicomotriz a pesar de que todos tienen exactamente la misma edad, es decir, que existe una
variación normal del desarrollo para una edad determinada, en la que la mayor cantidad de niños se
concentra alrededor de los valores medios y menos hacia los dos extremos (Superior e inferior). No
obstante, existen niños que presentan valores que se encuentran fuera de estos márgenes, lo que en
cierta medida puede considerarse como anormal desde un criterio puramente estadístico. El valor
que divide la muestra en dos mitades iguales, es decir, el 50% de los individuos con un mayor

160
desarrollo psicomotriz y el otro 50% con menor desarrollo, es llamado mediana o centil 50. Mientras
que el valor que divide a la población en un 75% por debajo y un 25% por encima, corresponde al
centil 75.

Dos aspectos importantes a considerar en la interpretación de los percentiles son: a) no existe una
relación lineal entre las puntuaciones estandarizadas (por ejemplo, los puntajes z) y los percentiles;
b) las diferencias entre dos percentiles pueden tener implicaciones clínicas si es que los puntajes
Caen en los extremos de la curva más que si caen en la parte media de la distribución (Slick, 2006).

Sensibilidad y especificidad

Mediante los indicadores diagnósticos se pretende medir el grado de validez o seguridad de una
determinada prueba diagnóstica (Steiner, 2003). Para determinarla se debe comparar la prueba que
estamos estudiando con otro test de probada eficacia en el diagnóstico de la enfermedad estudiada o
con el diagnóstico real, en el caso de que pueda ser conocido. Una prueba diagnóstica es
considerada de buena calidad si es capaz de clasificar correctamente a los sujetos a los que se
aplica, dando resultados positivos en las personas que poseen la condición y negativo a las personas
que no la poseen (Slick, 2006; Steiner, 2003).

Cuando se estudia una muestra de pacientes a los que se les ha aplicado la prueba diagnóstica y de
los que se conoce su clasificación en algún estándar de comparación o su diagnóstico real, podemos
agrupar a los sujetos en cuatro grupos según una tabla de 2x2. En ésta se cruza el resultado de la
prueba diagnóstica, ubicado en las filas, con el estado o diagnóstico real de los pacientes, ubicado en
las columnas. Por lo tanto, disponemos de una distribución conjunta de ambas variables, que estaría
identificada por las frecuencias observadas en las casillas de la tabla, así como de las distribuciones
marginales respectivas. Véase la tabla l:

Tabla 1. Clasificación de pruebas diagnósticas: frecuencias observadas y marginales

DIAGNOSTIGO REAL

RESULTADOS ENFERMO SANO TOTAL


PRUEBA
DIAGNOSTICA

Positivo Verdaderos positivos Falsos positivos (A + B)


(A) (B)

Negativo Falsos negativos Verdaderos negativos (C + D)

161
(C) (D)

Total (A + C) (B + D) Total

El análisis de la validez de la prueba diagnóstica puede obtenerse calculando los valores de


sensibilidad y especificidad.

Sensibilidad

Es el valor de la capacidad de una prueba diagnóstica para detectar una determinada condición, que
para nuestros efectos puede ser una enfermedad o la posesión de algún atributo neuropsicológico.
Este valor se calcula obteniendo la proporción de individuos que han tenido un resultado positivo en
la prueba diagnóstica sobre el total de sujetos con un diagnóstico real de la condición en estudio
(Steiner, 2003; Vall-Llovera, 2005).

𝐴
𝑆=
𝐴+𝐶
Una prueba con un elevado grado de sensibilidad es aquella que tiene una proporción baja de falsos
negativos.

Especificidad

Es un índice que complementa la información proporcionada por la sensibilidad y que indica la


proporción de sujetos con un resultado negativo en la prueba diagnóstica y que, efectivamente, no
poseen la condición o el atributo en el diagnóstico real (Steiner, 2003; Vall-Llovera, 2005).

𝐷
𝐸=
𝐵+𝐷
Una prueba diagnóstica muy específica raramente otorga diagnósticos positivos a individuos sanos,
es decir, detectará pocos falsos positivos.

Idealmente, una prueba diagnóstica debiera tener ambos indicadores elevados, pero ello no siempre
es posible. No existen pruebas estadísticas que permitan definir un valor de sensibilidad y
especificidad óptimo (Smith, Ivnik, Lucas, 2008). De hecho, intentar elevar el nivel de sensibilidad de
una prueba redunda en una disminución de su especificidad y viceversa (Slick, 2006). Las pruebas
que poseen una alta sensibilidad se presentan como útiles para evaluaciones preliminares cuando
existen varias posibilidades diagnósticas y no se puede permitir la pérdida de ningún caso que
presente la condición, por ejemplo, en los test de Screening para detectar la presencia de deterioro
cognitivo. Por el contrario, las pruebas de elevada especificidad son útiles para la confirmación de

162
diagnósticos, sobre todo en situaciones donde los falsos positivos no sean deseables por las
consecuencias que puedan tener para el Sujeto o las instituciones en las que se detecta un falso
positivo -por ejemplo, en las pruebas de simulación (Bury y Bagby, 2002).

A modo de ejemplo, en el contexto de las incapacitaciones civiles debido a la presencia de


enfermedades neurodegenerativas como es el caso de la enfermedad de Alzheimer (EA), una de las
pruebas que puede ser utilizada para realizar el diagnóstico de EA probable, acompañando al
diagnóstico neurológico y la exploración neuropsicológica, es el SPECT. La investigación a través de
esta técnica ha mostrado que los hallazgos de hipoperfusión parietotemporal permiten discriminar
entre pacientes con EA y sujetos controles. De acuerdo al estudio de Johnson, Kijewski, Becker,
Garada, Satliny Holman (1993), al aplicar esta prueba en una muestra de 107 sujetos (29 con EA y
78 controles) se encontró que la sensibilidad fue del 93% y la especificidad del 86%, tasas que son
bastante elevadas para la detección de la enfermedad, ya que en 27 de 29 los resultados de la
prueba permiten identificar la enfermedad y en 67 de 78 es capaz de descartarla, lo que implica que
el 7% de los casos que efectivamente tenían EA fueron clasificados incorrectamente por el SPECT.

Curva ROC

El análisis ROC es un acrónimo que proviene del término inglés Relative Operating Characterístic, o
en algunos otros casos Receiver Operating Characterístic. Se corresponde con una metodología
desarrollada en el seno de la teoría de la decisión durante los años 50, aplicación motivada por
problemas prácticos en la detección de señales por radar. La aparición del libro de Swets y Pickett
(1982), Evaluation of diagnostic systems: methods from signal detection theory, produjo el comienzo
de su difusión en el ámbito de la biomedicina y de las ciencias sociales (Zweigy Campbell, 1993).

Las curvas ROC son una herramienta básica de medición de la precisión diagnóstica de una prueba
y frente a otras técnicas con objetivos similares presentan ventajas como: a) proporcionar un Índice
de eficacia diagnóstica puro, cualquiera que sea el criterio o punto de corte en el indicador
cuantitativo en que se basa la decisión, medida que resulta muy útil para poder elegir una técnica
entre varias en competencia; b) estima la probabilidad de diferentes resultados en la tabla de toma
de decisiones; de modo que permite aislar causas de error en sistemas diagnósticos (por ejemplo,
falsas alarmas у omisiones) у c) proporciona un indicador de criterio de decisión (punto de corte o
umbral para la toma de decisión), que permite incluir probabilidades (incluso estimaciones subjetivas
de la probabilidad), costos o utilidades (Slick, 2006). Este método permite establecer razonadamente
reglas o mecanismos óptimos de toma de decisión dentro de un sistema de diagnóstico (Jiang, Metz
y Nishikawa, 1996; Burgueño, García y González, 1995).

163
Para conseguirlo anterior, el análisis ROC trata de comprobar la eficacia de un proceso de decisión
entre dos alternativas, analizando los conceptos contenidos en una tabla de doble entrada en la que
se compara el estado real frente al estado «predicho» o «diagnosticado». Supongamos que tanto
para la población sana como para la enferma, la variable de decisión está representada por el
resultado de la prueba diagnóstica aplicada. Posteriormente consideramos un valor arbitrario de la
prueba que denominaremos puntuación de corte. Para cada punto de corte tendremos unos
resultados diferentes con respecto a la predicción que hagamos. Como ya habíamos señalado
anteriormente, la sensibilidad y la especificidad son medidas que están relacionadas y dependen, a
Su vez, del punto de corte que se establezca. Pues bien, la curva ROC representa en un único dibujo
la capacidad discriminativa de todo un sistema, es decir, para cada posible valor de corte (un punto
que separa los sujetos enfermos de los sanos, por ejemplo), se establece la sensibilidad (ordenadas)
y especificidad (abscisas) del test. En base a lo anterior, se dibuja la zona que ese punto genera y
que supone la función de densidad de probabilidad que separa la población enferma de la sana. La
exactitud de la prueba aumenta a medida que la curva se desplaza desde la diagonal hacia el vértice
superior izquierdo. Si la discriminación fuera perfecta (100% de sensibilidad y 100% de especificidad)
pasaría por dicho punto. Por otro lado, si la prueba no permitiera discriminar entre grupos, la curva
ROC sería la diagonal que une los vértices inferior izquierdo y superior derecho.

Valores predictivos

Estos índices se usan para mejorar el grado de predicción de un determinado instrumento. Se


pueden destacar dos indicadores: el valor predictivo positivo (VPP) y el valor predictivo negativo
(VPN). El primero cuantifica la proporción de pacientes que realmente tienen la enfermedad cuando
el resultado de la prueba diagnóstica ha sido positivo (Steiner, 2003). Su expresión de cálculo es:

𝐴
𝑉𝑃𝑃 =
𝐴+𝐵
El valor predictivo negativo cuantifica la proporción de pacientes que realmente no tienen la
enfermedad cuando el resultado de la prueba diagnóstica ha sido negativo (Steiner, 2003). Este
indicador se expresa matemáticamente de la siguiente manera:

𝐷
𝑉𝑃𝑁 =
𝐶+𝐷
Las dos fórmulas planteadas anteriormente son adecuadas si se trata de un estudio retrospectivo.
Ahora bien, si se trata de un estudio prospectivo las fórmulas de cálculo son:

𝑃. 𝑆
𝑉𝑃𝑃 =
𝑃. 𝑆 + (1 − 𝑃). (1 − 𝐸)
164
(1 − 𝑃). 𝐸
𝑉𝑃𝑁 =
(1 − 𝑃). 𝐸 + 𝑃. (1 − 𝑆)

donde P es la prevalencia del trastorno o característica bajo estudio, S la sensibilidad del instrumento
de medida y E la especificidad del instrumento de medida. En este caso, a diferencia de la
sensibilidad y especificidad, los valores predictivos de una prueba diagnóstica no constituyen una
característica intrínseca de ésta, pues dependen no sólo de los valores de sensibilidad y
especificidad, sino también de la prevalencia del conjunto de sujetos evaluados (Slick, 2006; Steiner,
2003).

Apoyándonos en el ejemplo anterior, y bajo la perspectiva de un estudio retrospectivo, la utilización


del SPECT como herramienta de apoyo en la detección de la EA mostró un VPP del 71% y un VPN
del 96%, es decir, en 27 de 38 personas con un SPECT anormal se confirmó finalmente la presencia
de la EA, mientras que fueron 67 de 70 las personas en las que no se encontraron anormalidades en
la prueba, pues efectivamente estaban sanos.

5.2 Conceptos Estadísticos

Estimación poblacional

La inferencia estadística es el proceso que consiste en utilizar los resultados observados en una
muestra (estadísticos) para llegar a conclusiones y estimaciones acerca de las características de una
población (parámetros). Existen diversos procedimientos estadísticos para la estimación de
parámetros y conviene saber, por ejemplo, cuál se ha utilizado cuando se presentan datos de
estimación poblacional. Piénsese, por ejemplo, en el argumento que se usa cuando se compara la
puntuación de un sujeto en un test neuropsicológico con una puntuación poblacional estimada
(estimación de un parámetro). En función de cómo sea esa estimación, la precisión y confianza que
tenga pueden ser variables. Por ejemplo, si el proceso de estimación se ha efectuado con muestras
muy pequeñas, la solidez de la estimación está en entredicho; si el procedimiento de estimación no
ha fijado niveles previos de confianza, el resultado de la estimación contendrá mucho error muestral
(la diferencia entre el parámetro y el estadístico se aleja de 0). Conocer de dónde y cómo se ha
obtenido una estimación estadística puede ser fundamental para garantizar o rechazar
comparaciones entre valores muéstrales y valores poblacionales.

Éstos son algunos de los tipos de estimaciones: las puntuales y las de intervalo. La primera consiste
en el uso del estadístico como estimación directa y única del parámetro. Ahora bien, puesto que los

165
estadísticos varían de una muestra a otra, es necesario considerar una estimación más precisa y
característica de la población, es decir, tener en cuenta que cada muestra tiene su error muestral у
que ese estadístico no se ajusta perfectamente al parámetro desconocido. Ésta es la segunda
posibilidad: la estimación por intervalo que toma en consideración la distribución muestral del
estadístico observado. El intervalo construido tendrá una probabilidad especificada (l-a) para estimar
correctamente el valor verdadero del parámetro de población (Guàrdia, Freixa, Peró y Turbany,
2006).

Veamos un ejemplo práctico de lo anteriormente descrito. Si en un procedimiento forense se efectúa


un análisis de las puntuaciones psicométricas de un grupo de sujetos para mostrar que son distintos
a otro grupo de referencia (por ejemplo, para mostrar diferencias en el rasgo de apego entre padres y
madres en un proceso de litigio por custodia), lo que se hace es establecer las estimaciones
poblacionales de los estadísticos de cada grupo (media de los padres y media de las madres en un
determinado test) y comprobar que ambos intervalos son claramente distintos. Si ese proceso se
efectúa de forma ligera e incorrecta, es obvio que las conclusiones a las que llegue pueden
comprometer todo el procedimiento de peritación.

Significación estadística

Cuando se pretende refutar hipótesis a partir de evidencias empíricas cobra importancia el grado de
significación. Este valor, estimado a partir de la probabilidad asociada a un determinado estadístico
(por ejemplo, un valor de X o a partir del valor obtenido en una prueba de t de Student-Fisher) indica
la probabilidad de que en las mismas condiciones de extracción de esa muestra se obtenga un valor
del estadístico mayor o igual al obtenido. Por tanto, si ese valor es muy cercano al 0indica que ese
estadístico es especialmente significativo y por tanto indica la seguridad en el rechazo de la hipótesis
nula.

Visto desde otra perspectiva, el grado de significación representa además la probabilidad de cometer
falsos positivos (error tipo I), es decir, rechazar nuestra hipótesis nula cuando ésta es verdadera.
Disponemos, pues, del análisis del nivel de confianza que se tiene en que dicho estadístico se
acerque al valor de la distribución muestral (que es el valor de la población o parámetro) no
cometiendo un especial error de inferencia (Greenwald, González, Harris, y Guthrie, 1996; Valera y
Sánchez, 1997).

Sin embargo, es necesario buscar una cercanía lo suficientemente elevada para suponer que tal
diferencia es real y no debida a un error de muestreo. En ciencias sociales se suelen usar algunos
arbitrios en relación a niveles previos de grados de significación: a) un nivel de significación mínimo

166
de 0,05, que implica que el investigador tiene un 95% de seguridad para generalizar sin equivocarse
y sólo un 5% en contra -este valor se corresponde con el máximo grado de error aceptable- y b) un
nivel de significación de 0,01, que implica que el investigador tiene un 99% en su favor para
generalizar sin temor y un 1% en contra. De esta manera, si el resultado del estudio se encuentra en
la región de rechazo se dice que el resultado es estadísticamente significativo, en tanto que, si Su
probabilidad se halla fuera de la región de rechazo, no se considera estadísticamente significativo
(Valera y Sánchez, 1997).

Ahora bien, ésta es una forma algo simple de enfocar la cuestión. La concepción actual del grado de
significación lleva a un análisis algo más aplicado, puesto que no siempre el criterio clínico y el
criterio estadístico coinciden en sus apreciaciones. Es muy fácil mostrar esta cuestión puesto que,
por ejemplo, ante un valor de p=0,052, el criterio estricto de base estadística lleva a que se acepte la
nulidad como hipótesis dominante. ¿Es factible pensar que del 0,049 al 0,052 se modifican tanto las
condiciones del con traste estadístico como para alterar la decisión final y pasar del rechazo de la
hipótesis nula a su aceptación?

Por tanto, las decisiones clínicas basadas exclusivamente en criterios estadísticos pueden ser
excesivamente cerradas y sujetas a criterios estrictos que no se ajusten a la realidad. Por ello,
además del grado de significación es importante atender a indicadores complementarios de
relevancia estadística como el «tamaño del efecto» o el «intervalo de confianza», que darán
información sobre la importancia y precisión de la relación hallada y la variabilidad de los datos y que
ayudarán a dar contexto aplicado a la decisión final a partir de la evidencia empírica.

Potencia de contraste

La probabilidad de aceptar la hipótesis de trabajo cuando ésta es cierta (hipótesis alternativa) es la


potencia de un contraste estadístico, que es lo mismo que el complemento de la probabilidad de
cometer un error tipo II (tiene una probabilidad o de ocurrencia) cuando se toma una decisión
estadística. El error tipo II se simboliza por la letra griega 3. Por lo tanto, el poder de una prueba
quedará definido como 1 - 3. Cohen (1988) considera que un nivel adecuado de potencia en
cualquier contraste estadístico ha de ser superior o igual a 0,8; valores inferiores llevaran a cometer
un error tipo II con gran asiduidad. De todos modos, para poder determinar correctamente la potencia
de un contraste estadístico o, lo que es lo mismo, la probabilidad de cometer un error tipo II es
necesario conocer la distribución muestral a la que se ajusta la hipótesis de trabajo que se está
estudiando, dato que suele ser desconocido en la mayoría de las investigaciones realizadas en el
campo aplicado. En consecuencia, al tomar una decisión estadística, generalmente sólo se conoce el
error tipo I (con probabilidad α) y el grado de significación asociado al contraste. Es por este motivo
167
que además del tradicional valor de p, se considera necesario avalar este valor con otros indicadores
como medidas de tamaño del efecto junto con sus intervalos de confianza asociados (Wilkinson y
The APA Task Force on Statistical Inference, 1999).

De todos modos, cabe comentar que, cuando la distribución de la hipótesis a estudiar no se


diferencia mucho de la distribución bajo la hipótesis nula (existe un elevado solapamiento entre las
dos distribuciones), la potencia del contraste estadístico será muy baja. Sin embargo, no se debe
dejar sólo la decisión a la estadística, ya que a veces pequeñas diferencias a nivel estadístico
pueden tener una gran importancia desde un punto de vista sustantivo y, en consecuencia, para el
neuropsicólogo aplicado y, por ende, para el neuropsicólogo forense.

Tamaño del efecto

Los neuropsicólogos, como otros científicos relacionados con el estudio del comportamiento, han
tendido a centrarse en determinar si un resultado estadísticamente significativo es suficientemente
relevante como para excluir cualquier otra consideración que no sea la que se deriva del contraste
estadístico (Cohen, 1962; Clark-Carter, 1997). Esto tiene una consecuencia importante: el grado de
significación no puede utilizarse como medición de la magnitud del efecto de un test estadístico. Es
decir, dos estudios pueden producir resultados muy diferentes en términos de significación
estadística simplemente porque usaron tamaños de muestra distintos. Cuando la muestra es muy
pequeña, los valores de error estándar aumentan considerablemente y ponen en cuestión el propio
contraste. El tamaño del efecto permite hacer comparaciones dejando de lado aspectos que generan
sesgo como el distinto tamaño de muestra que suelen usar distintos estudios sobre el mismo tópico.

El tamaño del efecto es un índice (en una métrica común que oscila entre 0 y 1) que indica la
importancia de una relación o efecto independientemente del tamaño de la muestra (Cohen, 1988).
Existen varias versiones para medidas del tamaño del efecto (Kirk, 1996; Friedman, 1982; Snyder y
Thompson, 1998). Simplemente a modo de ejemplo, mostramos una aproximación simple en el caso
de la diferencia entre dos medias observadas (Cohen, 1988): la prueba de Cohen:
𝜇1 − 𝜇2
𝑑=
𝜎
Donde

μ1: es la medida de una población

μ2: es la medida de la otra población

σ: es la desviación estándar de ambas poblaciones (dado que se asume que son iguales)

168
En este sentido, des una medida de cuántas desviaciones estándar separan a las dos medias. Es
importante tener en cuenta que si bien es similar a la ecuación para calcular el estadístico z o el
estadístico t de Student-Fisher, la d cumple los requisitos para una medición independiente del
tamaño de la muestra.

Cohen (1988) definió, además, un criterio de interpretación para cada medida del tamaño del efecto.
Básicamente, d hasta 0,2 constituye un efecto pequeño; entre 0,2 y 0,5 un efecto mediano; entre 0,5
y 0,8 un efecto grande y mayor de 0,8 un efecto muy grande.

Para todo neuropsicólogo aplicado, sea forense o no, parece necesario recordar que ninguna prueba
estadística con resultado significativo debe presentarse sin su tamaño del efecto e incluso con el
intervalo de confianza de ese tamaño del efecto (Wilkinson y The APA taskforce on statistical
inference, 1999). La argumentación de la significación estadística no es suficiente aval de relevancia
y efecto. Sin el tamaño del efecto suficiente puede haber relación estadísticamente significativa, pero
no relevante desde la perspectiva forense, ni sustantiva.

El individuo frente al grupo

El entendimiento de conceptos como la fiabilidad y la validez resultan fundamentales en nuestra


disciplina (Anastasi y Urbina, 1998). Tradicionalmente, la estadística descriptiva grupal ha sido
utilizada para caracterizar los conceptos de fiabilidad y validez a través de medidas como la media, la
desviación estándar y, especialmente, los coeficientes de correlación. Aportar este tipo de
información estadística ha constituido un imperativo para los que construyen test (AERA, APA y
NCME, 1999), información que a su vez resulta fundamental para los usuarios que buscan
instrumentos que reúnan elevados estándares de medición.

Los test neuropsicológicos han sido básicamente diseñados como ayuda para elaborar diagnósticos
clínicos. En este sentido, ha sido también una práctica habitual utilizar la estadística de grupos para
realizar inferencias sobre las personas. Sin embargo, de acuerdo con Smith, Ivnik y Lucas (2008)
este enfoque pudiera no ser el correcto. Un ejemplo que puede ilustrar lo que decimos corresponde
al análisis de discrepancias de la escala WAIS (Wechsler, 1999). Éste utiliza un p «0,15 para
establecer que existe discrepancia entre dos puntuaciones de diferentes subescalas. Este criterio de
corte se basó en el error estándar de las diferentes puntuaciones, por lo que esta información revela
que, si hay dos puntajes que son estadísticamente diferentes, lo único que representan es el error de
medición aleatorio.

Esto sólo es cierto si uno asume que todas las personas cognitivamente normales deben tener el
mismo nivel de rendimiento a través de las diferentes capacidades. Sin embargo, numerosos

169
estudios han demostrado que esto no es cierto, incluso para un reducido número de habilidades
como, por ejemplo, las evaluadas por los instrumentos Weschler (Crawford y Allan, 1996, Ivnik,
Smith, Petersen, Boeve, Kokmany Tangalos, 1995; Matarazzo, Daniel, Prifitera y Herman, 1988) en
personas normales que muestran diversos patrones cognitivos. En la tercera edición de las escalas
Wechsler (Wechsler, 1991/1997) se enfatiza la distinción entre diferencias estadísticamente
significativas y diferencia de puntuaciones consignificación clínica, aportando niveles de significación
para varias diferencias de puntuaciones, así como la frecuencia de estas diferencias en la población
general. Por ejemplo, para el WAS-II las diferencias de nueve o más puntos entre el CI verbal y el CI
manual son estadísticamente significativas con un nivel del 0,05. No obstante, aproximadamente el
43% de la muestra utilizada en el proceso de estandarización tuvo diferencias entre estas dos
puntuaciones. De esta manera, muchas de las diferencias estadísticamente significativas
encontradas entre variaciones de puntajes ante un test resultan ser comunes en la población general,
por lo que estas diferencias de puntuaciones no necesariamente son indicativas de una anormalidad
subyacente, como se ha intentado argumentar en ocasiones (Lezak, Howieson, Loring, Hannayy
Fisher, 2004). Esto ilustra el peligro de aplicar las estadísticas derivadas de grupos para tomar
decisiones sobre los individuos.

Quizás indebidamente influenciado por el factor general (g), proveniente de las teorías de las
funciones cognitivas, los clínicos han cometido frecuentemente el error de asumir la significación
estadística como si fuera equivalente a la significación a nivel clínico (Smith, Ivniky Lucas, 2008).

Este tipo de estadísticas también limita la interpretación de los resultados que obtiene un individuo
en un test determinado. Por ejemplo, la correlación test-retest intenta describir cuánto de la variación
observada en diferentes momentos, entre dos puntuaciones de un mismo test, puede ser atribuida a
un error de medida, asumiendo que el constructo neuropsicológico subyacente tiende a ser estable,
por lo que cualquier variación debe ser reflejada como error. En este sentido, muchos fenómenos de
interés clínico no son conceptos estables. Por ejemplo, la memoria muestra variaciones a lo largo de
la edad o en la evolución de un traumatismo craneoencefálico.

Aun cuando este cambio en el tiempo puede ser anticipado, este conocimiento sobre la fluctuación
en la medición por sí solo es insuficiente para realizar inferencias clínicas. En este sentido, es
necesario conocer patrones de variación en población neurológicamente «estable» y «no estable»,
como también lo es la aplicación de estadísticas individuales sobre los cambios en la frecuencia de
las puntuaciones para una determinada persona (Chelune, Naugule, Ludersy Awad, 1991).

La estadística aplicada a la psicometría tradicional, utilizada para establecer evidencia sobre la


validez de un instrumento, también se encuentra limitada para el uso diagnóstico. Por ejemplo, el
170
WMS-III aporta evidencia sobre la validez diagnóstica en base a la comparación de medias de
rendimiento entre diferentes grupos diagnósticos (Alzheimer, Huntington, esclerosis múltiple, TCE,
epilepsia, etcétera). A través de todos estos grupos se han encontrado diferencias significativas
gracias a las medias de los rendimientos. Sin embargo, de acuerdo a lvnik, Smith, Petersen, Boeve,
Kokman y Tangalos (1995) este procedimiento para establecer la validez del instrumento también
posee sus limitaciones, ya que no es particularmente útil para discriminar entre los sujetos de cada
grupo -por ejemplo, cuando se compara con otras herramientas como el análisis de sensibilidad y
especificidad.

En este sentido, la epidemiología ha aportado herramientas que consideramos pueden ser de utilidad
para la neuropsicología (Guàrdia, Peró, Freixa y Honrrubia, 2007), especialmente la utilización de
índices de validez diagnóstica como la sensibilidad, especificidad, odds ratios, los valores predictivos,
la razón de verosimilitud, etcétera.

Atribución causal

Establecer una relación causal entre un antecedente y su correspondiente consecuente debe ser uno
de los sueños de cualquier neuropsicólogo forense. Más allá de los preceptos metodológicos de la
atribución causal (de los cuales hablaremos a continuación), parece lógico pensar que poder afirmar
con rotundidad que A fue la causa de B y que esto es irrefutable definiría una situación ideal donde
las piezas encajan como en un rompecabezas. Desgraciadamente, la cuestión de la atribución causal
está mal tratada, pobremente conceptualizada y lo más grave, se desconocen sus claves para hacer
un uso correcto de las posibles alternativas a la explicación causal en neuropsicología. Vayamos a
las definiciones de partida. Susser (1991) define una relación causal como aquella que se da entre
dos Sucesos (antecedente o causa y consecuente o efecto) y que posee atributos como: asociación,
orden en el tiempo у dirección. De manera que una causa es algo que se asocia con su efecto, está
presente antes o por lo menos al mismo tiempo que su efecto y actúa de forma unívoca sobre su
efecto (Rothman y Greenland, 2005). De esa definición se desprenden todas las acepciones de las
causas componentes y sus limitaciones metodológicas. Para una revisión más exhaustiva se
recomienda revisar a Rothman y Greenland (2005). No es el momento de recordar las diferencias
entre causa suficiente y causa necesaria (por ejemplo) pero sí conviene recordar que el nivel de
implicación causales importante para definir correctamente el límite metodológico de la actuación
causal.

No obstante, sería un despropósito reducir la investigación a modelos puramente deterministas y


monocausales, cuando en los modelos generales del funcionamiento cerebral, cognitivo y de sus
alteraciones operan de manera multifactorial (Kay, 1999; Lezak, Howieson, Loring, Hannayy Fisher,
171
2004; Heilmany Valenstein, 1993) y, a su vez, interferidos por numerosas variables que pueden
afectar significativamente a la relación predictiva entre otras variables (Rankin y Adams, 1999,
Anastasi y Urbina 1998). Dicho, en otros términos, asumimos que la causalidad es multifactorial, que
cada sujeto presenta una combinación de causas componentes específicas y que cada una de esas
causas componentes tiene un período de inducción propio. Las causas componentes pueden ir
desgranándose a lo largo de la vida de los sujetos y un planteamiento más simple que ése es
sencillamente irreal.

Así pues, en la mayoría de los casos la pretendida atribución causal no pasa de ser una evidencia
empírica de asociación entre dos eventos, relación que no tiene suficiente madurez metodológica ni
entidad teórica para que se pueda interpretar en términos causales. Por lo tanto, debemos
interpretarla en términos de asociación entre eventos y, por tanto, justificar su importancia con el
grado de significación, el tamaño del efecto y los intervalos de confianza de las diferencias
observadas. Todo lo que sea transgredir ese límite implica un mal uso de las posibilidades reales de
la atribución de efectos.

Para intentar salvar esta cuestión, a partir de una evidencia asociativa no experimental y por tanto no
causal, se han propuesto algunos criterios de aplicación de normas para evaluar hasta qué punto
podríamos inferir atribuciones causales a partir de una evidencia de asociación entre variables. Uno
de esos criterios es el propuesto por Bradford Hill (1965), quien establece algunos factores que
deben ser considerados antes de poder asumir un indicio de causalidad entre antecedente y
consecuente (en el ámbito forense, entre aquello que he evaluado y aquello que lo ha podido
generar). Hill (1965) propone nueve factores que deben cumplirse para asumir una posible relación
causal. Muy brevemente, son los siguientes: 1) fuerza de las asociaciones; 2) congruencia entre
distintos observadores en diferentes, lugares, tiempos y circunstancias; 3) especificidad de las
causas; 4) temporalidad; 5) gradiente biológico en la relación dosis-respuesta; 6) plausibilidad
biológica;7) coherencia con otros conocimientos, 8) evidencia experimental y 9) analogía con otras
relaciones causales.

Aun cuando este modelo fue elaborado para explicar efectos neurotoxicológicos, Larrabee (2005) ha
señalado que también puede ser de utilidad para otras materias como la psicología en general, la
psicología clínica en particular y los propios de la neuropsicología forense de forma más específica.

Por otro lado, Rothman y Greenland (2005) han elaborado un modelo que prevé las redes causales,
intentando explicar la multiplicidad de factores que contribuyen a la ocurrencia de un daño o una
enfermedad. Este enfoque integra los conceptos desarrollados por Hill (1965) pero en un marco
teórico más amplio, lo que a nuestro juicio es más apropiado para el análisis forense ya que la
172
validez de una inferencia causal no se debe realizar simple mente sobre criterios causales y
necesariamente requiere adoptar una perspectiva multicausal.

Rothman y Greenland (2005) distinguen entre causas suficientes, causas componentes y causas
necesarias. En el modelo, una causa suficiente es representada por un «pastel causal» y
corresponde al conjunto de condiciones y eventos «mínimos» que, de forma simultánea o mediante
secuencia produce, inevitablemente, una enfermedad. Las causas componentes son las condiciones
individuales, características, exposiciones y otros requisitos que activan las redes causales. Una
causa componente que siempre es parte de cada causa suficiente es una causa necesaria.

Proporción, probabilidad y porcentaje

Es posible utilizar diversos métodos de presentación de datos basados en el número de atributos,


personas u objetos que componen una distribución determinada. Por ejemplo, podemos simplemente
reportar el número de pacientes con afectaciones neurológicas que obtienen resultados deficientes
en un test de discriminación visual (datos nominales), en tanto que también es factible expresar estas
cifras como fracciones, proporciones o porcentajes.

Probabilidad

Tal como menciona Domènech i Massons (1975), en la vida normal el concepto de probabilidad es
una noción intuitiva, de manera que atravesamos la calle cuando el semáforo está en Verde, entre
otras razones, porque la probabilidad de sufrir un atropello por un vehículo es menor. Esta noción
puede formularse matemáticamente, aunque existen diferentes definiciones para aquellas
experiencias que poseen un número finito de posibilidades.

La definición clásica y axiomática de la probabilidad plantea que para que ocurra un suceso
determinado en todos los casos posibles, la probabilidad de que eso ocurra se define por la
expresión casos favorables/total de casos. Esta conceptualización de la probabilidad corresponde a
la típica definición que se utiliza para ejemplificar la elección de una bola negra entre un conjunto de
diez bolas, entre las que hay dos rojas, una blanca y seis negras. Los resultados asociados a estas
dos definiciones tienden a ser iguales sólo cuando los sucesos tienen una idéntica probabilidad de
ser escogidos.

La definición axiomática implica hacer ciertas hipótesis para atribuir probabilidades a cada uno de los
sucesos de una experiencia. Sin embargo, en muchas ocasiones estas hipótesis pueden ser
arbitrarias o, simplemente, carecer de ellas. El valor de las probabilidades de los sucesos de una
experiencia no lo asigna la teoría de la probabilidad, sino que proviene de teorías o hipótesis
médicas, biológicas y psicológicas, entre otras. En estos casos se puede estimar la probabilidad de
173
un suceso Z a partir de un estudio estadístico sobre la observación de la frecuencia relativa del
suceso cuando la experiencia se repite varias veces en las mismas condiciones. Por lo tanto, se
demuestra que, si el número de repeticiones de la experiencia aumenta la frecuencia relativa del
suceso Z, tiende a incrementarse la probabilidad del suceso.

En términos estadísticos, la probabilidad de que un evento ocurra oscila entre 0 y 1, donde 0 significa
la imposibilidad de ocurrencia y 1 la certeza de que ocurra el fenómeno. Aplicando el concepto de
probabilidad a la distribución muestral, podemos tomar la zona de ésta como 1,00 y,
consecuentemente, cualquier área comprendida entre dos puntos de la distribución corresponderá a
la probabilidad de la distribución.

Tomando el ejemplo desarrollado por Doménech y Massons (1975), para calcular la probabilidad de
que ante un determinado parto nazca un varón, se puede asumir una hipótesis de equiprobabilidad
entre ambos sexos lo que equivale a decir que cada opción comparte 50%. Sin embargo, se sabe
que esto no es completamente cierto, ya que el número de varones es ligeramente superior al de las
mujeres, al menos para el año 2005 y de acuerdo a las tasas de natalidad obtenidas del Instituto
Nacional de Estadística de España (INE, 2005).

Proporción

Este indicador muestra los tamaños relativos de dos o más valores, expresado en decimales en
función del número de casos totales. Por ejemplo, de un total de 150 pacientes atendidos en una
unidad de neurología, 50 corresponden a accidentes cerebrovasculares, 80 a traumatismo
craneoencefálicos (TCE) y 20 a procesos neurodegenerativos; las proporciones correspondientes
son: 0,33,0,53 y 0,13. La suma total de las proporciones es igual a 1.

Porcentaje

Es el valor de una determinada variable que se obtiene multiplicando una proporción por 100. Así, y
continuando con el ejemplo anterior, un 33,3% son accidentes cerebrovasculares, un 53,3% son
traumatismos craneoencefálicos y un 13,3% son procesos neurodegenerativos. Es importante tener
en cuenta que la suma de los porcentajes de todos los valores de las variables es igual a 100.

174
5.3 Conceptos Epidemiológicos

Riesgo

En epidemiología, en el concepto de riesgo se refiere a la probabilidad de que uno de los miembros


de una población definida desarrolle un determinado suceso (o enfermedad) o que muera en un
período establecido (Rotham y Greenland,1988). Un factor de riesgo puede ser definido como el
atributo de un grupo que presenta mayor incidencia de una determinada patología en comparación
con otros grupos poblacionales. Por ejemplo, estimar el riesgo para un evento como el deterioro
cognitivo leve basado en el resultado de un evento relacionado como la puntuación ante un
determinado test.

Cuando queremos estudiar la relación entre la presencia de un factor y el acontecimiento de un


suceso, disponemos de diferentes herramientas que nos permiten medir el grado de asociación de
estas variables. Entre estas, posiblemente las más conocidas corresponden al riesgo relativo (RR) y
la odds ratio (OR), que corresponde a dos maneras de expresar el riesgo (Smith, Ivnic y Lucas,
2008). Sin embargo, no son las únicas (Schechtman, 2002). Así, se puede hablar de la razón de
tasas, de la proporción atribuible o de la fracción prevenida. Es importante mencionar que el uso de
una u otra medida se encuentra asociado sobre todo el tipo de estudio y a su diseño. En este
sentido, el RR se prefiere para estudios longitudinales mientras que la OR se reserva para estudios
de casos y controles (cuando el RR no puede calcularse) así como para estudios retrospectivos y
transversales.

Riesgo relativo

Cuando comparamos el acontecimiento de un suceso (condición o enfermedad) ante la presencia o


no de un determinado factor (exposición), el RR evaluará cuánto aumenta el riesgo de tener el
suceso en un grupo en que se presenta el factor de exposición con respecto a otro grupo en que no
se presenta.

El RR se calcula haciendo un cociente entre los riesgos de cada uno de estos dos grupos; estos
riesgos se denominan incidencias acumuladas. En la tabla 2 se puede ver cómo obtener estos
indicadores:

175
Tabla 2. Tabla resumen para la obtención del riesgo relativo

FACTOR DE EXPOSICIÓN

Característica estudiada Si No TOTAL

Presencia A B (A+B)

Ausencia C D (C+D)

TOTAL (A+C) (B+D) Total

𝐴
Incidencia acumulada entre expuestos: IA1= 𝐴+𝐶

𝐵
Incidencia acumulada entre no expuestos: IA0= 𝐵+𝐷

IA1
Riesgo relativo: RR= 𝐼𝐴0

Por ejemplo, si tenemos un grupo de 30 personas que han sufrido un TCE con un síndrome
disejecutivo y otro grupo de 30 personas que ha experimentado un TCE sin síndrome disejecutivo); a
los que se hace un seguimiento de dos años midiendo su reintegración laboral (suceso). En el grupo
de los TCE que no tienen síndrome disejecutivo hay 5 personas que no lograron reincorporarse a sus
antiguos puestos de trabajo, mientras que aquellos si lo tienen corresponde a 20. Por tanto, el riesgo
de no retornar al trabajo si has sufrido un TCE teniendo como secuela un síndrome disejeutivo
corresponde al cociente entre los que perdieron su trabajo (20) y los que han estado en riesgo de
contraerla en su grupo (30), que es igual a 0,66; de la misma manera, se puede calcular el riesgo en
el grupo de los que no tienen el síndrome; para el grupo de los sujetos que no poseen el síndrome
disejecutivo, el riesgo de no reintegrarse laboralmente es de 0,16. Por lo tanto el RR es de 4, es
decir, los pacientes que han sufrido un TCE con síndrome disejecutivo tienen 4 veces más riesgo de
no poder reincorporarse laboralmente que los pacientes que han sufrido un TCE sin síndrome
disejecutivo.

Odds ratio

Existe otra manera de representar la probabilidad de ocurrencia de un evento, y es mediante el


cociente entre la disparidad de que ocurra el evento (a/c) y la disparidad de que no ocurra –b/d–
(Schechtman, 2002). Este cociente se denomina adds –en inglés–, pero no hay una traducción al
español comúnmente aceptada. El odds indica cuánto más probable es la ocurrencia del evento que
su no ocurrencia.

176
Las odds se calculan dividiendo los individuos que han sufrido el suceso y aquéllos que no lo han
sufrido dentro de su mismo grupo, en tanto que la OR se calcula haciendo un cociente entre las odds
de cada uno de estos dos grupos (Rothman y Greenland).
𝑎/𝑐 𝑎𝑑
Odds ratio: 𝑂𝑅 = 𝑏/𝑑 = 𝑏𝑐

Si continuamos con el ejemplo anterior, la odds de perder el trabajo si se tiene un síndrome


disejecutivo es el cociente entre los que no se han reincorporado (20) y los que sí (10), valor de 2; de
la misma manera, podremos calcular la odds en el grupo de los que no tienen la condición. Para los
pacientes que no se reincorporan al trabajo teniendo el síndrome la odds es 0,2, es decir, que por
cada individuo que no tenga el síndrome pero que no ha podido regresar a su antigua actividad
laboral, encontraremos 5 sin él que sí han podido reincorporarse a su actividad laboral. Finalmente,
la OR, que es el cociente entre estas dos odds, 10, se puede interpretar como que el grupo de
pacientes con un síndrome disejecutivo tiene 10 veces màs posibilidades de no reincorporarse a su
antiguo trabajo que el grupo de los que no poseen la alteración.

Razón de verosimilitud

Ante la necesidad de elaborar índices independientes de prevalencia para poder comparar diferentes
métodos diagnósticos, se platean las razones de verosimilitud (Smith, Ivnik y Lucas, 2008). Poseen la
ventaja de que relacionan en un solo índice los coeficientes de sensibilidad y especificad.

La razón de verosimilitud positiva (RVP) cuantifica, mediante una razón, la proporción de verdaderos
positivos sobre los falsos negativos. Se calcula así:

𝑆
𝑅𝑉𝑃 =
1−𝐸
La razón de verosimilitud negativa (RVN) se calcula mediante la proporción entre falsos negativos y
verdaderos negativos, es decir:

1−𝑆
𝑅𝑉𝑁 =
𝐸
La RVP nos indicará la probabilidad que tienen los sujetos de obtener un resultado positivo en la
prueba diagnóstica entre aquellos sujetos que presentan la condición real en estudio, si se comparan
con los que no la poseen. Mientras que la RVN nos indicaría por cada verdadero negativo detectado
por la prueba diagnóstica, cuantos falsos negativos se detectan.

Al igual que la sensibilidad y especificad, este valor puede ser calculado para cada una de las
puntuaciones del test, pero además tiene la ventaja de ser fácilmente interpretable, así como permitir
calcular el valor predictivo positivo (VPP, definido en el apartado 1.2.9). Por ejemplo, en el estudio de
177
Cerhan, Ivnik, Smith y Machulda (2002) se encontró que las puntuaciones en el test de fluencia
verbal permitían discriminar apropiadamente entre sujetos con la enfermedad de Alzheimer y sujetos
controles, señalando que el riesgo de padecer la enfermedad se incrementaba en 22 veces cuando
los sujetos obtenían puntuaciones inferiores a 20 en el test de fluencia.

Veamos con detalle este último aspecto. Al usar observaciones independientes en el cálculo de la
razón de verosimilitud interviene el producto de las probabilidades independientes, por lo que se
suelen usar logaritmos, ya que éstos transforman los productos en sumas y los cocientes en restas
(recordemos que el logaritmo de un producto es igual a la suma de los logaritmos, mientras que el
logaritmo de un cociente es igual a la resta del logaritmo del numerador y el denominador). Así, es
habitual usar términos como Log-likehood, que no es más que el logaritmo de la verosimilitud. Al
tratarse de productos de probabilidades, la función de verosimilitud será siempre menor que 1 y por
tanto su logaritmo será negativo.

La razón de verosimilitud nos permite comparar modelos y, por ende, el VPP que puede equiparse a
un tipo de modelo concreto. Por ejemplo, podemos comparar dos modelos donde uno de ellos
incluye una variable más con respecto al otro. Las diferencias en la función de verosimilitud
dependen de la escala de medida, por lo que la forma adecuada de compararlas es mediante
cocientes. De ahí que cuando se comparan modelos que han sido estimados mediante este
procedimiento se hable de cociente de verosimilitud (Likelihood Ratio), que es una estimación del
valor predictivo positivo (VPP).

Cuando se trata de la estimación de modelos generales resulta de utilidad usar el concepto de


modelo saturado, entendido como que utiliza tantos parámetros como variables hemos medido y que,
por tanto, se ajusta perfectamente a los datos. Podemos comparar un modelo determinado con
menos variables con ese modelo saturado mediante la expresión:

𝑉𝑒𝑟𝑜𝑠𝑖𝑚𝑖𝑙𝑖𝑡𝑢𝑑 𝑚. 𝑎𝑐𝑡𝑢𝑎𝑙
𝐷 = −21𝑛( )
𝑉𝑒𝑟𝑜𝑠𝑖𝑚𝑖𝑙𝑖𝑡𝑢𝑑 𝑚. 𝑠𝑎𝑡𝑢𝑟𝑎𝑑𝑜
Donde D se denomina desviación (Deviance); nos permite comparar modelos, por ejemplo: uno que
incluye una variable más que otro modelo anterior podría compararse mediante la siguiente
expresión:

G=D (modelo 1 sin la variable)- D (modelo 2 con la variable) =


𝑉𝑒𝑟𝑜𝑠𝑖𝑚𝑖𝑙𝑖𝑡𝑢𝑑 1
-21n(𝑉𝑒𝑟𝑜𝑠𝑖𝑚𝑖𝑙𝑖𝑡𝑢𝑑 2)

178
Esta expresión se denomina contraste de verosimilitud y si no es significativa aceptamos que la
incorporación de la nueva variable no mejora sensiblemente la verosimilitud del modelo y que, por
tanto, no merece la pena incluirla en él.

Añadiendo más términos, más variables, a un modelo, la función de verosimilitud mejorará y si la


muestra es grande será difícil distinguir, mediante el contraste del cociente de verosimilitud, entre
una mejora «real» y una aportación trivial. El modelo perfecto no existe, puesto que todos constituyen
simplificaciones de la realidad y siempre son preferibles modelos con menos variables, puesto que
además de ser más sencillos, son más estables y menos sometidos a sesgo. Por ello se han
propuesto otras medidas de contraste entre modelos que penalizan que éstos tengan muchos
parámetros.

Las más conocidas y que suelen usarse habitualmente son el criterio de información de Akaike (AIC)
y el criterio de información bayesiano (BIC), que se define mediante las siguientes expresiones:

AIC = -2(In verosimilitud – n.0 parámetros)

BIC = G – gl • In(n)

Donde G es el cociente de verosimilitud, gl son los grados de libertad y n el tamaño de la muestra.


Cuando menor es el valor de AIC o de BIC, más adecuada es la selección del modelo.

Este tipo de aproximaciones matemáticas a la realidad de la peritación se basan en los


procedimientos que otras ciencias forenses han utilizado tradicionalmente. El estudio de ajustes de
perfiles, el análisis de las similitudes entre dos muestras (no siempre de sujetos humanos, sino de
substancias) o la verificación estadística de la posibilidad efectiva de una hipótesis, no son ámbitos
ajenos a la peritación.

Comentario final

Todas estas técnicas y comentarios metodológicos que se han presentado, especialmente los que
están más basados en una especificación matemática, como los indicadores epidemiológicos quieren
cumplir, como decíamos, un papel complementario. La importancia de todo ello se justifica por la
necesidad del neuropsicólogo forense de utilizar las medidas, los datos, la generación de
conclusiones, el establecimiento de argumentos, la solidez y rigurosidad de sus posiciones
científicas. En consecuencia, todo aquello que permita a los neuropsicólogos forenses acreditar sus
argumentaciones aportando rigor, solvencia y conocimiento redundará, sin duda, en una posición
más igualitaria y de respeto científico que los juristas saben apreciar y que la sociedad requiere para
mejorar la labor de los que tienen la responsabilidad de peritar. Si se argumenta que lo que aquí se
postula se hace desde la más estricta novedad, le recomendamos que revise la obra de Herodoto,
179
que inició su obra histórica llamada directamente Historiae, con una simple frase que es del todo
contundente: simplemente escribió Histories apodexis, lo cual puede traducirse por «exposición de
las investigaciones». Esto sucedía hacía el 440 a. C.

6 TRAUMATISMO CRANEOENCEFÁLICO: ASPECTOS CLÍNICOS Y FORENSES

El traumatismo craneoencefálico (TCE) constituye un importante problema de salud pública en


países industrializados debido a la alta incidencia y a las devastadoras consecuencias que puede
llegar a provocar (Sherer y Madison, 2005). De acuerdo al Traumatic Brain Injury Model System
Nacional Data Center, esta condición se define como aquella lesión cerebral provocada por una
fuerza mecánica externa que se manifiesta por la aparición de algunas de las siguientes condiciones:
a) disminución del nivel de conciencia; b) periodo de amnesia postraumática (APT); c) fractura
craneal y d) existencia de alteraciones en la exploración neurológica (Marshall y cols., 1991).

En los últimos años el progreso de la medicina, unido a los avances tecnológicos, ha conseguido
aumentar el número de personas que ha sobrevivido a importantes lesiones cerebrales. Sin
embargo, esta población puede presentar una serie de déficits físicos, cognitivos y conductuales que
afectarán no sólo al individuo sino también a su familia, entorno social y laboral, impidiendo en
muchos casos llevar a cabo las actividades que previamente realizaban sin dificultades.

En los últimos años se ha observado cómo los TCE acaban en procesos judiciales cada vez con
mayor frecuencia. Esto es consecuencia, en gran parte, de las circunstancias en que
mayoritariamente se suelen producir: accidentes de tráfico, laborales o agresiones que llevan
implícitas un conflicto entre personas y/o con empresas, instituciones, etcétera. Así la litigación en
este contexto, tanto desde la perspectiva penal como, especialmente, desde la civil, es tan alta que el
TCE ha llegado a constituir el paradigma de la intervención en neuropsicología forense. De hecho, en
el caso de los TCE comenzamos a disponer de bibliografía específica, lo que constituye el paradigma
de toda la neuropsicología forense (Murrey, 2000). Otro factor que interviene en este fenómeno es
que en algunas ocasiones el daño se circunscribe exclusivamente a los aspectos cognitivos, por lo
que la pericial neuropsicológica es la única fuente experta con la que cuenta el tribunal. Finalmente,
el progresivo aumento del índice de supervivencia en estos pacientes, sobre todo los más jóvenes,
hace necesario que la sociedad y la justicia determinen el nivel de protección social que las secuelas
residuales van a exigir en cada persona.

180
En este capítulo se van a exponer los hechos que configuran la clínica general y especialmente
neuropsicológica de los TCE para centrarse, a continuación, en los protocolos de exploración y
fenómenos relacionados en la evaluación neuropsicológica forense de éstos.

6.1 Epidemiología

En la actualidad no se dispone de datos precisos sobre la incidencia del TCE en España ni tampoco
se conoce con exactitud cuál es la incidencia y la prevalencia de la discapacidad que genera. Sin
embargo, estudios epidemiológicos publicados por el National Institute of Health (1998) describen
una incidencia de 100 nuevos casos por cada 100.000 habitantes cada año, de los cuales un 10% se
puede catalogar de TCE moderado o severo. La distribución con relación a la edad es bimodal, con
un primer pico situado entre 15-24 años y un segundo entre 65-75 años. Este último tiene una mayor
tasa de mortalidad y un proceso de recuperación más lento e incierto comparado con la población
joven. En función del género, los hombres tienen mayor riesgo de sufrir TCE que las mujeres, a
cualquier edad, siendo la relación hombre/mujer de 2 a 1 (Kraus y McArthur, 1996).

Entre las causas generadoras de lesión cerebral traumática, los accidentes de tráfico ocupan el
primer lugar (Kraus y McArthur, 1996) representando un 50% del total, seguido por la caída casual
(20-30%). Por su parte, de acuerdo con Aso (1999), en España los accidentes de tráfico también
constituyen la primera causa (45%), mientras que el accidente laboral es el que se ubica en segunda
posición para ser seguido por las caídas casuales, los accidentes deportivos y en último lugar, la
violencia.

Según Lyle y cols. (1990), cada año se generan dos nuevos casos de discapacidad severa y cuatro
nuevos de discapacidad moderada debido a un TCE por cada 100.000 habitantes. Si extrapolamos
estos datos al conjunto del Estado español podemos prever que cada año se generarán
aproximadamente 2.800 casos de discapacidad secundaria a un TCE. Esta condición constituye la
primera causa de muerte en el segmento de población que se halla por debajo de los 45 años y la
segunda tras enfermedades cardiovasculares y neoplásicas por lo que, sin duda, las secuelas
generadas por el TCE son la principal causa de discapacidad en la población joven (Thurman,
Coronado y Selassie, 2007).

En términos económicos, los costes derivados de un TCE son tremendamente elevados puesto que
incluyen el tratamiento recibido en la fase aguda, el hospital de rehabilitación, costes derivados de

181
futuros reingresos y/o atención al domicilio y la implicación económica derivada de la minusvalía
(Max, McKenzie y Rice, 1991).

6.2 Traumatismos Craneoencefálicos

En la génesis de las lesiones causadas por un TCE intervienen fuerzas estáticas y dinámicas que
pueden generar deformaciones o desplazamientos de estructuras encefálicas. A estas fuerzas se
añaden los fenómenos de aceleración/desaceleración que sufre el cerebro dentro del cráneo. En este
tipo de movimientos se produce un desplazamiento del cerebro en sentido anteposterior junto con un
componente de rotación sobre el tronco del encéfalo, causando múltiples y graves lesiones tanto
contusiónales como difusas (Ruscadella, 2005).

6.2.1 Características Generales

La gravedad del TCE viene básicamente definida por la puntuación obtenida en la escala de coma de
Glasgow-ECG- (Teasdale y Jennett, 1974) recogida por los servicios de emergencias médicas en el
lugar del accidente. Esta escala recoge la respuesta ocular, verbal y motora tras la lesión. La
puntuación oscila entre 3 y 15, siendo el TCE más leve cuanto más elevada sea la puntuación.
Según la ECG inicial se clasifica la severidad de la lesión un leve (14-15), moderada (9-13) y severa
(≤ 8).

La duración de la amnesia postraumática (APT) también se ha utilizado como índice de gravedad del
TCE siendo además un buen predictor de la recuperación cognitiva y, en consecuencia, del resultado
funcional (Sherer, Sander y cols, 2002). La APT se define como el periodo de tiempo que separa el
momento de la lesión hasta la recuperación de la memoria de una forma continua (Russell, 1932). El
instrumento Galveston Orientation and Amnesia Test (GOAT; Levin, O´Donnell y Grossman, 1979) se
mantiene como una medida útil para valorar la APT, permitiendo clasificar la gravedad del
traumatismo en: a) leve, si la APT es menor a una hora; b) moderado, cuando es entre una y 24
horas; c) grave, si es entre uno y siete días y finalmente d) muy grave, cuando es superior a siete
días.

En un intento por diferenciar con mayor precisión la clasificación de severidad, el Traumatic Coma
Data Bank (TCBD) definió una clasificación de severidad para el TCE grave basado en los hallazgos
en la tomografía axial computerizada (Marshall, Klauber y cols, 1991). Según esta clasificación se
182
distinguen las lesiones focales que incluyen las contusiones cerebrales, los hematomas
intracraneales (epidurales, subdurales e intraparequimatosos) y las alteraciones cerebrales
secundarias a su efecto expansivo, al aumento de presión intracraneal, desplazamiento y distorsión
del perénquima encefálico. El segundo grupo considera las lesiones difusas, pudiendo diferenciarse
en cuatro niveles: a) Tipo 1, en el que el TAC craneal es normal; b) Tipo 2, en la que las cisternas
perimesencefálicas se hallan presentes, no existe desplazamiento de la línea media o es mínimo
(entre 0-5 mm), pueden existir lesiones focales con volumen < 25ml y pueden encontrarse
fragmentos óseos o cuerpos extraños; la característica relevante de este grupo es la existencia de
pequeñas contusiones aisladas, una contusión de tronco encefálico y/o múltiples lesiones
hemorrágicas petequiales, formando parte de una lesión axonal difusa (LAD); c) Tipo 3 (swelling), en
la que las cisternas perimesencefálicas de hallan comprimidas o ausentes, el desplazamiento de la
línea media es de 0-5 mm y no deben existir lesiones hiperdensas o de densidad mixta con volumen
superior a 25 ml; en este grado lesional lo que predomina es el edema. Finalmente, el d) Tipo 4
(«desplazamiento»), donde se observa una desviación de la línea media superior a 5 mm y lesiones
focales de volumen superior a 25 ml.

Existe una correlación elevada entre esta clasificación y la Glasgow Outcome Scale (GOS) que
permite categorizar a los pacientes en cinco grandes grupos: buena evolución, discapacidad
moderada, discapacidad grave, estado vegetativo persistente y muerte. En la serie de los primeros
1.030 pacientes incluidos en el TCDB, la máxima mortalidad correspondió a los pacientes con lesión
difusa tipo III incluyó el mayor porcentaje de pacientes en estado vegetativo (Marshall, Marshall,
Klauber y cols, 1991). Posteriormente ha habido otras publicaciones (Vos, van Voskuilen y cols.,
2001) que apoyan el valor predictivo de esta clasificación en el resultado funcional a largo plazo.

6.2.2 Lesiones Abiertas y Cerradas

Los mecanismos por los cuales se produce la lesión se pueden clasificar en primarios y secundarios.

El primer grupo incluye todas aquellas lesiones focales generadas a partir de contusiones corticales
directas (con localización más frecuente a nivel de lóbulos frontal y temporal) y lesiones por
mecanismos de golpe/contragolpe. También incluye la lesión axonal difusa (LAD), que corresponde
al mecanismo de lesión primordial en el 40-50% de las lesiones cerebrales traumáticas (Meythaler,
Peduzzi y cols, 2001). Éste es un término confuso dado que no se trata de una lesión difusa de todo
el cerebro, sino que se localiza en regiones concretas después de lesiones debidas a
desaceleraciones de larga duración y alta velocidad. Por tanto, la LAD puede observarse después de
183
accidentes de tráfico, pero también después de accidentes deportivos o caídas desde cierta altura en
un accidente laboral. Las localizaciones anatómicas más comunes de esta lesión son la sustancia
blanca parasagital del córtex cerebral, el cuerpo calloso y la unión pontinomesencefálica adyacente a
los pedúnculos cerebelosos superiores (Meythaler, Peduzzy y cols., 2001). La tomografía axial
computerizada (TAC) y la resonancia magnética nuclear (RMN) son los malos predictores del
resultado funcional de los pacientes con TCE, lo que se halla probablemente relacionado con el bajo
índice de detección de la LAD.

El segundo grupo está relacionado con aquellos procesos fisiopatológicos que se desencadenan
después de haber sufrido la lesión primaria y que provocarán, de no ser controlados, una lesión
cerebral añadida. Incluye fenómenos como el aumento de la presión intracraneal (PIC), la
disminución de la presión de perfusión cerebral, el edema cerebral, hematomas/hemorragias,
híper/hipotensión arterial, hidrocefalia, anormalidades electrolíticas, etcétera (Ruscadella, 2005).

La lesión secundaria puede aumentar el daño cerebral instaurado en el momento del accidente. Por
ejemplo, la hipertensión endocraneal tiene un importante rol en el pronóstico y evolución de los
pacientes con TCE grave, mostrando una incidencia superior al 50% (Miller, Butterworth y cols.,
1981; Arrotegui, Sengupta y cols., 1997); lo mismo sucede con aquellas complicaciones que
conllevan un descenso en la presión de perfusión cerebral e hipoxia (por ejemplo, el shock
hipovolémico). La existencia de lesiones ocupantes de espacio también condiciona un peor
pronóstico, especialmente en el nivel de funciones cognitivas, de modo que se ha descrito presencia
de déficits cognitivos leves en un 61% y graves en el 13% de los pacientes que presentaban
hematomas epidurales o subdurales, mientras que en aquellos que tenían contusiones o hematomas
intraparenquimatosos el 28% presentó secuelas mínimas y el 43% grandes secuelas (Frey, Savage y
cols., 1994). La hidrocefalia y la presencia de crisis comiciales tardías también han sido asociadas a
un peor pronóstico. Sin embargo, uno de los índices de mayor valor predictivo es la presencia de
signos de lesión en el tronco cerebral (Sazbon y Groswasser 1990).

6.2.3 Consecuencias Neuropsicológicas de los Traumatismos Craneoencefálicos

Coma, síndrome confusional y amnesia postraumática

La pérdida de conciencia después de un TCE no está directamente relacionada con su gravedad.


Así, traumatismos con pérdida de conciencia pueden dejar secuelas menos importantes que
traumatismos sin pérdida de conciencia.

184
Los estados de coma prolongados se producen por lesiones que afectan al tronco del encéfalo o por
lesión difusa bilateral de la sustancia blanca subcortical.

Se han descrito casos de lesiones que afectan exclusivamente a las vías motoras del tronco del
encéfalo. Estos pacientes están totalmente conscientes, pero no pueden emitir ningún tipo de
respuesta motora. Esto se conoce con el nombre de estado locked-in o encerrado en uno mismo, ya
que los pacientes no pueden hablar ni mover ninguna parte de su cuerpo.

La severidad del coma se mide con la escala de Glasgow. Esta escala valora diferentes grados de
apertura ocular (espontáneamente, en respuesta al dolor…), de respuesta motora y de respuesta
verbal. La puntuación va de 3 (coma profundo) a 15 (normal). Con una puntuación de 8 o menos se
considera que el TCE es grave, de 9 a 12, moderado, y de 13 a 15, leve. Las puntuaciones graves
tienen una mortalidad del 40%.

Las lesiones del tronco del encéfalo, y a veces del tálamo, producen como por afectación de la
formación reticular, de modo que la corteza pierde las señales activadoras provenientes del tronco
del encéfalo. En algunos casos, los pacientes pueden estar en coma durante meses o años. Esto se
conoce como estado vegetativo. Después de un año en coma, algunos pacientes pueden abrir los
ojos y recuperar algunas funciones, como masticar, beber o emitir algún ruido, pero no recuperan la
conciencia.

El síndrome confusional observa en pacientes que se recuperan del coma o en traumatismos leves.
El paciente se muestra desorientado (generalmente no se sabe orientar en tiempo y / o en espacio, y
en algunos casos en persona), y le cuesta prestar atención a los estímulos ambientales.

La fase de amnesia postraumática no se considera superada hasta que el paciente puede recordar
de manera continua los hechos que pasan a su alrededor. Si sólo recuerda hechos aislados, se
considera que todavía está en amnesia postraumática. La amnesia postraumática se puede
acompañar de agitación, conducta agresiva y / o ideación paranoide.

La amnesia postraumática hace referencia al lapso de tiempo que pasa entre el accidente y la
recuperación de la memoria de una manera continua. Después de una concusión con pérdida de
conciencia, el paciente suele presentar un cuadro de amnesia anterógrada y retrógrada, que
comprende las horas previas al accidente. Se puede resolver en horas, días o meses.

La duración de la fase de amnesia postraumática es un factor pronóstico importante de la


recuperación del paciente.

185
Consecuencias neuropsicológicas de los TCE moderados y graves

Después de un TCE moderado o grave se suelen observar problemas de memoria, anomia y


ralentización cognitiva.

Los problemas de memoria pueden ser tanto a nivel de consolidación de la información, por lesiones
en las estructuras temporales mediales, como a nivel de evocación de la información, por afectación
de la sustancia blanca subcortical.

Algunos pacientes presentan alteraciones del habla, como problemas de articulación (disartria), o
problemas para tragar (disfagia). Esto suele ser debido a lesiones del tronco del encéfalo.

Excepto en el caso de lesiones focales en las zonas del lenguaje, la alteración lingüística se suele
limitar a problemas de denominación. La alteración del lenguaje, al contrario que la afectación de la
memoria, suele mejorar con el tiempo.

La ralentización cognitiva se puede observar por el aumento en el tiempo de reacción. Se suele


acompañar de problemas de concentración, y es consecuencia de la afectación de la sustancia
blanca subcortical.

Después de un TCE grave o moderado los pacientes también suelen presentar alteración conductual,
en forma de irritabilidad, ansiedad y falta de iniciativa.

Se cree que esto es debido a la lesión de estructuras frontales y temporales.

En los casos en que el paciente presenta una alteración crónica de múltiples funciones cognitivas y
conductuales, hablamos de demencia postraumática.

Consecuencias neuropsicológicas de los TCE leves

Después de traumatismos leves, algunos pacientes presentan quejas de memoria, problemas de


atención, irritabilidad, falta de iniciativa, fatiga, hipersensibilidad al ruido ya la luz o una alta
frecuencia de episodios de dolor de cabeza. Esto se conoce con el nombre de síndrome
postconmocional, y suele remitir en seis meses.

La acumulación de traumatismos, leves y moderados, generalmente, es frecuente en algunos


deportes. Es el caso, por ejemplo, del fútbol americano o el boxeo. La demencia pugilística es una
forma de demencia postraumática que afecta a algunos boxeadores y que, además de déficit
cognitivo, se caracteriza por temblores y otros síntomas de afectación motora.

La acumulación de traumatismos leves, sin embargo, puede causar afectación cognitiva y conductual
crónica.

186
6.3 Evolución Clínica en los Traumatismos Craneoencefálicos

La cronología de los eventos que acontecen después de haber sufrido un TCE puede esquematizar
del siguiente modo: a) pérdida inmediata del nivel de conciencia; b) período de coma; c) estado
vegetativo o estado de mínima repuesta y d) período de amnesia postraumática.

El coma es un estado en el que el paciente mantiene los ojos cerrados, no responde a las órdenes,
no es capaz de comunicarse ni realizar movimientos (Teasdale y Jennet, 1974). Se ha observado
que entre el 20-49% de pacientes con un TCE severo no logra recuperarse del coma. De aquellos
que sobreviven, casi la totalidad logra una buena recuperación, aunque entre 1-5% queda en un
estado de mínima respuesta (Murrey y cols., 1999).

Después del coma se produce un estado temporal de marcada confusión llamado amnesia
postraumática. De acuerdo a Sherer, Nakase-Thompson y cols. (2003), este cuadro se caracteriza
por la presencia de síntomas como desorientación, déficits cognitivos, agitación psicomotora,
fluctuación de la sintomatología, alteraciones del sueño, disminución del arousal diurno y síntomas
de tipo psicótico.

La mayoría de los TCE evolucionan hacia una APT y se recuperan con diferentes grados de
discapacidad (Ponsford, 1995), poniéndose de manifiesto en este momento un conjunto de trastornos
físicos, sensitivos, cognitivos y conductuales. Las lesiones que pueden instaurarse pueden ser muy
diferentes, presentándose solas o combinadas y varían en función de la naturaleza, gravedad,
localización, tipo de lesión, presencia de lesiones secundarias y de las características premórbidas
del paciente (Kothari, 2007). Ello implica una serie de cambios estructurales, fisiológicos y
funcionales en la actividad del sistema nervioso central que puede comprometer las funciones
cerebrales, dando lugar a variadas manifestaciones físicas y neuropsicológicas. Esto significa que,
cuando se hace referencia a las escuelas de un TCE moderado o grave, no existan dos pacientes
iguales (Roig, 2005).

En el ámbito sensitivo pueden aparecer alteraciones derivadas de las lesiones encefálicas, pero
también de los pares craneales. A nivel sensorial es frecuente observar déficits visuales (amaurosis,
diplopía, insuficiente cierre o apertura palpebral, disminución de agudeza visual, déficits
campimétricos, etcétera) aunque también pueden observarse alteraciones del gusto o del olfato. En
el aspecto motor pueden apreciarse paresias o parálisis (hemiparesia/tetraparesia), espasticidad y/o
alteraciones del control motor (ataxia, movimientos distónicos, temblor, etcétera). Asimismo, la
afectación motora puede alterar la producción del habla, ocasionando un déficit en la articulación de

187
las palabras o disartria y dificultades en la fonación. Son frecuentes también las alteraciones de la
deglución (Murdoch y Whelan, 2007).

Los déficits más comunes en la esfera cognitiva incluyen trastornos de la atención y concentración,
comunicación, déficit de la memoria y aprendizaje, velocidad de procesamiento de la información y
funciones ejecutivas. Además de los mencionados, la falta de conciencia de déficit es frecuente e
incluye el desconocimiento de las limitaciones funcionales asociadas a los déficits y a la dificultad
secundaria para establecer planes de futuro realistas (Prigatano 1987). Sin embargo, las alteraciones
que más interfieren en la interacción paciente-profesional, así como en las relaciones familiares e
interpersonales son los problemas emocionales y de conducta (Mc Allister, 2007).

La pérdida de conciencia en el momento del impacto, seguida con frecuencia de coma, se da


siempre en las lesiones difusas. Esto es debido, como ya se mencionó, a los mecanismos
rotacionales, que causan estiramiento o rotura de los axones produciendo posteriormente muerte
neuronal. Las lesiones de la sustancia blanca pueden interrumpir el funcionamiento normal del
sistema reticular activador ascendente –lóbulo frontal– dando lugar a alteraciones de semiología
frontal como la atención y la motivación (Stuss, 1992). Además de los déficits de atención, las
lesiones difusas se caracterizan por dificultades de concentración, memoria, fatiga, irritabilidad y falta
de iniciativa junto con enlentecimiento en la velocidad de procesamiento de la información, que
puede ser debida a la pérdida de sustancia blanca, a la pérdida neuronal difusa o a las lesiones en
los ganglios basales (Eslinger, Zappalá, Chakara y Barret, 2007). Los déficits asociados a lesiones
focales dependen de la localización de las lesiones. Las contusiones se dan con más frecuencia en
los polos frontales y temporales.

A pesar de que no puede hablarse de un patrón de déficit específico en el TCE, la situación


preferente configura una afectación de la regulación y control de la conducta, alteración de las
funciones ejecutivas, de la personalidad (perfil de hiperactivación-pseudopsicopatía e hipoactivación-
pseudodepresión), descrita por Eslinger y Damasio (1985), Stuss y Benson (1986) y Filley (1987), del
ajuste social, del aprendizaje y la memoria.

6.3.1 Traumatismos Craneoencefálicos Leves

De acuerdo al Mild Traumatic Brain Injury Committee of the Head Injury Interdiciplinary Special
Interest Group of the American Congress of Rehabilitation Medicine (1993), el TCE leve se define
como una disrupción fisiológica de la función cerebral, que se caracteriza por un periodo de pérdida

188
de conciencia, pérdida de la memoria para los sucesos inmediatamente anteriores o posteriores al
accidente, alteración del estado mental en el momento del accidente y déficits neurológicos focales
que pueden ser o no transitorios pero en los que la severidad de la lesión se cumple: a) pérdida de
conciencia de un máximo de 30 minutos, b) un valor inicial en la Glasgow Coma Scale entre 13-15 y
c) un periodo de APT no superior a 24 horas.

La problemática forense asociada al TCE leve ha recibido en los últimos años una considerable
atención por parte de los textos especializados (Sweet, 1999; McCaffrey y cols. 1997; Murrey, 2000;
Larrabee, 2005). El problema fundamental es si es posible la presencia de secuelas asociadas a TCE
leves y si es así, cuál puede ser la extensión y alcance. Esto es debido a su posible naturaleza mixta:
fisiogénica y/o psicogénica. Algunos autores insinúan que su presencia durante los tres primeros
meses (coincidiendo con los problemas neuropsicológicos) se justifica desde la perspectiva
fisiogénica, pero se mantiene en el tiempo se debe al papel que juegan factores psicológicos (Binder,
1997; Larrabee, 2005).

En algunos casos pueden presentarse (en las primeras horas o días después de un TCE leve) un
conjunto de síntomas conocidos como «síndrome postconmocional». Este síndrome es caracterizado
por dolor de cabeza, sensibilidad a los ruidos y a la luz, visión borrosa, cansancio, insomnio,
reducción de la velocidad de procesamiento, problemas de concentración y memoria, fatiga,
irritabilidad, ansiedad y depresión (Gronwall y Wrigthson, 1974; Dikmen, 1986; Levin, 1987) –véase
la tabla 1–. Se acepta que un porcentaje que va del 7% al 10% puede mostrar algún tipo de síntoma
un año más tarde de un TCE leve (Binder, 1997), pero también que este cuadro tiene un buen
pronóstico a lo largo plazo.

Tabla 1. Síntomas más frecuentes en el TCE leve

FÍSICOS COGNITIVOS CONDUCTA/EMOCIÓN

Alteración del sueño Atención Irritabilidad

Cefalea Concentración Labilidad emocional

Fatiga Memoria Juicio social pobre

Intolerancia a la luz/ruido Velocidad de procesamiento Ansiedad

Mareo/vértigo Capacidad de abstracción Depresión

Visión borrosa

Acúfenos

189
Sin embargo, existe constancia de que bajo esta condición se da una gran mezcla de síntomas
neuropsicológicos y otros derivados de la propia estructura psicológica del sujeto, situaciones en la
que se observan los mayores índices de conflicto legal. Algunos autores correlacionan la presencia
de conflictividad legal en casos de TCE leves con peores rendimientos en los test neuropsicológicos,
en comparación con personas que no tienen pendiente el tema legal (Leininger y cols., 1990).

El problema más importante radica en que a pesar de todos los esfuerzos para clasificarlos, los
síntomas que presentan son altamente inespecíficos y por lo tanto pueden tener otro origen diferente
al efecto neurológico del TCE. En concreto, estos síntomas están fuertemente correlacionados con lo
que se podría definir en genérico como «reacción emocional» (Williams, 1997). Larrabee (2005)
menciona varios trabajos en los que la sintomatología propia del síndrome postconmocional, como
dolor de cabeza, irritabilidad o problemas de memoria, también se presentaban frecuentemente en
personas que se hallaban en demandas legales de origen no neurológico, como el estrés laboral o el
mobing. El resultado es que la probabilidad de falsos positivos en los diagnósticos de síndrome
postconmocional es alta (Binder, 1997; Larrabee, 2005).

De manera que cuando la presencia de este tipo de sintomatología emocional no coexiste con
sintomatología cognitiva, es más factible explicar los datos neuropsicológicos como fruto de la
interferencia emocional o de otro tipo de factor, que como consecuencia directa del daño cerebral.
Según Dikmen (1995) un deterioro neuropsicológico significativo a largo plazo en un TCE leve es tan
poco probable como la ausencia del mismo en un TCE moderado o grave.

6.3.2 Traumatismos Craneoencefálicos Moderados y Graves

En el TCE moderado y grave los cambios cognitivos y conductuales serán más importantes,
persistentes y dependerán de la localización y extensión del daño cerebral. Éste combina lesiones
focales (de preferencia frontal y temporal) con difusas. Por ello no es de extrañar que tras un TCE
grave puedan verse afectadas prácticamente todas las funciones superiores. Si bien no hay un
patrón único y específico de afectación debido a la heterogeneidad que caracteriza al daño cerebral
traumático suele presentarse déficit de atención-concentración, lentitud y fatiga, memoria y
aprendizaje, falta de iniciativa, dificultades de planificación, poca conciencia sobre sus limitaciones y
cambios conductuales como irritabilidad, baja tolerancia a la frustración, impulsividad, apatía,
etcétera. La afectación del lenguaje en forma de afasia es poco frecuente en el TCE. Sin embargo,
suelen estar afectadas las habilidades pragmáticas de la comunicación debido a la influencia de
trastornos cognitivos y de conducta (Coelho, 2007).
190
6.3.2.1 Atención y Fatiga

Los déficits de atención son probablemente uno de los temas que más interés ha suscitado en el
estudio de las consecuencias del TCE, ya que junto a los problemas de memoria son los más
comunes en esta patología (Eslinger, Zappalá, Chakara y Barret, 2007).

Las dificultades de atención incluyen reducción de la velocidad de procesamiento de la información,


dificultades para focalizar y atender a más de una cosa a la vez; sostener la atención durante una
actividad y para centrarse en una tarea evitando o inhibiendo las interferencias del entorno (Ponsford
y Kinsella, 1991). Dificultades que se encuentran asociadas principalmente con la lesión en los
lóbulos frontales, parietales y con daño axonal difuso.

Otra causa de este interés es su persistencia en el tiempo y la repercusión en otras funciones


cognitivas, creando dificultades que interfieren en el proceso rehabilitador, la vida independiente, las
actividades académicas, la incorporación al trabajo, la conducción de vehículos y las relaciones
sociales (Brooks 1987; Ruff, 1993). Algunos estudios han encontrado que un porcentaje elevado de
pacientes que refieren quejas de memoria puede ser atribuido a déficits de atención (Whyte,
Schuster, Polansky, Adams y Coslett, 2000).

6.3.2.2 Memoria y Aprendizaje

Una de las quejas más frecuentes en personas y familiares de pacientes que han sufrido un TCE es
el problema de memoria (Junqué, 1999). Más allá del período de amnesia postraumática, puede
observarse en este tipo de pacientes dificultades en la memoria anterógrada y la capacidad de
realizar nuevos aprendizajes. Estos problemas son frecuentes con lesiones en áreas frontales,
temporales y límbicas. Pese a que el hipocampo es muy vulnerable a los efectos de la hipoxia, es
poco habitual hallar un síndrome amnésico completo después del TCE (Eslinger, Zappalá, Chakara y
Barret, 2007).

Debido a la alta frecuencia de afectación frontal en el TCE se presentan dificultades en la memoria


de trabajo, la codificación y la recuperación de la información mientras que el reconocimiento está
más preservado. Los pacientes suelen fracasar en evocación libre, pero mejoran con claves de tipo
semántico o cuando se les facilita la estrategia (Eslinger, Zappalá, Chakara y Barret, 2007). Puede
haber problemas en el orden temporal de los recuerdos (Glisky, 1986) o memoria de la fuente. Los
procesos de memoria procedimental (hacer una determinada actividad como, por ejemplo, ir en

191
bicicleta) y semántica (conocimientos generales, nombres) se encuentran más conservados que la
memoria episódica (Eslinger, Zappalá, Chakara y Barret, 2007).

Por otra parte, la capacidad para recordar la ejecución en el futuro de determinados planes (memoria
prospectiva) es una de las alteraciones más frecuentes en este tipo de pacientes, lo que guarda
estrecha relación con otros procesos cognitivos como la atención y las funciones ejecutivas que
también se hallan afectados en la patología traumática (Rios y Muñoz, 2004), procesos que se
asocian al funcionamiento de la corteza prefrontal.

Los problemas de memoria condicionan de manera muy importante el funcionamiento cotidiano de


los pacientes (Drake, Gray, Yoder, Pramuka y Liewellyn, 2000).

6.3.2.3 Funciones Ejecutivas

Las funciones ejecutivas son aquellas capacidades necesarias para la formulación de objetivos,
planificación y organización de las etapas y medios necesarias para conseguir un propósito, su
realización y control (Stuss, 1992). Estas funciones se hallan afectadas por lesión en los lóbulos
frontales y sus conexiones. Cabe destacar que, aunque otras capacidades cognitivas estén intactas,
la presencia de daño frontal puede impedir la afectiva interacción de estas habilidades (Rios y
Muñoz, 2004).

Las personas con déficits ejecutivos pueden realizar correctamente tareas estructuradas, pero tienen
dificultad en situaciones que requieren planificación, organización e iniciativa (Powell, 1994) así como
en utilizar experiencias pasadas para preparar, anticipar y adaptarse a nuevas situaciones. Estas
dificultades pueden ir acompañadas de conducta perseverativa, escasa flexibilidad y apatía (Shallice
y Burges, 1991).

6.3.2.4 Comunicación

La comunicación no es un concepto unitario sino el resultado de la interacción entre habilidades


cognitivas, lingüísticas y conductuales (Ponsford, 1995). Muchas de estas habilidades están
alteradas como consecuencia del TCE y ocasionan un amplio y complejo abanico de dificultades en
la comunicación.

192
Si bien la afasia es poco común en el TCE, las lesiones focales de localización anterior suelen
producir una reducción del léxico, falta de iniciativa y anespontaneidad. Las características del
lenguaje en las lesiones difusas son un mutismo inicial transitorio que evoluciona hacia una
reducción del material lingüístico, frecuencia de ecolalias, temas de predilección y contenido
inadecuado (Coelho, 2007).

Las dificultades de comunicación en el TCE incluyen problemas para encontrar la palabra adecuada
o anomia, tendencia a la repetición, dificultad para mantenerse en el tema de conversación, respetar
el turno de intervención, seguir una conversación en grupo o en lugares ruidosos, falta de
comprensión del lenguaje abstracto (sarcasmo, metáfora), dificultad para estructurar el discurso de
forma lógica y secuencial, problemas para modificar el tono de voz en relación al contexto, usó
inapropiado de gestos y expresión facial inadecuada (Coelho, 2007). Estas dificultades pragmáticas,
es decir, de relación entre el lenguaje y el contexto en que se usa, vienen dadas por la alta
frecuencia de afectación de las funciones cognitivas, entre ellas, las habilidades ejecutivas (Glosser y
Deser, 1990). Además de lo anterior, estas dificultades pueden acompañarse en ocasiones de
trastornos motores del habla como la disartria, apraxia del habla, disprosodia y disfonía (Murdoch y
Whelan, 2007).

6.3.2.5 Cambios Conductuales y Emocionales

Los cambios conductuales y de personalidad pueden intensificarse en el tiempo y constituyen una de


las mayores fuentes de estrés para los que viven y trabajan con personas que han sufrido un TCE
(Sherer, Hart, Nick, Whyte, Thompson y Yablon, 2003). Los descritos con mayor frecuencia son
irritabilidad, impulsividad, escasa tolerancia a la frustración, cambios repentinos de humos, conducta
social inapropiada, egocentrismo, conducta infantil, agresividad, desinhibición, labilidad emocional
(McAllister, 2007).

Estos cambios pueden darse solos o combinados en una amplia variedad de grados. Son tanto el
resultado directo del daño cerebral, con la consiguiente dificultad del sujeto para reconocerlos y
modificarlos espontáneamente, como reacciones adaptativas que reflejarían la dificultad para hacer
frente a las demandas del medio dada la reducción de recursos cognitivos y de personalidad
(McAllister, 2007).

En un estudio Clásico realizado por Filley (1987) se definen dos patrones diferenciados, el
pseudopsicopático, caracterizado por desinhibición, inatención, alteración en el control de los

193
impulsos, agresividad e hiperactividad –el correlato anatómico de este cuadro estaría en zonas
orbitofrontales–. Un segundo patrón, denominado pseudodepresivo, configurado por apatía,
indiferencia, retraimiento social y escasa motivación, se relacionaría con lesiones frontales
dorsolaterales.

La falta de conciencia de los cambios cognitivos, conductuales y de las limitaciones que esos déficits
ocasionan en su vida cotidiana se traduce en el establecimiento de objetivos y planes de futuro poco
realistas. A su vez estos problemas tienen una repercusión negativa tanto en el proceso de
evaluación como en la rehabilitación puesto que, como señala Prigatano (1986), les impide participar
de forma activa y sacar beneficio de ellas.

6.4 Proceso de la Recuperación y Pronósticos

Los procesos de recuperación son extremadamente complejos y aún relativamente poco conocidos.
Se proponen diversos mecanismos, algunos de los cuales se apoyan en el concepto de restitución de
la función de las áreas afectadas; otros sugieren que la recuperación se consigue a través de la
sustitución o reorganización de las estructuras neurales y/o funciones.

La recuperación después de un TCE sigue una curva más pronunciada en los primeros tres o seis
meses pero que puede continuar durante años. Esto se debe a que puede producirse remielinización
o desarrollarse procesos compensatorios (Muñoz, Paúl, Pelegrín y Tirapu, 2001). La mayoría de los
pacientes consigue una buena recuperación física al cabo de un año y sigue la misma tendencia en
los déficits cognitivos como las alteraciones del lenguaje y el neglect. Sin embargo, la recuperación
de las funciones cognitivas es menos favorable que la evolución de los síntomas físicos. Diversos
estudios sobre la recuperación tras un TCE refieren la persistencia de cambios cognitivos y
conductuales (Hoofien y cols., 2001).

De acuerdo con Sherer y Madison (2005), los factores predictivos que inciden en los resultados
funcionales de este tipo de pacientes pueden ser agrupados en: a) factores pre-lesión, que incluyen
variables como la edad, escolaridad, empleo previo y consumo de sustancias; b) factores de
severidad de la lesión, que consideran la puntuación inicial en la Glasgow Coma Scale, duración de
la APT y la capacidad para seguir ordenes; c) presencia de déficits cognitivos y neuroconductuales,
entre los que se considera el estado cognitivo inicial, presencia de depresión después del accidente,
déficits de la autoconciencia y estado funcional inicial y finalmente d) apoyo psicosocial que incluye
variables como el soporte familiar y la posibilidad de recibir rehabilitación.

194
Por su parte, los resultados pueden ser evaluados de muchas maneras, aunque la Glasgow Outcome
Scale es la medida más usada para valorar resultados funcionales tras un TCE (Jennett y
Bond,1975). De acuerdo a este instrumento, los resultados se pueden categorizar en muerte, estado
vegetativo, discapacidad severa, discapacidad moderada y buena recuperación.

Dicho esto, hay evidencias que demuestran que entre los pacientes que han sufrido un TCE severo,
un 17% presenta una discapacidad severa al año del accidente (Choi y Barnes, 1996) mientras que
un 17-22% tiene una discapacidad moderada (Choi, Barnes y Bullock, 1994) y un 46-54% una buena
recuperación (Zhang, Jiang, Zhong, Yu y Zhu, 2001). Mientras que para pacientes con TCE
moderados, un 25% mostrará discapacidades moderadas a los 6 meses y un 53-73% una buena
recuperación (Williams, Levin y Eisenberg, 1990; Murray y cols, 1999).

Un aspecto importante en el resultado funcional de los pacientes que han sufrido un TCE tiene que
ver con la posibilidad de reincorporarse nuevamente al trabajo. En este sentido se ha observado que
el 22-66% de los pacientes ha sido capaz de volver a trabajar (Sander, Kreutizer, Rosenthal,
Delmonico y Young, 1996). Ahora bien, en función de la gravedad, al año del accidente sólo el 26%
delas lesiones severas lo logra mientras que el 56% de pacientes con afectaciones moderadas
puede volver a trabajar. Parte importante de la incapacidad para volver al trabajo se relaciona con
cambios cognitivos y conductuales, siendo los mejores predictores de la incapacidad laboral las
alteraciones de atención y memoria, los déficits de comunicación, los cambios emocionales y la
capacidad de autoayuda (Ruff, 1993; Ponsford, 1995).

6.5 Evaluación Neuropsicológica de Pacientes con Traumatismo Craneoencefálico

La evaluación neuropsicológica busca identificar, describir y cuantificar las alteraciones cognitivas y


conductuales que ocasiona una lesión cerebral adquirida. También pretende determinar si existen
capacidades que se encuentran preservadas. Este proceso implica la recogida de datos a partir de
diversas fuentes de información, como es la entrevista clínica, la observación de la conducta, la
administración de diferentes test y revisión de documentación.

Es conveniente empezar por la revisión de la historia clínica del paciente, cuyos componentes
esenciales son la información médica relevante, los datos de la exploración neurológica,
neuroimagen, complicaciones asociadas, intervenciones quirúrgicas, puntuación en la escala de
coma de Glasgow, duración de la APT, antecedentes neurológicos/psiquiátricos. Estos datos tienen
un importante valor en la interpretación de los resultados y el pronóstico del paciente.

195
Por su parte, la entrevista con el paciente y/o familia nos permite obtener información sobre el
funcionamiento premórbido: nivel educativo, conducta social, historia profesional y familiar, abuso de
alcohol y sustancias, medicación actual. Así como el nivel de competencia e independencia previa. A
través de la entrevista también podemos observar el grado de conciencia de las limitaciones para
valorar la independencia del paciente en las actividades.

La evaluación neuropsicológica es un proceso que variará en función de la gravedad del TCE y del
momento evolutivo. Así, en los primeros estadios debe valorarse la evolución del estado de
conciencia y de la amnesia postraumática (APT). Hay que tener en cuenta que la evaluación de la
persona e APT comporta muchas dificultades y variabilidad en los resultados, por lo que algunos
autores sostienen que no es recomendable una exploración detallada sino más bien observar la
conducta del paciente y registrar los problemas de atención y fatiga, las capacidades de
comunicación y la conducta general, conduciendo la evaluación a través de una serie de sesiones
cortas. Un instrumento de utilidad en este contexto corresponde a la escala GOAT (Levin y cols.,
1979) o la Orientation Log (Jackson y cols., 1998).

En estadios posteriores se realizará una exploración neuropsicológica sistemática y amplia que, dada
la coexistencia de lesiones focales y difusas, así como la heterogeneidad y complejidad de las
alteraciones neuropsicológicas, debe abarcar la valoración de diferentes funciones como: orientación,
atención y velocidad de procesamientos de la información, lenguaje y habla, capacidad
visuoperceptiva, memoria y aprendizaje y funciones ejecutivas. Deben identificarse también las
alteraciones conductuales y emocionales. En la tabla 2 se exponen test neuropsicológicos que han
mostrado ser de utilidad para evaluar diferentes dominios cognitivos en pacientes con daño cerebral
adquirido. Como señala Sohlberg (2001), resulta importante obtener más de un indicador de déficit a
través de los distintos test que evalúan la misma capacidad antes de concluir que existe una
alteración en una determinada área.

ATENCION

Span atencional

Dígitos directos, escala de inteligencia de Wechsler para adultos – III(WAIS-III) (Wechsler, 1997)

Atención sostenida

Sustained Attention to Response Test (Robertson y cols, 1997)

Búsqueda de símbolos, escala de inteligencia Wechsler para adultos-III(WAIS-III) (Wechsler, 1997)

Conners Continuous Performance test (Conners y Multi-Health Systems Staff, 1995)

196
Concentration-Endurance test (d2 test) (Brickenkamp, 1981)

Atención selectiva

Búsqueda de símbolos, escala de inteligencia Wechsler para adultos-III(WAIS-III) (Wechsler, 1997)

Trail Marking Test A (Reitan y Wolfson,1995)

Symbol Digit Modalities test (Smith, 1973)

Atención dividida

Paced Auditory Serial Addition Task (Gronwall, 1977)

Baterías para la evaluación de la atención

Test of Everyday Attention (Robertson y cols, 2003)

Escalas

Moss Attention Rating Scale (Whyte y cols.,2003)

Rating Scales of Attentional Behavior (Ponsford y Kinsella, 1991)

MEMORIA Y APRENDIZAJE

Aprendizaje

California Verbal Learnig Test (Delis y cols., 1987)

Rey Auditory Verbal Learnig Test (Rey, 1960)

Test de Aprendizaje Verbal España-Complutense (Benedet y Alejandre,1998)

Figura compleja de Rey-Recuerdo y reconocimiento (Rey,1959)

Test de retención visual (Benton,1998)

Baterías para la evaluación de la memoria y aprendizaje

Cambridge Test of Prospective Memory (CAMPROMP) (Wilson y cols., 2004)

Escala de memoria de Wechsler-III (WMS-III) (Wechsler,1998)

The Candem Memory Test (Warrington,1996)

Rivermead Behavioral Memory Test (Wilson y cols.,1985)

Prospective Memory Screening (Sohlberg y cols., 1985)

197
Escalas

Prospective and Retrospective Memory Questionnaire (Crawford y cols., 2003)

Everyday Memory Questionnaire

FUNCIONES EJECUTIVAS

Control inhibitorio e interferencia

The Hayling Sentence Completion Test (Shallice y Burgess, 1997)

Stropp Color and Word Test (Golden, 1978; Stroop, 1935)

Planificación

Torre de Londres (Shallice, 1982)

Figura compleja de Rey-Copia (Rey, 1941)

Porteus Maze Test (Porteus, 1981)

Flexibilidad

The Brixton Spatial Anticipation Test (Shallice y Burgess, 1997)

Trail Making Test parte B (Reitan, 1958; Reitan y Wolfson, 1995)

Wisconsin Card Sorting Test (Heaton, 1981)

Toma de decisiones

Iowa Gambling Task (Bechara, 1994)

Cognitive Bias Task (Goldberg y Podell, 2000)

Ejecución de multitareas

Six Element Test (Shallice y Burgess, 1991)

Multiple Errand Task (Shallice y Burgess, 1991)

Fluencia

Controlled Oral Word Association Test (Spreen y Benton, 1977)

Ruff Figural Fluency Test (Ruff y cols, 1987)

198
Baterías para la evaluación de las funciones ejecutivas

Behavioral Assessment of the Dysexecutive Syndrome (Wilson y cols., 1996)

Escalas

Behavior Rating Inventory of Executive Function-Adult Version (Roth y cols., 2005)

Dysexecutive Questionnaire (Wilson y cols., 1996)

La evaluación psicométrica normalmente va dirigida a valorar el nivel de déficit, pero esta visión
puede resultar insuficiente para dar una visión completa de la capacidad funcional de la persona,
establecer las secuelas de la lesión o para desarrollar un plan de rehabilitación apropiado. Por ello
hay gran interés en desarrollar herramientas de medida de mayor validez ecológica a fin de estimar
mejor la capacidad funcional y las limitaciones de la persona, así como las medidas de resultado que
abarquen aspectos de integración social y satisfacción vital.

La identificación de los aspectos conductuales y emocionales es fundamental para una adecuada


valoración del paciente. Aun cuando existe una gran cantidad de instrumentos para evaluar los
aspectos cognitivos, son escasos los que permiten evaluar los cambios en la conducta y las
alteraciones emocionales. Una de las razones posibles es que los instrumentos resultan ser poco
precisos en sus resultados debido a las consecuencias propias de los trastornos neuropsicológicos
(compresión del contenido de las preguntas, escasa atención, apatía, falta de conciencia de las
limitaciones) y, por otro lado, porque la mayoría de éstos han sido desarrollados para trastornos
psicopatológicos clásicos, por lo que su uso en paciente con TCE puede inducir a error.

Pese a las limitaciones, en la actualidad se utilizan algunas escalas que pueden ser contestadas por
el paciente, su familia o personal sanitario. Entre éstas se destacan la Katz Adjustment Scale (KAS,
Hogarty y Katz, 1971) o las adaptaciones españolas de la escala de la valoración neuroconductual
(Neurobehavioral Rating Scale, NRS) y la entrevista revisada de lowa (Pelegrín y cols, 1995).

La información sobre los cambios conductuales y el estado emocional también se puede recoger a
través de la entrevista con la familia y la observación registrada por el propio neuropsicólogo en la
entrevista con el paciente. Sin embargo, a la hora de interpretar los datos hay que tener presente que
la conducta del paciente es el resultado de una compleja interacción de factores propios de la lesión,
premórbidos y reactivos a la situación. Por lo tanto, es tarea del profesional intentar identificar cuáles
de estos elementos contribuyen al problema y en qué grado.

199
Por otro lado, se tiene que considerar, como parte de toda evaluación neuropsicológica, el impacto
de los déficits en el ámbito funcional, es decir, cómo las alteraciones neurológicas, cognitivas,
afectivas y comportamentales afectan a la capacidad del sujeto para el autocuidado, el ajuste
personal, la integración social y el impacto en la familia. En este sentido se han desarrollado
instrumentos que permiten establecer el nivel funcional de los sujetos (véase la tabla 3) como el
Glasgow Outcome Scale (GOS), o la Disability Rating Scale (DRS).

Tabla 3 Medidas de discapacidad y resultados

MEDIDAS DE RESULTADOS

Functional Independence Measure (FIM) (Granger y Hamilton, 1987)

Functional Assessment Measure (FAM) (Hall y cols., 1993)

Glasgow Outcome Scale (GOS) (Jennett y Bond, 1975)

Disability Rating Scale for Severe Head Trauma (DRS) (Rappaport y cols, 1982)

Katz Adjustment Scale (Katz y Lyerly, 1963)

Portlan Adaptability Inventory (Lezak, 1987)

Craig Handicap Assessment and Reporting Technique (Whiteneck y cols., 1992)

Mayo-Portland Adaptability Inventory (Malec y Thompson, 1994)

Los conceptos de déficit, discapacidad y minusvalía, definidos por la OMS (1980) ofrecen un marco
útil para entender y valorar las dificultades cognitivas asociadas al TCE. De acuerdo con esta
estructura conceptual, el déficit se define como la alteración de una función (lenguaje, memoria,
etcétera); la discapacidad supone el impacto de este déficit en una capacidad funcional específica
(comunicación, olvidar hacer algo) y la minusvalía o hándicap se define como la alteración en el
funcionamiento o rol social a causa de la discapacidad (incapacidad para vivir solo o para trabajar).
Estos conceptos han sido revisados por The Internacional Classification of Functioning (OMS, 2001),
difiriendo de los originales propuestos por la OMS en 1980. Así, el término actividad sustituye a
discapacidad y participación. Además, la nueva clasificación introduce factores contextuales tanto del
entorno como personales (Tate, 2003).

200
6.6 Consideraciones Forenses en los Traumatismos Craneoencefálicos

Aunque, a nuestro entender, no existen datos en el contexto iberoamericano sobre la prevalencia de


los traumatismos craneoencefálicos implicados en procedimientos judiciales, es innegable que éstos
constituyen uno de los focos de interés más importantes para la neuropsicología forense,
especialmente en casos de demandas civiles. En los apartados siguientes nos centraremos en
desarrollar la aplicación de los conceptos generales de la neuropsicología forense a los problemas
específicos que plantean los TCE.

6.6.1 Valoración de Daños y Secuelas

Tal y como se ha visto en las páginas precedentes, los daños y secuelas neuropsicológicos,
psicopatológicos y comportamentales asociados a los TCE pueden llegar a ser extensos y, en
muchas situaciones, incapacitantes para la realización de numer9osas actividades de la vida diaria
(Sherer y Madison, 2005).

En la legislación española estos daños y secuelas tienen su correspondencia en los diagnósticos


aceptados en el baremo que se recoge en el Real Decreto Legislativo 8/2004, de 29 de octubre que
puede ser consultado en el capítulo primero de este manual.

La probabilidad de sufrir daños y secuelas se encuentra asociada directamente con dos variables: la
gravedad del TCE y el tiempo. En relación a la primera, se estima que entre el 5% y el 10% de todos
los TCE presentarán secuelas neuropsicológicas, de los cuales TCE moderados y graves los tendrán
con toda seguridad (Sherer y Madison, 2005). En España, un estudio realizado en el año 1993
reportó que el 84% de los TCE graves presentaban déficits en su funcionamiento cognitivo dos años
más tarde (Jurado y cols., 1993), datos que muestran una cierta consistencia con los hallazgos de
otros países. La tarea del neuropsicólogo forense en este tipo de casos está protocolizada, debiendo
tener especial cuidado con alguno de los sesgos revisados en el capítulo dos. Sin embargo, son los
TCE leves los que un elevado porcentaje de estos pacientes muestra una remisión total de los
síntomas a los tres meses de haber ocurrido el tramautismo (Larrabee, 2005). En el estudio
desarrollado por Scheretlen y Shapiro (2003) se encontró un 97% de solapamiento en el rendimiento
neuropsicológico entre controles y TCE leves al mes del accidente. En este sentido, según Binder y
cols. (1997), solo un 5% presentará déficits persistentes.

201
Por otro lado, desde la perspectiva forense hay que diferenciar entre el pronóstico y la recuperación
clínica de aquello que constituye la valoración forense de secuelas. Aproximadamente un 50% de los
pacientes con un TCE grave o moderado tendrá una buena recuperación un año más tarde y sólo el
20% presentará una discapacidad moderada (Choi y Barnes, 1994). En estos pacientes una buena
recuperación no significa una recuperación completa y menos la ausencia de secuelas que, tal como
hemos mencionado, estarán presentes casi con total seguridad. Por el contrario, para la mayoría de
los TCE leve se observa una recuperación completa con ausencia de secuelas (Larrabee, 2005).

La gravedad del TCE habitualmente se evalúa a través de indicadores clínicos conocidos y descritos
en la primera parte de este capítulo. Se otorga especial importancia a la gravedad, profundidad y
tiempo del coma, a la extensión del período confusional posterior, a la extensión y gravedad de la
amnesia postraumática, al tipo, localización y extensión de las lesiones, los daños neuropsicológicos
inmediatos y a la evolución de éstos.

La segunda variable en la evaluación de secuela guarda relación con el tiempo. En este sentido se
discute en qué momento es conveniente iniciar la evaluación forense de un TCE así cómo cuándo es
pertinente considerar la presencia de secuelas. De acuerdo con Sherer y Madison (2005), con
independencia del tiempo transcurrido desde el TCE, la evaluación forense puede ser realizada
desde el mismo momento en que el paciente esté en condiciones de contestar a una batería de
pruebas neuropsicológicas. La mayoría de autores se inclinan por situar el límite inferior tras la
resolución de la fase de la amnesia postraumática ya que los elementos de confusión mental
presentes es esa fase dificultan mucho la explotación mediante pruebas neuropsicológicas (Roig,
2005).

Se puede realizar la exploración pasados unos meses del TCE, pero los hallazgos no podrán ser
calificados como secuelas (dada la evolución del déficit neuropsicológico) sino como daños
presentes en un momento concreto. Cabe señalar que este tipo de informe puede ser utilizado por
una de las partes en un litigio por daños y secuelas como documento para presionar en una
negociación. La cuestión clave para el neuropsicólogo forense es la correcta interpretación de los
daños observados en función del tiempo transcurrido y la estimación de la evolución.

202
6.6.2 Pronósticos y Evolución

No existe consenso respecto a cuándo se puede considerar que un déficit es estable y no


recuperable, es decir, que constituye una secuela. Esta condición depende de variados factores
como los relacionados con la naturaleza propia del problema, variables psicosociales, si el paciente
ha recibido rehabilitación cognitiva o si cuenta con algún tipo de apoyo, entre otros. En general se
acepta que puede haber recuperación espontanéa hasta 18 meses en los TCE graves y moderados
(Dikmen, Reitan y Temkin, 1983; Levin, 1995; Larrabee, 2005). En este sentido, a partir de los daños
observados a los meses de un TCE grave y moderado (si no existe evidencia de amnesia
postraumática en ese momento) se puede realizar una estimación de las secuelas finales. Entre el
año consolidadas desde la perspectiva forense. Mientras que en los TCE leves, la exploración
realizada a los tres meses ya permite predecir la evolución del caso, con un período máximo de
evaluación de un año para estimar los daños y secuelas definitivas.

Un porcentaje de pacientes con TCE grave y moderado presentarán secuelas de tanta intensidad
que necesitarán cuidados y supervisión prácticamente de por vida (Sherer y Madison, 2005), lo que
implicará la planificación de estos cuidados y la estimación de sus costes. Lógicamente hay una
cantidad importante de profesionales implicados en estas tareas (letrados, economistas, médicos,
rehabilitadores, etcétera). Una de las fuentes de información más importantes para realizar esta
planificación es la aportada por los neuropsicólogos, ya que estos pueden realizar pronósticos a largo
plazo en la evolución de las funciones cognitivas, los estados emocionales y las respuestas
comportamentales. Aunque hay que tener presente que si bien esto puede ayudar a una buena
estimación también puede perjudicar si se cometen errores como, por ejemplo, sobrevalorar el déficit
o la evolución de estos. Una buena revisión de este tema se puede encontrar en Larrabee (2005).
Los factores clínicos que son relevantes para esta tarea son: tiempo desde el traumatismo y estado
final tras la estabilización; pronóstico a largo plazo; edad; situación de las funciones respiratorias;
movilidad; situación de las funciones nutricionales; situación de las funciones evacuatorias (intestino
y vejiga) y presencia de problemas comportamentales.

6.6.3 Aspectos Psicopatológicos y Emocionales

Respecto a la valoración de la posible psicopatología emocional posterior a un TCE, existe la


dificultad de diferenciar cuándo ésta forma parte de una secuela cerebral, constituyendo un síntoma
del mismo daño cerebral de aquella que proviene de otras fuentes (Murrey, 2000). Por ejemplo, la
203
presencia de ansiedad o depresión puede formar parte del síndrome postconmocional y por lo tanto
estar directamente relacionada con la patofisiología y la neuroquímica cerebral. Sin embargo,
también puede constituir una reacción psicopatológica/emocional postraumática, no al daño cerebral
sino a las consecuencias que esta situación ha introducido en la vida del paciente. También es
posible que éste tuviera antecedentes de depresión antes del TCE. Aun cuando existiera registro de
estos antecedentes, ello no garantiza que el TCE no actuase como un factor agravante y por lo tanto
se puede considerar vinculado al mismo.

A pesar de ello, Rosenthal y cols. (1998) hallaron que, entre el 33% y el 66% de los TCE presentan
depresión postraumática. Además, varios investigadores han planteado que, al contrario de la
creencia habitual, hay diferencias mínimas en TCE con el diagnóstico de depresión entre pacientes
en litigio legal y los que no están en esta condición (Dikmen y cols., 1995). De modo que la depresión
parece ser un hecho común es este estado, especialmente si se observan lesiones frontales
dorsolaterales y/o de los ganglios basales izquierdos y de manera más extensa, de los parieto-
occipitales y del hemisferio derecho (Yedid, 2000).

Por otro lado, hay que tener en cuenta que la reacción emocional puede mediatizar las respuestas a
los test cognitivos, observándose resultados más deficitarios que los que directamente puede ser
atribuidos al daño cerebral (Yedid, 2000, Sweet, 1999). Desde la perspectiva forense, en los TCE es
muy difícil diferenciar el efecto sobre los resultados cognitivos entre variables directamente
relacionadas con el daño cerebral y aquéllas relacionadas de manera indirecta, como los aspectos
psicológicos. Un buen indicador de la fuerza de estos últimos es la constancia de sintomatología
emocional previa al TCE, aunque no siempre puede ser evidenciable.

Los hallazgos neuropsicológicos bien documentados permiten justificar los datos psicopatológicos y
psiquiátricos concomitantes en presencia de una historia premórbida «limpia». No obstante, ya que la
presencia de psicopatología y estados emocionales alterados es tan frecuente en estos casos, la
evaluación forense debe tenerlos en cuenta, tanto en la recogida de datos como en su interpretación.
Yedid (2000) ha llamado a esta situación «evaluación neuropsicológica convergente».

Deberán tenerse en cuenta todos los posibles diagnósticos psicopatológicos que pueden aparecer
muy relacionados con los hallazgos neuropsicológicos y que pueden influir en los resultados
psicométricos como, por ejemplo, el trastorno psicótico breve (condesencadenante grave – TCE);
trastorno por estrés postraumático; trastorno depresivo –reacción depresiva–; síndrome depresivo
postraumático (episodio mayor, distimia); trastorno obsesivo compulsivo –fobias específicas–; fobias
de impulsión; trastornos disociativos (amnesia disociativa, trastorno de identidad disociativa);
trastorno adaptativo (duración menor a seis meses).
204
La evaluación de los aspectos psicopatológicos y emocionales de los TCE ha de ser especialmente
cuidadosa al considerar situaciones en las que el paciente puede tener la convicción íntima de la
presencia de daños y secuelas que de hecho no presenta. Se trata de la hipocondríasis, el trastorno
de somatización, la neurosis de renta y el trastorno facticio (con síntomas físicos y/o con síntomas
psicológicos). La presencia de estos trastornos conlleva una dificultad añadida a la tarea de
neuropsicólogo forense, ya que la creencia del paciente acerca de la realidad de sus daños está
anclada en procesos psicológicos profundos y no en el deseo de una ganancia concreta e inmediata
asociada a la presencia de los síntomas (simulación), Lógicamente el neuropsicólogo forense no
puede dictaminar en estos pacientes daños y secuelas que de hecho no existen. Tal como señala
Binder (1997), no es sólo el tipo de lesión lo que importa sino el tipo de cabeza.

6.6.4 Ajuste Pre-Mórbido en el Traumatismo Craneoencefálico

La valoración premórbida constituye uno de los hitos de la neuropsicología forense, no sólo por el
problema de la existencia de causas previas al hecho juzgado sino también porque de esta manera
se establece el punto de referencia para la valoración del estado del sujeto en la condición actual.
Esto adquiere especial significación en la valoración de los daños y secuelas ya que permite tener un
punto de comparación para determinar la presencia de éstos. En el capítulo correspondiente se
explica la problemática asociada a esta situación y los procedimientos técnicos para resolverla.

En ocasiones puede haber enfermedades y condiciones anteriores que resultan relevantes para la
evaluación forense pero que el mismo sujeto y/o su ambiente no habían sido capaces de detectar
hasta el momento del TCE. Por ejemplo, un problema de alcoholismo no detectado o problemas
cerebrovasculares previos que se hacen manifiestos en las pruebas neurorradiológicas.

Resulta relevante tener presente la existencia previa de trastornos del desarrollo, enfermedades
médicas, dolor crónico, la presencia de adicciones y abusos de sustancias u otras condiciones que
también puedan justificar los síntomas neuropsicológicos. Una buena revisión se puede consultar en
el texto de Yedid (2000). Relacionado con ello también se deben tener en cuenta los efectos de la
medicación, especialmente los psicofármacos, lo que también puede ser revisado en el
correspondiente capítulo de este libro.

La clave está en que todos estos factores no sólo pueden mediatizar y desvirtuar los resultados de
las pruebas neuropsicológicas sino inducir a falsos positivos (Larrabee, 2005). Se exige del
neuropsicólogo forense una buena preparación para saber diferenciar cuáles de los daños

205
neuropsicológicos pueden ser previos, cuáles son propios de la nueva condición y cuáles han podido
ser agravador por el TCE. Lógicamente esto no es tarea fácil y en ocasiones, ni siquiera posible. Una
buena revisión de las influencias de estos factores se puede encontrar en Labarree (2005).

6.6.5 Evaluación Forense del Traumatismo Craneoencefálico

No existen instrumentos específicos de evaluación forense para el TCE, lo que quiere decir que se
utilizan los instrumentos propios de la neuropsicología clínica, pero con todos los procedimientos
propios de la evaluación forense (Long y Collins, 1997); Yedid, 2000; León-Carrión y Barroso, 2001).
De igual manera la interpretación de sus resultados se realiza desde el contexto forense con sus
condicionamientos y prevenciones, lo que es válido tanto para la evaluación de los efectos cognitivos
como los comportamentales emocionales.

6.6.6 Concordancia de los Datos Neuropsicológicos y Neurorradiológico

Una situación «ideal» en la valoración forense es que existía una buena correlación entre los daños y
secuelas neuropsicológicas y las lesiones evidénciales en pruebas neurorradiológicas y
neurofisiológicas. Sin embargo, aún hay pocos estudios que prueben esta relación en el contexto
forense (Yedid, 2000). La razón principal estriba en que el daño axonal difuso, responsable de la
mayoría de los déficits neuropsicológicos (especialmente en los TCE leves), no siempre es
detectable por técnicas neurorradiológicas y estáticas como la tomografía computarizada y la
resonancia magnética, mientras que en pruebas dinámicas como el PET o SPECT se observan
relaciones poco consistentes, situación que se repite en el EEG y las pruebas derivadas como los
mapas cerebrales (Ruff y Richardson, 1999). Todavía no existe suficiente experiencia de la
aplicación de nuevas tecnologías –como el tensor de difusión de imagen– en cuestiones forenses.

Cuando se comparan técnicas neurofisiológicas y neuropsicológicas se encuentra que estas últimas


predicen mucho mejor la evolución del TCE y la presencia futura de secuelas. Aunque la resonancia
funcional magnética es muy sensible a los cambios fisiológicos del cerebro tampoco tiene por qué
correlacionarse de forma exacta con la presentación de los daños neuropsicológicos.

En resumen, el neuropsicólogo forense utiliza las pruebas neurorradiológicas como intento de


verificación de los hallazgos neuropsicológicos, pero no como argumento definitivo. De hecho,
cuando tenga que optar por dar validez a ambos tipos de medidas, primero optará por las
206
neuropsicológicas si éstas han sido recogidas y analizadas con todas las garantías forenses
(descartando la simulación, planteando hipótesis alternativas, etcétera).

BIBLIOGRAFIA

Aliaga, A. y Jarne, A. (2010). Manual de Neuropsicología Forense. Herder: Barcelona

Ayuso, D. (2007). Actividades de la vida diaria. Anales de la Psicología, 1-8.

Bausela, E. (2006). La evaluación neuropsicológica: procedimiento, instrumentos y variables.


Redalyc, 19-26.

Benedet, M. J. (2002). Neuropsicología Cognitiva. Serie documentos tecnicos, 1-602.

Cárdenas, M. (2005). Uso de una encuesta panel para evaluaciones de impacto. Coneval, 1-145.

Lizana, P. (2012). Introducción a la Anatomía Humana. Pontificia Universidad Católica de Valparaíso,


1-15.

Mora, J. (2007). La Escala de Inteligencia de Binet y Simon (1905) su recepción por la psicología
posterior. Revista de la Historia de la Psicología, 307-313.

Pérez, M. (2012). La Evaluación Neuropsicológica. Focad, 1-31.

Pérez, W. (s.f.). Teorías Y Modelos Que Explican El Funcionamiento Cerebral: Procesos De


Percepción, Memoria Y Aprendizaje. 1-23.

Reynaga, J. (s/a). El Método Estadístico. 1-7.

Rodrígues, J. J. (1995). Correlación Entre Ajuste Premórbido Y Personalidad Previa En Pacientes


Esquizofrénicos. Departamento De Psiquiatría Y Psicología Medica, 1-301.

Santos, J. (2005). Rehabilitación neuropsicológica. Redalyc, 15-21.

Sergio. (S/A). Exploración Neurológica en Urgencias. Servicio Navarro de Salud, 1-4.

Tirapu, J. (2007). La evaluación Neuropsicologica. Redalyc, 189-211.

Tirapu, J. (s.f.). Neuropsicología de las Funciones Ejecutivas. 1-42.

Verche, E. (2015). La Neuropsicología Forense. Estado Del Arte. neuropsicología, forense, revisión.,
1-21.

207