You are on page 1of 9

TEMA 5: PRINCIPALES

ENFOQUES TEÓRICOS EN
PSICOLOGÍA
1. Un poco de historia.
La Psicología como ciencia nace en Alemania a finales del siglo XIX, donde se había dado una
importante modernización en las universidades, y cuyo impulsor de esta modernización fue
Humboldt.

En este contexto, se crea el primer laboratorio de Psicología en Leipzig, en 1879, a cargo de


Wundt. De forma paralela, surge el Psicoanálisis, el cual no asienta sus bases en el método
científico.

A la vez, tiene lugar la revolución industrial, que se alía con el método científico, pues dicha
revolución depende de la tecnología, la cual se producía a su vez a partir del método científico.
Por tanto, avance científico y progreso tecnológico quedan ligados (el conocimiento propicia el
avance tecnológico, y a su vez el avance tecnológico se alcanzan nuevas formas de hacer
experimentos, esto es, se hacen posibles ciertos experimentos).

El estudio de la mente da lugar a diversas escuelas dedicadas al estudio de la conciencia,


influenciadas por el pensamiento que Wundt tenía de la Psicología. Gracias a esta creación de
nuevas escuelas aparecen otros psicólogos muy importantes, como Titchener y Külper.

La escuela más importante fue la Gestalt, que tenía un planteamiento científico, aunque las
bases en las que basaba el estudio eran muy diferentes de las dadas por Wundt, Titchener y
Külper: más que estudiar la conciencia se centraba en el estudio de la percepción y la
resolución de problemas con una metodología experimental muy novedosa. Esta escuela,
desgraciadamente, no pudo desarrollarse completamente por el movimiento Nacionalsocialista
de Alemania, y por la persecución de los judíos, muchos de los cuales eran científicos de la
Gestalt.

La 1ª GM y la influencia de movimientos intelectuales como el darwinismo, el funcionalismo y


el pragmatismo en EE. UU. cambió totalmente el peso de los diferentes países en el desarrollo
de la Psicología: el peso pasa a EE. UU., que se convierte en el principal motor de la Psicología
científica.

Todos estos factores comentados tienen como consecuencia el rechazo de la Psicología de la


conciencia, que se vio sustituida por el Conductismo.

Características de la Psicología de la conciencia:

 Uso de la introspección mental: indagar acerca de los procesos mentales


preguntándole al sujeto acerca de los pensamientos o ideas que haya tenido (era una
observación del sujeto acerca de sí mismo). Se llama experimental porque se utilizaba
para experimentos: se presentaban muchos estímulos al sujeto y se le preguntaba qué
o cuántos estímulos tenía en su mente.
 Estudio de la función analítica y sintética de la conciencia: era el principal objetivo.
Proponía que las ideas estaban compuestas por partes, y que la conciencia puede
descomponer dichas ideas o unir diferentes partes para formar una idea nueva más
compleja. Esto lleva a la formulación de preguntas como: ¿cuántas ideas puede
contener la conciencia? ¿Existe el pensamiento sin imágenes?

Problemas de la Psicología de la conciencia:

 Poca fiabilidad del método introspectivo, pues era un método subjetivo cuyos
resultados no se podían replicar.

 Poco compromiso con la utilidad para resolver problemas de interés social.

 El conocimiento científico se consideraba fundamental para la formación completa de


una persona, pero no estaba concebido para tener una aplicación social. A la formación
completa del individuo se le denominaba Bildung (término alemán).

2. El conductismo.
Surge a principios del siglo XX.

La Psicología que había en las universidades alemanas estaba basada en el dualismo (René
Descartes es el máximo exponente), el cual proponía la existencia de:

 Res cogitans (mente): funciona con principios lógicos.

 Res extensa (cuerpo): funciona con principios de reacción (reacciones causales).

En esto se basaba la principal diferencia entre el comportamiento animal y el humano: los


animales no tenían mente (res cogitans) y los humanos sí.

Además, hay que destacar que el dualismo admitía también una res infinita (Dios). Esto, junto
con la gran influencia de la religión en cuanto a la evolución de las especies, dio lugar al
inmovilismo: hombres y animales han sido así desde siempre; no cabe evolución alguna.

Esto, sin embargo, entraba en contraposición con el pensamiento de muchos investigadores


como Darwin, que propuso la teoría de la selección natural, la cual se basa en la adaptación y
el continuismo.

 Adaptación: los procesos mentales y las conductas de las especies cumplen alguna
función que aumenta las posibilidades de supervivencia.

 Continuismo: los rasgos físicos, procesos mentales y conductas no surgen de manera


abrupta en las especies, sino que, en su mayor parte, se heredan de unas a otras con
pequeños cambios, por lo que muchos rasgos y mecanismos son compartidos por
muchas especies, por lo que los resultados del estudio de una o varias especies podría,
a menudo, extrapolarse a otras.

El clima creado por la teoría de la evolución animó a los científicos al estudio animal,
investigando sobre la inteligencia, pues, basándose en el continuismo, si los seres humanos
somos inteligentes, los animales también debían tener en mayor o menor medida esas
capacidades. De todo esto nace la Psicología comparada.
- Psicología comparada.
La Psicología comparada se basa en la experimentación y la objetividad, siendo el aprendizaje
objetivo el principal objetivo de la investigación de esta rama de la Psicología.

El primer autor destacado de esta rama es Thorndike, que estudió el comportamiento de los
gatos. Los encerraba en una caja (llamada caja problema) de la que tenían que salir mediante
la activación de un mecanismo, que tenían que descubrir mediante ensayo-error. Una vez
conseguían abrirla se les alimentaba.

Estos estudios llevaron a Thorndike a defender que los animales no resuelven problemas
mediante hipótesis, sino mediante ensayo-error (se asocia estímulo (salir y comer) y
antecedente (presión de la palanca o cualquier mecanismo para salir de la caja)).

De tal manera, formuló la ley del efecto:

 La asociación entre el estímulo y la respuesta se fortalece si la respuesta va seguida de


una consecuencia agradable (reforzamiento).

 La asociación entre el estímulo y la respuesta se debilita si la respuesta va seguida de


una consecuencia desagradable (castigo).

En segundo lugar, tenemos a Pavlov, médico que se encontraba estudiando el proceso de


digestión con perros.

Este científico se dio cuenta que, cuando administraba comida, los perros tendían a salivar
más. Sin embargo, llegado un momento dado, no sólo la comida producía una salivación, sino
que otros estímulos también producían este efecto, tales como los investigadores acercándose
a los perros. Este fenómeno le pareció más interesante que el proceso de digestión, por lo que
pasó a estudiarlo. Finalmente, llegó a la conclusión de que la clave estaba en el
emparejamiento entre estímulos: los pasos de los investigadores y la comida. A los
investigadores los sustituyó por una campana y obtuvo el mismo resultado.

A la comida (que elicita la respuesta de salivación sin aprendizaje previo) la llamamos estimulo
incondicionada.

A la respuesta que provoca la comida, la salivación, la llamamos respuesta incondicionada.

Al sonido de la campana (sonido neutro que, a partir de aprendizaje, provoca salivación) lo


llamamos estímulo condicionado (debe tener un aprendizaje previo).

A la respuesta provocada por la campana (salivación) la llamamos respuesta condicionada.

Pavlov explicó este proceso de aprendizaje partiendo de la idea de que se daba una asociación
entre estímulos (campana-comida). Él pensaba que el sonido de la campana activaba unos
centros cerebrales, y la comida provocaba la activación de otros. Debido al emparejamiento
que se producía entre ambos centros se fortalecía una conexión entre ellos, de manera que la
presentación del sonido de la campana era capaz de, además de activar los centros cerebrales
de la campana, activar también los centros cerebrales de la comida.

Las razones a las que atendía el uso de animales como modelos del comportamiento humano
eran:

 Permite investigar problemas que son difíciles o imposibles de estudiar directamente


en personas.
 Permite realizar la investigación en condiciones más sencillas y mejor controladas,

Lógicamente, para que un modelo sea válido, su funcionamiento debe ser comparable en
rasgos o funciones relevantes de análisis con el objetivo real de estudio.

El conductismo se centró en el estudio de las cuestiones que tenían que ver con la mente hasta
que llegó Watson, que, mediante un manifiesto (conocido como el manifiesto conductista,
1913), puso de manifiesto que las investigaciones debían de dejar de centrarse en los procesos
mentales de los animales, y centrarse en entender el comportamiento de los animales para
proporcionar así una predicción y control de ese comportamiento.

Watson  Manifiesto  Objetivo del conductismo: centrarse en el comportamiento.

 Objetivo fundamental: predicción y control del comportamiento.

Pilares básicos del conductismo de Watson:

 Rechazo radical del mentalismo (mentalismo = dualismo; el cual no es compatible con


la ciencia pues aseguramos que la mente y el cuerpo funcionan por separado, por lo
que se prescinde del estudio (no se estudia) de la mente).

 Conductismo metodológico: la mente no se puede estudiar porque no la podemos


observar (sólo podemos estudiar lo observable directamente). Estos, como vimos en
un tema anterior, es la base del positivismo. Sin embargo, Watson empezó adoptando
esta visión, pero luego la rechazó para adoptar una postura aún más radical:
conductismo radical.

 Conductismo radical: la mente no existe; las ideas o pensamientos también son


conductas, y el SNC no es importante, pues la corteza cerebral sólo es una mera
“centralita” que asociaba estímulo con respuesta (reflejos provocados por estímulos).

Además, Watson adoptó el condicionamiento pavloviano, pero dado que Pavlov hablaba de
centros de la mente, Watson dio otra explicación: había una asociación directa entre el
estímulo neutro y la respuesta condicionada, pues como ambas cosas estaban muy contiguas
en el tiempo era posible dicha asociación (hay que tener en cuenta que el estímulo neutro y la
respuesta incondicionada son cosas observables, fundamental para Watson). De tal manera, y
extrapolándolo a humanos, defendió que todos nuestros comportamientos y nuestras
habilidades son el resultado del aprendizaje de nuevos reflejos.

Esta visión provocó un enfrentamiento directo entre la maleabilidad de la conducta (la cual
defendía Watson, y que se basaba en que toda conducta es aprendizaje) con la herencia
determinista (que defiende que la principal causa de nuestro comportamiento viene
determinada por la herencia). La herencia determinista se defendió hasta tal punto en que se
pensó que, si los comportamientos (o su base) vienen de los genes, entonces para darse una
mejora de la sociedad se debían seleccionar a loa sujetos que fueran aptos para reproducirse
(esto es conocido como eugenesia).
La década dorada del conductismo tuvo como principal autor a Skinner, que mantuvo el
conductismo radical (en la línea de Watson): la causa de la conducta no era la mente ni la
persona, sino el ambiente; los procesos mentales, si existieran, no producen la conducta y
deben ser ignorados por los psicólogos; y la gran mayoría de las conductas que llevamos a cabo
son el resultado de un condicionamiento operante (condicionamiento instrumental de
Thorndike).

Este autor negó el libre albedrío, pues toda conducta estaba determinada, desde su punto de
vista, por el ambiente, por lo que la libertad y la autonomía no existen.

Pero no todos los científicos se adherían a estos planteamientos. Tolman llevó a cabo un
experimento en el cual metía ratas en un laberinto. Al grupo 1 se le daba comida cada vez que
llegaba a una sala del laberinto, mientras que otro grupo sólo la recibía a partir del ensayo 11.
El resultado fue que las ratas de ambos grupos aprendían igual el laberinto. Esto sólo puede
explicarse a partir del reconocimiento de un proceso de aprendizaje del laberinto por ambos
grupos. A este proceso de aprendizaje se le denomina aprendizaje latente (las ratas del
segundo grupo creaban un mapa cognitivo del laberinto, y luego lo aplicaban para obtener
comida).

Parte de la crisis del conductismo se debe por su asociación al positivismo (conductistas


compartían un enfoque positivista de la ciencia). Sin embargo, la física ya había descubierto las
partículas (no observables), las cuales no se podían explicar de una operacional, como pedía el
positivismo.

Además, muchos fenómenos (como el aprendizaje latente) no se podían explicar a partir de


asociaciones E-R: no se podía explicar la devaluación del reforzador (se puede devaluar
mediante saciación o convirtiéndolo en algo aversivo mediante a asociaciones (una vez que el
reforzador es aversivo, la rata deja de presionar la palanca)) ni los fenómenos de aprendizaje
selectivo (cuando dos estímulos van seguidos de un estímulo incondicionado (sonido y luz +
descarga eléctrica, por ejemp.) uno de los dos se asocia mejor, y se asociaba mejor uno u otro
dependiendo de la especie, lo cual demostraba que había diferencias entre especies, cosa que
no podía aceptar el positivismo porque no daba credibilidad a los factores hereditarios).

A todo esto, se le suma que la contigüidad E-R no es una condición necesaria ni suficiente para
que se dé un condicionamiento.

La cantidad de fallas que presentaba esta teoría dio como resultado un auge de científicos que
se lo criticaban. Entre ellos destacamos a Chomsky, gran precursor de la Psicología cognitiva y
responsable de la caracterización del lenguaje desde un punto de vista sintáctico.

Este autor planteó el problema de cómo se adquiere el lenguaje, ya que esto no es posible
explicarse mediante la tríada E-R-C (Estímulo-Respuesta-Consecuencia) del condicionamiento
operante pues, para formar frases, ¿cuál es el estímulo respuesta y consecuencia? No podía
saberse. Podemos emitir frases sin ningún estímulo. Y la respuesta tiene el problema de que
podemos producir frases nuevas que nunca han sido reforzadas. El conductismo explicaba esto
generalizando (toda frase creada se parece a otra anterior). Pongamos un ejemplo de frase:

Pablo tiene un coche. María tiene una pelota.

El único parecido entre frases es sintáctico, pero esto no puede ser admisible desde el
conductismo, pues no es algo observable.
Por último, tampoco hay consecuencias negativas o positivas para cada frase.

Sin embargo, en ciencia, que una teoría pase por una crisis no implica su desuso; todo depende
de si hay alguna otra teoría alternativa, y durante el conductismo no había ninguna, por lo que
sobrevivió ateniéndose en que el mentalismo (ellos lo rechazaban) se identificaba con el
dualismo (como hemos visto, no es viable desde un punto de vista científico), por lo que el
conductismo no se vio mermado totalmente.

3. Surgimiento del enfoque computacional y


Psicología cognitiva.
Turing fue uno de los máximos representantes del enfoque computacional. Este lógico y
matemático estaba interesado en diseñar un procedimiento general para computar hasta qué
punto podemos decidir acerca de la verdad o falsedad de los enunciados (a esto se le conoce
como decibilidad). Para ello concibió la (imaginaria) máquina de Turing; máquina que contenía
una unidad lectora (detectaba símbolos en una cinta compuesta por celdas, que podían estar
escritas o en blanco) y un sistema de control, que realizaba múltiples acciones (borrar símbolos
y cambiarlos, dejar el símbolo o cambiar el estado interno de la máquina (cambios de
activación de los elementos de un circuito)).

La máquina una vez que leía un símbolo hacia una acción, dependiendo del programa o
algoritmo de la máquina. Estos algoritmos eran un listado de reglas condición-acción, que
tenían que ver con el símbolo detectado y con el estado interno de la máquina.

Del planteamiento de Turing se pueden deducir varias consecuencias:

 Una función es computable si existe un algoritmo para que pueda ejecutarla la


máquina de Turing.

 Computación y máquina quedan ligados. Cualquier razonamiento lógico para decidir


sobre la verdad o falsedad de una proposición a partir de unas premisas puede
ejecutarse en una máquina de Turing.

Para decir que algo es computable se necesita un mecanismo físico, el cual debe poder
describirse como un mecanismo de cómputo. Se rompe por tanto el dualismo: el pensamiento
se caracteriza por la lógica de la computación, que se define por su capacidad de estar en un
mecanismo físico: mente = materia. Esto rompe el mentalismo y el dualismo.

Otros dos representantes del enfoque computacional son McCulloch y Pitts, los cuales
aportaron la idea de que nuestro cerebro podía realizar procesos de cómputo (neuronas =
unidades de información que activan o desactivan otras neuronas). Una red de neuronas
ilimitada tiene una capacidad de cómputo equivalente a una máquina de Turing.

En todo este clima surge la ciencia cognitiva.

Principales premisas de la Psicología cognitiva:

 Racionalidad: nuestros procesos mentales y nuestra conducta son racionales.

Hay dos definiciones de racionalidad:

 Lógica: el ser humano es un ser lógico, que ha inventado multitud de


herramientas lógicas.
 Adaptativa: capacidad de conseguir objetivos en un entorno de cambio y
adaptarse a dicho entorno.

 Algorítmico: los procesos mentales son de naturaleza algorítmica y, por tanto, pueden
describirse mediante algoritmos.

 Representacionalismo: hay estados mentales que tienen la función de codificar estados


del mundo. Dichos estados mentales se definen a partir de una combinación de
símbolos y se pueden descomponer hasta llegar a sus constituyentes más elementales.

Sin representaciones mentales no hay abstracción, y sin abstracción no hay cognición.


Las representaciones mentales son las que nos permiten tratar con la invarianza,
ignorando las variaciones irrelevantes en los estímulos.

 Causación y materialismo: los estados mentales intervienen causalmente de tres


formas:

 Los estados mentales pueden darse como un efecto de la presencia de un


estímulo o de un contexto estimular.

 Los estados mentales pueden producir otros estados mentales.

 Los estados mentales pueden producir conductas.

Los procesos mentales que lleva a cabo nuestro sistema cognitivo se pueden
descomponer en procesos más elementales de manera sucesiva hasta llegar a las
operaciones básicas que tienen lugar en el cerebro.

- Computacionalismo clásico y redes neuronales.


Hay dos enfoques para comprender la computación: el computacionalismo clásico y las redes
neuronales.

El computacionalismo clásico está inspirado en los lenguajes lógicos y los ordenadores.

Se desarrolló por una idea de en qué consistía lo fundamental de la mente humana (se
consideraba que era su capacidad lógica). Los procesos mentales se entendían como un
procesamiento serial, esto es, las funciones de procesamiento se realizan a partir de un control
basado en una unidad de control de procesamiento.

El procesamiento se puede comprender mediante el binomio representación-regla de


transformación: la representación se refiere a los estados representacionales (estados con
contenido), y se asemejan a los estados mentales; mientras que la regla de transformación se
refiere a los algoritmos que permiten pasar de una representación a otra, por lo que podríamos
decir que, para pasar de un estado a otro, necesitamos una regla de transformación.

La regla de la transformación no se rige por el contenido, sino por la estructura:

Juan ama a María  Juan desea estar con María.

Ana ama a Luis  Ana desea estar con Luis. El computacionalismo clásico entiende que las
representaciones mentales se conciben de acuerdo con el esquema del asociacionismo: cada
representación de cada entidad diferente ocupa un espacio específico en la memoria no
compartido con otras representaciones.

Esto, llevado al terreno del cerebro, afirma que cada neurona se encarga de representar una
cosa, lo cual se parece al almacenamiento de memoria en un ordenador.

En el computacionalismo clásico destacamos a:

 Chomsky: pionero en el desarrollo del computacionalismo clásico.

 Simon y Newell: importantes en el desarrollo de la inteligencia artificial. Desarrollaron


algoritmos y programas capaces de solucionar problemas.

 Broadbent: propuso que la atención funcionaba como un sistema de filtro.

 Miller: realizó estudios sobre la capacidad de la memoria a corto plazo.

 Atkinston y Shiffrin: desarrollaron la primera teoría sobre la estructura de la memoria:


la memoria humana se podía dividir en sistemas de memoria, los cuales se pueden
caracterizar según el tiempo que retienen la información y de la función que
desempeñan en el sistema cognitivo.

Limitaciones del computacionalismo clásico:

 Fragilidad a la hora de procesar información deteriorada: la información, en humanos,


puede deteriorarse por lesiones cerebrales o porque nos falta información. Que el
computacionalismo clásico no pueda deja entrever que los sistemas basados en este
tipo de computación son muy buenos en la lógica, pero muy malos en las tareas de
reconocimiento e interacción con el entorno (lo contrario a los seres humanos).

Las redes neuronales, por su parte, son modelos de procesamiento de la información


inspirados en el funcionamiento del cerebro. Se basa en la interacción entre múltiples unidades
de funcionamiento funcionando de forma autónoma y en paralelo.

En la actualidad, este enfoque ha dado lugar a un enfoque denominado neurociencia


computacional, que se caracteriza por proponer modelos neuronalmente plausibles (que
incorporan muchos elementos del comportamiento real de las redes neuronales de nuestro
cerebro)

Principios de procesamiento de la información en el cerebro:

 Las neuronas integran inputs de otras neuronas.

 Las neuronas pasan información acerca de su nivel de input (mientras + input recibido,
+ output (señal) emitida).

 El cerebro está estructurado en capas (las neuronas no están todas conectadas de


manera directa entre sí).

 La influencia de una neurona sobre otra depende de la fuerza de conexión entre ambas
(eficacia sináptica).

 El aprendizaje tiene lugar a partir de fuerzas de conexión entre neuronas.

Efecto de potenciación a largo plazo: cuando tenemos un haz de axones de una capa
que conecta con otra capa, inicialmente la primera capa puede ser poco eficaz para
afectar a la segunda capa, pero a partir de determinadas condiciones la eficacia puede
cambiar De tal manera, si se da simultáneamente la activación presináptica con la
activación postsináptica se puede fortalecer la sinapsis.

 La información se almacena de forma distribuida. La representación de objetos se lleva


a cabo gracias a los patrones de activación neuronal.

Se sabe que las redes neuronales artificiales y los seres humanos presentamos propiedades
parecidas;

 Resistencia al deterioro informativo: podemos aprender la versión correcta del nº 2 y


aún así ser capaces de reconocer versiones distorsionadas.

 Estos modelos, una vez que aprendían, eran capaces de ejecutar tareas cognitivas con
buen nivel de desempeño, a pesar de la destrucción de alguna de sus unidades de
procesamiento. En seres humanos, se da un deterioro paulatino en la ejecución de
algunas tareas conforme se va destruyendo las unidades de procesamiento (una lesión
cerebral se hace más grande), pero no perdemos la capacidad de ejercer tareas
cognitivas con buen nivel de desempeño.

 Aprendizaje a partir de la experiencia (a partir de ejemplos)

 Facilidad para encontrar estados de máxima coherencia a partir de microinferencias.

En este contexto, destaca el efecto McCurck: a la hora de interpretar sonidos no


tenemos en cuenta sólo el sonido, sino también el contenido léxico, el contenido
semántico y el contexto coarticulatorio, por ejemplo.

Otro ejemplo de microinferencias se da en la comprensión lectora.

Limitaciones de las redes neuronales:

 A las redes neuronales no se les da bien el desempeño de tareas lógicas.

Algunos de los personajes más destacados de las redes neuronales son:

 Hebb: fue el autor de la primera regla de aprendizaje: la fuerza de conexión entre dos
neuronas aumenta cuando ambas están activas al mismo tiempo (potenciación a largo
plazo)

 Rosenblatt: creó el perceptrón: red neuronal diseñada para aprender a reconocer


patrones de acuerdo con principios de aprendizajes inspirados neuronalmente.

 Hopfield: creador de las redes Hopfield, redes autoasociativas (todos los elementos
están conectados entre sí), diseñadas para tareas de completación de patrones a partir
de versiones distorsionadas o incompletas de tales patrones.

 Smolensky: defensor de la integración de modelos basados en la computación clásica


(macronivel) y basados en redes neuronales (micronivel)

 McClelland y Rumelhart: gracias a las publicaciones que llevaron a cabo se produce el


boom en el enfoque de las redes neuronales. A estas publicaciones se las conoce como
la biblia del conexionismo.

You might also like