You are on page 1of 15

UNIVERSIDAD ABIERTA PARA ADULTOS

UAPA

ESCUELA DE PSICOLOGÍA
CARRERA DE PSICOLOGIA CLINICA

TEMA

Unidad IV.
PRESENTADO POR:

Jean Carlos Vásquez Tineo

MATRÍCULA:

15-7339.

ASIGNATURA:

Análisis de la Conducta.

FACILITADORA:

Claudia.

Santiago de los Caballeros


República Dominicana
Febrero, 2019.
Introducción.

El condicionamiento es un procedimiento que consiste en establecer ciertas condiciones de


control de estímulos. En sentido amplio significa la asociación de patrones bastante específicos
de comportamiento en presencia de estímulos bien definidos.

Una de las formas en cómo se presenta el acondicionamiento es el condicionamiento operante o


instrumental. Este tipo de condicionamiento a diferencia del clásico está enfocado en la respuesta
y no en el estimulo asociada con esta. A continuación, se presentas informaciones importantes
sobre este tipo de condicionamiento y las bases sobre la cuales sus autores establecieron sus
investigaciones.
1. Realiza una tabla donde expliques sobre el condicionamiento operante:

Condicionamiento Operante.
¿En qué consiste? es una forma de enseñanza, mediante la cual un sujeto tiene más probabilidades de repetir las formas de
conducta que conllevan consecuencias positivas y menos probabilidad de repetir las que conllevan
problemas negativos. Es un tipo de aprendizaje asociativo, este tiene que ver con el desarrollo de
nuevas conductas en función de sus consecuencias, y no con la asociación entre estímulos y conductas como
ocurre en el condicionamiento clásico.

´´Aquellas respuestas que se vean reforzadas tienen tendencia a repetirse y aquellas que reciban un castigo
tendrán menos probabilidad de repetirse. ´´
Principales autores. El término fue introducido por el Psicólogo Burrhus Frederic Skinner.

Relación entre Skinner opinaba que la conducta era mucho más fácil de modificar si se manipulaban sus consecuencias que
estímulos y respuestas. si simplemente se asociaban estímulos a ésta, como sucede en el condicionamiento clásico. El
condicionamiento clásico se basa en la adquisición de respuestas reflejas, con lo cual explica una menor
cantidad de aprendizajes y sus usos son más limitados que los del operante, ya que éste hace referencia a
conductas que el sujeto puede controlar a voluntad.
Experimento utilizado La superstición de la paloma es un experimento ya clásico de Skinner que fue llevado a cabo en 1948. En
por el autor para este experimento participaron ocho palomas hambrientas, las cuales fueron introducidas en la llamada caja
describir el de Skinner. En ésta, las palomas disponían de comida a intervalos regulares con independencia de la
condicionamiento respuesta que emitieran. No obstante, en este experimento se observó un condicionamiento evidente en todas
operante. las palomas.
Un aspecto importante de este experimento fue las respuestas condicionadas que adoptaron las palomas. Por
ejemplo, una de las palomas aprendió a dar vueltas en sentido contrario a las agujas del reloj alrededor de
la caja, otra paloma pegaba su cabeza a una de las esquinas superiores de un modo muy característico y un
tercer sujeto desarrolló la respuesta de sacudir la cabeza.
Cada paloma desarrolló una respuesta propia, idiosincrática. Tanto fue así que daba la impresión de que las
palomas se comportaban de ese modo tan particular debido a que creían que su conducta provocaría la
aparición de la comida. Nada más lejos de la realidad. Es por este motivo por el que a esta conducta se le
denominó supersticiosa.
La explicación que ofreció Skinner sobre este fenómeno apelaba al refuerzo recibido: entendió que
cualquiera que fuese la respuesta que el sujeto acababa de realizar justo antes de la administración de la
comida (el refuerzo) resultaría reforzada por la recompensa. De otro modo, de las múltiples respuestas que
las palomas emitieran antes de la presentación de la comida, la que resultase, casualmente, contigua a la
recompensa, sería reforzada. De ahí que cada paloma realizara su particular respuesta (idiosincrática)
2. Elabora una tabla donde describas lo siguiente:

Condicionamiento Instrumental.
En todas las situaciones de condicionamiento instrumental, el participante emite una respuesta y por
consecuencia produce un resultado.

Reforzamiento positivo.
El reforzamiento positivo es un procedimiento en el que la respuesta instrumental produce un estímulo
apetitivo. Si la respuesta ocurre, se presenta el estímulo apetitivo; en caso contrario no se presenta.
Por consiguiente, existe una contingencia positiva entre la respuesta instrumental y el estímulo
apetitivo. Los procedimientos de reforzamiento positivo producen un incremento en la tasa de
respuestas. Requerir que una rata hambrienta presione una palanca para obtener una pella es un
ejemplo de reforzamiento positivo que es común en el laboratorio.

Castigo.
Procedimientos del En un procedimiento de castigo, la respuesta instrumental produce un evento desagradable o aversivo.
condicionamiento Existe una contingencia positiva entre la respuesta instrumental y el estímulo resultante (la respuesta
instrumental. produce el resultado), pero el resultado es un estímulo aversivo. Los procedimientos eficaces de
castigo producen una disminución en la respuesta instrumental.

Reforzamiento Negativo.
Los procedimientos de reforzamiento negativo incrementan
la respuesta instrumental. La gente tiende a confundir el reforzamiento negativo con el castigo. En
ambos procedimientos se emplea un estímulo aversivo. Sin embargo, la relación de la respuesta
instrumental con el estímulo aversivo es del todo diferente. En los procedimientos de castigo, la
respuesta instrumental produce el estímulo aversivo y la contingencia entre la respuesta instrumental
y el estímulo aversivo es positiva. En contraste, en el reforzamiento negativo la respuesta termina el
estímulo aversivo y existe una contingencia negativa entre respuesta y resultado. Esta diferencia en la
contingencia produce resultados muy diferentes. El castigo disminuye la respuesta instrumental
mientras que el reforzamiento negativo la incrementa.

Entrenamiento por Omisión.


En este tipo de entrenamiento, la respuesta instrumental impide la entrega de un estimulo placentero
o apetitivo. Por consiguiente, este procedimiento también implica una contingencia negativa entre la
respuesta y un evento ambiental. Frecuentemente se prefiere al entrenamiento por omisión para
desalentar la conducta humana, pues a
diferencia del castigo, no supone la entrega de un estímulo aversivo.
Los procedimientos del entrenamiento por omisión también se denominan
reforzamiento diferencial de otra conducta (RDO). Dicho termino destaca el hecho de que en el
entrenamiento por omisión el individuo recibe de manera periódica el estímulo apetitivo siempre y
cuando realice una conducta distinta a la respuesta especificada por el procedimiento. Emitir la
respuesta objetivo tiene como resultado la supresión de la recompensa que se habría entregado si el
individuo hubiese realizado otra conducta. Por consiguiente, el entrenamiento por omisión implica el
reforzamiento de otra conducta.
El análisis del condicionamiento instrumental incluye numerosos factores y variables. La esencia de
la conducta instrumental es que está controlada por su consecuencia. El condicionamiento
instrumental consta de 3 elementos clave: Una respuesta, una consecuencia (el reforzador) y una
relación entre la respuesta y la consecuencia.

La Respuesta Instrumental:
El resultado de los procedimientos de condicionamiento instrumental depende en parte de la naturaleza
de la respuesta que se esté condicionando. Algunas respuestas son más modificables que otras.

Variabilidad conductual versus estereotipia:


Tanto Thorndike como Skinner enfatizaron que el reforzamiento incrementa la probabilidad de que la
respuesta instrumental se repita en el futuro. Este énfasis alentó la creencia de que los procedimientos
de condicionamiento instrumental producían uniformidad o estereotipia en la conducta. Se desarrollan
respuesta estereotipadas crecientes si este se permite o se requiere por el procedimiento de
Elementos fundamentales
condicionamiento instrumental. Esto no significa que el condicionamiento instrumental no pueda
del condicionamiento
también verse involucrado en la producción de respuestas creativas o variables.
instrumental.
“La variabilidad de la respuesta” puede ser la base para el reforzamiento instrumental.
En un estudio sobre el condicionamiento instrumental de la variabilidad de respuesta (Page y
Neuringer, 1985), las palomas tenían que picotear dos teclas de respuesta ocho veces para obtener
comida. Los ocho picotazos podían distribuirse de cualquier forma entre las dos teclas. Este estudio
ilustra dos hechos interesantes acerca del condicionamiento instrumental. En primer lugar, que la
variabilidad de la respuesta puede mantenerse e incrementarse por reforzamiento. Por tanto, la
variabilidad de la respuesta puede establecerse como una operante. Los resultados también muestran
que, en ausencia de reforzamiento explícito de la variabilidad, la respuesta llega a ser más
estereotipada con un condicionamiento instrumental continuado. Por tanto, el resultado típico del
reforzamiento instrumental es una disminución en la variabilidad de la respuesta.
Relevancia o Pertinencia en el condicionamiento instrumental:
En el condicionamiento instrumental tiene lugar relaciones análogas de pertinencia o relevancia.
Thorndike fue el primero en observar diferencia en la facilidad de condicionamiento de varias
respuestas. Los gatos podían aprender a realizar estas respuestas, pero, curiosamente, la forma de las
respuestas cambió a medida que el entrenamiento progresaba. Thorndike propuso el concepto de
“pertinencia” para explicar los fallos en el entrenamiento del rascado y el bostezo. De acuerdo con
este concepto, ciertas respuestas se correspondían de forma natural con el reforzador debido a la
historia evolutiva del animal. Por contra, rascar y bostezar no ayudan normalmente a los animales a
escapar del confinamiento y, en consecuencia, no se corresponden con escapar de una caja problema.
El concepto de pertinencia en el condicionamiento instrumental está bien ilustrado en un estudio más
reciente con un pez pequeño.
K. Breland y M. Breland, también observaron varias limitaciones en el condicionamiento instrumental
al intentar condicionar respuestas instrumentales con reforzamiento de comida en varias especies. Los
Breland tuvieron dificultados parecidas con otras especies. Llamaron “Deriva instintiva” al desarrollo
de respuestas como la de hozar en los cerdos y frotar monedas en los mapaches. Como el termino
implica, las respuestas extras que desarrollaban en estas situaciones de reforzamiento con comida,
eran actividades que los animales realizaban instintivamente cuando obtenían comida. Los cerdos
hozaban por el suelo en conexión con la alimentación y los mapaches frotan y lavan objetos
relacionados con la comida. Los Breland pusieron de relieve que estas tendencias de respuestas
instintivas debían tenerse en cuenta en el análisis del comportamiento.
Sistemas de Conducta y Limitaciones en el Condicionamiento Instrumental:
De acuerdo con la teoría de los sistemas de conducta, cuando un animal esta privado de comida y se
encuentra en una situación donde podría encontrarla, su sistema de alimentación se activa, y se dedica
al forrajeo y otras actividades relacionadas con la comida. Sobre este sistema de conducta se superpone
un procedimiento de condicionamiento instrumental. La efectividad del procedimiento para el
incremento de una respuesta instrumental dependerá de la compatibilidad de esa respuesta con la
organización preexistente del sistema de alimentación. La naturaleza de otras respuestas que emergen
durante el curso de entrenamiento (o deriva Instintiva) dependerá de los componentes conductuales
del sistema de alimentación que se activen debido al procedimiento de condicionamiento instrumental.
La teoría de los sistemas de conducta predice que el reforzamiento de comida podría producir
incrementos en actividades como cavar, escarbar y erguirse, pero no en actividades como lavarse la
cara y rascarse.
Por tanto, “La deriva Instintiva” representa la intrusión de respuestas apropiadas al sistema de
conducta activado durante el desarrollo del condicionamiento instrumental.

El Reforzado Instrumental:
Varios aspectos del reforzador determinan sus efectos sobre el aprendizaje y la ejecución de la
conducta instrumental.

Cantidad y Naturaleza del Reforzador: La cantidad y la Naturaleza del reforzador son lógicamente
características diferentes. Un cambio en la cantidad del reforzado puede también hacer al reforzador
cualitativamente distinto. En situaciones de Operante Libre, no obstante, los efectos de la magnitud
del reforzador son más complejos y dependen del programa de reforzamiento utilizado y de otros
factores.
Cambios en la naturaleza y la cantidad del reforzador:
Si el Ei es mayor (o más intenso de lo esperado), producirá condicionamiento excitatorio. Por el
contrario, si el Ei es menor (o más débil) de los esperado, producirá condicionamiento inhibitorio. Si
se ha estado trabajando por 9,50 euros la hora durante los 6 últimos meses, conseguir ese mismo
salario no resultará muy emocionante. Sin embargo, si se ha estado trabajando por 7,50 euros la hora,
un aumento hasta 9,50 euros la hora resultará especialmente atractivo. La evidencia experimental
confirma esta impresión. Numerosos estudios han mostrado que los efectos de una cantidad y tipo de
reforzador particular dependen de la cantidad y naturaleza de los reforzadores que el individuo ha
experimentado previamente. Una recompensa favorable se trata como especialmente buena tras el
reforzamiento con una recompensa mala, y una recompensa desfavorable se trata como especialmente
mala después de una buena recompensa.
Los efectos de un cambio en la cantidad de recompensas fueron descritos, primero por Crespi en 1942,
y más recientemente por Mellgren en 1972, en el que se utilizó un corredor con 4 grupos de ratas. El
hallazgo más significativo fue que después de un cambio en la magnitud de la recompensa, la
velocidad de la carrera no estaba totalmente determinada por la nueva magnitud de la recompensa.
Los efectos de la nueva recompensa aumentaron por la experiencia previa con una recompensa
contrastada.
Los resultados que obtuvo Mellgren ilustran el fenómeno del contraste sucesivo positivo y negativo.
El “Contraste Positivo” se refiere a una elevada respuesta por una recompensa favorable resultado de
una experiencia anterior con una consecuencia menos atractiva. El “Contraste Negativo” se refiere a
una respuesta disminuida por una recompensa desfavorable debido a una experiencia anterior con una
consecuencia mejor. En el estudio de Mellgren se presentaron dos condiciones de recompensas en
diferentes fases del experimento. Los resultados se denominan contraste “sucesivo” positivo o
negativo. Los efectos de contraste también se dan si las condiciones de recompensa se modifican una
y otra vez, con una clave diferente señalando cada condición de recompensa. Estos efectos son
ejemplos de “contraste conductual simultáneo”
Los diferentes efectos de contraste están mediados por diferentes mecanismos. Todos los efectos de
contraste ilustran que la efectividad de un reforzador en una situación está determinada en parte por
las experiencias del organismo con reforzadores en otras situaciones. El contraste negativo se ha
obtenido de forma más clara que el contraste positivo. El encuentro inicial con la recompensa
inesperadamente pequeña activa respuestas exploratorias y de búsqueda que podrían conducir al
encuentro de una mejor fuente de comida. El desencanto emocional se establece cuando las respuestas
de búsqueda no tienen éxito y el sujeto tiene que conformarse con la recompensa pequeña.

La relación Respuesta-Reforzador:
En algunos casos, hay una fuerte relación entre lo que una persona hace y la consecuencia que sigue.
En otros casos no hay relación entre la conducta y la consecuencia. La relación entre la conducta y sus
consecuencias pueden ser también probabilísticas.
Los seres humanos y otros animales realizan un continuo flujo de respuestas y experimentan todo tipo
de eventos ambientales. Para ser eficiente, se tiene que saber cuándo se debe hacer algo para obtener
un reforzador y cuando el reforzador es probable que sea entregado independientemente de cualquier
acción. La conducta instrumental eficiente requiere sensibilidad a la relación respuesta-reforzador.
Existen 2 tipos de relaciones entre una respuesta y un reforzador. Una es la “relación temporal”, que
se refiere al tiempo que transcurre entre la respuesta y el reforzador. Un tipo especial de relación
temporal es la “contigüidad temporal “, la cual se refiere a la entrega del reforzador inmediatamente
después de la respuesta. El segundo tipo de relación entre una respuesta y el reforzador es la “relación
causal” o la contingencia respuesta-reforzador “. La contingencia respuesta reforzadora se refiere al
hecho de que la respuesta instrumental es necesaria y suficiente para la ocurrencia del reforzador. Los
factores temporales y causales son independientes unos de otros.
La asociación E-R y la ley del efecto.
La asociación E-R fue postulada por Thorndike como la clave del aprendizaje instrumental en su ley
del efecto; el papel del reforzador o de la consecuencia de la respuesta es establecer o estampar una
asociación entre las claves contextuales E y la respuesta instrumental, pensó que una vez establecida
esta asociación E-R seria, de forma única, responsable de la ocurrencia de la respuesta instrumental.
Por tanto, el ímpetu básico o motivación para la respuesta instrumental era la activación de la
asociación E-R mediante la exposición del sujeto a los estímulos en presencia de los cuales la respuesta
instrumental fue previamente reforzada.
La ley del efecto asume que el único papel del reforzador es crear una asociación E-R, que el
La estructura asociativa del reforzador en sí mismo no es una parte o no participa en esta asociación. Esta presunción es bastante
condicionamiento contraintuitiva.
instrumental. Expectativa de recompensa y la asociación E-C
Cualesquiera que sean los estímulos, el reforzamiento de la respuesta instrumental producirá
inevitablemente un emparejamiento entre E y el reforzador o consecuencia de la respuesta (C). Estos
emparejamientos proporcionan el potencial para el condicionamiento clásico y el establecimiento de
una asociación entre E y C.
Una de las explicaciones más tempranas e influyentes del papel del condicionamiento clásico en la
conducta instrumental fue propuesta por Clark Hull (1930, 1931) y más tarde elaborada por Kenneth
Spencer (1956), durante el curso del condicionamiento instrumental, la respuesta instrumental llega a
ser instigada o motivada por dos factores. En primer lugar, la presencia de E llega a evoca la respuesta
instrumental directamente por asociación con E-R. En segundo lugar, la actividad instrumental
también llega a realizarse en respuesta a la expectativa de recompensa debido al establecimiento de
una asociación R-C: la forma concreta en que la asociación R-C llega a motivar la conducta
instrumental ha sido tema de considerable debate e investigación experimental.
Los análisis de regulación conductual están basados en una visión del mundo completamente distinta.
En lugar de considerar el condicionamiento instrumental en términos del reforzamiento de una
respuesta, los análisis de la regulación conductual se centran en como las contingencias instrumentales
ponen limitaciones a las actividades de un organismo.

Antecedentes de la regulación conductual


Los teóricos estaban de acuerdo en que los reforzadores eran estímulos especiales que fortalecías la
conducta instrumental durante medio siglo después de la ley del efecto de Thorndike.
Regulación conductual.
La teoría de la respuesta consumatoria: El primer reto a esta idea vino de Fred Sheffield que
formularon la teoría de respuesta consumatoria, esta atribuye el reforzamiento a estas conductas típicas
de la especie. Se establece que las respuestas consumatorias típicas de la especie son en sí mismas el
rasgo crítico de los reforzadores. Fue una innovación radical debido a que traslado la investigación de
los reforzadores desde tipos especiales de estímulos a tipos especiales de respuestas. Se considero que
las respuestas reforzadoras eran especiales porque involucraban la consumación o el completamiento
de una secuencia instintiva de conducta. David Premack retomo el tema con su teoría y sugirió que
las respuestas reforzadoras son especiales solo debido a que es más probable que ocurran que las
respuestas instrumentales a las que siguen.
El principio de Premack: Apunto que las respuestas incluidas en los reforzadores comúnmente
utilizados eran actividades que es altamente probable que realicen los animales. Las respuestas
instrumentales son actividades que normalmente ocurren a una baja probabilidad. Propuso que esta
diferencia en las probabilidades de respuesta es crítica para el reforzamiento. Puede establecerse como
sigue: “dadas dos respuestas de diferente probabilidad A y B, la oportunidad para realizar la respuesta
de alta probabilidad A después de la respuesta de baja probabilidad B tendrá como resultado el
reforzamiento de la respuesta B. (B A refuerza B). La oportunidad para realizar la respuesta B de
baja probabilidad después de la respuesta A de alta probabilidad no dará como resultado el
reforzamiento de la respuesta A. (A B no refuerza A).
Se centra en la diferencia de en la probabilidad de las respuestas instrumental y reforzadora: en
consecuencia, también es denominado el principio de la probabilidad diferencial.
Estimulo la consideración de los reforzadores como respuestas más que como estímulos.
La hipótesis de la privación de respuesta: En la mayoría de los procedimientos de condicionamiento
instrumental, la probabilidad momentánea de una respuesta reforzada se mantiene a un nivel alto
mediante la restricción al acceso a la respuesta reforzante.
Premack (1965) reconoció la importancia de restringir el acceso a respuesta reforzadora para el
condicionamiento instrumental. Caracterizó la privación de respuesta no solo como una condición
necesaria para el reforzamiento sino como algo adjunto al principio de probabilidad diferencial. La
respuesta reforzadora todavía tiene que ser una conducta más probable que la respuesta instrumental.
Por el contrario, Timberlake y Allison (1974) abandonaron totalmente el principio de probabilidad
diferencial y argumentaron que la restricción de la respuesta reforzadora era el factor crítico para el
reforzamiento instrumental, esta propuesta es denominada Hipótesis de privación de respuesta, hace
explicita la idea radicalmente diferente de que un reforzador es producido por la contingencia
instrumental en sí misma. Posteriores desarrollos de las teorías de regulación conductual han
establecido como las contingencias instrumentales crean los reforzadores y los efectos del
reforzamiento.

Regulación conductual y el punto de deleite conductual


Las teorías de la regulación conductual asumen que existen mecanismos homeostáticos análogos
respecto a la conducta: Se propone que los organismos tienen una distribución de actividades preferida
u óptima que luchan por mantener frente a los cambios o interrupciones. Se centran en el grado en que
la contingencia instrumental respuesta- reforzador rompe la estabilidad conductual y empuja al
individuo fuera de su distribución de actividades preferida u óptima.
El punto de deleite conductual: La teoría de la regulación conductual asume que, si los organismos
son libres para distribuir sus respuestas entre las alternativas disponibles, lo harán de la forma en que
sea más cómodo o en algún sentido óptimo para ellos: Esta distribución de respuestas define el punto
de deleite conductual.

El punto de deleite conductual puede identificarse mediante la frecuencia relativa de ocurrencia de


todas las respuestas de un organismo en una situación sin restricciones.

Bibliografía.
Michael Domjan. (2010). Principios de Aprendizaje y de Conducta. México.: CENGAGE Learning.