TEMA 4 Flashcards
INTRODUCCIÓN
Estudios sobre h, s y cc => conducta elicitada => el individuo no tiene control sobre los ee a los que se expone
Condicionamiento instrumental => situaciones de aprendizaje donde los ee a los que se expone son resultado directo de su conducta:
-Se decribe como conducta dirigida a una meta
-Conducta instrumental => conducta cuya función es la de producir ciertas
consecuencias
PRIMERAS INVESTIGACIONES
THORNDIKE (1891,1911) SOBRE INTELIGENCIA ANIMAL:
Importancia de la investigación empírica
Situación experimental => caja problemas
Resultados => la latencia de escape de la caja disminuye con los ensayos
sucesivos
Interpretación => aprendizaje E-R (no inteligencia)
=> Formulación de la ley del efecto:
-Respuesta seguida de un suceso satisfactorio =>
fortalecimiento asoiciación E-R
-Respuesta seguida de un suceso aversivo => debilitamiento
asociación E-R
APROXIMACIONES MODERNAS AL ESTUDIO DEL CONDCIONAMIENTO INSTRUMENTAL
PROCEDIMIENTO DE ENSAYOS DISCRETOS:
Similares a los métodos utilizados por Thorndike en sus caja problemas
Ejemplos => caja, laberinto…
Cada ensayo de entrenamiento acaba con la retirada del animal del aparato:
-La respuesta instrumental solo se realiza una vez durante cada ensayo
Medidas típicas en procedimientos de ensayos discretos:
-Latencia de respuesta
-Velocidad de carrera
PROCEDIMIENTOS DE OPERANTE LIBRE:
Ideado por Skinner
Uso de las cajas de Skinner
La respuesta instrumental se puede realizar una y otra vez sin restricciones durante el ensayo
Concepto de operante =>unidades de conducta medibles con significado
Medidas típicas en procedimientos de operante libre:
-Tasa de respuesta => Frecuencia de respuesta por minuto
CAJA DE SKINNER
Es una pequeña cámara que contiene una palanca que la rata puede empujar hacia abajo repetidamente.
Consta de un mecanismo que puede proporcionar un reforzador como comida o agua
Hay otros elementos importantes como altavoces, luces y un suelo electificado
Una respuesta operante => es aquella que se difine a partir del efecto que produce en el ambiente:
=> Lo impartentes es la función de la conducta (concepto clave en psicología) => y no la conducta en si misma
ENTRENAMIENTO Y MOLDEAMIENTO AL COMEDERO
Conducta objetivo=> pulsar la palanca (poco frecuente para las ratas>)
Procedimiento:
1º Condicionamiento clásico (entrenameinto al comedero):
-EC: luz o sonido
-EI: comida
-R: segumiento del signo (rata se acerca al comedero)
2º Fase de moldeamiento:
-Se refuerzan las conductas que se acercan a la conducta objetivo (palanca):
=> Fase de reforzamiento de aproximaciones sucesivas (c1-c2-c3-co)
-Una vez se ha instaurado la conducta puente se deja de reforzar esa conducta:
=> Efecto del aumento de la frecuencia y cambio en la topografía
=> Refuerzo de la siguiente conducta puente
=> Fase de extinción
-Se repite el procedimiento hasta llegar a la conducta objetivo:
=> El moldeamiento puede producir nuevas formas de respuestas
PROCEDIMIENTOS DE CONDICIONAMIENTO INSTRUMENTAL
Refuerzo positivo => la respuesta produce un estímulo apetitivo y se incrementa la tasa de respuesta
Refuerzo negativo => la respuesta elimina la ocurrencia de un estímulo aversivo y se incrementaa tasa de resspuesta
Refuerzo positivo => la respuesta produce un estímulo aversivo y se disminuye la tasa de respuesta
Refuerzo negativo => la respuesta elimina la ocurrencia de un estímulo apetitivo y se disminuye la tasa de resspuesta
ELEMENTOS FUNDAMENTALES DEL CI:
RESPUESTA INSTRUMENTAL
Puede ser:
-Específica, estereoripada, secuencia de respuestas => aprendizaje de respuestas específicas para obtener un reforzadoe
-Variables => para obtener un reforzador se requiere hacer algo nuevo
RELEVANCIA O PERTINENCIA DE LA RI:
Cajas problemas de gatos con Thorndike:
-Buen condicionamiento de las RI de manipular objetos
-Mal condicionamiento de las RI de rascarse, bostezar…
Concepto de pertinencia para explicar el fallo en el rascado o bostezo:
-Las rr que se corresponden de fomra natural con el reforzador son más condicionables
Breland y Breland (1961):
-Intentaron enseñar a mapaches a coger una moneda y meterla en una caja
-Los mapachas esxhibían otras conductas no reforzadas (frotar, empujar, sujetar) que interferían en la conducta reforzada
-Concepto de deriva instintiva => desarrollo de conductas no reforzadas para corresponder de forma natural con el reforzador
SISTEMAS DE CONDUCTA Y LIMITACIONES EN EL CI:
Experimento de Shettleworth (1973):
Sujetos: hámsters
Método: privación de agua
A) Se disminuye la probabilidad de respuestas de autocuidado
B) Aumenta la probabilidad de actividades dirigidas al ambiente
Los refuerzos con comida pueden aumentar la probabilidad de la conducta b pero no a
La teoría de los sistemas de conducta explica que en función del tipo de reforzador, se activan unos istemas de conductas y no otrs
LA teoría de lso sistema de conducta explica la deriva instintiva
ELEMENTOS FUNDAMENTALES DEL CI:
REFORZADOR INSTRUMENTAL
CANTIDAD Y NATURALEZA DEL REFORZADOR:
Experimento de Hut (1954):
-Objetivo: Aislar los efectos de la cantidad y naturaleza de un reforzador
-Sujetos: Ratas
-RI: Presionar una palanca
-E´:Cambio en sus propiedades:
1º Cantidad: mediana/pequeña/grande
2º Calidad: ácido/normal/dulce
-Resultados:
=> Cuanto más calidad y más cantidad tienen los reforzadores => más
respuesta instrumental se producía
EXperimento de Mellgren (1972):
Sujetos ratas distribuidas en 4 grupos (PP, PG, GP, GG)
-pequeños=2 bolitas de comida, grande=22 bolitas de comida
VD: velocidad de carrera
PRocedimiento:
-En el ensayo 11 => se modifica el entrenamiento en PG y GP => PP y GG siguen igual
Resultados**
-Contraste positivo => elevada respuesta por una recompensa favorable resultado de una experiencia anterior con una cnsecuencia menos atractiva
-Contraste negativo => disminución de la respuesta por una recompensa desfaborable debido a una experiencia anterior con una consecuencia más atractiva
ELEMENTOS FUNDAMENTALES DEL CI:
RELACIÓN RESPUESTA-REFORZADOR
Tipos de relaciones, Efectos de la contigüidad temporal (Efecto del aprendizaje demorado, palanca sokuciones),
Dos tipos de relaciones entre la respuesta y un reforzador:
Relación temporal:
Tiempo entre la respuesta y el reforzador
Contigüidad temporal: entrega del rofrzador inmediatamente después de la respuesta
Relación causal:
La emisión de la respuesta provoca la entrega del reforzador
Contigencia respuesta-reforzador
Efectos de la conrigüidad temporal:
El reforzamiento inmediato es preferible al demorado => el Ci es posible con demoras de hasta 30s
Efectos del reforzamiento demorado en el aprendizaje de apretar una palanca:
-El CI es sensible a la demora del reforzamiento
-El sujeto no deja de emitir respuestas => lo cierto es que tras la RI, el sujeto emite R2, R3… => Si el reforzador se emite tras la R6 => la conducta que se refuerza no es R1 si no R6
-Dos soluciones:
=> Proporcionar un reforzador condicionado o secundario inmediatamente después de la respuesta:
* Reforzador condicionado o secundario: EC que ha sido previamente asociado con el reforzador
* Sirve para puntear una demora entre la RI y la entrega del reforzador primario
=> Procedimiento de marcado: marcar la respuesta instrumental criterio de alguna manera para diferenciarla de otras actividades del organismo
*Experimento de Liberman, McIntosh y Thomas (1979)
EXPERIMENTO DE LIBERMAN, McINTOSH y THOMAS (1979):
Sujetos: Ratas
Despues de la caja de salida deben elegir entre el brazo blanco y el brazo negro:
-Brazo negro => sin refuerzo
-Brazo blanco => refuerzo demorado (60”)
Dos grupos experimentales (ambos son reforzados) y dos grupos control:
-Grupo no marcado: no son retirados del brazo blanco y 60” despues son llevados a la caja meta a recibir el reforzador
-Grupo marcado: son retirados a la caja demora donde esperamos ahí a recibir el reforzador
-Grupo control: también se les divide en grupo no marcado y marcado pero nunca reciben el reforzador
VD: porcentaje de respuestas correctas
Resultados:
- Las ratas del grupo marcado aprendieron la respuesta instrumental cmucho mejor que las del grupo no marcado
-Después de 50 ensayos:
=> Grupo marcado => 90% elegían el brazo correcto
=> Grupo no marcado => 50% elegían el brazo correcto
Efecto de la congiencia refuerzo-respuesta:
La entrga del reforzador depende de la ocurrencia previa de la respuesta instrumenal
Antes se creía que era más importante la contigüidad temporal que la contigencia
Más adlenate se ha visto que o es así
Experimento de superstición de Skinner:
Se entrega la comida cada 15s => independientemente de lo que haga la paloma
Conducta supersticiosa: las palomas actuaban como si su conducta dependiera de la entrega de comida
Según estos resultados => la contingencia respuesta-reforzaodr no es necesario en el CI
Reinterpretaciones posteriores del experimento superstición desmienten esta idea
Experimento de Staddon y Simmelhag (1971)
Experimento de Staddon y Simmelhag (1971):
Experimento de superstición de Skinner.
Mediciones sistemáticas de muchas conductas.
R1: orientación hacia la pared del comedero
R3: picoteo en algún lugar del suelo
R4: un cuarto de vuelta
R7: picoteo en algún lugar de la pared del dispensador
R8: moverse a lo largo de la pared del dispensador
Algunas respuestas (R1 y R7) eran más probables al final del intervalo comida-comida:
-Estas respuestas son denominadas respuestas terminales
-Son respuestas típicas de las conductas consumatorias, más probables cuando la comida está cerca
Otras respuestas (R8 y R4) aumenta su frecuencia tras la entrega de comida y disminuyen a medida que el tiempo de la próxima comida se hace más inmediato:
-Estas respuestas son denominadas respuestas de interín
-Son respuestas típicas de conductas de búsqueda, más probables cuando la comida no está cerca
Por tanto, la interpretación de Skinner no era cierta:
-Las conductas de las palomas no estaban siendo reforzadas por CI.
-Las conductas de la palomas estaban sujetas a un CC, donde el paso del tiempo actúa como EC.
La contingencia respuesta — reforzador:
-El estudio de la importancia de la contingencia respuesta — reforzador se ha realizado principalmente siguiendo el paradigma de la indefensión aprendida.
-Seligman, Overmier y Maier investigaron los efectos de la exposición a una descarga incontrolable en el aprendizaje posterior de escape-evitación en perros.
El hallazgo más relevante fue que la exposición a una descarga incontrolable dificultaba el aprendizaje posterior.
Estudios de indefensión aprendida:
-El diseño triádico
-La hipótesis de la indefensión aprendida
-Déficit de actividad
-Déficit atencional
-Relaciones estimulares en el condicionamiento de escape
El disño triádico:
-Fase de exposición:
=> Grupo escape (E): ratas expuestas a una descarga a la que pueden escapar emitiendo una respuesta (girar una rueda pequeña)
=> Grupo acoplado (A): cada rata de este grupo es acoplada a una rata del grupo E y recibe las mismas descargas que ella.
=> Grupo confinado (C): no recibe descargas durante esta fase, pero esta confinado en el aparato el mismo tiempo que las demás.
-Fase de condicionamiento:
=> Reciben los 3 grupos un entrenamiento de escape-evitación
=> Las ratas van de un lado al otro de la caja lanzadera para no recibir la descarga
-Resultados:
=> Los grupos E y C aprenden rápido en el entrenamiento de escape a evitar la descarga
=> El grupo A no aprende a evitar la descarga.
-Conclusiones:
=> La exposición a una descarga incontrolable produce una severa interrupción del aprendizaje posterior de escape – evitación.
-Las diferencias en la tasa de aprendizaje entre estos dos grupos, muestra que los animales son sensibles a la contingencia respuesta – reforzador.
Hipóteiss de la idefensión aprendida:
-La exposición a descargas incopntroladas => da lugar al aprendizaje de que los reforzadores son independientes de la conducta propia
-Déficit de aprendizaje producido por dos razones:
=> Expectativa de falta de control =>reducción de la motivación para realizar las RIs
=> Si se emiten RI => el aprendizaje previo => dificulta elaprendizaje posterior
Hipótesis del déficit de actividad:
-Descarga inescapble poduce un déficir del movimiento motor
-Esto provococa déficits de actuación
Hipótesis del déficit atencional:
-Descarga inescapable produce un déficit de atención hacia las propias acciones
-Dificultad para asociar las propias acciones con reforzadores contigentes a ella
-Experimento de Meier, Jackson y Tomie (1987):
EXPERIMENTO DE MEIER, JACKSON y TOMIE (1987):
Hipóteis: similitud entre la falta de atención y el reforzamiento demorado
-En ambos casos no se sabe que conducta es contingente que la entrega del reforzador
-El procedimiento de marcado en el grupo A => inhibiría los efectos de la indfensión aprendida
Diseño triádico (GRUPO A, E y C + A_-M):
-Grupo A-M:
=> Fase de exposición: recibe las mismas descargas que el grupo A
=> Fase de condicionamiento: recibe un estímulo marcado (apagar las luces y suelo inclinado) después de cada respuesta de escape
Resultados:
-La presencia de este marcador eliminó por completo el déficit de aprendizaje que se hubiese producido por la exposición previa a la descarga inescapable
-Estos resultados => sugieren que una de las fuentes del déficit de aprendizaje es una reducción de la atención a las respuestas que el animal realiza
RELACIONES ESTIMULARES EN EL CONDICIONAMIENTO DE ESCAPE:
Rasgo definitorio de la conducta de escape => La Ri tiene como consecuencia la terminación del ee aversivo
Otras relaciones estimulares:
-Claves de retroalimentación para la terminación de la descarga => estímulos que se experimentan al inicio de la respuesta de escape => antes de que la descarga halla desaparecido
-Claves de retroalimentación para la señal de seguridad => estímulos que se experimentan después de que la descarga ha desaparecido
=> Esta clave va seguida de un periodo de seguridad
=> Son inhibidores condicionados del miedo
=> Estas señales no existen para elñ grupo A => los periodos de descarga y no descarga no les son predecibles
PROGRAMAS DE REFORZAMIENTO
DEFINICIÓN:
Regla que la forma en la que se relacionan las presentaciones del reforzador con las ocurrencias de la RI
PROGRAMA DE REFORZAMIENTO SIMPLE:
Un solo factor determina que ocurrencia de la RI se refuerza
**Programa de razón: ** el reforzamiento depende del numero de conductas que el organismo realiza
-Razón fija:
=> El reforzamiento se obtiene trás un número fijo de respuestas emitidas
=> RF10: 10 respuestas emitidas para obtener el reforzador
=> RF1: caso particular => reforzamiento continuo
=> Tasa continua y alta una vez que el organismo ha iniciado su conducta
=> Pausa postreforzamiento: se deje de responder un tiempo después del reforzamiento => a mayor requerimiento conductual => mayor es la pausa postreforzamiento
=> Tensión de la razón => cuando el requerimiento de la razón ha sufrindo un incremento súbito y significativo => se produce una pausa periódica cada vez que se completa la razon requerida => en casos extremos es tan intensa que el animal deja de responder
-Razón variable:
=> El reforzamiento se obtiene trás un número variable de respuestas emitidas
=> RV10: promedio de 10 repsuestas emitidas para obtener el reforzamiento => no se sabe los puntos concretos en los que se obtiene
=> Tasa continua y alta con pocausa pausas o muy cortas
=> Tasa global de respuestas muy similar al de RF
Programa de intervalo: el reforzamiento depende de la cantidad de tiempo transcurrido desde el último reforzamiento
-Itervalo fijo:
=> El reforzamiento se obtiene cuando se emite una conducta trás una cantidad de tiempo fija desde la entrega del último reforzador
=> iF1: se refuerza la primera conducta emitida tras 1 minuto dela entrega del último reforzador
=> Patrón de respuesta: Festón del intervalo fijo:
* Tras la entrega del reforzador se produce una pausa larga
* Cuando la entrega del proximo reforzador vuelve a estar disponible se produce un aumento intenso de la respuesta
*Ya que el intervao determine cuando el reforzador está disponible y no cuando se entrega
-Intervalo variable:
=> El reforzamiento se obtiene cuando se emite una conducta trás una cantidad de tiempo variable desde la entrega del último reforzador
=> IV1: se refuerza la primera conducta emitida tras 1 minuto de media de la entrega del último reforzador => no sabemos el momento preciso en el que se entregará
=> Estos programas mantienen tasas de respuestas constantes y regulares
-Programa de intervalo con margen limitado:
-Similares a los programas de intervalo => pero el animal tiene tiempolimitado para emitir la respuesta si quiere obtener el reforzador
SEMEJANZAS:
RF e IF:
-Pausa posterofrzamiento
-Altas tasas de respuestas justo después de la administración del reforzaodr
RV e IV:
-Altas tasas de respuesta sin pausas predecibels
DIFERENCIAS:
Los programas de intervalo está mediados por el sentido temporal del organismo
Experimento de Reynolds (1975):
-Comparación de un programa de RV con uno de IV
-Mismas oportunidades de reforzamiento => los refuerzos del IV estaban sujetos al programa de RV
-El programa de RV motiva una conducta instrumental más vigorosa que el IV
PROGRAMAS DE TASAS DE RESPUESTAS:
La ri está sujeta a una tasa concreta de respuestas
Dos tipos:
-Reforzamiento diferencial de tasas altas:
=> UNa respuesta se refuerza si ha ocurrido antes de que haya transcurrido cierta cantidad de tiempo trás la respesta precedente
-reforzamiento diferencial de tasas bajas:
=> Una respuesta se refuerza si ha ocurrido después de que haya transcurrido cierta cantidad de tiempo tras la respuesta precedente
TEORÍAS DEL REFORZAMIENTO
LEY DEL EFECTO DE THORNDIKE:
El reforzador crea un estado de satisfacción que sella la relación E-R
Según THorndike lo que refuerza es el estado de satiscacción que el reforzador produce en el organismo
TEORÍA DE LA REDUCCIÓN DEL IMPULSO:
Hull (1943): un refuerzo escualquier estímulo que hace reducir una necesidad biológica del organismo
Lo que motiva al animal a responder es reducir el impulso y recuperar la homeostásis fisiológico
Dificultades de la teoría:
-Ciertos estímulos que actúan como reforzadores no reducen ninguna necesidad biológica
-Experimento de Miler y Kessen (1952):
=> Método: laberinto en T
=> Reforzador: leche
=> Procedimiento: leche administrada de 3 formas diferentes => por intyección directa al estómago, por la boca de forma inmediata y por la boca de forma demorada
=> Resultados: Todos los grupos aprenden pero unos mejor que otros:
*El reforzamiento de tomar leche por la boca fue mejor que el de la inyección directa al estómago
*El reforzamiento por la noca inmediato fue mejor que el demorado
ESTIMULACIÓN ELÉCTRICA REFORZADORA:
Olds y MIdner (1954) => enncontraron que la estimulación de algunas zonas del cerebro (“centros de placer”) son reforzantes
Se seguiere que la EEC de los centros de placer puede ser el mecanismo comúna todos los reforzadores
El reforzamiento por EEC se caracteríza por tasas de respuesta muy altas durante largos periodos de tiempo
Valenstein y Beer (1964):
-Comida y EEC de forma continua
-Ratas presionan palanca de forma alterna para obtener comida
Routtemberg y Lindy (1965):
-Comida y EEC de libre acceso solo 1 hora al día
-Algunas ratas solo obtienen EEC (inlcuso hasta la inanición)
Dado que la EEC produce excitación de estos centros nerviosos => se postula que es el incremento de la arousal y de la excitación lo que refuerza
TEORÍA DE LA RESPUESTA CONSUMATORIA:
Sheffield y colaboradores (1950) => propone que los reforzadores son tipos especiales de respuestas
Las respuestas consumatorias típicas de especies son el factor más importante del reforzamiento:
-El valor del reforzamiento está en el acto de consumir más que en la propia sustancia
Teoría del reforzamiento de la inducción del impuslo:
-El reforzamiento ocurre cuando un estímulo suscita una repsuesta consumatoria o una esxcitación asociada a una respuesta consumatoria
-Esta teoría no explica algunos resultados como el visto por Miler y Kessen (1952) => comida por vía intravenosa hay reforzamiento pero no conducta consumatoria
-No obstante => conbeir los reforzadores como un tipo especial de respuesta y no de estímulo abre una nueva forma de concebir los reforzadores
TEORÍA DE PREMARCK:
Premarck desarrolla la idea de que las respuestas pueden actuar como reforzadores
Afirma que la contingencia real se produce entre dos respuestas: presión de la palanca y oportunidad de comer
Factor fundamental para el reforzamiento: diferencia en la probabilidad de cada una de las respuestas
Dos respuestas con diferente probabilidad de aparición: A y b// Pa y Pb
-A actua como reforzador de la respuesta b => pricipio de premarck de la probabilidad diferencial
-Reforzamiento si las respuestas menos probables perimten realizarlas respuestas más probables
Estudio experimental de Premarck de 1962
Dos Estudios experimentales de Premarck en 1959
Estudio experimental de Premarck de 1962:
Hipótesis:
Las conductas de correr y beber agua pueden ser revertidas en una situación de Ci
La respuesta mas frecuente puede reforzar a las menos frecuentes
Línea base:
-Situación normal: el animal tiene que corrrer para beber agua
Procedemiento:
-Primera fase:
=> Grupo A (10 ratas): son privadas de agua durante 23 horas al día al tiempo que pueden correr todo el tiempo que quieran (situación clásica de CI) => durante la hora libre pueden correr o beber agua libremente
*Resultado: Las ratas beben más tiempo agua del que corren durante esa hora
=> Grupo B (10 ratas): son privadas de correr durante 23 horas al día al tiempo que pueden beber agua todo el tiempo que quieran (situación clásica de CI) => durante la hora libre pueden correr o beber agua libremente
*Resultado: Las ratas corren más tiempo del que beben agua durante esa hora
-Segunda fase (SOLO GRUPO B):
=> Hacemos contingente la conducta de correr con beber agua:
*Para poder correr, las ratas tenía que beber: 6 lameteos y 10 minutos de actividad en la rueda
*En la línea base previa a la contingencia => las ratas bebían durante 23 minutos
Resultado: trás la contingencia el tiempo de beber aumentó a 98 minutis
Conclusión:
-La respuesta más frecuente (correr) refuerza a la respuesta menos frecuente (beber)
Resultados:
Conclusión:
Estudio experimental de Premarck 1959:
Hipótesis cualquier respuesta puede actuar como reforzador pese a que no tenga ninguna relación con el reforzador primario convencional
Sujeto experimental: mono
Situación experimental:
-Libre acceso para para presionar una palanca o una puerta que puede abrir
-Primera fase: 90 minutos en el recinto => 90 veces abre la puerta y 36 veces abre la palanca
-Segunda fase:
=> GE: contingencia de abrir la puerta y presionar la palanca => se tiene que presionar la palanca para abrir la puerta
=> GC: se tiene que abrir la puerta para presionar la palanca
Resultados:
-GE: La presión de la palanca aumenta hasta 120 respuestas
-GC: El animal no abrió la puerta más veces de la linea base
Conclusión:
-Una respuesta solo puede actuar como reforzador si es frecuente que otra
Estudio experimental de Premarck 1959:
Sujetos: niños pequeños
Procedimiento:
-Primera fase: Prueba de preferencia:
=> Se les permite elegir entre comer caramelos y jugar al paintball
=> Ses les divide en esta fase en grupo A y grupo B:
*Grupo A: niños que prefieren comer caramelos
*Grupo B: niños que prefieren jugar al paintball
-Segunda fase: Fase de condicionamiento:
=> Entrenamiento a ambos grupos en los dos siguientes procedimientos:
*Contingencia 1: jugar al paintball para comer caramelos
*Contingencia 2: comer caramelos para jugar al paintbaiil
Resultados:
- Grupo A y Contigencia 1: los niños aumentan el tiempo dedicado a jugar al pinballl
- Grupo A y Contigencia 2: los niños no aumentan la cantidad de caramelos que comen
- Grupo B y Contigencia 1: los niños no aumentan lña cantidad de tiempo dedicada a jugar al pinball
- Grupo B y Contigencia 2: los niños no aumentn la cantidad de caramelos que consumen
Conclusiones:
-Existen diferencias individuales en las preferencias conductuales => no existen los reforzadores universales
-Los reforzadores no son tipos especiales de estímulos ni tipos especiales de respuestas => La distinción entre respuestas reforzadoras e instrumentales es la probabilidad diferencial entre ellas => las respuesta más probable puedodrá reforzar a la menos probable
Teoría de la privación de la respuesta:
Según Allison (1923):
-El factor clave de la respuesta instrumental es la restricción de la respuesta reforzadora
Evidencia empírica:
-Ua respuesta de baja probabilidad puede reforzar una respuesta de alta probabilidad si el reforzamiento de la respuesta fue restringido por debajo de su línea base => resultado que cuestiona el principio de Premark
Conclusión:
-Lo más importante para motiva la RI es la privación de la respuesta y no la probabilidad diferencial de las respuestas
Teoría de la regulación conductual:
Supuesto básico: cuando los organismos son libres para elegir entre varias alternativas de respuesta => distribuyen sus actividades de la forma más óptima posible:
-La mejor forma de distribución de las respuestas es el punto de deleite conductual
Cuando se impide a un organismo realizar una determinada respuesta por debajo de su linea base de actuación => este hará todo lo posible por realizar cualquier otra respuesta que le permita acercarse al punto de deleite conductual:
-Si introducimos una contigencia respuesta-reforzaodr => el organismo cambiará su actividad y hara todo lo posible por restablecerla:
=> El reforzador en este caso actuará como regulador conductural
Ej:
-Joven que tiene que elegir entre jugar videojuegos y ponerse a estudiar
QUITAR DIAPOSITIVAS 27, 29, 30, 31, 32 ,33, 34