4.
Burrhus Frederic Skinner nace en
Susquehanna, Pensilvania, en 1904.
Muere en 1990.
Trabajó en Harvard desde 1948.
Se propuso mostrar un método que permitiera
explicar, predecir y controlar la conducta.
Premio Nacional de Ciencia en 1968 por sus
fundamentales e imaginativas contribuciones
al estudio de la conducta y su profunda
influencia sobre la psicología y los campos
afines a ella.
5. La conducta como objeto de estudio.
Adopta el método científicoexperimental.
Evolucionista, pragmático, determinista,
postura antiestadística.
Enfoque ambiental.
Exigente y metódico en su trabajo.
6.
Un condicionamiento operante es el cambio
en la frecuencia con la que ocurre una
conducta operante por la aparición o
desaparición contingente de un reforzador.
Condicionamiento tipo R.
La conducta operante es un efecto que puede
especificarse en términos físicos.
Operante es el término que pone de relieve el
hecho de que la conducta opera son el medio
ambiente para producir consecuencias.
7.
La contingencia es la relación que se
establece entre las variables. La conducta
operante se produce si aparece el estímulo
discriminativo. El reforzador es administrado
si aparece la conducta.
Skinner sitúa las causas de la conducta fuera
del organismo.
Propone el siguiente modelo para explicarla,
controlarla y predecirla:
CONDICIONAMIENTO OPERANTE. En el condicionamiento clásico se reduce a respuestas innatas, no hay aprendizaje de nuevas acciones (salivación parecida ante el sonido y ante la comida). Sólo se puede explicar parte de la conducta y quedan fuera todos los comportamientos que ocurren sin que previamente haya un estímulo en el ambiente que las desencadene (conducir un coche, tocar el piano, jugar a las cartas, escribir...) ¿Cómo se adquieren estas respuestas? El condicionamiento operante puede explicar el aprendizaje de respuestas diferentes de las reflejas innatas.
La característica fundamental es que ciertas respuestas están condicionadas, no por lo que les precede (como en el caso del condicionamiento clásico) sino por los estímulos que les siguen.
Se llama condicionamiento operante porque es el organismo el que opera a través de su conducta sobre el medio.
LEY DEL EFECTO. THORNDIKE (1874-1949). Fue el primero en intentar demostrar cómo se aprendían nuevas respuestas. Se centró en la hipótesis de que la probabilidad futura de una conducta depende del efecto o de las consecuencias de dicha conducta, lo que denominó ley del efecto.
Según esta ley los efectos positivos de un comportamiento hacen que aumente su probabilidad de ocurrencia en situaciones similares.
Para la realización de los experimentos utilizó una caja que estaba cerrada, pero que tenía una palanca en su interior con la cual se podía abrir.
Los animales estaban hambrientos y fuera estaba la comida. Al principio el animal estaba maullando y golpeando los barrotes hasta que de un modo accidental accionaba la palanca y en ese momento al gato salía y consumía la comida.
Los gatos desarrollaban un repertorio de conductas motoras hasta que por ensayo y error una de las conductas solucionaba el problema.
Latencia de la respuesta es el tiempo en que el animal tardaba en accionar la palanca y salir de la jaula. En sucesivos ensayos era cada vez menor.
La respuesta de abrir la jaula estaba reforzada por la consecuencia que era comer.
El aprendizaje ocurre cuando la respuesta tiene un efecto positivo para el individuo.
Si la respuesta tiene efectos negativos para el individuo dicha conducta se debilita.
El aprendizaje ocurría por la conexión que se establecía entre un estímulo del ambiente y la respuesta E-R en contra de la que Paulov basaba en la conexión de estímulos condicionados e incondicionados E-E
Skinner considerado como el psicólogo neoconductista más representativo en el campo del condicionamiento operante, basó sus estudios en los trabajos de Thorndike.
Para Skinner la gratificación que sigue a la conducta operante es suficiente para reforzar dicha conducta, no es necesario que esté en conexión con algún estímulo previo como postulaba Thorndike.
Diseñó la llamada caja de Skinner, muy común en los laboratorios de psicología.
El trabajó con ratas y palomas.
Para Skinner existen básicamente dos tipos de respuestas: Respondientes y operantes.
Las respondientes son las que da el organismo ante la ocurrencia de un estímulo, serían las respuestas reflejas incondicionadas y las condicionadas.
Las operantes no necesitan ningún estímulo para ser provocadas. Dijo Skinner que eran respuestas espontáneas u ordinarias de la vida real.Cuando Skinner habla de aprendizaje de una respuesta lo que realmente quiere decir es que la probabilidad de que ocurra una determinada respuesta es mayor.
Lo que hace que ocurra la respuesta no es el vínculo entre el estímulo y la respuesta sino entre la respuesta y sus consecuencias.
El estímulo sólo indica que, en caso de que se produzca la respuesta, el refuerzo está disponible.
Reforzador es todo lo que aumenta la frecuencia de la respuesta a la que sigue. Reforzadores pueden ser cosas materiales como actividades. PREMACK (1965) estableció el siguiente principio: “cualquier actividad puede reforzarse mediante una actividad que goza de mayor preferencia. Los padres utilizan este principio con frecuencia, dejan ver la TV a los niños después que hayan hecho los deberes del colegio.