maestras parvularias
(Susquehanna, 20 de marzo de 1904-Cambridge, 18 de agosto de 1990) fue un psicólogo, filósofo social y autor estadounidense. Condujo un trabajo pionero en psicología experimental y defendió el conductismo, que considera el comportamiento como una función de las historias ambientales de refuerzo.
TEORÍA
El sistema de Skinner al completo está basado enel condicionamiento operante. El organismo está en proceso de "operar" sobre el ambiente, lo que en términos populares significa que está irrumpiendo constantemente; haciendo lo que hace. Durante esta "operatividad", el organismo se encuentra con un determinado tipo de estímulos, llamado estímulo reforzador, o simplemente reforzador. Este estímulo especial tiene el efecto de incrementar el operante (esto es; elcomportamiento que ocurre inmediatamente después del reforzador). Esto es el condicionamiento operante: el comportamiento es seguido de una consecuencia, y la naturaleza de la consecuencia modifica la tendencia del organismo a repetir el comportamiento en el futuro."
Imagínese a una rata en una caja. Esta es una caja especial (llamada, de hecho, "la caja de Skinner") que tiene un pedal o barra enuna pared que cuando se presiona, pone en marcha un mecanismo que libera una bolita de comida. La rata corre alrededor de la caja, haciendo lo que las ratas hacen, cuando "sin querer" pisa la barra y ¡presto!, la bolita de comida cae en la caja. Lo operante es el comportamiento inmediatamente precedente al reforzador (la bolita de comida). Prácticamente de inmediato, la rata se retira del pedal consus bolitas de comida a una esquina de la caja.
Un comportamiento seguido de un estímulo reforzador provoca una probabilidad incrementada de ese comportamiento en el futuro.
¿Qué ocurre si no le volvemos a dar más bolitas a la rata? Aparentemente no es tonta y después de varios intentos infructuosos, se abstendrá de pisar el pedal. A esto se le llama extinción del condicionamiento operante.
Uncomportamiento que ya no esté seguido de un estímulo reforzador provoca una probabilidad decreciente de que ese comportamiento no vuelva a ocurrir en el futuro.
Ahora, si volvemos a poner en marcha la máquina de manera que el presionar la barra, la rata consiga el alimento de nuevo, el comportamiento de pisar el pedal surgirá de nuevo, mucho más rápidamente que al principio del experimento,cuando la rata tuvo que aprender el mismo por primera vez. Esto es porque la vuelta del reforzador toma lugar en un contexto histórico, retroactivándose hasta la primera vez que la rata fue reforzada al pisar el pedal.
ESQUEMAS DE REFUERZO
A Skinner le gusta decir que llegó a sus diversos descubrimientos de forma accidental (operativamente). Por ejemplo, menciona que estaba "bajo de provisiones"de bolitas de comida, de manera que él mismo tuvo que hacerlas; una tarea tediosa y lenta. De manera que tuvo que reducir el número de refuerzos que le daba a sus ratas para cualquiera que fuera el comportamiento que estaba intentando condicionar. Así que, las ratas mantuvieron un comportamiento constante e invariable, ni más ni menos entre otras cosas, debido a estas circunstancias. Así fue comoSkinner descubrió los esquemas de refuerzo.
El refuerzo continuo es el escenario original: cada vez que la rata comete el comportamiento (como pisar el pedal), consigue una bolita de comida.
El programa de frecuencia fija fue el primero que descubrió Skinner: si, digamos, la rata pisa tres veces el pedal, consigue comida. O cinco. O veinte. O "x" veces. Existe una frecuencia fija entre loscomportamientos y los refuerzos: 3 a 1; 5 a 1; 20 a 1, etc. Es como una "tasa por pieza" en la producción industrial de ropa: cobras más mientras más camisetas hagas.
El programa de intervalo fijo utiliza un artilugio para medir el tiempo. Si la rata presiona el pedal por lo menos una vez en un período de tiempo particular (por ejemplo 20 segundos), entonces consigue una bolita de comida. Si falla...
Regístrate para leer el documento completo.