Capítulo 1: Aprendizaje y teorías del aprendizaje




descargar 1.1 Mb.
títuloCapítulo 1: Aprendizaje y teorías del aprendizaje
página14/31
fecha de publicación26.01.2016
tamaño1.1 Mb.
tipoDocumentos
b.se-todo.com > Biología > Documentos
1   ...   10   11   12   13   14   15   16   17   ...   31

9. El papel de los estímulos
Comparando la formación de conductas respondientes y operantes según el esquema 1, nos surge la impresión que en el caso de las conductas operantes los estímulos parecen tener escasa importancia, siendo más importante el papel de los reforzadores para su ocurrencia.

Sin embargo, Skinner destaca también la importancia de los estímulos como determinantes de la conducta operante. Por ejemplo, si se refuerzan con alimentos los picoteos de una paloma en la palanca roja, pero no los de la palanca verde, la paloma aprenderá a picotear la palanca roja, es decir, desarrolla una capacidad de 'discriminación' de estímulos.
Debe distinguirse la discriminación y la diferenciación (Hilgard y Bower, 1983). Discriminación: una respuesta dada se emite ante determinado miembro de un par de estímulos y no ante otro. Se discrimina el estímulo. Diferenciación: la respuesta se altera o ajusta en su forma o topografía en determinada situación (presionar la palanca con una fuerza dada, o mantenerla presionado por un tiempo, para recibir, de una forma u otra, comida). Se diferencia la respuesta. En suma, en el condicionamiento operante, el reforzamiento puede hacerse depender ya sea a) de las propiedades del estímulo acompañante (cuando el resultado es una discriminación), o b) de las propiedades de la respuesta (cuando el resultado es una diferenciación).
Así, la palanca roja por sí sola no engendra la conducta operante de manera automática como puede hacerlo el estímulo condicionado de la conducta respondiente: debe haber además un reforzador.
El experimento típico de Skinner era poner una rata en una caja oscura a prueba de ruidos, donde había una palanca que cada vez que se apretaba soltaba una bolita de comida. Con ello se estudió la fuerza de la conducta operante (mover la palanca) usando como medida principal la tasa de respuesta (veces que mueve la palanca por unidad de tiempo). Otras medidas como la amplitud de respuesta o intensidad, y el tiempo de latencia eran más propias para medir respuestas respondientes (Hilgard y Bower, 1983).
En sus investigaciones, Skinner se ha centrado más en las respuestas que en los estímulos, aunque adjudica a estos la importancia señalada en el párrafo anterior. Inclusive hasta llega a negar las conexiones E-R por considerarlas inobservables que ocurrirían dentro del cuerpo: téngase presente que Skinner se opone a todo lo que implique suposiciones teóricas.
10. La programación de los reforzadores
Casi todas las investigaciones de Skinner giran en torno a la llamada 'caja de Skinner'. Se trata de una caja -que sería como una habitación para el animal- donde hay dos cosas: un manipulador (algo manipulable, como una palanca), y un dispositivo para entregar un reforzador (un dispositivo que entrega recompensas o evita castigos, como por ejemplo una puertita que entrega alimento cuando la palanca se acciona).

Por supuesto, la caja opera bajo el principio de que las respuestas al manipulador producen reforzadores (si la rata mueve la palanca, obtiene comida). Estas respuestas de llaman 'operantes libres', dado que el sujeto es libre de emitirlas a su velocidad propia. La tasa en que se emite la operante libre es la medida de la respuesta (por ejemplo, una medida de la respuesta puede ser tres conductas operantes cada minuto).

Sea cual fuese el animal que usemos y el tipo de manipulador empleado, y siempre que este sea adecuado al animal (palancas para la rata o teclas para las palomas), obtendremos para Skinner las mismas leyes en cuanto al proceso de aprendizaje.

Aunque la tasa a que se emite la operante libre (variable dependiente) puede vincularse con muchas diferentes variables independientes, en la práctica Skinner se concentró en una de estas variables independientes: los programas de refuerzo.

Los programas de refuerzo son diseñados por el investigador, y se refieren a las diferentes pautas con que los reforzadores son presentados luego de las respuestas del sujeto. Básicamente hay dos grandes tipos de programas de refuerzo: el refuerzo continuo, donde se da un reforzador para cada conducta del animal, y el refuerzo intermitente, donde se da un reforzador cada determinada cantidad de respuestas o cada determinada cantidad de tiempo.

La gran variedad de programas de refuerzos intermitentes descritos en el sistema de Skinner pueden reducirse a cuatro grandes tipos, como puede apreciarse en el esquema 3, que habla por sí mísmo.
Esquema 3 - Tipos de programas de refuerzo intermitente





FIJO

VARIABLE

DE RAZON

Se presenta el reforzador cada x cantidad de respuestas.

Ejemplo: Se le da comida cada tres movimientos de palanca.

Se presenta el reforzador luego de una cantidad diferente de respuestas.

Ejemplo: Se le da comida cada 2 movimientos de palanca, luego cada 6, luego cada 4, etc.

DE INTERVALO

Se presenta el reforzador cada cierto intervalo fijo de tiempo.

Ejemplo: Se le da comida una vez por minuto, independientemente de la tasa de respuestas.

Se presenta el reforzador a intervalos de tiempo diferentes.

Ejemplo: Se le da comida al minuto, luego a los 6 minutos, luego a los 4 minutos, etc., independientemente de la tasa de respuestas.


En el caso de un programa de razón variable, se considera la razón como el número promedio de respuestas por reforzador. En el ejemplo del esquema sería 3 (valor promedio de 2, 6 y 4).

En los programas de intervalo fijo, el animal recibe un reforzador por ejemplo cada minuto, tanto si responde continuamente todo el tiempo como si no lo hace. En el programa de intervalo variable tampoco se considera la cantidad de respuestas, sino el tiempo transcurrido entre uno y otro reforzador.

La aplicación de todos estos diferentes programas de reforzamiento ha permitido obtener algunas conclusiones, como las siguientes:

a) Los programas de razón dan típicamente tasas de respuesta más elevadas que los programas de intervalo, dado que las respuestas rápidas en los primeros aumentan el número de refuerzos en un periodo determinado.

b) En los programas fijos las respuestas más lentas tienden a producirse inmediatamente después del refuerzo, ya que las respuestas nunca son reforzadas inmediatamente después de un refuerzo. Esto es más fácil de advertir en el programa de intervalo fijo.

Esto no se observa en los programas variables: dado que en este tipo de programas todas las respuestas, tanto las primeras como las últimas, tienen la posibilidad de ser reforzadas, la tasa de respuestas es constante, no lentificándose después del refuerzo.

c) En general, los sujetos producirán más respuestas por reforzador en los programas intermitentes que en los programas continuos, y si finalmente el refuerzo cesa por completo, la resistencia a la extinción también es mayor después del refuerzo intermitente que después del continuo. "Para obtener respuestas rápidas y estables y resistencia elevada a la extinción, el programa de razón variable es el más efectivo" (Hill, 1985:85).
La extinción como medida de fuerza de la operante.- Cuando se refuerza regularmente (se da comida con cada movimiento de palanca) la tasa de respuesta se interrumpe al comer la bolita. Como el acto de comer no existe cuando se busca la extinción del condicionamiento, las respuestas emitidas durante esa fase de extinción sirven mejor que aquellas emitidas durante el condicionamiento como medida de las consecuencias del reforzamiento. Durante la extinción se usan comúnmente dos tipos de medidas de respuesta: la tasa de respuesta y el número total de respuestas antes de que las respuestas regresen a la tasa normal anterior al condicionamiento. A este número total que ocurre durante la extinción se lo llama resistencia a la extinción (o, anteriormente, reserva de reflejos) (Hilgard y Bower, 1983).
Los programas de refuerzo han servido para estudiar el efecto de ciertas drogas sobre la conducta animal. Muchos de estos estudios han concluido que las drogas destruyen más las respuestas producidas luego de un programa de intervalo que luego de un programa de razón. "Aparentemente, el cálculo de la rata es más estable o menos vulnerable que su mecanismo de regulación del tiempo" (Hill, 1985:86).

Observemos, por último, que Skinner no explica cómo se aprende originalmente la respuesta (por ejemplo de apretar la palanca), sino cómo el animal aprende a generar respuestas apareables a los reforzadores. De hecho, la investigación de Skinner sólo comienza una vez que entrenó a los animales para que sepan ejecutar la conducta original de apretar la palanca.
Explicando más detalladamente los programas de reforzamiento de Skinner en base a Hilgard y Bower (1983), puede decirse que en la vida cotidiana el reforzamiento no es regular: no se pesca un pez cada vez que se arroja la caña, y sin en embargo no por eso nadie deja de pescar. Así, el reforzamiento intermitente es más que una curiosidad de laboratorio, y este tipo de reforzamiento puede ser entre otros, según Skinner y en sus denominaciones actuales:
- Reforzamiento de intervalo fijo

- Reforzamiento de razón fija
El primero de ellos se refiere a que se da a intervalos de tiempo predeterminados, por ejemplo cada 3 minutos o cada 10 minutos. O sea que se reforzará la primera respuesta que ocurra después de los 3 minutos (o los 10). Se comprobó que cuanto más corto es el intervalo, más cantidad de respuestas se dan en dicho intervalo: intervalos más cortos dan tasas de respuesta más rápidas. El cociente entre respuestas no reforzadas y reforzadas es constante, y se llamó “razón de extinción”.

En el segundo caso, en vez de darse comida a intervalos predeterminados, se entrega luego de un número predeterminado de respuestas, por ejemplo cada 16 respuestas. Paradójicamente, se comprueba que cuando cuanto menos frecuente es el reforzamiento, más rápida es la respuesta. Skinner encuentra en esto una analogía con la situación donde uno está escribiendo algo y escribe más rápido conforme se acerca a la última línea. Luego de eso a uno le cuesta iniciar una nueva tarea escrita.

Hay muchos otros tipos de programas de reforzamiento, como se ve en el siguiente esquema.
Programas de reforzamiento (según Ferster y Skinner, 1957)


Nombre y abreviatura convencional

Descripción del programa de reforzamiento

I. PROGRAMAS NO INTERMITENTES




1. Reforzamiento continuo (crf)

Se refuerza toda respuesta emitida

2. Extinción (ext)

No se refuerza ninguna respuesta

II. PROGRAMAS DE REFORZAMIENTO INTERMITENTE




3. Razón fija (RF)

Agregando un número a las iniciales RF, se indica una proporción dada entre las respuestas y los reforzamientos. Así, en RF 100 se refuerza la centésima respuesta después del reforzamiento precedente.

4. Razón variable (RV)

Una serie de razones al azar que fluctúan entre valores arbitrarios con una media definida (como en RV 100).

5. Intervalo fijo (IF)

Se refuerza la primera respuesta que ocurre después de un intervalo dado de tiempo a partir del reforzamiento precedente. De ordinario, el valor se expresa en minutos, por ej. IF 5.

6. Intervalo variable (IV)

Una serie de intervalos al azar que fluctúan entre valores arbitrarios con una media definida expresada en minutos, como en IV 5.

7. Alternativo (alt)

Se proporciona el reforzamiento de acuerdo a un programa fijo de razón o de intervalo, dependiendo de cualquiera de los requisitos que se satisfaga primero, por ejemplo, en un programa representado como alt IF 5 RF 300. Si han transcurrido 300 respuestas antes que hayan transcurrido 5 minutos, entonces se presentará el reforzamiento; de lo contrario, el reforzamiento ocurrirá cuando hayan transcurrido 5 minutos.

8. Conjuntivo (conj)

Se deben satisfacer los requerimientos tanto de razón fija como de intervalo fijo; por ejemplo, en un conj IF 5 RF 300, el reforzamiento dependerá de que hayan transcurrido (mínimo) 5 minutos y de que se hayan dado por lo menos 300 respuestas.

9. Acoplado (interlock)

Es un programa de razón decreciente en el cual el número de respuestas requeridas por reforzamiento desciende uniformemente con el tiempo después de cada reforzamiento. De hecho, se castiga al organismo por responder de manera suficientemente rápida para ser reforzado antes, porque se requieren más respuestas para el reforzamiento de las que se requerirían si ellas estuvieran separadas en tiempo.

10. Tándem (tand)

Un solo reforzamiento depende de que se cumplan sucesivamente dos unidades, cada una de las cuales ha sido reforzada según un programa único. De esta manera, en IF 10 RF 5, el reforzamiento depende de una respuesta después que han transcurrido 10 minutos seguida por cinco respuestas adicionales, cualquiera que sea el intervalo de separación entre ellas.

11. Encadenado (chain)

En un programa tándem no hay cambio en el estímulo una vez que se ha llevado al cabo uno de los programas, en tanto que en el encadenado se introduce un cambio notorio. Así, el color del punto que la paloma tiene que picar puede cambiar después de que se ha satisfecho el requisito IF, pero el reforzamiento se demora hasta que se satisfaga el componente RF.

12. Ajustivo (adj)

El valor del intervalo o de la razón cambia sistemáticamente como consecuencia del reforzamiento (se distingue del acoplado porque en éste último el cambio tiene lugar de acuerdo a las respuestas ‘entre’ los reforzadores).

13. Múltiple (múlt)

Se calcula el reforzamiento para dos o más programas los cuales, generalmente, se alternan al azar. El paso de un programa a otro se marca mediante el cambio del estímulo que permanece tanto tiempo como el programa está en operación.

14. Mixto (mix)

Similar al múltiple, excepto en que no hay ningún estímulo correlacionado con programa; el cambio de un programa a otro tiene que ser detectado en base al patrón de reforzamiento.

15. Interpolado (inter)

Una pequeña parte de un programa puede ser introducida dentro de otro programa como parte de él, sustituyéndolo por unos cuantos minutos en, digamos, un periodo de 6 horas bajo diferentes condiciones.

16. Concurrente (conc)

Dos o más programas integrados independientemente pero operando al mismo tiempo; los reforzamientos son establecidos por ambos.


Por último, Hilgard y Bower (1983) indican que puede haber otras influencias que afectan el fortalecimiento de operantes. Se trata de dos clases de acontecimientos que se correlacionan significativamente con las respuestas: la pulsión y la emoción. La pulsión para Skinner es un mero conjunto de operaciones (tales como privar de comida durante cierto número de horas), que ejercen determinado efecto sobre la tasa de respuestas. Skinner trata también a la emoción como un conjunto de operaciones, en parte coincidentes con las operaciones de la pulsión. Su importancia reside en que acompañan o producen cambios a la respuesta.
1   ...   10   11   12   13   14   15   16   17   ...   31

similar:

Capítulo 1: Aprendizaje y teorías del aprendizaje iconReporte de lectura: teorías del aprendizaje y su aplicación en el...

Capítulo 1: Aprendizaje y teorías del aprendizaje iconLos procesos de enseñanza-aprendizaje: análisis didácticos de las...

Capítulo 1: Aprendizaje y teorías del aprendizaje iconHay varios sistemas de clasificación. Si se elige la clasificación...

Capítulo 1: Aprendizaje y teorías del aprendizaje iconIntroducción a las teorías del aprendizaje

Capítulo 1: Aprendizaje y teorías del aprendizaje iconActividad de Aprendizaje Planteamiento del diseño de estrategias...

Capítulo 1: Aprendizaje y teorías del aprendizaje iconTeorías sobre el aprendizaje de idiomas

Capítulo 1: Aprendizaje y teorías del aprendizaje iconAportaciones de las principales teorías de el Aprendizaje

Capítulo 1: Aprendizaje y teorías del aprendizaje iconExisten dos principales teorías de Aprendizaje. La teoría del condicionamiento...

Capítulo 1: Aprendizaje y teorías del aprendizaje iconEvaluación del aprendizaje

Capítulo 1: Aprendizaje y teorías del aprendizaje iconPrograma aceleracion del aprendizaje




Todos los derechos reservados. Copyright © 2019
contactos
b.se-todo.com