2. “El aprendizaje es un cambio
relativamente permanente en
el
comportamiento,
que
refleja una adquisición de
conocimientos o habilidades
a través de la experiencia y
que
puede
incluir
el
estudio, la instrucción, la
observación o la práctica. Los
cambios
en
el
comportamiento
son
razonablemente objetivos, y
por
tanto
pueden
ser
medidos”
Papalia, D.E. (1990)
3. En general, se acepta como
definición de aprendizaje una
modificación
estable
de
la
conducta adquirida a lo largo de la
vida. Desde el punto de vista
exclusivamente humano, también
cabe considerar como aprendizaje
una serie de conocimientos y
habilidades intelectuales.
Cuando un animal nace, posee
ciertas determinaciones hereditarias
,
algunas
comunes
a
la
especie, como son los instintos, y
otras
específicamente
propias, como son los rasgos
heredados de sus progenitores. El
resto de conductas que definen a
ese animal son aprendidas. Gracias
a esa capacidad, los animales
(incluído el hombre), consiguen una
mejor adaptación al medio que les
rodea.
4. Iván Pavlov, fisiólogo y médico
ruso, fue uno de los pioneros a la
hora de colocar los cimientos de la
Escuela
Conductista,
y
de
demostrar de forma empírica que el
aprendizaje
se
producía
por
asociación de estímulos.
Después de la revolución soviética
de 1917, se impulsó en este país el
estudio de la conducta animal y
humana desde un punto de vista
fisiológico. Por sus estudios sobre los
procesos digestivos, Pavlov recibió
el Premio Nobel de Medicina . Sin
embargo, fue el trabajo novedoso
que realizó durante las siguientes
tres décadas, la que determinó que
este científico ocupe un lugar muy
importante en la Historia.
5. Estudiando los procesos de digestión
en los perros, Pavlov observó
casualmente que la salivación y
secreción de jugos gástricos se
producían en los animales antes de
que
éstos
vieran
los
alimentos, simplemente con oír los
pasos de la persona que les traía de
comer.
A partir de esta observación ideó un
experimento: antes de presentar la
comida a un perro, hacía sonar una
campana. Al principio, el perro sólo
segregaba jugos gástricos al ver la
comida, pero al repetirse de forma
constante la secuencia “sonido de
la campana- presentación de la
comida”, el perro comenzó a
segregar jugos gástricos al oir la
campana, y antes de ver los
alimentos.
6. ANALISIS DEL EXPERIMENTO DE
PAVLOV
La salivación del perro al percibir
la comida es una respuesta
refleja, natural y no aprendida.
Pavlov llamó a la comida estímulo
incondicionado (EI), y al reflejo de
salivación lo denominó respuesta
incondicionada (RI). Al conjunto
le dio el nombre de reflejo
incondicionado.
EI
RI
7. ANALISIS DEL EXPERIMENTO DE PAVLOV
Se denomina estímulo neutro (EN)
al estímulo que, en principio, no
provoca
la
respuesta
que
estamos estudiando: en este
caso, la campanilla (puede
provocar otras respuestas, por
ejemplo, que el perro levante las
orejas o vuelva la cabeza hacia el
lugar de donde procede el
sonido). Durante el proceso de
condicionamiento, el EN y el EI se
presentan juntos , y el resultado
de esta asociación sigue siendo la
misma respuesta incondicionada:
EI + EN
RI
8. ANALISIS DEL EXPERIMENTO DE PAVLOV
El proceso concluye cuando, al
presentar el estímulo neutro sin el
estímulo incondicionado, el perro
emite la misma respuesta. En ese
momento el estímulo neutro se
convierte
en
estímulo
condicionado (EC), y la respuesta
que produce es ahora la
respuesta condicionada (RC).
EC (antes EN)
RC
10. DISCRIMINACIÓN Y GENERALIZACIÓN
DEL CONDICIONAMIENTO
En
el
condicionamiento
clásico, cuando un perro
aprende a dar una respuesta
condicionada (p.ej. segregar
saliva) ante un estímulo
condicionado (sonido de una
campana),
otro
estímulo
parecido a éste (sonido de un
diapasón,
de
un
triángulo…)puede producir la
misma respuesta . Se habla
entonces de Generalización
del estímulo.
11. DISCRIMINACIÓN Y GENERALIZACIÓN
DEL CONDICIONAMIENTO
Por el contrario, cuando las
respuestas
ocurren
en
presencia
de
unos
estímulos, pero no de otros, se
denomina Discriminación del
estímulo.
Tanto la Generalización como
la Discriminación ejercen una
función importante en la
supervivencia como en la
adaptación al medio.
12. EXTINCIÓN DEL
CONDICIONAMIENTO
La Extinción se produce si el
EC aparece repetidamente
sin el EI, rompiéndose la
asociación que existía entre
ambos. Cuando a un perro se
le ha condicionado a salivar
como
respuesta
a
una
campana, y el sonido de la
campana
se
presenta
muchas
veces
sin
la
comida, las respuestas ante la
campana
irán
desapareciendo.
14. APLICACIONES DEL
CONDICIONAMIENTO CLÁSICO
En cuanto a la aplicación en terapia o
modificación
de
conducta,
los
campos de actuación son muy
variados.
Por ejemplo, los ex
consumidores de drogas duras, a
menudo sienten cierto desasosiego
cuando se vuelven a encontrar con
personas o lugares asociados a
consumos precedentes. Por eso se les
aconseja mantenerse apartados de los
ambientes asociados con la euforia
provocada por el uso de la droga. Lo
mismo ocurre con algunas técnicas
que se utilizan para que los alcohólicos
inviertan sus asociaciones con el
alcohol (se les administran fármacos
que
combinados
con
alcohol
producen mucho malestar físico)
15. JOHN WATSON (1878-1958)
Es el fundador del conductismo.
Watson , muy influenciado por los
estudios
de
Pavlov
y
Thorndike, creía firmemente que
la conducta humana, aunque
influida por su base biológica, era
básicamente un cúmulo de
respuestas condicionadas. Su
frase más famosa es…
“Dadme una docena de niños sanos, bien
formados, para que los eduque, y yo me
comprometo a elegir uno de ellos al azar
y adiestrarlo para que se convierta en un
especialista de cualquier tipo que yo
pueda
escoger
médico, abogado, artista, hombre de
negocios e incluso mendigo o ladrónprescindiendo
de
su
talento, inclinaciones, tendencias, aptitud
es,
vocaciones
y
raza
de
sus
antepasados”
16. JOHN WATSON (1878-1958)
En un estudio famoso, aunque
inquietante desde el punto de vista
ético, Watson y Rosalie Rayner
(1920),
demostraron
como
condicionar
ciertos
temores
específicos. El sujeto fue un bebé de
11 meses llamado Albert. El
“pequeño Albert”, como la mayoría
de los niños, tenía miedo de los
ruidos muy fuertes, pero no de las
ratas blancas.
Watson y Rayner le mostraron una
rata blanca y, cuando el niño
extendió
la
mano
para
tocarla, golpearon un martillo
contra una barra de acero situada
exactamente detrás de la cabeza
del pequeño. Después de ver la rata
y el ruido intimidatorio siete
veces, Albert se echó a llorar en
cuanto vio a la rata
17. JOHN WATSON (1878-1958)
Cinco días después, se vio que
Albert generalizaba su respuesta
condicionada, pues reaccionó
atemorizado
cuando
se
le
mostraban
estímulos
similares
(objetos peludos y blancos): un
conejo, un abrigo peludo, una
barba de Papa Noel.
Aunque algunos investigadores
plantearon que no siempre
conseguían replicar los resultados
de su experimento con otros
niños, el trabajo de Watson y
Rayner con el pequeño Albert ha
tenido un significado legendario
para muchos psicólogos.
18. EL LEGADO DE JOHN WATSON
Las
repercusiones
de
estos
experimentos
fueron
muy
importantes. Una discípula de
Watson, Mary Jones, fue la primera
en aplicar el condicionamiento
clásico para curar una fobia.
El
procedimiento
consistía
en
asociar el objeto que provocaba la
fobia (de nuevo una rata blanca), a
otros
objetos
y
situaciones
placenteras, haciendo aparecer el
estímulo
temido
de
forma
progresiva
para
que
siempre
domine la vivencia gratificante. Esta
técnica
de
modificación
de
conducta
se
conoce
como
desensibilización sistemática.
19. El condicionamiento clásico
explica cómo unos estímulos
ponen en funcionamiento
unas respuestas. En la vida se
presentan muchas situaciones
en las que un organismo no
tiene
control
sobre
los
acontecimientos o estímulos
con los que se enfrenta.
Sin embargo, en otras muchas
circunstancias, los hechos son
el resultado directo de la
conducta del individuo.
20. LEYES DE THORNDIKE
Edward Lee Thorndike (1874-1949) fue
uno de los pioneros en el estudio del
condicionamiento operante o
instrumental.
En
sus
experimentos,
Thorndike
introducía gatos hambrientos en cajas
diseñadas por él, colocando comida
fuera (pero a la vista del animal). Los
gatos
producían
respuestas
estereotipadas, como oler la comida a
través de los barrotes , golpear las
paredes de la caja, hasta que
accionaban
el
mecanismo
de
apertura de la misma (un pestillo, un
cordel…) y abrían la puerta que daba
acceso a la comida. Si se repetía esta
situación experimental con el mismo
animal, cada vez tardaba menos en
dar con la respuesta adecuada, hasta
que finalmente ya accionaba el
mecanismo a la primera
21. LEYES DE THORNDIKE
Thorndike observó que las curvas
de aprendizaje mostraban una
clara disminución del tiempo
necesario para encontrar la
solución según el número de
veces que se hubiera ensayado el
experimento.
Formuló así la llamada Ley del
Ejercicio, según la cual la
probabilidad de una respuesta
aumenta en función de las veces
que se haya dado esa situación
en el pasado.
22. LEYES DE THORNDIKE
La segunda ley que postuló fue la
Ley del Efecto:
Un
comportamiento
que
va
acompañado de una recompensa
queda fortalecido, es decir, tiende
a
repetirse.
Si
una
respuesta, ejecutada en presencia
de un estímulo, va seguida de un
hecho satisfactorio, la asociación
entre el estímulo y la respuesta se
fortalece. En cambio, si a la
respuesta le sigue un hecho molesto
o desagradable, la asociación se
debilita.
Es decir, la ley del efecto establece
que se aprenden esencialmente
aquellas
conductas
que
van
acompañadas de un reforzador.
23. B.F. SKINNER (1904 – 1990 )
A diferencia del condicionamiento
clásico,
el
condicionamiento
operante o instrumental descubierto
por Thorndike, habla de conductas
activas: el sujeto no se limita a
reaccionar
sino
que,
para
aprender, debe actuar o utilizar su
conducta instrumentalmente, es
decir, como un medio para
alcanzar los fines propuestos.
El representante más famoso y
polémico
de
este
tipo
de
aprendizaje fue B.F. Skinner. Sus
investigaciones comenzaron en la
década de los 50 y continuaron
durante tres décadas más.
24. B.F. SKINNER (1904 – 1990 )
Fue el inventor de las conocidas Cajas de
Skinner:
cámaras
diseñadas
específicamente para la investigación
con
animales.
Constan
de
palancas,
trampillas,
mecanismos
eléctricos, luces…Se introduce en ellas a
un animal (rata, paloma, etc.) para
observar
su
comportamiento
y
condicionar alguna de sus respuestas.
En sus experimentos, Skinner observó que
en un principio el animal actuaba al
azar, tocando todos los mecanismos sin
estrategias definidas. Cuando la caja
estaba programada para dispensar
comida accionando algún resorte, se
observaba
que
el
animal,
según
aumentaban los ensayos, disminuía el
número de tentativas al azar hasta
aprender a presionar a la primera el
resorte exacto para conseguir la comida.
Este tipo de aprendizaje se conoce como
aprendizaje por ensayo y error.
25. B.F. SKINNER (1904 – 1990 )
En el condicionamiento operante, el
sujeto aprende a realizar ciertas
operaciones con vistas a producir
un resultado. Un estímulo que
incrementa la frecuencia de la
conducta que le precede se
denomina reforzador positivo.
Lo
esencial
de
un
estímulo
reforzador positivo es que favorece
la repetición de una conducta.
Skinner distinguió entre reforzadores
primarios (estímulos biológicamente
importantes:
comida, agua, actividad sexual…) y
reforzadores
secundarios
(sus
propiedades reforzantes se deben a
la asociación con los primarios:
dinero, notas escolares, medallas
atléticas…)
26. B.F. SKINNER (1904 – 1990 )
Skinner establecimiento cuatro
procedimientos básicos para el
condicionamiento instrumental:
REFUERZO POSITIVO
REFUERZO NEGATIVO
CASTIGO POSITIVO
CASTIGO NEGATIVO
27. REFUERZO POSITIVO
Se caracteriza porque a la
aparición de una respuesta le
sigue un estímulo que es
reforzante o agradable para el
sujeto. Por ejemplo, la realización
de un trabajo es reforzado con
una gratificación económica.
Es el mecanismo más efectivo de
aprendizaje tanto para los
animales como para los seres
humanos.
28. REFUERZO POSITIVO
La efectividad del refuerzo positivo
depende de una serie de variables:
Cuanto mayor es la cantidad de
recompensa, mayor es el esfuerzo
realizado.
Entre el refuerzo y la conducta tiene
que haber una proximidad
temporal. Si se demora la entrega
del refuerzo, se produce una caída
en la ejecución de la conducta.
El nivel de motivación también es
fundamental en el aprendizaje (una
rata o una paloma saciadas no
trabajan)
30. REFUERZO NEGATIVO
Se caracteriza por la terminación de
un estímulo aversivo (estímulo
reforzador negativo), cuando la
conducta aparece. Existen dos
procedimientos:
Condicionamiento de escape: el
estímulo aversivo se presenta de
forma constante, y se interrumpe
cuando
se da la respuesta
instrumental (p.ej. Un prisionero que
se fuga de la cárcel)
Condicionamiento de evitación: el
estímulo aversivo se puede dar en
el futuro, si no se emite la respuesta
que lo impide (p.ej. Realizar un
chequeo
para
prevenir
enfermedades)
31. CASTIGO POSITIVO
La disminución de una conducta
ante un castigo se explica porque
el suceso que la sigue es un
estímulo aversivo. Si una persona
aparca mal el coche y se lo lleva
la grúa, es posible que no vuelva
a repetirlo. El castigo disminuye la
probabilidad de la respuesta en el
futuro.
Sin embargo, el castigo, aunque
reprime
la
conducta
indeseada, no suele guiar al
sujeto hacia un comportamiento
más deseable. El castigo nos dice
lo que no debemos hacer; el
refuerzo, lo que debemos hacer.
32. CASTIGO POSITIVO
Algunos de los factores que influyen en
su aplicación son:
Intensidad: cuanto más intenso sea
el castigo, mayor es la supresión de
la conducta.
La demora en su aplicación reduce
la efectividad del castigo.
La constancia: castigar la conducta
indeseada unas veces sí y otras
no, con frecuencia produce el
efecto contrario al que se desea.
El castigo tiende a inhibir la
conducta (se reprime), pero puede
aparecer posteriormente, en un
ambiente no tan represor. Por eso es
mejor combinar con el refuerzo
positivo de las conductas deseadas.
33. CASTIGO NEGATIVO
Se produce cuando la respuesta
del sujeto impide la presentación
de un estímulo reforzador positivo.
Por ejemplo, cuando los padres
no dejan salir a un hijo el fin de
semana o le retiran el móvil por
no haber estudiado lo suficiente y
suspender.
Con
este
procedimiento,
denominado
también
“tiempo
fuera”
se
consigue un descenso de la
respuesta instrumental.
34. CONDUCTA SUPERSTICIOSA
Skinner fue uno de los primeros
psicólogos que mencionaron la
posibilidad del condicionamiento
“accidental”. Realizó experimentos
con palomas, a las que dejó solas
en sus jaulas, y dispuso las cosas de
forma
que
un
dispensador
automático de alimentos dejara
caer unos granos de maíz en las
jaulas a intervalos regulares.
Algunas palomas introducían la
cabeza en la esquina superior de la
jaula, otras saltaban sobre una
pata, otras estiraban su cuello… En
estos casos, la conducta ocurría
antes de que apareciese la comida.
Las palomas se comportaban como
si esos actos fueran la causa de
aparición del alimento, aunque no
existía ningún tipo de relación.
35. CONDUCTA SUPERSTICIOSA
Skinner bautizó la conducta que se
producía en las palomas con la
expresión
conducta
supersticiosa,
porque
estos
comportamientos
le
parecían
similares
a
las
creencias
supersticiosas que se dan en
muchas culturas.
La
conducta
supersticiosa
y
contraria a la razón humana, es
aquella que ha sido fortalecida o
debilitada por haber sido reforzada
o castigada accidentalmente. Este
condicionamiento no se produce
por una relación causal respuestareforzador, sino por una relación
casual.
Somos
supersticiosos
cuando atribuimos un resultado a
una causa que no lo ha originado.
36. PROGRAMAS DE REFORZAMIENTO
Los programas de reforzamiento son
patrones o reglas que indican el
momento y la forma en que la
aparición de una respuesta va a ir
seguida de un reforzador.
Existen dos categorías importantes:
Reforzamiento
continuo:
cada
respuesta da lugar a la aparición
del estímulo reforzador. Con estos
programas se aprende con más
rapidez.
Reforzamiento
intermitente:
Las
respuestas solo se refuerzan algunas
veces. Con estos programas se
tarda más en aprender, pero el
efecto es más duradero.
37. PROGRAMAS DE REFORZAMIENTO
Los programas de reforzamiento
intermitente se dividen en:
Programas de Razón Fija
Programas de Razón Variable
Programas de Intervalo Fijo
Programas de Intervalo
Variable
38. PROGRAMAS DE REFORZAMIENTO
Programa de Razón Fija
Se obtiene un refuerzo después
de un número fijo de respuestas
(siempre el mismo), no importa el
intervalo de tiempo. Por
ejemplo, en el trabajo a destajo
en algunas fábricas se cobra
según el número de piezas
realizadas.
39. PROGRAMAS DE REFORZAMIENTO
Programa de Razón Variable
En este caso el número de
respuestas necesarias para obtener
un reforzador varía de forma
aleatoria. La tasa de respuestas es
alta, ya que responder con rapidez
supone recibir el refuerzo antes.
En la vida cotidiana encontramos
programas de este tipo en los
juegos de azar. Los jugadores de las
máquinas tragaperras no saben
cuántas partidas necesitan para
obtener
la
combinación
ganadora, y los jugadores de bingo
tampoco
conocen
cuántos
cartones tendrán que comprar para
ser premiados.
40. PROGRAMAS DE REFORZAMIENTO
Programa de Intervalo Fijo
El refuerzo se entrega al sujeto por la
primera
respuesta
que
da
transcurrido un tiempo, que es
constante de una ocasión a la
siguiente. Si establecemos
un
programa de IF de tres minutos para
dar comida a una rata por presionar
la palanca, ésta es reforzada por la
primera respuesta realizada después
de los tres minutos. En estos
programas se dan pocas respuestas
al principio del intervalo y muchas al
final del mismo.
Un
ejemplo
en
la
vida
cotidiana, sería recompensar a un
niño por permanecer atento en una
tarea un tiempo determinado.
41. PROGRAMAS DE REFORZAMIENTO
Programa de Intervalo Variable
El refuerzo está disponible cuando
se da la respuesta después de un
tiempo que varía aleatoriamente.
Un ejemplo en la vida cotidiana
sería la conducta de un pescador
deportivo, que se ve reforzada a
través de un programa de
intervalo variable
42. GENERALIZACION Y DISCRIMINACIÓN
En el Condicionamiento Operante
también encontramos los fenómenos
de Generalización y Discriminación
descritos en el Condicionamiento
Clásico.
Además del concepto de estímulo
reforzador, en el condicionamiento
operante o instrumental, también
interviene
la
señal
o
estímulo
discriminativo.
Utilizando el ejemplo de la caja de
Skinner, es ED es aquel que el animal
debe aprender a reconocer para
saber cuándo debe emitir la respuesta
operante: por ejemplo, se puede
enseñar a presionar el botón que esté
sobre un fondo verde, o hacerlo sólo
cuando haya una luz encendida, etc.
43. EXTINCION DE LA CONDUCTA
En
el
condicionamiento
operante, se denomina extinción
a la reducción de una respuesta
cuando no va seguida del
reforzador.
A
menudo,
las
respuestas
dejan
de
ser
reforzadas al cambiar la situación
o el contexto.
Los efectos que se observan en
un proceso de extinción son dos:
Descenso en la tasa de respuesta
Reacción
emocional
de
frustración tras ser retirada la
recompensa.
44. APLICACIONES DEL
CONDICIONAMIENTO OPERANTE
Las técnicas y procedimientos del
Condicionamiento Operante han sido
utilizadas, de forma evidente, en dos
áreas:
Entorno Educativo: Muchas de las
medidas que se utilizan en la escuela y
en la educación familiar, se basan en
los procedimientos de refuerzo y
castigo.
Adiestramiento de Animales: Los
animales
que
participan
en
espectáculos
(circo, delfinarios, etc.), así como los
entrenados para ayudar a los
humanos en labores específicas
(perros lazarillo, animales adiestrados
para reconocer drogas, explosivos o
rastrear, etc.), han sido sometidos a
programas de adiestramiento que
utilizaban este tipo de técnicas.
45. CONDICIONAMIENTO CLÁSICO
CONDICIONAMIENTO OPERANTE
La conducta (respuesta) es
involuntaria.
La conducta es voluntaria y busca
alcanzar una meta.
La conducta se adquiere por
asociación de hechos: el estimulo
condicionado (EC) anuncia la
aparición del incondicionado (EI)
La conducta se adquiere al asociar
una respuesta con una
consecuencia posterior (refuerzo o
castigo).
La respuesta condicionada
disminuye cuando el EC se presenta
de forma aislada repetidamente.
La respuesta disminuye, sobre todo
cuando cesa el refuerzo constante
Las predisposiciones biológicas
limitan qué estímulos y respuestas
pueden asociarse.
Se pueden condicionar una gran
variedad de respuestas, aunque
siempre se aprenden mejor las
formas de conducta análogas a sus
formas naturales.
48. FASE DE PRETRATAMIENTO
Utilizaba tres grupos:
-
Grupo Escapable: Se exponía a los
sujetos
a
un
acontecimiento
aversivo (descarga), que podían
controlar ejecutando una respuesta.
-
Grupo inescapable: Se exponía a los
sujetos
a
una
situación
idéntica, pero sus respuestas no
podían modificar o evitar la
estimulación aversiva (no tenían
control sobre ella).
-
Grupo control: No recibía
pretratamiento.
49. FASE DE PRUEBA
En esta Fase se sometía a todos los
sujetos
al
mismo
tipo
de
condicionamiento, normalmente de
escape evitación, para comprobar
los efectos producidos por el
aprendizaje anterior.
Seligman
comprobó
que
los
animales
que
habían
sufrido
descargas inescapables durante la
primera fase, no aprendían a saltar
al compartimento de seguridad
para evitar la descarga durante la
segunda fase. La explicación de
este fenómenos es que los perros
habían aprendido que la descarga
administrada era independiente de
su conducta, y este aprendizaje
interfería en situaciones posteriores.
50. La indefensión aprendida (IA)
consiste en la falta de convicción
en la eficacia de la propia
conducta para cambiar el rumbo
de los acontecimientos que vive
el sujeto o para alcanzar los
objetivos que se desean debido a
la expectativa de falta de control.
Algunos de sus efectos son:
Déficit motivacional: La pasividad
de las personas o animales, tras
sucesos traumáticos e
incontrolables, reflejan la
incapacidad de los mismos para
iniciar nuevas conductas
(inhibición conductual)
51.
Déficit cognitivo: Es la
incapacidad para realizar nuevos
aprendizajes o para beneficiarse
de nuevas experiencias.
Generalmente, las expectativas
futuras dependen de la creencia
en que podemos controlar las
experiencias pasadas y presentes.
Déficit emocional: Los estudios
con humanos muestran que
después de una experiencia
incontrolable se originan
sentimientos de
indefensión, impotencia, frustració
n y depresión.
52. En 1913 se fundó el primer
centro para la investigación
con primates del mundo en
las
Islas
Canarias.
Su
director, Wolfgang Kohler, fue
uno de los fundadores de la
Escuela de la Gestalt. Sus
famosos trabajos científicos en
Tenerife sobre la inteligencia
de los chimpancés y sobre el
conocido
concepto
de
insight, aparecen en todos los
libros de historia de la
Psicología del mundo.
53. Kohler, en sus experimentos, creó
situaciones en las que los animales
tenían que llevar a cabo complejas
estrategias para la resolución del
problema que se planteaba:
Por ejemplo, se situaban alimentos a
la vista del chimpancé, pero a una
altura que impedía alcanzarlos por
sus propios medios. Se colocaban
en la estancia también diversas
cajas sin amontonar.
Observaron que, después de un
tiempo en el que el chimpancé
probó distintas conductas sin éxito
(ensayo y error), el animal parecía
renunciar a seguir intentándolo. De
repente,
parecía
analizar
el
problema y llegaba súbitamente a
la solución (apilaba las cajas y se
encaramaba a ellas para llegar
hasta la comida).
54.
55. Kohler llegó a las siguientes
conclusiones:
El chimpancé resolvía el
problema mediante una
comprensión súbita (insight) del
mismo. Reconstruía activamente
los datos de su campo
perceptivo, captando de manera
repentina la relación existente
entre varios objetos y la solución
del problema.
Este modo de proceder se
encuentra presente en humanos y
animales con cerebros suficiente
mente desarrollados.
56.
Para que se produzca el
insight, los animales deben
percibir simultáneamente todos
los elementos involucrados en el
problema; el hombre, en
cambio, debido a su capacidad
de abstracción, no necesita tal
simultaneidad.
Al aprendizaje por insight puede
precederle conductas de ensayo
y error, pero no es estrictamente
necesario.
57. EJEMPLOS DE PROBLEMAS
EJERCICiO 1 : Unir los
nueve puntos de esta
matriz con CUATRO LÍNEAS
RECTAS.
EJERCICIO 2: Formar CUATRO
TRIÁNGULOS EQUILÁTEROS
empleando seis fósforos.
EJERCICIO 3: ¿Podrías fijar
una vela a la pared
utilizando los materiales que
se muestran en la imagen:
una caja de fósforos y
algunas tachuelas?
58. Principios de la Psicología Gestalt
en la resolución de problemas
La dificultad en resolver estos problemas radica en la tendencia
del sistema cognitivo a ordenar los datos percibidos con arreglo
a su caudal de experiencia anterior, en aras de hacer más
sencilla y fácil la comprensión de la situación.
Pero en este caso la experiencia previa no sólo NO facilita, sino
que obstaculiza la solución. Los elementos que integran cada
problema poseen para la gente una fijación perceptiva o
funcional.
59. SOLUCIONES A LOS PROBLEMAS
Estamos acostumbrados a percibir
una matriz de nueve puntos como
un cuadrado, cuyos bordes no
podemos
traspasar.
Por
eso
tratamos de que todas las líneas
doblen en los límites externos del
cuadrado
sin
considerar
la
posibilidad de extenderlas más
allá, única forma de solucionar
este problema.
Estamos fuertemente influidos por la
idea de que los triángulos tienen
que ser construidos en dos
dimensiones, pero aplicando
estrategias espaciales
economizamos bastantes
fósforos, construyendo una
pirámide regular.
Aquí
nos
traicionan
los
conceptos
de
finalidad
específica de cada objeto.
Para nosotros las cajas de
cerillas sirven básicamente
como
contenedores.
Si
vaciamos el recipiente de los
fósforos y lo fijamos a la pared
con una tachuela, obtenemos
un singular candelabro, y sólo
queda fijar sobre el mismo la
vela derritiendo un poco de
cera de su base.
60. MODELO COGNITIVO DEL
APRENDIZAJE
Además de la Gestalt, la Escuela
Cognitiva también planteó
modelos alternativos sobre el
Aprendizaje. Sus investigaciones e
centraron mayoritariamente en el
estudio del aprendizaje humano.
La fundamentación teórica de la
Psicología Cognitiva se basa en la
obra de Piaget, que consideraba
que el aprendizaje posibilita una
mejor adaptación de los
organismos al medio ambiente.
61. PIAGET
Piaget propuso que los procesos
adaptativos poseen doble
dirección, existiendo dos procesos:
Asimilación: Los individuaos
interiorizan los estímulos captados
del medio, no de forma pasiva, sino
adaptándolos a sus esquemas y
estructuras previas, para integrarlos
dentro de ellos.
Acomodación: El pensamiento
humano no es rígido, sino flexible.
Los esquemas y estructuras mentales
van modificándose
constantemente con el objeto de
acomodarse a una realidad
ambiental que está en perpetuo
cambio.
62. PIAGET
Piaget
destacó
la
mutua
influencia de la mente y el medio
externo.
El
sujeto
integra
activamente, bajo la forma de sus
esquemas previos, lo que capta;
pero, a la vez, modifica sus
estructuras
mentales
para
adaptarlas
a
los
nuevos
problemas que aparecen en su
vida cotidiana.
De esta manera, el pensamiento
se define como un conjunto de
estructuras cuya misión consiste
en organizar y dar sentido a los
elementos de la realidad.
64. AUSUBEL
Discípulo de Piaget, trasladó
sus ideas al campo del
aprendizaje escolar y social.
Ausubel insistió en que no
basta con que el
conocimiento que debe
aprenderse esté lo
suficientemente organizado
para facilitar su integración en
los esquemas mentales del
sujeto. También es necesario
que este aprendizaje sea
significativo.
65. AUSUBEL
Para que el aprendizaje sea significativo, los nuevos datos deben ser compatibles con
los conocimientos previos del sujeto, de tal manera que puedan integrarse dentro del
conjunto general de conocimientos que ya se posean.
66.
67.
68. Albert Bandura es conocido por
su teoría acerca del Aprendizaje
por imitación o Aprendizaje
Vicario. Básicamente, su modelo
enuncia que podemos aprender
imitando lo que observamos que
otros hacen.
El aprendizaje se produce por
observación de la conducta, y la
conducta aprendida se ejecutará
o no en función de las
recompensas o castigos que
hayan recibido los modelos. A
este tipo de estímulos reforzadores
se les conoce como vicarios (no
los recibe el sujeto durante la fase
de aprendizaje).