1. Daniel L. Stufflebeam
Seminario de Fundamentos de Evaluación
Bogotá D.C. 2013
Ma. Denis Cortes, Milton Rojas, Alexis Monsalve
Mery Rocha Cuan, Flor Patricia Pedraza, Rubén D. Hernández,
Oscar Benavidez, Gilberto Narváez, José Díaz Henao,
Yenny Méndez, Sandra C. Jerez, Julio R. Castro
3. Evaluación orientada al perfeccionamiento
Su modelo CIPP fue
concebido como
respuesta a las
necesidades y vacíos
de la evaluación
educativa en la
decada de los 60’s.
Las limitaciones
encontradas al
enfoque tyleriano de
evaluación educativa
centrada en el diseño
experimental, que se
había aplicado por
más de 30 años.
Principalmente por
4. Contexto 1965, Estados Unidos
Programa ESEA que asignaba recursos a los
distritos escolares de Estados Unidos con el
propósito de mejorar la educación de los más
atrasados y, por ende, mejorar el nivel de todo el
sistema de educación elemental y secundaria.
este programa requería
docentes que evaluaran
sus proyectos
las instituciones escolares no
podrían recibir los recursos
hasta que presentaran un plan
de evaluación de los proyectos
que estaban adelantando
Utilizando el método tyleriano, estas
escuelas intentaron determinar si los
proyectos habían alcanzado sus objetivos
Algunas Universidades y agencias de servicios crearon
programas para apoyar y asesorar estas evaluaciones
en los distritos
5. • Supuestos nada realistas: los
docentes no estaban
capacitados para realizar la
evaluación de los proyectos
que habían elaborado.
• Los objetivos de los
proyectos no proporcionaban
datos útiles sobre los
estudiantes
• Los objetivos son elaborados
por personas ajenas al
proceso con los estudiantes
• Las necesidades de los
estudiantes no coinciden con
las identificadas en el
• proyecto
• Las pruebas aplicadas para
evaluar el cumplimiento de los
objetivos no se adaptaban a las
necesidades y estados de los
estudiantes más atrasados
• El desarrollo de estos test no
era viable
• La periodicidad en la entrega
de informes era cada año, por
lo que los resultados eran
inoportunos
• Los proyectos no se estaban
implementando realmente en
• las aulas
Stufflebeam dirigió un Centro para promover la teoría y
práctica de la evaluación y contactó a las escuelas públicas de
Ohio para evaluar los proyectos ESEA que se habían propuesto
y encontró que “la evaluación sufría una grave enfermedad”:
6. Como consecuencia de este fracaso, Stufflebeam propone, en 1966, la
evaluación como un proceso mediante el cual se proporcionara
información útil para la toma de decisiones. Su propuesta fue apoyada
ampliamente en le sector educativo.
En 1969, Phi Delta Kappa creó un comité de estudio nacional sobre la
evaluación, con Stufflebeam como presidente, para valorar el estado de
la evaluación educacional y crear un plan general para la realización de
evaluaciones solventes.
Durante los siguientes años desarrolló los principios de su enfoque de
evaluación, basándose en su experiencia en Ohio:
• Identificar los tipos de decisiones que deben afrontar
• Genera a partir de estos las estrategias evaluativas
• Introduce el concepto de evaluación de proceso, distinta a la
evaluación de producto de Tyler
• Reconoce la importancia de la selección de las metas
7. • Ausencia de esfuerzo a la hora de evaluar los programas
• Preocupación sobre la evaluación porque el proceso es ambiguo,
inadecuado, superficial y tendencioso
• Escepticismo sobre las visiones de los expertos en evaluación
• Ausencia de directrices para satisfacer los requerimientos
evaluativos
• Malos sistemas para realizar las evaluaciones en su propio marco
• Síndrome de la diferencia no significativa
• Ausencia de una teoría pertinente
Conclusiones del comité:
• No identificar la evaluación con sus métodos: valoración, juicio
profesional, diseño experimental, objetivos y resultados.
• Aunque todos tienen ventajas, individualmente tienen serias
limitaciones.
• Especificaron cinco problemas que debían ser resueltos con el
perfeccionamiento de la teoría evaluativa del CIPP
El informe fue publicado en 1971, y afirmaba que “la
evaluación era víctima de una grave enfermedad”:
8. Fue fundador del Centro de Evaluación de la
Universidad Estatal de Ohio en 1965 y fue director del
mismo hasta el 2002.
• Profesor de Educación del Centro de Evaluación de la
Universidad de Michigan occidental y Director,
Kalamazoo, 1973.
• Condecorado con el Premio para el destinatario Paul
Lazersfeld Modelo de evaluación de sociedad de
investigación de evaluación, 1985.
• Miembro American Educational Research Association,
Consejo Nacional sobre evaluación en la educación,
Asociación de evaluación.
• Autor del Modelo de evaluación CIPP (Contexto,
Imput, Proceso, Producto) y se caracteriza por estar
orientado a la toma de decisiones.
Stufflebeam es colaborador de
renombre en el campo de la
evaluación.
9. • Nacimiento del evaluador como profesión
• Evaluación de metas, prestación del servicio, planes de
perfeccionamiento, utilidad del programa
• Ética del evaluador.
• Vinculación entre la evaluación y el currículo.
• Fondos públicos ayudan con investigación
• Evaluación anual del rendimiento
• Mejora el sistema educativo
• Responsabilidad del docente en el logro de objetivos
• Intervención desde la infancia temprana
• Juicio de
expertos o
profesionales
• Toma de
decisiones
• Proceso
• Michael Scriven
• Eisner
• Stuflebeam
Entre otros
Fuente:
-ESTUDIO DE LA EVALUACIÓN CURRICULAR PARA EL MEJORAMIENTO DE LA FORMACIÓN PROFESIONAL EN POSGRADO. Arenas de Ruiz, Bettys
-Evaluación de programas, modelos y procedimientos. Martínez Mediano, Catalina 2007,
http://www.xtimeline.com/evt/view.aspx?id=1218541
Época de Expansión – Realismo, 1958-1972
• Características • Enfoque representantes
• Principios de la década de 1950 Punto de vista
de Tyler en evaluación fueadoptado
rápidamente.
• (1956) Se publicó la Taxonomía de la
Educación Objetivos.
• NO había una mejora y ampliación de oferta
educativa, personal e instalaciones.
Bloom, Engelhart, Furst, Hill y
Krathwohl.
Época de la Inocencia desde 1946 hasta 1957
10. • Evaluación distinta a la investigación
• Estudios sobre evaluación y su teoría
• Estándares para la evaluación
• Sistematización de la meta-evaluación
• Debate entre los enfoques
positivistas/cuantitativo y
fenomenológico/cualitativo
• Especialización de la evaluación y los
evaluadores
• Toma de decisiones
• Proceso
• Explicación y
comprensión de los
hechos
• Scriven
• Stufflebeam
• Guba
• Lincoln
Entre otros
Fuente:
-ESTUDIO DE LA EVALUACIÓN CURRICULAR PARA EL MEJORAMIENTO DE LA FORMACIÓN PROFESIONAL EN POSGRADO. Arenas de Ruiz, Bettys
-Evaluación de programas, modelos y procedimientos. Martínez Mediano, Catalina 2007,
13. El modelo Stufflebeam es conocido como CIPP (Contexto,
Input, Proceso y producto y se caracteriza por estar orientado
a la toma de decisiones.
Contexto: Esta dimensión se nutre de los
datos.
Imput: Identifica y valora los recursos
disponibles ANTES del programa.
Proceso: Incluye la interrelación dinámica
entre las estructuras del programa y los diversos
actores, generando un SISTEMA vincular.
Producto: Los productos (indicadores) se
pueden caracterizados por: eficacia, eficiencia,
cobertura, pertinencia, adecuación y coherencia
14. “Debe actuar de acuerdo a principios
aceptados por la sociedad y a criterios de
profesionalidad, emitir juicios sobre la
calidad y el valor educativo del objeto
evaluado y debe asistir a los implicados en la
interpretación y utilización de su información
y sus juicios. Sin embargo, es también su
deber, y su derecho, estar al margen de la
lucha y la responsabilidad política por la
toma de decisiones y por las decisiones
tomadas”
15. Para mejorar y no como un proceso sancionador,
calificativo. Así en muchas ocasiones es el
percibido por los alumnos/as sobre este proceso.
En la evaluación el proceso está centrado en el
alumno más que en el profesor.
A nivel amplio se hace para ayudar a un grupo de
clientes a juzgar y/o perfeccionar el valor y/o el
merito de algún objeto:
“En efecto, su meta esencial es determinar el valor de
algo que está siendo enjuiciado. De acuerdo con esta
definición, si un estudio no informa de cuán buena o
mala es una cosa, no se trata de una evaluación”.
17. 1. Dirección participativa y evaluación de
centros (1996), junto a otros
investigadores.
2. Evaluación sistémica. Guía teórica y
práctica (1993), junto a Shinkfield.
3. Guía profesional para la mejora de los
sistemas de evaluación del profesorado
(1998), junto a McKenna, Nevo y Thoma.
4. Evaluación de la actuación profesional en la
supervisión educativa. Práctica y
orientación (1998), junto a Candolfi y
Cullen.
18. 5. Estándares de evaluación de personal. Cómo
evaluar sistemas de evaluación de educadores
(2002), fue coordinador de la publicación.
6. Evaluation Theory, Models and Applications,
junto a Shinkfield.
7. International Handbook of educational
evaluation, junto a Kellaghan.
8. Evaluación sistemática – guía teórica y
practica.
9. Son 10 unidades en donde se expone el
panorama de la evaluación. Y 8 modelos
escogidos de trabajo evaluativo. Este libro se
dirige al perfeccionamiento y calidad de los
programas ofrecidos por las instituciones.
20. Se requería una visión de evaluación mas amplia, que
más allá de evaluar el alcance de objetivos y metas,
permitiera administrar y perfeccionar los programas:
Brindando información útil para la toma de decisiones.
Decisiones de realización
Decisiones de reciclaje
Decisiones de planificación
Decisiones de estructura
“La evaluación es el proceso de identificar, obtener y
proporcionar información útil y descriptiva acerca del
valor y el merito de las metas, la planificación, la
realización y el impacto de un objeto determinado, con
el fin de servir de guía para la toma de decisiones,
solucionar los problemas de responsabilidad y promover
la comprensión de los fenómenos implicados
21. Es una estructura
integral que cubre:
Contexto,
Insumos,
Procesos y
Productos
con canales de
perfeccionamiento
iterativo.
Además, fue
desarrollada bajo
esta misma
premisa
sistema (que incluyen
distintas actividades
evaluativas)
Justificación
de un cambio
Evaluaciones
periodicas del
contexto
Si
No
Definición de
problemas y
formulación delos
objetivos
¿Existe una
solución
satisfactoria?
Si
Aplicación de la
solución
No
Evaluación de
entrada
¿Se ha encontrado
una estrategia
prometedora?
¿Necesidad de
desarrollo o
comprobacion?
SiNo
No
Si
Realización de un
proyecto especial
Evaluación de
proceso o de
producto
¿rendimiento
satisfactorio?
¿Merece el proyecto
otro intento?
¿Aun necesita o
desea una solucion?
FRACASO
Si
Si
Si
No
No
22. Orientación
• Identificar virtudes o defectos del “objeto”
• Proporcionar una guía para su
perfeccionamiento
Objetivos
• Valorar el estado global
• Identificar deficiencias
• Identificar virtudes que permitan subsanar
esas deficiencias
• Diagnosticar los problemas cuya solución
pueda mejorar el estado del objeto
• Caracterizar el marco en que se
desenvuelve el programa
• Validar sí las metas y prioridades están en
consonancia con las necesidades a
satisfacer
• Proporcionar una base solida para el ajuste
de planes y programas
• Establecer metas y prioridades y designar
los cambios requeridos.
Valoraciones Análisis
Entrevistas a clientes
del estudio
Acceder a puntos de vista sobre las virtudes, defectos y
problemas
Audiencias y
Reuniones de
comunidad +
entrevistas
Muestra cuidadosa de
clientes
Generar hipótesis adicionales acerca de los cambios necesarios
Construcción de instrumentos de trabajo
Proporcionar datos de entrada y realizar la contrastar la
respuesta de ambos grupos: comunidad y muestra de clientes
Informes existentes Identificar los modelos de trabajo y la información previa
Test diagnostico
especial y Experto
Observe y juzgue el valor y el merito del programa
Comité asesor Brinde claridad sobre los aspectos evaluativos y apoye la
interpretación de resultados
Técnica que tienda al
consenso (Delphi)
Asegurar acuerdos sobre: necesidades prioritarias
Taller con clientes Estudio y aplicación de los resultados
Utilidad
• Autoridades educativas comuniquen lo referente al estado de desarrollo de un programa. (virtudes, defectos, necesidades, oportunidades y
necesidades prioritarias)
• Convencer sobre la conveniencia de invertir recursos en el programa a desarrollar sobre las necesidades identificadas.
• Formular objetivos y metas para el desarrollo del personal o la revisión curricular
• Realizar acciones focalizadas sobre centros educativos, programas , estudiantes, padres entre otros que requieran atención en áreas
especificas de desarrollo, valorar lo que se ha conseguido durante el proceso de perfeccionamiento.
• Decidir sobre la finalización de un plan, programa o proyecto.
• Optimizar el uso de recursos o para fortalecer una institución haciéndola mas pequeña, Juzgar los resultados frente a las necesidades
atendidas. Defender la eficacia de los programas, metas y prioridades entre otros.
23. Orientación
• Ayuda a prescribir un programa
mediante el cual se efectúan los
cambios necesarios, identificando y
examinando críticamente los
métodos potencialmente aplicables
Objetivos
• Prever el éxito, fracaso y eficacia de
un cambio.
• Identifica y valora los meritos y
posibilidades de realización de un
proyecto de cambio por parte del
equipo planificador.
• Identificar y valorar los métodos
aplicables, además de fundamentar
las razones de su selección desde el
un examen detallado.
• Identificar las limitaciones y recursos
potencialmente utilizables para el
programa.
• Considerar las estrategias alternativas
en el contexto de las necesidades y
condiciones ambientales; además de
desarrollar un plan que sirva para
este propósito.
Etapas Análisis
Revisión de literatura,
consulta a expertos,
servicios de
información, propuestas
del personal implicado
Revisión del estado de la practica con relación a la satisfacción de las
necesidades
Grupo especial de
estudio
Organizar la información de la anterior fase que se somete a una
investigación para valorar si existen estrategias de soluciones
potencialmente aceptables, los métodos propuestos y su efectividad
y aconsejar a los involucrados en la búsqueda de una solución.
Búsqueda de renovación
por clientes y evaluador
Definir los criterios que debe cumplir la innovación, Estructurar una
solicitud de propuestas
Obtener diversas propuestas y valorarlas según su efectividad y
viabilidad potencial.
Análisis por Evaluadores
Audición
Analizar y evaluar propuestas y sugerir como pueden combinarse las
mejores características de cada una
Personal y administradores expresan sus intereses y estiman
recursos y barreras, que han de abordarse en la búsqueda de una
solución
Técnica del grupo asesor
Valoraciones por parte
de plantel de expertos o
test piloto
Dos o mas grupos de expertos fijan los objetivos que justifican la
necesidad de un programa, proporcionan especificaciones para la
planificación de las propuestas y orientan hacia los criterios de
juicio de las diversas respuestas.
Utilidad
• Preparar una propuesta para someterla a su valoración por parte del gobierno, quien la financie o quien promueva su operacionalización.
• Valorar un programa ya existente y establecer si se opone a lo que se realiza en otras partes o lo que propone la literatura.
• Evaluar la relación costo/ beneficio, proporcionar una estructura y un tribunal que decida en situaciones antagónicas sobre la ejecución de
algún tipo de acción. En si a escoger un tipo de acción entre otras posibilidades
24. Orientación
• Comprobación continua de un plan
• Proporcionar una guía para su
perfeccionamiento
Objetivos
• Proporcionar continua información sobre el
ritmo de desarrollo de las actividades si se
ajustan a lo planeado, y el uso eficiente de los
recursos.
• Proporcionar una guía para modificar el plan
ya que no siempre es posible definir todos los
aspectos de un plan.
• Valorar hasta que punto los participantes
aceptan y son capaces de desarrollar sus
funciones.
• Proporcionar un extenso informe del
programa que se esta desarrollando
comparándolo con lo planificado, establecer
sus costes, saber como se juzga la calidad del
trabajo por parte de observadores y
participantes
Valoraciones Análisis
Evaluador del
proceso (eje
central)
Reuniones de
personal y grupo
asesor
Evaluador el
proceso y grupo
asesor
Sesiones
informativas
Proceso interactivo
Realizar observaciones sobre la marcha, y encontrar
información y documentación continua.
Revisar el plan del programa y cualquier evaluación
anterior en la que pueda apoyarse para identificar
aspectos relevantes del programa con fines de control
Identificar problemas y cuestiones que deben
plantearse
Desarrollar un esquema general de la recopilación de
datos.
Trazar un panorama sobre el funcionamiento del
programa
Preparar un informe donde se analice lo que se esta
aprendiendo y evidencie los problemas clave.
Analizar junto con los involucrados sus planes de
recopilación de datos.
En si ayudar al personal a llevar a cabo su programa a
través de un proceso de cualificación
Describir las posibles desviaciones del plan original
Proponer ajustes al plan que se desarrolla.
Documentar las variaciones y el efecto que presentan
Utilidad
• Obtener información continua sobre el programa para poder desarrollarlo conforme a lo planeado o decidir si se modifica por
considerarse inadecuado.
• Convertirse en medio para mantener al personal alerta y al corriente de sus responsabilidades
• Establecer si las inversiones se han realizado como se habían propuesto
• Proponer su aplicabilidad en otros contextos o instituciones
• Constituirse en fuente de información vital para interpretar los resultados de la evaluación del producto
25. Orientación
• Valorar, interpretar y juzgar
los logros de un programa
incluyendo los efectos a largo
plazo
Objetivos
• Valorar el nivel de alcance de
un programa en cuanto a la
satisfacción de necesidades
que pretendía atender
• Establecer los efectos y
resultados de un programa
• Recoger y analizar juicios
acerca procedentes de una
amplia gama de personas
relacionadas con un
programa en relación con su
éxito.
• Comparar los resultados de
un programa con los de otro
alternativo
• Examinar los resultados
desde muchos puntos de
vista.
Valoraciones Análisis
Combinación de
técnicas
Obtener una visión amplia de los efectos y proporcionar comprobaciones de los
diversos resultados
Test de rendimiento Valorar el trabajo con relación a unas normas previamente escogidas
Valoraciones del
trabajo
Valorar los productos del trabajo y compararlos con los esquemas de las
necesidades previamente fijadas por los destinatarios del programa
Audiciones o
entrevistas
Búsqueda intensiva de resultados inesperados para generar hipótesis acerca de
la gama completa de resultados
Investigaciones
clínicas
Destinadas confirmar o desmentir las hipótesis elaboradas en el proceso
anterior
Encuesta telefónica
o por correo
Obtener opiniones y puntos de vista acerca de los resultados del proyecto o
programa, presentando ejemplos concretos.
Grupos de cotejo Examinar el trabajo del programa obteniendo los pros y contras de las
contribuciones. Identificar y examinar los resultados con relación a un amplio
inventario de resultados observados en programas similares
Juicio con jurado Presentar y examinar todas las evidencias disponibles que reflejan el éxito o
fracaso de un programa.
Informe sobre
resultados
Los informes intermedios: durante cada ciclo para plantear hasta que punto
están siendo satisfechas las necesidades fijadas
Informe final de ciclo: presentados al finalizar cada ciclo del programa; resume
los resultados alcanzados e interpretarlos a la luz de: necesidades, costes,
cumplimiento de tareas, los efectos logrados
Utilidad
• Evaluar si un programa merece ser prolongado en el tiempo, repetirse o ampliarse a otros ámbitos.
• Implicaciones psicológicas: reforzar el trabajo del personal o de los beneficiarios, puede reducir el entusiasmo si los resultados son
deficientes,
• Informe de presupuesto y contabilidad para evitar inversiones infructuosas o decidir sobre la conveniencia de abordar una acción similar
26. Evaluación de
contexto
Evaluación de
entrada
Evaluación de
proceso
Evaluación de
producto
Toma de
decisiones
(orientación
formativa)
Guía para la elección de
objetivos y asignación de
prioridades
Guía para la elección de la
estrategia del programa
Entrada de datos para la
designación del plan de
procedimientos
Guía para la aplicación Guía para la finalización
, continuación,
modificación o entrega
Responsabilizac
ión
(orientación
sanativa)
Relación de objetivos y
bases para su elección
junto con una relación de
necesidades,
oportunidades y
problemas
Relación de la
planificación y la
estrategia escogidas y las
razones de esa elección
entre otras alternativas
Relación del proceso
real
Relación de los logros y
de las decisiones
recicladas
27. Evaluación de contexto Evaluación de entrada Evaluación de proceso Evaluación de
producto
Objetivo Definir el contexto institucional,
Identificar y valorar la población
y objeto de estudio y valorar sus
necesidades, identificar las
oportunidades de satisfacer las
necesidades, diagnosticar los
problemas que subyacen en las
necesidades y juzgar si los
objetos propuestos son lo
suficientemente coherentes con
las necesidades valoradas.
Identificar y valorar la
capacidad del sistema, las
estrategias de programa
alternativas, la
planificación de
procedimientos para llevar
a cabo las estrategias, los
presupuestos y los
programas.
Identificar o pronosticar,
durante el proceso, los
defectos de la
planificación de
procedimiento o de su
realización, proporcionar
información para las
decisiones
preprogramadas y
describir y juzgar las
actividades y aspectos del
procedimiento.
Recopilar descripciones
y juicios acerca de los
resultados y
relacionados con los
objetivos y la
información
proporcionada por el
contexto, por la
entrada de datos y por
el proceso, e
interpretar su valor y su
mérito.
Método Utilización de métodos como el análisis
de sistemas, la inspección, la revisión
de documentos, las audiciones, las
entrevistas, los test diagnósticos y la
técnica Delphi.
Inventariar y analizar los recursos
humanos y materiales disponibles,
las estrategias de procedimiento
referentes a su aplicabilidad,
viabilidad y economía. Y utilizar
métodos como búsqueda de
bibliografía, las visitas a
programas ejemplares, los grupos
asesores y ensayos piloto.
Controlar las limitaciones
potenciales del procedimiento y
permanecer alerta ante las que
no se esperaban, mediante la
obtención de información
específica de las decisiones
programadas, la descripción del
proceso real, la continua
interacción con el personal del
proyecto y observación de sus
actividades.
Definir operacionalmente y
valorar los criterios de los
resultados, mediante la
recopilación de los juicios de
los clientes y la realización de
análisis cualitativos y
cuantitativos.
Relación
con la
toma de
decisiones
en el
proceso
de cambio
Definir el marco que debe ser
abarcado, las metas relacionadas con la
satisfacción de las necesidades o la
utilización de las oportunidades y los
objetivos relacionados con la solución
de problemas.por ejemplo, la
planificación de los cambios necesarios.
Y proporcionar una base para juzgár los
resultados.
Seleccionar los recursos de apoyo,
las estrategias de solución y las
planificaciones de
procedimientos, esto es,
estructurar las actividades de
cambio. Y proporcionar una base
para juzgár los resultados.
llevar a cabo y perfeccionar la
planificación y los
procedimientos del programa,
esto es, efectuar un control del
proceso. Y proporcionar un
esbozo del proceso real para
utilizarlo más tarde en la
interpretación de resultados.
decidir la continuación,
finalización, modificación o
readaptación de la actividad
del cambio. Y presentar un
informe claro de los efectos
(deseados y no deseados,
positivos y negativos).
28. Stufflebeam, D.L. y Shinkfield, A.J. (1987). Evaluación
sistemática: Guía teórica y práctica. Madrid: Paidós-M.E.C.
http://evaluacionmaestrias.wikifoundry.com/page/Tabla+
Comparativa+de+Modelos+de+Evaluaci%C3%B3n
http://educacionplanetaria.blogspot.com/2010/10/el-
modelo-de-evaluacion-educativa-cipp.html
http://evaluacionparaelperfeccionamiento.blogspot.com/
http://www.uam.es/personal_pdi/stmaria/jmurillo/Investi
gacionEE/Presentaciones/Curso_10/Inv_evaluativa_trabaaj
o.pdf
Ronald Brandt. On evaluation: An interview with Daniel L.
Stufflebeam. January 1978.