Daniel L. Stufflebeam
Seminario de Fundamentos de Evaluación
Bogotá D.C. 2013
Mere Rocha Cuan, Flor Patricia Pedrada, Rubén D. Hernández,
Oscar Benavidez, Gilberto Narváez, José Díaz Henao,
Yenny Méndez, Sandra C. Jerez, Julio R. Castro
Ma. Denis Cortes
Milton Rojas
Alexis Monsalve
Mere Rocha Cuan
Flor Patricia Pedrada
Rubén D. Hernández
 El modelo Stufflebeam es conocido como CIPP
(Contexto, Input, Proceso y producto y se caracteriza por
estar orientado a la toma de decisiones.
 Contexto: Esta dimensión se nutre de los
datos.
 Imput: Identifica y valora los recursos
disponibles ANTES del programa.
 Proceso: Incluye la interrelación dinámica
entre las estructuras del programa y los diversos
actores, generando un SISTEMA vincular.
 Producto: Los productos (indicadores) se
pueden caracterizados por:
eficacia, eficiencia, cobertura, pertinencia, adec
uación y coherencia
 “Debe actuar de acuerdo a principios
aceptados por la sociedad y a criterios de
profesionalidad, emitir juicios sobre la
calidad y el valor educativo del objeto
evaluado y debe asistir a los implicados en la
interpretación y utilización de su información
y sus juicios. Sin embargo, es también su
deber, y su derecho, estar al margen de la
lucha y la responsabilidad política por la
toma de decisiones y por las decisiones
tomadas”
 Para mejorar y no como un proceso
sancionador, calificativo. Así en muchas
ocasiones es el percibido por los alumnos/as
sobre este proceso. En la evaluación el proceso
está centrado en el alumno más que en el
profesor.
 A nivel amplio se hace para ayudar a un grupo de
clientes a juzgar y/o perfeccionar el valor y/o el
merito de algún objeto:
“En efecto, su meta esencial es determinar el valor de
algo que está siendo enjuiciado. De acuerdo con esta
definición, si un estudio no informa de cuán buena o
mala es una cosa, no se trata de una evaluación”.
Oscar Benavidez
Gilberto Narvaez
José Díaz Henao
1. Dirección participativa y evaluación de
centros (1996), junto a otros
investigadores.
2. Evaluación sistémica. Guía teórica y
práctica (1993), junto a Shinkfield.
3. Guía profesional para la mejora de los
sistemas de evaluación del profesorado
(1998), junto a McKenna, Nevo y Thoma.
4. Evaluación de la actuación profesional en la
supervisión educativa. Práctica y
orientación (1998), junto a Candolfi y
Cullen.
5. Estándares de evaluación de personal. Cómo
evaluar sistemas de evaluación de educadores
(2002), fue coordinador de la publicación.
6. Evaluation Theory, Models and Applications,
junto a Shinkfield.
7. International Handbook of educational
evaluation, junto a Kellaghan.
8. Evaluación sistemática – guía teórica y
practica.
9. Son 10 unidades en donde se expone el
panorama de la evaluación. Y 8 modelos
escogidos de trabajo evaluativo. Este libro se
dirige al perfeccionamiento y calidad de los
programas ofrecidos por las instituciones.
Sandra Cristina Jerez
Yenny Angélica Méndez
Julio Roberto Castro
 Se requería una visión de evaluación mas amplia, que
más allá de evaluar el alcance de objetivos y
metas, permitiera administrar y perfeccionar los
programas: Brindando información útil para la toma de
decisiones.
 Decisiones de realización
 Decisiones de reciclaje
 Decisiones de planificación
 Decisiones de estructura
 “La evaluación es el proceso de identificar, obtener y
proporcionar información útil y descriptiva acerca del
valor y el merito de las metas, la planificación, la
realización y el impacto de un objeto determinado, con
el fin de servir de guía para la toma de
decisiones, solucionar los problemas de responsabilidad
y promover la comprensión de los fenómenos
Es una estructura
integral que cubre:
 Contexto,
 Insumos,
 Procesos y
 Productos
con canales de
perfeccionamiento
iterativo.
Además, fue
desarrollada bajo
esta misma
premisa
Operaciones regulares del
sistema (que incluyen
distintas actividades
evaluativas)
Justificación
de un cambio
Evaluaciones
periodicas del
contexto
Si
No
Definición de
problemas y
formulación delos
objetivos
¿Existe una
solución
satisfactoria?
Si
Aplicación de la
solución
No
Evaluación de
entrada
¿Se ha encontrado
una estrategia
prometedora?
¿Necesidad de
desarrollo o
comprobacion?
SiNo
No
Si
Realización de un
proyecto especial
Evaluación de
proceso o de
producto
¿rendimiento
satisfactorio?
¿Merece el proyecto
otro intento?
¿Aun necesita o
desea una solucion?
FRACASO
Si
Si
Si
No
No
Orientación
• Identificar virtudes o defectos del “objeto”
• Proporcionar una guía para su
perfeccionamiento
Objetivos
• Valorar el estado global
• Identificar deficiencias
• Identificar virtudes que permitan subsanar
esas deficiencias
• Diagnosticar los problemas cuya solución
pueda mejorar el estado del objeto
• Caracterizar el marco en que se
desenvuelve el programa
• Validar sí las metas y prioridades están en
consonancia con las necesidades a
satisfacer
• Proporcionar una base solida para el ajuste
de planes y programas
• Establecer metas y prioridades y designar
los cambios requeridos.
Valoraciones Análisis
Entrevistas a clientes
del estudio
Acceder a puntos de vista sobre las virtudes, defectos y
problemas
Audiencias y
Reuniones de
comunidad +
entrevistas
Muestra cuidadosa de
clientes
Generar hipótesis adicionales acerca de los cambios necesarios
Construcción de instrumentos de trabajo
Proporcionar datos de entrada y realizar la contrastar la
respuesta de ambos grupos: comunidad y muestra de clientes
Informes existentes Identificar los modelos de trabajo y la información previa
Test diagnostico
especial y Experto
Observe y juzgue el valor y el merito del programa
Comité asesor Brinde claridad sobre los aspectos evaluativos y apoye la
interpretación de resultados
Técnica que tienda al
consenso (Delphi)
Asegurar acuerdos sobre: necesidades prioritarias
Taller con clientes Estudio y aplicación de los resultados
Utilidad
• Autoridades educativas comuniquen lo referente al estado de desarrollo de un programa. (virtudes, defectos, necesidades, oportunidades y
necesidades prioritarias)
• Convencer sobre la conveniencia de invertir recursos en el programa a desarrollar sobre las necesidades identificadas.
• Formular objetivos y metas para el desarrollo del personal o la revisión curricular
• Realizar acciones focalizadas sobre centros educativos, programas , estudiantes, padres entre otros que requieran atención en áreas
especificas de desarrollo, valorar lo que se ha conseguido durante el proceso de perfeccionamiento.
• Decidir sobre la finalización de un plan, programa o proyecto.
• Optimizar el uso de recursos o para fortalecer una institución haciéndola mas pequeña, Juzgar los resultados frente a las necesidades
atendidas. Defender la eficacia de los programas, metas y prioridades entre otros.
Orientación
• Ayuda a prescribir un programa
mediante el cual se efectúan los
cambios necesarios, identificando y
examinando críticamente los
métodos potencialmente aplicables
Objetivos
• Prever el éxito, fracaso y eficacia de
un cambio.
• Identifica y valora los meritos y
posibilidades de realización de un
proyecto de cambio por parte del
equipo planificador.
• Identificar y valorar los métodos
aplicables, además de fundamentar
las razones de su selección desde el
un examen detallado.
• Identificar las limitaciones y recursos
potencialmente utilizables para el
programa.
• Considerar las estrategias alternativas
en el contexto de las necesidades y
condiciones ambientales; además de
desarrollar un plan que sirva para
este propósito.
Etapas Análisis
Revisión de literatura,
consulta a expertos,
servicios de
información, propuestas
del personal implicado
Revisión del estado de la practica con relación a la satisfacción de las
necesidades
Grupo especial de
estudio
Organizar la información de la anterior fase que se somete a una
investigación para valorar si existen estrategias de soluciones
potencialmente aceptables, los métodos propuestos y su efectividad
y aconsejar a los involucrados en la búsqueda de una solución.
Búsqueda de renovación
por clientes y evaluador
Definir los criterios que debe cumplir la innovación, Estructurar una
solicitud de propuestas
Obtener diversas propuestas y valorarlas según su efectividad y
viabilidad potencial.
Análisis por Evaluadores
Audición
Analizar y evaluar propuestas y sugerir como pueden combinarse las
mejores características de cada una
Personal y administradores expresan sus intereses y estiman
recursos y barreras, que han de abordarse en la búsqueda de una
solución
Técnica del grupo asesor
Valoraciones por parte
de plantel de expertos o
test piloto
Dos o mas grupos de expertos fijan los objetivos que justifican la
necesidad de un programa, proporcionan especificaciones para la
planificación de las propuestas y orientan hacia los criterios de
juicio de las diversas respuestas.
Utilidad
• Preparar una propuesta para someterla a su valoración por parte del gobierno, quien la financie o quien promueva su operacionalización.
• Valorar un programa ya existente y establecer si se opone a lo que se realiza en otras partes o lo que propone la literatura.
• Evaluar la relación costo/ beneficio, proporcionar una estructura y un tribunal que decida en situaciones antagónicas sobre la ejecución de
algún tipo de acción. En si a escoger un tipo de acción entre otras posibilidades
Orientación
• Comprobación continua de un plan
• Proporcionar una guía para su
perfeccionamiento
Objetivos
• Proporcionar continua información sobre el
ritmo de desarrollo de las actividades si se
ajustan a lo planeado, y el uso eficiente de los
recursos.
• Proporcionar una guía para modificar el plan
ya que no siempre es posible definir todos los
aspectos de un plan.
• Valorar hasta que punto los participantes
aceptan y son capaces de desarrollar sus
funciones.
• Proporcionar un extenso informe del
programa que se esta desarrollando
comparándolo con lo planificado, establecer
sus costes, saber como se juzga la calidad del
trabajo por parte de observadores y
participantes
Valoraciones Análisis
Evaluador del
proceso (eje
central)
Reuniones de
personal y grupo
asesor
Evaluador el
proceso y grupo
asesor
Sesiones
informativas
Proceso interactivo
Realizar observaciones sobre la marcha, y encontrar
información y documentación continua.
Revisar el plan del programa y cualquier evaluación
anterior en la que pueda apoyarse para identificar
aspectos relevantes del programa con fines de control
Identificar problemas y cuestiones que deben
plantearse
Desarrollar un esquema general de la recopilación de
datos.
Trazar un panorama sobre el funcionamiento del
programa
Preparar un informe donde se analice lo que se esta
aprendiendo y evidencie los problemas clave.
Analizar junto con los involucrados sus planes de
recopilación de datos.
En si ayudar al personal a llevar a cabo su programa a
través de un proceso de cualificación
Describir las posibles desviaciones del plan original
Proponer ajustes al plan que se desarrolla.
Documentar las variaciones y el efecto que presentan
Utilidad
• Obtener información continua sobre el programa para poder desarrollarlo conforme a lo planeado o decidir si se modifica por
considerarse inadecuado.
• Convertirse en medio para mantener al personal alerta y al corriente de sus responsabilidades
• Establecer si las inversiones se han realizado como se habían propuesto
• Proponer su aplicabilidad en otros contextos o instituciones
• Constituirse en fuente de información vital para interpretar los resultados de la evaluación del producto
Orientación
• Valorar, interpretar y juzgar
los logros de un programa
incluyendo los efectos a largo
plazo
Objetivos
• Valorar el nivel de alcance de
un programa en cuanto a la
satisfacción de necesidades
que pretendía atender
• Establecer los efectos y
resultados de un programa
• Recoger y analizar juicios
acerca procedentes de una
amplia gama de personas
relacionadas con un
programa en relación con su
éxito.
• Comparar los resultados de
un programa con los de otro
alternativo
• Examinar los resultados
desde muchos puntos de
vista.
Valoraciones Análisis
Combinación de
técnicas
Obtener una visión amplia de los efectos y proporcionar comprobaciones de los
diversos resultados
Test de rendimiento Valorar el trabajo con relación a unas normas previamente escogidas
Valoraciones del
trabajo
Valorar los productos del trabajo y compararlos con los esquemas de las
necesidades previamente fijadas por los destinatarios del programa
Audiciones o
entrevistas
Búsqueda intensiva de resultados inesperados para generar hipótesis acerca de
la gama completa de resultados
Investigaciones
clínicas
Destinadas confirmar o desmentir las hipótesis elaboradas en el proceso
anterior
Encuesta telefónica
o por correo
Obtener opiniones y puntos de vista acerca de los resultados del proyecto o
programa, presentando ejemplos concretos.
Grupos de cotejo Examinar el trabajo del programa obteniendo los pros y contras de las
contribuciones. Identificar y examinar los resultados con relación a un amplio
inventario de resultados observados en programas similares
Juicio con jurado Presentar y examinar todas las evidencias disponibles que reflejan el éxito o
fracaso de un programa.
Informe sobre
resultados
Los informes intermedios: durante cada ciclo para plantear hasta que punto
están siendo satisfechas las necesidades fijadas
Informe final de ciclo: presentados al finalizar cada ciclo del programa; resume
los resultados alcanzados e interpretarlos a la luz de: necesidades, costes,
cumplimiento de tareas, los efectos logrados
Utilidad
• Evaluar si un programa merece ser prolongado en el tiempo, repetirse o ampliarse a otros ámbitos.
• Implicaciones psicológicas: reforzar el trabajo del personal o de los beneficiarios, puede reducir el entusiasmo si los resultados son
deficientes,
• Informe de presupuesto y contabilidad para evitar inversiones infructuosas o decidir sobre la conveniencia de abordar una acción similar
Evaluación de
contexto
Evaluación de
entrada
Evaluación de
proceso
Evaluación de
producto
Toma de
decisiones
(orientación
formativa)
Guía para la elección de
objetivos y asignación de
prioridades
Guía para la elección de la
estrategia del programa
Entrada de datos para la
designación del plan de
procedimientos
Guía para la aplicación Guía para la finalización
, continuación,
modificación o entrega
Responsabilizac
ión
(orientación
sanativa)
Relación de objetivos y
bases para su elección
junto con una relación de
necesidades,
oportunidades y
problemas
Relación de la
planificación y la
estrategia escogidas y las
razones de esa elección
entre otras alternativas
Relación del proceso
real
Relación de los logros y
de las decisiones
recicladas
Evaluación de contexto Evaluación de entrada Evaluación de proceso Evaluación de
producto
Objetivo Definir el contexto institucional,
Identificar y valorar la población
y objeto de estudio y valorar sus
necesidades, identificar las
oportunidades de satisfacer las
necesidades, diagnosticar los
problemas que subyacen en las
necesidades y juzgar si los
objetos propuestos son lo
suficientemente coherentes con
las necesidades valoradas.
Identificar y valorar la
capacidad del sistema, las
estrategias de programa
alternativas, la
planificación de
procedimientos para llevar
a cabo las estrategias, los
presupuestos y los
programas.
Identificar o pronosticar,
durante el proceso, los
defectos de la
planificación de
procedimiento o de su
realización, proporcionar
información para las
decisiones
preprogramadas y
describir y juzgar las
actividades y aspectos del
procedimiento.
Recopilar descripciones
y juicios acerca de los
resultados y
relacionados con los
objetivos y la
información
proporcionada por el
contexto, por la
entrada de datos y por
el proceso, e
interpretar su valor y su
mérito.
Método Utilización de métodos como el análisis
de sistemas, la inspección, la revisión
de documentos, las audiciones, las
entrevistas, los test diagnósticos y la
técnica Delphi.
Inventariar y analizar los recursos
humanos y materiales disponibles,
las estrategias de procedimiento
referentes a su aplicabilidad,
viabilidad y economía. Y utilizar
métodos como búsqueda de
bibliografía, las visitas a
programas ejemplares, los grupos
asesores y ensayos piloto.
Controlar las limitaciones
potenciales del procedimiento y
permanecer alerta ante las que
no se esperaban, mediante la
obtención de información
específica de las decisiones
programadas, la descripción del
proceso real, la continua
interacción con el personal del
proyecto y observación de sus
actividades.
Definir operacionalmente y
valorar los criterios de los
resultados, mediante la
recopilación de los juicios de
los clientes y la realización de
análisis cualitativos y
cuantitativos.
Relación
con la
toma de
decisiones
en el
proceso
de cambio
Definir el marco que debe ser
abarcado, las metas relacionadas con la
satisfacción de las necesidades o la
utilización de las oportunidades y los
objetivos relacionados con la solución
de problemas.por ejemplo, la
planificación de los cambios necesarios.
Y proporcionar una base para juzgár los
resultados.
Seleccionar los recursos de apoyo,
las estrategias de solución y las
planificaciones de
procedimientos, esto es,
estructurar las actividades de
cambio. Y proporcionar una base
para juzgár los resultados.
llevar a cabo y perfeccionar la
planificación y los
procedimientos del programa,
esto es, efectuar un control del
proceso. Y proporcionar un
esbozo del proceso real para
utilizarlo más tarde en la
interpretación de resultados.
decidir la continuación,
finalización, modificación o
readaptación de la actividad
del cambio. Y presentar un
informe claro de los efectos
(deseados y no deseados,
positivos y negativos).
 Stufflebeam, D.L. y Shinkfield, A.J. (1987). Evaluación
sistemática: Guía teórica y práctica. Madrid: Paidós-M.E.C.
 http://evaluacionmaestrias.wikifoundry.com/page/Tabla+
Comparativa+de+Modelos+de+Evaluaci%C3%B3n
 http://educacionplanetaria.blogspot.com/2010/10/el-
modelo-de-evaluacion-educativa-cipp.html
 http://evaluacionparaelperfeccionamiento.blogspot.com/
 http://www.uam.es/personal_pdi/stmaria/jmurillo/Investi
gacionEE/Presentaciones/Curso_10/Inv_evaluativa_trabaaj
o.pdf

Modelos de evaluación

  • 1.
    Daniel L. Stufflebeam Seminariode Fundamentos de Evaluación Bogotá D.C. 2013 Mere Rocha Cuan, Flor Patricia Pedrada, Rubén D. Hernández, Oscar Benavidez, Gilberto Narváez, José Díaz Henao, Yenny Méndez, Sandra C. Jerez, Julio R. Castro
  • 2.
    Ma. Denis Cortes MiltonRojas Alexis Monsalve
  • 4.
    Mere Rocha Cuan FlorPatricia Pedrada Rubén D. Hernández
  • 5.
     El modeloStufflebeam es conocido como CIPP (Contexto, Input, Proceso y producto y se caracteriza por estar orientado a la toma de decisiones.  Contexto: Esta dimensión se nutre de los datos.  Imput: Identifica y valora los recursos disponibles ANTES del programa.  Proceso: Incluye la interrelación dinámica entre las estructuras del programa y los diversos actores, generando un SISTEMA vincular.  Producto: Los productos (indicadores) se pueden caracterizados por: eficacia, eficiencia, cobertura, pertinencia, adec uación y coherencia
  • 6.
     “Debe actuarde acuerdo a principios aceptados por la sociedad y a criterios de profesionalidad, emitir juicios sobre la calidad y el valor educativo del objeto evaluado y debe asistir a los implicados en la interpretación y utilización de su información y sus juicios. Sin embargo, es también su deber, y su derecho, estar al margen de la lucha y la responsabilidad política por la toma de decisiones y por las decisiones tomadas”
  • 7.
     Para mejorary no como un proceso sancionador, calificativo. Así en muchas ocasiones es el percibido por los alumnos/as sobre este proceso. En la evaluación el proceso está centrado en el alumno más que en el profesor.  A nivel amplio se hace para ayudar a un grupo de clientes a juzgar y/o perfeccionar el valor y/o el merito de algún objeto: “En efecto, su meta esencial es determinar el valor de algo que está siendo enjuiciado. De acuerdo con esta definición, si un estudio no informa de cuán buena o mala es una cosa, no se trata de una evaluación”.
  • 8.
  • 9.
    1. Dirección participativay evaluación de centros (1996), junto a otros investigadores. 2. Evaluación sistémica. Guía teórica y práctica (1993), junto a Shinkfield. 3. Guía profesional para la mejora de los sistemas de evaluación del profesorado (1998), junto a McKenna, Nevo y Thoma. 4. Evaluación de la actuación profesional en la supervisión educativa. Práctica y orientación (1998), junto a Candolfi y Cullen.
  • 10.
    5. Estándares deevaluación de personal. Cómo evaluar sistemas de evaluación de educadores (2002), fue coordinador de la publicación. 6. Evaluation Theory, Models and Applications, junto a Shinkfield. 7. International Handbook of educational evaluation, junto a Kellaghan. 8. Evaluación sistemática – guía teórica y practica. 9. Son 10 unidades en donde se expone el panorama de la evaluación. Y 8 modelos escogidos de trabajo evaluativo. Este libro se dirige al perfeccionamiento y calidad de los programas ofrecidos por las instituciones.
  • 11.
    Sandra Cristina Jerez YennyAngélica Méndez Julio Roberto Castro
  • 12.
     Se requeríauna visión de evaluación mas amplia, que más allá de evaluar el alcance de objetivos y metas, permitiera administrar y perfeccionar los programas: Brindando información útil para la toma de decisiones.  Decisiones de realización  Decisiones de reciclaje  Decisiones de planificación  Decisiones de estructura  “La evaluación es el proceso de identificar, obtener y proporcionar información útil y descriptiva acerca del valor y el merito de las metas, la planificación, la realización y el impacto de un objeto determinado, con el fin de servir de guía para la toma de decisiones, solucionar los problemas de responsabilidad y promover la comprensión de los fenómenos
  • 13.
    Es una estructura integralque cubre:  Contexto,  Insumos,  Procesos y  Productos con canales de perfeccionamiento iterativo. Además, fue desarrollada bajo esta misma premisa Operaciones regulares del sistema (que incluyen distintas actividades evaluativas) Justificación de un cambio Evaluaciones periodicas del contexto Si No Definición de problemas y formulación delos objetivos ¿Existe una solución satisfactoria? Si Aplicación de la solución No Evaluación de entrada ¿Se ha encontrado una estrategia prometedora? ¿Necesidad de desarrollo o comprobacion? SiNo No Si Realización de un proyecto especial Evaluación de proceso o de producto ¿rendimiento satisfactorio? ¿Merece el proyecto otro intento? ¿Aun necesita o desea una solucion? FRACASO Si Si Si No No
  • 14.
    Orientación • Identificar virtudeso defectos del “objeto” • Proporcionar una guía para su perfeccionamiento Objetivos • Valorar el estado global • Identificar deficiencias • Identificar virtudes que permitan subsanar esas deficiencias • Diagnosticar los problemas cuya solución pueda mejorar el estado del objeto • Caracterizar el marco en que se desenvuelve el programa • Validar sí las metas y prioridades están en consonancia con las necesidades a satisfacer • Proporcionar una base solida para el ajuste de planes y programas • Establecer metas y prioridades y designar los cambios requeridos. Valoraciones Análisis Entrevistas a clientes del estudio Acceder a puntos de vista sobre las virtudes, defectos y problemas Audiencias y Reuniones de comunidad + entrevistas Muestra cuidadosa de clientes Generar hipótesis adicionales acerca de los cambios necesarios Construcción de instrumentos de trabajo Proporcionar datos de entrada y realizar la contrastar la respuesta de ambos grupos: comunidad y muestra de clientes Informes existentes Identificar los modelos de trabajo y la información previa Test diagnostico especial y Experto Observe y juzgue el valor y el merito del programa Comité asesor Brinde claridad sobre los aspectos evaluativos y apoye la interpretación de resultados Técnica que tienda al consenso (Delphi) Asegurar acuerdos sobre: necesidades prioritarias Taller con clientes Estudio y aplicación de los resultados Utilidad • Autoridades educativas comuniquen lo referente al estado de desarrollo de un programa. (virtudes, defectos, necesidades, oportunidades y necesidades prioritarias) • Convencer sobre la conveniencia de invertir recursos en el programa a desarrollar sobre las necesidades identificadas. • Formular objetivos y metas para el desarrollo del personal o la revisión curricular • Realizar acciones focalizadas sobre centros educativos, programas , estudiantes, padres entre otros que requieran atención en áreas especificas de desarrollo, valorar lo que se ha conseguido durante el proceso de perfeccionamiento. • Decidir sobre la finalización de un plan, programa o proyecto. • Optimizar el uso de recursos o para fortalecer una institución haciéndola mas pequeña, Juzgar los resultados frente a las necesidades atendidas. Defender la eficacia de los programas, metas y prioridades entre otros.
  • 15.
    Orientación • Ayuda aprescribir un programa mediante el cual se efectúan los cambios necesarios, identificando y examinando críticamente los métodos potencialmente aplicables Objetivos • Prever el éxito, fracaso y eficacia de un cambio. • Identifica y valora los meritos y posibilidades de realización de un proyecto de cambio por parte del equipo planificador. • Identificar y valorar los métodos aplicables, además de fundamentar las razones de su selección desde el un examen detallado. • Identificar las limitaciones y recursos potencialmente utilizables para el programa. • Considerar las estrategias alternativas en el contexto de las necesidades y condiciones ambientales; además de desarrollar un plan que sirva para este propósito. Etapas Análisis Revisión de literatura, consulta a expertos, servicios de información, propuestas del personal implicado Revisión del estado de la practica con relación a la satisfacción de las necesidades Grupo especial de estudio Organizar la información de la anterior fase que se somete a una investigación para valorar si existen estrategias de soluciones potencialmente aceptables, los métodos propuestos y su efectividad y aconsejar a los involucrados en la búsqueda de una solución. Búsqueda de renovación por clientes y evaluador Definir los criterios que debe cumplir la innovación, Estructurar una solicitud de propuestas Obtener diversas propuestas y valorarlas según su efectividad y viabilidad potencial. Análisis por Evaluadores Audición Analizar y evaluar propuestas y sugerir como pueden combinarse las mejores características de cada una Personal y administradores expresan sus intereses y estiman recursos y barreras, que han de abordarse en la búsqueda de una solución Técnica del grupo asesor Valoraciones por parte de plantel de expertos o test piloto Dos o mas grupos de expertos fijan los objetivos que justifican la necesidad de un programa, proporcionan especificaciones para la planificación de las propuestas y orientan hacia los criterios de juicio de las diversas respuestas. Utilidad • Preparar una propuesta para someterla a su valoración por parte del gobierno, quien la financie o quien promueva su operacionalización. • Valorar un programa ya existente y establecer si se opone a lo que se realiza en otras partes o lo que propone la literatura. • Evaluar la relación costo/ beneficio, proporcionar una estructura y un tribunal que decida en situaciones antagónicas sobre la ejecución de algún tipo de acción. En si a escoger un tipo de acción entre otras posibilidades
  • 16.
    Orientación • Comprobación continuade un plan • Proporcionar una guía para su perfeccionamiento Objetivos • Proporcionar continua información sobre el ritmo de desarrollo de las actividades si se ajustan a lo planeado, y el uso eficiente de los recursos. • Proporcionar una guía para modificar el plan ya que no siempre es posible definir todos los aspectos de un plan. • Valorar hasta que punto los participantes aceptan y son capaces de desarrollar sus funciones. • Proporcionar un extenso informe del programa que se esta desarrollando comparándolo con lo planificado, establecer sus costes, saber como se juzga la calidad del trabajo por parte de observadores y participantes Valoraciones Análisis Evaluador del proceso (eje central) Reuniones de personal y grupo asesor Evaluador el proceso y grupo asesor Sesiones informativas Proceso interactivo Realizar observaciones sobre la marcha, y encontrar información y documentación continua. Revisar el plan del programa y cualquier evaluación anterior en la que pueda apoyarse para identificar aspectos relevantes del programa con fines de control Identificar problemas y cuestiones que deben plantearse Desarrollar un esquema general de la recopilación de datos. Trazar un panorama sobre el funcionamiento del programa Preparar un informe donde se analice lo que se esta aprendiendo y evidencie los problemas clave. Analizar junto con los involucrados sus planes de recopilación de datos. En si ayudar al personal a llevar a cabo su programa a través de un proceso de cualificación Describir las posibles desviaciones del plan original Proponer ajustes al plan que se desarrolla. Documentar las variaciones y el efecto que presentan Utilidad • Obtener información continua sobre el programa para poder desarrollarlo conforme a lo planeado o decidir si se modifica por considerarse inadecuado. • Convertirse en medio para mantener al personal alerta y al corriente de sus responsabilidades • Establecer si las inversiones se han realizado como se habían propuesto • Proponer su aplicabilidad en otros contextos o instituciones • Constituirse en fuente de información vital para interpretar los resultados de la evaluación del producto
  • 17.
    Orientación • Valorar, interpretary juzgar los logros de un programa incluyendo los efectos a largo plazo Objetivos • Valorar el nivel de alcance de un programa en cuanto a la satisfacción de necesidades que pretendía atender • Establecer los efectos y resultados de un programa • Recoger y analizar juicios acerca procedentes de una amplia gama de personas relacionadas con un programa en relación con su éxito. • Comparar los resultados de un programa con los de otro alternativo • Examinar los resultados desde muchos puntos de vista. Valoraciones Análisis Combinación de técnicas Obtener una visión amplia de los efectos y proporcionar comprobaciones de los diversos resultados Test de rendimiento Valorar el trabajo con relación a unas normas previamente escogidas Valoraciones del trabajo Valorar los productos del trabajo y compararlos con los esquemas de las necesidades previamente fijadas por los destinatarios del programa Audiciones o entrevistas Búsqueda intensiva de resultados inesperados para generar hipótesis acerca de la gama completa de resultados Investigaciones clínicas Destinadas confirmar o desmentir las hipótesis elaboradas en el proceso anterior Encuesta telefónica o por correo Obtener opiniones y puntos de vista acerca de los resultados del proyecto o programa, presentando ejemplos concretos. Grupos de cotejo Examinar el trabajo del programa obteniendo los pros y contras de las contribuciones. Identificar y examinar los resultados con relación a un amplio inventario de resultados observados en programas similares Juicio con jurado Presentar y examinar todas las evidencias disponibles que reflejan el éxito o fracaso de un programa. Informe sobre resultados Los informes intermedios: durante cada ciclo para plantear hasta que punto están siendo satisfechas las necesidades fijadas Informe final de ciclo: presentados al finalizar cada ciclo del programa; resume los resultados alcanzados e interpretarlos a la luz de: necesidades, costes, cumplimiento de tareas, los efectos logrados Utilidad • Evaluar si un programa merece ser prolongado en el tiempo, repetirse o ampliarse a otros ámbitos. • Implicaciones psicológicas: reforzar el trabajo del personal o de los beneficiarios, puede reducir el entusiasmo si los resultados son deficientes, • Informe de presupuesto y contabilidad para evitar inversiones infructuosas o decidir sobre la conveniencia de abordar una acción similar
  • 18.
    Evaluación de contexto Evaluación de entrada Evaluaciónde proceso Evaluación de producto Toma de decisiones (orientación formativa) Guía para la elección de objetivos y asignación de prioridades Guía para la elección de la estrategia del programa Entrada de datos para la designación del plan de procedimientos Guía para la aplicación Guía para la finalización , continuación, modificación o entrega Responsabilizac ión (orientación sanativa) Relación de objetivos y bases para su elección junto con una relación de necesidades, oportunidades y problemas Relación de la planificación y la estrategia escogidas y las razones de esa elección entre otras alternativas Relación del proceso real Relación de los logros y de las decisiones recicladas
  • 19.
    Evaluación de contextoEvaluación de entrada Evaluación de proceso Evaluación de producto Objetivo Definir el contexto institucional, Identificar y valorar la población y objeto de estudio y valorar sus necesidades, identificar las oportunidades de satisfacer las necesidades, diagnosticar los problemas que subyacen en las necesidades y juzgar si los objetos propuestos son lo suficientemente coherentes con las necesidades valoradas. Identificar y valorar la capacidad del sistema, las estrategias de programa alternativas, la planificación de procedimientos para llevar a cabo las estrategias, los presupuestos y los programas. Identificar o pronosticar, durante el proceso, los defectos de la planificación de procedimiento o de su realización, proporcionar información para las decisiones preprogramadas y describir y juzgar las actividades y aspectos del procedimiento. Recopilar descripciones y juicios acerca de los resultados y relacionados con los objetivos y la información proporcionada por el contexto, por la entrada de datos y por el proceso, e interpretar su valor y su mérito. Método Utilización de métodos como el análisis de sistemas, la inspección, la revisión de documentos, las audiciones, las entrevistas, los test diagnósticos y la técnica Delphi. Inventariar y analizar los recursos humanos y materiales disponibles, las estrategias de procedimiento referentes a su aplicabilidad, viabilidad y economía. Y utilizar métodos como búsqueda de bibliografía, las visitas a programas ejemplares, los grupos asesores y ensayos piloto. Controlar las limitaciones potenciales del procedimiento y permanecer alerta ante las que no se esperaban, mediante la obtención de información específica de las decisiones programadas, la descripción del proceso real, la continua interacción con el personal del proyecto y observación de sus actividades. Definir operacionalmente y valorar los criterios de los resultados, mediante la recopilación de los juicios de los clientes y la realización de análisis cualitativos y cuantitativos. Relación con la toma de decisiones en el proceso de cambio Definir el marco que debe ser abarcado, las metas relacionadas con la satisfacción de las necesidades o la utilización de las oportunidades y los objetivos relacionados con la solución de problemas.por ejemplo, la planificación de los cambios necesarios. Y proporcionar una base para juzgár los resultados. Seleccionar los recursos de apoyo, las estrategias de solución y las planificaciones de procedimientos, esto es, estructurar las actividades de cambio. Y proporcionar una base para juzgár los resultados. llevar a cabo y perfeccionar la planificación y los procedimientos del programa, esto es, efectuar un control del proceso. Y proporcionar un esbozo del proceso real para utilizarlo más tarde en la interpretación de resultados. decidir la continuación, finalización, modificación o readaptación de la actividad del cambio. Y presentar un informe claro de los efectos (deseados y no deseados, positivos y negativos).
  • 20.
     Stufflebeam, D.L.y Shinkfield, A.J. (1987). Evaluación sistemática: Guía teórica y práctica. Madrid: Paidós-M.E.C.  http://evaluacionmaestrias.wikifoundry.com/page/Tabla+ Comparativa+de+Modelos+de+Evaluaci%C3%B3n  http://educacionplanetaria.blogspot.com/2010/10/el- modelo-de-evaluacion-educativa-cipp.html  http://evaluacionparaelperfeccionamiento.blogspot.com/  http://www.uam.es/personal_pdi/stmaria/jmurillo/Investi gacionEE/Presentaciones/Curso_10/Inv_evaluativa_trabaaj o.pdf