CarolinaAvalosDávila
Resumen de los 6 artículos de la revista:
I. LA EVALUACION DE PROGRAMAS EDUCATIVOS: CONCEPTOS BASICOS,
PLANTEAMIENTOS GENERALES Y PROBLEMÁTICA
Desde la concepción de Pérez Juste (2000), la Educación se concibe desde diversas áreas como
arte, ciencia, tecnología, además se visualiza desde un campo heterogéneo y multidisciplinar
pues debe considerar diferentes puntos de vista como diversas áreas en su haber, dando paso
al principio de complementariedad metodológica y que todas esas intenciones vayan en una sola
línea de interés común, garantizar la formación integral del ser humano.
Desde la evaluación de programas para la mejora del actuar pedagógico, se tiene que al igual que
la educación es una actividad donde se genera conocimiento, la evaluación es una actividad
metodológica donde se da la acción reflexiva de cada docente y donde se lleva a cabo el proceso
técnico de evaluación, desarrollado por expertos a partir de una metodología rigurosa, que para
su desarrollo efectivo se requiere de aptitud y de actitud positiva con miras a la generación de una
cultura evaluativa permanente, y que de acuerdo con el autor sería una de las mayores
aportaciones a la mejora de la educación.
Desde la investigación, la evaluación de programas tiene su relevancia pues recibe aportes y
críticas de la sociedad lo cual hace que se analicen desde diferentes momentos los procesos de
evaluación para validar información, considerar la información que se ofrece como parte de las
soluciones y la que no es eficaz en aras de modificarla por otra que genere mayor efectividad de
las acciones, y para todo ello, es necesario acudir a los diferentes procesos que ofrece la
investigación desde la observación inicial, la socialización y comprobación de información hasta la
sistematización de los resultados.
Pérez Juste (2000) sugiere considerar algunas repercusiones metodológicas con tan de visualizar
el alcance y magnitud de la evaluación por desarrollar, entre las que menciona:
 Lo educativo como referencia constante. Estos deben ser no manipulativos, ya que hay
que tener en cuenta que el factor humano es fundamental.
 El tamaño o amplitud del programa.
 La complejidad del programa.
 El status del evaluador.
 Las unidades de análisis (educandos, aula, centro…)
 La relación entre el programa y la evaluación.
 La información a recoger (se debe exigir coherencia entre los objetivos, evaluación y
los datos, es decir, una triangulación en el análisis de datos).
Por otro lado, desde la propuesta sugerida por Pérez Juste, se detallan algunas líneas generales
sobre su modelo de evaluación:
Momento Finalidad Función Metodología Información a
recoger
Criterios Decisiones
Primer
momento:
Evaluación
del
programa
en sí
mismo.
Establecer la
calidad
técnica del
programa.
Su viabilidad
y
evaluabilidad
Formativa
En
ocasiones
puede ser
sumativa
Análisis de
contenidos,
juicio de
expertos y
registros.
Fundamentación
y formulación, y
su relación con
los destinatarios
Calidad,
pertinencia,
realismo y
adecuación.
Suficiencia,
calidad
técnica,
viabilidad y
evaluabilidad
Formativas
en general.
En casos
graves,
sumativas
CarolinaAvalosDávila
Segundo
momento:
Evaluación
del
desarrollo
del
programa.
Facilitar la
toma a
tiempo de
decisiones
de mejora.
Acumular
información
para
mejoras
Formativa Recogida de
información y
análisis de
información
Desarrollo,
resultados y
efectos
Cumplimiento,
coherencia
institucional,
eficacia
parcial y
satisfacción
de los
implicados
Ajustes
parciales
Tercer
momento:
Evaluación
de los
resultados
del
programa.
Comprobar
la eficacia
del
programa
Sumativa Resultados
en
relación con
los objetivos
Eficacia,
efectividad
Progreso
Logro de
dominio
Superioridad
Sumativas:
mantener o
suprimir
Formativas:
mejorar
Cuarto momento:
Institucionalización de la
evaluación.
Ciclos sucesivos de evaluación / mejora / evaluación / mejora.
En este momento se logra la plena integración del programa y de su
evaluación.
Durante el desarrollo de los momentos del modelo, es pertinente considerar además, algunos
criterios de la evaluación y su estructuración según las normas propuestas por Joint Committe y
citadas por Pérez Juste (2000) en el artículo:
 Factibilidad o viabilidad
 Utilidad
 Probidad o eticidad
 Precisión o exactitud
Estas permitirán delimitar la línea de revisión de cada uno de los aspectos que deben cumplirse
durante la revisión y proceso de evaluación.
Otros aspectos que deben estar presentes durante el desarrollo del proceso de evaluación:
 Existencia de expertos.
 Planteamientos éticos.
 Comparabilidad de los datos.
 El Juicio de expertos o presencia de juicios democráticos.
CarolinaAvalosDávila
II. LA EVALUACION DE PROGRAMAS SOCIALES. FUNDAMENTOS Y ENFOQUES
TEÓRICOS.
Desde el aporte del autor De Miguel Díaz (2000) La evaluación de programas sociales, surge de la
aplicación de la evaluación de programas, donde a partir de principios, estrategias y procesos que
fundamentan la evaluación en un determinado contexto, es posible considerar decisiones
pertinentes que contribuyan a mejorar las estrategias de intervención social, por lo que se deduce
lo siguiente:
Programa = mejora las condiciones sociales
/ Evaluación = mejorar el programa.
Fuente: Elaboración propia.
Desde la concepción del programa como intervención social, se percibe a éste desde varios
procesos:
 Programa como verificación de teorías: estrategias que permiten la verificación de
teorías que son útiles para resolver problemas sociales.
 Programa como tecnología sistemática: siendo importante distinguir entre los efectos
de los programas y de las teorías, de forma que todo el proceso trabajo de forma
ordenada, consecuente y en atención al desarrollo de las metas, grado de cumplimiento
y calidad de diseño.
 Programa como compromiso con el cambio social: La finalidad primordial es la
transformación social, por lo que el evaluador tiene la responsabilidad de cuestionar
valores,opiniones de la población y audiencia,determinar efectividad y razón de impacto
social de las acciones y hacer frente dificultades que sean añadidas y que son parte del
contexto.
Se destacan además algunos criterios que deben ser tomados en cuenta al momento de realizar
la valoración de un programa:
 Políticos: El evaluador debe tener claro que los planes y programas son patrocinados por
organismos y servicios públicos, y estos normalmente responden a determinados
supuestos ideológicos e intereses de la política, por lo que se deben aceptar, conocer e
interiorizar en los valores del patrocinador para la mejor comprensión.
 Democráticos: quienes mejor conocen la oportunidad y efectividad de toda estrategia de
intervención social, son aquellas personas que están implicadas. Cuando el evaluador,
como implicado, asume este marco de referencia, realiza una valoración descriptiva
basada en criterios democráticos. Para ello, es necesario que el proceso educativo este
CarolinaAvalosDávila
enfocado de una forma participativa e involucre elaporte activo de la audiencia vinculada
con el desarrollo de tales estrategias y comprobar aspectos como efectividad e impacto
hacia la comunidad donde se proyecte ese programa.
 Técnicos: es el proceso técnico que lleva a cabo el evaluador mediante la aplicación de
procedimientos e instrumentos científicos apropiados.
Finalmente, se destacan desde el artículo aspectos sobre la elaboración de informes finales y el
enfoque metodológico a desarrollar en los procesos de evaluación. Desde los informes se
desataca, el cómo debe ser la información que se socialice, con tal de generar confianza en la
audiencia y de las acciones que sean sugeridas desde el evaluador. Y desde el
enfoque metodológico, el autor señala diversos aspectos como la elección del modelo el cual está
sujeto al tipo de evaluación a desarrollar, la elección de su diseño y la correspondencia entre el
modelo y diseño.
Desde la generalidad, el artículo expone que la evaluación de programas es una tarea práctica
que no debe estar alejada de la teoría. Se detallan algunas connotaciones que enmarcan la
evaluación de toda estrategia de intervención social:
 Profundizar sobre las teorías relacionadas con el ámbito social.
 Establecer una teoría evaluativa explicita además de implícita.
 Clarificar los fundamentos epistemológicos de toda evaluación.
 Abordar la evaluación como una tarea eclética: que responda a distintas finalidades,
audiencias y usos diversos.
 Elegir los métodos en función de la finalidad.
 Fomentar la diversidad metodológica, tarea que se verá enriquecida con la pluralidad.
 Promover trabajos de síntesis antes que individuales: fuentes muy distintas y métodos
diferentes; una visión pluralista e integradora.
 Velar por la credibilidad de los informes: considerar la naturaleza de las relaciones entre
el evaluador y los implicados.
 Analizar los factores contextuales y políticos que condicionan el uso de la información.
 Realizar estudios de meta evaluación sobre los trabajos efectuados: someter a control a
todos nuestros trabajos para recabar opiniones independientes.
III. EL DISEÑO Y LOS DISEÑOS EN LA EVALUACION DE PROGRAMAS
Para Tejedor así como otros autores como Pérez, la evaluación de programas es un recurso que
sirve para la mejora y que puede ser visto como un proceso de investigación evaluativa asímismo,
la investigación evaluativa, implica un proceso riguroso, controlado y sistemático de recogida y
análisis de información fiable y válida para tomar decisiones sobre un programa educativo.
Desde Alvira, 1991, citada por Tejedor (2000) algunas circunstancias son las que han ayudado a
conformar ese campo de actuación, como por ejemplo:
 Mayor interrelación entre las actividadesde evaluación y programación (caminan de forma
paralela)
 Investigación evaluativa se entiende como un proceso cuya finalidad es aplicar
procedimientos científicos para acumular evidencias válidas y fiables.
 Supone una mayor implicación de las partes implicadas.
 Integra estrategias de investigación muy diversas (cuantitativas y cualitativas).
Desde eldiseño de la evaluación de programas,deben considerarse varioselementos metodología,
objetivos, fundamentos teóricos, pero además están aquellos que son propios del contexto como
las necesidades e intereses y los puntos de vista de la audiencia y de las acciones desarrolladas.
CarolinaAvalosDávila
Así desde la metodología para el análisis de los datos producto de la investigación y aplicación de
diferentes técnicas e instrumentos se tiene:
Diseño experimental: presenta las características del método científico y pretende establecer
relaciones causales entre una o más variables independientesy una o más variables dependientes.
Expertos de campo: tienen una mayor validez externa ya que es la vida misma la que puede ser
estudiada, y son apropiados para la demostración de teorías, comprobación de hipótesis y la
resolución de problemas prácticos.
Cuasi-experimentales: diseño que tienen características como el empleo de escenarios naturales,
carece de un control experimental y disponibilidad. Se dividen en dos modalidades: diseños
simples de series temporales y diseños de grupo de control no equivalente.
Método psicométrico: finalidad descriptiva, y para ello se debe especificar la población de interés,
fijar y delimitar la forma de obtención de datos y variables, los instrumentos y recogida de datos,
y tipos de análisis, hay dos tipos: diseño descriptivo y diseños correlacionales.
La observación: constituye uno de los aspectos más importantes del método científico, y requiere
ser controlada, por lo que debe ser objetiva y comprobable. La finalidad es obtener información,
delimitando el fenómeno a analizar en el marco de una teoría.
El entorno interpretativo-critico: de acuerdo con (Colas y Rebollo (1993), citado por Tejedor
(2000)), el análisis se realiza de forma colectiva, con una secuencia cíclica, donde los receptores
son agentes de evaluación, por lo que los procesos evaluativos los realizan y sirven a los
implicados.
Investigación acción: estudio de una situación social con el fin de mejorar la calidad de acción
dentro de la misma se desarrolla de forma grupaly desde comunidadescon elpropósitode cambiar
(hay una razón de cambio social) que aporta cambios significativos desde una práctica social y
reflexiva.
IV. LA VALIDEZ EN LA EVALUACION DE PROGRAMAS
Desde Jornet, Suárez y Pérez (2000) se tiene que la validez es dependiente del proceso a que se
aplique y a las características desde las que se aborda, requiere del mismo grado de control, rigor
y sintonización que se le exige a la investigación.
Desde la evaluación de programas,la validez se ve presente cuando se atiende de forma adecuada
los componentes metodológicos implicados en la evaluación, siempre con vistas a mejoras, y
representaciones realistas que facilitaran el proceso, teniendo en cuenta el contexto.
Facetas:
Subyacentes metodológicas: aquellos componentes implicados en cualquier proceso de
investigación y son especificados en cuanto a relevancia, atendiendo a características concretas.
 Genéricas: Interna y Externa.
 Específicas: Validez de Constructo y Validez de Conclusión.
CarolinaAvalosDávila
Adaptativas de la Validez: donde la evaluación de programas, debe atender a todos los
componentes necesarios para conseguir sus fines.
Desde las estrategias de consecución para la validez en la evaluación de programas se tiene:
Planificación:
 Planificación de la Evaluación: Construcción del plan de trabajo, adaptación y desarrollo
del mismo.
 Participantes, roles y responsabilidades.
 Definición del Objeto a Evaluar y Finalidad de la Evaluación.
 Construcción del plan de trabajo.
 Recogida de información.
 Análisis de datos, síntesis de la información y su preparación para la Toma de decisiones.
Gestión de la información:
 Durante el proceso de evaluación.
 En la finalización del proceso de evaluación. Difusión de la información.
 Posterior al proceso: valoración global del mismo y seguimiento de las consecue ncias de
la evaluación.
Desde la generalidad del artículo los autores hacen referencia a que la Evaluación de Programas
es algo más que una aplicación de métodos a través de los que se enumeran resultados. Donde
se requiere de una profunda reflexión en cuanto a las soluciones metodológicas y sus
componentes, en un ámbito en el que la complementariedad no puede asumirse como una mera
adición de aportaciones que provienen desde diversas opciones epistemológicas.
La atención prioritaria que debe prestarse a las características del objeto evaluado, debe
acompañarse de una reflexión respecto al rol que desarrollan quienes participamos en esos
procesos.
Los valores, la ideología, forma de estructurar cognitivamente la información, producto de la
formación metodológica y forma de ser de cada evaluador, inciden en los planteamientos que se
realizan así como las acciones sugerentes que se dan desde los informes.
V. EL ANALISIS DE DATOS EN LA EVALUACION DE PROGRAMAS EDUCATIVOS
Desde elartículo de Lizasoaín y Joaristi(2000), se hace una diferencia entre la investigación básica
y la investigación aplicada, siendo la diferencia sobre los agentes que intervienen en ella un
investigador/un examinado vs investigador y agentes participativos, se mencionan además
algunas etapas del proceso y tipos de evaluación desde los cuales se indica que según la fase del
proceso en que se centre la actividad evaluadora es posible encontrar distintos tipos de
evaluación: de necesidades, diseño. Mientras que el análisis de datos encuentra su lugar en la
fase de la evaluación de resultados.
De acuerdo con (Botella y Barriopedro (1995), citado en Lizasoaín y Joaristi (2000) se apuntan 4
funciones principales del análisis de datos en valoración del impacto:
 Descripción comprensiva de datos brutos.
 Valorar si las relaciones detectadas son o no significativas.
 Estimación de magnitudes y diferencias.
CarolinaAvalosDávila
 Estimar la sustantividad de los efectos.
Por otro lado, se dan a conocer algunas técnicas para el análisis de datos, entre las que se
mencionan:
 Análisis discriminante, regresión logística. Regresión y discriminación no paramétricas
(técnicas de segmentación).
 Análisis factorial y las tablas múltiples.
 Diseños de medidas repetidas y series temporales.
 Modelos de ecuaciones estructurales.
 Modelos jerárquicos lineales.
 Meta-análisis.
Desde la difusión de los resultados que también se desarrolla en el artículo, se rescata la forma
en cómo se sugiere sean presentados los resultados a la audiencia destacando la eficacia en el
proceso, dentro de un lenguaje entendible por todos, donde la información sea clara, realista y
apegada a los resultados de la evaluación con acciones de mejora acordes a la realidad contextual
de dicho programa y una de las mejores formas para desarrollar los resultados y hallazgos
evidenciados es haciendo uso de las técnicas de análisis de estadísticos las cuales darán realce,
veracidad además de un ordenamiento técnico a la información obtenida en los informes.
VI. LA FUNCIÓN OPTIMIZANTE DE LA EVALUACION DE PROGRAMAS EVALUATIVOS
Desde el aporte que hace De la Orden (2000) respecto a la función de la evaluación de programas
evaluativos se tiene que evaluación constituye un juicio de valor sobre una realidad y, como todo
juicio, se apoya en una comparación (conocimiento + descripción del patrón) y a partir de lo
anterior es que concibe a la evaluación como un proceso que está orientado hacia la mejora,
donde sus resultados son susceptibles y de un uso determinado.
Desde su optimización, la evaluación del aprendizaje puede influir positiva o negativamente en la
calidad de la educación, por lo tanto, es necesario determinar qué características debe poseer un
modelo evaluativo para maximizar sus efectos positivos así como la coherencia, desde su
desarrollo.
Para lograr la validez de los procesos educativos y que éstos estén acordes con la metodología y
actividades para una evaluación óptima, De la Orden (2000) sugiere la presencia de:
 Objetivos del programa, claramente identificados y formulados.
 Criterios de evaluación que vayan en consonancia de los contenidos y conductas
específicas en los objetivos.
 Técnicas evaluativas a emplearse deben estar estrechamente relacionadas con las
características del aprendizaje.
 Una evaluación fiable y objetiva.
Finalmente, desde la concepción de la evaluación como instrumento se presentan algunas
funciones de la evaluación:
 Diagnóstica: como base de la intervención educativa y de pronostico y prevención
(evaluación sumativa; evaluación de procesos)
 De control y rendimiento: que comprende a la evaluación formativa y evaluación final.
Desde la generalidad delartículo,se afirma que en la medida en que los criterios sean congruentes
con los objetivos previstos y el diseño de evaluación sea el adecuado, esto constituye el elemento
CarolinaAvalosDávila
fundamental para canalizar los procesos y productos educativos hacia objetivos deseables social
e individualmente y, por tanto, se promueve la funcionalidad, eficacia y eficiencia de la educación
y, en consecuencia, su calidad. De la Orden (2000, p.133).
Referencias:
De la Orden, A. (2000) La función optimizante de la evaluación de programas evaluativos.
Investigación Educativa. Vol.18, No 2 pp: 125-133.
De Miguel, M. (2000) La evaluación de programas sociales. Fundamentos y enfoques teóricos.
Investigación Educativa. Vol.18, No 2 pp: 36-64.
Jornet, J; Suárez, J y Pérez, A (2000) La validez en la evaluación de programas. Investigación
Educativa. Vol.18, No 2 pp: 86- 101.
Lizasoaín, L y Joaristi, L (2000) El análisis de datos en la evaluación de programas educativos.
Investigación Educativa. Vol.18, No 2 pp: 102- 124.
Pérez, R. (2000) La evaluación de programas educativos: conceptos básicos, planteamientos
generales y problemática. Investigación Educativa. Vol.18, No 2 pp: 9-35.
Tejedor, F (2000) El diseño y los diseños en la evaluación de programas. Investigación Educativa.
Vol.18, No 2 pp: 65-85.

Resumen tema 2 carolina

  • 1.
    CarolinaAvalosDávila Resumen de los6 artículos de la revista: I. LA EVALUACION DE PROGRAMAS EDUCATIVOS: CONCEPTOS BASICOS, PLANTEAMIENTOS GENERALES Y PROBLEMÁTICA Desde la concepción de Pérez Juste (2000), la Educación se concibe desde diversas áreas como arte, ciencia, tecnología, además se visualiza desde un campo heterogéneo y multidisciplinar pues debe considerar diferentes puntos de vista como diversas áreas en su haber, dando paso al principio de complementariedad metodológica y que todas esas intenciones vayan en una sola línea de interés común, garantizar la formación integral del ser humano. Desde la evaluación de programas para la mejora del actuar pedagógico, se tiene que al igual que la educación es una actividad donde se genera conocimiento, la evaluación es una actividad metodológica donde se da la acción reflexiva de cada docente y donde se lleva a cabo el proceso técnico de evaluación, desarrollado por expertos a partir de una metodología rigurosa, que para su desarrollo efectivo se requiere de aptitud y de actitud positiva con miras a la generación de una cultura evaluativa permanente, y que de acuerdo con el autor sería una de las mayores aportaciones a la mejora de la educación. Desde la investigación, la evaluación de programas tiene su relevancia pues recibe aportes y críticas de la sociedad lo cual hace que se analicen desde diferentes momentos los procesos de evaluación para validar información, considerar la información que se ofrece como parte de las soluciones y la que no es eficaz en aras de modificarla por otra que genere mayor efectividad de las acciones, y para todo ello, es necesario acudir a los diferentes procesos que ofrece la investigación desde la observación inicial, la socialización y comprobación de información hasta la sistematización de los resultados. Pérez Juste (2000) sugiere considerar algunas repercusiones metodológicas con tan de visualizar el alcance y magnitud de la evaluación por desarrollar, entre las que menciona:  Lo educativo como referencia constante. Estos deben ser no manipulativos, ya que hay que tener en cuenta que el factor humano es fundamental.  El tamaño o amplitud del programa.  La complejidad del programa.  El status del evaluador.  Las unidades de análisis (educandos, aula, centro…)  La relación entre el programa y la evaluación.  La información a recoger (se debe exigir coherencia entre los objetivos, evaluación y los datos, es decir, una triangulación en el análisis de datos). Por otro lado, desde la propuesta sugerida por Pérez Juste, se detallan algunas líneas generales sobre su modelo de evaluación: Momento Finalidad Función Metodología Información a recoger Criterios Decisiones Primer momento: Evaluación del programa en sí mismo. Establecer la calidad técnica del programa. Su viabilidad y evaluabilidad Formativa En ocasiones puede ser sumativa Análisis de contenidos, juicio de expertos y registros. Fundamentación y formulación, y su relación con los destinatarios Calidad, pertinencia, realismo y adecuación. Suficiencia, calidad técnica, viabilidad y evaluabilidad Formativas en general. En casos graves, sumativas
  • 2.
    CarolinaAvalosDávila Segundo momento: Evaluación del desarrollo del programa. Facilitar la toma a tiempode decisiones de mejora. Acumular información para mejoras Formativa Recogida de información y análisis de información Desarrollo, resultados y efectos Cumplimiento, coherencia institucional, eficacia parcial y satisfacción de los implicados Ajustes parciales Tercer momento: Evaluación de los resultados del programa. Comprobar la eficacia del programa Sumativa Resultados en relación con los objetivos Eficacia, efectividad Progreso Logro de dominio Superioridad Sumativas: mantener o suprimir Formativas: mejorar Cuarto momento: Institucionalización de la evaluación. Ciclos sucesivos de evaluación / mejora / evaluación / mejora. En este momento se logra la plena integración del programa y de su evaluación. Durante el desarrollo de los momentos del modelo, es pertinente considerar además, algunos criterios de la evaluación y su estructuración según las normas propuestas por Joint Committe y citadas por Pérez Juste (2000) en el artículo:  Factibilidad o viabilidad  Utilidad  Probidad o eticidad  Precisión o exactitud Estas permitirán delimitar la línea de revisión de cada uno de los aspectos que deben cumplirse durante la revisión y proceso de evaluación. Otros aspectos que deben estar presentes durante el desarrollo del proceso de evaluación:  Existencia de expertos.  Planteamientos éticos.  Comparabilidad de los datos.  El Juicio de expertos o presencia de juicios democráticos.
  • 3.
    CarolinaAvalosDávila II. LA EVALUACIONDE PROGRAMAS SOCIALES. FUNDAMENTOS Y ENFOQUES TEÓRICOS. Desde el aporte del autor De Miguel Díaz (2000) La evaluación de programas sociales, surge de la aplicación de la evaluación de programas, donde a partir de principios, estrategias y procesos que fundamentan la evaluación en un determinado contexto, es posible considerar decisiones pertinentes que contribuyan a mejorar las estrategias de intervención social, por lo que se deduce lo siguiente: Programa = mejora las condiciones sociales / Evaluación = mejorar el programa. Fuente: Elaboración propia. Desde la concepción del programa como intervención social, se percibe a éste desde varios procesos:  Programa como verificación de teorías: estrategias que permiten la verificación de teorías que son útiles para resolver problemas sociales.  Programa como tecnología sistemática: siendo importante distinguir entre los efectos de los programas y de las teorías, de forma que todo el proceso trabajo de forma ordenada, consecuente y en atención al desarrollo de las metas, grado de cumplimiento y calidad de diseño.  Programa como compromiso con el cambio social: La finalidad primordial es la transformación social, por lo que el evaluador tiene la responsabilidad de cuestionar valores,opiniones de la población y audiencia,determinar efectividad y razón de impacto social de las acciones y hacer frente dificultades que sean añadidas y que son parte del contexto. Se destacan además algunos criterios que deben ser tomados en cuenta al momento de realizar la valoración de un programa:  Políticos: El evaluador debe tener claro que los planes y programas son patrocinados por organismos y servicios públicos, y estos normalmente responden a determinados supuestos ideológicos e intereses de la política, por lo que se deben aceptar, conocer e interiorizar en los valores del patrocinador para la mejor comprensión.  Democráticos: quienes mejor conocen la oportunidad y efectividad de toda estrategia de intervención social, son aquellas personas que están implicadas. Cuando el evaluador, como implicado, asume este marco de referencia, realiza una valoración descriptiva basada en criterios democráticos. Para ello, es necesario que el proceso educativo este
  • 4.
    CarolinaAvalosDávila enfocado de unaforma participativa e involucre elaporte activo de la audiencia vinculada con el desarrollo de tales estrategias y comprobar aspectos como efectividad e impacto hacia la comunidad donde se proyecte ese programa.  Técnicos: es el proceso técnico que lleva a cabo el evaluador mediante la aplicación de procedimientos e instrumentos científicos apropiados. Finalmente, se destacan desde el artículo aspectos sobre la elaboración de informes finales y el enfoque metodológico a desarrollar en los procesos de evaluación. Desde los informes se desataca, el cómo debe ser la información que se socialice, con tal de generar confianza en la audiencia y de las acciones que sean sugeridas desde el evaluador. Y desde el enfoque metodológico, el autor señala diversos aspectos como la elección del modelo el cual está sujeto al tipo de evaluación a desarrollar, la elección de su diseño y la correspondencia entre el modelo y diseño. Desde la generalidad, el artículo expone que la evaluación de programas es una tarea práctica que no debe estar alejada de la teoría. Se detallan algunas connotaciones que enmarcan la evaluación de toda estrategia de intervención social:  Profundizar sobre las teorías relacionadas con el ámbito social.  Establecer una teoría evaluativa explicita además de implícita.  Clarificar los fundamentos epistemológicos de toda evaluación.  Abordar la evaluación como una tarea eclética: que responda a distintas finalidades, audiencias y usos diversos.  Elegir los métodos en función de la finalidad.  Fomentar la diversidad metodológica, tarea que se verá enriquecida con la pluralidad.  Promover trabajos de síntesis antes que individuales: fuentes muy distintas y métodos diferentes; una visión pluralista e integradora.  Velar por la credibilidad de los informes: considerar la naturaleza de las relaciones entre el evaluador y los implicados.  Analizar los factores contextuales y políticos que condicionan el uso de la información.  Realizar estudios de meta evaluación sobre los trabajos efectuados: someter a control a todos nuestros trabajos para recabar opiniones independientes. III. EL DISEÑO Y LOS DISEÑOS EN LA EVALUACION DE PROGRAMAS Para Tejedor así como otros autores como Pérez, la evaluación de programas es un recurso que sirve para la mejora y que puede ser visto como un proceso de investigación evaluativa asímismo, la investigación evaluativa, implica un proceso riguroso, controlado y sistemático de recogida y análisis de información fiable y válida para tomar decisiones sobre un programa educativo. Desde Alvira, 1991, citada por Tejedor (2000) algunas circunstancias son las que han ayudado a conformar ese campo de actuación, como por ejemplo:  Mayor interrelación entre las actividadesde evaluación y programación (caminan de forma paralela)  Investigación evaluativa se entiende como un proceso cuya finalidad es aplicar procedimientos científicos para acumular evidencias válidas y fiables.  Supone una mayor implicación de las partes implicadas.  Integra estrategias de investigación muy diversas (cuantitativas y cualitativas). Desde eldiseño de la evaluación de programas,deben considerarse varioselementos metodología, objetivos, fundamentos teóricos, pero además están aquellos que son propios del contexto como las necesidades e intereses y los puntos de vista de la audiencia y de las acciones desarrolladas.
  • 5.
    CarolinaAvalosDávila Así desde lametodología para el análisis de los datos producto de la investigación y aplicación de diferentes técnicas e instrumentos se tiene: Diseño experimental: presenta las características del método científico y pretende establecer relaciones causales entre una o más variables independientesy una o más variables dependientes. Expertos de campo: tienen una mayor validez externa ya que es la vida misma la que puede ser estudiada, y son apropiados para la demostración de teorías, comprobación de hipótesis y la resolución de problemas prácticos. Cuasi-experimentales: diseño que tienen características como el empleo de escenarios naturales, carece de un control experimental y disponibilidad. Se dividen en dos modalidades: diseños simples de series temporales y diseños de grupo de control no equivalente. Método psicométrico: finalidad descriptiva, y para ello se debe especificar la población de interés, fijar y delimitar la forma de obtención de datos y variables, los instrumentos y recogida de datos, y tipos de análisis, hay dos tipos: diseño descriptivo y diseños correlacionales. La observación: constituye uno de los aspectos más importantes del método científico, y requiere ser controlada, por lo que debe ser objetiva y comprobable. La finalidad es obtener información, delimitando el fenómeno a analizar en el marco de una teoría. El entorno interpretativo-critico: de acuerdo con (Colas y Rebollo (1993), citado por Tejedor (2000)), el análisis se realiza de forma colectiva, con una secuencia cíclica, donde los receptores son agentes de evaluación, por lo que los procesos evaluativos los realizan y sirven a los implicados. Investigación acción: estudio de una situación social con el fin de mejorar la calidad de acción dentro de la misma se desarrolla de forma grupaly desde comunidadescon elpropósitode cambiar (hay una razón de cambio social) que aporta cambios significativos desde una práctica social y reflexiva. IV. LA VALIDEZ EN LA EVALUACION DE PROGRAMAS Desde Jornet, Suárez y Pérez (2000) se tiene que la validez es dependiente del proceso a que se aplique y a las características desde las que se aborda, requiere del mismo grado de control, rigor y sintonización que se le exige a la investigación. Desde la evaluación de programas,la validez se ve presente cuando se atiende de forma adecuada los componentes metodológicos implicados en la evaluación, siempre con vistas a mejoras, y representaciones realistas que facilitaran el proceso, teniendo en cuenta el contexto. Facetas: Subyacentes metodológicas: aquellos componentes implicados en cualquier proceso de investigación y son especificados en cuanto a relevancia, atendiendo a características concretas.  Genéricas: Interna y Externa.  Específicas: Validez de Constructo y Validez de Conclusión.
  • 6.
    CarolinaAvalosDávila Adaptativas de laValidez: donde la evaluación de programas, debe atender a todos los componentes necesarios para conseguir sus fines. Desde las estrategias de consecución para la validez en la evaluación de programas se tiene: Planificación:  Planificación de la Evaluación: Construcción del plan de trabajo, adaptación y desarrollo del mismo.  Participantes, roles y responsabilidades.  Definición del Objeto a Evaluar y Finalidad de la Evaluación.  Construcción del plan de trabajo.  Recogida de información.  Análisis de datos, síntesis de la información y su preparación para la Toma de decisiones. Gestión de la información:  Durante el proceso de evaluación.  En la finalización del proceso de evaluación. Difusión de la información.  Posterior al proceso: valoración global del mismo y seguimiento de las consecue ncias de la evaluación. Desde la generalidad del artículo los autores hacen referencia a que la Evaluación de Programas es algo más que una aplicación de métodos a través de los que se enumeran resultados. Donde se requiere de una profunda reflexión en cuanto a las soluciones metodológicas y sus componentes, en un ámbito en el que la complementariedad no puede asumirse como una mera adición de aportaciones que provienen desde diversas opciones epistemológicas. La atención prioritaria que debe prestarse a las características del objeto evaluado, debe acompañarse de una reflexión respecto al rol que desarrollan quienes participamos en esos procesos. Los valores, la ideología, forma de estructurar cognitivamente la información, producto de la formación metodológica y forma de ser de cada evaluador, inciden en los planteamientos que se realizan así como las acciones sugerentes que se dan desde los informes. V. EL ANALISIS DE DATOS EN LA EVALUACION DE PROGRAMAS EDUCATIVOS Desde elartículo de Lizasoaín y Joaristi(2000), se hace una diferencia entre la investigación básica y la investigación aplicada, siendo la diferencia sobre los agentes que intervienen en ella un investigador/un examinado vs investigador y agentes participativos, se mencionan además algunas etapas del proceso y tipos de evaluación desde los cuales se indica que según la fase del proceso en que se centre la actividad evaluadora es posible encontrar distintos tipos de evaluación: de necesidades, diseño. Mientras que el análisis de datos encuentra su lugar en la fase de la evaluación de resultados. De acuerdo con (Botella y Barriopedro (1995), citado en Lizasoaín y Joaristi (2000) se apuntan 4 funciones principales del análisis de datos en valoración del impacto:  Descripción comprensiva de datos brutos.  Valorar si las relaciones detectadas son o no significativas.  Estimación de magnitudes y diferencias.
  • 7.
    CarolinaAvalosDávila  Estimar lasustantividad de los efectos. Por otro lado, se dan a conocer algunas técnicas para el análisis de datos, entre las que se mencionan:  Análisis discriminante, regresión logística. Regresión y discriminación no paramétricas (técnicas de segmentación).  Análisis factorial y las tablas múltiples.  Diseños de medidas repetidas y series temporales.  Modelos de ecuaciones estructurales.  Modelos jerárquicos lineales.  Meta-análisis. Desde la difusión de los resultados que también se desarrolla en el artículo, se rescata la forma en cómo se sugiere sean presentados los resultados a la audiencia destacando la eficacia en el proceso, dentro de un lenguaje entendible por todos, donde la información sea clara, realista y apegada a los resultados de la evaluación con acciones de mejora acordes a la realidad contextual de dicho programa y una de las mejores formas para desarrollar los resultados y hallazgos evidenciados es haciendo uso de las técnicas de análisis de estadísticos las cuales darán realce, veracidad además de un ordenamiento técnico a la información obtenida en los informes. VI. LA FUNCIÓN OPTIMIZANTE DE LA EVALUACION DE PROGRAMAS EVALUATIVOS Desde el aporte que hace De la Orden (2000) respecto a la función de la evaluación de programas evaluativos se tiene que evaluación constituye un juicio de valor sobre una realidad y, como todo juicio, se apoya en una comparación (conocimiento + descripción del patrón) y a partir de lo anterior es que concibe a la evaluación como un proceso que está orientado hacia la mejora, donde sus resultados son susceptibles y de un uso determinado. Desde su optimización, la evaluación del aprendizaje puede influir positiva o negativamente en la calidad de la educación, por lo tanto, es necesario determinar qué características debe poseer un modelo evaluativo para maximizar sus efectos positivos así como la coherencia, desde su desarrollo. Para lograr la validez de los procesos educativos y que éstos estén acordes con la metodología y actividades para una evaluación óptima, De la Orden (2000) sugiere la presencia de:  Objetivos del programa, claramente identificados y formulados.  Criterios de evaluación que vayan en consonancia de los contenidos y conductas específicas en los objetivos.  Técnicas evaluativas a emplearse deben estar estrechamente relacionadas con las características del aprendizaje.  Una evaluación fiable y objetiva. Finalmente, desde la concepción de la evaluación como instrumento se presentan algunas funciones de la evaluación:  Diagnóstica: como base de la intervención educativa y de pronostico y prevención (evaluación sumativa; evaluación de procesos)  De control y rendimiento: que comprende a la evaluación formativa y evaluación final. Desde la generalidad delartículo,se afirma que en la medida en que los criterios sean congruentes con los objetivos previstos y el diseño de evaluación sea el adecuado, esto constituye el elemento
  • 8.
    CarolinaAvalosDávila fundamental para canalizarlos procesos y productos educativos hacia objetivos deseables social e individualmente y, por tanto, se promueve la funcionalidad, eficacia y eficiencia de la educación y, en consecuencia, su calidad. De la Orden (2000, p.133). Referencias: De la Orden, A. (2000) La función optimizante de la evaluación de programas evaluativos. Investigación Educativa. Vol.18, No 2 pp: 125-133. De Miguel, M. (2000) La evaluación de programas sociales. Fundamentos y enfoques teóricos. Investigación Educativa. Vol.18, No 2 pp: 36-64. Jornet, J; Suárez, J y Pérez, A (2000) La validez en la evaluación de programas. Investigación Educativa. Vol.18, No 2 pp: 86- 101. Lizasoaín, L y Joaristi, L (2000) El análisis de datos en la evaluación de programas educativos. Investigación Educativa. Vol.18, No 2 pp: 102- 124. Pérez, R. (2000) La evaluación de programas educativos: conceptos básicos, planteamientos generales y problemática. Investigación Educativa. Vol.18, No 2 pp: 9-35. Tejedor, F (2000) El diseño y los diseños en la evaluación de programas. Investigación Educativa. Vol.18, No 2 pp: 65-85.