Se ha denunciado esta presentación.

Competencia digital docente como contribución a estimular procesos de Innovación educativa

1

Compartir

1 de 61
1 de 61

Competencia digital docente como contribución a estimular procesos de Innovación educativa

1

Compartir

Descargar para leer sin conexión

Descripción

Presentación de tesis doctoral de Celia Paola Sarango-Lapo, dirigida por la Dra. María Soledad Ramírez Montoya y el Dr. Juanjo Mena

Transcripción

  1. 1. Competencia digital docente como contribución a estimular procesos de Innovación educativa Presentación de tesis doctoral Doctoranda Directores Celia Paola Sarango Lapo Dra. María Soledad Ramírez-Montoya Dr. Juanjo Mena Salamanca, Octubre del 2021
  2. 2. Defensa de tesis doctoral
  3. 3. Agenda • Problema • Justificación • Objetivo general • Revisión de la literatura • Metodología • Resultados • Aporte al saber científico • Conclusiones • Limitaciones y recomendaciones • Trabajos futuros
  4. 4. Descripción del problema Ala-Mutka (2011), Ferrari (2013), INTEF (2013, 2017); Unesco (2008, 2018); ISTE (2018). Competencias clave para la enseñanza y la investigación en un docente universitario Competencias clave del siglo XXI (Unesco, 2016; Comisión Europea, 2016)
  5. 5. Problema ¿Cuál es la relación entre la capacidad percibida de la competencia digital de información y el cumplimiento de las acciones de innovación con base en la evidencia (IEBE)?
  6. 6. Justificación Esta foto de Autor desconocido está bajo licencia CC BY-NC Esta foto de Autor desconocido está bajo licencia CC BY-SA Esta foto de Autor desconocido está bajo licencia CC BY-SA Esta foto de Autor desconocido está bajo licencia CC BY-NC-ND
  7. 7. Objetivo General • Analizar la relación entre la capacidad percibida de la competencia digital de información y la adopción de mecanismos de innovación (que vinculan la investigación con la práctica) de docentes universitarios, mediados con experiencias formativas que incentivaron el uso de REA y de innovación educativa para contribuir con un instrumento de calidad, tanto a nivel de validez como de fiabilidad para evaluar las competencias digitales de información y con un modelo validado de innovación.
  8. 8. Revisión de la literatura Esta foto de Autor desconocido está bajo licencia CC BY-NC-ND
  9. 9. Nuevos roles docentes Diseñadores de materiales Diseñadores de ambientes de aprendizaje dinámicos y colaborativos Evaluadores continuos Orientadores Seleccionadores reflexivos de las TIC Buscar, seleccionar, evaluar y transformar información en conocimiento Barroso y Cabero-Almenara (2013); Spiteri y Chang Rundgren (2017); Cabero-Almenara (2017); Rué (2015). Formación docente en las competencias digitales
  10. 10. ¿Qué es la competencia digital? Según Ferrari (2013) la competencia digital es la capacidad para utilizar las tecnologías y la información de modo crítico y reflexivo, con el propósito de construir nuevo conocimiento (Instefjord y Munthe, 2017). Ferrari (2013); INTEF (2013)
  11. 11. Modelos/marcos de la Competencia digital docente Unesco (2008, 2018) ISTE (2018) INTEF (2017) Enlaces (2011) Fraser et al. (2013) MEN (2013) (Redecker & Punie, 2017)
  12. 12. ¿Qué es la Competencia Digital de Información (CDI)? • La CDI es entendida como la habilidad para tratar la información y aprovecharla para construir conocimiento y aprendizaje y dar respuesta a los problemas (Álvarez & Gisbert, 2015), ello supone reconocer la necesidad de información, de localizarla, analizarla, gestionarla y transformarla en conocimiento.
  13. 13. Dimensiones de la CDI Estudios Dimensiones ACLR (2000) Pérez-Escoda y Fernández-Villavicencio (2016) Jaramillo et al. (2011) Rodríguez-Conde et al. (2012) Ala-Mutka (2011) Cabra, Marciales, Gualteros y Mancipe (2011) Reconocer la necesidad de información, acceder, evaluar y hacer uso de ella. (Álvarez & Gisbert, 2015) (Bielba-Calvo et al., 2015) (SCONUL, 2011) ANZILL (Bundy, 2004) Gestionar la información, procesar la información, necesidad de información, de localizarla, analizarla, gestionarla y transformarla en conocimiento. Ferrari (2013) INTEF (2013, 2017) (UNESCO, 2011a) García Llorente et al. (2019) Ramírez (2012) Reconocer necesidades para acceder a la información, localizarla, evaluarla, almacenarla, recuperarla. Hacer uso efectivo y ético de la información. Aplicar la información para crear y comunicar conocimiento.
  14. 14. Instrumentos para evaluar la CDD y CDI Tipo Autor Estudio de referencia Encuesta List et al. (2020) Ng (2012) Cuestionario Tondeur et al. (2017) ICT-CF (2013) Cuestionario Moreno-Guerrero et al. (2020) INTEF (2017) Encuesta Cai y Gut (2020) Ferrari (2013), dimensión resolución de problemas. Cuestionario García Llorente et al. (2019) IL-HUMASS (Rodríguez Conde et al., 2012) Cuestionario Álvarez y Gisbert (2015) UNESCO (2008); Larraz (2012) Cuestionario Toledo Sánchez y Maldonado- Radillo (2015) ACRL (2000) y UNESCO (2008) Cuestionario Moreno et al. (2018) INTEF (2017) Cuestionario Boudet (2017) INTEF (2017)
  15. 15. Factores que influyen en la competencia digital Laborales (Mirzajani et al., 2016) Académicos (Alvárez, 2014) Contextuales (Lucas et al., 2021) Actitudinales (Ata y Yıldırım, 2019) Personales (Cai et al., 2017)
  16. 16. Innovación en la práctica docente Innovación en la práctica docente (Kahn, 2018) Innovación como proceso (Fidalgo-Blanco & Sein- Echaluce, 2018; Ramírez- Montoya, 2012) IEBE Innovación como resultado (Gallardo et al., 2019; García-Peñalvo, 2015; Ramírez-Montoya & Valenzuela, 2019) REA
  17. 17. Innovación educativa basada en la evidencia (IEBE) Tejedor (2008); Ramírez-Montoya (2012)
  18. 18. Factores que influyen para el desarrollo de la innovación Laborales (Neri et al, 2017) Académicos (Lašáková, Bajzíková y Dedze, 2017) Contextuales (Juklová, 2015) Actitudinales (Casas y Stojanovic, 2013) Personales (Pascual y Navio-Gámez, 2018)
  19. 19. Instrumentos de evaluación de la innovación Tipo Autor Aspectos que evalúa Cuestionario García-González y Ramírez- Montoya (2019) Cambio/novedad, valor agregado y tipo de innovación Cuestionario Santos Rego et al. (2017) Práctica docente, compromiso social de la universidad, prácticas docentes innovadoras Cuestionario Marcelo et al. (2015) Actividades de aprendizaje que requieren tecnología: Asimilativas, gestión de la información, comunicativa, productiva, experiencial y evaluativa. Encuesta Cano García et al. (2018) Campo de conocimiento, número y tipo de asignatura implicada, curso, número de estudiantes, vinculación con un proyecto de innovación institucional, qué, cómo y quién evaluó, y recogida de evidencias del funcionamiento de la innovación. Entrevista Walder (2017) ¿Cuáles son las percepciones de los participantes sobre los efectos de la innovación pedagógica en la enseñanza y en el aprendizaje? ¿La innovación pedagógica implementada por los innovadores satisfacen las razones por las cuáles los profesores innovan?
  20. 20. Metodología Esta foto de Autor desconocido está bajo licencia CC BY-SA
  21. 21. Diseño de investigación mixta explicativa secuencial Notación: CUAN → cual Muestra: 271 → 15 (docentes universitarios bimodales) Instrumentos: Cuestionario → entrevista y rejilla de observación Fase 1: estudio correlacional (Onwuegbuzie & Teddlie, 2003) Fase 2: estudio fenomenológico (Creswell, 2013; Merriam, 2009) Fuentes de información: profesores, documentos significativos, material digital. Adaptado de Creswell (2015)
  22. 22. Categorías e indicadores de estudio Categoría Definición de Categoría Indicadores Técnica de Recolección de datos Percepción de la Competencia Digital de Información Se refiere a la forma en cómo los profesores perciben o diagnostican su competencia digital necesaria para buscar, evaluar y seleccionar la información, los recursos educativos disponibles en Internet Los indicadores ayudaron a determinar la percepción del docente en cuanto a su competencia digital cuando busca, selecciona, evalúa, almacena y comunica la información y cómo se apropió de la competencia digital para usar los recursos educativos o evidencias de buenas prácticas en la enseñanza Se aplicaron los siguientes instrumentos: Cuestionario Entrevista Análisis de documentos con el apoyo de la rejilla de observación. Innovación Educativa con base en la Evidencia Se refiere a la forma en cómo el profesor plantea la innovación en su práctica docente, en las estrategias, en la metodología, en los recursos educativos, en los ambientes de aprendizaje, en el contenido utilizando evidencias, REA que refuercen su innovación Los indicadores ayudaron a determinar las consideraciones que el docente innovador tomó en cuenta para la elaboración de la propuesta de innovación (diseño e implementación) que comprende las fases de IEBE. Para el diseño (delimitación del objeto innovador, búsqueda de evidencias, formulación de innovación); para la implementación (evaluación, publicación y difusión de la innovación) Se aplicaron los siguientes instrumentos: Cuestionario, Entrevista, Análisis de documentos con el apoyo de la rejilla de observación. Cuadro de triple entrada (Ramírez-Montoya, 2011)
  23. 23. Pilotaje de los instrumentos 2 expertos internacionales expertos nacionales Claridad en la redacción Coherencia con la dimensión Suficiencia de ítems Aplicación de los instrumentos Cuestionario 11 profesores Tiempo Redacción preguntas Entrevista 5 profesores Claridad de las preguntas Rejilla de observación 5 tareas Accesibilidad disponibilidad
  24. 24. Análisis de datos: Comprobación de la fiabilidad y validez de constructo de la escala CD-REA Validez de constructo: Estructura de la escala • Análisis Factorial Confirmatorio • Planteando un modelo de 4 factores • Aplicando máxima verosimilitud (método de estimación) Fiabilidad: Consistencia interna • Cuatro subescalas • Alpha de Cronbach Relación de las puntuaciones de la escala con diversas características •Análisis de varianza (ANOVA) •Variable dependiente: puntuación global de la escala •Variables independientes: características personales, académicas, laborales y de desempeño profesional
  25. 25. Análisis de datos: Verificación del modelo IEBE Grado de relación entre los pasos de IEBE Evaluar la interdependencia entre los pasos de IEBE Análisis de las relaciones (entre variables si o no) mediante: Chi-cuadrado y el coeficiente de correlación phi de Pearson Matriz de correlaciones (relación entre los pasos de IEBE) Índices de riesgo (no cumplimiento de un paso dado en función del no cumplimiento de los pasos previos) Grado de dependencia entre los pasos (Modelo predictivo mediante Regresión logística) Variable dependiente: Paso VI. Publicación y difusión de la innovación Variables independientes: Paso I, II, III, IV, V Añadieron variables: personales, de desempeño profesional, académicas, laborales
  26. 26. Validez y fiabilidad Validez Presencia en el estudio De constructo Los categorías emergieron de la revisión de la literatura. Se comprobó la validez de constructo mediante análisis factorial confirmatorio. Validez Interna Las preguntas se elaboraron con base en la literatura. Además se contó con la validación de expertos a los instrumentos y con la prueba piloto. Validez Externa Los instrumentos y los resultados de este estudio pueden utilizarse en otros contextos y servir para la realización de otras investigaciones. Fiabilidad Se aseguró la fiabilidad a través de la comprobación de la consistencia interna de la escala mediante Alpha de Cronbach. Triangulación La investigación esta sustentada en el análisis de varios instrumentos como cuestionario, entrevista y rejilla de observación. Yin (2003)
  27. 27. Resultados Esta foto de Autor desconocido está bajo licencia CC BY-SA-NC
  28. 28. Resultados descriptivos: Nivel de destreza en las distintas CDI 271 docentes Alrededor de 40% → 10 años experiencia 4 áreas de conocimiento Licenciatura, Maestría y Doctorado Escala: 16 ítems y 5 niveles de dominio (nada, poco, regular, bueno y excelente) Competencia para el almacenamiento y recuperación de información que produce → 2 ítems Almacena la información en repositorios de acceso abierto (2.88) Agrega metadatos y licencia Creative Commons (2.43)) Competencia para la comunicación de la información por medios tecnológicos → 1 ítem Difunde la información en repositorios de acceso abierto (2.79) Apropiación de la competencia digital de la información (REA) →2 ítems Promueve el interés por publicar en abierto (2.81) Colabora en redes académicas de discusión en investigación sobre REA (2.28)
  29. 29. Comprobación del ajuste de la estructura del cuestionario (validez de constructo) Modelo confirmatorio inicial con 4 factores Modelo 2 g. l. P 2/g. l. GFI CFI RMSEA Modelo Original 469,72 99 ,000 4,75 ,796 ,852 ,118 Modelo Ajustado 217,96 86 ,000 2,53 ,909 ,947 ,075
  30. 30. Comprobación del ajuste de la estructura del cuestionario (validez de constructo) Modelo confirmatorio modificado con covarianzas añadidas (Byrne, 2010) Se confirma la estructura factorial en forma de modelo de 4 factores Modelo 2 g. l. P 2/g. l. GFI CFI RMSEA Modelo Original 469,72 99 ,000 4,75 ,796 ,852 ,118 Modelo Ajustado 217,96 86 ,000 2,53 ,909 ,947 ,075
  31. 31. Consistencia interna de las subescalas (fiabilidad) No. Subescalas Alpha de Cronbach 1 Competencias de búsqueda y evaluación .873 2 Competencias de almacenamiento y recuperación .893 3 Competencias de comunicación de la información .805 4 Competencias de uso de REA .788 Por lo tanto, se confirma la validez de constructo de la escala CD-REA y la consistencia interna de las subescalas
  32. 32. Relación de las puntuaciones de la escala con diversas características: ANOVA VD: Puntuación global en la escala como medida de las CDI VI: Variables personales, académicos, laborales y de desempeño profesional correlaciones moderadas a altas (r entre .60 y .88; p<.001 en todos los casos)
  33. 33. Relación de las puntuaciones de la escala con diversas características: Anova Origen F Sig. Eta2 parcial Potencia Horas de uso de internet en general 5,420 ,001 ,067 ,934 Sexo 8,230 ,005 ,035 ,815 N.º de cursos realizados relacionados con REA 3,084 ,028 ,039 ,716 Años de docencia 4,247 ,006 ,053 ,857 Nivel académico 2,766 ,043 ,035 ,664 N º horas para comunicación con estudiantes 3,155 ,026 ,040 ,727 N º acciones ejercidas para innovar en el aula 16,891 ,000 ,069 ,984 N º habilidades que poseen en el uso de las TIC 24,705 ,000 ,098 ,999 Variables personales, laborales, académicas y de desempeño profesional asociadas con la puntuación global en la escala CD-REA Nota: R2= .421; R2 corregida= .365. Por lo tanto, se confirma la relación entre las puntuaciones obtenidas por los sujetos en la escala CD-REA y diversas características
  34. 34. Resultados cualitativos de la categoría de CDI Participantes Área Masculino Femenino Total entrevistados Técnica 2 3 5 Socio Humanística 0 4 4 Biológica y Biomédica 3 0 3 Administrati va 1 2 3 Total participantes 6 9 15 Participantes de entrevistas y de tareas por área Categorías Subcategorías Búsqueda, selección y evaluación de información / evidencias. Fuentes de consulta de información. Problemas de acceso a la información. Técnicas de búsqueda. Selección/evaluación de la información. Almacenamiento de la información. Herramientas tecnológicas de almacenamiento de la información. Uso/ Procesamiento información. Criterios de uso de información. Comunicación/Difusión de la información. Medios para comunicar la información. Categorías y Subcategorías establecidos CDI Entrevistas: preguntas sobre la experiencia vivida de aplicación de las CDI en el desarrollo de la tarea integradora
  35. 35. Categoría: Búsqueda selección y evaluación de la información Nube de fuentes de consulta de información preferidas Problemas presentados para el acceso a la información Entrevistado Acceso a información relevante que se encuentra en base de datos de pago “esto representa una preocupación porque hay mucha información buena a la que no se puede acceder” (E062). Acceso limitado a las bases de datos disponibles a través de la biblioteca virtual desde los hogares “solo se puede acceder desde los predios universitarios” (E065). La mayor parte de la información se encuentra en inglés “la mayoría de la información buena se encuentre en inglés, lo que dificulta la interpretación” (E066) La falta de tiempo “el tiempo es necesario para hacer una buena búsqueda y selección de información” (E069); “hay tanto que leer y para ello se requiere de tiempo” (E066). Problemas presentados para el acceso a la información
  36. 36. Categoría: Búsqueda selección y evaluación de la información Criterios de selección y evaluación de la información Mapa de clusters de técnicas de búsqueda de información aplicadas
  37. 37. Categoría: Almacenamiento de la información Almacenamiento Entrevistado Ordenador personal y Onedrive “Me permitió almacenar la información de la tarea en la nube y tenerla disponible desde cualquier lugar con acceso a Internet, así como trabajarla y manipularla de forma colaborativa” (E061). Gestor bibliográfico Mendeley “Mendeley es una herramienta que, además de permitir gestionar citas y bibliografía, sirve como una gran herramienta para almacenar, consultar información y analizarla” (E063); “Mendeley me permitió organizar en carpetas por variables de investigación la información encontrada” (E065). Redes sociales: YouTube “Me permitió almacenar videos grabados, que fueron parte de la innovación” (E068). Plataforma virtual de aprendizaje institucional y el repositorio de recursos educativos abiertos “Me sirvieron para almacenar los recursos producidos para los estudiantes y por aquellos que formaron parte de los proyectos de innovación planteados” (E062). Categoría: Uso y procesamiento de la información
  38. 38. Matriz por entrevistados de motivos para difundir la información Mapa de categoría: comunicación y difusión de la información Categoría: Comunicación y/o difusión de la información Segmentos codificados en relación con el motivo de compartir información
  39. 39. Resultados: confirmación del modelo IEBE Comprobar la asociación entre todos los posibles pares de comparaciones (15) Se calculó Chi cuadrado y el Coeficiente de correlación phi para cada comparación Se encontraron asociaciones significativas en 14 de los 15 contrastes chi-cuadrados efectuados Únicamente en los pasos 1 y 2 no se encontró relación significativa, en el resto de contrastes la relación encontrada se dio en forma directa esperada, de tal modo que el cumplimiento de uno de ellos estaba asociado con el cumplimiento del otro Y viceversa en caso de incumplimiento. Los coeficientes de correlación phi nos permitirán interpretar la fuerza de esta asociación
  40. 40. Evaluación de la interdependencia entre los pasos IEBE: Matriz de correlaciones II III IV V VI I Delimitar el objeto de innovación .005 .229*** .152* .252*** .244*** II Búsqueda de evidencias .153* .137* .212*** .265*** III Formulación de la innovación .446*** .438*** .395*** IV Aplicación de la innovación .533*** .300*** V Evaluación de la innovación .442*** VI Publicación y difusión de la innovación Nota: * p<.05; ** p<.01; *** p<.001 Coeficientes de correlación Phi entre los distintos pasos del IEBE, junto con su significación estadística.
  41. 41. Grado de dependencia entre pasos IEBE: Regresión logística binaria Modelos Resultados Observaciones Modelo 1 5 predictores Índices de ajuste aceptable del modelo a los datos (R2 de Cox y Snell= .166; R2 de Nagelkerke= .383) Clasificación correcta de 88.5 % de los casos (sujetos) El modelo retuvo 4 de los 5 predictores (I, II, III, V) Porcentaje de falsas alarmas alto 40% Clasifica a un sujeto que cumple como si no cumpliese Porcentaje de falsos positivos es satisfactorio de un 3.7% Clasifica a un sujeto que no cumple como que si cumple Modelo 2 5 predictores + lista de variables (personales, laborales, académicas y de desempeño profesional) índices de ajuste superiores a los obtenidos en el primer análisis (R2 de Cox y Snell= .273; R2 de Nagelkerke= .420). Clasificación correcta de sujetos de 88.4% El análisis de regresión logística retuvo 5 predictores Modelo más apropiado Porcentaje de falsas alarmas desciende al 32.2% Porcentaje de falsos positivos es muy satisfactorio 5.7% Paso VI → variable dependiente Pasos I, II, III, IV, V + lista de variables →variable independiente
  42. 42. Grado de dependencia entre pasos IEBE: Modelo Predictivo B E.T. Wald gl Sig. RV I. Delimitación del objeto de innovación 1,011 ,438 5,326 1 ,021 2,749 II. Búsqueda de evidencias 1,106 ,401 7,618 1 ,006 3,023 III. Formulación de la innovación 1,338 ,403 11,013 1 ,001 3,810 V. Evaluación de la innovación 1,395 ,403 11,981 1 ,001 4,035 Doctorado 1,041 ,392 7,058 1 ,008 2,833 Constante -4,323 ,552 61,358 1 ,000 ,013 Coeficientes para los predictores seleccionados por el modelo 2 de regresión logística
  43. 43. Resultados cualitativos de la categoría cumplimiento de las acciones de IEBE 13 tareas → 15 participantes 4 áreas de conocimiento Categorías Subcategorías Delimitación del objeto de innovación Tema del proyecto, pregunta de investigación, objetivos, contexto. Búsqueda de evidencias Revistas arbitradas (de pago o abiertas), libros; literatura en inglés o en español; cumplimiento de normas APA. Formulación de innovación Análisis de necesidades, descripción de necesidades del proyecto, descripción de participantes. Aplicación y evaluación Objetivo del proyecto, muestra de aplicación, fases de intervención, instrumento, técnicas de análisis de datos, resultados y conclusiones. Publicación y difusión Congresos arbitrados, revistas Scopus y de acceso abierto. Categorías y subcategorías establecidos modelo IEBE • Categoría: Delimitación del objeto de innovación
  44. 44. • Categoría: Formulación de la innovación. Resultados cualitativos de la categoría cumplimiento de las acciones de IEBE • Categoría: Búsqueda de evidencias disponibles. Matriz de tareas participantes del paso III de IEBE
  45. 45. Resultados cualitativos de la categoría cumplimiento de las acciones de IEBE Nube de elementos del paso IV y V de IEBE Mapa de categorías del paso VI de IEBE • Categoría: Difusión de la innovación • Categoría: Implementación (aplicación) y evaluación.
  46. 46. Aporte al saber científico Esta foto de Autor desconocido está bajo licencia CC BY-SA-NC
  47. 47. Modelo de Innovación Educativa basado en la evidencia vinculado a las CDI Sarango-Lapo, Mena y Ramírez-Montoya (2021)
  48. 48. Componentes de entrada del Modelo Filosófico • Nuevo paradigma de actuación profesional en educación (nivel microsocial) • Objetivo es la renovación de la práctica docente apoyada por el análisis y difusión de evidencias Teórico • Modelo de enseñanza aprendizaje para la aplicación del conocimiento e innovación en la práctica docente • Integra los 6 pasos de IEBE y las dimensiones de la CDI Práctico • Se base en el ODS4 y OEI (2014) • Los docentes conozcan evidencias de buenas prácticas para estimular la innovación e investigación Operacional • Permitir a la institución encontrar oportunidades de innovación interna a partir de la comprensión de la realidad • Planteamiento del docente de soluciones innovadoras de impacto social y responder a una necesidad o problema Escudero-Nahón y Ramírez-Montoya (2021)
  49. 49. Consideraciones para aplicación del modelo de innovación propuesto Modelo IEBE + CDI Definición y procedimiento Espacios e infraestructura Roles: estudiantes y facilitadores y equipo multidisciplinar Contenidos, estrategias, técnicas y recursos. Evaluación y comunicación Visión innovadora en el diseño y mirada de impacto. Ramírez-Montoya (2012)
  50. 50. Conclusiones, Limitaciones, Recomendaciones y Trabajos futuros Esta foto de Autor desconocido está bajo licencia CC BY-SA-NC
  51. 51. Conclusiones: Sobre la pregunta de investigación ¿Cuál es la relación entre la competencia digital de información percibida y las innovaciones basadas en la evidencia (IEBE)? La relación se ubica en: • Las CDI influyen en el cumplimiento de las acciones de innovación con base en IEBE. • La percepción de los docentes de su CDI en las dimensiones de búsqueda, selección, evaluación de información; y de uso de la información contribuyeron al cumplimiento de los pasos de IEBE. • Los resultados señalaron que hace falta reforzar en los docentes el uso de la información para la investigación (apropiación de la CDI), así como la publicación y difusión de la información (almacenamiento y comunicación de la información) en sitios abiertos. Por lo que, la formación docente aún supone un reto.
  52. 52. Conclusiones: Sobre el objetivo • Se puede concluir que la escala mide las competencias digitales de información de los docentes bimodales con una validez y fiabilidad pertinente. • El perfil de CDI para el uso de REA en un docente bimodal, hace referencia a una persona joven, preferiblemente con maestría o doctorado, con habilidades en el uso de las TIC y formación en REA, innovador en el aula, que se comunica con frecuencia con sus estudiantes y que tiene una elevada actividad online. Para este perfil encontrado el sexo no se constituye en relevante. • Los resultados obtenidos confirman el modelo subyacente a la innovación educativa basada en evidencias (IEBE) y pone de manifiesto la dependencia existente entre los pasos que lo componen, siendo el punto crítico el paso III (formulación de la innovación). • La importancia del ejercicio de la investigación como facilitadora del desarrollo de esta metodología ha sido confirmada por la inclusión del doctorado como uno de los predictores del éxito en la innovación educativa.
  53. 53. Limitaciones y recomendaciones • Los resultados no pueden generalizarse a todo tipo de docentes, dado que los docentes de la muestra eran bimodales. • El estudio se basa en las autopercepciones de los docentes y podría considerarse como un sesgo con algún margen considerable de subjetividad. • Se recomienda que la formación del profesorado sea contextualizada teniendo en cuenta las necesidades de los profesores y la institución, en concordancia con los problemas reales de la práctica docente. • En cuanto a la experiencia docente, se sugiere la necesidad de analizar las características de los profesores jóvenes en su experiencia docente, ya que son este grupo etario los que presentan niveles altos en las competencias digitales.
  54. 54. Trabajos futuros • Para futuras investigaciones, sería interesante analizar si existen diferencias (y, en caso afirmativo, de qué tipo son), entre los docentes presenciales y los docentes a distancia, en los aspectos que pretende medir la escala. • Otra posible línea de investigación sería la encaminada a fundamentar las investigaciones futuras en datos cognitivos y conductuales objetivos en lugar de (o además) de las autopercepciones. • Sería interesante investigar el efecto que sobre el cumplimiento del modelo tienen otras posibles variables que puedan mejorar la calidad de las clasificaciones hechas por el modelo.
  55. 55. Referencias • Ala-Mutka, K. (2011). Mapping digital competence: towards a conceptual understanding. En JCR Technical Notes. Recuperado de: ftp://s- jrcsvqpx102p.jrc.es/pub/EURdoc/JRC67075_TN.pdf • Álvarez, J.-F., & Gisbert, M. (2015). Grado de alfabetización informacional del profesorado de Secundaria en España: Creencias y autopercepciones. Comunicar, 45, 187-194. https://doi.org/10.3916/C45-2015-20 • Barroso, J., & Cabero-Almenara, J. (2013). Nuevos escenarios digitales: Las tecnologías de la información y la comunicación aplicadas a la formación y desarrollo curricular. Pirámide. • Cabero-Almenara, J. (2017). La formación en la era digital: ambientes enriquecidos por la tecnología. Revista Gestión de la Innovación en Educación Superior, 2(2), 41-64. • Comisión Europea. (2016). DigCompOrg. Digitally Competent Educational Organisations. https://ec.europa.eu/jrc/en/digcomporg
  56. 56. Referencias • Enlaces. (2011). Competencias y Estándares TIC para la Profesión Docente. Centro de Educación y Tecnología (Enlaces). Ministerio de Educación, Gobierno de Chile. http://www.enlaces.cl/libros/docentes/files/docente.pdf • Ferrari, A. (2013). DIGCOMP: A Framework for Developing and Understanding Digital Competence in Europe. https://doi.org/10.2788/52966 • Fraser, J., Atkins, L., & Hall, R. (2013). DigiLit Leicester. Supporting Teachers, Promoting Digital Literacy, Transforming Learning. Leicester City Council. http://www.digilitleic.com/wp-content/uploads/2013/10/DigiLit-Leicester- report-130625-FINAL.pdf • INTEF. (2013). Marco común de Competencia Digital Docente. V.2.0. Plan de Cultura Digital en la Escuela., 1-75. https://doi.org/10.2788/52966 • INTEF. (2017). Marco Común de Competencia Digital Docente. Marco Estratégico de Desarrollo Profesional Docente. https://tinyurl.com/ybk2uuge
  57. 57. Referencias • Instefjord, E., & Munthe, E. (2017). Educating digitally competent teachers: A study of integration of professional digital competence in teacher education. Teaching and Teacher Education, 67, 37-45. https://doi.org/10.1016/j.tate.2017.05.016 • MEN. (2013). Competencias TIC para el desarrollo profesional docente. En Ministerio de Educación Nacional de Colombia (p. 74). https://doi.org/10.4992/jjpsy.82.9 • Redecker, C., & Punie, Y. (2017). Digital Competence of Educators:DigCompEdu. Luxembourg: Publications Office of the European Union. https://doi.org/10.2760/159770 • Rué, J. (2015). Entornos de aprendizaje digitales y calidad en la Educación Superior. Editorial UOC. • Spiteri, M., & Chang Rundgren, S. N. (2017). Maltese primary teachers’ digital competence: implications for continuing professional development. European Journal of Teacher Education, 40(4), 521-534. https://doi.org/10.1080/02619768.2017.1342242 • UNESCO. (2016). Educación para la Ciudadanía Mundial. Preparar a los educandos para los retos del siglo XXI. https://doi.org/10.1016/j.cub.2003.12.054 • UNESCO. (2008). Estándares de competencias en TIC para Docentes. En Organización de las Naciones Unidas para la Educación la Ciencia y la Cultura. • UNESCO. (2018). ICT Competency Framework for Teachers. En United Nations Educational, Scientific and Cultural Orgatization (Vol. 53, Número 9). https://doi.org/10.1017/CBO9781107415324.004
  58. 58. Publicaciones derivadas de la tesis https://knowledgesociety.usal.es/user/181
  59. 59. Reconocimientos
  60. 60. Celia Paola Sarango L. cpsarango@utpl.edu.ec Salamanca, 25 de Octubre del 2021 Sarango-Lapo, C.P. (2021). Competencia digital docente como contribución a estimular procesos de innovación educativa (Tesis doctoral). Universidad de Salamanca, España.

Descripción

Presentación de tesis doctoral de Celia Paola Sarango-Lapo, dirigida por la Dra. María Soledad Ramírez Montoya y el Dr. Juanjo Mena

Transcripción

  1. 1. Competencia digital docente como contribución a estimular procesos de Innovación educativa Presentación de tesis doctoral Doctoranda Directores Celia Paola Sarango Lapo Dra. María Soledad Ramírez-Montoya Dr. Juanjo Mena Salamanca, Octubre del 2021
  2. 2. Defensa de tesis doctoral
  3. 3. Agenda • Problema • Justificación • Objetivo general • Revisión de la literatura • Metodología • Resultados • Aporte al saber científico • Conclusiones • Limitaciones y recomendaciones • Trabajos futuros
  4. 4. Descripción del problema Ala-Mutka (2011), Ferrari (2013), INTEF (2013, 2017); Unesco (2008, 2018); ISTE (2018). Competencias clave para la enseñanza y la investigación en un docente universitario Competencias clave del siglo XXI (Unesco, 2016; Comisión Europea, 2016)
  5. 5. Problema ¿Cuál es la relación entre la capacidad percibida de la competencia digital de información y el cumplimiento de las acciones de innovación con base en la evidencia (IEBE)?
  6. 6. Justificación Esta foto de Autor desconocido está bajo licencia CC BY-NC Esta foto de Autor desconocido está bajo licencia CC BY-SA Esta foto de Autor desconocido está bajo licencia CC BY-SA Esta foto de Autor desconocido está bajo licencia CC BY-NC-ND
  7. 7. Objetivo General • Analizar la relación entre la capacidad percibida de la competencia digital de información y la adopción de mecanismos de innovación (que vinculan la investigación con la práctica) de docentes universitarios, mediados con experiencias formativas que incentivaron el uso de REA y de innovación educativa para contribuir con un instrumento de calidad, tanto a nivel de validez como de fiabilidad para evaluar las competencias digitales de información y con un modelo validado de innovación.
  8. 8. Revisión de la literatura Esta foto de Autor desconocido está bajo licencia CC BY-NC-ND
  9. 9. Nuevos roles docentes Diseñadores de materiales Diseñadores de ambientes de aprendizaje dinámicos y colaborativos Evaluadores continuos Orientadores Seleccionadores reflexivos de las TIC Buscar, seleccionar, evaluar y transformar información en conocimiento Barroso y Cabero-Almenara (2013); Spiteri y Chang Rundgren (2017); Cabero-Almenara (2017); Rué (2015). Formación docente en las competencias digitales
  10. 10. ¿Qué es la competencia digital? Según Ferrari (2013) la competencia digital es la capacidad para utilizar las tecnologías y la información de modo crítico y reflexivo, con el propósito de construir nuevo conocimiento (Instefjord y Munthe, 2017). Ferrari (2013); INTEF (2013)
  11. 11. Modelos/marcos de la Competencia digital docente Unesco (2008, 2018) ISTE (2018) INTEF (2017) Enlaces (2011) Fraser et al. (2013) MEN (2013) (Redecker & Punie, 2017)
  12. 12. ¿Qué es la Competencia Digital de Información (CDI)? • La CDI es entendida como la habilidad para tratar la información y aprovecharla para construir conocimiento y aprendizaje y dar respuesta a los problemas (Álvarez & Gisbert, 2015), ello supone reconocer la necesidad de información, de localizarla, analizarla, gestionarla y transformarla en conocimiento.
  13. 13. Dimensiones de la CDI Estudios Dimensiones ACLR (2000) Pérez-Escoda y Fernández-Villavicencio (2016) Jaramillo et al. (2011) Rodríguez-Conde et al. (2012) Ala-Mutka (2011) Cabra, Marciales, Gualteros y Mancipe (2011) Reconocer la necesidad de información, acceder, evaluar y hacer uso de ella. (Álvarez & Gisbert, 2015) (Bielba-Calvo et al., 2015) (SCONUL, 2011) ANZILL (Bundy, 2004) Gestionar la información, procesar la información, necesidad de información, de localizarla, analizarla, gestionarla y transformarla en conocimiento. Ferrari (2013) INTEF (2013, 2017) (UNESCO, 2011a) García Llorente et al. (2019) Ramírez (2012) Reconocer necesidades para acceder a la información, localizarla, evaluarla, almacenarla, recuperarla. Hacer uso efectivo y ético de la información. Aplicar la información para crear y comunicar conocimiento.
  14. 14. Instrumentos para evaluar la CDD y CDI Tipo Autor Estudio de referencia Encuesta List et al. (2020) Ng (2012) Cuestionario Tondeur et al. (2017) ICT-CF (2013) Cuestionario Moreno-Guerrero et al. (2020) INTEF (2017) Encuesta Cai y Gut (2020) Ferrari (2013), dimensión resolución de problemas. Cuestionario García Llorente et al. (2019) IL-HUMASS (Rodríguez Conde et al., 2012) Cuestionario Álvarez y Gisbert (2015) UNESCO (2008); Larraz (2012) Cuestionario Toledo Sánchez y Maldonado- Radillo (2015) ACRL (2000) y UNESCO (2008) Cuestionario Moreno et al. (2018) INTEF (2017) Cuestionario Boudet (2017) INTEF (2017)
  15. 15. Factores que influyen en la competencia digital Laborales (Mirzajani et al., 2016) Académicos (Alvárez, 2014) Contextuales (Lucas et al., 2021) Actitudinales (Ata y Yıldırım, 2019) Personales (Cai et al., 2017)
  16. 16. Innovación en la práctica docente Innovación en la práctica docente (Kahn, 2018) Innovación como proceso (Fidalgo-Blanco & Sein- Echaluce, 2018; Ramírez- Montoya, 2012) IEBE Innovación como resultado (Gallardo et al., 2019; García-Peñalvo, 2015; Ramírez-Montoya & Valenzuela, 2019) REA
  17. 17. Innovación educativa basada en la evidencia (IEBE) Tejedor (2008); Ramírez-Montoya (2012)
  18. 18. Factores que influyen para el desarrollo de la innovación Laborales (Neri et al, 2017) Académicos (Lašáková, Bajzíková y Dedze, 2017) Contextuales (Juklová, 2015) Actitudinales (Casas y Stojanovic, 2013) Personales (Pascual y Navio-Gámez, 2018)
  19. 19. Instrumentos de evaluación de la innovación Tipo Autor Aspectos que evalúa Cuestionario García-González y Ramírez- Montoya (2019) Cambio/novedad, valor agregado y tipo de innovación Cuestionario Santos Rego et al. (2017) Práctica docente, compromiso social de la universidad, prácticas docentes innovadoras Cuestionario Marcelo et al. (2015) Actividades de aprendizaje que requieren tecnología: Asimilativas, gestión de la información, comunicativa, productiva, experiencial y evaluativa. Encuesta Cano García et al. (2018) Campo de conocimiento, número y tipo de asignatura implicada, curso, número de estudiantes, vinculación con un proyecto de innovación institucional, qué, cómo y quién evaluó, y recogida de evidencias del funcionamiento de la innovación. Entrevista Walder (2017) ¿Cuáles son las percepciones de los participantes sobre los efectos de la innovación pedagógica en la enseñanza y en el aprendizaje? ¿La innovación pedagógica implementada por los innovadores satisfacen las razones por las cuáles los profesores innovan?
  20. 20. Metodología Esta foto de Autor desconocido está bajo licencia CC BY-SA
  21. 21. Diseño de investigación mixta explicativa secuencial Notación: CUAN → cual Muestra: 271 → 15 (docentes universitarios bimodales) Instrumentos: Cuestionario → entrevista y rejilla de observación Fase 1: estudio correlacional (Onwuegbuzie & Teddlie, 2003) Fase 2: estudio fenomenológico (Creswell, 2013; Merriam, 2009) Fuentes de información: profesores, documentos significativos, material digital. Adaptado de Creswell (2015)
  22. 22. Categorías e indicadores de estudio Categoría Definición de Categoría Indicadores Técnica de Recolección de datos Percepción de la Competencia Digital de Información Se refiere a la forma en cómo los profesores perciben o diagnostican su competencia digital necesaria para buscar, evaluar y seleccionar la información, los recursos educativos disponibles en Internet Los indicadores ayudaron a determinar la percepción del docente en cuanto a su competencia digital cuando busca, selecciona, evalúa, almacena y comunica la información y cómo se apropió de la competencia digital para usar los recursos educativos o evidencias de buenas prácticas en la enseñanza Se aplicaron los siguientes instrumentos: Cuestionario Entrevista Análisis de documentos con el apoyo de la rejilla de observación. Innovación Educativa con base en la Evidencia Se refiere a la forma en cómo el profesor plantea la innovación en su práctica docente, en las estrategias, en la metodología, en los recursos educativos, en los ambientes de aprendizaje, en el contenido utilizando evidencias, REA que refuercen su innovación Los indicadores ayudaron a determinar las consideraciones que el docente innovador tomó en cuenta para la elaboración de la propuesta de innovación (diseño e implementación) que comprende las fases de IEBE. Para el diseño (delimitación del objeto innovador, búsqueda de evidencias, formulación de innovación); para la implementación (evaluación, publicación y difusión de la innovación) Se aplicaron los siguientes instrumentos: Cuestionario, Entrevista, Análisis de documentos con el apoyo de la rejilla de observación. Cuadro de triple entrada (Ramírez-Montoya, 2011)
  23. 23. Pilotaje de los instrumentos 2 expertos internacionales expertos nacionales Claridad en la redacción Coherencia con la dimensión Suficiencia de ítems Aplicación de los instrumentos Cuestionario 11 profesores Tiempo Redacción preguntas Entrevista 5 profesores Claridad de las preguntas Rejilla de observación 5 tareas Accesibilidad disponibilidad
  24. 24. Análisis de datos: Comprobación de la fiabilidad y validez de constructo de la escala CD-REA Validez de constructo: Estructura de la escala • Análisis Factorial Confirmatorio • Planteando un modelo de 4 factores • Aplicando máxima verosimilitud (método de estimación) Fiabilidad: Consistencia interna • Cuatro subescalas • Alpha de Cronbach Relación de las puntuaciones de la escala con diversas características •Análisis de varianza (ANOVA) •Variable dependiente: puntuación global de la escala •Variables independientes: características personales, académicas, laborales y de desempeño profesional
  25. 25. Análisis de datos: Verificación del modelo IEBE Grado de relación entre los pasos de IEBE Evaluar la interdependencia entre los pasos de IEBE Análisis de las relaciones (entre variables si o no) mediante: Chi-cuadrado y el coeficiente de correlación phi de Pearson Matriz de correlaciones (relación entre los pasos de IEBE) Índices de riesgo (no cumplimiento de un paso dado en función del no cumplimiento de los pasos previos) Grado de dependencia entre los pasos (Modelo predictivo mediante Regresión logística) Variable dependiente: Paso VI. Publicación y difusión de la innovación Variables independientes: Paso I, II, III, IV, V Añadieron variables: personales, de desempeño profesional, académicas, laborales
  26. 26. Validez y fiabilidad Validez Presencia en el estudio De constructo Los categorías emergieron de la revisión de la literatura. Se comprobó la validez de constructo mediante análisis factorial confirmatorio. Validez Interna Las preguntas se elaboraron con base en la literatura. Además se contó con la validación de expertos a los instrumentos y con la prueba piloto. Validez Externa Los instrumentos y los resultados de este estudio pueden utilizarse en otros contextos y servir para la realización de otras investigaciones. Fiabilidad Se aseguró la fiabilidad a través de la comprobación de la consistencia interna de la escala mediante Alpha de Cronbach. Triangulación La investigación esta sustentada en el análisis de varios instrumentos como cuestionario, entrevista y rejilla de observación. Yin (2003)
  27. 27. Resultados Esta foto de Autor desconocido está bajo licencia CC BY-SA-NC
  28. 28. Resultados descriptivos: Nivel de destreza en las distintas CDI 271 docentes Alrededor de 40% → 10 años experiencia 4 áreas de conocimiento Licenciatura, Maestría y Doctorado Escala: 16 ítems y 5 niveles de dominio (nada, poco, regular, bueno y excelente) Competencia para el almacenamiento y recuperación de información que produce → 2 ítems Almacena la información en repositorios de acceso abierto (2.88) Agrega metadatos y licencia Creative Commons (2.43)) Competencia para la comunicación de la información por medios tecnológicos → 1 ítem Difunde la información en repositorios de acceso abierto (2.79) Apropiación de la competencia digital de la información (REA) →2 ítems Promueve el interés por publicar en abierto (2.81) Colabora en redes académicas de discusión en investigación sobre REA (2.28)
  29. 29. Comprobación del ajuste de la estructura del cuestionario (validez de constructo) Modelo confirmatorio inicial con 4 factores Modelo 2 g. l. P 2/g. l. GFI CFI RMSEA Modelo Original 469,72 99 ,000 4,75 ,796 ,852 ,118 Modelo Ajustado 217,96 86 ,000 2,53 ,909 ,947 ,075
  30. 30. Comprobación del ajuste de la estructura del cuestionario (validez de constructo) Modelo confirmatorio modificado con covarianzas añadidas (Byrne, 2010) Se confirma la estructura factorial en forma de modelo de 4 factores Modelo 2 g. l. P 2/g. l. GFI CFI RMSEA Modelo Original 469,72 99 ,000 4,75 ,796 ,852 ,118 Modelo Ajustado 217,96 86 ,000 2,53 ,909 ,947 ,075
  31. 31. Consistencia interna de las subescalas (fiabilidad) No. Subescalas Alpha de Cronbach 1 Competencias de búsqueda y evaluación .873 2 Competencias de almacenamiento y recuperación .893 3 Competencias de comunicación de la información .805 4 Competencias de uso de REA .788 Por lo tanto, se confirma la validez de constructo de la escala CD-REA y la consistencia interna de las subescalas
  32. 32. Relación de las puntuaciones de la escala con diversas características: ANOVA VD: Puntuación global en la escala como medida de las CDI VI: Variables personales, académicos, laborales y de desempeño profesional correlaciones moderadas a altas (r entre .60 y .88; p<.001 en todos los casos)
  33. 33. Relación de las puntuaciones de la escala con diversas características: Anova Origen F Sig. Eta2 parcial Potencia Horas de uso de internet en general 5,420 ,001 ,067 ,934 Sexo 8,230 ,005 ,035 ,815 N.º de cursos realizados relacionados con REA 3,084 ,028 ,039 ,716 Años de docencia 4,247 ,006 ,053 ,857 Nivel académico 2,766 ,043 ,035 ,664 N º horas para comunicación con estudiantes 3,155 ,026 ,040 ,727 N º acciones ejercidas para innovar en el aula 16,891 ,000 ,069 ,984 N º habilidades que poseen en el uso de las TIC 24,705 ,000 ,098 ,999 Variables personales, laborales, académicas y de desempeño profesional asociadas con la puntuación global en la escala CD-REA Nota: R2= .421; R2 corregida= .365. Por lo tanto, se confirma la relación entre las puntuaciones obtenidas por los sujetos en la escala CD-REA y diversas características
  34. 34. Resultados cualitativos de la categoría de CDI Participantes Área Masculino Femenino Total entrevistados Técnica 2 3 5 Socio Humanística 0 4 4 Biológica y Biomédica 3 0 3 Administrati va 1 2 3 Total participantes 6 9 15 Participantes de entrevistas y de tareas por área Categorías Subcategorías Búsqueda, selección y evaluación de información / evidencias. Fuentes de consulta de información. Problemas de acceso a la información. Técnicas de búsqueda. Selección/evaluación de la información. Almacenamiento de la información. Herramientas tecnológicas de almacenamiento de la información. Uso/ Procesamiento información. Criterios de uso de información. Comunicación/Difusión de la información. Medios para comunicar la información. Categorías y Subcategorías establecidos CDI Entrevistas: preguntas sobre la experiencia vivida de aplicación de las CDI en el desarrollo de la tarea integradora
  35. 35. Categoría: Búsqueda selección y evaluación de la información Nube de fuentes de consulta de información preferidas Problemas presentados para el acceso a la información Entrevistado Acceso a información relevante que se encuentra en base de datos de pago “esto representa una preocupación porque hay mucha información buena a la que no se puede acceder” (E062). Acceso limitado a las bases de datos disponibles a través de la biblioteca virtual desde los hogares “solo se puede acceder desde los predios universitarios” (E065). La mayor parte de la información se encuentra en inglés “la mayoría de la información buena se encuentre en inglés, lo que dificulta la interpretación” (E066) La falta de tiempo “el tiempo es necesario para hacer una buena búsqueda y selección de información” (E069); “hay tanto que leer y para ello se requiere de tiempo” (E066). Problemas presentados para el acceso a la información
  36. 36. Categoría: Búsqueda selección y evaluación de la información Criterios de selección y evaluación de la información Mapa de clusters de técnicas de búsqueda de información aplicadas
  37. 37. Categoría: Almacenamiento de la información Almacenamiento Entrevistado Ordenador personal y Onedrive “Me permitió almacenar la información de la tarea en la nube y tenerla disponible desde cualquier lugar con acceso a Internet, así como trabajarla y manipularla de forma colaborativa” (E061). Gestor bibliográfico Mendeley “Mendeley es una herramienta que, además de permitir gestionar citas y bibliografía, sirve como una gran herramienta para almacenar, consultar información y analizarla” (E063); “Mendeley me permitió organizar en carpetas por variables de investigación la información encontrada” (E065). Redes sociales: YouTube “Me permitió almacenar videos grabados, que fueron parte de la innovación” (E068). Plataforma virtual de aprendizaje institucional y el repositorio de recursos educativos abiertos “Me sirvieron para almacenar los recursos producidos para los estudiantes y por aquellos que formaron parte de los proyectos de innovación planteados” (E062). Categoría: Uso y procesamiento de la información
  38. 38. Matriz por entrevistados de motivos para difundir la información Mapa de categoría: comunicación y difusión de la información Categoría: Comunicación y/o difusión de la información Segmentos codificados en relación con el motivo de compartir información
  39. 39. Resultados: confirmación del modelo IEBE Comprobar la asociación entre todos los posibles pares de comparaciones (15) Se calculó Chi cuadrado y el Coeficiente de correlación phi para cada comparación Se encontraron asociaciones significativas en 14 de los 15 contrastes chi-cuadrados efectuados Únicamente en los pasos 1 y 2 no se encontró relación significativa, en el resto de contrastes la relación encontrada se dio en forma directa esperada, de tal modo que el cumplimiento de uno de ellos estaba asociado con el cumplimiento del otro Y viceversa en caso de incumplimiento. Los coeficientes de correlación phi nos permitirán interpretar la fuerza de esta asociación
  40. 40. Evaluación de la interdependencia entre los pasos IEBE: Matriz de correlaciones II III IV V VI I Delimitar el objeto de innovación .005 .229*** .152* .252*** .244*** II Búsqueda de evidencias .153* .137* .212*** .265*** III Formulación de la innovación .446*** .438*** .395*** IV Aplicación de la innovación .533*** .300*** V Evaluación de la innovación .442*** VI Publicación y difusión de la innovación Nota: * p<.05; ** p<.01; *** p<.001 Coeficientes de correlación Phi entre los distintos pasos del IEBE, junto con su significación estadística.
  41. 41. Grado de dependencia entre pasos IEBE: Regresión logística binaria Modelos Resultados Observaciones Modelo 1 5 predictores Índices de ajuste aceptable del modelo a los datos (R2 de Cox y Snell= .166; R2 de Nagelkerke= .383) Clasificación correcta de 88.5 % de los casos (sujetos) El modelo retuvo 4 de los 5 predictores (I, II, III, V) Porcentaje de falsas alarmas alto 40% Clasifica a un sujeto que cumple como si no cumpliese Porcentaje de falsos positivos es satisfactorio de un 3.7% Clasifica a un sujeto que no cumple como que si cumple Modelo 2 5 predictores + lista de variables (personales, laborales, académicas y de desempeño profesional) índices de ajuste superiores a los obtenidos en el primer análisis (R2 de Cox y Snell= .273; R2 de Nagelkerke= .420). Clasificación correcta de sujetos de 88.4% El análisis de regresión logística retuvo 5 predictores Modelo más apropiado Porcentaje de falsas alarmas desciende al 32.2% Porcentaje de falsos positivos es muy satisfactorio 5.7% Paso VI → variable dependiente Pasos I, II, III, IV, V + lista de variables →variable independiente
  42. 42. Grado de dependencia entre pasos IEBE: Modelo Predictivo B E.T. Wald gl Sig. RV I. Delimitación del objeto de innovación 1,011 ,438 5,326 1 ,021 2,749 II. Búsqueda de evidencias 1,106 ,401 7,618 1 ,006 3,023 III. Formulación de la innovación 1,338 ,403 11,013 1 ,001 3,810 V. Evaluación de la innovación 1,395 ,403 11,981 1 ,001 4,035 Doctorado 1,041 ,392 7,058 1 ,008 2,833 Constante -4,323 ,552 61,358 1 ,000 ,013 Coeficientes para los predictores seleccionados por el modelo 2 de regresión logística
  43. 43. Resultados cualitativos de la categoría cumplimiento de las acciones de IEBE 13 tareas → 15 participantes 4 áreas de conocimiento Categorías Subcategorías Delimitación del objeto de innovación Tema del proyecto, pregunta de investigación, objetivos, contexto. Búsqueda de evidencias Revistas arbitradas (de pago o abiertas), libros; literatura en inglés o en español; cumplimiento de normas APA. Formulación de innovación Análisis de necesidades, descripción de necesidades del proyecto, descripción de participantes. Aplicación y evaluación Objetivo del proyecto, muestra de aplicación, fases de intervención, instrumento, técnicas de análisis de datos, resultados y conclusiones. Publicación y difusión Congresos arbitrados, revistas Scopus y de acceso abierto. Categorías y subcategorías establecidos modelo IEBE • Categoría: Delimitación del objeto de innovación
  44. 44. • Categoría: Formulación de la innovación. Resultados cualitativos de la categoría cumplimiento de las acciones de IEBE • Categoría: Búsqueda de evidencias disponibles. Matriz de tareas participantes del paso III de IEBE
  45. 45. Resultados cualitativos de la categoría cumplimiento de las acciones de IEBE Nube de elementos del paso IV y V de IEBE Mapa de categorías del paso VI de IEBE • Categoría: Difusión de la innovación • Categoría: Implementación (aplicación) y evaluación.
  46. 46. Aporte al saber científico Esta foto de Autor desconocido está bajo licencia CC BY-SA-NC
  47. 47. Modelo de Innovación Educativa basado en la evidencia vinculado a las CDI Sarango-Lapo, Mena y Ramírez-Montoya (2021)
  48. 48. Componentes de entrada del Modelo Filosófico • Nuevo paradigma de actuación profesional en educación (nivel microsocial) • Objetivo es la renovación de la práctica docente apoyada por el análisis y difusión de evidencias Teórico • Modelo de enseñanza aprendizaje para la aplicación del conocimiento e innovación en la práctica docente • Integra los 6 pasos de IEBE y las dimensiones de la CDI Práctico • Se base en el ODS4 y OEI (2014) • Los docentes conozcan evidencias de buenas prácticas para estimular la innovación e investigación Operacional • Permitir a la institución encontrar oportunidades de innovación interna a partir de la comprensión de la realidad • Planteamiento del docente de soluciones innovadoras de impacto social y responder a una necesidad o problema Escudero-Nahón y Ramírez-Montoya (2021)
  49. 49. Consideraciones para aplicación del modelo de innovación propuesto Modelo IEBE + CDI Definición y procedimiento Espacios e infraestructura Roles: estudiantes y facilitadores y equipo multidisciplinar Contenidos, estrategias, técnicas y recursos. Evaluación y comunicación Visión innovadora en el diseño y mirada de impacto. Ramírez-Montoya (2012)
  50. 50. Conclusiones, Limitaciones, Recomendaciones y Trabajos futuros Esta foto de Autor desconocido está bajo licencia CC BY-SA-NC
  51. 51. Conclusiones: Sobre la pregunta de investigación ¿Cuál es la relación entre la competencia digital de información percibida y las innovaciones basadas en la evidencia (IEBE)? La relación se ubica en: • Las CDI influyen en el cumplimiento de las acciones de innovación con base en IEBE. • La percepción de los docentes de su CDI en las dimensiones de búsqueda, selección, evaluación de información; y de uso de la información contribuyeron al cumplimiento de los pasos de IEBE. • Los resultados señalaron que hace falta reforzar en los docentes el uso de la información para la investigación (apropiación de la CDI), así como la publicación y difusión de la información (almacenamiento y comunicación de la información) en sitios abiertos. Por lo que, la formación docente aún supone un reto.
  52. 52. Conclusiones: Sobre el objetivo • Se puede concluir que la escala mide las competencias digitales de información de los docentes bimodales con una validez y fiabilidad pertinente. • El perfil de CDI para el uso de REA en un docente bimodal, hace referencia a una persona joven, preferiblemente con maestría o doctorado, con habilidades en el uso de las TIC y formación en REA, innovador en el aula, que se comunica con frecuencia con sus estudiantes y que tiene una elevada actividad online. Para este perfil encontrado el sexo no se constituye en relevante. • Los resultados obtenidos confirman el modelo subyacente a la innovación educativa basada en evidencias (IEBE) y pone de manifiesto la dependencia existente entre los pasos que lo componen, siendo el punto crítico el paso III (formulación de la innovación). • La importancia del ejercicio de la investigación como facilitadora del desarrollo de esta metodología ha sido confirmada por la inclusión del doctorado como uno de los predictores del éxito en la innovación educativa.
  53. 53. Limitaciones y recomendaciones • Los resultados no pueden generalizarse a todo tipo de docentes, dado que los docentes de la muestra eran bimodales. • El estudio se basa en las autopercepciones de los docentes y podría considerarse como un sesgo con algún margen considerable de subjetividad. • Se recomienda que la formación del profesorado sea contextualizada teniendo en cuenta las necesidades de los profesores y la institución, en concordancia con los problemas reales de la práctica docente. • En cuanto a la experiencia docente, se sugiere la necesidad de analizar las características de los profesores jóvenes en su experiencia docente, ya que son este grupo etario los que presentan niveles altos en las competencias digitales.
  54. 54. Trabajos futuros • Para futuras investigaciones, sería interesante analizar si existen diferencias (y, en caso afirmativo, de qué tipo son), entre los docentes presenciales y los docentes a distancia, en los aspectos que pretende medir la escala. • Otra posible línea de investigación sería la encaminada a fundamentar las investigaciones futuras en datos cognitivos y conductuales objetivos en lugar de (o además) de las autopercepciones. • Sería interesante investigar el efecto que sobre el cumplimiento del modelo tienen otras posibles variables que puedan mejorar la calidad de las clasificaciones hechas por el modelo.
  55. 55. Referencias • Ala-Mutka, K. (2011). Mapping digital competence: towards a conceptual understanding. En JCR Technical Notes. Recuperado de: ftp://s- jrcsvqpx102p.jrc.es/pub/EURdoc/JRC67075_TN.pdf • Álvarez, J.-F., & Gisbert, M. (2015). Grado de alfabetización informacional del profesorado de Secundaria en España: Creencias y autopercepciones. Comunicar, 45, 187-194. https://doi.org/10.3916/C45-2015-20 • Barroso, J., & Cabero-Almenara, J. (2013). Nuevos escenarios digitales: Las tecnologías de la información y la comunicación aplicadas a la formación y desarrollo curricular. Pirámide. • Cabero-Almenara, J. (2017). La formación en la era digital: ambientes enriquecidos por la tecnología. Revista Gestión de la Innovación en Educación Superior, 2(2), 41-64. • Comisión Europea. (2016). DigCompOrg. Digitally Competent Educational Organisations. https://ec.europa.eu/jrc/en/digcomporg
  56. 56. Referencias • Enlaces. (2011). Competencias y Estándares TIC para la Profesión Docente. Centro de Educación y Tecnología (Enlaces). Ministerio de Educación, Gobierno de Chile. http://www.enlaces.cl/libros/docentes/files/docente.pdf • Ferrari, A. (2013). DIGCOMP: A Framework for Developing and Understanding Digital Competence in Europe. https://doi.org/10.2788/52966 • Fraser, J., Atkins, L., & Hall, R. (2013). DigiLit Leicester. Supporting Teachers, Promoting Digital Literacy, Transforming Learning. Leicester City Council. http://www.digilitleic.com/wp-content/uploads/2013/10/DigiLit-Leicester- report-130625-FINAL.pdf • INTEF. (2013). Marco común de Competencia Digital Docente. V.2.0. Plan de Cultura Digital en la Escuela., 1-75. https://doi.org/10.2788/52966 • INTEF. (2017). Marco Común de Competencia Digital Docente. Marco Estratégico de Desarrollo Profesional Docente. https://tinyurl.com/ybk2uuge
  57. 57. Referencias • Instefjord, E., & Munthe, E. (2017). Educating digitally competent teachers: A study of integration of professional digital competence in teacher education. Teaching and Teacher Education, 67, 37-45. https://doi.org/10.1016/j.tate.2017.05.016 • MEN. (2013). Competencias TIC para el desarrollo profesional docente. En Ministerio de Educación Nacional de Colombia (p. 74). https://doi.org/10.4992/jjpsy.82.9 • Redecker, C., & Punie, Y. (2017). Digital Competence of Educators:DigCompEdu. Luxembourg: Publications Office of the European Union. https://doi.org/10.2760/159770 • Rué, J. (2015). Entornos de aprendizaje digitales y calidad en la Educación Superior. Editorial UOC. • Spiteri, M., & Chang Rundgren, S. N. (2017). Maltese primary teachers’ digital competence: implications for continuing professional development. European Journal of Teacher Education, 40(4), 521-534. https://doi.org/10.1080/02619768.2017.1342242 • UNESCO. (2016). Educación para la Ciudadanía Mundial. Preparar a los educandos para los retos del siglo XXI. https://doi.org/10.1016/j.cub.2003.12.054 • UNESCO. (2008). Estándares de competencias en TIC para Docentes. En Organización de las Naciones Unidas para la Educación la Ciencia y la Cultura. • UNESCO. (2018). ICT Competency Framework for Teachers. En United Nations Educational, Scientific and Cultural Orgatization (Vol. 53, Número 9). https://doi.org/10.1017/CBO9781107415324.004
  58. 58. Publicaciones derivadas de la tesis https://knowledgesociety.usal.es/user/181
  59. 59. Reconocimientos
  60. 60. Celia Paola Sarango L. cpsarango@utpl.edu.ec Salamanca, 25 de Octubre del 2021 Sarango-Lapo, C.P. (2021). Competencia digital docente como contribución a estimular procesos de innovación educativa (Tesis doctoral). Universidad de Salamanca, España.

Más Contenido Relacionado

Más de Education in the Knowledge Society PhD

Libros relacionados

Gratis con una prueba de 30 días de Scribd

Ver todo

Audiolibros relacionados

Gratis con una prueba de 30 días de Scribd

Ver todo

×