Competencia digital docente como contribución a estimular procesos de Innovación educativa
1. Competencia digital docente como contribución a
estimular procesos de Innovación educativa
Presentación de tesis doctoral
Doctoranda Directores
Celia Paola Sarango Lapo Dra. María Soledad Ramírez-Montoya
Dr. Juanjo Mena
Salamanca, Octubre del 2021
3. Agenda
• Problema
• Justificación
• Objetivo general
• Revisión de la literatura
• Metodología
• Resultados
• Aporte al saber científico
• Conclusiones
• Limitaciones y recomendaciones
• Trabajos futuros
4. Descripción del problema
Ala-Mutka (2011), Ferrari (2013), INTEF (2013, 2017); Unesco (2008, 2018);
ISTE (2018).
Competencias clave para la enseñanza y la investigación en
un docente universitario
Competencias clave del siglo XXI (Unesco, 2016;
Comisión Europea, 2016)
5. Problema
¿Cuál es la relación entre la capacidad percibida
de la competencia digital de información y el
cumplimiento de las acciones de innovación con
base en la evidencia (IEBE)?
7. Justificación
Esta foto de Autor desconocido está bajo licencia CC BY-NC
Esta foto de Autor desconocido está bajo
licencia CC BY-SA
Esta foto de Autor desconocido está bajo licencia CC BY-SA
Esta foto de Autor desconocido está bajo licencia CC BY-NC-ND
8. Objetivo General
• Analizar la relación entre la capacidad percibida de la competencia
digital de información y la adopción de mecanismos de innovación
(que vinculan la investigación con la práctica) de docentes
universitarios, mediados con experiencias formativas que
incentivaron el uso de REA y de innovación educativa para contribuir
con un instrumento de calidad, tanto a nivel de validez como de
fiabilidad para evaluar las competencias digitales de información y
con un modelo validado de innovación.
9. Revisión de la literatura
Esta foto de Autor desconocido está bajo licencia CC BY-NC-ND
10. Nuevos
roles
docentes
Diseñadores de
materiales
Diseñadores de
ambientes de
aprendizaje
dinámicos y
colaborativos
Evaluadores
continuos
Orientadores
Seleccionadores
reflexivos de las
TIC
Buscar, seleccionar,
evaluar y
transformar
información en
conocimiento
Barroso y Cabero-Almenara (2013); Spiteri y Chang Rundgren (2017); Cabero-Almenara (2017); Rué (2015).
Formación
docente en las
competencias
digitales
11. ¿Qué es la competencia digital?
Según Ferrari (2013) la competencia
digital es la capacidad para utilizar las
tecnologías y la información de modo
crítico y reflexivo, con el propósito de
construir nuevo conocimiento
(Instefjord y Munthe, 2017).
Ferrari (2013); INTEF (2013)
12. Modelos/marcos de la Competencia digital
docente
Unesco (2008, 2018)
ISTE (2018)
INTEF (2017)
Enlaces (2011)
Fraser et al. (2013)
MEN (2013)
(Redecker & Punie, 2017)
13. ¿Qué es la Competencia Digital de
Información (CDI)?
• La CDI es entendida como la
habilidad para tratar la información y
aprovecharla para construir
conocimiento y aprendizaje y dar
respuesta a los problemas (Álvarez &
Gisbert, 2015), ello supone reconocer
la necesidad de información, de
localizarla, analizarla, gestionarla y
transformarla en conocimiento.
14. Dimensiones de la CDI
Estudios Dimensiones
ACLR (2000)
Pérez-Escoda y Fernández-Villavicencio (2016)
Jaramillo et al. (2011)
Rodríguez-Conde et al. (2012)
Ala-Mutka (2011)
Cabra, Marciales, Gualteros y Mancipe (2011)
Reconocer la necesidad de información, acceder, evaluar y hacer
uso de ella.
(Álvarez & Gisbert, 2015)
(Bielba-Calvo et al., 2015)
(SCONUL, 2011)
ANZILL (Bundy, 2004)
Gestionar la información, procesar la información, necesidad de
información, de localizarla, analizarla, gestionarla y transformarla
en conocimiento.
Ferrari (2013)
INTEF (2013, 2017)
(UNESCO, 2011a)
García Llorente et al. (2019)
Ramírez (2012)
Reconocer necesidades para acceder a la información, localizarla,
evaluarla, almacenarla, recuperarla.
Hacer uso efectivo y ético de la información.
Aplicar la información para crear y comunicar conocimiento.
15. Instrumentos para evaluar la CDD y CDI
Tipo Autor Estudio de referencia
Encuesta List et al. (2020) Ng (2012)
Cuestionario Tondeur et al. (2017) ICT-CF (2013)
Cuestionario Moreno-Guerrero et al. (2020) INTEF (2017)
Encuesta Cai y Gut (2020) Ferrari (2013), dimensión resolución de
problemas.
Cuestionario García Llorente et al. (2019) IL-HUMASS (Rodríguez Conde et al.,
2012)
Cuestionario Álvarez y Gisbert (2015) UNESCO (2008); Larraz (2012)
Cuestionario Toledo Sánchez y Maldonado-
Radillo (2015)
ACRL (2000) y UNESCO (2008)
Cuestionario Moreno et al. (2018) INTEF (2017)
Cuestionario Boudet (2017) INTEF (2017)
16. Factores que influyen en la competencia
digital
Laborales
(Mirzajani et al., 2016)
Académicos
(Alvárez, 2014)
Contextuales
(Lucas et al., 2021)
Actitudinales
(Ata y Yıldırım, 2019)
Personales
(Cai et al., 2017)
17. Innovación en la práctica docente
Innovación en la práctica
docente
(Kahn, 2018)
Innovación como
proceso
(Fidalgo-Blanco & Sein-
Echaluce, 2018; Ramírez-
Montoya, 2012)
IEBE
Innovación como
resultado
(Gallardo et al., 2019;
García-Peñalvo, 2015;
Ramírez-Montoya &
Valenzuela, 2019)
REA
19. Factores que influyen para el desarrollo de la
innovación
Laborales
(Neri et al, 2017)
Académicos
(Lašáková, Bajzíková y
Dedze, 2017)
Contextuales
(Juklová, 2015)
Actitudinales
(Casas y Stojanovic, 2013)
Personales
(Pascual y Navio-Gámez,
2018)
20. Instrumentos de evaluación de la innovación
Tipo Autor Aspectos que evalúa
Cuestionario García-González y Ramírez-
Montoya (2019)
Cambio/novedad, valor agregado y tipo de innovación
Cuestionario Santos Rego et al. (2017) Práctica docente,
compromiso social de la universidad, prácticas docentes
innovadoras
Cuestionario Marcelo et al. (2015) Actividades de aprendizaje que requieren tecnología:
Asimilativas, gestión de la información, comunicativa,
productiva, experiencial y evaluativa.
Encuesta Cano García et al. (2018) Campo de conocimiento, número y tipo de asignatura
implicada, curso, número de estudiantes, vinculación con
un proyecto de innovación institucional, qué, cómo y
quién evaluó, y recogida de evidencias del
funcionamiento de la innovación.
Entrevista Walder (2017) ¿Cuáles son las percepciones de los participantes sobre
los efectos de la innovación pedagógica en la enseñanza y
en el aprendizaje? ¿La innovación pedagógica
implementada por los innovadores satisfacen las razones
por las cuáles los profesores innovan?
22. Diseño de investigación mixta explicativa secuencial
Notación: CUAN → cual
Muestra: 271 → 15 (docentes universitarios
bimodales)
Instrumentos: Cuestionario → entrevista y
rejilla de observación
Fase 1: estudio correlacional (Onwuegbuzie &
Teddlie, 2003)
Fase 2: estudio fenomenológico (Creswell,
2013; Merriam, 2009)
Fuentes de información: profesores,
documentos significativos, material digital.
Adaptado de Creswell (2015)
23. Categorías e indicadores de estudio
Categoría Definición de Categoría Indicadores Técnica de Recolección de datos
Percepción de la Competencia
Digital de Información
Se refiere a la forma en cómo
los profesores perciben o
diagnostican su competencia
digital necesaria para buscar,
evaluar y seleccionar la
información, los recursos
educativos disponibles en
Internet
Los indicadores ayudaron a determinar la
percepción del docente en cuanto a su
competencia digital cuando busca, selecciona,
evalúa, almacena y comunica la información y
cómo se apropió de la competencia digital
para usar los recursos educativos o evidencias
de buenas prácticas en la enseñanza
Se aplicaron los siguientes
instrumentos:
Cuestionario
Entrevista
Análisis de documentos con el
apoyo de la rejilla de observación.
Innovación Educativa con base en
la Evidencia
Se refiere a la forma en cómo
el profesor plantea la
innovación en su práctica
docente, en las estrategias,
en la metodología, en los
recursos educativos, en los
ambientes de aprendizaje, en
el contenido utilizando
evidencias, REA que
refuercen su innovación
Los indicadores ayudaron a determinar las
consideraciones que el docente innovador
tomó en cuenta para la elaboración de la
propuesta de innovación (diseño e
implementación) que comprende las fases de
IEBE. Para el diseño (delimitación del objeto
innovador, búsqueda de evidencias,
formulación de innovación); para la
implementación (evaluación, publicación y
difusión de la innovación)
Se aplicaron los siguientes
instrumentos:
Cuestionario, Entrevista, Análisis de
documentos con el apoyo de la
rejilla de observación.
Cuadro de triple entrada
(Ramírez-Montoya, 2011)
24. Pilotaje de los instrumentos
2 expertos
internacionales
expertos
nacionales
Claridad en la
redacción
Coherencia con
la dimensión
Suficiencia de
ítems
Aplicación de los
instrumentos
Cuestionario
11 profesores
Tiempo
Redacción
preguntas
Entrevista
5 profesores
Claridad de las
preguntas
Rejilla de
observación
5 tareas
Accesibilidad disponibilidad
25. Análisis de datos: Comprobación de la fiabilidad y
validez de constructo de la escala CD-REA
Validez de
constructo:
Estructura de la
escala
• Análisis Factorial Confirmatorio
• Planteando un modelo de 4
factores
• Aplicando máxima verosimilitud
(método de estimación)
Fiabilidad:
Consistencia
interna
• Cuatro subescalas
• Alpha de Cronbach
Relación de las
puntuaciones de la
escala con diversas
características
•Análisis de varianza (ANOVA)
•Variable dependiente: puntuación
global de la escala
•Variables independientes:
características personales,
académicas, laborales y de
desempeño profesional
26. Análisis de datos: Verificación del modelo IEBE
Grado de relación
entre los pasos de
IEBE
Evaluar la
interdependencia entre
los pasos de IEBE
Análisis de las relaciones (entre variables si o no)
mediante: Chi-cuadrado y el coeficiente de
correlación phi de Pearson
Matriz de correlaciones (relación entre los pasos de
IEBE)
Índices de riesgo (no cumplimiento de un paso dado
en función del no cumplimiento de los pasos previos)
Grado de
dependencia entre
los pasos (Modelo
predictivo mediante
Regresión logística)
Variable dependiente: Paso VI. Publicación y difusión
de la innovación
Variables independientes: Paso I, II, III, IV, V
Añadieron variables: personales, de desempeño
profesional, académicas, laborales
27. Validez y fiabilidad
Validez Presencia en el estudio
De constructo Los categorías emergieron de la revisión de la literatura. Se comprobó la validez de
constructo mediante análisis factorial confirmatorio.
Validez Interna Las preguntas se elaboraron con base en la literatura. Además se contó con la validación de
expertos a los instrumentos y con la prueba piloto.
Validez Externa Los instrumentos y los resultados de este estudio pueden utilizarse en otros contextos y
servir para la realización de otras investigaciones.
Fiabilidad Se aseguró la fiabilidad a través de la comprobación de la consistencia interna de la escala
mediante Alpha de Cronbach.
Triangulación La investigación esta sustentada en el análisis de varios instrumentos como cuestionario,
entrevista y rejilla de observación.
Yin (2003)
29. Resultados descriptivos: Nivel de destreza en las
distintas CDI
271
docentes
Alrededor de 40% →
10 años experiencia
4 áreas de
conocimiento
Licenciatura, Maestría
y Doctorado
Escala: 16 ítems y 5 niveles de dominio
(nada, poco, regular, bueno y excelente)
Competencia para el almacenamiento
y recuperación de información que
produce → 2 ítems
Almacena la
información en
repositorios de
acceso abierto
(2.88)
Agrega
metadatos y
licencia Creative
Commons (2.43))
Competencia
para la
comunicación de
la información
por medios
tecnológicos → 1
ítem
Difunde la
información en
repositorios de
acceso abierto
(2.79)
Apropiación de la competencia digital
de la información (REA) →2 ítems
Promueve el
interés por
publicar en
abierto (2.81)
Colabora en
redes
académicas de
discusión en
investigación
sobre REA (2.28)
30. Comprobación del ajuste de la estructura del
cuestionario (validez de constructo)
Modelo confirmatorio inicial con 4 factores
Modelo 2 g. l. P 2/g. l. GFI CFI RMSEA
Modelo
Original
469,72 99 ,000 4,75 ,796 ,852 ,118
Modelo
Ajustado
217,96 86 ,000 2,53 ,909 ,947 ,075
31. Comprobación del ajuste de la estructura del
cuestionario (validez de constructo)
Modelo confirmatorio modificado con covarianzas añadidas
(Byrne, 2010)
Se confirma la estructura factorial en forma de modelo de 4 factores
Modelo 2 g. l. P 2/g. l. GFI CFI RMSEA
Modelo
Original
469,72 99 ,000 4,75 ,796 ,852 ,118
Modelo
Ajustado
217,96 86 ,000 2,53 ,909 ,947 ,075
32. Consistencia interna de las subescalas (fiabilidad)
No. Subescalas Alpha de Cronbach
1 Competencias de búsqueda y evaluación .873
2 Competencias de almacenamiento y
recuperación
.893
3 Competencias de comunicación de la
información
.805
4 Competencias de uso de REA .788
Por lo tanto, se confirma la validez de constructo de la escala CD-REA y la consistencia interna de las subescalas
33. Relación de las puntuaciones de la escala con diversas
características: ANOVA
VD: Puntuación global en la escala
como medida de las CDI
VI: Variables personales, académicos,
laborales y de desempeño profesional
correlaciones moderadas a altas (r entre .60 y .88;
p<.001 en todos los casos)
34. Relación de las puntuaciones de la escala con diversas
características: Anova
Origen F Sig. Eta2 parcial Potencia
Horas de uso de internet en general 5,420 ,001 ,067 ,934
Sexo 8,230 ,005 ,035 ,815
N.º de cursos realizados relacionados con REA 3,084 ,028 ,039 ,716
Años de docencia 4,247 ,006 ,053 ,857
Nivel académico 2,766 ,043 ,035 ,664
N º horas para comunicación con estudiantes 3,155 ,026 ,040 ,727
N º acciones ejercidas para innovar en el aula 16,891 ,000 ,069 ,984
N º habilidades que poseen en el uso de las TIC 24,705 ,000 ,098 ,999
Variables personales, laborales, académicas y de desempeño profesional asociadas con la puntuación
global en la escala CD-REA
Nota: R2= .421; R2 corregida= .365.
Por lo tanto, se confirma la relación entre las puntuaciones obtenidas por los sujetos en la escala CD-REA y diversas características
35. Resultados cualitativos de la categoría de CDI
Participantes
Área Masculino Femenino Total entrevistados
Técnica 2 3 5
Socio
Humanística
0 4 4
Biológica y
Biomédica
3 0 3
Administrati
va
1 2 3
Total
participantes
6 9 15
Participantes de entrevistas y de tareas por área
Categorías Subcategorías
Búsqueda, selección y
evaluación de
información /
evidencias.
Fuentes de consulta de información.
Problemas de acceso a la información.
Técnicas de búsqueda.
Selección/evaluación de la información.
Almacenamiento de la
información.
Herramientas tecnológicas de almacenamiento de la información.
Uso/ Procesamiento
información.
Criterios de uso de información.
Comunicación/Difusión
de la información.
Medios para comunicar la información.
Categorías y Subcategorías establecidos CDI
Entrevistas: preguntas sobre la experiencia vivida de aplicación de las CDI en el desarrollo de la tarea integradora
36. Categoría: Búsqueda selección y evaluación de la información
Nube de fuentes de consulta de información
preferidas Problemas presentados para el
acceso a la información
Entrevistado
Acceso a información relevante que
se encuentra en base de datos de
pago
“esto representa una preocupación
porque hay mucha información
buena a la que no se puede
acceder” (E062).
Acceso limitado a las bases de
datos disponibles a través de la
biblioteca virtual desde los hogares
“solo se puede acceder desde los
predios universitarios” (E065).
La mayor parte de la información se
encuentra en inglés
“la mayoría de la información
buena se encuentre en inglés, lo
que dificulta la interpretación”
(E066)
La falta de tiempo “el tiempo es necesario para hacer
una buena búsqueda y selección de
información” (E069); “hay tanto
que leer y para ello se requiere de
tiempo” (E066).
Problemas presentados para el acceso a la información
37. Categoría: Búsqueda selección y evaluación de la
información
Criterios de selección y evaluación de la
información
Mapa de clusters de técnicas de
búsqueda de información aplicadas
38. Categoría: Almacenamiento de la información
Almacenamiento Entrevistado
Ordenador personal y
Onedrive
“Me permitió almacenar la información de la tarea
en la nube y tenerla disponible desde cualquier lugar
con acceso a Internet, así como trabajarla y
manipularla de forma colaborativa” (E061).
Gestor bibliográfico
Mendeley
“Mendeley es una herramienta que, además de
permitir gestionar citas y bibliografía, sirve como una
gran herramienta para almacenar, consultar
información y analizarla” (E063); “Mendeley me
permitió organizar en carpetas por variables de
investigación la información encontrada” (E065).
Redes sociales:
YouTube
“Me permitió almacenar videos grabados, que
fueron parte de la innovación” (E068).
Plataforma virtual de
aprendizaje
institucional y el
repositorio de
recursos educativos
abiertos
“Me sirvieron para almacenar los recursos
producidos para los estudiantes y por aquellos que
formaron parte de los proyectos de innovación
planteados” (E062).
Categoría: Uso y procesamiento de la
información
39. Matriz por entrevistados de motivos para difundir la información
Mapa de categoría: comunicación y difusión de la información
Categoría: Comunicación y/o difusión de la
información
Segmentos codificados en relación con el motivo
de compartir información
40. Resultados: confirmación del modelo IEBE
Comprobar la asociación entre todos los posibles pares de comparaciones (15)
Se calculó Chi cuadrado y el Coeficiente de correlación phi para cada comparación
Se encontraron asociaciones significativas en 14 de los 15 contrastes chi-cuadrados efectuados
Únicamente en los pasos 1 y 2 no se encontró relación significativa, en el resto de contrastes la relación encontrada
se dio en forma directa esperada, de tal modo que el cumplimiento de uno de ellos estaba asociado con el cumplimiento del otro
Y viceversa en caso de incumplimiento.
Los coeficientes de correlación phi nos permitirán interpretar la fuerza de esta asociación
41. Evaluación de la interdependencia entre los pasos IEBE: Matriz de
correlaciones
II III IV V VI
I Delimitar el objeto de
innovación
.005 .229*** .152* .252*** .244***
II Búsqueda de evidencias .153* .137* .212*** .265***
III Formulación de la
innovación
.446*** .438*** .395***
IV Aplicación de la innovación .533*** .300***
V Evaluación de la innovación .442***
VI Publicación y difusión de la
innovación
Nota: * p<.05; ** p<.01; *** p<.001
Coeficientes de correlación Phi entre los distintos pasos del IEBE, junto con su significación estadística.
42. Grado de dependencia entre pasos IEBE: Regresión logística binaria
Modelos Resultados Observaciones
Modelo 1
5 predictores
Índices de ajuste aceptable del modelo a los datos (R2
de Cox y Snell= .166; R2 de Nagelkerke= .383)
Clasificación correcta de 88.5 % de los casos (sujetos)
El modelo retuvo 4 de los 5 predictores (I, II, III, V)
Porcentaje de falsas alarmas alto
40%
Clasifica a un sujeto que cumple
como si no cumpliese
Porcentaje de falsos positivos es
satisfactorio de un 3.7%
Clasifica a un sujeto que no
cumple como que si cumple
Modelo 2
5 predictores + lista de
variables (personales,
laborales, académicas y
de desempeño
profesional)
índices de ajuste superiores a los obtenidos en el
primer análisis (R2 de Cox y Snell= .273; R2 de
Nagelkerke= .420).
Clasificación correcta de sujetos de 88.4%
El análisis de regresión logística retuvo 5 predictores
Modelo más apropiado
Porcentaje de falsas alarmas
desciende al 32.2%
Porcentaje de falsos positivos es
muy satisfactorio 5.7%
Paso VI → variable dependiente
Pasos I, II, III, IV, V + lista de variables →variable independiente
43. Grado de dependencia entre pasos IEBE: Modelo Predictivo
B E.T. Wald gl Sig. RV
I. Delimitación del objeto de
innovación
1,011 ,438 5,326 1 ,021 2,749
II. Búsqueda de evidencias 1,106 ,401 7,618 1 ,006 3,023
III. Formulación de la innovación 1,338 ,403 11,013 1 ,001 3,810
V. Evaluación de la innovación 1,395 ,403 11,981 1 ,001 4,035
Doctorado 1,041 ,392 7,058 1 ,008 2,833
Constante -4,323 ,552 61,358 1 ,000 ,013
Coeficientes para los predictores seleccionados por el modelo 2 de regresión logística
44. Resultados cualitativos de la categoría cumplimiento de las
acciones de IEBE
13 tareas → 15 participantes
4 áreas de conocimiento
Categorías Subcategorías
Delimitación del objeto
de innovación
Tema del proyecto, pregunta de investigación,
objetivos, contexto.
Búsqueda de evidencias Revistas arbitradas (de pago o abiertas), libros;
literatura en inglés o en español; cumplimiento de
normas APA.
Formulación de
innovación
Análisis de necesidades, descripción de necesidades
del proyecto, descripción de participantes.
Aplicación y evaluación Objetivo del proyecto, muestra de aplicación, fases de
intervención, instrumento, técnicas de análisis de
datos, resultados y conclusiones.
Publicación y difusión Congresos arbitrados, revistas Scopus y de acceso
abierto.
Categorías y subcategorías establecidos modelo IEBE • Categoría: Delimitación del
objeto de innovación
45. • Categoría: Formulación de la
innovación.
Resultados cualitativos de la categoría cumplimiento de las
acciones de IEBE
• Categoría: Búsqueda de
evidencias disponibles.
Matriz de tareas participantes del paso III de IEBE
46. Resultados cualitativos de la categoría cumplimiento de las
acciones de IEBE
Nube de elementos del paso IV y V de IEBE Mapa de categorías del paso VI de IEBE
• Categoría: Difusión de la
innovación
• Categoría: Implementación
(aplicación) y evaluación.
48. Modelo de Innovación Educativa basado en la evidencia
vinculado a las CDI
Sarango-Lapo, Mena y Ramírez-Montoya (2021)
49. Componentes de entrada del Modelo
Filosófico
• Nuevo paradigma de actuación profesional en educación (nivel microsocial)
• Objetivo es la renovación de la práctica docente apoyada por el análisis y difusión de evidencias
Teórico
• Modelo de enseñanza aprendizaje para la aplicación del conocimiento e innovación en la práctica docente
• Integra los 6 pasos de IEBE y las dimensiones de la CDI
Práctico
• Se base en el ODS4 y OEI (2014)
• Los docentes conozcan evidencias de buenas prácticas para estimular la innovación e investigación
Operacional
• Permitir a la institución encontrar oportunidades de innovación interna a partir de la comprensión de la realidad
• Planteamiento del docente de soluciones innovadoras de impacto social y responder a una necesidad o problema
Escudero-Nahón y Ramírez-Montoya (2021)
50. Consideraciones para aplicación del modelo de innovación
propuesto
Modelo
IEBE + CDI
Definición y
procedimiento
Espacios e
infraestructura
Roles:
estudiantes y
facilitadores y
equipo
multidisciplinar
Contenidos,
estrategias,
técnicas y
recursos.
Evaluación y
comunicación
Visión
innovadora en
el diseño y
mirada de
impacto.
Ramírez-Montoya (2012)
52. Conclusiones: Sobre la pregunta de investigación
¿Cuál es la relación entre la competencia digital de información percibida y
las innovaciones basadas en la evidencia (IEBE)?
La relación se ubica en:
• Las CDI influyen en el cumplimiento de las acciones de innovación con base
en IEBE.
• La percepción de los docentes de su CDI en las dimensiones de búsqueda,
selección, evaluación de información; y de uso de la información
contribuyeron al cumplimiento de los pasos de IEBE.
• Los resultados señalaron que hace falta reforzar en los docentes el uso de
la información para la investigación (apropiación de la CDI), así como la
publicación y difusión de la información (almacenamiento y comunicación
de la información) en sitios abiertos. Por lo que, la formación docente aún
supone un reto.
53. Conclusiones: Sobre el objetivo
• Se puede concluir que la escala mide las competencias digitales de información
de los docentes bimodales con una validez y fiabilidad pertinente.
• El perfil de CDI para el uso de REA en un docente bimodal, hace referencia a una
persona joven, preferiblemente con maestría o doctorado, con habilidades en el
uso de las TIC y formación en REA, innovador en el aula, que se comunica con
frecuencia con sus estudiantes y que tiene una elevada actividad online. Para este
perfil encontrado el sexo no se constituye en relevante.
• Los resultados obtenidos confirman el modelo subyacente a la innovación
educativa basada en evidencias (IEBE) y pone de manifiesto la dependencia
existente entre los pasos que lo componen, siendo el punto crítico el paso III
(formulación de la innovación).
• La importancia del ejercicio de la investigación como facilitadora del desarrollo de
esta metodología ha sido confirmada por la inclusión del doctorado como uno de
los predictores del éxito en la innovación educativa.
54. Limitaciones y recomendaciones
• Los resultados no pueden generalizarse a todo tipo de docentes, dado que
los docentes de la muestra eran bimodales.
• El estudio se basa en las autopercepciones de los docentes y podría
considerarse como un sesgo con algún margen considerable de
subjetividad.
• Se recomienda que la formación del profesorado sea contextualizada
teniendo en cuenta las necesidades de los profesores y la institución, en
concordancia con los problemas reales de la práctica docente.
• En cuanto a la experiencia docente, se sugiere la necesidad de analizar las
características de los profesores jóvenes en su experiencia docente, ya que
son este grupo etario los que presentan niveles altos en las competencias
digitales.
55. Trabajos futuros
• Para futuras investigaciones, sería interesante analizar si existen
diferencias (y, en caso afirmativo, de qué tipo son), entre los docentes
presenciales y los docentes a distancia, en los aspectos que pretende
medir la escala.
• Otra posible línea de investigación sería la encaminada a fundamentar
las investigaciones futuras en datos cognitivos y conductuales
objetivos en lugar de (o además) de las autopercepciones.
• Sería interesante investigar el efecto que sobre el cumplimiento del
modelo tienen otras posibles variables que puedan mejorar la calidad
de las clasificaciones hechas por el modelo.
56. Referencias
• Ala-Mutka, K. (2011). Mapping digital competence: towards a conceptual
understanding. En JCR Technical Notes. Recuperado de: ftp://s-
jrcsvqpx102p.jrc.es/pub/EURdoc/JRC67075_TN.pdf
• Álvarez, J.-F., & Gisbert, M. (2015). Grado de alfabetización informacional del
profesorado de Secundaria en España: Creencias y autopercepciones. Comunicar,
45, 187-194. https://doi.org/10.3916/C45-2015-20
• Barroso, J., & Cabero-Almenara, J. (2013). Nuevos escenarios digitales: Las
tecnologías de la información y la comunicación aplicadas a la formación y
desarrollo curricular. Pirámide.
• Cabero-Almenara, J. (2017). La formación en la era digital: ambientes
enriquecidos por la tecnología. Revista Gestión de la Innovación en Educación
Superior, 2(2), 41-64.
• Comisión Europea. (2016). DigCompOrg. Digitally Competent Educational
Organisations. https://ec.europa.eu/jrc/en/digcomporg
57. Referencias
• Enlaces. (2011). Competencias y Estándares TIC para la Profesión Docente. Centro
de Educación y Tecnología (Enlaces). Ministerio de Educación, Gobierno de Chile.
http://www.enlaces.cl/libros/docentes/files/docente.pdf
• Ferrari, A. (2013). DIGCOMP: A Framework for Developing and Understanding
Digital Competence in Europe. https://doi.org/10.2788/52966
• Fraser, J., Atkins, L., & Hall, R. (2013). DigiLit Leicester. Supporting Teachers,
Promoting Digital Literacy, Transforming Learning. Leicester City Council.
http://www.digilitleic.com/wp-content/uploads/2013/10/DigiLit-Leicester-
report-130625-FINAL.pdf
• INTEF. (2013). Marco común de Competencia Digital Docente. V.2.0. Plan de
Cultura Digital en la Escuela., 1-75. https://doi.org/10.2788/52966
• INTEF. (2017). Marco Común de Competencia Digital Docente. Marco Estratégico
de Desarrollo Profesional Docente. https://tinyurl.com/ybk2uuge
58. Referencias
• Instefjord, E., & Munthe, E. (2017). Educating digitally competent teachers: A study of integration of
professional digital competence in teacher education. Teaching and Teacher Education, 67, 37-45.
https://doi.org/10.1016/j.tate.2017.05.016
• MEN. (2013). Competencias TIC para el desarrollo profesional docente. En Ministerio de Educación Nacional
de Colombia (p. 74). https://doi.org/10.4992/jjpsy.82.9
• Redecker, C., & Punie, Y. (2017). Digital Competence of Educators:DigCompEdu. Luxembourg: Publications
Office of the European Union. https://doi.org/10.2760/159770
• Rué, J. (2015). Entornos de aprendizaje digitales y calidad en la Educación Superior. Editorial UOC.
• Spiteri, M., & Chang Rundgren, S. N. (2017). Maltese primary teachers’ digital competence: implications for
continuing professional development. European Journal of Teacher Education, 40(4), 521-534.
https://doi.org/10.1080/02619768.2017.1342242
• UNESCO. (2016). Educación para la Ciudadanía Mundial. Preparar a los educandos para los retos del siglo
XXI. https://doi.org/10.1016/j.cub.2003.12.054
• UNESCO. (2008). Estándares de competencias en TIC para Docentes. En Organización de las Naciones Unidas
para la Educación la Ciencia y la Cultura.
• UNESCO. (2018). ICT Competency Framework for Teachers. En United Nations Educational, Scientific and
Cultural Orgatization (Vol. 53, Número 9). https://doi.org/10.1017/CBO9781107415324.004
61. Celia Paola Sarango L.
cpsarango@utpl.edu.ec
Salamanca, 25 de Octubre del 2021
Sarango-Lapo, C.P. (2021). Competencia digital docente como contribución a estimular procesos de innovación educativa (Tesis doctoral). Universidad de
Salamanca, España.