Se ha denunciado esta presentación.
Utilizamos tu perfil de LinkedIn y tus datos de actividad para personalizar los anuncios y mostrarte publicidad más relevante. Puedes cambiar tus preferencias de publicidad en cualquier momento.
Indicateurs de pilotage du numérique en EPLE
Observatoire des usages du numérique éducatif
Stage réalisé du 12/01/2015 au ...
Contexte du stage
1.1 Environnement professionnel
1.2 Mission
1.3 Présentation et limites de l’existant
Solution mise en p...
1 :: Contexte du stage
1.1 Environnement professionnel
3/28
La Délégation Académique au Numérique Éducatif (DANE)
Responsa...
1 :: Contexte du stage
1.1 Environnement professionnel
4/28
La Division des Services Informatiques (DSI)
Responsable : M. ...
1 :: Contexte du stage
1.2 Mission
5/28
Contexte
Indicateurs de pilotage du numérique en ELPE
Pilotage
 Feuille de route ...
1 :: Contexte du stage
1.3 Présentation et limites de l’existant
6/28
Solution initiale
Contexte du stage
1.1 Environnement professionnel
1.2 Mission
1.3 Présentation et limites de l’existant
Solution mise en p...
2 :: Solution mise en place
2.1 Schéma de principe
8/28
Solution décisionnelle
2 :: Solution mise en place
2.2 Enjeux
9/28
Deux axes de travail
Entrepôt de données
 60% à 70% du travail
 Fiabilité de...
Contexte du stage
1.1 Environnement professionnel
1.2 Mission
1.3 Présentation et limites de l’existant
Solution mise en p...
3 :: Mise en œuvre
3.1 TDD and Regression testing
11/28
Traditional Software Development
3 :: Mise en œuvre
3.1 TDD and Regression testing
12/28
Test-Driven development (TDD)
3 :: Mise en œuvre
3.1 TDD and Regression testing
13/28
Regression testing
 Ensure that changes have not introduced new b...
3 :: Mise en œuvre
3.1 TDD and Regression testing
14/28
Test-Case
New data
3 :: Mise en œuvre
3.1 TDD and Regression testing
15/28
The fixture
This method is called before a test is executed
Contai...
3 :: Mise en œuvre
3.1 TDD and Regression testing
16/28
Write tests with assertions
Assertion
for new
data
3 :: Mise en œuvre
3.1 TDD and Regression testing
17/28
Run the tests before coding the method
All previous
tests failed
3 :: Mise en œuvre
3.1 TDD and Regression testing
18/28
Refactor the code and run again automated tests
Repeat
until all
t...
Contexte du stage
1.1 Environnement professionnel
1.2 Mission
1.3 Présentation et limites de l’existant
Solution mise en p...
3 :: Mise en œuvre
3.2 Indicateurs et plus proches voisins
20/28
Attentes et problématique
Fournir des "indicateurs ENT" a...
3 :: Mise en œuvre
3.2 Indicateurs et plus proches voisins
21/28
Définition du « Modèle »
Variables observées : effectifs ...
3 :: Mise en œuvre
3.2 Indicateurs et plus proches voisins
22/28
Choix de la métrique
Contexte du stage
1.1 Environnement professionnel
1.2 Mission
1.3 Présentation et limites de l’existant
Solution mise en p...
4 :: Résultats obtenus
4.1 Exemples de tableaux de bord
24/28
Pertinence de la moyenne des plus proches voisins
EPLE à pri...
4 :: Résultats obtenus
4.2 Limites et perspectives
25/28
Incomplétude des indicateurs
 Associations applications/services...
Contexte du stage
1.1 Environnement professionnel
1.2 Mission
1.3 Présentation et limites de l’existant
Solution mise en p...
5 :: Conclusion
27/28
Mission
 Application « ObUs » opérationnelle
 Mise en service complète à venir
Apports personnels
...
28/28
Merci pour votre attention
Próxima SlideShare
Cargando en…5
×

Indicateurs de pilotage du numérique en EPLE

122 visualizaciones

Publicado el

Ce projet consiste à offrir à aux décideurs de l’académie de La Réunion, des tableaux de bord pertinents et facilement accessibles pour assurer le pilotage du numérique en établissement (EPLE). Ce travail s’intègre, d’une manière plus globale, dans la mise en place d’un observatoire des usages du numérique éducatif.

Publicado en: Datos y análisis
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

Indicateurs de pilotage du numérique en EPLE

  1. 1. Indicateurs de pilotage du numérique en EPLE Observatoire des usages du numérique éducatif Stage réalisé du 12/01/2015 au 04/07/2015 Nicolas Defaÿ SOUTENANCE DE STAGE DE MASTER 2 INFORMATIQUE - 25 JUIN 2015 - Tuteur professionnel : - M. François MILLET Tuteurs universitaires : - M. Frédéric MESNARD - M. Henri RALAMBONDRAINY
  2. 2. Contexte du stage 1.1 Environnement professionnel 1.2 Mission 1.3 Présentation et limites de l’existant Solution mise en place 2.1 Schéma de principe 2.2 Enjeux Mise en œuvre 3.1 Test-Driven Development (TDD) and Regression testing 3.2 Indicateurs et plus proches voisins Résultats obtenus 4.1 Exemples de tableaux de bord 4.2 Limites et perspectives Conclusion Plan de la présentation 1 2 3 4 5 2/28
  3. 3. 1 :: Contexte du stage 1.1 Environnement professionnel 3/28 La Délégation Académique au Numérique Éducatif (DANE) Responsable : M. François MILLET
  4. 4. 1 :: Contexte du stage 1.1 Environnement professionnel 4/28 La Division des Services Informatiques (DSI) Responsable : M. Philippe DEROUETTE
  5. 5. 1 :: Contexte du stage 1.2 Mission 5/28 Contexte Indicateurs de pilotage du numérique en ELPE Pilotage  Feuille de route académique  Projet national ENT  Élément stratégique pour les chefs d’établissement  Thème du concours de PERDIR Développer une solution de communication de données (reporting) dédiée au pilotage de l’ENT en EPLE Utilisateurs finaux : DANE, DSI, PERDIR, IA-IPR, CTICE Mission
  6. 6. 1 :: Contexte du stage 1.3 Présentation et limites de l’existant 6/28 Solution initiale
  7. 7. Contexte du stage 1.1 Environnement professionnel 1.2 Mission 1.3 Présentation et limites de l’existant Solution mise en place 2.1 Schéma de principe 2.2 Enjeux Mise en œuvre 3.1 Test-Driven Development (TDD) and Regression testing 3.2 Indicateurs et plus proches voisins Résultats obtenus 4.1 Exemples de tableaux de bord 4.2 Limites et perspectives Conclusion Plan de la présentation 1 2 3 4 5 7/28
  8. 8. 2 :: Solution mise en place 2.1 Schéma de principe 8/28 Solution décisionnelle
  9. 9. 2 :: Solution mise en place 2.2 Enjeux 9/28 Deux axes de travail Entrepôt de données  60% à 70% du travail  Fiabilité des données  Historisation des données Communication des données (reporting)  Indicateurs pertinents  Accessibilité et ergonomie TDD/Tests de régression Plus proches voisins
  10. 10. Contexte du stage 1.1 Environnement professionnel 1.2 Mission 1.3 Présentation et limites de l’existant Solution mise en place 2.1 Schéma de principe 2.2 Enjeux Mise en œuvre 3.1 Test-Driven Development (TDD) and Regression testing 3.2 Indicateurs et plus proches voisins Résultats obtenus 4.1 Exemples de tableaux de bord 4.2 Limites et perspectives Conclusion Plan de la présentation 1 2 3 4 5 10/28
  11. 11. 3 :: Mise en œuvre 3.1 TDD and Regression testing 11/28 Traditional Software Development
  12. 12. 3 :: Mise en œuvre 3.1 TDD and Regression testing 12/28 Test-Driven development (TDD)
  13. 13. 3 :: Mise en œuvre 3.1 TDD and Regression testing 13/28 Regression testing  Ensure that changes have not introduced new bugs  Requires automated testing tools Implementation  Define the new test-case  Write the new tests  Run the unit tests  Write the code  Repeat until all tests pass Example : Consideration of a new data
  14. 14. 3 :: Mise en œuvre 3.1 TDD and Regression testing 14/28 Test-Case New data
  15. 15. 3 :: Mise en œuvre 3.1 TDD and Regression testing 15/28 The fixture This method is called before a test is executed Contains all data
  16. 16. 3 :: Mise en œuvre 3.1 TDD and Regression testing 16/28 Write tests with assertions Assertion for new data
  17. 17. 3 :: Mise en œuvre 3.1 TDD and Regression testing 17/28 Run the tests before coding the method All previous tests failed
  18. 18. 3 :: Mise en œuvre 3.1 TDD and Regression testing 18/28 Refactor the code and run again automated tests Repeat until all tests pass
  19. 19. Contexte du stage 1.1 Environnement professionnel 1.2 Mission 1.3 Présentation et limites de l’existant Solution mise en place 2.1 Schéma de principe 2.2 Enjeux Mise en œuvre 3.1 Test-Driven Development (TDD) and Regression testing 3.2 Indicateurs et plus proches voisins Résultats obtenus 4.1 Exemples de tableaux de bord 4.2 Limites et perspectives Conclusion Plan de la présentation 1 2 3 4 5 19/28
  20. 20. 3 :: Mise en œuvre 3.2 Indicateurs et plus proches voisins 20/28 Attentes et problématique Fournir des "indicateurs ENT" aux établissements  % de comptes actifs  Nombre de visites Disparité des établissements en termes d’effectifs  Moyennes académiques peu pertinentes  Comment situer un établissement par rapport aux autres ? Donner pour chaque indicateur la moyenne des plus proches voisins (ppv)
  21. 21. 3 :: Mise en œuvre 3.2 Indicateurs et plus proches voisins 21/28 Définition du « Modèle » Variables observées : effectifs des établissements Nombre de voisins (k) : fonction de la répartition des établissements Calcul de distance : 4 métriques évaluées
  22. 22. 3 :: Mise en œuvre 3.2 Indicateurs et plus proches voisins 22/28 Choix de la métrique
  23. 23. Contexte du stage 1.1 Environnement professionnel 1.2 Mission 1.3 Présentation et limites de l’existant Solution mise en place 2.1 Schéma de principe 2.2 Enjeux Mise en œuvre 3.1 Test-Driven Development (TDD) and Regression testing 3.2 Indicateurs et plus proches voisins Résultats obtenus 4.1 Exemples de tableaux de bord 4.2 Limites et perspectives Conclusion Plan de la présentation 1 2 3 4 5 23/28
  24. 24. 4 :: Résultats obtenus 4.1 Exemples de tableaux de bord 24/28 Pertinence de la moyenne des plus proches voisins EPLE à priori mal positionné si on se réfère aux moyennes académiques  à relativiser EPLE à priori bien positionné si on se réfère aux moyennes académiques  à relativiser
  25. 25. 4 :: Résultats obtenus 4.2 Limites et perspectives 25/28 Incomplétude des indicateurs  Associations applications/services limitées  Prise en compte d’autres variables (zone géographique, CSP, résultats, …)  Audiences par catégories d’utilisateurs Perspectives (entrepôt)  Ajout de Datamart (Moodle, Canopé, Usages hors ENT, …)  Intégration dans l’entrepôt de l’université
  26. 26. Contexte du stage 1.1 Environnement professionnel 1.2 Mission 1.3 Présentation et limites de l’existant Solution mise en place 2.1 Schéma de principe 2.2 Enjeux Mise en œuvre 3.1 Test-Driven Development (TDD) and Regression testing 3.2 Indicateurs et plus proches voisins Résultats obtenus 4.1 Exemples de tableaux de bord 4.2 Limites et perspectives Conclusion Plan de la présentation 1 2 3 4 5 26/28
  27. 27. 5 :: Conclusion 27/28 Mission  Application « ObUs » opérationnelle  Mise en service complète à venir Apports personnels  Rencontres professionnelles  Fonctionnement des services  Expérience professionnelle en développement Perspectives  Poursuite du travail à la DANE  Projet de doctorat
  28. 28. 28/28 Merci pour votre attention

×