L'expression du but : fiche et exercices niveau C1 FLE
Cou rs de methodologie
1. Cours de Méthodologie
«3eme année institut supérieur des sciences infirmières
La phase empirique : la collecte
des données
Telelaz Galaa
2013/2014
2. La
phase empirique concerne les
activités qui entourent la collecte des
données sur le terrain. Pour effectuer
la collecte des données il faut
développer un ou des instruments de
mesure appropriés aux données à
recueillir ou de les adapter au contexte
de l’étude.
3. Les
tests empiriques servent à corroborer
ou à réfuter les conjectures théoriques en
les confrontant à la réalité qu’ils doivent
expliquer.
L’organisation des tests empiriques passe
par la résolution de trois questions :
4. En
répondant à la question « observer quoi ? », le
chercheur oriente son investigation de la réalité en fonction
des indicateurs et des indices de son cadre théorique
opérationnalisé.
En
répondant à la question « observer qui ? », le chercheur
choisit
un
échantillon
selon
une
technique
d’échantillonnage probabiliste ou non probabiliste.
En
répondant à la question « observer comment ? », le
chercheur choisit un mode de collecte de données ou
d’investigation
(méthode
expérimentale, observation, entrevue, etc.) en tenant
compte de leurs avantages et de leurs désavantages
respectifs.
5. Alors
les tests empiriques sont des
dispositifs de jugement de la validité
des conjectures théoriques produite
par la raison du chercheur.
Plus une théorie résiste aux tests
empiriques, plus elle doit être proche
de la vérité.
6. Une
fois la question de la recherche et le
devis ont été formulés et précisés, il faut
déterminer les variables à mesurer et
l’outil de mesure appropriée aux concepts
abstraits,
c.-à-d.
l’élaboration
des
définitions opérationnelles des variables.
7. LA MESURE DANS LA CONDUITE DE LA RECHERCHE :
•La mesure sert à décrire la qualité ou la
quantité d’une variable, telle que l’état de
santé, les attitudes, les comportements, le
stress, le coping…etc.
•Elle permit d’évaluer le changement ou
l’impacte d’une intervention ou un
traitement sur les participants.
•Elle sert à comparer et à établir des
différences entre les personnes ou les
groupes
•
•Elle permit de tirer des conclusions sur
l’existence de relation entre des variables.
En somme elle sert
à:
Evaluer les
phénomènes étudies
avec
plus
de
précision possible.
8. DÉFINITION DE LA MESURE :
La
mesure est définie comme le processus
menant à l’attribution de nombre à des
objets, à des événements ou à des personnes
selon des règles préétablies (anticipé=
préjugée) dans le bute de déterminer la valeur
d’un attribut donner (Green et Lewis, 1986 ;
Kerlinger, 1973 ; Nunnaly et Berstein, 1994)
Quand
les nombres représentent des quantités
(variables continues) ou des qualités (variables
discrètes).
9. Variables continues : dans ce cas, les résultats
(numériques) peuvent prendre n’importe quelle valeur
sur un continuum à l’intérieur d’une étendu définie de
valeurs.
Variables discrètes : ou les résultats prend des valeurs
bien spécifiques, qui ne sont généralement pas
numériques, sont décrites par des unités entières
(sexe, âge…) une variable discrète prend un nombre limité
de valeurs.
10.
La règle de mesure assure que l’attribution de nombres
s’effectue de manière constante avec le même outil d’un objet à
un autre ou d’une personne à une autre.
11. LA NATURE INDIRECTE DE LA MESURE :
Les variables sont les pierres angulaires de la question de
recherche. La plus part des mesures relèvent d’une forme
d’abstraction,
de
généralisation
de
situation, d’observation, ou de comportement particuliers
ce qui fait que très peut de variables sont directement
mesurable.
12.
Exemple de mesure directes : les concepts comme la
pulsation, respiration ou de la taille sont descriptifs et de
ce fais accessibles immédiatement par le sens.
Exemple de mesures indirectes : les concepts comme la
température on ne peut l’observer comme telle mais faire
la lecture d’un degré sur une colonne de mercure d’un
thermomètre, aussi la fréquence cardiaque car elle
dépende de divers facteurs…
13. Mesurer est un procédé par lequel
on lie des concepts abstraits à des
indicateurs
14. LES CONSTRUITS ET LES INDICATEURS
EMPIRIQUES :
Les concepts qui représentent des comportements ou des
événements non observables sont appelés « construits » ils ne
sont pas mesurables. Pour les mesurer il faut avoir recours à des
mesures indirectes. Donc les construits doivent être convertis en
indicateurs empiriques pour être mesurables.
L’indicateur empirique est l’expression quantifiable et
mesurable d’un construit ; il présente des caractéristiques ou
des dimensions de ce construit.
L’indicateur permet de traduire en termes concrets des
variables aussi abstraites que l’estime de soi, l’espoir ou la qualité
de vie en établissant un lien avec la mesure empirique.
15.
L’indicateur peut être constitué par des séries
d’énoncés placés sur une échelle de mesure ou par une
réponse à une question figurant dans un questionnaire.
Pour déterminer les indicateurs empiriques appropriées
aux constructions à mesurer, il faut prendre en compte
toutes les dimensions ou facettes d’un construit et sa
signification.
17. LES OPÉRATIONS MENANT À LA QUANTIFICATION :
L’opérationnalisation est le processus par lequel une variable abstraite est traduite
ou transposée en phénomène observable et mesurable.
Les variables généralement sont définies de façon conceptuelle et opérationnelle.
La définition conceptuelle :
A pour but de transmettre aussi clairement l’idée véhiculée par le construit .
C’est une façon de d’écrire la signification d’une variable dans le contexte de ses
bases théorique et en fonction du but de l’étude.
Exemple: Bandura (1977) définit le concept de l’efficacité personnelle perçue
comme l’ensemble des jugements que les personnes expriment sur leurs capacités à
accomplir avec succès une action déterminée. L’efficacité personnelle perçue
suppose que la personne se sent capable de réaliser l’action. Cependant elle ne
précise pas comment mesurer les capacités à réaliser l’action ou comment
interpréter ces termes, mes sert de guide aux opérations menant à la mesure.
18. LA DÉFINITION OPÉRATIONNELLE:
C’est une définition d’une variable fondée sur la manière dont elle sera
utilisée dans une étude en particulier.
Une variable dépendante peut contenir plus d’une dimension ou
caractéristiques
c’est pour cela qu’il faut chercher dans la
documentation les descriptions de cette variable.
Mais il y a certaines variables qui sont opérationnalisées de manière à
tenir compte de leur manipulation par le chercheur, exemple dans
l’étude de type expérimental dans ce cas on considère les valeurs des
différents niveaux d’une variable indépendante, comme la présence ou
l’absence d’une intervention.
Elle doit inclure le nombre de sessions, la méthode utilisée, les
caractéristiques les fondements théoriques, etc.
Elle doit comporter la manière dont on prévoit étudier et mesurer les
variables dans le contexte du but de l’étude.
19. LES RÈGLES DE MESURE :
Les mesures comportent des niveaux qui correspondent à un
ordre de classification selon que les nombres attribués
représentent des valeurs discrètes (catégories) ou des valeurs
continues (quantités).
La règle de mesure quantitative détermine des quantités, des
degrés, des gradations ou encore l’étendue des observations
effectuées.
20. L. Bachman (90 : 23) représente la relation entre
mesures, tests et évaluation dans le schéma à la figure 1
21.
La confusion entre évaluation et mesure est fréquente. Quelques exemples vont
nous aider à clarifier la situation.
Zone 1 : on peut évaluer sans mesurer, comme lorsque l’on utilise des descriptions
de performances d’étudiants dans le but d’identifier des problèmes d’apprentissage
(observations, grilles, inventaires).
Zone 2 : On peut évaluer à partir d’une mesure sans qu’il y ait test. Il en est ainsi de
l’utilisation d’un classement par le professeur pour noter les performances
d’étudiants (A est meilleur que B, B est meilleur que C, etc.).
Zone 3 : Intersection des trois ensembles : il s’agit des tests d’évaluation à partir
d’une mesure. Entrent dans cette catégorie les batteries de tests institutionnels
(normatifs et critères).
Zone 4 : Il peut y avoir tests de mesure sans qu’il y ait évaluation, comme lorsque
l’on utilise un test comme critère en recherche en acquisition des langues secondes.
Zone 5 : Finalement il est possible de concevoir une mesure qui ne soit pas obtenue
par un test et qui n’entre pas dans le domaine de l’évaluation. C’est ce qui se produit
lorsqu’on affecte un codage numérique à des sujets dans une recherche en
acquisition des langues secondes en fonction de la langue maternelle (cf. échelle
ordinale).
22.
On a tendance à opposer qualitatif à quantitatif en
renvoyant à la distinction test objectif/test subjectif
(un jugement de la part de l’examinateur est
nécessaire ou ne l’est pas). On affecte le label
quantitatif à tout ce qui est test objectif, faisant par
là l’amalgame : quantitatif égal chiffré (tests
corrigés par ordinateur).
Rappelons qu’en évaluation dite quantitative la
subjectivité n’est pas évacuée, le jugement existe
quand même : il s’agit du jugement du concepteur
du test qui a sélectionné les items. Il y a en réalité
toujours jugement.
23. LES ÉCHELLES AU NIVEAUX DE MESURE
Stevens (1946,1951) a conçu quatre échelles ou
niveaux de mesure:
L’échelle nominal
L’échelle ordinale
L’échelle d’intervalle
L’échelle de proposition
24. L’ÉCHELLE NOMINALE
Est le niveaux de mesure le plus élémentaire;
Elle utilise des nombres à valeur uniquement nominale;
Elle classe des objets dans une catégorie donnée,
Elles n’ont aucun caractère quantitatif
Exemple;
le sexe;1: masculin, 2: féminin
La nationalité; 1:canadien, 2: tunisien, 3: algérien, ou autres
Les statistiques descriptives utilisées:
Compter le nombre
Distributions de fréquence
Les pourcentages
Les corrélations de contingence
Une échelle nominale comprend des nombres qui servent à nommer
ou coder les classes ou les catégories d’un attribut donné, Ce
codage est arbitraire, et il n’y a pas de hiérarchie entre les
différentes catégories.
25. L’ÉCHELLE NOMINALE
L'échelle nominale consiste à classer les individus
selon certaines caractéristiques, voici des
exemples :
Le sexe;
Le groupe ethnique;
Oui / Non.
Sur un questionnaire:
◻Homme
◻Femmes
&
◻Oui
◻Non
26. L’ÉCHELLE ORDINALE
Sur une échelle ordinale, un classement hiérarchique est effectué
entre les catégories. De nombreuses échelles ordinales sont utilisées
en évaluation, par exemple lorsque l’on évalue une performance en
fonction d’une grille donnant des définitions subjectives de niveau. Il
est à noter que la distance, ou l’intervalle, qui sépare une catégorie
quelconque de la suivante est variable.
Exemple:
1 complètement dépendant,
2 nécessite l’assistance d’une personne,
3 nécessite une assistance partielle
4 complètement indépendant
Elle permet l’utilisation de statistiques descriptives;
Distributions de fréquences,
Les pourcentages,
Les corrélations de contingence.
27. L’ÉCHELLE ORDINALE
L'échelle ordinale consiste à classer des données
en ordre croissant ou décroissant, voici des
exemples :
Degré d'étude;
L'âge;
Le revenu.
Sur un questionnaire:
L'âge:
18 ans et moins;
19 à 30 ans;
31 à 50 ans;
51 ans et plus.
28. L’ÉCHELLE D’INTERVALLE
les données échelonnées sur une échelle d'intervalle
sont des données quantitatives;
Ce niveau de mesure fait intervenir des nombres à
valeur numérique séparés par des intervalles égaux
L’échelle d’intervalle assure des valeurs continues.
Il ne s'agit pas de nombres absolus en raison de
l’absence d’un point zéro.
Exemple
de la température en degrés (une
température de 30° à l’échelle Celsius n’équivaut pas
à deux fois température de 15 degrés, parce que le
degré 0 n’indique pas l’absence de température; c’est
un zéro arbitraire, conventionnel.
29. L’ÉCHELLE D’INTERVALLE
En Psychologie, les scores auxquels on attribue le statut de
"mesures d'intervalles" ne correspondent pas nécessairement à
des grandeurs expérimentales. Par exemple, les scores de
QI, associés aux profils de performance observables avec ce que
l'on appelle des tests d'intelligence, sont considérés comme des
mesures d'intervalle par convention.
L'échelle d'intervalle consiste à présenter les données en
catégories égales, voici un exemple :À quel fréquence fumez
vous au cour d’un mois:
◻0 - 3 fois
◻4 - 7 fois
◻8 - 11 fois
◻12 - 15 fois
◻16 - 19 fois
◻20 - 23 fois
◻24 - 27 fois
◻28 - 31 fois
30. L’ÉCHELLE PROPORTIONNELLE
Occupe le niveau le plus élevé dans l’ordre hiérarchique
des échelles de mesure.
Elle admet le zéro absolu, qui correspond a l’absence
d’un phénomène.
La distance, la durée, le poids, l’âge et le revenue sont
autant de variables couramment mesurées sur une
échelle de proportion
l’échelle de proportion donne accès à toutes les
opérations mathématiques et statistiques de même
qu’elle permet de transformer les données d’une échelle
à l’autre.
31. L’ÉCHELLE PROPORTIONNELLE
c’est l’existence d’un zéro absolu qui concrétise l’absence totale
du phénomène. Il est alors possible de faire des comparaisons en
termes de proportion. Par exemple, il est possible de dire qu’une
personne de 80 kg est deux fois plus lourde qu’une personne de
40 kg. Ces échelles sont plus caractéristiques des sciences
physiques.
Lorsque l’on administre un test de langue, il est impossible de
dire qu’une personne qui obtient un résultat chiffré de 60 est
deux fois plus compétente que la personne qui obtient un
résultat chiffré de 30. De la même façon, il est impossible de dire
que la personne qui obtient un résultat chiffré de zéro a une
absence totale de compétence en langue (à supposer que l’on
puisse démontrer qu’il est possible de définir l’absence de
compétence en langue).
32. RÉSUMÉ
Dans une étude transversale menée par
Mainvil, Lawson, Horwth, McKenzie et Reeder2009dans le but
d’élaborer des échelles fidèles et valides pour mesurer l’efficacité
personnelle perçue chez des adultes qui consomment des fruits
et des légumes, les quatre niveaux de mesure ont été
représentés comme suit:
À l’échelle nominale: le sexe- les femmes étaient représentées à
58% et les hommes à 42%;
À l’échelle ordinale: le degré de scolarité- il s’échelonnait du
primaire à l’université;
À l’échelle d’intervalle: la variable efficacité personnelle perçueelle a été mesurée sur une échelle de likert;
À l’échelle de proportion : les groupes d’âges – il s’agissait des
25-29ans, 30-39ans, 40-49ans et 50-60ans.
Les opération mathématiques sont limitées dans les échelles
nominale et ordinale, mais sont plus variées dans les échelles
d’intervalle et de proportion (échelles numériques)
33. Type de variable
Qualitative
Variables non-métriques
Nominale
Discrète
sexe : f ou g
– Langues parlées
socioprofessionnelle
Comptage des effectifs
par modalité
(fréquences absolues)
Calcule de
pourcentage
(fréquences relatives)
Et le mode
Ordinale
Discrète
– Degré de satisfaction
– Notes alphabétiques
(A+, A,..)
Opinion: un
peut, beaucoup, passio
nnément etc…
pas du tout
Comptage par
modalité
(fréquences
absolues et
fréquences
relatives et
mode),
la médiane.
Quantitative
Variables métriques
Variable de
Proportion
Variable
d’intervalle
Discrète–
Nombre
d’enfants
Nombre de
consultation
Nombre
d’avortement
Continue
issue du
rapport entre
deux
comptages.
– Âge
Continue
Discrète
Date de
naissance
Poids
Température
5°La tension
La taille
(Fréquences absolues) et autre calcul de pourcentage
(fréquences relatives) en
passant par la moyenne, la médiane et l'écart-type jusqu'à la
modélisation numérique.
35. LA FIDELITE DES MESURES
Fidélité: constance des valeurs obtenues à l’aide d’un instrument
de mesure
1. La stabilité temporelle à l’aide du test-retest:
Elle s’évalue par l’approche test-retest qui renvoient au degré de
corrélation entre deux mesures prélevées à deux moment différents
(deux à quatre semaines), mais dans des mêmes conditions et auprès
des mêmes personnes, donnent des résultats semblables.
Le chercheur doit pouvoir justifier la constance des réponses dans son
interprétation des comparaison entre le test et le retest (portny et
watkins, 2009).
La relation entre les deux ensembles de scores s’exprime par un
coefficient de stabilité.
Exemple p406 du livre de MFF (2010)
36. LA FIDELITE DES MESURES
2. La fidélité entre les observateurs (juges)
Il ya deux type: la fidélité intrajuge et la fidélité
interjuges
La fidélité intrajuge: renvoie à la stabilité des
données enregistrées par un observateur sur la
mesure de la même variable à plusieurs occasions
(temps1 et temps 2)
La fidélité interjuges: entre les observateurs renvoie
à la variation entre deux observateurs ou plus qui
mesure un même groupe de sujets. Elle permet
d’évaluer la fidélité ou la constance entre les
estimations issues des observations plutôt que le
degré d’exactitude de l’instrument.
37. LA FIDELITE DES MESURES
3. La fidélité des formes parallèles ou équivalentes
C’est la fidélité entre deux versions équivalentes d’un instrument de mesure. Selon
la technique des formes parallèles la fidélité est évaluée en fonction du degré de
corrélation obtenu entre deux versions équivalentes d’un même instrument
appliquées aux même personnes pour mesurer le même construit .
4. La cohérence interne:
Degré d’homogénéité de tous les énoncés d’un instrument de mesure, par le
calcule de la corrélation entre les énoncés de cet instrument.
4.1 La fidélité moitié-moitié:
une mesure qui consiste à diviser les énoncés d’une échelle en deux moitié et à
corréler les résultats.
4.2 Le coefficient alpha de Cronbach:
Indice de fidélité qui évalue la cohérence interne d’une échelle composée de
plusieurs énoncés. Le coefficient alpha est utilisé lorsqu’il existe plusieurs choix
d’établissement des score (comme l’échelle de likert). Lorsque chaque énoncé
ne comporte qe deux réponses (vrai ou faux) on utilise la statistique KuderRichardson (KR-20)
4.3 la corrélation interénoncés:
Une corrélation de énoncés individuels d’une échelle avec le score global. Il
s’agie d’une indication de la cohérence interne.
38. LA VALIDITÉ DES MESURES
Validité: capacité d’un instrument à mesurer ce qu’il doit
mesurer.
La validité correspond au degré de précision avec lequel le
concept est présenté par des énoncés particuliers présents
dans l’instrument de mesure.
Les types de validités: différents approches peuvent être
utilissées pour déterminer le degré de validité des
instruments de mesure.
39. LA VALIDITÉ DES MESURES
La validité de continue: présentabilité des
énoncés d’un instrument afin de mesurer un
concept ou un domaine particulier, on cherche a
répondre à la question suivante: « jusqu’à quel
point les énoncés d’un instrument de mesur
représentent-ils l’ensemble des énoncés par
rapport à un domaine particulier ou à un concept? »
La validité normal: qualité d’un test dont les énoncés
semblent mesurer le contenu ou le domaine de
l’étude. Exemple p413
40. LA VALIDITÉ DES MESURES
La validité de construit: se rapport à la capacité d’un
instrument à mesurer un concept abstrait ou construit, défini
dans son contexte théorique. On évalue dans quelle mesure
les relations entre les énoncés de l’instrument sont cohérentes
avec la théorie et les concepts définis de façon opérationnelle.
Méthode des groupes connus: technique servant à estimer la validité
de construit par la quelle on évalue la capacité d’un instrument à
distinguer les personnes possédant une caractéristique particulière
connue de celles qui ne la possèdent pas.
La méthode par vérification d’hypothèses: selon cette approche, le
chercheur se sert de la théorie ou du cadre de recherche sous-jacent
à son étude pour formuler des hypothèses. La vérification des
hypothèses permet d’inférer d’après les résultats obtenus de savoir
si la logique sous-jacente à l’instrument de mesure peut expliquer
les données obtenues.
41. LA VALIDITÉ DES MESURES
Méthode multitraits-multiméthodes:
une méthode dans laquelle le chercheur examine la convergence et la
divergence des échelles afin de déterminer ce qu’un instrument
mesure et ce qu’il ne mesure pas.
validité convergente: évaluation du degré de similitude des résultats
ou d’élévation des corrélations issues de deux instruments censés
mesurer le même phénomène.
validité divergente : évaluation de degré de différence des résultats
ou de faiblesse des corrélations issues des instruments censés
mesurer des caractéristiques différentes.
Analyse factorielle: une technique multivariée qui permet de
regrouper en facteurs des variables fortement liées entre elles et
d’indiquer si une échelle est unidimensionnelle ou
multidimensionnelle.
42. LA VALIDITÉ DES MESURES
La validité liée au critère: qualité d’un instrument de mesure
qui es apte à évaluer dans le présent (validité concomitante)
ou à prédire (validité prédictive)
La validité concomitante:
Degré de corrélation entre deux mesures du même construit
appliquées au même moment à des sujets.
La validité prédictive: validité qui tente d’établir qu’une mesure
actuelle sera un prédicteur valide d’un résultat futur.
43. Les types de validités de mesures
Type
Description
Validité de contenu
Indique que les énoncés qui déterminent le continu sont représentatifs de la variable
mesurée. Les questionnaires y ont surtout recours.
Validité de construit
Etablit la capacité de l’instrument à mesurer un concept abstrait et le degré avec lequel
l’instrument reflète les composantes théoriques du construit.
Méthode des groupes connus
Indique la capacité de l’instrument à établir une distinction entre des groupes dont la
différence est connue.
Méthode par vérification d’hypothèses
Estime la validité par la vérification d’hypothèses formulées en fonction de la théorie
ou du cadre de recherche.
Méthode multitraits-multiméthodes
La validité convergente indique que deux mesures censées refléter le même construit
produiront des résultats similaires.
La validité divergente indique que l’instrument mesure un seul construit et le
différencie d’autres construits.
Analyse factorielle
Indique que la structure théorique s’accorde avec les composantes sous-jacentes au
construit.
Validité liée au critère
Indique que les résultats obtenus à l’aide d’un instrument (cible) sont comparables à
ceux issus d’un instrument servant de critère. Elle se vérifie au moyenne de la validité
concomitante ou de la ou de la validité prédictive.
Validité concomitante
Etablit la validité quand deux mesures sont prises simultanément. Elle est utilisée pour
déterminer la relation entre un instrument de mesure et un critère externe.
L’instrument est valide si les scores son corrélés avec ceux du critère.
Validité prédictive
Détermine que le résultat actuel, obtenu à l’aide d’un instrument cible peut être utilisé
pour prédire un résultat ultérieur.
44. LA POPULATION ET L’ÉCHANTILLON
Echantillonnage:
Est le processus par le quel un groupe de personnes
ou une portion de la population (échantillon) est
choisi en vue de représenter une population entière.
La population:
Elle
désigne
l’ensemble
des
éléments
(personnes,
objets…)
qui
présentent
des
caractéristiques communs. Ce que l’on vise à obtenir.
L’élément est l’unité de base de la population auprès
de laquelle l’information est recueillie; il s’agit d’une
personne, mais cela peut aussi être un groupe….)
45. LA POPULATION ET L’ÉCHANTILLON
La population est constituée d’un ensemble de
personnes , d’écoles, de villes, etc. exemple p224
L’échantillonnage suppose une définition claire de
la population prise en considération et des
éléments qui la composent
On appel « population cible » la population qui fais
l’objet de l’étude. Toutefois, la population que l’on
examine est celle qui est accessible au chercheur.
46. LA POPULATION CIBLE ET LA POPULATION
ACCESSIBLE
La population cible: est l’ensemble des personnes
qui satisfont aux critères de sélection définis
d’avance et qui permettent de faire des
généralisation. Exemple page 225
La population accessible: proportion de la
population cible que l’on peut atteindre. Exemple
p225
47. LES RAPPORTS ENTRE LA P.CIBLE, LA P.
ACCESSIBLE ET L’ECHANTILLON P225
Population
Population
accessible
Échantillon
48. LES CRITÈRES D’INCLUSION ET D’EXCLUSION
Les critères d’inclusion: décrivent les caractéristiques essentielles d’une
population que l’on souhaite trouvez chez des sujets, pour obtenir un
échantillon le plus homogène possible, on doit considérer l’étendu des
caractéristiques présentes dans la population, comme le groupe
d’âge, l’état de santé ainsi que les facteurs démographiques et
géographiques…c-a-d qui présente des caractéristiques particulières.
Les critères d’exclusion: servent à déterminer les sujets qui ne feront pas
partie de l’échantillon, en raison de leurs caractéristiques différent. Exemple
P226
La spécification des critères d’inclusions et d’exclusions est
une étape importante dans le processus de recherche, parce
qu’ils permettent de définir la population à l’étude.
49. L’ÉCHANTILLON
Un échantillon est une fraction ou un sous-ensemble
d’une population sur laquelle porte l’étude. Il doit être
autant
que
possible,
représentatif
de
cette
population, c’est-à-dire que certaines caractéristiques
connues de la population doivent être présentes dans
l’échantillon.
L’utilisation d’un échantillon comporte des avantages
certains sur le plan pratique, à la condition de
représenter fidèlement la population à l’étude. La
constitution de l’échantillon peut varier selon le but
recherché, les contraintes qui s’exercent sur le terrain et
la capacité d’accès à la population étudiée.
50. LA REPRÉSENTATIVITÉ DE L’ÉCHANTILLON
un échantillon représentatif s’il peut, en raison de ses
caractéristiques, se substituer à l’ensemble de la
population cible. Pour généraliser les résultats de son
étude, le chercheur doit s’assurer que les réponses des
membres qui composent son échantillon sont
représentatives de celles qu’auraient les membres de la
population cible dans des circonstances similaires
(Portney et Watkins, 2009). Les personnes différent, et
leur différences observables sur les plans physique,
psychologique ou comportemental doivent etre
représentées dans l’échantillon.
51. LA REPRÉSENTATIVITÉ DE L’ÉCHANTILLON
Un échantillon représentatif reflète les caractéristiques
pertinentes et les variables de la population de
proportionnelle à ce qui existe dans la population.
Afin de de s’assurer qu’un échantillon représente une
population, le chercheur a recours à des techniques
d’échantillonnage
qui
permettent
de
minimiser
l’éventualité d’un biais.
52. LA REPRÉSENTATIVITÉ DE L’ÉCHANTILLON
Le biais d’échantillonnage:
Il survient quand les échantillons ne sont pas
soigneusement sélectionnés ou que les personnes
devant
composer
un
échantillon
sont
surreprésentées ou sous –représentées au regard
de certaines caractéristiques de la population
directement liées au phénomène à l’étude.
Le
biais
peut
être
conscient
ou
inconscient, mais, contrairement à l’erreur
d’echantillonnage est sous le contrôle du chercheur
(Nieswiadomy, 2008)
53. LES MÉTHODES DE L’ÉCHANTILLONNAGE
P227
L’échantillonnage probabiliste
C’est une méthode qui fait appel au hasard afin que
chaque élément de la population ait une chance
égale d’être choisi pour former l’échantillon.
Plusieurs techniques sont utilisées:
Aléatoire simple
Aléatoire systématique (ex: p231)
Aléatoire stratifié (proportionnel /non proportionnel)
(proportion=choisir la même proportion d’unités
dans chaque strate) (ex:p232)
Echantillonnage en grappes (ex:p233)
54. LES MÉTHODES DE L’ÉCHANTILLONNAGE
L’ÉCHANTILLONNAGE PROBABILISTE
Aléatoire simple:
Méthode d’échantillonnage probabiliste qui donne à
chaque élément de la population une probabilité
égale d’être inclus dans l’échantillon.
Aléatoire systématique:
Méthode d’échantillonnage probabiliste qui consiste à
déterminer de façon aléatoire le premier ou le 2eme
ou les 5 premiers…etc) élément d’une liste, puis à
choisir chaque nom sur la liste d’après un intervalle
fixe.
55. LES MÉTHODES DE L’ÉCHANTILLONNAGE
L’ÉCHANTILLONNAGE PROBABILISTE
Aléatoire stratifié (proportionnel /non proportionnel)
Méthode d’échantillonnage probabiliste selon laquelle la
population est répartie en fonction de certaines
caractéristiques afin de constituer des strates qui seront
représentées dans l’échantillon.
Les caractéristiques peuvent se rapporter, entre autres, à
l’âge, au sexe, à la classe sociale et à l’ethnie.
Aléatoire stratifié proportionnel:
Méthode d’échantillonnage permettant de choisir la même
proportion d’unités dans chaque strate.
Aléatoire stratifié non proportionnel:
Méthode d’échantillonnage dans lequel certaines strates sont
surreprésentées, étant donné leur proportion réelle dans la
population.
56. LES MÉTHODES DE L’ÉCHANTILLONNAGE
L’ÉCHANTILLONNAGE PROBABILISTE
Echantillonnage en grappes:
Une grappe est un ensemble d’unités d’une population
, constitué au moyen de critères définis
Méthode d’échantillonnage probabiliste qui consiste à choisir
les éléments de la population en grappes plutôt qu’un à la
fois.
On fait appel à cette méthode dans les études à grand échelle
ou dans les cas où, la population à étudier étant très
dispersée, il serait difficile ou même impossible de dresser
une liste exhaustive de toutes les personnes qui en font
partie.
Échantillonnage en grappes, aussi appeler
«
échantillonnage par faisceaux », consiste à prélever au
hasard des groupes de personnes plutôt que des personnes
isolées. Choisir des classes entières d’élèves plutôt que des
élèves dispersés individuellement.
57. LES MÉTHODES DE L’ÉCHANTILLONNAGE
L’échantillonnage
non probabiliste
contrairement à l’échantillonnage probabiliste, ne
donne pas à tous les éléments de la population
une chance égale d’être choisis pour former
l’échantillon. Cette méthode risque de
permettre une représentativité faible ou
nulle, ce qui le rend moins fiable que
l’échantillonnage probabiliste pour généraliser
des résultats. De plus cette méthode ne permet
pas dévaluer l’erreur d’échantillonnage.
58. LES MÉTHODES DE L’ÉCHANTILLONNAGE
L’ÉCHANTILLONNAGE NON PROBABILISTE
L’échantillonnage non probabiliste
Échantillonnage accidentel
Échantillonnage par cotas
Échantillonnage par choix résonné
Échantillonnage par réseaux
(Voire ex; p239)
59. LES MÉTHODES DE L’ÉCHANTILLONNAGE
L’ÉCHANTILLONNAGE NON PROBABILISTE
Échantillonnage accidentel
Le type d’échantillonnage non probabiliste le plus
courant (ou par convenance). Selon cette
méthode, les sujet sont choisis en fonction de leur
disponibilité.
Il
est constitué de personnes facilement
accessibles qui répondent a des critères d’inclusion
précis jusqu’à l’atteinte de la taille souhaitée de
l’échantillon.
Se définie aussi par la recherche de volontaires.
60. LES MÉTHODES DE L’ÉCHANTILLONNAGE
L’ÉCHANTILLONNAGE NON PROBABILISTE
Échantillonnage par quotas:
L’échantillonnage non probabiliste peut aussi faire
usage d’éléments de stratification. Dans ce cas il
consiste à former des sous-groupes qui présentent
des caractéristiques définies, afin que celles-ci
soient représentées dans des proportion identiques
à celle qui existent dans la population
(proportionnellement égaux) en se fondant sur des
caractéristiques déterminées comme l’âge, le
sexe, l’ethnie, etc.
61. LES MÉTHODES DE L’ÉCHANTILLONNAGE
L’ÉCHANTILLONNAGE NON PROBABILISTE
Échantillonnage par choix résonné:
Aussi appelé échantillonnage intentionnel «typique»
ou «au jugé» , il consiste a sélectionner certaines
personnes en fonction de caractéristiques typiques
de la population à l’étude.
L’échantillonnage par choix raisonné est semblable à
l’échantillonnage par convenance, sauf qu’il
requiert de choisir des personnes et non leur simple
disponibilité.
Ce type d’échantillonnage est employé dans
certaines études qualitatives(Morse, 1991)
62. LES MÉTHODES DE L’ÉCHANTILLONNAGE
L’ÉCHANTILLONNAGE NON PROBABILISTE
Échantillonnage par réseaux:
Aussi appelé «échantillonnage en boule de neige»
est une technique qui permettant aux sujets
recrutés initialement de suggérer, à la demande du
chercheur.
Cette méthode s’appuie sur les réseaux sociaux
Il consiste a recrutées initialement selon des
critères de sélection précis de suggérer le nom
d’autres personnes qui leur paraissent répondre
aux mêmes critères.
63. L’ANALYSE STATISTIQUE DESCRIPTIVE
L’analyse statistique descriptive des données permet au
chercheur de résumer un ensemble de données brutes à l’aide
de tests statistiques.
Les données brutes sont organisées selon les divers niveaux de
mesure (échelles nominale, ordinale, d’intervalle et de
proportion), puis soumises à un traitement statistique. Celui-ci
renvoie à l’analyse des données numériques au moyen de
techniques statistiques.
Le choix des tests statistiques dépend en grand partie de la
fonction des variables dans une recherche, qui peut consister à
décrire (étude descriptive), à examiner des relations
d’associations (étude corrélationnelle) ou à vérifier des relations
causales (étude expérimentale).
Quel que soit le type d’étude, la statistique descriptive est
utilisée pour présenter les caractéristiques de l’échantillon
auprès duquel les données ont été recueillies.
64. L’ANALYSE STATISTIQUE DESCRIPTIVE
Les types de variables et les niveaux de mesure:
Les types de variables dépendent des niveaux de mesure.
Une variable est qualitative lorsque ses valeurs (qualités)
correspondent à des catégories.une variable qualitative est
nominale si elle ne présente pas de hiérarchie; elle est
ordinale s’il est possible d’établir un ordre de grandeur entre
les catégories.
Une variable est quantitative lorsque ses valeurs possible sont
des nombres (quantités) elle peut être discrète ou continue:
elle est discrète si les valeurs quelle peut prendre son
isolées les unes des autres, c’est-à-dire lorsqu’elle ne peut
couvrir toutes les valeurs d’un intervalle.
65. L’ANALYSE STATISTIQUE DESCRIPTIVE
Comme le niveau de mesure détermine le choix
des techniques statistiques à utiliser pour l’analyse
des données, il est important de se rappeler qu’il
existe quatre niveaux de mesure des variables
(nominal, ordinal, d’intervalle et de proportion)et
que l’on doit pouvoir reconnaître le niveau de
mesure des données que l’on s’apprête à
l’analyser.
66. L’ANALYSE STATISTIQUE DESCRIPTIVE
L’échelle ou la mesure nominale sert à différencier
les éléments les uns des autres et à les classer en
catégories sont mutuellement exclusives. Les nombres
assignés aux catégories sont simplement des symboles
ou des codes numériques, puisqu’ils n’ont aucune valeur
quantitative et n’indiquent que la similitude ou la
différence.
Concernant l’échelle ordinale, les éléments d’un
ensemble sont classés selon leur position relative par
rapport à un attribut donné. Les nombres assignés à
chaque catégorie indiquent l’ordre de grandeur
(direction) et non la qualité ou l’étendue de la différence.
67. L’ANALYSE STATISTIQUE DESCRIPTIVE
Pour assurer des valeurs continue, l’échelle d’intervalle
fait intervenir des nombres qui prennent une valeur numérique
et qui sont séparés par des intervalles égaux. Cette échelle se
caractérise du fait que le zéro et la gradation sont établis par
convention, et qu’ainsi le point de référence est un zéro
arbitraire. Elle permet de comparer deux valeurs par
soustraction, mais pas par manipulation ni par division.
L’échelle de proportion ou de rapport occupe le rang
supérieur de l’ordre hiérarchique des niveaux de mesure.les
nombres assignés aux variables quantitatives sont séparer par
des intervalles égaux et le point zéro est réel, c’est-à-dire qu’il
n’est pas établi par convention.
68. L’ANALYSE STATISTIQUE DESCRIPTIVE
Les analyses statistiques pour les données
nominales sont le mode(p490), la distribution de
fréquences, le pourcentage et la corrélation de
contingence.
Pour
les données ordinales, on ajoute la
médiane, l’étendue et le percentile.
Pour les données d’intervalles et de proportion, le
mode, la médiane (p490) et la moyenne peuvent
être utilisés. Ces données sont désignées par des
variables continues qui donnent accès à divers
tests statistiques.
69. L’ANALYSE STATISTIQUE DESCRIPTIVE
Les modalités de présentation des statistiques
descriptives:
Les distributions de fréquences;
Les mesures de tendance centrale;
Les mesures de dispersion et de position;
Les mesures servant à décrire des associations entre
deux variables (analyses bivariées)
70. L’ANALYSE STATISTIQUE DESCRIPTIVE
La
représentation et l’interprétation des
résultats:
La représentation des résultats d’analyses
descriptives:
Elle porte sur la description des faits qui a eu
lieu à l’étapes de l’analyses qualitative ou
statistique
des
données.
De
façon
générale, l’analyse doit mettre en évidence le
phénomène à l’étude ou les variables qui ont
servi à caractériser l’échantillon et celles qui
sont reliées entre elles, et déterminer si les
hypothèses mises à l’épreuve au moyen de
tests statistiques sont confirmées ou infirmées.
71. L’ANALYSE STATISTIQUE DESCRIPTIVE
La présentation des résultats provenant de
l’analyse descriptive quantitative des données a
pour but de donner un aperçu de l’ensemble des
caractéristiques des participants et d’examiner la
distribution des valeurs des principales variables
déterminer à l’aide de tests statistiques descriptive
telles que le mode, la moyenne, la variance et
l’écart type sont les principaux indicateurs
permettant de résumer les données. Comme la
moyenne est souvent assortie d’une mesure de
dispersion, on utilise l’écart type pour connaître
l’étalement des scores par rapport à la moyenne
72. L’ANALYSE STATISTIQUE DESCRIPTIVE
L’interprétation des résultats quantitatives;
L’interprétation consiste a intégrer l’information
factuelle, à la coordonner au raisonnement qui a
conduit à la formulation des questions ou des
hypothèses.
L’interprétation des résultats quantitatifs regroupe
donc les aspects suivants: la crédibilité des
résultats, la signification des résultats, les
conclusions, la généralisabilité des résultats et les
implications.