Examen intra Flashcards
Vocabulaire:
Paramètre + exemple
Mesure utilisée pour décrire la population (ex: ensemble des chômeurs du Québec)
Signes pour population (paramètres) + échantillon (indices statistiques)
Population= Moyenne: (genre de u) Écrat-type: (rond avec barre) Nombre d'unité: N Pourcentage: (pi)
Échantillon= Moyenne: (X barre) Écrat-type: s Nombre d'unité: n Pourcentage: p
Types d’échantillons au hasard
- simple
- grappes
- plusieurs degrés
(Permettent de déterminer la probabilité qu’a un élément de la population d’être inclus dans l’échantillon)
Échantillon au hasard simple (+ exemple)
Chance égale d’être sélectionné (ex: tirage au sort)
Échantillons non probabilistes (ou empirique) + exemple type
Ne permettent pas de déterminer la probabilité qu’a un élément de la population d’être inclus dans l’échantillon
(Exemple: échantillonnage de convenance, de volontaires)
Variable indépendante
C’est la cause. Condition qui est manipulée pour en observer les effets. (Ex: un traitement)
Variable explicative + exemple de niveau (variable indépendante)
Dans un étude non expérimentale ou corrélationnelle (ex: enquête). Pas manipulée, mais observée. Peut prendre diverses valeurs qu’on appelle des niveaux (ex: gars ou fille)
Variable dépendante
C’est la mesur de l’effet d’une variable indépendante. (Exemple: mon traitement est-il efficace ou non?)
Variable à expliquer (variable dépendante)
Dans étude non expérimentale ou corrélationnelle (ex: enquête) car pas de réelle relation de cause à effet parce qu’on ne contrôle pas les variables de confusion oi parasites
Variables de confusion (ou parasite) + exemple
Autres causes possible (ex: dans mon traitement, d’autres causes qui amène la réussite ou l’échec) (ex: la conduite automobile, gars ou fille change quelque chose, donc on va prendre juste un des deux)
4 types déchelles de mesure de la variable dépendante
- nominale
- ordinale
- à intervalles
- de rapport
Variables discontinues (nominales + qualitatives)
Valeurs nominales ou qualitatives. Valeurs catégorielles (un ou l’autre, pas entre deux, ex le sexe des sujets)
Peuvent aussi être ordinales (ex: classement à un examen par rapport aux autres étudiants de la classe)
Variables continues (intervalles+rapport)
Intervalles. (Ex: quotient intellectuel des sujets ou échelle de Likert (degré d’accord))
Rapports. (Ex: argent en banque). Ont un zéro absolu
Les 3 plans de recherche classique
- à groupe indépendant
- a mesures répetées
- plan combiné
Plan à groupes indépendants + formulation
Deux groupes de sujet ou plus, mesurées une seule fois (ex: sexe / masculin ou féminin / nombre de boites de savon acheté)
Formalisation : 2
Plan à mesures répetées + formulation
Un seul groupe de sujets mesurés plus d’une fois (ex: temps de la mesure / avant publicité ou après publicité / nombre de boites de savon acheté par hommes et femmes)
Formulation : (2)
Plan combiné + formulation
Combinaison des deux groupes (indépendants+mesures répetées) (ex: temps de la mesure / avant publicité (féminin ou masculin) et après publicité (féminin ou masculin) / nombres de boites de savon acheté)
Qu’est-ce qu’un histogramme?
Diagramme a bande
Qu’est-ce qu’un polygone de fréquence?
Diagramme a ligne brisée
Qu’est-ce que le mode?
Mesure de…
La mesure qui revient le plus (la plus fréquente)
Mesure de tendance centrale
Qu’est-ce que la médiane?
Mesure de …
Résultat au centre de la distribution
Mesure de tendance centrale
Qu’est-ce que la moyenne?
Mesure de la tendance centrale la plus utile
Les 3 mesures de tendances centrales
- mode
- médiane
- moyenne
Dans une distribution normale, le mode, la médiane et la moyenne sont….
Égales
4 mesures de dispersion
- l’étendue
- l’écart-type
- le skewness (asymétrie)
- le kurtosis (kurtose ou aplatissement)
L’étendue
(L’étendue interquartile aussi)
Mesure de….
On soustrait le minimum au maximum (on soustrait : derniere valeur - premiere valeur)
Mesure de dispersion
Étendue interquartile: calcule la différence entre deux autres valeurs plus stable. Se trouve en retirant 25% des scores les plus faibles, 25% des scores kes plus élevés, puis utiliser l’étendue
L’écart-type ou déviation standard
Mesur de….
La racine carrée de la variance (variance : sommation au carrés des X - la moyenne, divisée par n-1)
Mesure de dispertion
Les deux prémisses pour qu’un échantillon soit aléatoire (et donc représentatif de la population)
1- chaque membre de la population doit avoir une chance égale d’être sélectionné
2- les observations doivent être égales les unes des autres
Le skewness (asymétrie) Mesure de... Snewness positif = ... Skewness négatif = ... Skewness = 0 = .... Varie de ....
Nous renseigne si la majorité des sujets ont des résultats élévés ont des résultats faibles (skewness positif), potentiellement normaux (skewness = 0) ou élevés (skweness négatif)
Varie de moins infini a plus infini
Mesure de dispersion
Le kurtosis (kurtose ou aplatissement) Mesure de.... Kurtosis négative = .... Kurtosis = 0 = .... Kurtosis positive = .... Varie de...
Nous renseigne sinles sujets ont des résultats très étalés du plus faible au plus élevé (kurtosis négatif ou distribution placycurtique), des résultat potentiellement normaux (kurtosis = 0) ou des résultats très concentrés aux alentours du mode (kurtosis positive ou distribution leptocurtique)
Mesure de dispersion
Varie de moins infini a plus infini
Courbes skewness (+,-, normale)
\+ = curve plus haute a gauche - = curve plus haute a droite Normale = curve plus haute au milieu
Courbes kurtose
- = curve plus plate \+ = curve tres pointue Normale = curve ronde, pas pointue mais pas étendue
Distribution normale:
- comment est la courbe?
- 2 caractéristiques pour que ce soit normal
- Courbe en forme de cloche
- doit être unimodale et symétrique (on peut alors utiliser les tests paramétriques T et les analyses de variance
Tester la normalité de la distribution avec le test de Kolmogorov-Smirnov ou Shapiro-Wilk
-combien de participants?
K-S: avec plus de 50 participants
S-W: avec 50 participants et moins
Socre Z
- comment le calculer
- exemple d’utilisation
- (le score individuel - la moyenne) / l’écart-type
- ex: comparer les résultats, à une même matière de deux étudiants dans deux écoles différentes
Pourcentage distribution normale (dans la cloche)
- proche de la moyenne
- très supérieur ou très inférieurs
- extrêmement supérieurs ou extrêmement inférieurs (.0214)
- 68% proche de la moyenne (.3413 de chaque coté)
- 5% très supérieur ou très inférieurs (.1359) (plus ou moins 1,96 unité de score Z)
- 1% extrêmement supérieurs ou extrêmement inférieurs (.0214) (plus ou moins 2,58 unités de score Z)
Statistiques inférentielles:
-utilisées quand….
-employé quand on généralise les conclusions d’un échantillon à une population
Erreurs peuvent être dues à…: (types d’erreures de mesure + exemple pour chaque)
- erreur de l’instrument de mesure (ex: question mal comprise dans une enquête)
- l’erreur du sujet (ex: celui qui veut donner une réponse mais en inscrit une autre)
- l’erreur de l’expérimentateur (ou l’interviewer (ex: erreur de saisie des données)
- l’erreur due au hasard ( différences dans les échantillons)
Est-il préférable d’utiliser les teste paramétriques ou non-paramétriques et pourquoi?
Paramétriques, car ils sont légèrement plus puissants (capable de détecter un effet lorsqu’il existe)
Lettre pour: Corrélation Chi-charré Test T ANOVA
Corrélation (r)
Chi-carré (x2)
Test T (T)
ANOVA (F)
Calculer les degrés de liberté pour
- test T à échantillon unique
- test T à groupes indépendant
- corrélation de Pearson
- chi-carré
- ANOVA simple (one-way)
- corrélation de Pearson
- test T à échantillon unique: nombre de participants - 1
- test T à groupes indépendant:
sommation des nombres de participants par groupe - 1
-corrélation de Pearson:
Nombre d’observations (participante) - le nombre de mesures corrélées (variables)
-chi-carré:
Produit du nombre de niveaux de la ou les variables - 1
-ANOVA simple (one-way):
2 degrés de liberté:
•inter-groupe: se situe au numérateur : nombre de groupes -1
•intra-groupe: se situe au dénominateur : nombre total de sujets- le nombre de groupes
-corrélation de Pearson :
Nombre d’observations (sujets) - le nombre de variables
Sig. Doit etre égal a combien pour que le test statistique soit significatif?
0,05
2 manières de présenter les résultats
1- tableaux (de fréquence)
2- graphiques
Objectif premier de la corrélation bivariée
Quantifier la relation entre deux mesures continues (mesurer à quel point les mesures varient simultanément)
Corrélation bivariée
Relation directe?
Relation inverse?
Aucune relation?
Relation directe: si un indicidu obtient un score élevé à la mesure X, obtient aussi un score élevé à la mesure Y
Relation inverse: un indicidu obtient un score élevé à la mesure X, obtient un score faible à la mesure Y
Aucune relation: un indicidu obtient un score élevé à la mesure X, obtient un score quelquonque à la mesure Y
La corrélation entre deux variables peut etre attribuable a 3 choses
1- relation de cause à effet (coup de marteau sur le pouce cause de la douleur)
2- une cause commune (ex: chaleur est une cause commune ou variable parasite, fait augmenter le nombre de noyade et de vente de crème glacée)
3- une relation fortuite (fausse corrélation) (ex: réussite à l’examen et l’âge de la personne)
Pour qu’il y ait causalité, il faut que la cause produise (…) et qu’il n’y ait pas (…) en son (…), que la (…) précède l’effet et que n’interviennent pas de variables (…)
L’effet …. d’effet….. absence…. cause… parasites
Important de noter que la méthode corrélationnelle ne fait qu’observer les variables et ne permet pas un contrôle parfait des variables de confusion! On ne peut donc jamais etre certain de…
La causalité lorsqu’on utilise cette méthode
L’étude corrélationnelle simplifiée:
Mesurer….. et évaluer……
Mesurer deux variables (par observation) et à évaluer le niveau de relation qui existe entre elles
Comment quantifier la force de la relation dans l’étude corrélationnelle
Avec le coefficient de corrélation (qui va de -1 a +1)
3 manieres de Calculer le coefficient de Pearson
1- r = (produit des scores standards (Z) de chacune des deux mesures) / nombre de sujets (N)-1
E Zxi • Zyi
_____________
N-1
2- à partir des écarts à la moyenne (tableau)
3- à partir des scores bruts (tableau)
Valeurs extrêmes
Valeurs éloignées qui faussent les résultats de la corrélation de Pearson.
Valeurs extrêmes elevées = valeurs plus grandes que (la valeur du 75e centile + (1.5 x étendue interquartile))
Valeurs extrêmes faibles = valeurs plus petites que (la valeur du 25e centile - (1.5 x étendue interquartile))
S’assurer que, pour faire la des corrélations de Pearson, il n’y ait pas de valeurs extrêmes
Seul qui nous informe si le lien entre la valeur X et la valeur Y est assez fort en tenant compte du degré de liberté
Test d’hypothèse statistique
Hypothèse statistiques: hypothèse nulle
Sur laquelle porte le test statistique
Conservée si p est plus grand que 5% ou rejetée si p est plus petit ou égale a 5%
Hypothèse statistiques: hypothèse nulle dans corrélation bivariée
“Il n’y a pas de relation linéaire entre les deux variables”
Hypothèse statistiques: hypothèse alternative
H1
L’hypothèse de recherche qui est confirmée si l’hypothèse nulle est rejetée ou infirmée si l’hypothèse nulle est conservée
Elle peut etre bidirectionnelle “il y a une relation linéaire entre les deux variables”
Ou unidirectionnelle si le contexte théorique le justifie “il y a une relation linéaire directe (ou inverse) entre les deux variables”
Hypothèse statistique: taille d’échantillon pour avoir un effet moyen
85 participants
Représentation graphique d’une corrélation est…
Un nuage de points
Chaque point = intersection des mesure X et Y
Nuage de points (sa forme nous indique….)
Relation directe (coefficient positif) Relation inverse (coefficient négatif) Ou aucune relation (coefficient près de 0) Plus le coefficient est fort, plus les points sont enlignés
Corrélation de Spearman (non paramétrique)
Utilisé quand le relation est curvilinéaire
Transforme les données à intervalles (numériques) en range et cherche a établir ensuite s’il existe un lien monotone (c-a-d croissant ou décroissant) entre les variables
Corrélation partielle:
Quand on pense qu’une relation entre deux variables peut être affectée par des variables parasites