Cours 1 Flashcards
Quand utiliser l’analyse multivariée?
1) Lorsqu’il y a plusieurs VD et/ou VI 2) En présence de VD/VI corrélées *L’analyse multivariée vient de la multiplication des variables indépendantes. Ce sont plusieurs variables que l’on met en même temps dans l’analyse.
Augmentation croissante de la validité interne: 1) Méthodes […] 2) Méthodes quasi-expérimentales 3) Méthodes […]
Augmentation croissante de la validité externe: 1) Méthodes […] 2) Méthodes quasi-expérimentales 3) Méthodes […]
Augmentation croissante de la validité interne: 1) Méthodes expérimentales 2) Méthodes quasi-expérimentales 3) Méthodes corrélationnelles
Augmentation croissante de la validité externe: 1) Méthodes corrélationnelles 2) Méthodes quasi-expérimentales 3) Méthodes expérimentales
Quels sont les avantages des analyses multivariées? (4)
1) Analyses plus flexibles et « réalistes » (il est rare qu’on ait peu de variables dans nos recherches) 2) Réduit le nombre de tests statistiques univariés ou bivariés 3) Réduit le problème de l’erreur alpha (l’erreur de type 1) avec les tests multiples (diminue la probabilité de faux positifs) 4) Accroît la puissance statistique (décroît la probabilité d’erreur beta ou type II)
Quelles sont les limites des analyses multivariées? (4)
1) Complexité conceptuelle et mathématique 2) L’analyste est plus « éloigné » des données brutes 3) Les résultats sont sensibles aux choix de l’analyste ( Il faut être plus précis dans la communication de nos résultats car il est probable de faire la même analyse deux fois et ne pas avoir le même résultat) 4) Demande le respect de conditions d’utilisation plus nombreuses que les analyses univariées
La distribution binomiale (loi binomiale) est utilisée pour les […]
La distribution binomiale (loi binomiale) est utilisée pour les proportions (variables catégorielles)
La distribution normale (loi normale) est utilisée pour les […], avec ou sans décimale
La distribution normale (loi normale) est utilisée pour les échelles continues, avec ou sans décimale
La distribution de Poisson (loi de Poisson) est utilisée pour les […]
La distribution de Poisson (loi de Poisson) est utilisée pour les échelles de dénombrement (count data)
Loi de Bernouilli (binomiale si n > 1): -> Domaine des valeurs: […] ou […] -> Probabilité de […] (1) = p -> Loi multinomiale si […] catégories (ordonnées ou non) -> Lois utilisées pour modéliser les variables […]
Loi de Bernouilli (binomiale si n > 1): -> Domaine des valeurs: 0 ou 1 -> Probabilité de succès (1) = p -> Loi multinomiale si 3+ catégories (ordonnées ou non) -> Lois utilisées pour modéliser les variables catégorielles *exemple: si 40% de femmes (code 1), p =0.40 et 1-p = 0.60 = 60% d’hommes (code 0)
Loi normale -> Domaine des valeurs: les réels ([…] négatif à positif) -> Paramètres: […] et […] (>0) -> Distribution symétrique en cloche -> Loi utilisée pour modéliser les variables […] (la majorité des variables en sciences sociales)
Loi normale -> Domaine des valeurs: les réels (infini négatif à positif) -> Paramètres: Moyenne et variance (>0) -> Distribution symétrique en cloche -> Loi utilisée pour modéliser les variables continues (la majorité des variables en sciences sociales)
Loi de Poisson -> Domaine des valeurs: les […] positifs (0 à infini positif) -> Paramètres: lambda ( […] = […]) -> Distribution généralement […] -> Loi utilisée pour modéliser les variables de […] (#accidents, #visites, etc.) -> Particulièrement utile pour les […]
Loi de Poisson -> Domaine des valeurs: les entiers positifs (0 à infini positif) -> Paramètres: lambda (moyenne = variance) -> Distribution généralement non-symétrique -> Loi utilisée pour modéliser les variables de dénombrement (#accidents, #visites, etc.) -> Particulièrement utile pour les évènements rares (ex: Beaucoup de gens rapportent une valeur mais peu les autres valeurs)
VRAI ou FAUX Il est possible de transformer la distribution de Poisson en distribution normal
VRAI Il est possible de transformer la distribution de Poisson en distribution normal, MAIS ce n’est pas nécessairement une bonne idée et on peut la laisser en distribution de Poisson
Quelle est la différence entre un niveau alpha empirique et théorique?
Niveau alpha empirique: observé suite au test Niveau alpha théorique: fixé pour processus décision
Qu’est-ce qu’une erreur alpha (type […]) et une erreur bêta (type […])?
Erreur alpha (type I): -> Rejeter l’hypothèse null lorsqu’en réalité il n’y a pas de différence, c’est-à-dire un faux positif. Erreur bêta (type II): -> Accepter l’hypothèse null lorsqu’en réalité il y a une différence, c’est-à-dire un faux négatif.
Calcul de la puissance: 1 - erreur […]
Calcul de la puissance: 1 - erreur bêta (type II)
VRAI ou FAUX Vous obtenez une valeur p = 0.01. -> VRAI – je sais, si je décide de rejeter Ho, la probabilité de prendre la mauvaise décision -> FAUX – je ne sais pas …
FAUX Je sais que je sais que j’ai 1% de faire une erreur (théoriquement), mais je ne sais pas dans quel monde je suis (la réalité) (manque d’information). -> Si je suis dans le monde null, j’ai 1% de chance d’observer mon phénomène d’absence/null
Le valeur p indique la probabilité d’observer ces données SI […] est vraie (dans la réalité […] et non la probabilité que […] soit vraie
Le valeur p indique la probabilité d’observer ces données SI Ho est vraie (dans la réalité Ho et non la probabilité que Ho soit vraie
La valeur p dépend de la […] de l’effet et de la […]. Donc un p très significatif n’indique pas l’[…] d’une différence
La valeur p dépend de la grandeur de l’effet et de la taille d’échantillon. Donc un p très significatif n’indique pas l’importance d’une différence
La puissance statistique est la probabilité de détecter un […] lorsqu’il y en a un
La puissance statistique est la probabilité de détecter un effet lorsqu’il y en a un
L’objectif de la démarche inférentielle est de maximiser la […] de chaque test utilisé
L’objectif de la démarche inférentielle est de maximiser la puissance statistique de chaque test utilisé
Le calcul de puissance est essentiel pour: 1) Justifier la […] d’une étude 2) Justifier la […] nécessaire 3) Interpréter un résultat […] (selon la valeur p)
Le calcul de puissance est essentiel pour: 1) Justifier la tenue d’une étude 2) Justifier la taille d’échantillon nécessaire 3) Interpréter un résultat non-significatif (selon la valeur p)
Quels sont les facteurs influençant la puissance ? (6)
1) La grandeur de l’effet (+ grandeur = + puissance) 2) 2) La taille d’échantillon (+ n = + puissance) 3) Le niveau alpha (+ alpha = + puissance) 4) La direction du test (unilatéral = + puissance) 5) La variance de la mesure (+ variance = - puissance) 6) La fidélité de la mesure (+ fidélité = + puissance)
Expliquer l’effet de la taille d’échantillon sur la puissance
Plus on a de monde, plus c’est facile de détecter des différences -> Relation qui n’est pas complètement linéaire par contre, on a un plateau après un certain point. Passé un certain n, ça vaut pas la peine d’augmenter encore un échantillon.
Expliquer l’effet du niveau alpha sur la puissance
Plus tu augmentes ton alpha, plus tu as de chance de rejeter l’hypothèse nulle (p= .05 ou p =.01). -> Il y a des procédures qui peuvent jouer sur l’alpha (tests de comparaisons multiples: Si on fait plusieurs tests, on multiplie notre alpha donc on l’augmente).
Expliquer l’effet de la direction du test (bi vs unilatéral) sur la puissance
Dans un test bilatéral, on divise l’alpha en deux (p = .05 -> p =.025 de chaque bord). -> Le test unilatéral a un alpha plus élevé et est donc plus puissant