Module 5 - Intro aux stats Flashcards
Pourquoi utiliser des tests stat dans une étude?
Est-ce que les résultats sont significatifs + Généralisables et applicables à d’autres patients similaires (population cible
déf : Erreur d’échantillonnage
Chercheur “tire” un échantillon non-représentatif (différent) de la population
De quoi faut-il tenir compte dans l’interprétation des tests statistiques (4)?
- Types de tests (qui dépend de bien d’autres choses)
- Importance des résultats
- Précision des résultats estimés
- Puissance des tests stat
déf : Statistiques descriptives + 2 types
Présentent les caractéristiques et synthétisent les données. Permettent de visualiser le comportement des variables et choisir les tests stat appropriés.
- Mesures de tendance centrale, Mesures de dispersion
Quelles sont les 3 mesures de tendance centrale + expliquez chacune
Moyenne : Somme des résultats/Nb de sujets
Médiane : Ordonner toutes les variables, c’est celle qui est au centre
Mode : Valeur la + fréquente
Quelles sont les mesures de dispersion?
Variance/Écart-type : Dispersion des valeurs autour de la moyenne Étendue : Valeur max - min Intervalle interquartile (Q) : Différence entre le 75c et le 25c (séparation à chq quart, donc à 25%, 50% et 75% : même concept que la médiane, 50c)
Dans cette série de chiffre, quel est
10, 12, 14, 16, 17, 20, 22
a) Moyenne
b) Médiane
c) Mode
d) Étendue
e) Intervalle interquartile (Q)?
a) (10+12+14+16+17+20+22)/7 = (111)/7 = 15.86
b) Méd = 16
c) Il n’y en a pas
d) Étendue = (22-10) = 12
e) Q = (20-12) = 8
(oui, j’ai laissé faire variance et écart-type, elle demandera pas à l’exam, c’est trop des gros calculs)
V/F : L’étude graphique est intéressante pour représenter la distribution d’un échantillon, mais n’est généralement pas présente dans une étude
Vrai, les auteurs manquent souvent d’espace
déf : distribution normale
Moyenne, Mode, Médiane sont équivalentes, donc données symétriquement disposées autour de la moyenne, en forme de cloche inversée
Quels sont les 2 principaux coefficients qui modifient la courbe normale?
Aplatissement, Asymétrie
V/F : La distribution d’un échantillon détermine le type d’analyses stat qui pourront être faites
Vrai
Si la distribution ressemble à un distribution normale, quel type de test sera utilisé? Que fera-t-il si elle ne ressemble pas?
Paramétrique
Tenter de la normaliser avec des équations, pour pouvoir utiliser les tests paramétriques
À quoi sert la loi normale?
Déterminer la probabilité d’obtenir un score dans un échantillon, si la moyenne et l’écart-type sont connus
Si les données se conforment à la distribution (loi) normale, on peut prédire le pourcentage de scores dans un écart défini :
a) + ou - 1 écart-type autour de la moyenne
b) + ou - 2 écart-type autour de la moyenne
c) + ou - 3 écart-type autour de la moyenne
a) 68% des scores
b) 95% des scores
c) 99% des scores
(je ne crois pas qu’elle demanderait ça, mais bon…)
Pourquoi ne peut-on pas, la plupart du temps, se fier aux % de la loi normale dans une étude de type ECR?
On n’a pas la moyenne et l’écart-type des scores de la population entière
De quoi peut-on se servir dans ce cas (ECR) si on souhaite utiliser la loi normale? La distribution d’___ de ___
Distribution d’échantillonnage de moyenne, un concept stat dérivé de la loi normale (permet d’appliquer certains tests statistiques pour comparer l’échantillon)
déf : Distribution d’échantillonnage de moyenne
Distribution des moyennes de tous les échantillons possibles de même taille pouvant être formés à partir de la pop complète (valeur vers laquelle tendent les moyennes des échantillons = moyenne de la pop, théoriquement). C’est ce qui fait qu’on peut considérer la moyenne de l’échantillon comme représentative/bon estimateur de celle de la population
Que nous permet donc de faire le concept de distribution d’échantillonnage de moyenne?
Comparer les moyennes de 2 échantillons, et vérifier avec un test statistique si les groupes sont significativement différents
(je crois que c’est pcq ils sont supposés être assez proche de la moyenne de la pop, puisqu’ils proviennent de celle-ci, s’ils ne le sont pas, c’est que le tx a eu un effet)
déf : erreur-type
Estimation de l’écart-type de la population, à partir de l’échantillon (écart-type et taille échantillon)
De quoi dépend l’erreur-type?
Taille de l’échantillon (inversement proportionnelle)
déf : Inférence statistique
Induire les caractéristiques inconnues d’une population à partir d’un échantillon tiré de celle-ci
Quelles sont les 2 hypothèses possibles en statistique?
H0 : hypothèse nulle (moyennes des 2 groupes sont égales)
H1 : Hypothèse alternative (moyennes des 2 groupes sont différentes)
déf : Valeur p
Probabilité d’obtenir un résultat aussi ou + petit/grand/extrême si H0 est vrai (moyennes des groupes pareilles)
a) déf : Seuil de signification (significance level)
b) Généralement, quel est le seuil utilisé par les chercheurs?
c) Que signifie p < 0,03 ?
a) Seuil (choisi par les auteurs, donc arbitraire) à partir duquel on considère que les groupes sont statistiquement différents. Si p est + petit que lui, les groupes sont différents.
b) 5%, mais parfois on utilise 1%
c) Cela signifie qu’il y a moins de 3% de chance que le résultats soit bel et bien non-significatif
Dans un graphique, qu’est-ce que la zone alpha α=5%?
Zone à l’extrémité du graphique. Les valeurs dans cette zone ont moins de 5% de chance d’arriver.
Un changement statistiquement significatif est-il nécessairement cliniquement important?
Non, c’est 2 concepts différents
déf : Puissance stat
Probabilité qu’un test stat détecte la différence entre 2 groupes s’il y en a véritablement une
Nommez les 3 items qui influencent la puissance statistique
- Écart entre les moyennes
- Chevauchement entre les distributions (donc variabilité de chacune)
- Taille de l’échantillon
Qu’est-ce qu’un faux négatif, dans le cadre d’un test stat?
Une différence significative n’a pas été détectée
a) Quel est le “seuil” minimal qui constitue une puissance stat acceptable?
b) Que signifie ce chiffre?
a) 80%
b) Il y a 20% d’avoir une erreur de type 2 (faux négatif)
Lequel des 3 items qui influencent la puissance statistique est le + facile à modifier pour un chercheur? Que devrait-il faire pour s’assurer que ce facteur ne soit pas un problème?
- La taille de l’échantillon
- Calcul de la taille d’échantillon nécessaire pour avoir une puissance supérieure à 80%
(Nb de sujets = Taille d’échantillon calculée + prendre en compte la mortalité expérimentale)
a) Qu’est-ce que l’intervalle de confiance (p.ex. IC 95%)?
b) De quoi dépend-il?
- Il y a 95% (pourrait être un autre pourcentage, p.ex. IC 99%) de chance que la vraie moyenne de la population se retrouve entre la valeur x et la valeur y. Donc, si je tire un nouvel échantillon, il devrait être dans cet intervalle
- Moyenne, Écart-type, Taille de l’échantillon
Comment détermine-t-on si 2 échantillons sont statistiquement différents avec l’IC?
Si les IC ne se chevauchent pas, on considère qu’ils sont statistiquement différents, puisqu’ils ne proviennent pas de la même population
En quoi est-ce que l’IC permet d’apprécier la précision des estimations tirées de l’échantillon?
Plus l’IC est petit, plus on est certain que la vraie valeur de la population est proche de l’estimation
V/F : Il n’est pas obligatoire que les valeurs aient une distribution normale pour utiliser des tests stat param
Faux
V/F : Quand un échantillon compte 30+ sujets par groupe, le chercheur est presque sûr d’obtenir une distribution normale, et donc de pouvoir utiliser les tests paramétriques
Vrai
Quelles sont les 2 catégories de tests param? + Expliquez chacune
Tests de différence : Évaluent les différences entre les moyennes (un ou plusieurs groupes, une ou plusieurs mesures dans le temps)
Tests d’association : Évaluent si deux variables sont en lien l’une avec l’autre (?)
Quels sont les 6 tests paramétriques de différences présentés dans les notes?
- T-Test (test de Student) pour scores indépendants
- T-Test pour mesures appariées
- ANOVA (analyse de variance) à 1 facteur
- ANOVA avec mesures répétées à 2 facteurs
- Régression linéaire simple et multiple
- Autres types de régresssion : Modèles linéaires généralisés
Pour quoi est généralement utilisé le t-test pour scores indépendants?
Comparer 2 groupes, au début ou à la fin d’une étude
Quelle est la question à laquelle le t-test pour scores indépendants tente de répondre?
Est-ce qu’il y a une différence de moyenne entre les 2 groupes?
Quels sont les 2 critères pour l’application du t-test pour scores indépendants?
- Groupes doivent être différents
- Variance doit être égale
Quel est le résultat d’un test de Student (t-test, tous les types)? Comment est-il analysé?
Une statistique t. Pour chaque valeur de t, on a un niveau de probabilité (selon la loi normale), donc on peut savoir si la probabilité associée est plus grande ou petite que le seuil fixé (donc significative ou pas)
Comment peut être utilisé le t-test pour scores indépendants dans les études non-randomisées?
Comparer les co-variables et les variables de confusion, pour déterminer si les groupes proviennent de la même population
Pour quoi est généralement utilisé le t-test pour mesures appariées?
Mesurer la différence de moyenne pour le même groupe avant et après un traitement
Quel est l’usage de l’ANOVA (tous les types)?
Comparer les moyennes de plus de 2 groupes
Dans l’ANOVA à un facteur, jusqu’à combien de variables sont analysées?
a) indép :
b) dép :
une (traitement) et une (douleur, vitesse de marche, etc.)
Dans un tableau décrivant les résultats d’une ANOVA à un facteur, qu’indique la colonne “F”? Comment cette valeur est-elle interprétée?
Statistique de Fisher.
Pour chaque valeur de F, il y a une probabilité (valeur p) associée, donc on sait si c’est significatif ou pas (comme la stat t, seuil à 5%)
Dans un tableau décrivant les résultats d’une ANOVA à un facteur, qu’indique la colonne “Signification”? Comment cette valeur est-elle interprétée?
Elle nous donne la valeur p, donc on sait si la différence entre les moyennes est significative (elle l’est si p < 0,05)
Que se passe-t-il si les résultats de l’ANOVA à un facteur :
a) Ne sont pas significatifs
b) Sont significatifs
a) L’analyse s’arrête là
b) Analyse post-hoc (analyse des comparaisons multiples)
À quoi sert l’analyse post-hoc (analyse des comparaisons multiples)?
Déterminer entre quel(s) groupe(s) il y a une différence de moyenne
Quels tests sont utilisés pour l’analyse post-hoc (analyse des comparaisons multiples) (3)?
Test de Tukey, Student (avec ajustement de Bonferonni), Test LSD
V/F : Le tableau de résultats de l’analyse post-hoc (analyse des comparaisons multiples) analyse les groupes 2 par 2
Vrai, on voit entre quels groupes il y a des différences significatives
À quoi sert une ANOVA à mesures répétées à 2 facteurs?
Comparer 2 groupes, à plusieurs moments dans le temps
V/F : Une ANOVA à mesures répétées à 2 facteurs considère qu’il existe un effet fixe et un aléatoire, qui vont tous deux influencer les résultats?
Vrai, fixe = contrôlé par le chercheur (tx), aléatoire = non contrôlé (temps, évolution naturelle)
Quelles sont les variables indépendantes dans une ANOVA à mesures répétées à 2 facteurs (en lien avec les colonnes du tableau de résultats)?
Temps, Traitement
Quelles sont les 4 “groupes” (“situations”, dans les notes) qu’analyse l’ANOVA à mesures répétées à 2 facteurs?
Groupe EXP avant le tx, Groupe EXP après le tx, Groupe CTL avant le tx, Groupe CTL après le tx (toujours les moyennes)
V/F : Si l’ANOVA à 2 facteurs à mesures répétées montre une différence statistique entre les groupes, on fera une analyse post-hoc, comme pour une ANOVA à un facteur
Vrai
Dans un tableau de résultats pour une ANOVA à 2 facteurs à mesures répétées, la dernière colonne est (généralement) séparée en 3 sous-sections: l’effet ___, l’effet ___, et l’effet ___. Nommez et expliquez chacune d’entre elles
- groupe : On regarde seulement l’effet de la variable “groupe”, sans regarder si la mesure a été prise avant ou après le tx (on “crée” 2 groupes, CTL et EXP, et on les compare : y a-t-il une différence significative?)
- entraînement (temps) : Seulement l’effet de la variable “entraînement” (groupes = avant et après le tx)
- interaction : Les 2 variables en même temps, en considérant les 4 groupes
Laquelle des 3 colonnes dans le tableau de résultats pour une ANOVA à 2 facteurs à mesures répétées est la + pertinente pour l’analyse?
la 3e (interaction) : C’est elle qui nous “dit” s’il y a une différence significative entre 2 des 4 groupes (mais on n’est pas certain entre lesquels)
Que regarde-t-on, dans le tableau de résultats pour une ANOVA à 2 facteurs à mesures répétées, pour jauger l’effet de traitement qui a été mesuré?
Le pourcentage de changements entre les groupes
Quel est le but des modèles de régression linéaire?
Expliquer ou prédire la variance d’une variable dép (phénomène) à l’aide d’une combinaison de variables indép (facteurs explicatifs)
Que doit faire un chercheur avant d’adapter un modèle linéaire aux données recueillies?
Déterminer s’il existe une relation entre les variables qu’il étudie
V/F : Le chercheur doit “Déterminer s’il existe une relation entre les variables qu’il étudie”. Cela veut dire que l’une des variables cause l’autre.
Pas nécessairement, il doit simplement y avoir une association significative (on peut utiliser un nuage de points pour la voir graphiquement)
Dans l’équation de la droite de régression linéaire (Y = bX + a), que sont :
a) le Y
b) le X
c) le b (pente)
a) Variable dépendante
b) Variable indépendante
c) Le coefficient de régression
Comment détermine-t-on si la relation entre la variable dép et indép est significative?
Analyse avec un logiciel, on détermine le coefficient de régression et détermine son intervalle de confiance (c’est significatif si l’IC ne traverse pas 0, je crois? p.41)
a) Qu’est-ce que le R2 (carré)?
b) Qu’explique-t-il?
c) Es-il mieux d’avoir un R2 haut ou bas?
a) Coefficient de détermination : C’est le coefficient de corrélation (on en reparle + tard), mis au carré
b) La proportion de la variation de la variable qui est attribuable au tx
c) Élevée, le modèle explique mieux la relation (faible = certaines variables indép importantes n’ont pas été prises en compte). Si le R2 est le 0.56, c’est que 56% de l’effet est causé par la variable indép, et le 44% restant, par 1+ autre variable
a) V/F : On pourrait ajouter des variables dans l’équation de la droite de régression linéaire, pour qu’elle ressemble à : Y = 32 - 4.1Z + 0.7X (Z et X étant des variables indép)
b) Que représentent 4.1 et 0.7 devant les variables
a) Vrai, on pourrait en ajouter à l’infini, techniquement
b) Les coefficients de régression des 2 variables
Dans quels cas utilise-t-on les modèles linéaires généralisés (au lieu des modèles de régression linéaire)?
- Variable dép est discrète
- Modèle est différent des modèles linéaires standards
- Indications
- Limites/Exigences
(tableau p.44)
T-test indépendant
- Comparer 2 groupes, Comparer résultats de 2 groupes (tx, pronostic)
- Distrib normale, Variance égale, Groupes différents (indép des scores)
- Indications;
- Limites/Exigences
(tableau p.44)
T-Test mesures appariées
- Mesure pré-post dans le même groupe
- Distrib normale
- Question à laquelle on veut répondre;
- Indications;
- Limites/Exigences
(tableau p.44)
ANOVA (1 ou 2 facteurs)
- “Y-a-t-il une différence dans les mesures de plus de 2 groupes?”
- 2+ VInd, VInd a 2+ “niveaux” (EXP et CTL?), Une seule VDép
- Comme t-test ET Si 3 groupes et résultats signif, analyse post-hoc
- Question à laquelle on veut répondre;
- Indications;
- Limites/Exigences
(tableau p.44)
ANOVA à mesures répétées
- “Y-a-t-il une différence dans les mesures d’un groupe, prises à plusieurs moments?”
- VInd a 2+ “niveaux” et les sujets sont leur propre contrôle, 2+ VInd dans “factorial design”
- T-test ET Dira seulement s’il y a une différence, pas où (analyse post hoc)
a) Utilisation : Tests d’associations
b) Quel est le principal test d’association?
a) Utilisés quand on veut savoir si 2 variables sont associées l’une à l’autre
b) Coefficient de corrélation
déf : Coefficient de corrélation (qu’est-ce qu’il évalue, valeurs possibles)
Évalue la force, la direction, l’importance de la relation entre 2 variables. Varie entre -1 et 1
a) Quelles sont les 4 interprétations possibles du coefficient de corrélation + Intervalles correspondants?
b) Si la valeur est négative?
- Nulle à très faible : 0-0.25
- Faible : 0.26-0.50
- Moyenne à bonne : 0.51-0.75
- Bonne à excellente : 0.76-1.00
Même interprétation, mais la relation est inversement proportionnelle (si une augmente, l’autre diminue)
V/F : Il est possible d’obtenir une probabilité associée à la valeur R
Vrai, avec un test ressemblant au t-test
V/F : Plus la corrélation est forte, plus il y a de chance qu’elle soit significative
Vrai
déf : Effet de traitement
Mesure stat particulière, quantifie la différence entre 2 groupes (contrairement à p, qui nous dit simplement qu’il y en a un)
V/F : L’effet de traitement est une mesure + pertinente pour le lecteur que la valeur p
Vrai, un échantillon assez grand aura presque toujours une valeur p significative, cela ne veut pas dire que l’effet du traitement est grand
quelle est la mesure de l’effet de traitement la + commune?
le coefficient d de Cohen
V/F : l’effet de tx peut être mesuré pour toutes les variables à l’étude, peu importe l’outil de mesure utilisé
Vrai, c’est très intéressant! On peut comparer les études entre elles, peu importe à VDép utilisée
Quelles sont les 3 “forces” possibles pour le coefficient d de Cohen + Valeurs associées?
- 2 : Effet de traitement minimal
- 5 : Effet modéré
- 8+ : Effet important
Dans quelles conditions sont utilisés les tests non-paramétriques (2) ?
- Distribution non-normale (souvent, petits échantillons, < 30)
- Comparaison de % ou proportions associés à des données nominales ou ordinales (peu importe la taille d’échant)
Quel est le principal test non-paramétrique?
Chi-carré
V/F : L’analyse d’un test de Chi-carré est différente de celle faite pour les tests paramétriques (+ expliquez)
Faux, l’analyse donne une valeur de p (probabilité), que l’on compare à la valeur alpha
À quoi sert le test du chi-carré?
Déterminer les différences entre 2 variables dont la distribution est non-param (nominales, ordinales).
Le chi-carré est basé sur la comparaison des ___ observées avec des ___ dites “attendues”, soit celles qui seraient observées s’il n’y avait aucune ___ de proportion entre les ___
fréquences, fréquences, différence, groupe
Quel est le résultat d’un test de chi-carré?
Statistique de Fisher (F), dont on peut savoir la probabilité (et donc avoir une valeur p et savoir si les résultats sont significatifs)