Cours 6 - Statistiques descriptives et inférentielles Flashcards
statistiques descritptives
- permet de décrire, démontrer, résumer données
- permet de détecter émergence de patterns dans échantillon
- svt en préambule à l’émission des hypothèses
nomme 4 grandes familles des statistiques descriptives
- mesures de fréquence
- mesures de tendance centrale
- mesures de dispersion
- mesures de position
statistiques inférentielles
permet d’effectuer généralisation, à partir d’un échantillon, vers une pop ou sous-pop
avec quoi calcule-t-on statistiques inférentielles
statistiques descriptives
peut-on utiliser statistiques descriptives pour établir relation de causalité
NON JAMAIS !!
comment sont présentées mesures de fréquence
souvent en forme de tableau ou graphique : en absolu ou relatif (%)
mesures de fréquence : comment présenter les données si sont continues
histogramme
mesures de fréquence : comment présenter les données si sont discrètes
diagramme à bâtons
mesures de tendance centrale
théorème limite central, loi normale, distribution normale ou courbe normale
mesures de tendance centrale : moyenne
somme des valeurs divisées par le nombre d’observation
mesures de tendance centrale : médiane
point milieu d’une distribution de données : 50% des données sont en inférieures à la Md et 50% sont supérieures à la Md
mesures de tendance centrale : mode
donnée la + populaire
dans une courbe normale, moy, md et mode sont comment
similaires!
skew (coefficient d’asymétrie) positif
prépondérance accrue des valeurs positives
skew (coefficient d’asymétrie) négatif
prépondérance accrue des valeurs négatives
mesure de position
quartiles !
quand utilise-ton quartiles
surtout utile pour distribution asymétriques
intéressant de se questionner si asymétrie est secondaire à phénomène clinique réel OU si secondaire à l’échantillonnage ou hasard
décris les moyennes, écarts-types, étendues
étendue de la distribution
distance entre la plus petite mesure et la plus grande mesure
concept de kurtose à revoir
lorsqu’élevé = courbe pointue // bas = courbe aplatie
médianes d’une distribution (avec quartiles)
Q1, Q2, Q3
étendue interquartile
longueur du rectangle : Q3 - Q1
variance de la distribution
somme des écarts par rapport à la moyenne au carré divisée par nombre d’observations.
sert à déterminer à quel point il y a différence entre données dans un groupe
sert à calculer écart-type
comment calculer l’écart-type (standard deviation) de la distribution
racine carrée de (somme des écarts par rapport à la moyenne au carré divisée par nombre d’observations)
ravine carrée de la variance
avantage du calcul de l’écart-type
donne une mesure positive! facilite opérations mathématiques ultérieures
écart-type de la pop versus de l’échantillon
erreur-type (standard error)
mesure de précision des observations
mesure de certitude sur la moyenne de ton échantillon
plus l’erreur type est petite, plus tu es certain que la moyenne que tu as calculé est juste
écart-type divisé par le nombre d’observation
influence de la taille de l’échantillon sur l’erreur-type
+ n est grand, plus SE est petit (bien!)
comment l’erreur-type nous aide à calculer in IC à 95%
score Z qui correspond à 95% = 1,96
IC à 95% = 1,96 x SE
erreur de type 1 (erreur alpha)
rejeter Ho à tort
on dit qu’il y a un effet alors qu’il n’y en a pas (faux positif)
erreur de type 2 (erreur beta)
accepter Ho à tort
on dit qu’il n’y a pas d’effet alors qu’il y en a un
que nous dit la p value
probabilité de commettre une erreur de type 1 (ou alpha)
seuil/niveau de signification statistique
mesure arbitraire considérant la nature continue de la valeur p
est-ce que la valeur p nous permet de savoir si les résultats d’une étude clinique sont “utiles” ?
NON NON NON
lien entre valeur p et résultats statistiquements significatifs
valeur p indique uniquement que la probabilité de commettre une erreur de type 1 était inférieure au seuil de signification statistique préalablement déterminé par les auteurs de l’étude
MCD : minimal detectable change
le plus petit changement détectable par un outil de mesure
valeur à partir de laquelle on considère que le changement n’est pas secondaire à une “imprécision” de la prise de mesure
MCIC : minimal clinically important change
le plus petit changement considéré comme cliniquement significatif pour un patient ou un groupe (intra-groupe)
MCID : minimal clinically important difference
la plus petite différence considérée comme cliniquement significative lorsqu’on compare 2 groupes (inter-groupe)
distillation des effets non-spécifiques
plusieurs effets non-spécifiques peuvent influencer les résultats alors que nous on s’intéresse uniquement à l’effet spécifique…
nomme effets non-spécifiques
- guérison naturelle
- régression vers la moyenne
- effet hawthorne
- phénomène de Rogers
- paradoxe de Simpson
- vrai effet placebo
effet hawthorne
changement de comportement des sujets étudiés (pcq ils sont observés)
fait de faire partie de l’étude = ils s’améliorent
phénomène de Rogers
méthode diagnostique affecte le pronostic
paradoxe de Simpson
facteurs confondants et sous-groupes distincts
effets planchers-plafonds
donne des moyennes artificiellement élevées ou trop faibles
intervalles de confiance
estimation de l’intervalle pouvant contenir la valeur réelle d’un paramètre recherché.
si la mesure était répété, la moyenne de l’échantillon tomberait à l’intérieur de l’IC
comment réduire l’IC (flou autour de la moyenne)
augmenter le n
niveau de confiance
1 - alpha
taille d’effet (effect size)
mesure de la magnitude d’un effet
qu’est-ce qui nous dira à quel point la mobilisation antérieure est meilleure que la postérieure?
taille de l’effet de chacun
taille de l’effet : 3 valeurs
Cohen d effect size
d de Cohen : distance entre la moyenne du groupe expérimental et celle du groupe contrôle. on mesure cette distance en terme de : combien d’écart-type la moyenne est-elle déplacée.
tjrs un nombre positif
mesures de position : box plots/boîte à moustache
box plot ET skew positif, négatif et distribution normale
analyse par Intention to treat (ITT)
si pas fait = biais d’attrition
impact sur la taille de l’effet : surestimer les résultats (reste juste les complieurs, ceux pour qui le tx fonctionne)
puissance d’une étude
1 - BETA
capacité à détecter un effet avec une étude
arbitrairement établi entre 80% et 95%
Number Needed to Treat (NNT)
mesure du nombre de patients qui doivent être traités pour obtenir un changement cliniquement significatif par rapport à l’absence d’intervention ou une autre intervention.
nombre de patients que je dois traité pour qu’un soit affecté positivement // nombre de patients que je dois traité pour qu’un de plus s’améliore
interprete un NNT de 3
pour chaque 3 patients traités, un de plus va s’améliorer : je dois en traiter 3 pour en sauver 1 par rapport à l’absence d’intervention ou une autre intervention.
statistique comparative : faut dire l’intervention a un NNT de 3 (ex) par rapport à X autre intervention
** te dis juste que 1 de 3 patients vont avoir un good outcome, mais te dis pas que les 2 autres auront un bad outcomes
NNH : number needed to harm
mesure du nombre de patients qui doivent être traités pour prévenir un résultat défavorable par rapport à l’absence d’intervention ou une autre intervention
pourquoi on utilise des tests statistiques
permet de savoir si les données de l’étude sont statistiquement significatives
nomme 2 catégories de tests statistiques
Tests de différences : T-Test et Anova
Test de relation : corrélations et régressions
tests statistiques paramétriques VS non paramétriques (à vérifier)
paramétrique = données suivent une distribution normale n > 30
non paramétrique = ø n< 30
T-Tests
- T-Test indépendant, 2 échantillons
- compare groupes indépendants
- à 1 point dans le temps, une variable à la fois - T-Test dépendant, 1 échantillon
-compare 1 groupe dépendant
- à plusieurs points dans le temps
donne une VALEUR T
Anova simple
- compare la différence entre 3 groupes ou + à un moment dans le temps
- utilise une seule variable dépendante
Anova mesure répétées
- compare un même groupe à 3 moments distincts ou +
- utilise généralement 1 seule variable dépendante
MMA : Mixed Model Anova
- compare différence entre 2 groupes ou +
- fait cette comparaison à différents moments dans le temps
- peut utiliser différentes variables
si groupe d’inter et contrôle se sont améliorés de la même façon : effet d’interaction p > 0.05
si groupe inter s’est + amélioré que contrôle : effet d’interaction de p < 0.05
**compare entre les groupes et dans les groupes
valeur obtenue par les Anovas
valeur f
MMA : Mixed Model Anova
- compare différence entre 2 groupes ou +
- fait cette comparaison à différents moments dans le temps
- peut utiliser différentes variables
si groupe d’inter et contrôle se sont améliorés de la même façon : effet d’interaction p > 0.05
si groupe inter s’est + amélioré que contrôle : effet d’interaction de p < 0.05
**compare entre les groupes et dans les groupes
pq utiliser ANCOVA (analyse de covariance)
aide à contrôler une covariable pouvant affecter le résultat
- existe une sorte de coefficient de corrélation pour ancova
BUT : tester l’effet de la VI sur la VD une fois que l’effet de la covariable sur la VD est enlevé
avec quelles variables sont utilisées les ancova
variables démographiques
corrélation de Pearson (PCC)
pour les variables continues !!
r allant de -1 à +1
corrélation du rang de Spearman
pour les variables ordinées !!
r allant de -1 à +1
équivalent non paramétrique du PCC
but analyse de régression linéaire
vise à estimer, expliquer ou prédire la contribution d’un (OU plusieurs) facteurs à la variable d’un phénomène
mesure la force des prédicteurs (permet de les combiner)
(R carré ou sr carré)
avec quelle variable on utilise analyse de régression linéaire
CONTINUES
but analyse de régression logistique
vise à estimer, expliquer ou prédire la contribution d’un (OU plusieurs) facteurs à la variance d’un phénomène
souvent utilisé pour FR ou FP (OR)
avec quelle variable on utilise analyse de régression logistique
DICHOTOMIQUES
quel test permet d’ajuster les différences inter-groupes
ANOCOVA
quel test permet d’ajuster les différences inter-groupes
ANOCOVA