Connaissances de base en statistiques pour l’ECNi Flashcards
Risque alpha (risque de 1re espèce) ?
- Définition = probabilité de conclure à tort à une différence alors qu’elle n’existe pas en réalité.
- En pratique = le risque maximal d’erreur considéré comme acceptable est le seuil de signification, classiquement 5 % soit α = 0,05.
Risque béta (risque de 2e espèce) ?
- Définition = probabilité de ne pas conclure à une différence alors que cette différence existe en réalité +++.
- En pratique = on recommande de prendre un seuil de 80 %..
Déterminer le caractère « statistiquement significatif » d’un résultat
Lorsque l’on obtient un résultat en LCA il faut toujours s’interroger sur la fiabilité que l’on va pouvoir lui attribuer. Une étape essentielle dans cette démarche est de s’assurer que le résultat est bien « statistiquement significatif ». Cela signifie que la probabilité statistique que ce résultat soit faux est acceptable et que l’on s’autorise à conclure dessus. Pour déterminer si un résultat est oui ou non « statistiquement significatif », il n’existe que 2 techniques possibles :
- Degré de significativité p
- L’intervalle de confiance à 95 % (IC 95 %)
Degré de significativité p
- C’est une valeur qui accompagne le résultat et renseigne sur la fiabilité statistique du résultat exprimé, car elle correspond à la probabilité que notre résultat conclut à tort à une différence qui n’existe pas en réalité.
- Or, nous avons vu plus haut que cette probabilité de conclure à tort à une différence qui n’existe pas en réalité, correspond au risque α que l’on détermine à 5 % a priori avant que l’étude ne commence. à On dira donc que le résultat est statistiquement significatif si p < α ( PCZ ).
intervalle de confiance à 95 % (IC 95 %)
- La probabilité que la vraie valeur du paramètre estimé soit comprise dans cet intervalle est de 95 %.
- Cela correspond donc à la fourchette de valeurs qui encadre une estimation avec un risque α = 5 %. à On dira donc que le résultat est statistiquement significatif :
- si le résultat est une différence = IC 95 % ne comprend pas 0 ( PCZ )
- si le résultat est un ratio (RR ou OR) = IC 95 % ne comprend pas 1 ( PCZ )
Quels sont les trois niveaux d’analyse statistique ?
Trois niveaux d’analyse statistique : descriptive/univariée/ multivariée
Lorsque vous regardez les résultats d’une étude sur un critère de jugement, vous êtes en réalité capable de voir 3 éléments distincts à bien identifier : analyse descriptive et univariée (obligatoires) et une éventuelle analyse multivariée (optionnelle selon le choix des auteurs).
analyse descriptive
Définition = correspond à la mesure brute de survenue du critère de jugement mesuré dans un seul groupe +++.
À retenir = il y a donc toujours autant d’analyses descriptives que de groupes dans l’étude
analyse univariée
- Définition = correspond à la comparaison de deux analyses descriptives +++.
- Elle est toujours accompagnée de son degré de significativité p et/ou intervalle de confiance. À retenir = une analyse univariée ne permet pas de tenir compte des facteurs de confusion (ce sera le rôle de l’analyse multivariée que l’on va détailler juste en dessous)
3 modes d’expression d’une analyse univariée ?
− différence (différence de mortalité, différence de pression artérielle, différence de CRP…) : pour les études thérapeutiques ;
− risque relatif (RR) : pour les études épidémiologiques de cohorte prospective ;
− odd ratio (OR) : pour les études épidémiologiques de cohorte rétrospective ou les cas-témoins
Définition du « facteur de confusion »
= facteur à la fois lié au facteur étudié (exposition ou nouvelle intervention) et à l’événement étudié (survenue de la maladie). Il explique au moins en partie le lien entre le facteur étudié et l’événement étudié.
analyse multivariée par ajustement
• Définition = correspond à une analyse univariée (comparaison de deux analyses descriptives) avec l’ajout d’un algorithme mathématique capable de tenter de contrôler des facteurs de confusion potentiels.
2 étapes d’une analyse multivariée :
− identification préalable des facteurs de confusion potentiels comme des facteurs (autre que le facteur/intervention étudié) statistiquement associés à la survenue de l’événement étudié (maladie) en analyse univariée ;
− puis on étudie le lien entre facteur/intervention étudié et la survenue de l’événement étudié (maladie) en tenant compte de l’effet de ces facteurs (co-variables) par un ajustement (pondération).
3 modes d’expression d’une analyse multivariée
− différence ajustée : pour les études thérapeutiques ;
− risque relatif (RR) ajusté : pour les études épidémiologiques de cohorte prospective ;
− odd ratio (OR) ajusté: pour les études épidémiologiques de cohorte rétrospective ou les cas-témoins.
Exemples de tests statistiques d’analyse multivariée : régression multiple, régression logistique pas-à-pas, modèle de Cox, ANOVA (analyse de variance)…
Définition de lien de causalité ?
- On parle de lien de causalité lorsque l’on a réussi à mettre en évidence une « certitude scientifique » du résultat de l’étude (c’est donc le graal absolu en LCA !).
- Types d’étude permettant de mettre en évidence un « lien de causalité » = étude de niveau de preuve 1 uniquement +++ ( PCZ ).
Dogme en LCA : « Il n’y a que les études randomisées contrôlées avec forte puissance (niveau 1) qui peuvent conclure à l’existence d’un lien de causalité +++ » ( PCZ )
Définition d’association statistique ?
- On parle d’association statistique lorsqu’il existe une « forte probabilité scientifique » du résultat de l’étude (pas sans certitude !).
- Types d’étude permettant de mettre en évidence une « association statistique » = étude de niveau de preuve 2, 3 ou 4 (autrement dit toutes les études qui ne sont pas de niveau de preuve 1).