Statistiques Inférentielles Flashcards

Correlation & régression, T-test & ANOVA

1
Q

À quoi sert la statistique inférentielle?

A

pour faire des déductions ou tirer des conclusions sur une population en se basant sur un échantillon de données

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Quelles sont les deux branches de la statistique inférentielle?

A
  • Paramétrique
  • Non-paramétrique
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

À quoi sert une statistique paramétrique?

A

Elles sont utilisées pour estimer les paramètres de la populaiton et tester des hypothèses en tenant compte des postulats sur la distribution des variables

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Quels sont les 4 postulats des tests paramétriques?

A
  • les variables sont normalement distribuées dans la pop (distribution normale)
  • Possibilité de calculer la variance
  • données continues
  • Les variables sont à échelle d’intervalle ou de ratio
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

À quoi sert une statistique non-paramétrique?

A

Est utilisée quand la distribution des données ne repose pas sur des postulats de normalité:
- variables continues, mais n< 30
- Variables ordinales
- variables nominales

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Qu’est-ce que la distribution normale (gaussienne) ?

A
  • C’est la plus importante distribution en biostatistique
  • Elle dépend de 2 paramètres: la moynne (µ) et l’écart type (σ) : N(µ,σ)

> le graph a une forme de cloche, symétrique
moyenne = Médiane
µ +- 2σ = 95,5%de la pop

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Pour quelle genre de mesure on utilise des stats inférentielles?

A

Mesure d’association:
- Examiner la relation proposée entre 2 variables

Mesure de prédiction:
- Utiliser une variable indépendante pour prédire une variable dépendante

Mesure de différences des moyennes
- déterminer des différences entre les groupes expérimentals et contrôle

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Probabilité et signification :

Qu’est-ce qu’un test d’hypothèse?

A

Procédure d’inférence statistique qui vise, par la réfutation de l’H0, à rendre l’H1 probable

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Quelle hypothèse fait l’objet d’une vérification statistique?

A

l’hypothèse nulle (L’H0)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Qu’est-ce que l’Erreur de type 1?

A

Rejette l’hypothèse nulle alors qu’il est plus probable qu’elle soit vraie, que le seuil requis

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Qu’est-ce que l’Erreur de type 2?

A

Que l’on accepte l’hypothèse nulle alors qu’elle est fausse

  • ex: un test de grossesse vous indique ne pas être enceinte alors que vous l’êtes
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Quel est le seuil de certitude conventionnel?

A

95% de Interval de confiance

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

À quoi correspond alpha (α) ?

A

α = niveau de signification déterminé avant de procéder à un test d’hypothèse

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Qu’est-ce que un test statisitque unilatéral (one tailed) vs bilatéral (two-tailed) ?

A

Test Unilatéral (One-tailed):

  • Teste une hypothèse dans une seule direction (ex. : si une moyenne est supérieure OU inférieure à une valeur spécifique).
  • Utilisé lorsqu’on a une hypothèse précise sur la direction de l’effet.
  • Exemple : Tester si un médicament augmente la performance par rapport à un placebo (sans considérer une baisse potentielle).

Test Bilatéral (Two-tailed):

  • Teste une hypothèse dans les deux directions (ex. : si une moyenne est différente, supérieure ou inférieure à une valeur spécifique).
  • Utilisé lorsque l’on s’intéresse à tout écart significatif (dans un sens ou l’autre).
  • Exemple : Tester si un médicament a un effet différent (positif ou négatif) par rapport à un placebo.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Qu’est-ce qu’une statistique bivariée vs univariée

A

Univariée:

  • les mesures de tendance centrale et de variabilité décrivent les caractéristique des variables, une variable à la fois

Bivariée:

  • Décrire une caractéristique d’une variable par rapprot à une autre variable.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Quelles sont les 2 types de corrélations?

A

Pearson (paramétrique)
Spearman (non-paramétrique)

17
Q

Qu’est-ce que des coefficients de corrélation?

A

C’est la valeur numérique, de la mesure statistique d’une relation de correlation

  • s’exprime ainsi: (r)
18
Q

Qu’elle est la distinction importante entre la causalité et la corrélation?

A

La corrélation ne signifie pas l’existence d’une relation causale (causalité) entre 2 variables

  • la corrélation quanitifie le degré auquel les changements dans une variable semblent liés aux changement dans une autre variable
19
Q

Quelles conditions devons-nous remplir pour établir une inférence causale?

A
  1. l’ordre chronologique approprié doit être établi (Si A cause B, A doit se produire avant B)
  2. Il ne doit pas y avoir de variables de confusion ou extrinsèques. Il ne doit pas y avoir d’autres explications alternatives. (Portes arrières)
20
Q

Qu’est-ce que le coefficient de corrélation de Pearson?

A

Désiginé par ρ (rho) pour la pop et r dans l’échantillon
- Indicateur numérique de la relation linéaire entre deux variables
- À mesure qu’une variable augmente ou diminue l’autre augmente ou diminue de manière directement proportionnelle.

21
Q

Quelles sont les particularités du coefficient de corrélation de Pearson?

A

Direction:
- “+” indique une relation “positive”
- “-“ indique une relation négative

Range:
- -1.0 < r < 1.0

Intensité (force) :
- 0.0 < |r| < 0.2 Relation faible
- 0.2 < |r| < 0.4 Relation modérée
- 0.4 < |r| < 0.6 Relation forte
- 0.6 < |r| < 1.0 Relation très forte

22
Q

Distinction entre corrélation et régression?

A
  • Corrélation : Utilisée pour examiner des associations ou relations générales entre deux variables.
    • Exemples : Relation entre taille et poids, confiance et performance, estime de soi et dépression.
  • Régression : Utilisée pour déterminer si une ou plusieurs variables prédisent un résultat spécifique et quel prédicteur est le plus fort.
    • Exemple : La fréquence des exercices, l’estime de soi et la dépression prédisent-elles la tension artérielle ?
23
Q

Qu’est-ce que l’analyse de régression?

A

Sert à caractériser le modèle de relation entre la ou les variables indépendantes et la variable dépendante

  • Fait usage de la corrélation entre les variables et la notion d’une ligne droite pour formuler une équation de prédiction
  • L’équation permettra de prédire la valeur d’une des variables en fonction de la valeur de l’autre (ou des autres) variable(s).
24
Q

Explique moi la régression linéaire simple.

A

Elle cherche une relation linéaire entre les variables (2)

Y = aX + b

  • Y: la variable dépendante
    (valeur prédite)
  • X: la variable indépendante
  • a: le point d’intersection de la
    ligne droite avec l’axe des Y
  • b: le pente de la ligne droite,
    appelée (coefficient de
    régression)
25
Q

Explique moi la régression multiple.

A
  • Analyse statistique multivariée servant à établir la relation prédictive (Y) et un ensemble de variables indépendantes.
  • Donne une équation de régression qui permet de prédire la valeur de la variable dépendante quand les variables indépendantes sont connues (modèle prédictif)
  • Coefficient de régression multiple au carré (R2) indique la proportion de la variance de la variable dépendante qui est expliqué par un groupe de variables indépendantes
26
Q

Qu’est-ce qu’un Test t indépendant?

A

Définition: Test statistique pour comparer les moyennes de deux groupes indépendants sur une variable continue

Exemple: Comparer le temps moyen au 100m nage libre entre un groupe de nageur utilisant une combinaison standart (groupe A) et un autre utilisant une combinaison nouvelle génération (groupe B)

Hypothèses:

  • H0 : Moyenne A = Moyenne B
  • H1 : Moyenne A ≠ Moyenne B
  • Si t obs > t critique, H0 est rejetée.
27
Q

Qu’est-ce qu’un Test t Apparié?

A

Définition: Test statisitque pour évaluer la différence moyenne d’une variable continue mesurée deux fois sur le même groupe

Exemple: Évaluer l’efficacité d’une méthode d’apprentissage pour le lancer franc en comparant les performances des mêmes élèves avant et après l’intervention.

Hypothèses :

  • H0 : Moyenne avant = Moyenne après
  • H1 : Moyenne avant ≠ Moyenne après
  • Si t obs > t critique, H0 est rejetée.
28
Q

Qu’est-ce qu’une ANOVA (Analyse de Variance)

A

Définition: Test pour comparer les moyennes de plus de deux groupes, en analysant la variance entre les groupes et au sein des groupes

Exemple: Comparer les performances en mathématiques de trois groupes d’élèves suivant des approches pédagogiques différentes

Hypothèses :

  • H0 : Moyenne groupe 1 = Moyenne groupe 2 = Moyenne groupe 3
  • H1 : Au moins une moyenne est différente
  • Si F obs > F critique, H0 est rejetée.
29
Q

Que sont les tests post-hoc (ex. : Tukey HSD) ?

A

Définition : Tests supplémentaires effectués après une ANOVA significative pour identifier les groupes spécifiques entre lesquels il y a des différences.

Exemple: Après avoir trouvé une différence significative entre trois méthodes d’enseignement, le test Tuskey HSD indique si Méthode 1 ≠ Méthode 2, Méthode 2 ≠ Méthode 3, etc.

30
Q

Quand devons-nous utiliser les test post-hoc?

A

Nécessaire uniquement quand plus de deux groupes sont testés.

31
Q

Comment interpréter les résultats de tests T et ANOVA ?

A

T-Tests et ANOVA : Comparer la variance entre et au sein des groupes pour déterminer si les différences sont “réelles”.

Exemples:

Interprétation d’un T-Test:

  • Valeur de t observée (t obs) : C’est la valeur calculée à partir des données.
  • Valeur critique de t : Elle est tirée d’une table de t pour un certain degré de liberté (DDL) et un niveau de signification choisi (par exemple, 0,05).
    Décision :
  • Si t obs > t critique : On rejette l’hypothèse nulle (H0), ce qui signifie qu’il existe une différence significative entre les deux groupes.
  • Si t obs < t critique : On ne rejette pas H0, et aucune différence significative n’est détectée.

Interprétation d’une ANOVA (Analyse de Variance)

  • Valeur F observée (F obs) : Calculée en comparant la variance entre les groupes à la variance intra-groupe.
  • Valeur critique de F : Déterminée selon les degrés de liberté et le niveau de signification choisi.
    Décision:
  • Si F obs > F critique : On rejette H0, indiquant une différence significative entre au moins deux groupes (mais on ne sait pas lesquels sans un test post-hoc).
  • Si F obs < F critique : On ne rejette pas H0, indiquant qu’il n’y a pas de différence significative entre les groupes.
32
Q

Quelle est la différence entre la Variance Entre Groupes et Variance Intra-Groupe ?

A

**Définition **:

  • Variance entre groupes : Différence entre les moyennes des groupes ; elle reflète les effets de la variable indépendante.
  • Variance intra-groupe : Variabilité des scores au sein de chaque groupe ; elle représente les différences individuelles non dues à la variable testée.
  • **Utilisation ** : Le rapport entre la variance entre les groupes et la variance intra-groupe (F-ratio) est crucial pour déterminer la significativité en ANOVA.
33
Q

Qu’est-ce qu’un Test Omnibus en ANOVA ?

A

Définition : Test qui évalue globalement s’il existe des différences significatives entre les moyennes de plusieurs groupes sans préciser quels groupes sont différents.

Exemple: En ANOVA, le test F est un test omnibus. Si le résultat est significatif, on conclut qu’il y a une différence quelque part, mais on ne sait pas entre quels groupes sans faire des tests post-hoc.

34
Q

Que sont les coefficient Bêtas (β) ?

A
  • Les β sont les coefficients standardisés pour chaque variable prédictive dans le modèle, représentant le changement dans la variable dépendante pour un changement d’une unité de la variable prédictive, en maintenant les autres variables constantes.
  • Une valeur absolue plus élevée de β indique une relation plus forte avec la variable dépendante.
  • Les valeurs positives ou négatives de β indiquent la direction de cette relation (positif signifie que lorsque la variable prédictive augmente, la variable dépendante augmente également ; négatif signifie que la variable dépendante diminue lorsque la variable prédictive augmente).
35
Q

Qu’est-ce que le Coefficient de corrélation multiple (R)?

A
  • R est la corrélation entre les valeurs observées et les valeurs prédites de la variable dépendante.
  • Un R élevé indique une relation plus forte entre les prédicteurs et le résultat.
36
Q

Qu’est-ce que le R carré (R2) ?

A
  • R2 représente la proportion de la variance, de la variable dépendante, expliquée par l’ensemble des prédicteurs dans le modèle.
  • Les valeurs vont de 0 à 1, où un R2 plus élevé indique qu’une plus grande part de la variance de la variable dépendante est expliquée par les prédicteurs.
  • Cependant, R2 peut parfois surestimer la force d’un modèle, en particulier avec un plus grand nombre de prédicteurs, donc le R2 ajusté est souvent utilisé pour corriger cela
37
Q

Qu’est-ce que la valeur F?

A
  • La statistique F teste la signification globale du modèle. Il indique si la combinaison des prédicteurs dans le modèle explique une part statistiquement significative de la variance dans la variable dépendante.
  • Une valeur F élevée, associée à une p-valeur faible, suggère que le modèle de régression est statistiquement significatif.