11. Extension des méthodes à plusieurs variables explicatives Flashcards

You may prefer our related Brainscape-certified flashcards:
1
Q

Principe modèles linéaires

A

Ensemble méthodes utilisées pour mesure réponse système à plusieurs variables
- 3 type de méthodes : 2-way ANOVA, régression mutiple, ANCOVA

3 types designs expérimentaux
- Blocking : améliore détection en répartissant aléatoirement source variabilité entre bloc
- Design factoriel : étudie impact 2/+ traitements et interaction
- Design ajuste variables confondantes : ajuste impact variable confondantes (covariables),
compare sur 2/+ groupes (match/adjust)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Pourquoi mesure plusieurs variables explicatives?

A
  1. Variable dépendante étudiée dépend souvent plusieurs variables explicatives
  2. Variable dépendante étudiée peut dépendre interactions variables explicatives

Donc plus utile/efficace mesurer plusieurs paramètre en même temps

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Point commun ANOVA/régression

A

Implique variable réponse Y
Représenté avec modèle linéaire + terme erreur/résidu

Seule différence

  • ANOVA : variables explicatives catégorielles/factorielles
  • Régression : variables explicatives numériques continues

Peut utiliser lm() pour ANOVA et régression
- Visualise ANOVA avec summary.aov()/anova()

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Modèle linéaire général (GLM)

A

Déf: Réponse = Constante + Variable
Formule : Yi = β0+ ∑(βj * xij) + ϵi
Où, β0 : contante, βj : paramètres variables explicatives, ϵi : erreur

Important
- Variable réponse toujours numérique
- Constante varie selon modèle (o.o pour régression, moyenne générale pour ANOVA)
- Variable explicative numérique ou catégorielle/factoriel(ANOVA) ou 2(ANOVA) -> effet
correspond pente

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Tester significativité modèle linéaire

A

Compare performance à modèle nul/sans aucune variable explicative
Formule : Yi = β’i + ϵ’i

Amélioration fit modèle signifie plus variance Y expliqué quand tient compte relation entre variables explicatives X -> ϵ < ϵ′

Comparaison source erreur/résidu = comparaison variances -> utilise statistique F (F-ratio)
Ex : ANOVA/test global -> F mesure proportion variance Y expliquée par modèle linéaire global quand ajout termes variables explicatives vs modèle nul juste constante

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Différentes forme de modèles

A

GLM peuvent représenter interactions variables explicatives -> produit effets variables
Formule : Réponse = Constante + Var1 + Var2 + Var1 * Var2

Syntaxe -> Y : réponse, μ : constante, Xj : variable explicative numérique, A/B : facteurs fixes, a/b : facteurs aléatoires

  • Fixe : niveaux contrôlés
  • Aléatoire : blocking/effet non contrôlé
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Types de modèles linéaires

A

Y = μ +X -> régression linéaire
- Dose-réponse
Y = μ + X1 + X2 + X1 * X2 -> régression linéaire multiple
- Dose-réponse avec intéractions
Y = μ + A -> ANOVA 1 facteur (effet fixe, type 1)
- Randomisé
Y = μ + A + b -> ANOVA 2 facteurs (pas réplication)
- Blocks randomisés
Y = μ + A + B + A * B -> ANOVA 2 facteurs (effets fixes, type 2)
- Design factoriel
Y = μ + X + A -> ANCOVA
- Étude observationnelle

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Conditions appilcation GLM

A

Pour chaque combinaison X;

  1. Échantillonnage Y aléatoire/indépendant
  2. Distribution Y normalement distribuée (normalité/linéarité)
  3. Variance Y indépendante X (homoscédasticité)

Utilise même méthode vérification -> ex : méthodes graphique avec résidus
Devrait obtenir;
- Nuage points ~symétrique autour ligne zéro -> normalité/homoscédasticité
- Absence tendance notable entre valeurs prédites -> relation linéaire/homoscédasticité

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

2-way ANOVA (ANOVA à 2 facteurs)

A

2 méthodes possibles:

  • Expérience avec blocking
  • Expérience avec design factoriel
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Expérience avec blocking (2-w ANOVA)

A

Formule LM : Réponse = Constante + Block + Traitement

Donc, essaie expliquer variance Y par 
- Effet constante
- Effet traitement 
- Effet répartition aléatoire unités échantillonnages dans blocs -> 1 chaque traitement/bloc
      Pas de réplicas

Dû 1 point/combinaison traitement-bloc -> pas possible estimer interaction entre termes
- Pas calcul variance entre points possible quand 1 point

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Procédures : expérience avec blocking

A
  1. Définit résultat attendu
  2. Formule H0/H1
    - H0 : Y moyen même pour tous traitements X
    - H1 : Y moyen affecté par X
  3. Formule modèles
    - Modèle nul (H0) : Y = Constante + Blocs
    - Modèle complet (H1) : Y = Constante + Blocs + X
  4. Tableau ANOVA
    - Doit intégrer blocking même si pas significatif -> partie intégrante design
  5. Vérification conditions applications (plot () et 1,2,5)
  6. Conclusion (p-value < α -> rejet H0)
  7. Test post-hoc (quelles moryennes différentes)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Effet fixe vs effet aléatoire

A

Fixe : niveaux choisis par expériementateur
Aléatoire : niveaux pas définis/choisis par expérimentateur

Calcul variance ANOVA change selon fixe ou alétoire
R à utiliser change selon fixe/aléatoire

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Expérience avec design factoriel

A

Formule LM : Réponse = Constante + TA + TB + TA × TB

Donc, essaie expliquer variance Y par;

  • Effet constante
  • Effet 2 traitements (TA + TB)
  • Effet intéraction TA avec TB

Niveau traitement présent plusieurs fois pour chaque combinaison triatement -> réplicas

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Procédure : expérience avec design factoriel

A
  1. Définit résultat attendu
  2. Formule hypothèse -> 3 jeux H0/H1 pour 2-w ANOVA
    - Effet facteur A + Effet facteur B + Effet intéraction A-B sur Y
  3. Formule modèles
    - Modèle nul (H0) : Y = Constante + A + B
    - Modèle complet (H1) : Y = Constante + A + B + A * B -> visualise avec figure synthétique
  4. Tableau ANOVA
  5. Vérification conditions applications (plot () et 1,2,5)
  6. Conclusion (H0 seules et H0 intéraction)
  7. Test post-hoc -> possible mais interprétation compliquée/mal utile
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Régression linéaire multiple

A

Extension régression linéaire simple

Modèle général : yi = β0 + ∑ (βj * xij) + ϵi
Où, βj : coefficients régression partielle variable explicative -> correspond pente régression Y sur X quand autres variables constantes

Régression reste linéaire même si transforme 1 variable -> explicative ou réponseà

Interactions variablex explicatives représentés par terme supplémentaire
Ex : y = β0 + β1 * x1 + β2 * x2 + β3(x1 * x2) + ϵ

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Multicolinéarité

A

Possible coefficients seuls pas significatifs (test t) mais modèle oui (F-ratio)
- Variables Xij indépendantes de Y mais corrélées entre elles

Pas condition application mais doit vérifier
- Plus Xj corrélent ensemble, plus difficile calculer variance Y dû variance indépendnte
Donc quand multicolinéarité forte -> erreur standard β̂j grande
- Fort risque que intervalles β̂j permettent pas exclure par 0

Si colinéarité parfaite entre Xj -> paramètres Bj pas estimables

Utilise matrices corrélation pour vérifier -> test posteriori (refait régression si problème)

17
Q

Choix meilleur modèle

A

Possbile certains βj pas significatifs, mais autres/régression globalement oui

Peut supprimer variable ou utiliser outils déterminer modèle respecte principe parcimonie
- Soit modèle moins complexe pour plus grand R^2 (pouvoir explicatif)

Ex : critère d’Information d’Akaike (AIC)
- Plus valeur faible -> plus modèle meilleur

18
Q

Procédure : régression linéaire multiple

A
  1. Définit résultats attendus
  2. Formuler H0/H1
    - Nombre dépend nombre variables -> 3 variables = 3x H0/H1
    - Considère par intéractions par simplicité
  3. Calculer β̂j (paramètres régression) et tester (p-value < 0.05)
  4. Vérifier colinéarité Xj -> recommencer 3 si besoin
    - Utilise : Facteur Inflation Variance (VIF)
  5. Séléctionner meilleur modèle -> recommencer 3 si besoin
    - Avec stepAIC() de MASS
  6. Vérifier conditions application avec résidus (plot (), 1,2,5)
  7. Évaluer pouvoir explicatif Xj sur Y avec R2
    - R^2 > 0.5 = relation très forte en biologie/écologie
19
Q

R^2 ajusté

A

Corrige inflation pouvoir explicatif induit par ajout variables explicatives

Pénalise variance expliquée par nombre variable modèle -> augmente pas toujours avec ajout variable

Formule : R^2 aj = 1 - (CMres/CMreg) = 1 - ( (SCres / (n-k)) / (Screg / (n-1)) )

20
Q

Facteur d’Inflation de la Variance (VIF)

A

Valeur montre de combien variance β̂j surestimé par possible colinéarité

Ex : si VIF de β̂j = 4 -> erreur standard 2 (√4) fois plus grande que si pas colinéarité
- β̂j 2x plus grand nécessaire pour significativité

VIF > 4 mauvais signe

Utilise vif () du package car

21
Q

Analyse de covariance (ANCOVA)

A

Cherche déterminer effet facteur sur variable réponse numérique eet permet calculer effet par contrôle effet autre variable continue de confusion -> covariable
Donc : ANCOVA = ANOVA * Régression

Utilise quand peut pas réduire influence covariable par blocking -> étude observationnelle
- Doit mesurer valeurs covariable et corriger après

H0 : facteur pas influence sur moyenne variable quand covariable corrigée
H1 : facteur effet sur variable quand covariable corrigée

Modèle linéaire : Réponse = Constante + Covariable + Facteur

22
Q

ANCOVA : indépendance facteur-covariable

A

Doit assurer absence intéractions entre covariable et facteur
Vérifier significativité : Réponse = Constante + Covariable + Facteur + Covariable * Facteur

Visuellement : absence = pentes droites régression entre Y-covariable égales dans chaque groupe

Donc ANCOVA sert tester égalité pente régression entre Y-X différents groupes

23
Q

Procédure : ANCOVA

A
  1. Définit résultat attendu
  2. Formule H0/H1
  3. Vérifie intéraction facteur-covariable
    - Avec ANCOVA dans tableau ANOVA
  4. Vérification condition applications (plot (), 1,2,5)
  5. Conclusion (p-value < α -> rejet H0)
    - Permet savoir si significtif après correction
    - Peut visualiser avec figure synthétique