Mini test 3 Flashcards

1
Q

Qu’est-ce que la régression multiple ?

A

Extension de la régression simple pour les cas où nous avons plusieurs variables explicatives continues

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

La régression multiple est tout indiquée pour les cas où la variable d’intérêt (Y) est …

A

influencée par

plusieurs choses en même temps

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Qu’est ce que β1 ?

A

β1 est la pente partielle pour la variable X1

Le changement en Y par unité de X1 en gardant la valeur de toutes les autres variables constantes

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Qu’est-ce que εi ?

A

Résidu associé à la i ème observation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Comment sont estimés les paramètres de la régression multiple ?

A

Méthode des moindres carrés

Pentes partielles

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Vrai ou faux, On estime autant de pentes partielles qu’il y a de variables dans le modèle + l’ordonnée à l’origine.

A

Vrai

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Comment est fait le test d’hypothèse du modèle entier ?

A

En comparant les ratio de MSRégression / MSRésidus à une distribution de F

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Comment tester chacune des pentes ?

A

Stratégie 1 : comparer l’ajustement, test de F partiel

Stratégie 2 : Test de

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Qu’est-ce que le test de F partiel ?

A

Différence de variance / Variance des résidu

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Quelle stratégie pour tester les pentes est la plus flexible ?

A

Test de F, car on peut enlever des groupes de variables entiers

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Est-ce que le R2 peut être utilisé dans la régression multiple ?

A

Non, Le R2 ne peut PAS être utilisé pour comparer des modèles ayant un nombre différent de paramètres

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Comment savoir quelles variables dans un modèle a un grand effet ?

A

Pente standardisée

En modélisant les variables centrées-réduites

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Comment calculer la pente standardisée ?

A

bj = bj (Sxj/Sy)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Quelles sont les 5 assomptions de la régression multiple ?

A
  1. Normalité
  2. Homogénéité de la variance
  3. Indépendance
  4. X est fixe
  5. Les variables prédictives ne sont pas corrélées entre-elles (colinéarité).
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Comment peut être valider les modèles ?

A

Levier
Résidus
Influence (distance de Cook > 1)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Quelle est l’étape la plus importante de la modélisation ?

A

Validation des résidus

17
Q

Quand est-ce que se produit la colinéarité ?

A

Ce phénomène se produit lorsque des variables explicatives sont corrélées entre elles

18
Q

Quels sont les impacts de la colinéarité ?

A

Les estimés de paramètres sont instables

Les intervalles de confiance sont gonflés

19
Q

Comment quantifier la colinéarité ?

A

Tolérance : 1 - R2 d’une régression entre une variable et les autres variables explicatives. Plus la tolérance est grande, plus cette variable est indépendante des autres.

VIF (variance inflation factor) = 1 / Tolerance. Plus le VIF est élevé, plus cette variable ajoute de l’instabilité au modèle à cause de sa colinéarité avec les
autres.

20
Q

Quelles sont les options à la colinéarité ?

A

Omettre du modèle les variables qui sont fortement corrélées avec celles
déjà dans le modèle.
Baser l’analyse sur les axes d’une ACP.