COURS 6 Flashcards

1
Q

La corrélation indique le degrés de quoi?

A

La corrélation indique le degré avec lequel la connaissance d’une
variable réduit l’incertitude relative quant à une autre variable (de
0 % pour une corrélation non significative à 100 % pour une
corrélation parfaite)
C’est-à-dire le degré avec lequel une variable « explique » l’autre.
La corrélation est une mesure de la réduction de l’incertitude.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Qu’est-ce que la régression prédit?

A

La régression prédit (estime) la position probable d’une personne sur la variable y à partir de sa position connue sur la variable x. Le degré de précision de cette estimation dépend de la taille de la rxy connue.
(plus la correlation est forte, plus la prédiction est fiable)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

pourquoi ecq la moyenne n’est pas l’estimation la plus utile en psychologie? (même si c’est la donnée qui est la plus précise)

A

Mais la psychologie s’intéresse aux différences individuelles.
- Une estimation basée sur Χ est moins précise / utile.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Quel est le but de la régression?

A

Le but de la régression consiste alors à utiliser la relation générale (rxy)
pour faire une prédiction individualisée et plus précise que celle permise à
partir de la moyenne.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Que signifie une régression simple?

A

Consiste a prédire la position de l’observation sur la variable (y) à partir de
notre connaissance d’une seule autre variable (x).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Que signifie une régression linéaire?

A

Ne fournira une estimation « juste » seulement si la relation xy est linéaire (voir diapo 45+, séance 5 –postulats).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Que signifie une régression linéaire multiple

A

En régression linéaire multiple, on utilise plusieurs (VIs) variables
indépendantes), pour prédire la variable « y » (VD)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Comment fluctue la précision d’une régression?

A

▫ La précision de la prédiction s’améliore au fur et à mesure que rxy augmente (la réduction de l’incertitude étant plus grande avec des rxy plus élevées).
- rxy = ± 1,0 : pour chaque observation x, on estime sans erreur la
performance sur y.
- rxy = 0,0 : pour chaque valeur de x, on estime la même valeur pour
toutes les valeurs y (i.e. la Χ de y, ce qui entrainera beaucoup d’erreurs
dans les prédictions).
- rxy > 0,0; < ±1,0: le niveau de précision (et donc d’erreur) variera entre
0 et 100 %, dépendamment de la corrélation.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

définition de la régression standardisée?

A

▫ La régression standardisée se sert de la position en score-z de
l’observation x, afin d’estimer (prédire) sa position en score-z sur la
variable y

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

comment est représenté la tendance des coordonnées xy?

A

La tendance des coordonnées xy est représentée par une droite de régression.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Comment doit être la position de la droite dans le graphique de coordonnées?

A

▫ La droite de régression est correctement positionnée lorsqu’elle représente le mieux la distribution des coordonnées.
▫ La moyenne étant toujours le meilleur estimé des coordonnées, la droite est bien positionnée lorsqu’elle se trouve à la moyenne (au centre) du nuage de points

▫ Principe: la somme des écarts a la moyenne est toujours égale à zéro.
▫ Plaçons la droite n’importe où.
▫ Mesurons l’écart entre chaque coordonnée (xy) et la droite.
▫ Certaines seront au-dessus de la droite (signe +).
▫ Certaines seront en dessous (signe -).
▫ La droite est a la bonne place lorsque la somme des + et des – est égale à zéro

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Quel est l’angle de la droite dans une régression standardisée parfaite?

A

45 degres

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

dans une régression standardisée, où se trouve l’ordonnée à l’origine?

A

le point (0,0) car la moyenne des scores z est toujours égale à zéro (puisque c’est les écarts moyens à la moyenne)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Quelle est une approche plus rapide que le positionnement classique (positionnement par graphique) de la droite de régression?

A

l’approche statistique.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

que devient rxy lorsque nous parlons de régression?

A

B (béta) (le coefficient de régression standardisé)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

que signifie Zx?

A

le socre-z (souvent VI), le prédicteur.

17
Q

Quelle est le calcul pour savoir la valeur de y^ (estimé)

A

y^= B * Zx

▫ Nous utilisons B pour prédire la valeur y (ŷ) pour une observation pour laquelle nous n’avons que sa valeur x.
- On transforme l’observation x en score-z.
- On multiplie le score-z par le coefficient B.
- Nous obtenons la valeur prédite ŷ pour cette observation, si l’inférence
basée sur rxy ou B est statistiquement significative.

18
Q

Quels sont les inconvénients de la régression simple standardisée?

A

▫ Que l’on utilise l’approche graphique ou l’approche statistique, la procédure standardisée a un inconvénient majeur : elle produit un estimé de y en score-z plutôt qu’en valeur de l’échelle originale.
▫ Ce n’est alors utile que si l’on cherche si une variable x à une
influence sur une variable y, sur le plan théorique.

19
Q

définition de la régression non standardisée (NS)?

A

▫ La régression non standardisée (NS) analyse les données originales et produit un estimé en valeurs originales.
▫ Mais les valeurs originales proviennent de distributions x et y qui n’ont pas nécessairement une Χ et un s identique.
▫ La droite de régression sera établie en intégrant les Χ et s de x et de y.

20
Q

Où se trouve l’ordonnée à l’origine dans une régression NS?

A

n’importe où, car ce n’est pas en valeur standard.

21
Q

Quelle est la fonction qui value le y^ estimé en régression NS?

A

y = a + b x

▫ « b » = le coefficient de régression NS.
▫ Il s’agit de la corrélation rxy calculée en valeurs réelles (et non pas en scores-z).
▫ Requiert Moyennex, Moyenney, Sx et Sy.
▫ « a » = l’ordonnée a l’origine.
▫ Intègre le fait que les variables x et y n’ont pas nécessairement la même Χ et le même s.

22
Q

Comment se trouve b (régression Ns)

A

b = rxy

23
Q

Comment se trouve b (régression Ns)

A

b = rxy * (Sy/Sx)
▫ Le coefficient b indexe numériquement la taille du changement
sur y relativement à la taille du changement sur x
La corrélation rxy est une valeur standardisée. Elle représente la relation entre les valeurs x et y exprimées en scores-z.
Une correction arithmétique permettant d’exprimer la corrélation en valeur brute et non pas en valeur standardisée.

24
Q

À quels moments b = 0 (régression NS)

A

Lorsque Sy et/ou Sx= 0, b = 0 (ou non calculable). Pas de variance (ou
d’écart-type), pas le lien et pas de prédiction (postulat) !
Lorsque rxy = 0, b = 0

25
Q

Quelle est la définition du paramètre “a” (régression NS)?

A

▫ L‘ordonnée à l’origine « a » est une constante qui est ajoutée à au produit de b et de x pour finaliser la prédiction.
▫ Elle prend en considération que les deux variables x et y n’ont pas nécessairement la même moyenne, les deux pouvant être numériquement différente (ex. grammes et kg).
▫ Elle sert à « ajuster » la valeur prédite (ŷ) afin qu’elle soit sur l’échelle de y.
▫ Elle indique la valeur sur y, lorsque x est à sa valeur minimale ou a « zéro».

26
Q

Comment se calcule le paramètre “a”?

A

a = Moyenne(y) - b * Moyenne(x)

27
Q

Quelles sont les similarités entre la régression standardisée et la régression NS?

A
  • La droite de régression est déterminée par la relation rxy.
  • S’établissent graphiquement de la même manière.
28
Q

Quelles sont les différences entre la régression standardisée et la régression NS?

A
  • L’ordonnée à l’origine est toujours « 0 » en régression standardisée,
    alors qu’elle est presque jamais « 0 » en non standardisée.
  • La régression standardisée utilise la corrélation (standardisée) pour
    produire un estimé en valeur standardisée.
  • La régression NS utilise la relation non standardisée pour produire une
    estimation en valeurs originales.
29
Q

Quelle est la différente utilisation de B (béta) et de b

A

▫ Le coefficient b :
- Utilisé lorsque nous voulons prédire la valeur y exprimée sur la même échelle que celle de la VD. - Utilisé principalement en pratique (sur le terrain), pour faire une véritable prédiction.
▫ Le coefficient b : - Utilisé lorsqu’il s’agit de déterminer « l’importance » d’une VI pour la prédiction d’une VD. - Utilisé principalement dans un contexte théorique. Est-ce que x prédit bien (ou moins bien) la variable y ?
comparer des prédictions entre elles.
Quel lien est le plus fort?

30
Q

Définition de l’erreur d’estimation?

A

▫ Plus élevée la corrélation rxy, plus élevé sera le coefficient de
régression b.
▫ Plus élevé est le coefficient, plus précise sera la prédiction. Toutes les coordonnées sont plus proche de la droite de régression et donc, plus précise sera la prédiction.
▫ Si la prédiction est plus « précise », le risque d’erreur ou la taille de l’erreur seront plus faibles
▫ Il nous faut donc trouver un moyen d’estimer la taille de
l’erreur d’estimation potentielle => le degré de précision de l’inférence
“Range d’erreur”.
si B/b est élevé, l’erreur d’estimation diminue.

31
Q

Quelle est la formule statistique de l’erreur d’estimation?

A

e = (ŷ - y).
- e = l’erreur d’estimation.
- ŷ = la valeur prédite de y.
- y = la véritable valeur de y.

▫ L’erreur de prédiction est calculée à partir des données initiales utilisées pour construire la régression (c’est comme l’intervalle de confiance que nous avons vu à la séance 4).
▫ Une fois la régression établie, nous comparons, pour chaque observation, sa véritable valeur y a sa valeur prédite (ŷ). - Quand trop d’erreur sont commises, il faut rejeter H1 (la prédiction n’est pas statistiquement significative)

32
Q

Qu’est-ce que l’erreur moyenne d’estimation?

A

Il serait utile de connaitre l’erreur moyenne que nos estimations
ou prédictions font.
Moy(erreur)= Sommation(ŷ - y)/N = Sommation(e)/n = 0
Puisque ça donne 0, il faut mettre au carré (variance des erreurs d’estimation)
donc ça donne => Moy(erreur)= Sommation(ŷ - y)²/ n -1

33
Q

Qu’est-ce que l’erreur type d’estimation?

A

Se (racine carré de la variance des erreurs d’estimation)

34
Q

Définition de l’erreur type d’estimation?

A

▫ L’erreur type d’estimation nous indique l’erreur typique (moyenne) que
nous faisons avec nos prédictions.
▫ Nous allons utiliser cette information pour calculer une fourchette de
valeurs à l’intérieur de laquelle se trouvera « probablement » la véritable
valeur (le principe est semblable à celui de l’intervalle de confiance).
▫ Cela servira à conclure / prédire:
- Ex.: on prédit que votre note à l’examen final sera 75 %, mais il y de
« bonnes » chances que véritablement, elle se trouvera entre 65 % et
85 %.

35
Q

Selon la distribution normale des erreurs d’estimation, quel est le % d’erreurs qui se trouve à +ou - 1 erreur type de la valeur prédite?

A

68,26%

36
Q

Selon la distribution normale des erreurs d’estimation, pour avoir avoir une probabilité de 95% d’avoir une bonne estimation, à combien d’écart-type faut-il estimer notre valeur?

A

+ ou - 1,96 écart type.

37
Q

Quelle est la relation entre rxy et B(béta)/b

A

Plus faible est rxy ou b, plus elevée sera se.
Plus élevée est se, plus large sera la fourchette de valeurs autour de la valeur prédite (la prédiction est moins précise).
Lorsque rxy ou b est parfait (i.e. ± 1,0), se = 0 (la prédiction se
fait sans erreurs).

38
Q

Quels sont les postulats de la régression? (7)

A

▫ Échelles à intervalles ou de rapport (ratio).
▫ Variance sur x et sur y (homogénéité des variances).
▫ Linéarité.
▫ Distributions normales de x et de y.
▫ Éviter les valeurs extrêmes (« outliers »).
▫ Variance égale des erreurs de prédictions.
▫ Distribution normale des erreurs de prédictions.