ACP Flashcards
partie 4
Quelles sont les différences fondamentales entre ACP et AF ?
- Dans l’ACP, il n’existe pas de théorie qui sous-tende les mécanismes ou processus sous-jacents aux variables mesurées. L’ACP combine directement les variables mesurées d’une facon à obtenir des variables composées. Ces variables composées, qui s’appellent composantes, seront moins nombreuses et elles retiendront l’information initiale des variables mesurées.
- L’AF postule l’existence de mécanismes ou processus latents qui sont à la base des valeurs observées sur les variables mesurées. Ces mécanismes ou processus s’appellent des facteurs, se basent sur ce que les variables mesurées int en commun et sont indépendants de ce qui est unique à chaque variabke mesurée.
- Etant donné que l’existence des composantes n’est pas justifiée théoriquement, elles sont sujettes à de simples statistiques descriptives. A l’inverse, l’existence des facteurs est théoriquement postulée, els sont donc sujets à des statistiques descriptives ainsi qu’inférentielles.
- L’AF reconnaît que chaque fois qu’on mesure une variable, de l’erreur de mesure peut intervenir. Elle sert donc à un autre but, celui d’améliorer la précision de la mesure.
Quelle est la décomposition des matrices dans l’ACP ?
- M=R, où R est la matrice de corrélations des variables mesurées.
- La somme des valeurs propres correspond à la variance totale à décomposer (égale au nombre de variables dans R).
- Le but principal est d’attribuer la variance initiale de beaucoup de variables mesurées à moins de variables latentes (composantes), représentées par les grandes valeurs propres de R.
- Les cas où la répartition est moins efficace sont ceux qui donnent lieu à des valeurs propres de R toutes égales à 1. Dans ces cas, les variables mesurées ne corrèlent pas du tout.
- On espère donc obtenir des valeurs propres > 1 et plusieurd < 1.
- Néanpmoins, il est possible d’obtenir autant de composantes que de variables. Au pure, chaque variable définit une composante.
Quelles sont les utilisations de l’ACP et le l’AF en psychologie ?
En psychologie, on utlise plus souvent l’AF parce qu’elle :
- reconnaît l’existence de variables pas mesurables directement mais que nous pouvons mesurer indirectement (on infère que par rappor à l’indicateur, on a un concept psychologique derrière)
- reconnaît la difficulté de mesurer des variables psychologiques (prend en compte la possibilité d’avoir un erreur de mesure)
- nous permet de comprendre avec plus de parcimonie l’informations d’un très grand ensemble de variables
Deux utilisations sont particulièrement fréquentes en psychologie :
- les questionnaires
- les batteries de test
Quel est le modèle statistique de l’AF ?
Les équations du modèle statistique de l’AF sont très similaires à des équations de régressions multiples. Si on connaissait les valeurs des facteurs f de chaque sujet, on pourrait calculer les variables x… que nous avons mesurées !
En fait, nous pourrons jamais obtenir les valeurs exactes de f, parce que les équations du modèle statistique de l’AF contiennent des variables mesurées (x), mais également des variables non mesurées (u). Par conséquent, les scores factoriels ne seront jamais calculés, mais “seulement” estimés. Un score factoriel d’un sujet est une estimation qui permet de faire une inférence.
Dans ce contexte, les poids de régression λ s’appellent coefficients de saturation (ou loadings) et ils nous permettent d’identifier certaines caractéristiques des facteurs.
En particuluer, nous pouvons obtenir les statistiques descriptives des facteurs (ex. la moyenne, la variance, les covariances avec d’autres variables avec d’autres variables, les poids de régression entre eux et d’autres variables, les poids de régression entre eux et d’autres variables).
Comme les facteurs sont théoriquement justifiés, on est généralemen t intéressé à comprendre leur signification. Pour cela, ion utilise leurs liens avec les varoables mesurées (les coefficients de saturation).
Quels sont les principes de base de l’AFC ?
L’AFC propose un modèle qui explique la structure des données analysées. Ce modèle esrt supposé être explicatif des variances et covariances (ou corrélations) des variables sélectionnées. Ainsi, l’hypothèse nulle testée dans l’AFC est : H0 : Σ = Σ θ
Autrement dit, l’hypothèse nulle est que le modèle que l’on propose concernant nos données n’est statistiquement différent de la structure des données que l’on observe. Pour ce genre de test, l’objectif que l’on se fixe est de ne pas rejeter l’hypothèse nulle car nous souhaitons que le modèle proposé s’ajuste (“fit”) bien aux données que l’on a récoltées.
L’AFC va permettre de déterminer si la différence entre la structure des données observées (S) et la structure postulée des données (sigma theta) est significativement différent de 0 ou non.
Pour cela, il faut observer les indices d’ajustement du modèle aux données. Si ces indices d’ajustement sont bons, alors on peut considérer que le modèle proposé s’ajuste bien aux données.
Cependant, le fait que CE modèle s’ajuste bien aux données ne veut pas forcément dire qu’il représente le mieux la réalité. En effet, d’autre modèles :
- peuvent être proposés
- peuvent être également bons
- peuvent mieux s’ajuster aux données
Quels sont les indices d’ajustement ?
- le RMSEA : cet indice est considéré comme bon lorsque inférieur à .05
- le SRMR : cet indice est considéré comme bon lorsque inférieur à .08
- le χ 2 et le ratio χ 2 /df (avec df = nombre de degré de liberté du modèle) : la valeur du chi-carré est bonne lorsque non significatif (très rare…). Une valeur inférieure à 2 pour le ratio χ 2 /df est acceptable
- le NFI : considéré comme acceptable au-dessus de .90 et très bon au-dessus de .95 “de manière générale est-ce que le modèle est bon ?”
- le CFI : considéré comme acceptable de .90 et très bon au-dessus de .95 “de manière spécifique est-ce que le modèle est bon ?”