Professional Documents
Culture Documents
Cours de l'ACP
Cours de l'ACP
1/31
31 octobre 2020
Plan
ANALYSE EN COMPOSANTES
PRINCIPALES
Support de cours
Lahoucine Assellam
3/31
30 octobre 2020
introduction
n
Les tableaux peuvent être vus comme un ensemble de lignes ou de colonnes. Par convention,
· En lignes figurent les individus, en colonnes figurent les variables. deux nuages de points peuvent
alors être construits :
· Le nuage des individus (les points-lignes) qui opère dans un espace dont le nombre de dimensions (le
nombre d'axes) est égal au nombre de variables
· Le nuage des variables (les points-colonnes) qui opère dans un espace dont le nombre de dimensions
(le nombre d'axes) est égal au nombre d'individus
8
Les données sont les mesures effectuées sur n unités {}. Les p variables
quantitatives qui représentent ces mesures sont, d’où l’écriture
matricielle suivante du tableau de données : u1....,ui.........,un
v1....,vi,.........,vp
La ligne i décrit la valeur prise par l’individu pour p valeurs, alors que la
colonne j décrit la valeur de la variable pour n individus. iujv
1. Historique des analyses factorielles
Les expressions « facteurs » et « analyse factorielle » sont d’ailleurs très mal choisies puisqu’on obtient non
pas des facteurs explicatifs mais des résumés descriptifs et qu’il ne s’agit pas d’analyse mais de synthèse :
c’est l’histoire qui explique ce contresens.
Des psychomètres au début du 20ième siècle (Pearson, 1900) ont mis au point les premières analyses
factorielles. Ils cherchaient, « cachées » derrière les résultats d’individus à des tests variés, des mesures de
capacité intellectuelle (intelligence, mémoire, …) qu’ils ont nommées « facteurs » sous-jacents, explicatifs
des résultats fournis par les tests psychologiques.
Avant la 2eme guerre mondiale, des statisticiens (Hotelling, Thurstone, 1934) ont repris ces travaux dans
une perspective descriptive, mettant au point l’analyse en composantes principales (A.C.P.), adaptée au
résumé, à la synthèse de variables quantitatives.
Après la 2eme guerre mondiale, un statisticien français (J.P.Benzecri, 1957) a adapté, sous le nom
d’analyse factorielle des correspondances (A.F.C.), cette méthode à la synthèse de tableaux composés de
variables qualitatives, fréquemment issues d’enquêtes (comme les tableaux de contingence).
Type de questions auxquelles l'analyse factorielle permet de
répondre
- Combien de facteurs sont nécessaires pour donner une représentation juste des
données?
- Quelle est la nature de ces facteurs, comment peut-on les interpréter?
- Quelle proportion de la variance des données peut être expliquée par un certain
nombre de dimensions (facteurs) majeures?
- Jusqu'à quel point la solution factorielle est conforme à la théorie que je voulais
vérifier?
- La structure factorielle est-elle la même pour divers groupes?
- Quel score auraient obtenu les sujets si on avait pu mesurer les facteurs?
Type de questions auxquelles l'analyse factorielle permet de
répondre
On cherche à extraire l’information pertinente contenue dans le
tableau des données. Pour cela, on va le résumer en extrayant
l’essentiel de sa structure en vue de faire des représentations
graphiques à la fois fidèles aux données initiales et commodes à
interpréter. Ces représentations devront se faire en dimension
réduite.
Comment ?
Type de questions auxquelles l'analyse factorielle permet de
répondre
On cherche des combinaisons linéaires des variables initiales,
appelées composantes principales, s’écrivant sous la forme
suivante :
Telles que
•C1 doit contenir un maximum d’information, c’est-à-dire disperser le plus
possible les individus.
•R (C1,C2) = 0 la condition de perpendicularité des axes 1 et 2, c’est-à-dire que
la deuxième composante principale doit contenir l’information complémentaire
de la première.
Type de questions auxquelles l'analyse factorielle permet de
répondre
La variance de C2 doit être, à son tour, la plus grande possible. Ainsi,
cette deuxième composante principale fournit la plus grande
information possible complémentaire à la première.
Le processus se déroule jusqu’à l’obtention de la dernière composante
principale ( la èmep), les parts d’informations expliquées par chacune
d’elles devenant de plus en plus faibles.
la phase essentielle de L’ACP consiste à transformer ces p variables
quantitatives initiales, toutes plus ou moins corrélées entre elles, en p
nouvelles variables quantitatives, non corrélées, appelées composantes
principales.
Type de questions auxquelles l'analyse factorielle permet de répondre
Les données sont soit considérées en tant qu'individus décrits par leurs p
variables, soit en tant que variables décrites par les n individus, d’où
l’importance de la considération des deux nuages de points. Nous obtenons
ainsi n points dans l’espace Rp, espace des variables et p points dans l'espace
Rn celui des individus.
Mais le problème est de visualiser la forme des nuages, pour ce faire l'idée est
d'étudier les projections sur des droites, des plans ou plus généralement sur
des sous espace de dimension réduite s < p. Il faut donc chercher le sous-
espace qui ajuste au mieux le nuage de points i.e. chercher à minimiser les
déformations provoquées par la projection.
Nous allons donc chercher à ajuster au mieux le nuage des individus dans
l'espace des variables puis le nuage des variables dans l'espace des individus
Analyse en composantes principales et analyse factorielle
- Lorsqu'une variable est corrélée à plus d'un facteur, on dit que c'est une
variable complexe; on peut dire que la signification des réponses à cette
variable s'interprète selon plusieurs dimensions.
Considérations théoriques et pratiques
G ARDER LE MAXIMUM
D’INFORMATION POSSIBLE
Présentation de l’A.C.P.
L’A.C.P est proposée pour la première fois par Pearson en 1901, elle est ensuite intégrée `a
la statistique mathématique par Hotelling en 1933. L’A.C.P. peut être considérée selon
différents points de vue. La présentation la plus fréquente dans la littérature francophone est
géométrique. L’A.C.P est alors vue comme une technique visant a représenter de façon
optimale des données, selon certains critères géométriques et algébriques. Le lecteur pourra
se reporter à l’ouvrage de Lebart et al. (1997).
Un tableau numérique peut se représenter par un nuage de points
Figure 1.1: Projection des points d’un plan perpendiculairement à un axe factoriel
Résumer ce nuage de points : le projeter sur un sous espace
27
Résumer ce nuage de points : le projeter sur un sous espace
Exemple_1
Plan Y-Z
28
Résumer ce nuage de points : le projeter sur un sous espace
Exemple_1
Plan X-Z
Graphique factoriel
30
Résumer ce nuage de points : le projeter sur un sous espace
Exemple_2
34
Définition d’un Vecteur
la notion de vecteur est le fondement de la branche des mathématiques appelée algèbre linéaire. À ce
sens, un vecteur est un élément d'un espace vectoriel, ce qui permet d'effectuer des opérations
d'addition et de multiplication par un scalaire.
vecteur peut être représenté par un flèche:
Définition d’un Vecteur
Définition d’un Vecteur
Définition d’un Vecteur
Définition d’un Vecteur
Définition d’un Vecteur
Définition d’un Vecteur
Définition d’un Vecteur
Définition d’un Vecteur
Définition d’un Vecteur
Définition d’un Vecteur
Définition d’un Vecteur
Axes factoriels
L'inertie comme somme des distances des points d'un nuage
Qu'est-ce qu'une projection (orthogonale) ?
47
Axes factoriels
L'inertie comme somme des distances des points d'un nuage
Qu'est-ce qu'une projection (orthogonale) ?
48
Axes factoriels
L'inertie comme somme des distances des points d'un nuage
Quelles directions peuvent être intéressantes ?
49
Axes factoriels
L'inertie comme somme des distances des points d'un nuage
Quelles directions peuvent être intéressantes ?
50
Axes factoriels
51
Axes factoriels
u2'X'Xu2soit maximum
u2'u2 = 1 (contraint de normalité)
u2'u1 = 0 (contraint d’orthogonalité)
sous-espaces d'ajustement
Recherche de sous-espaces optimaux.
Par récurrence, le sous-espace à s dimensions s’ajustant au mieux
au nuage ni contient les vecteurs u1....,ui,.........,us-1. Ce sous-
espace est engendré par le sous-espace {u1....,ui,.........,us-1} de
dimension s-1 et le vecteur s orthogonal à ce sous-espace, et
vérifiant que :
us'X'Xussoit maximum
us'us= 1
Sous-espace d'ajustement
Proposition
Preuve
On utilise la méthode de Lagrange pour vérifier que utXtXu
est maximal
Définition :
Les s nouvelles variables sont appelées composantes principales,
c’est celles qui résument donc l'ensemble des variables initiales du
tableau X. v1...,vj,.........,vs
Sous-espace d'ajustement
Le programme de maximisation s'écrit alors :
S’ajuster au mieux signifie donc reconstituer au mieux les positions des points des nuages
par un nouvel ensemble de coordonnées
problème
Il s’agit d’un tableau de données quantitatives, avec les variables en colonnes, les
individus en lignes et les observations à l’intérieur du tableau.
L’objectif de l’ACP est d’analyser l’information contenue dans le tableau, c'est-à-dire
la structure du nuage des individus dans l’espace Rn et des variables dans l’espace RN
.
xij x j
zij
(x j )
1
cov( z j , zk ) rz j z zij zik avecj k
k n
La matrice Z des variables centrées réduites s’écrit alors :
z1 . zj . z1 p
. . . . .
z (n, p ) zi . zij . zip
. . . . .
zn . z nj . z np
F1 j
.
FJ (n,1) Fij
.
Fnj
Ecriture des composantes principales dans Rp
1 Le produit scalaire
L’ACP vise donc à projeter dans R porthogonalement les n points individus sur p
nouveaux axes appelés axes principaux, sachant que l’origine de ces nouveaux
axes reste identique à celui de l’espace de départ. Ce changement d’axes a pour
but (lorsque cela est possible), de lire l’information concernant les individus en
utilisant un espace restreint à 2 ou 3 dimensions (au maximum).
Ecriture des composantes principales dans Rp
Le produit scalaire
On remplace donc Z par une nouvelle matrice F :
Ecriture des composantes principales dans Rp
Le produit scalaire
Pour cela, on effectue un changement de base dans l’espace
de départ. Rappelons que si on connaît les coordonnées
d’un vecteur quelconque dans la base R de départ, la
p
1 Le produit scalaire
On vérifie avec le produit scalaire Fj = Zbj qui définit la jième composante principale,
qu’il s’agit d’une combinaison linéaire des variables de départ, les poids étant les
éléments du nouveau vecteur bj r du changement de base.
M Cosinus carrés
Oc12
c2 P Cos (OM , CP1 )
2
OM 2
c1 Oc22
O Cos (OM , CP2 )
2
OM 2
OM : vecteur de l’observation
Qualité
OP : vecteur de la projection sur le plan factoriel
OP2
Oc1 : projection sur l’axe 1 QUAL Cos (OM , OP)
2
OM 2
Oc2 : projection sur l’axe 2
86
Algorithme de l’ACP
92/3
1
Extraction des composantes principales
93/3
1
Caractères des composantes principales
La deuxième composante principale doit avoir une corrélation linéaire nulle avec la première (orthogonalité).
Il reste un résidu non expliqué par cette première composante. C'est sur ce résidu qu'est calculée la deuxième
composante principale.
94/3
1
L’ ACP : Rotation des axes
La rotation est le processus mathématique qui permet de faciliter l'interprétation des facteurs en
maximisant les saturations les plus fortes et en minimisant les plus faibles de sorte que chaque
facteur apparaisse déterminé par un ensemble restreint et unique de variables. Ce processus est
effectué par rotation, repositionnement des axes.
Deux types de rotations:
rotation orthogonale: On utilise cette rotation avec l'ACP2 et avec l'analyse factorielle (AF)
lorsque l'on croit qu'il est possible de déterminer des facteurs qui soient indépendants les uns des
autres. Une solution orthogonale est toujours préférable parce qu'une telle solution indique que
chaque facteur apporte une information unique, non partagée par un autre facteur.
Toutefois, ce type de solution est rarement possible en sciences sociales puisque habituellement, il
existe des liens conceptuels entre les facteurs. Il existe trois méthodes pour produire une rotation
orthogonale; la plus fréquemment utilisée est VARIMAX. Celle-ci repose sur la maximisation de la
somme des variances des carrés des saturations dans chaque colonne. En suite une autre méthode
quartimax, consiste à maximiser la variance des carrés; cette méthode exige la maximisation de la
somme des saturations à la quatrième puissance.
Avantages et inconvénients de l'ACP
Avantages
Simplicité mathématique: L'ACP est une méthode factorielle car la réduction
du nombre des caractères ne se fait pas par une simple sélection de certains
d'entre eux, mais par la construction de nouveaux caractères synthétiques
obtenus en combinant les caractères initiaux au moyen des "facteurs".
Cependant, il s'agit seulement de combinaisons linéaires. Les seuls véritables
outils mathématiques utilisés dans l'ACP sont le calcul des valeurs/vecteurs
propres d'une matrice, et les changements de base. Sur le plan mathématique,
l'ACP est donc une méthode simple à mettre en œuvre.
Simplicité des résultats : Grâce aux graphiques qu'elle fournit, l'ACP permet
d'appréhender une grande partie de ses résultats d'un simple coup d'œil.
Avantages et inconvénients de l'ACP
Puissance : L'ACP a beau être simple, elle n'en est pas moins puissante. Elle
offre, en quelques opérations seulement, un résumé et une vue complète des
relations existant entre les variables quantitatives d'une population d'étude,
résultats qui n'auraient pas pu être obtenus autrement, ou bien uniquement au
prix de manipulations fastidieuses.
Flexibilité : L'ACP est une méthode très souple, puisqu'elle s'applique sur un
ensemble de données de contenu et de taille quelconques, pour peu qu'il s'agisse
de données quantitatives organisées sous forme individus/variables. Cette
souplesse d'utilisation se traduit surtout par la diversité des applications de
l'ACP, qui touche tous les domaines, comme exposé dans la partie précédente.
Avantages et inconvénients de l'ACP
Inconvénients
En tant que méthode d'analyse de données, l'ACP n'a pas réellement
d'inconvénients en soi. Elle s'applique simplement sur des cas précis et pour
générer un type de résultat particulier. Ca n'aurait donc aucun sens de dire
que c'est un inconvénient de l'ACP qu'elle ne s'applique pas en dehors de
ce contexte. De même, étant donné qu'il s'agit avant tout d'une technique
de résumé de données, la perte d'information forcément engendrée n'est pas
un inconvénient, mais plutôt une condition d'obtention du résultat, même
si elle occulte parfois des caractéristiques pourtant représentatives dans
certains cas particuliers.
L’ ACP appliquée enMarketing
Cette méthode trouve de nombreuses applications dans le
domaine des études marketing:
1. Segmentation du marché;
2. Etudes de positionnement;
3. En recherche produit;
4. Etudes publicitaires;
5. Etudes prix…
Glossaire ACP
Tableau de données: Tableau croisant les individus i et les variables j;
Résidus: L’écart entre la matrice des corrélations et celle des corrélations reconstituée;
Valeur propre: Représente la variance totale expliquée par chaque facteur, axe,
composante;
Représentation: A quel degré les variables/individus sont bien représentés sur les axes;
Score factoriel: Pour chaque i, ce sont les nouvelles coordonnées sur les facteurs principaux;
Test de coude ou Scree Test: Graphique des valeurs propres, pris dans leur ordre
d’importance;
Test de Sphéricité de Bartlett: Compare la matrice des corrélation à une matrice identité.
Test Kaiser Mayer Olkin (KMO): Utilisé pour mesurer l’adéquation de l’ACP ou l’AF, il doit
Objectif(s) de l’étude;
Variables d’études;
Echelle;
Taille de l’échantillon;
Etude de cas
Répondant V1 V2 V3 V4 V5 V6
1 7 3 6 4 4 2
2 1 3 2 4 5 4
3 6 2 7 4 1 3
4 4 5 4 6 2 5
…
30 2 3 2 4 7 2
I- Formuler leproblème
Bouton Descriptives
Lancer l’ACP sur SPSS
Bouton Extraction
Lancer l’ACP surSPSS
Bouton Rotation
Lancer l’ACPsur SPSS
Bouton Facteurs
Avec test de Bartlett …
I-Calculer la matrice
des corrélation
Calcul de la matrice des corrélation
Calcul de la matrice des corrélation
L’analyse en composantes principales s’accommode assez bien des
situations où un certain niveau de multicolinéarité existe entre les
données. Cependant, il faut absolument se méfier de la condition dite
de « singularité » où une variable serait parfaitement corrélée avec
une autre variable ou avec une combinaison de plusieurs variables.
Cette condition peut être détectée en calculant le « déterminant» de
la matrice de corrélation |R|. Le déterminant est une valeur
numérique unique associée à une matrice carrée et qui peut prendre
n’importe quelle valeur entre «0» et «1». Cependant ces deux valeurs
extrêmes sont problématiques. En effet, un déterminant de «0»
indique que la matrice est singulière c’est-à-dire qu’il existe au moins
un cas de dépendance linéaire dans la matrice ou, en d’autres mots,
qu’une variable peut être entièrement expliquée ou prédite par une
combinaison linéaire d’autres variables.
Une matrice carrée est singulière
c'est-à-dire que son déterminant est zéro, si elle contient des lignes ou des colonnes
qui sont proportionnellement interdépendantes; en d'autres termes, une ou plusieurs
de ses lignes (colonnes) est exactement exprimable comme une combinaison linéaire
de tout ou partie de ses autres lignes (colonnes), la combinaison étant sans terme
constant.
Imaginons, par exemple, une matrice 3x3 (symétrique, comme une matrice de
corrélation, ou asymétrique). Si C3 = 2,15*C1, la matrice est singulière, Si L2 = 1.6*L1-4
* L3, la matrice est à nouveau singulière. Comme cas particulier, si une ligne ne
contient que des zéros, la matrice est également singulière car toute colonne est alors
une combinaison linéaire des autres colonnes. En général, si une ligne (colonne) d'une
matrice carrée est une somme pondérée des autres lignes (colonnes), alors l'une de ces
dernières est également une somme pondérée des autres lignes (colonnes).
La première image au-dessus montre une situation de régression normale avec deux
prédicateurs (régression linéaire). les prédicteurs modérément corrélés (= ayant un
angle aigu entre eux <90) X1 et X2 s'étendent sur le "plan X" de l'espace à 2
dimensions. La variable dépendante Y est projetée sur elle orthogonalement, laissant
la variable prédite Y ′ et les résidus avec écart égal à la longueur de e. R-carré de la
régression est l'angle entre Y et Y ′, et les deux coefficients de régression sont
directement liés au biais coordonnées b1 et b2, respectivement.
Colinéarité dans la régression: une explication géométrique et
ses implications
L'image ci-dessus montre une situation de régression avec des prédicteurs complètement colinéaires.
X1 et X2 sont parfaitement corrélés et donc ces deux vecteurs coïncident et forment la ligne, un espace à une
dimension. C'est un espace réduit. Mathématiquement cependant, le plan X doit exister pour résoudre la
régression avec deux prédicteurs, - mais le plan n'est plus défini, hélas. Heureusement, si nous supprimons l'un
des deux prédicteurs colinéaires de l'analyse, la régression est alors simplement résolue car la régression à un
prédicteur nécessite un espace de prédicteurs unidimensionnel. Nous voyons la prédiction Y ′ et l'erreur e de
cette régression (à un prédicteur), tracées sur l'image. Il existe également d'autres approches, en plus de
supprimer des variables, pour se débarrasser de la colinéarité
Colinéarité dans la régression: une explication géométrique et
ses implications
L'image finale ci-dessus montre une situation avec des prédicteurs presque
colinéaires. Cette situation est différente et un peu plus complexe et désagréable.
X1 et X2 (tous deux représentés en bleu) sont étroitement corrélés et de là presque
coïncident. Mais il y a toujours un petit angle entre eux, et en raison de l'angle non
nul, le plan X est défini (ce plan sur l'image ressemble au plan sur la première
image). Donc, mathématiquement, il n'y a aucun problème pour résoudre la
régression. Le problème qui se pose ici est d'ordre statistique.
Colinéarité dans la régression: une explication géométrique et
ses implications
Habituellement, nous faisons une régression pour déduire le carré R et les coefficients
de la population. D'un échantillon à l'autre, les données varient un peu. Donc, si nous
prenions un autre échantillon, la juxtaposition des deux vecteurs prédicteurs
changerait légèrement, ce qui est normal. Il n'est pas «normal» que sous une
colinéarité proche, cela entraîne des conséquences dévastatrices. Imaginez que X1 se
soit légèrement décalé vers le bas, au-delà du plan X - comme le montre le vecteur
gris. Parce que l'angle entre les deux prédicteurs était si petit, le plan X qui passera par
X2 et à travers ce X1 dérivé divergeront radicalement de l'ancien plan X. Ainsi, parce
que X1 et X2 sont tellement corrélés, nous nous attendons à un plan X très différent
dans différents échantillons de la même population. Comme le plan X est différent, les
prédictions, le R-carré, les résidus, les coefficients - tout devient également différent.
On le voit bien sur la photo, où le plan X a basculé quelque part à 40 degrés. Dans une
situation comme celle-là, les estimations (coefficients, R-carré, etc.) sont très peu
fiables, ce qui s'exprime par leurs énormes erreurs types. Et en revanche, avec des
prédicteurs loin d'être colinéaires, les estimations sont fiables parce que l'espace
couvert par les prédicteurs est robuste à ces fluctuations d'échantillonnage des
données.
Colinéarité en fonction de l'ensemble de la matrice
Même une corrélation élevée entre deux variables, si elle est inférieure à 1, ne rend pas
nécessairement toute la matrice de corrélation singulière; cela dépend également des
autres corrélations. Par exemple cette matrice de corrélation:
a un déterminant .00950 qui est pourtant suffisamment différent de 0 pour être considéré
comme éligible dans de nombreuses analyses statistiques. Mais cette matrice:
remarque
Le tableau suivant nous donne les statistiques initiales sous une forme. Le premier, dans la
portion de gauche (les valeurs 2.73, 2.21…..etc ) nous donne les valeurs propres décroissantes
et les pourcentages correspondants de chaque composante « Factor » extraites. au fait que
chaque variable a une variance de 1 et que la totalité de cette variance sera utilisée pour
déterminer les composantes principales. La colonne juxtaposée énumère la proportion de
variance attribuée à chacune des six composantes de notre analyse cumulée. il faut bien
observer que nous sommes en présence de deux tableaux présentés côte à côte par SPSS. La
portion de droite nous informe que la première composante C1 expliquera 45.52% de la
variance totale des variables, alors que la composante C2 ajoutera un autre 36.96%. Au total,
notre ACP permettra donc d’expliquer 82.48% de la variance présente dans nos données à
l’aide de deux composantes indépendantes.
Extraction des facteurs et détermination de leur nombre
Comment cette variance totale (6) sera-t-elle répartie entre les différentes
composantes que nous voulons extraire? La réponse s’obtient en calculant ce
que l’on nomme la valeur propre ou « eigenvalue » de chaque composante. Le
tableau présente ces valeurs pour les données simulant les affirmations des
personnes pour l’achat de dentifrice. On constate que la valeur propre
(eigenvalue) de la première composante est de 2.73 ce qui correspond à 45.52
% de la variance totale de 6. Comme nous l’avons mentionné précédemment,
l’algorithme utilisé en ACP fait en sorte de maximiser la variance expliquée par
la première composante. Toujours selon ce même algorithme, la deuxième
composante extraite viendra expliquer une portion additionnelle de variance,
indépendante de la première, et correspondant à une proportion plus faible
que la précédente. L’examen du tableau permet de constater que la
composante C2 explique 2.21 unités de variance (sur 6), ce qui correspond à
36.96 % de la variance totale.
1. critère de Kaiser
Nous pouvons donc dire qu’après avoir extrait deux composantes principales le
chercheur serait en mesure de rendre compte de 82.48% de la variance des
avantages animant le consommateur à acheter dentifrice. N’est-ce pas là
précisément l’objectif de l’analyse en composantes principales? Réduire les
données de 6 variables à 2 composantes tout en réussissant à rendre compte
de 82.48% de la variance initiale… On pourrait même se demander si cela vaut
vraiment la peine de continuer à extraire d’autres composantes au-delà de la
dimension C2. Le critère de Kaiser nous dit justement qu’il ne vaut pas la peine
de poursuivre l’extraction puisque la composante C3 n’expliquerait que 0.44
unités de variance (moins d’une unité de variance), ce qui correspond à moins
de variance que celle associée à une variable initiale de la matrice de
corrélation. Rappelez-vous que chaque variable possède 1 unité de variance.
Selon Kaiser (1960), l’extraction des composantes doit donc s’arrêter dès
qu’une valeur propre devient inférieure à 1
2. test d’accumulation de variance « scree test » de Cattell
Le tableau nous donne une information très utile sur chacune des
variables participant à l’analyse. On y retrouve la proportion de
variance commune entre chaque variable et l’ensemble des
composantes retenues dans la solution finale. Ainsi, on peut constater
que 45.52% de la variance de la variable « il est important d’utiliser
dentifrice qui prévient la formation des caries » est explicable à l’aide
des deux composantes extraites. L’inspection de ces valeurs est
importante car elle peut nous indiquer assez facilement les variables
qui ont une variance unique, non partagée par l’ensemble des autres
variables
Interprétation des résultats du SPSS
V1: Il est important d’utiliser un dentifrice qui prévient la formation des caries;
V2: Un dentifrice doit rendre les dents brillante;
V3: Un dentifrice doit renforcer les gencives;
V4: Un dentifrice doit rafraîchir l’haleine;
V5: La prévention ces caries n’est pas un avantages important du dentifrice
V6: Un dentifrice doit, avant tout, donner de belles dents;
Interprétation des résultats du SPSS
1
Affichage des variables
Affichage desdonnées
Ici toutes les données sont quantitatives
continues (Mesure= Echelle), sauf Id qui est la
nomination des étudiants et qui ne sont pas
pris dans lecalcul.
Pour mettre en œuvre l’ACP , il faut aller au menu :
Analyse---Réduction des dimensions---- Analyse factorielle
Sélectionner toutes les variables sauf la variable « Nom
des étudiants » puis les insérer dans la fenêtre « Variables »
Vers
1 2
Appuyer sur le bouton « descriptibles »
• Cocher « Varimax»
C’est une rotation orthogonale : une approche pour produire une rotation orthogonale des facteurs . Cela
signifie que la rotation Varimax aide à identifier la contribution des variables à la formation des axes
factoriels ou composantes, ce qui facilite de tirer, d’une manière rapide et synthétique, des conclusions sur
les dimensionnalitésdes variables.
La rotation Varimax consiste à associer chacune des variables à un nombre réduit de facteurs et à
représenter chaque facteur par un nombre limité de variables. Visuellement les variables sont rapprochées
des axes auxquels elles contribuentde manière à en faciliter l’interprétation.
http://www.lesphinx-developpement.fr/blog/tag/
• 1 ère règle: selon la règle de Kaiser seules les composantes aux valeurspropres
(Eigenvalue) supérieures à 1 sont retenues .
2 ème règle: le nombre de composantes (appelées aussi axes) est choisi en fonction
de la restitution minimale d’information désirée. On souhaite, par exemple, que
notre ACP rétablie au moins 80% de l’information initiale.
2
Coude
3
4
5
6
7
3ème règle :le critère de kattel, il est basé sur le graphique scree plot qui
représente en abscisse les composantes.et en ordonnée les valeurs propres
Test du coude (Scree-test ). On observe le graphique des valeurs propres et on ne
retient que les composantes 1 et 2 qui se trouvent à gauche du point d’inflexion
(le coude, point 3). Sur le plan graphique, on trace une droite qui rejoint les
composantes(3,4,5,6,7) situées à droite . Ces composantes apportent le moins
d’information et seules celles situées au dessus du coude sont maintenues.
un autrecritère
Boite de dialogue « Extraction»
1er et 2ème axes sont ceux qui restituent le maximum d’information. En d’autres
termes, ils représentent environ 65,552% de la variance totale parmi les 30 items.
Le 1er pour un pourcentage de 41,290 et le 2ème pour 24,262%. Ensemble les 2
composantes concentrent à elles seules 65,552 %. (dans la colonne cumulative % )
des informations apportées par les 7 variables de départ.
Cela signifie que la 1ère composante a une valeur propre de 2,890 et explique
environ 41,290 % de la variance, la 2ème composante à une valeur propre de 1,698
La table qualité de représentation (Communalities), la colonne
extraction de cette table , nous indique pour chaque variable la part de la variance
expliquée par la solution à 2 composantes. Si on parcoure les valeurs nous pouvons
dire que toutes les valeurs sont supérieures à 65,552 %. le niveau global de
variances. Seule la valeur de 0,142 sort du lot, cela indique que cette variable n’est
corrélée à aucune autre variable.
Interprétation de l’analyse encomposante
principale (suite)
Dans la matrice ci-contre, on peut le voir, les 2 composantes
ont une corrélation égale à zéro. Elle montre les corrélations (
de -1 à +1) entre les variables et les composantes.
Interprétation des principales composantes est basée sur la
recherche de variables qui sont le plus fortement corrélées
avec chaque composante, c'est-à-dire quelles sont celles qui
ont de grande valeur et les plus éloignés de zéro dans leur
direction positive ou négative. Ici, une valeur de corrélation
supérieure à 0,5 est jugée importante. Ces corrélations sont
indiquées dans le table ci-contre.
La 1ère composante principale est fortement corrélée avec quatre variables originales. Cette
composante augmente avec l'augmentation de l'atelier, théorie de projet, dessin et HCA. Cela indique
que ces quatre variables varient ensemble. Si l’une augmente, les trois autres ont tendance à faire la même
chose. Donc, cette composante peut être considérée comme une mesure de l'atelier, théorie de projet,
dessin et HCA. De plus, nous voyons que la première composante est la plus fortement corrélée avec la
théoriede projet.
En fait, on pourrait affirmer que sur la base de la corrélation de 0,881 que cette composante principale
est avant tout une mesure de la théorie de projet. Il s'ensuivrait que les valeurs élevées ont tendance à
prouver que les étudiants travaillent beaucoup et assistent aux cours et participer activement aux
différents débats sur l'architecture. Aussi, la grande valeur des corrélations montre clairement que l'atelier,
théorie de projet, dessin et HCA sont des modules de base pour la 1ère année architecture et qu’il faut
bien maitriser leurscontenus.
Interprétation de l’analyse en composantes
principales (suite)
2ème composante principale
La deuxième composante principale augmente avec seulement deux
variables: physique et mathématiques. On y constate que ces deux
variables ont des saturations élevées sur le 2ème facteurs. Ces deux
matières ne sont pas corrélées avec celles de la 1ère composante. Cela signifie
qu’être bon en physique et mathématiques n’est pas toujours une preuve
suffisante pour attester que cet étudiant est apte à être réceptif aux études
en architecture.
Par contre, les deux variables sont bien corrélées et une augmentation de
l’une entraine une augmentation de l’autre.
Chaque point représente une variable . Sur le diagramme on peut voir deux
groupes de variables qui ne sont pas corrélés. Le 1er est constitué de l'atelier,
théorie de projet, dessin et HCA et le 2ème de la physique et des mathématiques . Ces
derniers sont de grande valeur pour la 2ème composante principale . Aussi, les
étudiants ont des bonnes notes dans les modules d’atelier, théorie de projet, dessin
et. La variable TMC, pour la 2ème composante, occupe une position isolée du fait de sa
très faible valeur et puis elle n’est corrélée à aucune variable.