on connaît déjà le nombre de groupes qui existent dans la population; on connaît le groupe auquel appartient chaque observation de la population; on veut classer les observations dans les bons groupes à partir de différentes variables En contrepartie en classification non supervisée, (segmentation) on ne connaît souvent pas le nombre de groupes qui existent dans la population; on ne connaît pas le groupe auquel appartient chaque observation de la population; on veut classer les observations dans des groupes homogènes à partir de différentes variables. 2/ Nous rejetons le modèle, car pour accepter le modèle, le paramètre beta 1 doit être compris entre deux valeurs de même signe, autrement dit, il doit être strictement différent de 0, car s’il y a une probabilité qu’il soit égal à 0 càd il y a une probabilité qu’il n’y a pas de relation entre x et y. 3/ L'homoscédasticité est l’une des prémisses de la régression linéaire et fait partie de la vérification de ses hypothèses. Elle est vérifiée par l'examen des résidus ou par des tests statistiques. Schéma voir pdf page 12 4/le test de Durbin-Watson est un test qui permet de valider l’examen du graphique des résidus (étudier la colinéarité des résidus), notamment dans le cas de données temporelles. 5/ Les données primaires sont des données qui ont été collectées dans le but de résoudre le problème managérial propre à l'étude. Il s'agit de données brutes, qui doivent être préparées, analysées puis interprétées. Les données secondaires sont des données qui ont été réunies préalablement à l'étude pour répondre à d'autres problèmes, ce qui peut fortement en limiter la pertinence et la précision. 6/ Les coefficients de Kurtosis et de Skewness peuvent être utilisés pour s'assurer que les variables suivent une distribution normale, condition nécessaire pour de nombreux tests statistiques. Nous estimons que le coefficient de symétrie ou Skewness doit être inférieur à 1 et le coefficient d'aplatissement ou Kurtosis doit être inférieur à 1,5 pour considérer que la variable suit bien une loi normale. 7/ C’est l’une des conditions fondamentales de l’application de la régression linéaire et pour valider le modèle d’équation proposé 8/ Les échelles de mesure sont des indicateurs qui permettent d’étudier des variables mesurables en utilisant les nombres comme des étiquettes pour coder les modalités d'une variable qualitative nominale, pour classer ses modalités, ou même pour comparer entre eux… 9/ l'intensité et/ou le signe de la relation entre la variable indépendante et la variable dépendante peut être influencé par une variable modératrice. 10/ Il faut déterminer si on va procéder à un test paramétrique ou non paramétrique, puis, est- ce pour un échantillon unique ou plus qu’un seul. Si on est devant échantillon unique, il faut donc comparer les moyennes, sinon il faut choisir entre l’un des tests le plus adéquat à la situation entre test z, t, khi-deux… 11/ Il faut trouver la fonction de la droite qui minimise la somme des carrés des résidus. Cette droite est le modèle parfait recherché. 12/ Prémisses de la RLS : 1. La linéarité du phénomène mesuré ; 2. La variance constante du terme d'erreur ou homoscédasticité, 3. L'indépendance des termes d'erreur, 4. La normalité de la distribution du terme d'erreur. 13/ L’analyse factorielle consiste à transformer des variables corrélées statistiquement en nouvelles variables « décorrélées » les unes des autres. Ces nouvelles variables sont appelées « composantes principales » Elle permet à un analyste de réduire le nombre de variables, de simplifier une analyse et de pouvoir identifier le facteur qui provoque le plus de variance. 14/ C’est l’une des conditions fondamentales de l’application de la régression linéaire et pour valider le modèle d’équation proposé 15/ Les échelles de mesure sont des indicateurs qui permettent d’étudier des variables mesurables en utilisant les nombres comme des étiquettes pour coder les modalités d'une variable qualitative nominale, pour classer ses modalités, ou même pour comparer entre eux… 16/ L'objectif d'une échelle est d'éviter d'avoir à représenter un phénomène abstrait - un construit - par le biais d'une seule et unique variable, en privilégiant l'utilisation d'indicateurs qui permettent de représenter les différentes facettes de ce construit et se rapprocher de la vraie valeur en éliminant un effet latent au moins. 17/ l'intensité et/ou le signe de la relation entre la variable indépendante et la variable dépendante peut être influencé par une variable modératrice. 18/ co-variable ?? 19/ [2 ;4] / [2 ;6] / [4 ;6]. Conclusion ?? 20/ L'erreur systématique provient du fait que l'instrument de mesure peut présenter un écart systématique avec le phénomène étudié. 21/ L'erreur aléatoire provient du fait que le phénomène mesuré par l'instrument peut être affecté par des aléas. Ces termes d'erreur ajoutent du « bruit » aux variables observées. 22/ Le test de « Fischer », le test « t », le test « Z » s’effectuent lors de la phase des teste d’hypothèses, or l’analyse de la variance (anova) se fait lors de la validation du modèle Donc l’analyse de la variance précède l’utilisation des tests 23/ Si c’est une RLS, on rejette le modèle, car pour accepter le modèle, le paramètre beta 1 doit être compris entre deux valeurs de même signe, autrement dit, il doit être strictement différent de 0, car s’il y a une probabilité qu’il soit égal à 0 càd il y a une probabilité qu’il n’y a pas de relation entre x et y. Si c’est une RLM, il faut voir les autres beta (i) et vérifier qu’il existe au moins une variable indépendante qui explique y la variable dépendante. 24/ * La vérification des hypothèses * si sig < alfa, je garde la variable * si sig > alfa, je teste la colinéarité, si je trouve deux variables qui sont corrélés, je remplace par leur moyenne ou je supprime l’une des deux. S’elles ne sont pas corrélés, je les rejette et je refais l’analyse. 25/