You are on page 1of 25

Multidimensional scaling (MDS

)
Martí Sagarra

¿Por qué aparecen los pioneros?
Paralelismo con los inicios del MTB

¿Qué pretendemos? Dalí at the Age of Six. when he Thought he was a Girl. Lifting the Skin of the Water to see a Dog Sleeping in the Shade of the Sea (1950) .

3 ejemplos aplicados 1. Conceptos teóricos para entender MDS 2. Como trabajar MDS con SPSS 3. Predicción de la quiebra en las Cajas de Ahorros Españolas Evaluación del Sistema de Universidades Mexicanas Valoración de la competencia asimétrica entre entidades . 3. 2.Planteamiento de la sesión 1.

perseguimos la “Predicción” (causalidad)        Modelo de ecuaciones estructurales (SEM) Análisis de correlación canónica Análisis multivariante de variables Análisis de correlación canónica con variables ficticias Regresión múltiple / Análisis de conjunto Análisis discriminante múltiple / Modelos de probabilidad lineal Interdependencia: Ninguna variable es definida como D o I. perseguimos la “Identificación de estructura”       Análisis factorial (FA / PCA) Análisis cluster (CL) Análisis de correspondencias (CA) Redes Neuronales (NN / SOM) Análisis multidimensional (MDS) .¿Dónde podemos situar MDS? Análisis Multivariante: ¿Qué tipo de relaciones están siendo examinadas?  Dependencia: 1 o más variables dependientes (D) van a ser explicadas por otras independientes (I).

errores. … Falta de explicaciones (ej. … Outliers Missing values Falta de comprensión del “funcionamiento” de estas técnicas Interpretación de los resultados: complejidad. y produce resultados y representaciones fáciles de interpretar… … ¡y fáciles de “conectar” con las técnicas “tradicionales”! . Predicción quiebra): ¿Posibles causas? ¿Camino seguido por las entidades hacia la quiebra? MDS solventa todos estos problemas.¿Por qué aparecen los pioneros? Inconvenientes de las metodologías econométricas “tradicionales”…        Necesidad de cumplir supuestos muy exigentes (Assumptions) Selección de variables: multicolinealidad.

…. es habitual mirar hacia atrás a eventos similares con circunstancias distintas  Ejemplo: Barcelona vs New York  Dada una serie de elementos de referencia (variables).Introducción: La idea de proximidad  Cuando estamos ante una nueva situación. sociología. pero muy poco en Empresa (sólo Marketing) . y establecido cuales de ellas son similares y cuales son distintas en cada caso  Obtenemos una medida global de similaridad + imagen mental que resume toda la información  En esta sesión partiremos de la idea de similaridad (disimilaridad). derivándola hacia los índices de proximidad. y su interpretación  MDS es una herramienta muy desarrollada en psicometría. la construcción de mapas a partir de los datos.

Mapas  Un mapa visualiza información compleja de forma intuitiva  Un mapa es un instrumento matemático sofisticado     Ejes de referencia (y escalas). A partir de un conjunto de coordenadas podemos localizar cualquier punto Orientación (Norte. Este. Oeste) Distancias entre puntos  Tabla de distancias MDS trabaja en dirección opuesta   Produce un mapa a partir de una tabla de distancias Distancia corta  Sitúa cerca Distancia larga  Sitúa lejos . Sur.

Se suma el nº de veces que 2 en particular han sido mencionadas  medida de similaridad  Mercado . El más simple es la dicotomía: 2 objetos pueden ser similares (1) o distintos (0)  Ejemplo: reconstruir un mapa solo con saber si entre 2 países existe frontera  Una variación del anterior: proponer una serie de decisiones sobre políticas. y preguntar cuáles son equivalentes (1).Medidas de similaridad  δrs  Medida de similaridad entre 2 objetos (r y s)  Es un concepto que podemos hacer tan vago o tan preciso como queramos. o no (0). Con ello podemos deducir las preferencias ante la toma de decisiones  Co-ocurrencias (marketing): se les pregunta a los consumidores que anuncios de cerveza recuerdan.

Un ejemplo más detallado: Juicios y prejuicios sobre ciudades .

    City-Block (Manhattan)  Suma de cuadrados  Distancia euclidiana  Minkovski (1 y 3)  Coeficiente de correlación Valor absoluto de la correlación ¡Otros! Podemos inventarlas según el problema… Hasta ahora hemos hablado de similaridades entre casos ¡También podemos derivar similaridades entre variables! … pero con sumo cuidado (manzanas + km/hora) Un buen método es estandarizando  .No siempre tendremos “1” y “0”… Otras formas de calcular similaridades 1. 4. 5. 2. 7. 6. 3.

los situará muy cerca. por ejemplo. mientras que si es baja los situará lejos) Nosotros nos centraremos en el Escalado No-Métrico. porque funciona muy bien con valores extremos (Outliers) . para más información: Chatfield and Collins (1980) Escalado No-Métrico: se apoya en el orden relativo de las similaridades (intenta situar los puntos en el mapa de manera que.Mapas a partir de distancias    Hemos obtenido similaridades entre pares de casos El siguiente paso es producir un mapa a partir del conjunto de similaridades Hay 2 métodos:    Escalado Métrico (o Clásico): es un método matemático que se apoya en el valor absoluto de las similaridades. si la similaridad entre 2 puntos es elevada.

La configuración inicial  Otro ejemplo… tenemos la siguiente tabla de distancias entre ciudades europeas (disimilaridades)  El procedimiento es iterativo (como otros métodos en Investigación Operativa)… .

… y medimos la calidad de la nueva solución. . Las iteraciones continúan hasta que no hay mejora apreciable.La configuración inicial      … empezamos con una suposición/conjetura. … mejoramos la solución. … definimos una medida de calidad de la solución.

-3 a +3. medimos distancias reales (milímetros) No importa diferencia valor (¡escalas!). en cambio. …)  Ahora. sino la buena situación  .Distancias (¡no disimilaridades!) obtenidas de la configuración inicial  En el mapa anterior las unidades de medida para los ejes son arbitrarias (-100 a +100.

Diagrama de Sheppard  ¿Es buena mi conjetura inicial? ¡Comparemos distancias con disimilaridades! δ d .

Situación puntos vs Valor predicho  Discusión anterior nos hace predecir línea “imaginaria” (dónde deberían estar) δ d .

no con las disimilaridades (vertical  REGRESIÓN) En general. dibujamos la línea “imaginaria” de forma que podamos minimizar la suma de los errores al cuadrado (en MDS se le llama RAW STRESS) … es un método de regresión mono-tónica . tal y como se hace en regresión.Disparidades        Para cada valor de disimilaridad (δ) hay 2 números asociados: La distancia medida de la configuración (d) y el valor estimado de la línea “imaginaria” (ε). que llamaremos disparidad La diferencia entre disparidad y distancia viene dado por… … dónde e es la medida del ERROR Fijaros en que estamos haciendo aritmética con las distancias (horizontal).

Stress    El valor del raw stress cambia al cambiar la localización de los puntos en la configuración: es una función que depende de las coordenadas de los puntos. en MDS tenemos la siguiente medida. MDS genera un método numérico que consigue (iteraciones) una configuración “maximizada” Si en regresión tenemos el estadístico “libre-dimensional” R. que normaliza el raw stress de la siguiente forma Kruskal propone la siguiente “clasificación verbal” .2 que nos mide la “bondad/calidad de ajuste” (% varianza total explicada por el modelo).

no habrá error. y la correlación entre distancias y disparidades será “1”.  En MDS preferimos ver el éxito como una minimización del error. que intenta asimilarse más al coeficiente de determinación (en regresión).Stress  Otra medida de stress. La correlación anterior (con valor óptimo “1”) puede ser modificada para que la perfección sea “0” . requiriendo el cálculo de la distancia media  Otra medida de bondad de ajuste es la correlación entre las distancias y las disparidades. El razonamiento radica en que si hay perfecto ajuste entre disimilaridades y distancias.

tomaremos el nº de dimensiones propuesto por los 2 métodos anteriores (pues contienen la estructura de nuestro problema)… y alguna más! (pues contienen cierta “variación aleatoria” o error) . construimos el mapa con 1 dim. mirando si hay cambios sustanciales  …  elbow diagram En general.  ¿Con cuántas dimensiones deberíamos producir el mapa? Tenemos al menos 2 maneras para responder a esto: Si los datos son apropiados  hacer un PCA  decidir cuántos componentes relevantes hay  producir mapa con ese nº dim.Dimensionalidad   1.  leer los valores del stress  producir mapa con 2 dim. 2.  leer stress. Como alternativa.

Un valor >0. 2 métodos nos serán muy útiles: el Property Fitting y el Cluster Analysis ProFit está basado en regresión.5 se considera bueno Dibujaremos un vector en el espacio por cada regresión. …) estemos analizando (interno vs externo). interpretando que el valor de la variable (ratio. mientras que las coordenadas de los puntos en el espacio (dimensiones) serán las variables independientes 2 Miraremos el valor de R. Sin embargo. siendo la más obvia la inspección visual.Property Fitting       Hay muchas herramientas para interpretar MDS. Intenta explicar hasta qué punto el valor que tiene un ratio en particular para una observación dada (ej: banco) está asociado con la posición en el espacio del punto que representa esa observación Varias formas de hacer ProFit (métrica vs no métrica) Haremos tantas regresiones como variables (ratios. …) incrementa en la dirección vector + Asociamos vectores con dimensiones . tomándolas como variables dependientes.

Property Fitting .

¡Recordatorio! Estamos observando proyecciones en 2-D .

No solo nos interesa trabajar con las proyecciones en 2-D. sino ver si 2 observaciones están cerca contemplando TODO el espacio dimensional (N-dimensiones juntas) Método de Ward: máxima homogeneidad dentro de los clusters (varianza minimizada) y máxima heterogeneidad entre clusters (varianza maximizada). Pero hay otras maneras de “clustear” . estar muy lejos.Cluster Analysis   2 puntos pueden parecer estar muy cerca y. sin embargo.