You are on page 1of 176

Contenido

Índice de figuras ............................................................................................. 3
INTRODUCCIÓN .......................................................................................... 6
CAPÍTULO 1 ................................................................................................. 8
1.1 Dirección Estratégica............................................................................. 8
1.1 Business Intelligence ............................................................................. 9
1.2 Definición de Data Mining .................................................................. 10
1.3 Conceptos Básicos en Data Mining ...................................................... 12
CAPÍTULO 2: Modelo de Dirección Estratégica Propuesto ........................... 15
2.1 Proceso de Dirección Estratégica ......................................................... 15
2.2 Fase de Planificación Estratégica ......................................................... 16
2.3 Procedimiento de la Fase de Planificación. .......................................... 16
2.4 Etapas del Proceso de Planificación Estratégica. .................................. 17
2.5 Métodos y Procedimientos para Realizar el Análisis Externo del Sistema.
................................................................................................................. 23
2.6 Métodos y Procedimientos para Realizar el Análisis Interno del Sistema.
................................................................................................................. 25
2.7 Estudio de Mercados. .......................................................................... 26
2.8 Métodos y Procedimientos para Establecer el Posicionamiento
Estratégico y Estrategia Fundamental del Sistema. .................................... 27
2.9 Métodos para el Diseño de Cuadro de Mando Integral ......................... 33
CAPÍTULO 3: Regresión Múltiple ................................................................ 40
3.1 Supuestos para el Cálculo de una Regresión Lineal .............................. 41
3.2 Notación Matricial del Modelo Lineal General .................................... 46
3.3 Métodos de Cálculo de los Estimadores ............................................... 47
3.4 Evaluación del Modelo ........................................................................ 49
3.5 Diagnóstico de una Regresión.............................................................. 51
3.6 Autocorrelación ................................................................................... 60
3.7 Análisis de Residuos ........................................................................... 61
3.8 Caso modelo de regresión lineal del PIB .............................................. 62
CAPÍTULO 4: Serie de Tiempo .................................................................... 73
4.1 Componentes de las Series de Tiempo ................................................. 73
4.2 Procesos Estocásticos Elementales ...................................................... 76
4.3 Técnicas de Suavizamiento .................................................................. 78
4.4 Modelos Autorregresivos..................................................................... 87
1

4.5 Análisis de Autocorrelaciones ............................................................. 89
CAPÍTULO 5: Análisis Clúster ..................................................................... 95
5.1 Clasificación de las Técnicas Clúster ................................................... 95
5.2 Etapas de un Análisis Clúster............................................................... 97
5.3 Caso: Estudio del Producto APV en las AFP...................................... 100
CAPÍTULO 6: Árboles de Decisión ............................................................ 107
6.1 Sistemas por Partición: Árboles de Decisión para Clasificación. ........ 108
6.2 Particiones Posibles ........................................................................... 108
6.3 Criterio de Selección de Particiones ................................................... 109
6.4 Poda .................................................................................................. 110
6.5 Algoritmos más Populares ................................................................. 111
6.5 Caso: Analizar la Situación de Quiebra de una Empresa. ................... 112
CAPÍTULO 7: Redes Neuronales Artificiales ............................................. 118
7.1 Redes Neuronales Biológicas............................................................. 118
7.2 Modelo Matemático .......................................................................... 119
7.3 Tipos de Función de Activación ........................................................ 122
7.4 Estructuras y Arquitectura de Red...................................................... 124
7.5 Aprendizaje ....................................................................................... 124
7.6 Tipos de Redes Neuronales Artificiales ............................................. 126
7.7 Caso: Predicción al Corto Plazo Fondo A de los Multifondos............. 127
CAPÍTULO 8: Reflexiones Sobre el Modelo Propuesto .............................. 136
Bibliografía................................................................................................. 139
Anexos ....................................................................................................... 141
Anexo 1: Análisis de Regresión Lineal en SPSS ...................................... 141
Anexo 2: Análisis de Series de Tiempo en el Software SPSS ................... 153
Anexo 3: Análisis de Clúster en el Software SPSS ................................... 156
Anexo 4: Software SPSS Clementine ...................................................... 161
Anexo 5: Redes neuronales artificiales en el software SPSS Clementine .. 163
Anexo 6: Árboles de Decisión en el Software SPSS Clementine .............. 170
Anexo 7: Datos Caso Quiebra ................................................................. 173

2

Índice de figuras
Figura 1: Proceso de dirección estratégica ....................................................... 8
Figura 2: Estándar CRISP_DM ..................................................................... 11
Figura 3: Esquema de dirección estratégica ................................................... 16
Figura 4: Esquema del proceso de planificación. ........................................... 16
Figura 5: Etapas proceso planificación. ......................................................... 17
Figura 6: Modelo de negocios ....................................................................... 18
Figura 7: Tabla factores críticos externos: oportunidades y amenazas. ........... 24
Figura 8: Variable externa: amenaza (precio petróleo). .................................. 24
Figura 9: Tabla de factores internos: fortalezas y debilidades. ........................ 25
Figura 10: Factor interno: fortaleza ............................................................... 26
Figura 11: Clúster, método K medias. ........................................................... 26
Figura 12: Proceso Knowledge Discovery in Databases. ................................ 27
Figura 13: Esquema estrategia fundamental de la organización, paradigma
rombo. .......................................................................................................... 28
Figura 14: Mapa estratégico, caso académico. ............................................... 36
Figura 15: Tablero de objetivos estratégicos e indicadores de gestión en
docencia........................................................................................................ 37
Figura 16: Esquema en estrella, caso académico. ........................................... 38
Figura 17: Tablero de control e iniciativas estratégicas, caso empresa de
transporte. ..................................................................................................... 39
Figura 18: Estudios para la preparación y evaluación de un proyecto. ............ 39
Figura 19: Ejemplo gráfico, regresión lineal .................................................. 40
Figura 20: Distribución homocedástica.......................................................... 45
Figura 21: Distribución heterocedástica. ........................................................ 45
Figura 22: Gráficos del error y las variables exógenas. Homocedasicidad y
heterocedasticidad. ........................................................................................ 52
Figura 23: Histograma ejemplo test Jarque-Bera............................................ 56
Figura 24: Test de Durbin y Watson .............................................................. 60
Figura 25: Tendencia en una serie de tiempo. ................................................ 73
Figura 26: Estacionalidad en una serie de tiempo .......................................... 74

3

.......................... 111 Figura 45: Árbol de decisión................. análisis cluster ....... ....... 110 Figura 44: Ejemplo de operador "transposición"........................... 120 Figura 50: Modelo de neurona........... .... 128 4 ..................... ..... 116 Figura 48: Neurona biológica ...Figura 27: Variaciones cíclicas en una serie de tiempo ......................... 123 Figura 54: Gráfico multifondos........................................ árbol de decisión.................. 91 Figura 39: Caso precio petróleo.............................. SPSS Clementine ................ . consumo de helado................. 107 Figura 43: Poda........................................ 114 Figura 46: Árbol de decisión con nodo C5....................... 122 Figura 53: Función umbral....... 104 Figura 42: Ejemplo árbol de decisión ............. caso serie de tiempo .................................................0....................... ejemplo descomposición estacional............................................... red neuronal artificial.................................... caso precio petróleo.... 118 Figura 49: Capas de una red neuronal artificial ............................. 93 Figura 40: Dendograma de témpanos........... 99 Figura 41: Dendogramas............... 79 Figura 32: Precio del producto.......... 86 Figura 36: Gráfico precio del petróleo.............................................. 114 Figura 47: Árbol de decisión...... Suavizamiento exponencial..... ejemplo suavizamiento exponencial.................................................... 90 Figura 38: ACF Parcial.............................. 121 Figura 52: Función umbral .................... ................... 77 Figura 31: Comparación serie original y serie suavizada. ejemplo suavizamiento exponencial................................................................ caso quiebra ... ................. caso red neuronal artificial........................................................................................................................ ............................................................... ............... .......... 121 Figura 51: Estructura básica de una red multicapa......... 89 Figura 37: ACF caso precio petróleo ....... 83 Figura 33: Gráfico observado y ajuste del precio............................... observado y previsión................. ejemplo descomposición estacional...................... 75 Figura 29: Componentes de una serie de tiempo. caso quiebra................................................................ 74 Figura 28: Componente no sistémico en una serie de tiempo ........ 75 Figura 30: Gráfico ruido blanco ........ .. caso APV... 85 Figura 35: Observado y Ajuste...... .................................. serie de tiempo ................. árboles de decisión........ 84 Figura 34: Consumo de helados.... modelo aditivo.. análisis cluster .........................

.............. comprobación y validación... 132 Figura 57: Gráfico grupo de validación....................... caso red neuronal artificial .......................... 134 5 .......Figura 55: Grupos de entrenamiento............ 132 Figura 58: Predicción fondo A........... caso red neuronal...................... 131 Figura 56: Gráfico grupo de comprobación......................... caso red neuronal.......................... caso red neuronal ............

En los capítulos 1 y 2. La organización del libro está orientada a la presentación de los conceptos de dirección estratégica y el apoyo de modelos matemáticos. En los últimos años se han presentado muchos cambios y de una profundidad nunca antes conocida en la historia de la humanidad. El capítulo 4. por lo cual se hace cada vez más imprescindible para un directivo recurrir a modelos que describan detalladamente cómo dirigir estratégicamente una organización. y -en generalel acelerado cambio de la sociedad actual. el entorno multicultural. con los métodos de promedios móviles. técnicas de suavizamiento exponencial y modelos autorregresivos. estadísticos y de minería de datos.el análisis de estos. las tecnologías de la información y las comunicaciones. para extraer información susceptible de usar para tomar decisiones y acciones estratégicas informadas. los procesos administrativos y productivos. para proveer información son parte del paradigma del business intelligence y el proceso de data mining o minería de datos. En este libro se propone un método de dirección estratégica que se caracteriza por ser un proceso simple y práctico en la formulación de las estrategias. técnicas y herramientas de software. Las decisiones estratégicas se han vuelto cada vez más complejas y tienen efectos sobre la estructura organizacional. En el capítulo 3. están configurando una serie de retos que los directivos y las organizaciones deben enfrentar para generar estrategias exitosas que aseguren el futuro de sus instituciones. se presentan algunos conceptos básicos del modelo de regresión lineal y se introducen los supuestos del método de mínimos cuadrados ordinarios (MCO). comenzando con la fase de planificación estratégica. para estimar los parámetros del modelo de regresión lineal simple y múltiple. implementación y control. el cual sigue un proceso dinámico y recursivo. la reducción de los ciclos de vida y satisfacción de los productos y servicios. el cambio tecnológico. la fase de implementación y cambio organizacional y –finalmente. 6 .INTRODUCCIÓN La globalización. Estos métodos.la fase de control. Para apoyar el método de dirección estratégica es fundamental un proceso de extracción de datos desde bases de datos internas y externas a la organización y –luego. se introduce el modelo de dirección estratégica propuesto. trata sobre los modelos de series de tiempo. que a su vez se descompone en 9 etapas con sus respectivos hitos y resultados.

7 . se presentan algunos métodos de clúster y técnicas como algoritmos de dos etapas. se hace una reflexión sobre el modelo propuesto de dirección estratégica para las organizaciones. se introducen los conceptos de redes neuronales artificiales. en el capítulo 8. Finalmente. para apoyar las decisiones estratégicas en una organización. que son modelos matemáticos que simulan las propiedades de las redes neuronales biológicas imitando el comportamiento del cerebro humano.En el capítulo 5. En el capítulo 6. En el capítulo 7. que son técnicas de minería de datos o modelos de predicción utilizado en el ámbito de la inteligencia artificial. k-medias y métodos jerárquicos. se ven los algoritmos de árboles. con el apoyo de métodos cualitativos y cuantitativos. lo que le da ventajas importantes respecto de otros modelos predictivos.

1999). FIG. El modelo de dirección estratégica propuesto es un método holístico.  Implementación. que es el proceso de decidir anticipadamente qué se hará y de qué manera. (Drucker. que tienen un mercado básico común. sistemático y participativo. 2004). subsistemas o unidades estratégicas de negocios (UEN) y. 2003) .. A. Una UEN es un sistema viable (Beer. delimitado y al frente de la cual hay un ejecutivo o directivo que tiene la responsabilidad de integrar los procesos administrativos. conformado por uno o más productos determinados. que consiste en el desarrollo de las actividades orientadas a conseguir los objetivos estratégicos en concordancia con la planificación estratégica. Considera los procesos de:  Planificación estratégica.1 Dirección Estratégica La dirección estratégica debe ser liderada por altos directivos. a las unidades funcionales. instaurar una estructura organizacional. a través de objetivos y una estrategia fundamental. 1: PROCESO DE DIRECCIÓN ESTRATÉGICA El modelo se puede aplicar de forma top-down a la organización como un todo. (Hunger.  Control. que tiene como principal característica ser democrático. dado que es el corazón de la actividad de una organización. 1988). continuo y recursivo. sistemas de información adecuados con los procesos y roles que deben desempeñar las personas en la organización. 8 . finalmente. D. (Hax. en la que se desarrollan e implementan los sistemas que permiten medir y corregir el desempeño individual y organizacional para que los hechos se ajusten a los objetivos estratégicos. luego a las componentes. & Wilde. mediante la selección de objetivos estratégicos. junto a estrategias y acciones para lograrlos.CAPÍTULO 1 1.

& Bruce.También se puede definir una UEN como aquel sistema que es capaz de amoldarse a las variaciones de un entorno turbulento y cambiante. iii) Deben poseer cierto grado de autonomía: poseer un suficiente nivel de libertad. y también a pronosticar con anticipación los acontecimientos futuros. N. y además pueden existir iteraciones entre actividades. G. técnicas y herramientas enfocadas a la administración y creación de conocimiento mediante el análisis de datos internos y externos en una organización o empresa. G. Además. con información relacionada con la institución y su ámbito y con datos financieros y económicos. Ayuda a comprender el funcionamiento actual de la organización.. 1. El método de dirección estratégica en su fase de planificación estratégica se compone de un esquema gráfico. 2007) se basan en la utilización de un sistema de información de inteligencia que se forma con distintos datos extraídos de los datos básicos del subsistema operacional. El término BI se refiere al uso de datos en una institución para facilitar la toma de decisiones. poseen una misión única y diferenciada. inteligencia de negocios o BI (business intelligence) (Shmueli.. 1988): i) Capaz de auto-organizarse: mantener la organización del sistema en forma permanente y adaptarse de acuerdo a las exigencias del medio ambiente. que representa el proceso de planificación y un procedimiento que se realiza de manera secuencial en cascada con iteración. N. si bien no independiente de las demás unidades estratégicas.. 9 . que debe poseer las siguientes características (Beer..1 Business Intelligence Se denomina inteligencia empresarial. con el objetivo de ofrecer conocimientos para respaldar los objetivos estratégicos y estrategias organizacionales. P. Patel. la estrategia de cada unidad es así autónoma. 2007). Patel. porque se pueden presentar situaciones dónde sea necesario volver a etapas anteriores. ii) Capaz de auto-controlarse: mantener las variables principales del sistema dentro de ciertos límites de normalidad. al conjunto de métodos. en paralelo. Este procedimiento está constituido por 9 etapas. & Bruce.. puesto que se integran en la estrategia de la institución. P. determinado por sus recursos. para mantener las variables esenciales en su área de regularidad. Los métodos y las herramientas del BI (Shmueli. de las cuales algunas de sus actividades se pueden desarrollar de manera simultánea.. en razón de no cumplir con ciertos requisitos y supuestos fundamentales en la actividad.

N.. Patel. Los datos son organizados alrededor de los temas principales. ventas. 2007). así como técnicas estadísticas y matemáticas”. esencialmente:       Comprensión del negocio y del problema que se quiere resolver.. como “el proceso de descubrir correlaciones significativas en nuevos patrones y tendencias a través de procesar grandes cantidades de datos almacenados en los repositorios. 2007) o minería de datos. El BI incluye métodos de los sistemas DSS (decision support systems). Validación. Patel.. tales como. G.. las técnicas OLAP (on line analytical processing). los depuran y preparan (homogeneización de los datos) para luego cargarlos en un almacén de datos (Data warehouse. P.. en su página web. Revisión de modelos matemáticos y estadísticos. Patel. etc. define DM. noviembre 2012.. 2007) tiene varias etapas que son. de los resultados en un sistema transaccional o similar. P. que extraen los datos de distintas fuentes.. El proceso de un proyecto de DM (Shmueli. créditos. Comprensión de los datos.Estos sistemas utilizan herramientas y técnicas ELT (extraer. & Bruce. análisis estadístico. Su objetivo general es obtener información útil y convertirla en una herramienta factible de apoyar el proceso de toma de decisiones. determinación.. G. si procede. 10 . G. recursos humanos. La empresa de tecnologías de la información Gartner Group. estadística y sistemas de bases de datos. N. & Bruce. 2007) es un área de las ciencias de la computación que busca modelos de comportamiento en grandes volúmenes de datos. N. de los resultados obtenidos.2 Definición de Data Mining La minería de datos DM (Shmueli.. 1.. procesos de consultas y reportes. el cual es un repositorio de datos reunido de múltiples fuentes. econométrico y los procesos de data mining “DM” (Shmueli. almacenado en un esquema unificado y que reside en un único sito. Este proceso se conoce como estándar CRISP-DM (Shmueli. transformar y cargar). N.. comunicación. obtención y limpieza de los datos necesarios.. etc. P. G. Patel. aprendizaje automático.. Integración. Y estos se almacenan para proveer información histórica y resumida). mediante inteligencia artificial. P. & Bruce. utilizando tecnologías de reconocimiento de patrones. Preparación. & Bruce. cargar y transformar) o actualmente ETL (extraer.

J.. Ferri Ramirez. Rápida y eficaz. Ramirez Quintana. 2007). N. Ma.FIG. Serie de tiempo: Es un conjunto de observaciones sobre valores que toma una variable cuantitativa en diferentes momentos de tiempo. G. (Hernández.. A través de la experiencia acumulada en proyectos de minería de datos se han ido desarrollando metodologías que permiten gestionar esta complejidad de una manera más o menos uniforme. que son algoritmos más o menos sofisticados que se aplican sobre un conjunto de datos para obtener información o conocimiento de un tema particular. & Bruce... 11 . Patel. Las técnicas (Shmueli. Es una estructura interconectada de neuronas en red que producen un estímulo de salida. están entre las más conocidas. En realidad. Los perceptrón (simples y multicapas) y las redes de Kohonen (mapas auto organizados). 2004) más representativas son: Redes neuronales: Son un modelo de aprendizaje y procesamiento que imita o se basa en el funcionamiento del sistema nervioso central. P. 2: ESTÁNDAR CRISP_DM La relación entre todas estas fases es lineal sólo sobre el papel. es mucho más compleja y esconde toda una jerarquía de subfases. C. Las técnicas de la minería de datos provienen de la inteligencia artificial y de la estadística. Regresión lineal: La más usada para generar vínculos entre información diferente.. pero insuficiente en espacios multidimensionales donde puedan relacionarse más de 2 variables.

Química: viscosidad de un proceso. enteras 12 . velocidad del viento (energía eólica). ventas. tasas de mortalidad. Transporte: series de tráfico. comprender el comportamiento de compradores. etc. Geofísica: series sismológicas. Ellas pueden ser continuas (capaz de asumir cualquier valor numérico real. Una de sus aplicaciones más comunes es en segmentación de mercados. identificar oportunidades de nuevos productos. usualmente en un rango dado). suavizamiento exponencial. que representan y modelan situaciones determinadas que se repiten sucesivamente en la búsqueda de una respuesta a un problema. electroencefalograma. sobre la base de un conjunto definido de variables.3 Conceptos Básicos en Data Mining Tipos de variables: hay varias maneras de clasificar las variables. Marketing: series de demanda. Demografía: tasas de natalidad. buscando que los de entrada estén a la menor distancia de los que más se le parezcan. gastos. ofertas. precios de acciones. descomposición estacional. precio del cobre. temperatura máxima diaria. Medicina: electrocardiograma. temperatura de un proceso. precio del dólar. Ejemplos de árboles de decisión son los algoritmos CART. consumidores con similares comportamientos o características son agrupados juntos.Ejemplos de series de tiempo: Economía y finanzas: precios de un artículo. de dos pasos y jerárquicos. Clúster de similares marcas o productos pueden ayudar a identificar competidores u oportunidades de mercado. utilidades.5 y CHAID. índice de precios. 1. ingreso nacional bruto. Es una técnica utilizada para clasificar casos en grupos que son relativamente homogéneos dentro de sí mismos y heterogéneos entre ellos. energía solar. Las variables pueden ser numéricas o de texto (caracteres). Meteorología: cantidad de agua caída. etc. tasa de inflación. Clustering: Es una manera de agrupar vectores de acuerdo a las cercanías entre ellos. Árbol de decisión: es un esquema o algoritmo predictivo que se usa en el contexto de la inteligencia artificial. Etc. Telecomunicaciones: Análisis de señales. Ejemplos: Algoritmos Kmedias. método Box – Jenkins. Algunos de los métodos utilizados en las series de tiempos: promedio móvil. Regla de asociación: Es usada para revelar situaciones similares que se repiten en un determinado conjunto de datos. C4. Modelo estadístico: Es una ecuación que se utiliza en los diseños experimentales y en la regresión para señalar las diferentes variables que inciden en la solución y sus eventuales modificaciones. agrupamiento de consumidores de acuerdo a preferencias de atributos. (ARIMA). donde a partir de una base de datos se estructuran estos diagramas de construcciones lógicas. ID3. tasas de desempleo.

cantidad de compras) más que una clase (por ejemplo. comprador o no comprador). se pueden establecer reglas. El modelo final seleccionado puede entonces ser utilizado para clasificar o predecir resultados de interés en 13 . 2. las cuales entonces pueden ser aplicadas a los datos con una clasificación desconocida. N. Algoritmos de aprendizaje supervisado son aquellos utilizados en la clasificación y predicción de datos. Un paciente en un hospital se puede recuperar. P.en supervisados y no supervisados (Shmueli. 2007): Supervisados o predictivos: predicen un dato o un grupo de ellos a partir de información previa. Aprendizaje supervisado y no supervisado: es una distinción fundamental entre las técnicas de minería de datos. administrativo. Los algoritmos se dividen –según el objetivo del análisis . Las variables categóricas pueden no estar ordenadas (llamadas variables nominales). Colombia. con categorías tales como: Chile. Perú. donde el resultado es conocido. No supervisados o “del descubrimiento de conocimiento: se revelan modelos de conducta o tendencias en los datos. donde la clasificación se puede conocer. Patel. con el objetivo de predecir cuál es o será la clasificación. Con datos similares. medio y bajo. & Bruce. Una transacción con tarjeta de crédito puede ser normal o fraudulenta. Clasificación: es tal vez la forma más básica de análisis de datos. seguir enfermo o fallecer. Argentina. este es aplicado a otros datos de ejemplo (datos de validación). profesor). G. Uruguay. Paraguay. excepto que se trata de predecir el valor de una variable numérica (por ejemplo. Predicción: es similar a clasificación. que son desde los cuales los algoritmos de clasificación y predicción “aprenden” o son “entrenados”. para ser utilizado con el modelo final seleccionado y comprobar que también lo hace. Los datos se dividen en “datos entrenamiento”. acerca de la relación entre las variables independientes y la variable resultado (predicha).. Una vez que el algoritmo ha aprendido desde los datos de entrenamiento. para ver que tan bien lo hace en comparación con otros modelos.. Una tarea común en DM es examinar los datos donde la clasificación es desconocida o puede darse en el futuro. Las variables categóricas pueden ser numéricas (1.(asumiendo solamente valores enteros) o categóricas (asumiendo un número limitado de valores). o ellas pueden estar ordenadas (llamadas variables ordinales) con categorías tales como: valor alto. Si hay varios modelos que están siendo probados.. 3) o de texto (secretaria. es adecuado tener una tercera muestra de datos conocidos (los datos de prueba). Ecuador.

14 . que es un aspecto deseable en un modelo. métodos de reducción de datos y técnicas de clúster. no hay aprendizaje desde los casos donde tal variable resultado es conocida. también conocido como z-score.nuevos casos donde la salida es desconocida. el sobreajuste (también es frecuente emplear el término en inglés overfitting) es el efecto de sobre entrenar un algoritmo de aprendizaje con unos ciertos datos para los que se conoce el resultado deseado. se substrae la media a cada uno de los valores y se divide por la desviación estándar de las desviaciones resultantes de la media. generalizando para poder resolver situaciones distintas a las acaecidas durante el entrenamiento. cuando un sistema se entrena demasiado (se sobre entrena) o se entrena con datos extraños. compactación o simplicidad. Selección de variables para un modelo: más no es necesariamente mejor cuando se seleccionan variables para un modelo. el algoritmo de aprendizaje puede quedar ajustado a unas características muy específicas de los datos de entrenamiento que no tienen relación causal con la función objetivo. se aumenta el riesgo de sobre ajustar los datos. En aprendizaje automático. Algoritmo de aprendizaje no supervisado: son aquellos utilizados donde no hay una variable resultado a predecir o clasificar. Ejemplo de este tipo de algoritmos son reglas de asociación. Este es el concepto de parsimonia. Análisis de regresión lineal simple es un ejemplo de aprendizaje supervisado. El algoritmo de aprendizaje debe de alcanzar un estado en el que será capaz de predecir el resultado en otros casos a partir de lo aprendido con los datos de entrenamiento. Normalización de los datos: algunos algoritmos requieren que los datos sean normalizados antes que el algoritmo pueda ser implementado efectivamente. Si se incluyen más variables. Durante la fase de sobreajuste el éxito al responder las muestras de entrenamiento sigue incrementándose mientras que su actuación con muestras nuevas va empeorando. Sin embargo. Para normalizar los datos. Por lo cual. se necesitaran un número mayor de registros para evaluar la relación entre las variables. Sobreajuste: al incluir más variables. Se está expresando cada valor como el "número de desviaciones estándar de la media".

econométricas. K. E. (Porter M. inventar.. & Scholes. 4) diseño de los indicadores y sistemas de control. (Hax. tomando en cuenta aquellos posibles escenarios perceptibles hoy (ver Fig. G. & Majluf. para desarrollar estrategia y administrar en la nueva economía: “Tenemos que complacer al cliente de un modo especial y único si es que esperamos alcanzar una rentabilidad superior. su contraste con las fortalezas y debilidades de la organización (Johnson. hay que visualizar. K. N° 4). (Porter M. E. 1996). N° 3). de implementación (etapa del hacer y el cambio) y de control (evaluación y monitoreo en tiempo real de los objetivos estratégicos y resultados. Parte esencial es la identificación de oportunidades y amenazas en el medio ambiente en que se desenvuelve la empresa y. E. continuo. Y se debe imaginar el futuro a partir del presente. DM (Johnson. 2001).CAPÍTULO 2: Modelo de Dirección Estratégica Propuesto 2. 1980) (Porter M... The Competitive Advantage of Nations. implementar y evaluar las decisiones interfuncionales que permiten a una organización alcanzar sus objetivos estratégicos (Hunger. G. & Scholes.. Ventaja Competitiva. D.” El modelo de dirección estratégica propuesto se considera como un proceso dinámico.. BI. 2001): 1) acuciosa recopilación y análisis de información. etc. 2003). Arnoldo Hax y Dean Wilde (Hax. 1987). 2) examinar el futuro. 5) hasta formalizar planes y acciones para lograrlos. donde el fundamento de la estrategia es el vínculo con el cliente.. Incluye diferentes actividades que van desde (Johnson. 15 . recursivo. G. constituido por las fases de planificación estratégica (etapa de diseño y de pensar en el futuro).. 2001). A. & Scholes. K. ver Fig. producir nuevas ideas. utilizando métodos y técnicas estadísticas. 1990). & Scholes.1 Proceso de Dirección Estratégica La dirección estratégica es el arte y la ciencia de formular. 2001). (Johnson. 3) determinación de objetivos globales y estrategias. G. N. & Wilde.. K.. afirman en su proyecto “Delta”. 2003). La planificación se sustenta en la convicción de que el futuro será muy diferente al pasado. A. El desafío de las organizaciones hoy es enfrentar la globalización de los mercados.. con respecto a los estándares establecidos en la organización.

3 Procedimiento de la Fase de Planificación. 16 . 2. 3: ESQUEMA DE DIRECCIÓN ESTRATÉGICA 2.FIG. Además. Este es un proceso que sigue un flujo de etapas secuenciales en cascada e iterativo. El esquema del proceso de planificación es el siguiente: FIG. porque se pueden presentar situaciones dónde sea necesario volver a etapas anteriores. 4: ESQUEMA DEL PROCESO DE PLANIFICACIÓN. el cual permite representar el sistema que se debe analizar y sirve para organizar y comunicar de forma clara los elementos que involucran el todo. constituido por 9 procesos.2 Fase de Planificación Estratégica Esta fase se desarrolla en base a un esquema gráfico. de un procedimiento que se compone por un conjunto de actividades o eventos que se realizan o suceden (de forma alternativa o simultánea) con el propósito de generar el plan estratégico de la empresa. pero pueden existir iteraciones.

cómo define y diferencia sus ofertas de producto o servicios. consiste en establecer las estrategias. cómo consigue y conserva a los clientes. cómo sale al mercado (estrategias).FIG. tareas a desarrollar. con el propósito de determinar los clientes y sus necesidades.4 Etapas del Proceso de Planificación Estratégica. Desde un punto de vista sistémico. 2) ¿qué?. con el propósito de definir el producto o servicio y su respectiva oferta de valor. i) Etapa de especificación de los aspectos generales del sistema en estudio. Estado actual: describir el sistema y su entorno (¿qué somos) y sus modelos de negocios. y 3) ¿cómo?. cómo crea una propuesta de valor para sus clientes. El modelo de negocios comprende el siguiente conjunto de actividades: cómo selecciona sus clientes. cómo define los procesos y tareas que se deben llevarse a cabo y cómo configura los recursos y presupuestos. 2. un modelo de negocios consiste en dar respuestas a las siguientes preguntas: 1) ¿para quién? o ¿quién?. acciones. 17 . 5: ETAPAS PROCESO PLANIFICACIÓN.

. 1987). percepción de los consumidores. activos. estructura interna y de mercado. que se tienen respecto a la disponibilidad de recursos de capital. proceso para identificar los elementos que permiten a la empresa alcanzar los objetivos que se ha trazado y distinguen a la empresa de la competencia haciéndola única y también se debe investigar el entorno para identificar los elementos fundamentales que afectan positiva o negativamente el negocio. 1980). También puede haber situaciones que más bien representen AMENAZAS para la organización. d. es un proceso que permite determinar cuáles de los factores externos o no controlables a la empresa podrían tener influencia en términos de facilitar o restringir el logro de objetivos. Factores críticos de éxito. 6: MODELO DE NEGOCIOS ii) Etapa de diagnóstico estratégico de la empresa.FIG. 18 . donde se especifican los factores controlables. calidad de producto. (un proceso sistemático y continuo para evaluar comparativamente los productos. entre otros. E. que es una herramienta de análisis de empresas que se engloba dentro de la teoría de recursos y responde a las cuatro características básicas que ha de cumplir un recurso para dar a la empresa ventaja competitiva. E. hay circunstancias o hechos presentes en el ambiente que a veces representan una buena OPORTUNIDAD que la empresa podría aprovechar. servicios y procesos de trabajo en organizaciones) con el líder de la industria del sector. (Porter M. FORTALEZAS y DEBILIDADES de la empresa que se deducen de un análisis o benchmarking (Porter M. a. c. ya sea para desarrollarse aún más o para resolver un problema. Ventaja Competitiva.. personal. Es decir. Construir matriz VRIO. b. Análisis externo. Análisis interno. para anticiparse a los hechos.

se establecen estrategias mixtas.. 2) Solución integral al cliente. afirman en su proyecto “Delta”. & Torres. con los antecedentes recopilados en los pasos anteriores se genera esta matriz. D. Construir la matriz FODA de la organización. productos hechos a la medida. 2012. Las organizaciones que alcanzan este vértice en el modelo Delta. y las estrategias fundamentales en esta situación son: estándar de propiedad. Estas son las estrategias básicas que propone Michael Porter. con tres estrategias fundamentales: liderazgo en costo. amplitud horizontal e integración del cliente. con el posicionamiento estratégico “nuevos mercados”. la base de esta propuesta es la confianza y colaboración con el cliente y. investigar el comportamiento de sus clientes. con las estrategias fundamentales: redefinir la experiencia cliente. El desafío de las organizaciones de hoy es enfrentar la globalización de los mercados. 3) Sistema cerrado. & Wilde.. en su propuesta de ventajas competitivas. A. donde se cruzan las oportunidades con las fortalezas FO. y además es muy importante conocer a sus no clientes. O. Y ellos proponen en su modelo tres posicionamientos estratégicos básicos: 1) Mejor producto. se determinan estrategias ofensivas. & Wilde. 2003). Esta propuesta es totalmente ortogonal al posicionamiento de mejor producto. El propósito de este posicionamiento estratégico es la vinculación con el cliente con el apoyo de empresas complementadoras. mercado dominante y acceso restringido. por lo tanto. y en el cuarto cuadrante de amenazas y debilidades DA. D. Chile. sus necesidades y conductas. y en cada uno de los cuatro cuadrantes se establece el conjunto de estrategias posibles. Arnoldo Hax y Dean Wilde (Hax.. 2003). en general son monopólicas en su sector industrial. En el primer cuadrante.e. Por esta razón. A. donde el principio básico de la estrategia es el vínculo con el cliente. Saavedra. se establecen estrategias defensivas. para desarrollar la estrategia y administrar en la era del conocimiento e información: “Tenemos que complacer al cliente de un modo especial y único si es que esperamos alcanzar una rentabilidad superior”. Propuesto en (Saavedra. El paradigma del rombo surge al ampliar la propuesta de Arnoldo Hax y Dean Wilde (Hax. A. la filosofía fundamental es desarrollar productos nuevos o 19 . en el encuentro ENEFA.. En este posicionamiento la filosofía fundamental es un mercado amplio y en competencia. 2012) el artículo “Modelo de dirección estratégica”. diferenciación y concentración. en el segundo cuadrante de amenazas y fortalezas FA. los competidores pierden importancia en la relación. una tarea fundamental en las organizaciones es conocer sus mercados. como en el tercer cuadrante de oportunidades con debilidades DO. D. iii) Etapa de determinación del posicionamiento estratégico fundamental de la empresa sustentada en el paradigma del “rombo”. La filosofía fundamental es vinculación con un “cliente clave”.

que distingue y diferencia a la empresa de otras organizaciones. desde el punto de vista del costo. sustentado en una propuesta exclusiva de valor para el cliente. a quién se desea servir y cómo se quiere competir. aclara y crea marcos de referencia para la gestión futura de la organización y de sus negocios. para ofrecer al cliente una propuesta económica de valor superior y exclusiva. a quiénes beneficiara. la cual es esencial para determinar sus objetivos y formular sus acciones estratégicas. comparaciones y analogías. y la utilización de la infraestructura para dar soporte a la estrategia fundamental. La misión del sistema es definir su negocio futuro. modelos. Determinar y establecer los lineamientos y objetivos estratégicos fundamentales para el sistema con sus respectivos indicadores de medición. no clientes y la innovación de valor. a. la cual define. Es la formulación de un propósito duradero de largo alcance. y se emplean metáforas. ¿Qué seremos? b. lograr un desempeño financiero superior y sustentable medido en términos de utilidad. La visión es una imagen imponente del futuro que atrae a la gente (visual). y de esta forma lograr la posición futura deseada. dirección y una razón de seguir adelante y conduce a la acción. 2) Orientación al cliente. Expresa lo que en el futuro será la institución o unidad estratégica de negocios. v) Etapa de especificación y análisis de escenarios futuros para el sistema. Con este mensaje se apela a las emociones de las personas en la organización. Contar con una estrategia corporativa integral que incluya la cartera de negocios y capacidad funcional completa. cuál será su quehacer. Lineamientos estratégicos: son las grandes dimensiones de actividad para conseguir los objetivos estratégicos. cuadros. si la vinculación con los clientes. Provee una sensación de propósito. Por ejemplo. indica lo que el negocio ofrece. una empresa puede declarar sus lineamientos estratégicos fundamentales: 1) Rentabilidad. La misión constituye una forma de hablar del futuro del sistema.mercados nuevos. 20 . iv) Etapa de definición y declaración de la misión y visión de la empresa. En esencia. Es una declaración duradera de la visión específica que tiene una organización de su negocio. Está enfocado a desarrollar las actividades de la manera más eficiente y efectiva. cómo la percibirá el entorno y con quién se contará. Razón o finalidad por la cual una empresa existe. donde la competencia no es tan relevante.

Constituyen una medida para poder evaluar la gestión deseada y entregan un dimensionamiento del resultado esperado en el largo plazo. los resultados concretos que se espera alcanzar en cada negocio. realizados de manera eficiente). ideas. Su horizonte es el largo plazo. Si es necesario. con sus respectivos indicadores de medición. y dar el máximo de seguridad a sus trabajadores. emprendimiento y de innovación. que crea las capacidades colectivas para llegar a ser una líder en la que todos esperan trabajar. la capacidad de la empresa para lograr el máximo rendimiento de los recursos disponibles. encontraremos los siguientes tipos de objetivos estratégicos: Financieros: corresponden a resultados finales o terminales del negocio.3) Competitividad y eficiencia. Objetivos estratégicos: indican los resultados que se deben lograr. Son una expresión cuantitativa de la posición futura que se desea alcanzar. un ambiente laboral vigorizador. Son consecuencias financieras recogidas a través de diferentes medidas financieras. De innovación y desarrollo: corresponden a resultados fundamentales a lograr para que la organización pueda seguir logrando en el tiempo buenos resultados. también se pueden determinar y establecer las metas fundamentales para la organización. y los procesos de transformación (procesos operacionales y atención al cliente.. Dependiendo la materia a la cual se orienten. 5) Innovación. Son mejoras en el tiempo de llegada al mercado de una nueva generación de productos o servicios. como personal. capital. comprometerse en asegurar un flujo continuo de nuevos servicios para así mantener la viabilidad futura de la empresa. las cuales son objetivos de mediano y corto plazo. etc. específicamente con resultados que tienen que ver con la forma en cómo el cliente ve y percibe a la organización. Relacionados con el cliente: corresponden a resultados que dicen relación con aspectos propios del cliente del negocio. energizante. De mejoramiento del personal y clima organizacional: Se asocian a resultados de aprendizaje. 4) Desarrollo y seguridad del personal. Una vez que se han explicitados los objetivos 21 . materiales. Buscan definir en términos cuantitativos. de tal forma de materializar la posición futura deseada. vi) Etapa de alineación de los objetivos estratégicos y metas con las estrategias de la organización o empresa. financieros. etc. De procesos internos del negocio: están relacionados con aspectos internos críticos para lograr los resultados que el cliente quiere ver en la organización. a través de la incorporación de tecnologías.

vii) Etapa de análisis y evaluación de los cambios necesarios para implementar la visión estratégica del sistema.  Diseñar los tableros de control. Representa una generalización de lo que se va a realizar. Evaluar las competencias y habilidades de las personas en la organización.  Desarrollar los modelos conceptuales de los sistemas informáticos a desarrollar. Se pueden considerar los siguientes aspectos:      Evaluar aspectos de estructura organizacional.  Determinar el software para la implementación de los tableros de control. para alinearlas con los objetivos estratégicos. con los objetivos estratégicos establecidos. Porque estos señalan el ¿Qué?. y las estrategias indican el Cómo se van alcanzar estos objetivos.estratégicos en el análisis de los escenarios futuros. es necesario volver a revisar etapas anteriores. Si en esta etapa se presenta una situación difícil de resolver. y riesgos del cambio que se debe realizar. Analizar los sistemas económicos y financieros. se consideran el conjunto de estrategias posibles establecidas en la matriz FODA. Analizar los sistemas de información y tecnologías de comunicaciones. Una vez concluidas las siete etapas anteriores. limitaciones. 1) Establecer los planes de acción. Aquí se revisan los supuestos. los cuales permitirán comparar los resultados obtenidos en la ejecución de los proyectos o acciones. cambios de políticas. Hitos de control: son resultados intermedios que muestran el grado de avance en cuanto al desarrollo de los planes específicos. por ejemplo. viii) Etapa de diseño de los sistemas de mediciones de desempeño y cumplimiento de objetivos estratégicos. 22 . El diseño de los sistemas de control consiste en:  Diseñar los mapas estratégicos. Si existen desviaciones importantes se deben hacer los ajustes necesarios que corresponda. la organización se compromete lograr en el futuro. procedimientos o acciones. Planes generales: iniciativas globales que permiten lograr cada uno de los lineamientos estratégicos. estrategias. Evaluar los procesos de negocios de la empresa. es necesario diseñar los sistemas de control. ix) Etapa de establecimiento del plan estratégico de desarrollo del sistema.

). tipo de cambio. Presupuestos: reflejan las consecuencias financieras de los resultados específicos que pretende lograr la posición competitiva futura. Establecer los recursos para los proyectos. Proyectos: en el más amplio concepto podemos decir que un proyecto es la elaboración de un plan. a este lo dividiremos en el macro-entorno y micro-entorno o sector industrial en el cual participa la organización. organismos regulatorios. comercial. . acuerdos de libre comercio. “Son actividades que deben ejecutarse para lograr los objetivos declarados y comprometidos” (Saavedra. 2012).Aspectos tecnológicos: descubrimientos científicos. etc. IMACEC. gustos. 23 . 2. civil y tributaria. para llevar a cabo una idea que permita generar un cambio en la situación actual. Estilos de vida diferentes. económica y operacional. por ejemplo) y obtener las variables exógenas denominadas PESTA (P de variables de tipo político. PIB. el impacto del desarrollo de productos de tecnologías relacionados con la actividad de la organización. Entre ellas encontramos variables como indicadores macroeconómicos (tasa de interés. técnica. S de variables sociales. Determinar el presupuesto para el plan de acción. políticas comerciales. los valores y las costumbres no pueden ser ajenos en un análisis del macro-entorno.. E de económicas.Aspectos políticos y legales: comprenden factores como la estabilidad general del entorno. neoclásico. W.2) Formular los proyectos y analizar su factibilidad. legislación laboral. b. . etc. es necesario estudiar los modelos macroeconómicos (clásico. keynesiano. Para hacer el análisis del entorno. . T de tecnológicas y A de variables de tipo ambiental). a. inflación. y todos aquellos conocimientos que impliquen cambios en la forma de operar de la empresa en forma directa o indirecta.5 Métodos y Procedimientos para Realizar el Análisis Externo del Sistema. O. . el desarrollo.Aspectos sociales: la organización genera cambios sociales y es receptora del impacto que esas transformaciones puedan generar en el entorno.Aspectos económicos: son variables económicas que inciden en el resultado de la organización. que impactan o pueden impactar en el desarrollo y el clima de la organización en general o de sectores en particular. & Kristjanpoller. Para deducir las principales variables del macro-entorno.

Una vez realizado el análisis del entorno de la organización. 1987). los empleados y la comunidad en general. se resumen la variables y factores externos no controlables. 7). y que la empresa por sí misma. 8: VARIABLE EXTERNA: AMENAZA (PRECIO PETRÓLEO). las empresas que desean entrar al sector y las que producen productos sustitutos y complementarios. los clientes. FIG. en el sector de transporte se presenta actualmente niveles decrecientes de rentabilidad sobre las ventas. 24 . y en el caso de algunas variables cuantitativas fundamentales. y que inciden en el resultado del negocio.Aspectos ambientales y ecológicos: todos aquellos relacionados con el medioambiente. Los principales elementos que conforman el micro-entorno. E. a través de modelos econométricos. pero que afectan directamente a la organización en una tabla como la siguiente (ver FIG. esta es una gran amenaza para las empresas del sector y es un factor crítico que hay que estudiarlo con especial cuidado. 1980). debido a la evolución relativa de oferta y demanda. Uno de los modelos más utilizados para analizar el micro-entorno es el desarrollado por el profesor Michael Porter (Porter M. conocido como el modelo de las fuerzas competitivas. son: los competidores. y a los elevados aumentos del costo del combustible.. se pueden aplicar métodos o modelos de minería de datos para explicar su comportamiento. E. 7: TABLA FACTORES CRÍTICOS EXTERNOS: OPORTUNIDADES Y AMENAZAS. que han dificultado la transmisión del mismo a los clientes. FIG. Ventaja Competitiva. (Porter M. Por ejemplo. a través de sus acciones y decisiones también puede afectar.. los proveedores. El micro-entorno está compuesto por factores externos a la organización.. del sector industrial en la que participa. Por lo cual.

Este método es una combinación de los dos métodos anteriores. se pueden explicar a través de modelos cuantitativos que proporciona la minería de datos. y las variables cuantitativas críticas y controlables. FIG. embalaje. 25 .6 Métodos y Procedimientos para Realizar el Análisis Interno del Sistema. índices de rentabilidad. planificación y gestión de la operación. La logística incluye todas y cada una de las operaciones necesarias para mantener la actividad de la organización: desde la programación de compras hasta el servicio postventa pasando por aprovisionamiento. donde se han descubierto los factores fundamentales que distinguen a la organización de su competencia. etiquetado. Desde el punto financiero se utilizan los estados financieros que proveen información sobre el patrimonio de la organización a una fecha y su evolución económica y financiera en el período que abarcan. se incluyen índices de liquidez. almacenaje. índices de endeudamiento. para facilitar la toma de decisiones.2. índices de cobertura e índices de valoración. cualquier cambio significativo. Este método consiste en compararse con el competidor clave o grupo de competidores y/o se compara con el promedio de la industria. 9). 2) Series Temporales. Además. 3) Análisis Combinado. En esta etapa se considera el esquema de logística del proceso de una organización y se hace una comparación con el líder de la industria. puede ser una SEÑAL importante. Una vez terminado el análisis interno de la organización. La metodología utilizada para hacer los análisis financieros es: 1) Muestra Representativa. diseño. se analizan los indicadores financieros de la misma manera. clasificación y distribución física. Esta información de las variables fundamentales internas de la organización se resume en la siguiente tabla (ver FIG. de un año a otro. 9: TABLA DE FACTORES INTERNOS: FORTALEZAS Y DEBILIDADES. Consiste en comparar el rendimiento actual y el pasado.

P. 10: FACTOR INTERNO: FORTALEZA 2. b) kmedias o c) jerárquicos. 2007). Clementine.. MÉTODO K MEDIAS. & Bruce. por ejemplo. procesos y recursos disímiles. Data Engine. Y se dispone de técnicas y software de redes neuronales (MLP..5. Patel. software. lógica difusa. mapas auto organizativos). Revisión y selección de los modelos de negocios. Eviews. probit.FIG. N. SPSS. para extraer información susceptible de usar para tomar decisiones y acciones de negocios informadas. G. P..7 Estudio de Mercados. reglas de asociación. ID3. Aplicando técnica de clúster. Matlab. 26 . 11: CLÚSTER. árboles de decisión (CART. 2007): a) clúster de dos etapas. G.. a. Patel. C4. Aplicar un proceso de segmentación de mercado. lógica. b. En una organización se pueden identificar varios modelos de negocios.. FIG. porque los factores involucrados pueden ser muy diferentes. entre otros. & Bruce. con procedimientos de (Shmueli. N.. que es el proceso de extracción de datos desde bases de datos internas y externas a la organización y luego el análisis de estos. productos diferentes. regresiones: lineal. Es un proceso que consiste en dividir el mercado de un bien o servicio en varios grupos más pequeños e internamente homogéneos. También se puede aplicar BI (Shmueli. si es así el análisis debe ser independiente. CHAID). mercados distintos. SAS. por ejemplo: Oracle.

12. Patel.8 Métodos y Procedimientos para Establecer el Posicionamiento Estratégico y Estrategia Fundamental del Sistema. nuevos y útiles para tomar decisiones. Con este conocimiento generado se pueden generar y fundamentar las estrategias y acciones que se deben desarrollar en la organización..El proceso fundamental asociado al tratamiento de datos es conocido como KDD (Knowledge Discovery in Databases). archivos planos. Ferri Ramirez. Ma. 2012).. D. C. datos inconsistentes o fuera de rango. se utiliza el paradigma del rombo (Saavedra. etc.. en el cual se presentan 4 posicionamientos estratégicos básicos: 27 . En esta etapa se obtienen los datos importantes para el análisis desde distintas fuentes de información. donde se prueban diferentes modelos con el propósito de descubrir patrones desconocidos. Para establecer la estrategia fundamental del sistema. A. G. que están ocultos en los datos de las bases de datos. 3) Transformación.. Esta es la etapa de modelamiento propiamente tal. P. Ramirez Quintana. N. O.. 5) Evaluación. comenzando con: 1) Selección de los datos. & Bruce.. se presenta el esquema del proceso (Shmueli. FIG. que se refiere al proceso de descubrir conocimiento e información potencialmente útil para la toma de decisiones en los datos contenidos en bases de datos (Hernández. 12: PROCESO KNOWLEDGE DISCOVERY IN DATABASES.. En esta etapa se transforman o generan nuevas variables a partir de las existentes. 2) Preprocesamiento.. se utilizan diversas técnicas para manejar datos faltantes. 2007). bases de datos internas y externas a la organización. & Torres. 4) Data Mining. con una estructura apropiada para la situación. Se analizan los patrones útiles. 2004). En la FIG. Aquí se hace la preparación y limpieza de los datos que fueron extraídos de las distintas fuentes de información. Este es un proceso iterativo que tiene varias etapas. basándose en algunos estadísticos o métricas y se interpretan los resultados obtenidos. J. Saavedra. 2.

& Wilde. y radica en determinar de qué manera específica dicho negocio va a competir en su mercado. & Wilde. haciendo uso de estrategias de estándar de propiedad. o reconstruir las fronteras del mercado). ii) Nuevos mercados: donde la filosofía fundamental es desarrollar productos nuevos o mercados nuevos. & Mauborgne. 1999). W. (Hax. D. D. & Wilde.. D. esto consiste en pensar en el corazón de las estrategias. diferenciación y concentración... A. iv) Sistema cerrado. 2005). hay que definir las ventajas competitivas para cada uno de los negocios. 2003): acá la filosofía fundamental es la vinculación con el “cliente clave” con productos hecho a la medida.. con las estrategias de liderazgo en costo. (Hax. R. amplitud horizontal e integración del cliente. aprovechando las cosas que tienen en común los no clientes. A. PARADIGMA ROMBO. A. iii) Solución integral al cliente (Hax. D. & Wilde. 2003): cuya filosofía fundamental es mercado amplio y en competencia..FIG. 2003): la filosofía fundamente establece la vinculación con el cliente con el apoyo de empresas complementadoras. A. ¿Por qué 28 . desarrollo de nuevos productos. con las estrategias de redefinir la experiencia cliente. (Hax. con las estrategias de: reingeniería de producto. mercado dominante y acceso restringido. Luego. 13: ESQUEMA ESTRATEGIA FUNDAMENTAL DE LA ORGANIZACIÓN. donde la competencia no es tan relevante como la vinculación con los clientes y la innovación (Chang. desarrollo de mercados (crear y capturar nueva demanda. i) Mejor producto.

Se trata de generar poderosos saltos de valor que constituyan en sí mismo una barrera infranqueable para la competencia. & Mauborgne. La filosofía es la “innovación de valor” (Chang. A. El posicionamiento estratégico de “nuevos mercados”. las organizaciones tratan de lograr “ventajas competitivas” frente a sus competidoras a fin de ganar una porción mayor del mercado. W. Asimismo en este enfoque surgen una serie de supuestos que subyacen a la definición estratégica de muchas organizaciones. 2005). 2003): 29 . & Mauborgne. (Hax. en general surgen como resultado de la expansión de los límites de las industrias ya existentes (Chang. o es necesario un fuerte apoyo en marketing y una marca de mucho prestigio y respaldo. son dos preguntas cuyas respuestas constituyen la esencia del éxito de cualquier empresa y están en el origen de la definición de la ventaja competitiva. & Wilde. al igual que las reglas que rigen el mercado. (Hax. los límites de las industrias están definidos y son conocidos por todos. alineando todas las actividades de la organización con el objetivo de procurar la oportunidad de un nuevo negocio y a la vez un aumento del valor de los productos. poco diferenciados (commodities). la compañía necesita ser eficiente en su actuar. que trae como resultado la creación de una nueva oportunidad y una «ruptura» con la competencia. una vez que me ha preferido. precio y costos. R. 2005). El posicionamiento estratégico de “mejor producto”.me prefiere un cliente?.. Si bien algunos de los procesos son creados más allá de las industrias tradicionales. 2003) considera todas aquellas industrias ya existentes en la actualidad (es un mercado conocido y habitualmente masivo o segmentado). A. Para que la estrategia empresarial sea exitosa.. 2005) (como en el caso del Cirque du Soleil).. y constituyen una oportunidad de fuertes ganancias. En el mismo. & Mauborgne.. Es en este mercado (masivo) donde el espacio se torna multitudinario y los productos tienden a ser homogéneos. En este escenario. D. Las actividades de estas organizaciones se hallan definidas por un espacio del mercado aún no explotado. W. W. creando y capturando nueva demanda. las expectativas de crecimiento y rentabilidad son reducidas y más aún si las organizaciones de la industrias entran en una guerra de precios. al menos durante un período suficientemente largo de tiempo.. tales como (Chang. ¿por qué debiera seguir haciéndolo?. R. se produce cuando las organizaciones alinean innovación con utilidad. R. Esto es una nueva manera de pensar y ejecutar la estrategia fundamental. lleva a las organizaciones a generar un nuevo espacio de mercado haciendo irrelevante la competencia. & Wilde. la competencia es irrelevante ya que las reglas del juego aún no han sido determinadas. D.

 Definir la industria tal cual lo hacen los competidores focalizando la estrategia en ser los mejores dentro de la industria. Apenas tengan la oportunidad abandonarán este mercado. & Mauborgne. En el sentido más amplio. pero mentalmente se sienten como no clientes de la industria. De esta manera. pero ante una oferta de valor que pueda satisfacerlos. pero se niegan a adoptarlo.  Focalizar en el mismo grupo de compradores. Las organizaciones se deben focalizar sobre sus no clientes (Chang. La segunda categoría de no clientes está constituida por aquellos que se niegan a las ofertas de la industria. en lugar de focalizar sobre las diferencias entre clientes. Un ejemplo de esto son los cines y los restaurantes. una organización compite no sólo con las instituciones de su misma industria sino también con todas aquellas que producen servicios o productos alternativos al propio.  Aceptar la orientación funcional o emocional de la industria en la que está. 2005). esforzándose por destacarse dentro del grupo de pertenencia. no se toma en consideración lo que sucede en las industrias alternativas a nuestros productos o servicios. podría quedarse. pero el mismo propósito. Al referirse a alternativas no se limita sólo a los productos y servicios substitutos. el disfrutar de una salida o entretenimiento.  Definir el alcance de los productos y servicios ofrecidos de manera similar al del resto de la industria. multiplicando asimismo su frecuencia de compra. 30 . constituyen una alternativa en sí mismo ya que cumplen el mismo objetivo.. si bien se tiende a reaccionar frente a la acción de algún competidor dentro de la industria. deben tratar de construir lo común en lo que el cliente valora. ya que si bien no son substitutos. Para lograrlo las organizaciones deben desafiar dos procesos estratégicos convencionales: la focalización sobre los clientes actuales y la tendencia a segmentar finamente a fin de acomodar la oferta a las diferencias entre compradores. sino también a todos aquellos productos o servicios que tengan diferente forma y función. W. Son agentes que han visto lo que se ofrece. eventualmente comprarán la oferta. R.  Mirar en sus industrias a través de la óptica de estrategias generalmente aceptadas (tales como la de los automóviles de lujo). Los no clientes pueden ser divididos en tres categorías: la primera está compuesta por aquellos no clientes que se encuentran al borde del mercado.

focalizarse en el posicionamiento estratégico de “mejor producto” es aceptar los factores limitantes de la guerra (territorio limitado y la necesidad de vencer al enemigo). A. las organizaciones pueden entender como acercar a estas personas al nuevo mercado. bioinformática. Focalizando sobre los aspectos comunes entre estos no clientes y los clientes actuales. y donde asimismo las asociaciones de derechos de los animales incrementaban sus campañas en contra de la utilización de animales en el espectáculo..  Desarrollo de nuevos productos. W. negando la fortaleza distintiva del mundo de los negocios: la posibilidad de crear nuevos espacios de mercado que sean vírgenes aún. Se consideran en este posicionamiento tres estrategias fundamentales:  Reingeniería de producto. las consolas de juego. D. la existencia del mismo no lo es. donde la competencia no es tan relevante como la vinculación con los clientes y la innovación de valor (Saavedra. R. La historia de las industrias muestra que el universo del mercado nunca ha sido constante.). Si bien el término posicionamiento estratégico de “nuevos mercados” puede parecer nuevo. 2012). etc. O. la industria del circo 31 . aviación. que motivan a los niños a permanecer en sus hogares y no asistir al circo tradicional). videos. Saavedra...La estrategia de reingeniería de producto se puede ilustrar con el proceso desarrollado por el Cirque du Soleil. así como al observar los últimos 30 años podremos ver el surgimiento de nuevas industrias no imaginadas previamente (biotecnologías. En el posicionamiento estratégico “nuevos mercados”. aprovechando las cosas que tienen en común los no clientes o reconstruir las fronteras del mercado). la filosofía fundamental es desarrollar productos nuevos o mercados nuevos. creándose infinidad de posibilidades.). 2005) que eran desconocidas entonces (petroquímicas. Esto habla de la irrupción de nuevas maneras de hacer negocios a lo largo de la historia de la era industrial. & Torres. a. & Mauborgne.Finalmente la tercera categoría se compone por aquellos que nunca han pensado en sus ofertas de mercado como una opción. telefonía celular. etc. La realidad es que las industrias nunca quedan estáticas y continuamente evolucionan. cuyo éxito es alcanzado en una industria en decadencia. Como vemos desde el punto de vista de una estrategia basada en la competencia. correos privados.. Echando una mirada retrospectiva a los últimos 100 años es fácil percibir que existen muchas industrias (Chang. automóviles.  Desarrollo de mercado (crear y capturar nueva demanda. compitiendo en un mercado (entretenimiento) donde surgían novedades (por ejemplo.

Este circo no crece a costa de los consumidores habituales de los circos competidores. Estrategia de diferenciación en calidad. Creado en 1984. las producciones del Cirque du Soleil han sido vistas por unos 40 millones de espectadores a través del mundo. no importando su alto precio. Montando un espectáculo totalmente diferenciado de sus competidores. W. la organización tendrá que crear la preferencia de marca. Al mismo tiempo. están impacientes por comprarlo. el fax. las agendas palm. N. de venta de tecnología y de independencia técnica respecto a otras empresas y países. lo hacen al precio establecido. pasando a focalizar en alternativas en lugar de competidores y en no clientes en lugar de clientes.La estrategia de nuevos productos se desarrolla cuando se potencia la I+D en una organización con el fin de que permita llevar a cabo políticas de lanzamiento de nuevos productos. & Mauborgne. La promoción facilitará o acelerará la penetración del producto en el mercado. servicio o distribución. esta decisión estratégica se explica con las siguientes suposiciones: el mercado potencial no conoce el producto. como en su momento lo fueron el teléfono celular. & Majluf. que consiste en la especialización por producto.. Las decisiones estratégicas que pueden acompañar la estrategia de nuevo producto son (Hax. Esta estrategia consiste en crear nuevos productos para el mundo.. R. Por lo cual. sino que su espectáculo se dirige a un nuevo grupo de consumidores adultos dispuestos a pagar una entrada sustancialmente más cara a fin de ver un espectáculo que no tiene precedentes. se gastará mucho en promoción con la finalidad de convencer o atraer al mercado sobre los beneficios y excelencias del producto. b. esta organización realizó una re-ingeniería en el servicio de la entretención. Su nivel de ingresos ha alcanzado en sólo 20 años cifras similares a los de los circos Ringling BROS y Barnum & Bailey durante más de 100 años (Chang. el Cirque du Soleil alcanza un éxito sustentado en la creación de un nuevo mercado que hizo que la competencia se convirtiera en irrelevante. de diferenciación de productos. reconocida en todo el mundo por presentar entretenimiento artístico de muy buena calidad. en construir algo que no existe. En este sentido se sugiere orientar la estrategia fundamental. clientes o zonas geográficas. la Internet.parecería poco atractiva. Estrategia de nicho. 1996): Estrategia de alta penetración. 2005). etcétera. El producto nuevo se lanza a un precio elevado con el propósito de recobrar el beneficio bruto de cada unidad. A. quienes se enteran del nuevo producto.. 32 . de adaptación de procesos. en inventar satisfactores nuevos.

& Torres. D. y es un instrumento para apoyar a los directivos en el trabajo con sus objetivos y los medios para lograrlos. 1993). los costos de elaboración por unidad disminuyen con la escala de producción y la experiencia de producción acumulada. Kaplan y D. Estrategia de penetración ambiciosa.. Esta decisión estratégica se explica con base en los siguientes puntos: el mercado es de proporciones relativamente limitadas y los que deseen el producto lo pagarán a precio alto. Consiste en lanzar el nuevo producto a un precio elevado y con escasa promoción.. intentándose con ello un rápido posicionamiento en el mercado y. mantener bajos los costos de promoción para percibir una utilidad mayor. Esta decisión estratégica supone lo siguiente: el mercado es grande y es sensible a los precios. c. Son sectores de reciente aparición. Saavedra. al mismo tiempo. de esta manera se espera percibir más utilidades.La estrategia de “nuevos mercados” donde el desafío consiste en identificar exitosamente entre la infinidad de posibilidades existentes... (Kaplan. por ejemplo. Características: estrategia de internacionalización ampliando mercados y alargando su ciclo de vida. consecuencia de la revolución tecnológica. A. Estrategia de baja penetración.9 Métodos para el Diseño de Cuadro de Mando Integral El cuadro de mando integral (CMI) fue creado por R. Se lanza el producto a un precio bajo y con poca promoción para estimular la aceptación rápida en el mercado y.. 2012). & Norton.. el mercado desconoce el producto. Esta decisión estratégica se explica por las siguientes circunstancias: el mercado es grande. El propósito es recuperar la mayor cantidad de beneficios por unidad y mantener bajos los gastos de la mercadotecnia. el movimiento global a favor de la protección del medio ambiente o responsabilidad social). 2004).Estrategia de penetración selectiva. el surgimiento de Internet. mayor participación del mismo. Hay que permitirse mirar a través de esas tendencias preguntándose como las mismas van a modificar el concepto de valor del cliente. Norton (Kaplan. R. O. 2. el consumidor es en general más sensible a los precios. una oportunidad comercial convincente (Saavedra. Para ello plantearon cuatro perspectivas básicas: 33 . D. D. por ende. y como van a impactar sobre el modelo de negocio de la industria puede facilitar la creación de un nuevo mercado (un ejemplo de esto es el mercado de la música digital y la aparición de Internet). Estrategias de crecimiento externo a través de fusiones o adquisiciones que permita aumentar el tamaño y reforzar el posicionamiento estratégico.. Todas las industrias están sujetas al efecto de tendencias externas que afectan su negocio a través del tiempo (ver. R. Consiste en lanzar un producto a bajo precio con una fuerte promoción. & Norton.

Esta herramienta se apoya fuertemente sobre la base de indicadores cuyos valores representan un fenómeno o situación dada.. D. & Kristjanpoller. las estrategias. visualización y valores. realizando una revisión periódica del estado de los indicadores y con ello confirmar los avances obtenidos por las distintas áreas de la organización. de procesos internos y de crecimiento y aprendizaje (Kaplan. que es la etapa del “pensar” (proceso de decidir anticipadamente qué se hará en el futuro y de qué manera. el rol del cuadro de mando integral en el proceso de dirección estratégica es el engranaje entre la visión estratégica de la organización y el plan de acción (Saavedra. visualización y valores de la organización y sólo será consistente si se han conceptualizado esos elementos. 1993).. Ayudan a entender la coherencia entre los objetivos estratégicos y permiten visualizar de manera sencilla y muy gráfica la estrategia de la organización.. 2004).. Las perspectivas sirven para clasificar los objetivos permitiendo equilibrar la información y disponer de varias perspectivas claras de información. manteniendo el equilibrio entre las perspectivas que representen al modelo de negocio. son: 1) Misión. los períodos de realización y los responsables de la ejecución). Este plan operativo interrelaciona operativamente la misión.. (Kaplan. 2004). de tal forma de adoptar e implementar las mejores prácticas. 2) Perspectivas. Sin embargo.. los costos asociados. & Norton. Mediante las perspectivas se obtiene una visión global de la unidad y mediante los indicadores asignados a cada perspectiva se concretan 34 . mapas estratégicos y objetivos. R. R. D. Los elementos necesarios para configurar adecuadamente un CMI.. Selección de los objetivos. O. & Norton. éstas pueden modificarse de acuerdo a las necesidades de cada organización. del cliente. Esta metodología de sistema de control es el vínculo entre la planificación estratégica. los objetivos estratégicos.. lo que permite trazar políticas correctivas o proactivas a la administración. D. Los mapas estratégicos se refieren al conjunto de objetivos estratégicos que se conectan a través de relaciones causales. Además. las estrategias y las acciones para lograrlos) en el proceso de dirección estratégica y la etapa del “hacer” (son las actividades que se deben desarrollar para lograr los objetivos declarados y comprometidos. 2012). (Kaplan. R. R. es decir. La aplicación de un CMI comienza con la definición de la misión.. plantean la necesidad de establecer metas creíbles y perseguir la mejora continua en la planificación estratégica y en el mejoramiento operativo de las organizaciones. 1993). en el logro de los objetivos estratégicos para alcanzar un nivel de superioridad o ventaja competitiva. W. D. & Norton. & Norton.financiera. los proyectos. este conjunto de actividades conforman los proyectos y el plan de acción de la organización. Los mapas estratégicos son el aporte conceptual más importante del CMI (Kaplan.

para su subsistencia y para su operación. Obviamente. CMI. y comunicar a la sociedad y a los empleados internos los resultados y los inductores de actuación por medio de los cuales la organización conseguirá alcanzar su misión y lineamientos estratégicos. fundamentada en principios de la Neurociencia –la cual ha sido una disciplina científica que ha tomado un auge relevante en los últimos años-. desarrollan sus actividades de docencia. algunas han definido cómo estrategia fundamental una dirección sustentada en unidades estratégicas de negocios. UEN. 35 . 2012).. & Kristjanpoller. extensión y cultura. 2012). Las organizaciones sin ánimo de lucro. En estas organizaciones. la disponibilidad y el uso adecuado de los fondos financieros recaudados o asignados a la organización. investigación. Las perspectivas del cuadro de mando se describen a continuación y se representan esquemáticamente en las figuras 14 y 15. el CMI proporciona la razón principal de su existencia (servir a los usuarios.. porque el mal uso de presupuestos o la falta de recursos financieros pueden desembocar en una baja en la moral o en la desaparición de la organización. 2. requieren mantener un objetivo de buen rendimiento financiero en el largo plazo. un estado. en un ambiente muy competitivo. la satisfacción de los usuarios (sea este un sector de la comunidad. en estas circunstancias para lograr su viabilidad en el largo plazo. W. W. a pesar que enfatizan un papel aun más fuerte de los usuarios y empleados a la hora de especificar sus objetivos e indicadores. se incorpora en el modelo inicial una quinta perspectiva o dimensión. para estas organizaciones puede parecer muy similar a los que se desarrollan en organizaciones con fines de lucro.10 Caso: Dirección Estratégica en Organizaciones sin Fines de Lucro. sino al logro de una misión. y no únicamente manteniendo el gasto dentro de los límites presupuestarios). Por esta razón. al menos en parte. y probablemente sea también. como su orientación y nombre lo indican. pero de ninguna manera "miden" su razón de ser. donaciones). & Kristjanpoller. Sin embargo.los resultados de los objetivos a conseguir. O. Se sabe que las universidades que participan en el sistema de educación superior en Chile. no están destinadas a obtener una ganancia monetaria. el proveedor de los fondos (aportes. la autoregulación en la gestión. con el apoyo de tecnologías de la información (Saavedra. el pensamiento estratégico y el mejoramiento continuo. es uno de sus indicadores de éxito. Para estas organizaciones. O. un país o el mundo). El objetivo fundamental de esta propuesta fue aplicar el cuadro de mando integral en una unidad académica para promover la auto-evaluación. es el fin último que debe reflejar el éxito de estas organizaciones. En este caso se presenta una aplicación de un modelo de control de gestión a un departamento académico de una universidad (Saavedra. El cuadro de mando integral.

el empoderamiento. Así entonces se da cuenta de forma inequívoca la conexión del personal con la estrategia fundamental de la organización (Saavedra.. Se debe lograr crear una “comunidad de talentos”. desarrollar. & Kristjanpoller. CASO ACADÉMICO. la productividad. motivar. etc. Los cinco aspectos fundamentales de la quinta perspectiva tienen como denominador común que todos estos son fundamentales para las personas en las organizaciones. 14: MAPA ESTRATÉGICO. O. W. Permitir el desarrollo de carrera y capacitación del personal. el liderazgo. 36 . de modo de atraer. 2012). comprender y retener la mejor dotación de ellos. incrementan la concentración.FIG. la motivación.

15: TABLERO DE OBJETIVOS ESTRATÉGICOS E INDICADORES DE GESTIÓN EN DOCENCIA. en un área estratégica específica de la organización. para un determinado número de usuarios. que es el modo óptimo de organizar los datos en los sistemas de BI. Es un subconjunto de datos internos y externos de la organización para un propósito concreto. Las herramientas de BI se conectan al “modelo multidimensional” del data warehouse. Para construir tal sistema se requiere un “modelo multidimensional”. En el diseño del “modelo multidimensional” se utiliza un modelo conceptual con estructura en estrella o una estructura en copo de nieve. 37 .FIG. y puede hacerse mediante bases de datos relacionales (ROLAP). Los elementos en estos modelos conceptuales son denominados hechos o medidas (los valores almacenados en el cubo) y las dimensiones (corresponden. Una base de datos con “modelo multidimensional” o “cubo” es una base de datos que tiene una estructura adecuada para resolver consultas analíticas. Para soportar tecnológicamente el CMI es necesario un pequeño data warehouse. o utilizando bases de datos multidimensionales (MOLAP). y que se corresponden bastante con el lenguaje de negocio de los directivos de una organización. Se trata de modelos sencillos que aseguran unos buenos tiempos de respuesta.

al combinar indicadores financieros y no financieros. transforma los objetivos estratégicos en un conjunto de medidas de rendimiento posibles de controlar periódicamente. Es clave priorizar las iniciativas en función de su impacto y contribución a los objetivos estratégicos. y permite adelantar tendencias y realizar una política estratégica proactiva. Son las acciones o proyectos en las que la organización se va a centrar para la consecución de los objetivos estratégicos. FIG. Las iniciativas estratégicas en el tablero de control. Es un método estructurado para seleccionar los indicadores de gestión que guían la dirección en el corto y largo plazo. 16: ESQUEMA EN ESTRELLA. CASO ACADÉMICO. El CMI proporciona a las organizaciones un instrumento para respaldar la dirección estratégica. 38 .normalmente a valores en los ejes del cubo) son normalmente variables descriptivas con alguna escala.

“rentable” y con un riesgo controlado. establecida en un objetivo estratégico en el tablero de control. Estudio procesos. Un proyecto es la búsqueda de una solución inteligente. Para cada uno de los proyectos o acciones se realiza un estudio de prefactibilidad. Técnico Tributario. proceso administrativo. Estudio organizacional. Construcción flujos de caja del proyecto. segura. donde se hace una investigación acabada de las variables que influyen en el proyecto y que permitan fortalecer la conveniencia de éste. al planteamiento de una oportunidad estratégica. 17: TABLERO DE CONTROL E INICIATIVAS ESTRATÉGICAS. Estudios Mercado Fase de prefactibilidad del proyecto Investigación de modelo de negocios y mercados. 39 . 18: ESTUDIOS PARA LA PREPARACIÓN Y EVALUACIÓN DE UN PROYECTO. eficiente. unidad productora. Estudio de regulaciones y leyes.FIG. Evaluación de indicadores financieros y análisis de sensibilidad. legal y ambiental Administrativo y organizacional Económico y financiero FIG. CASO EMPRESA DE TRANSPORTE.

representa factores distintos a X que afectan a Y. ¿cuál es la relación funcional existente entre Y e X? Y -3.00 -1.00 0. dado que nunca se da una relación exacta entre dos variables. 2006). 2004):  Y: Variable dependiente. como Y puede ser la producción de manzanas y X la cantidad de fertilizante o Y el número de robos frente a X el número de personal de seguridad (Wooldridge.50 0. denominada término de error o perturbación en la relación.50 -1. variable de control.00 X FIG. 19: EJEMPLO GRÁFICO.50 -2. Cuando se crea un modelo que explique Y en términos de X. La variable ε.00 -0.CAPÍTULO 3: Regresión Múltiple Gran parte de los análisis econométricos comienzan con la siguiente premisa: Y y X son dos variables que representan a una población. Una forma simple sería: Esta ecuación es lo que se llama modelo de regresión lineal simple. REGRESIÓN LINEAL Se puede resolver estas interrogantes estableciendo una ecuación que relaciona Y y X. variable explicada. En primer lugar.  X: Variable independiente. variable predictor o regresor. variable de respuesta.00 -2.50 1. variable predicha o de regresando. variable explicativa. Estas variables pueden ser de diferentes índoles. aparecen varios problemas. Las variables Y y X tienen diferentes nombres que se emplean indistintamente (Gujarati. Se está interesado en “explicar Y en términos de X” o “estudiar como varía Y con los cambios de X”. o parámetro de la 40 . ¿cómo permitir que otros factores afecten a y? En segundo lugar.

Sin embargo. estos se escriben ̂ ̂ ̂ ̂ . Las variables en cuestión deben ser cuantitativas. en las relaciones entre Y y X que se dan a continuación. Se hace esta diferencia ya que estos son estimadores de los valores poblacionales. 3. luego de escribirlas y dejarlas expresadas como variables dicotómicas (binarias). las otras son los parámetros respectivos a cada variable independiente. Lo cual se puede presentar como: Donde β0 es la intersección o término "constante". cumplen la hipótesis de linealidad en los parámetros las tres ecuaciones: 41 . pero generalmente no es esencial para el análisis. la variable respuesta Y y los parámetros β son lineales. y p es el número de parámetros independientes a tener en cuenta en la regresión. Hipótesis de linealidad en los parámetros. sea simple o múltiple. 2004): Donde p es el número de parámetros independientes a tener en cuenta en la regresión. Los modelos de regresión lineal son los modelos en que la variable predictora X. Ct  1  2Yt   t No hay que confundir esta hipótesis de linealidad con la linealidad entre las variables. Es posible introducir en el modelo variables cualitativas o categóricas. 2000). Por ejemplo. El término constante se emplea en muchos casos. En el caso de que los datos no sean la población y solo sean una muestra. (Reguera. sólo la primera es formalmente lineal. es necesario hacer una serie de hipótesis simplificatorias. Si estas hipótesis se cumplen cualquiera de los métodos que se explican en este capítulo puede ser usada para calcular los estimadores (Gujarati.1 Supuestos para el Cálculo de una Regresión Lineal Para el cálculo de una regresión lineal. Establece la linealidad en los parámetros en la relación entre la variable endógena y las exógenas.pendiente cambio que tendrá Y por cada unidad que cambie X. Cuando se habla de varias variables se dice que es una regresión múltiple y sería de la siguiente forma (Gujarati. 2004). 1.

No existe alguna variable exógena que no explique nada de la variable endógena. Esta hipótesis supone aceptar en la práctica dos cosas no siempre ciertas (Wooldridge. se puede resumir la información muestral sobre las variables explicativas en una matriz. es necesario disponer de tantos datos como parámetros a estimar. es preferible siempre disponer de más datos que parámetros a estimar. como una relación entre la variable trabajo y la variable stock de capital: Y  AK  L 2. Esta hipótesis supone que. Los grados de libertad de un modelo se definen como la diferencia entre el número de datos (n) y el número de variables explicativas (p). No obstante. que no hay X que no aporte al modelo.  Aceptar que sobre estas variables dispongo siempre de información muestral adecuada. 4. El ejemplo clásico de una función que no cumple con la linealidad de los parámetros es la función de producción de tipo Cobb-Douglas. 5. . En otras palabras. Si hubiera información repetida. 2006):  Aceptar que siempre hay una teoría detrás que me permite saber cuáles son las variables relevantes en cada modelo. o las X del modelo. Esta hipótesis supone que las variables explicativas. Es decir. Hipótesis de parámetros constantes.y  1  2 x y  1  2e x y  1  2 ln x En determinadas relaciones económicas no se cumple la hipótesis de linealidad en los coeficientes. son aquellas variables relevantes que explican el comportamiento de la variable endógena o Y. 3. habría variables explicativas dependientes linealmente de otras. donde se representa la función de producción de la empresa. Esta hipótesis implica que cada variable explicativa contiene información adicional sobre la endógena que no está contenida en otras. Hipótesis de grados de libertad positivos. Esta hipótesis supone que los parámetros son constantes en el tiempo. Hipótesis de independencia lineal entre las variables explicativas. Formalmente. es decir. con la siguiente estructura: 42 . el modelo está bien planteado o especificado. como mínimo. Hipótesis de especificación correcta.

Por ejemplo. igual al número de variables (n). x11   x  n1 x1k    xnk  Donde cada columna recoge los datos asociados a cada variable. se dice que existe un problema de multicolinealidad perfecta. El hecho de que cada columna sea linealmente independiente de las otras implica que el rango de la matriz X es completo. Bajo la hipótesis de renta permanente de Friedman. Modelos con errores de medida en las variables explicativas. . 2. esto hace que sea un regresor estocástico. se puede escribir: qtd  a  bpt  1t pt  c  dqto   2t qtd  qto . un modelo de demanda y de oferta de un bien que se intercambia en un mercado competitivo en equilibrio.n Donde se observa una relación bidireccional entre el precio (p) y la cantidad intercambiada (q). el consumo sólo depende del componente permanente de la renta ( Yt P ): Ct  bYt P   t 43 . si en la relación entre consumo y renta se supone un modelo dinámico como: Ct  1  2Ct 1  3Yt   t donde el propio modelo indica que el consumo retardado es un regresor estocástico al depender de un error aleatorio. Por ejemplo. Modelos dinámicos en los que aparecen como regresores sucesivos retardos de la variable endógena. Esta hipótesis implica que los datos de las variables explicativas son fijos en muestras repetidas. Hipótesis de regresores no estocásticos. es decir. 6. t  1. de forma que el precio es una variable exógena en la ecuación de demanda y pasa a ser la variable endógena en la ecuación de oferta y por tanto. Si alguna variable es linealmente dependiente de otra. Existen tres situaciones en econometría donde no es posible mantener esta hipótesis: Modelos de ecuaciones simultáneas.

es decir: ( ) Donde es un escalar constante para toda i. 2004) 44 . Esta cualidad es necesaria. Se dice que existe homocedasticidad cuando la varianza de los errores estocásticos de la regresión es la misma para cada observación i (de 1 a n observaciones). la renta permanente ( Yt P ) es un regresor estocástico. (Gujarati. a su vez. 2004): Una situación en la que se incumple esta hipótesis es cuando. según el Teorema de Gauss-Markov. 7. no existe ninguna razón para esperar cualquier valor distinto de cero. El término de error satisface las siguientes hipótesis: Esperanza nula en todo instante de tiempo: Ya que es tratado como la suma de muchos efectos individuales sobre la variable endógena o Y.Yt  Yt P  YtT donde el componente transitorio ( Yt T ) o las desviaciones aleatorias alrededor de la renta media de un agente no es observable. como es omitir en el modelo una variable relevante. Varianza constante (homocedasticidad): La homocedasticidad es una propiedad fundamental del modelo de regresión lineal general y está dentro de sus supuestos clásicos básicos. donde el signo de cada uno es desconocido. para que en un modelo los coeficientes estimados sean los mejores o eficientes. se incumple otra. ya que Yt P  Yt  YtT . Matemáticamente (Gujarati. Por tanto. Hipótesis referentes a las perturbaciones aleatorias del modelo o hipótesis de Gauss-Markov. lineales e insesgados. Lo que significaría que habría una distribución de probabilidad de idéntica amplitud para cada variable aleatoria.

  1   1  E  . Es muy frecuente el incumplimiento de esta hipótesis en modelos donde se usan datos de series temporales. la historia pasada no ayuda a predecir el comportamiento futuro y los errores son completamente aleatorios e imprevisibles. aunque también hay razones técnicas que nos obligan a hacer estas hipótesis. 21: DISTRIBUCIÓN HETEROCEDÁSTICA (FUENTE: (GUJARATI. 2 . Esto se puede ver en el cálculo de su media y varianza del error. Estas restricciones se imponen para exigir “un buen comportamiento” a las variables. 2004)). 20: DISTRIBUCIÓN HOMOCEDÁSTICA (FUENTE: (GUJARATI.        n  n 45 . Teniendo n variables aleatorias.FIG. 2004)). para así poder hacer los cálculos de los estimadores por los métodos que se presentarán más adelante. el error en un momento del tiempo ayudaría a predecir el error en un momento posterior y los errores tendrían inercia. Si hay autocorrelación. E ( )   . FIG. Si no hay autocorrelación.  n ) : Media: Sería un vector de n medias. Ausencia de autocorrelación en todo instante de tiempo. tendremos (1.  =  .

cov( 2 n )   E ( 21 ) E ( 22 )    . . 3.   . .   cov( n1 ) cov( n 2 ) . E ( n )  n(n  1) .  2 .  var(1 ) cov(1 2 )  cov( 21 ) var( 2 ) var( )    . en donde sólo habría que estimar la varianza constante.Matriz de varianzas y covarianzas: Sería una matriz que recoge las varianzas de cada variable en la diagonal principal y las covarianzas entre una perturbación y otra diferente fuera de la diagonal. Las hipótesis hacen que el vector de medias sea nulo y la matriz de varianza-covarianza una matriz diagonal. E ( 2 n )   . definida positiva y de tamaño n  n . No obstante. si la 2 muestra disponible es de tamaño n . Es simétrica. E (1 n )   . 46  =( ) . ya no tenemos grados de libertad para caracterizar el término de error. cov(1 n )   E (12 ) E (1 2 )   . ya que por ausencia de autocorrelación todas las covarianzas son cero. . . var( n )   E ( n1 ) E ( 2 n ) Los elementos diferentes de dicha matriz son . ya que habría que estimar medias y varianzas y covarianzas distintas. .2 Notación Matricial del Modelo Lineal General La información asociada a la variable endógena se almacena en un vector columna Y de tamaño n1 : Y= ( ) La información asociada a las variables explicativas se recoge en una matriz llamada X de tamaño: ( ) Las perturbaciones en un vector  de tamaño n1 y los parámetros en un vector  de tamaño p x 1:  = ( ) .

Y =X  +  .3 Métodos de Cálculo de los Estimadores Mínimos cuadrados ordinarios (MCO) (Gujarati. 2006). Matemáticamente sería: ∑ ̂ Siendo el valor real de la variable a predecir y ̂ el valor predicho de la ̂ el error. donde I es la matriz identidad 3. para usarlo se deben cumplir todos los supuestos nombrados anteriormente. (Wooldridge. obtener la expresión analítica del estimador MCO de  . el objetivo es. var (  ) = E(   T ) =  2 I. Este es un sistema de n ecuaciones que se corresponde con la forma compacta de escribir el MLG. Y =X  +  . variable e Dada la formación matricial mostrada anteriormente. Las hipótesis sobre las perturbaciones en notación matricial son: E(  ) = 0 . está en todo los programas de minería de datos. Para ello. se define el vector de residuos ˆ de tamaño n1 que una vez conseguida una estimación del vector  . se calculará como: ˆ  Y  X ˆ La función objetivo minimizar la suma de cuadrados de los residuos con respecto a los p parámetros del modelo se puede escribirse como: n min  ˆt2  min ˆT ˆ  min(Y  X ˆ )T (Y  X ˆ ) t 1 Operando: 47 . de nuevo. Esta es la técnica más usada para calcular los estimadores de una regresión múltiple. 2004).El modelo lineal general (MLG) escrito en forma matricial o compacta es: ( ) ( )( ( ) ) o bien. El objetivo de esta es minimizar la suma de los cuadrados de los errores ( ).

ˆ2 .. El estimador ˆ que satisface este sistema se llama estimador por MCO. teniendo que: ̂ En el caso de una regresión lineal simple quedaría: ̂ ̂ ̂ ̂ ̂ ̂ ∑ ∑ ̅ ̂̅ Estimación por máxima verosimilitud Este es un proceso de optimización de la variable L.. siendo z y w dos vectores de tamaño compatible y A una matriz cuadrada..min(Y T  ˆ T X T )(Y  X ˆ )  min(Y T Y  2ˆ T X T Y T  ˆ T X T X ˆ ) Condiciones de primer orden: ˆT ˆ  2 X T Y  2 X T X ˆ  0 ˆ  donde se han tenido en cuenta los siguientes resultados sobre las derivadas matriciales: z T w w z zT Az  2 Az z . la cual es expresada como: 48 . llamado sistema de ecuaciones normales.. ˆk ). La forma más sencilla de resolver este sistema es multiplicar el mismo por la inversa de la matriz X T X de tamaño (p x p). La solución analítica a las condiciones de primer orden es: ̂ Este es un sistema de p ecuaciones con p incógnitas ( ˆ1 .

igualar las derivadas a cero y resolver 2 para los estimadores y S el sistema de ecuaciones resultante. Aplicar logaritmo a L a fin de obtener 1 = Ln (L) 2. 2004).∏ ( ) En esta optimización se busca encontrar los estimadores y la varianza muestral (S2) tales que L sea máxima. (Reguera. (Wooldridge. 2000). 2004). σ22. 2000). Derivar Ln(L) respecto a y β. Para hacerlo hay que seguir los siguientes pasos: 1. 49 . σn2) los residuales están incorrelacionados pero son heterocedásticos.4 Evaluación del Modelo Para ver la eficiencia de un modelo de regresión lineal simple o múltiple se ocupan principalmente indicadores y dócima para ver que tan buenos son los parámetros calculados (Gujarati. 2006).  Si G es una matriz diagonal general.…. Donde los estimadores se pueden calcular como: ̂ ( ) Siendo G: ( ) [ ] Dependiendo de G como es la estructura del modelo:  Si G = I (Matriz identidad) los residuales son homocedásticos e incorrelacionados. Resultan los estimadores: ( ) ̂ ( )∑ Para usar este método se piden los mismos supuestos que en MCO agregado el de la distribución normal de los errores. σ32. (Gujarati. 3.  Si G es una matriz simétrica general. 2004). Mínimos cuadrados generalizados o ponderados Dada la existencia de autocorrelación o de heterocedasticidad en los modelos estos pueden ser calculados a través del método de los mínimos cuadrados generalizados (Gujarati. 3. los residuos son heterocedásticos y están correlacionados. G = Diagonal(σ12. El único requisito que se mantiene es que la media de los residuales debe ser cero (Reguera.

la evaluación de estos dos errores se ve en la tabla ANOVA (Gujarati. 2004). Matemáticamente es el valor real ( ) menos el valor calculado por la regresión ( ̂ ). donde se plantea que: Ho = β1 = β2 = … = βp = 0 y Ha = una o más βj ≠ 0 50 . como: Regresión simple: Fuente de la Variación Regresión Grados de libertad P Suma de cuadrados ∑ ̂ Residual n-p-1 ∑ Total n-1 ∑ Cuadrados Medios F Cuadrados Medios F ̂ Regresión múltiple: Fuente de la Variación Regresión Grados de libertad P Residual n-p-1 Total n-1 Suma de cuadrados ̅̅̅ ̅ ̅̅̅ ̅ F es el estadístico de la hipótesis global de la tabla ANOVA. Error residual (SCR): Es el error al cual no se le puede atribuir una razón. Siendo p el número de variables y n el número de datos.Análisis de varianza o tabla ANOVA (análisis de varianza) Cuando se calcula un modelo multivariante todos estos tienen un error frente a la variable verdadera. Matemáticamente es el promedio de las observaciones ( ) menos el valor calculado por la regresión ( ̂ ). este error se puede dividir en dos tipos principalmente:   Error por la regresión (SCE): Es el error que se le atribuye a la aproximación que se hace al calcular un modelo de cierta forma.

se diría que lo más probable es que todos los estimadores son nulos o existe un problema en el modelo. se calcula el R2 Corregida.1.Se rechaza Ho si el F calculado que se distribuye en F (p.2. 2006): ∑ ̂ ∑ Pero como R2 sobrestima el valor poblacional. (Wooldridge. si. n-p-1) (Distribución F de Snedecor) es tal que: Al no rechazar la hipótesis. Bondad de ajuste Bondad de ajuste o mejor conocida como R2 es una medida que se utiliza para saber cuánto explica el modelo el valor de la variable dependiente. como comúnmente pasa. La dócima seria: Ho: βj0= 0 Ha: βj0 ≠ 0 y | | | √ | j=0.…p | √ | Cumpliéndose el estadístico. hay una dócima para determinar si cada β es cero o no. Bajo la estimación los βi se distribuyen normales o t de Student. no se conoce la varianza poblacional. La bondad de ajuste viene dada por.5 Diagnóstico de una Regresión 51 . Dócima para cada β Independiente del resultado que de la dócima del ANOVA. se rechaza la hipótesis nula. Donde: n = tamaño de la muestra k = número de variables independientes 3.

una concentración normal (mesocúrtica) o una baja concentración (platicúrtica). 2004). se tienen que evitar la existencia de heteroestacidad.  Curtosis: Esta medida determina el grado de concentración que presentan los valores en la región central de la distribución. A continuación se verá como identificar estos fenómenos: Heterocedasticidad: es una importante violación a los requerimientos de una estimación de parámetros por MCO o MV y uno de los supuestos a considerar en una regresión. Al haber heterocedasticidad se ve alguna tendencia o cambio en el orden de los residuos. ya que hace que la estimación de los parámetros no sea eficiente. La heteroestacidad es cuando los residuales o errores no tienen una varianza constante. las más usadas son: Test de Jarque-Bera: Para verificar la normalidad de los residuos se usa el test de Jarque-Bera. a pesar de que sigan siendo insesgados. al graficar los residuales puros o tipificados versus cada variable explicativa. Esta invalida los resultados.Como ya se vio antes. 2004). 52 . Por medio del coeficiente de curtosis. Como se ve en la figura. Pero para entender este test es bueno saber la definición de curtosis y asimetría. multicolinealidad perfecta y autocorrelación en ellos (Gujarati. La hipótesis nula nos dice que tiene una distribución normal. HOMOCEDASICIDAD Y HETEROCEDASTICIDAD. mientras que si estos se mantienen como una franja alrededor del eje de las abscisas no hay heteroestacidad sino homoestacidad. podemos identificar si existe una gran concentración de valores (leptocúrtica). para usar las técnicas anteriormente nombradas para el cálculo de los modelos. El principal modo de ser detectada es por el método gráfico: FIG. 22: GRÁFICOS DEL ERROR Y LAS VARIABLES EXÓGENAS. También hay varias dócima o test (Gujarati.

5). Cuando la distribución de los datos cuenta con un coeficiente de asimetría (g1 = ±0. Se dice que la asimetría es positiva cuando la mayoría de los datos se encuentran por encima del valor de la media aritmética.5) y un coeficiente de curtosis de (g2 = ±0. Los resultados de esta fórmula se interpretan:    (g2 = 0) la distribución es mesocúrtica: Al igual que en la asimetría es bastante difícil encontrar un coeficiente de curtosis de cero (0). La asimetría presenta tres estados diferentes. por lo que se suelen aceptar los valores cercanos (± 0.FIG.  Asimetría: Esta medida nos permite identificar si los datos se distribuyen de forma uniforme alrededor del punto central (media aritmética).). la curva es simétrica cuando se distribuyen aproximadamente la misma cantidad de valores en ambos lados de la media y se conoce como asimetría negativa cuando la mayor cantidad de datos se aglomeran en los valores menores que la media. 23: TIPOS DE CURVAS SEGÚN CURTOSIS. cada uno de los cuales define de forma concisa como están distribuidos los datos respecto al eje de asimetría. (Xi) cada uno de los valores. (g2 > 0) la distribución es leptocúrtica. 2004). la media de la muestra y (ni) la frecuencia de cada valor. ya que para la mayoría de los procedimientos de la estadística de inferencia se requiere que los datos se distribuyan normalmente (Gujarati.5 aprox. se le denomina curva normal. (g2 < 0) la distribución es platicúrtica. Este criterio es de suma importancia. 53 . Para calcular el coeficiente de curtosis se utiliza la ecuación: Donde (g2) representa el coeficiente de curtosis.

Bera se formula: 54 . es decir. mayor será la distancia que separa la aglomeración de los valores con respecto a la media. El coeficiente de asimetría. Con este antecedente. Jarque . (g1 < 0): La curva es asimétricamente negativa por lo que los valores se tienden a reunir más en la parte derecha de la media. H1: εt no se aproxima a una distribución normal. (Xi) cada uno de los valores. 24: TIPOS DE CURVAS SEGÚN SIMETRÍA. existe aproximadamente la misma cantidad de valores a los dos lados de la media. Desde luego entre mayor sea el número (positivo o negativo). Jarque y Bera desarrollaron un estadístico que evalúa en forma conjunta la hipótesis nula si el coeficiente de asimetría y curtosis toman valores de 0 y 3 respectiva y conjuntamente. Los resultados de esta ecuación se interpretan:    (g1 = 0): Se acepta que la distribución es simétrica. H0: εt se aproxima a una distribución normal.FIG. Donde (g1) representa el coeficiente de asimetría de Fisher. se representa mediante la ecuación matemática. (g1 > 0): La curva es asimétricamente positiva por lo que los valores se tienden a reunir más en la parte izquierda que en la derecha de la media.5). Este valor es difícil de conseguir por lo que se tiende a tomar los valores que son cercanos ya sean positivos o negativos (± 0. la media de la muestra y (ni) la frecuencia de cada valor.

2)  0.1026 Nos quedaría calcular la asimetría y la curtosis.T: Tamaño de muestra K: Es la curtosis S: Es la asimetría k: Número de regresores 2 T  k  2 K  3  JB  S   6  4  Regla de decisión: JB  (2 .902 Tenemos una asimetría negativa y una distribución platicúrtica según la curtosis. según el test de Jarque Bera. esto lo haremos con el programa SPSS: Estadísticos Unstandardized Residual N Válidos 25 Perdidos 1 Asimetría . tomaremos datos del caso que se plantea al final del capítulo. En este caso tenemos: k=3 T = 25 (20.2) Para ilustrar mejor. de curtosis . 55 .513 Error típ.044 Error típ.464 Curtosis -1. de asimetría .95. Veremos si el error no estandarizado tiene una distribución normal.

2004).956061 T  k  2 K  3  25  3  2 S   0 . Esto se puede ver más fácilmente en un modelo de dos variables: Supóngase que esta relacionado positivamente con en la forma: Donde es una constante. 56 . JB  2  1.Ordenar las observaciones de acuerdo con los valores de el más bajo.044  32   15. Es decir. 1. Para probar esto Goldfeld y Quandt sugieren los siguientes pasos. es muy probable que exista heterocedasticidad en el modelo (Gujarati. 25: HISTOGRAMA EJEMPLO TEST JARQUE-BERA Viendo el histograma podemos suponer que no es una distribución normal. Prueba de Goldfeld-Quandt: Este método es aplicable si se supone que la varianza es heteroscedástica.FIG. Empezando por . Si este resulta ser el caso. pero podemos comprobarlo con el test de Jarque-Bera. 513      6  4  6  4  JB no es menor que  ( 0. podemos asegurar que la distribución no se parece a la distribución normal. está relacionada positivamente con una de las variables explicativas en el modelo de regresión (Gujarati. 2004)..95. Esto significaría que sería proporcional al cuadrado de . 2) por lo tanto se refuta la hipótesis nula de que la 2 distribución es normal.

2004): Es decir.. Prueba general de heterocedasticidad de White: A diferencia de la anterior prueba (Goldfeld-Quandt) que requiere ordenar las observaciones respecto a la variable X que ocasiona heterocedasticidad. 2004). con los residuos al cuadrado se hace una regresión sobre las variables X originales pero sobre sus productos cruzados (recordar que el anterior 57 . no hay un número preciso.. White no se apoya en el supuesto de normalidad (Gujarati. Cada uno tiene: grados de libertad. En el caso de una regresión simple serían 2. 2004). 4. cada uno de (n-c)/2 observaciones. se puede rechazar la hipótesis de homocedasticidad.. llamada generalmente en la literatura auxiliar (Gujarati.2. Donde k es el número de parámetros que deben estimarse. En un modelo de regresión de tres: Para realidad la prueba de White se procede a los siguientes pasos: 1. Sobre el valor de c. En una aplicación si el calculado es superior al F critico al nivel de significancia seleccionado. es muy probable que halla heterocedasticidad. es decir.Calcular la razón: Si las esta normalmente distribuida se supone que sigue la distribución F con un número de grados de libertad en el numerador y denominador iguales a (n-c-2k)/2.Háganse regresiones por mínimo cuadrado ordinario por cada una de los grupos. donde c se ha especificado a priori y divídanse las observaciones restantes (n-c) en dos grupos.. si la muestra es alrededor de 30 que sea 8 y alrededor de 60 sea 16 (Gujarati.Omítanse las c observaciones centrales.Estime la regresión por mínimo cuadrado ordinario y obtenga los residuos. pero se sugiere en una regresión lineal simple. Obtenga las respectivas sumas de residuales al cuadrado SRC 1 y SRC2 siendo la primera de los más bajos y la segunda de los más altos. 2. incluyendo la intersección.Efectúe la siguiente regresión.. 3.

Multicolinealidad: Dos variables tienen colinealidad si una combinación lineal de todas ellas vale cero. si ocurre. Es decir. (Wooldridge. Si hay correlaciones altas indican colinealidad. 2004). Obténgase el R2 de este regresión (auxiliar) (Gujarati. Al formar un modelo se debe evitar la colinealidad perfecta. Para poder detectar la multicolonealidad hay muchas formas.. la variable Xi se puede escribir como una combinación lineal de las anteriores.Si el valor ji cuadrada obtenido anteriormente excede al valor de la ji cuadrado al nivel de significancia seleccionado.Bajo la hipótesis nula de que no hay heterocedasticidad. es símbolo de colinealidad entre ellas. demostrar que el tamaño de la muestra (n) multiplicado por el R 2 obtenido en la regresión auxiliar sigue la distribución ji-cuadrada con grados de libertad igual al número de regresores (excluyendo el término constante) de la regresión auxiliar: 4. Usar el indicador Cp de Mallows: Sean p variables predictoras más el intercepto (p + 1 en total). si hay ciertas correlaciones que son altas y otras bajas. entre ellas:     Calcular correlaciones (R 2) simples entre variables. Cp es igual a: 58 . 2006). También hay otras dócima sobre las que no se profundizará. Requisito suficiente pero no necesario.. en circunstancias que no todos los coeficientes de las variables son nulos. Encontrar R2 alto con pocas β significativas. 2004). entre ellas:      Dócima de igualdad de varianzas de Bartlett. Etc. hay que eliminar la variable que la produce. Si algún . la conclusión es heterocedasticidad sino homocedasticidad (Gujarati. Dócima de correlación. La multicolonealidad aumenta la varianza de los estimadores MCO. Dócima de Park. Calcular correlaciones parciales.ejemplo era con dos variables). lo cual trae como consecuencia: Las dócima de t-student para los β son insensibles y las observaciones se tornan influyentes. indica colinealidad perfecta o matemática. Dócima de Glejser. 3.

(̂) ̅ ∑ Es la varianza de un estimador cualquiera y el coeficiente de determinación de la regresión entre Xj y el resto de las variables explicativas del modelo 59 . aquellos subconjuntos de j variables explicativas que tengan un Cp p = j + 1. Por tanto. Además puede probarse que en los modelos sin sesgo Cp = p. Se calcula de la siguiente manera: ̂ ̂ donde (̂ ) ̅ ∑ es la varianza óptima en el caso de ausencia de correlación entre los estimadores. son “buenos”. CME los cuadrados medios del error. Para interpretar este estadístico.Siendo SCE la suma de cuadrados del error. Y se considerarán buenos los subconjuntos que tienen Cp pequeño y además están por debajo de la diagonal Cp = p. Normalmente se construirá una gráfica de Cp para los diferentes subconjuntos que se quieren analizar frente a p.  El último método consiste en calcular el factor de incremento de la varianza (FIV) de cada una de las variables explicativas. Este criterio es equivalente a minimizar el estadístico Cp de Mallows. se define el error cuadrático medio de predicción para los puntos observados cuando se utiliza un modelo con p parámetros como ∑ (̂ ) ̂ Siendo un buen criterio de selección del modelo el de elegir el modelo que tenga el ECMPp mínimo.

o a cualquier otro valor de corte).8 en cuyo caso se puede considerar que las consecuencias sobre el MRLM ya pueden ser relevantes. se considera una racha la secuencia de k valores consecutivos superiores o iguales a la media muestral (o a la mediana o a la moda. es decir. Si esto ocurre al nivel de los residuales se violan los requisitos para estimar un modelo por MCO o por MV.6 Autocorrelación La autocorrelación es la dependencia de un valor de su anterior valor dado si estos son ordenados. donde dice “???”. Así. 2004). 26: TEST DE DURBIN Y WATSON En la figura. Prueba de rachas: El contraste de rachas permite verificar la hipótesis nula de que la muestra es aleatoria. Para detectar la autocorrelación de primer orden AR (1) existe la dócima de Durbin y Watson (Gujarati. Valores del FIVj > 5 están asociados a > 0. (Wooldridge. 60 . es que las zonas no son concluyentes sobre la autocorrelación. La autocorrelación invalida las dócima global de los estimadores (F) y la particular de cada estimador (t).inicial. 3. En la cual es estadígrafo sería: ∑ ∑ Teniendo esto se entra a las tablas de DW y dependiendo la muestra se pueden sacar los valores Di y Ds. Este contraste se basa en el número de rachas que presenta una muestra. o a cualquier otro valor de corte) siempre que estén precedidos y seguidos por valores inferiores a la media muestral (o a la mediana o a la moda. si las sucesivas observaciones son independientes. Una racha se define como una secuencia de valores muéstrales con una característica común precedida y seguida por valores que no presentan esa característica. los cuales sirven para formas las regiones criticas de la forma que se ve en la figura: FIG. 2006).

Residuos tipificados: tienen media cero y varianza próxima a 1. se puede intuir autocorrelación. si es que el modelo no se puede llevar se pueden ver maneras de arreglarlo o ver por qué ocurre.7 Análisis de Residuos Tras los anteriores análisis. Residuos estandarizados: de un sujeto se calcula igual que el anterior sólo que de la varianza residual se elimina el residuo del sujeto correspondiente. Si la muestra es suficientemente grande y la hipótesis de aleatoriedad es cierta. Se suelen considerar atípicos los sujetos con residuos tipificados absolutos superiores a 3. 61 . Las variables atípicas son las que el residuo tipificado es mayor a 3 (en valor absoluto) y las variables influyentes son las que al ser sacadas cambian completamente el modelo (Gujarati. puede aproximarse mediante una distribución normal de parámetros: √ donde n1 es el número de elementos de una clase. Si este test da que no es aleatoria la muestra. los elementos de la primera racha proceden de una población con una determinada característica (valores mayores o menores al punto de corte) mientras que los de la segunda proceden de otra población. Entre ellos está la búsqueda de variables atípicas e influyentes. 2004). Un sujeto con un residuo tipificado grande se puede considerar atípico.El número total de rachas en una muestra proporciona un indicio de si hay o no aleatoriedad en la muestra. De forma idéntica un número excesivo de rachas puede ser también indicio de no aleatoriedad de la muestra. Los residuos estandarizados siguen una distribución t-student con N-p-2 grados de libertad. Para ver esto se hace un análisis de residuos. 3. Un número reducido de rachas (el caso extremo es 2) es indicio de que las observaciones no se han extraído de forma aleatoria. Son observaciones atípicas las correspondientes a residuos estandarizados significativos. de los cuales existen:    Residuos no tipificados: son los residuos ordinarios del modelo de regresión. n2 es el número de elementos de la otra clase y n es el número total de observaciones. la distribución muestral del número de rachas. R.

Valores de la distancia (D) mayores que 1 o mayores que F para un α = . el IPC y el desempleo. 3. 2001) se mide sumando todas las demandas finales de bienes y servicios en un período dado. la inversión en nuevo capital (I). Para el modelamiento y análisis de los datos se utilizará el software SPSS versión 17. Definición de las variables y análisis inicial: Primero. mide la distancia de cada caso respecto a las medias de las variables independientes. se obtiene información suficiente para evaluar casos atípicos y/o influyentes.50 y con p+ l y N. Observaciones influyentes son aquellas que tienen un peso muy grande en los coeficientes del modelo. Se sabe si una observación es influyente comparando las estimaciones obtenidas cuando se le incluye en la muestra con las obtenidas cuando se le excluye. Existen cuatro grandes áreas de gasto: el consumo de las familias (C). Distancia de Cook es una medida de influencia a posteriori. Varios son los estadísticos que miden la influencia de cada sujeto sobre los estadísticos. En regresión simple es el cuadrado de la puntuación típica de cada caso.p. hay que especificar adecuadamente las variables: Variable dependiente: PIB (Unidad: US$) Fuente: Banco Mundial El producto interno bruto “PIB” (Samuelson. No debe superar al valor de chi-cuadrado para p grados de libertad y un nivel de significación de 0.Los residuos anteriores nos permiten identificar observaciones alejadas lo cual no significa que sean observaciones influyentes. con otras variables de la economía. el consumo del gobierno (G) y los resultados netos del comercio exterior (exportaciones (X) – importaciones (M)): 62 . La influencia se mide por la diferencia en los coeficientes de la ecuación calculados con la muestra completa y con la muestra menos la observación en cuestión. Se cree que con estas nuevas variables. en este caso se considera el precio del cobre.8 Caso modelo de regresión lineal del PIB El propósito de este caso es obtener un modelo de regresión lineal múltiple que represente la relación que pueda existir entre la variable dependiente producto interno bruto PIB.1 grados de libertad se pueden considerar influyentes. Se han seleccionado las siguientes distancias:   Distancia de Mahalanobis: es una medida de influencia a priori. Que una observación sea atípica no conlleva necesariamente que sea influyente.001. Se puede observar cómo trabajar con este software en el anexo 1.

3. Instituto Nacional de Estadísticas de Chile. Graficaremos la variable dependiente con las variables independientes. Desocupados. Desde esa fecha asesora al gobierno en materias relacionadas con la producción de cobre y sus subproductos. creado en 1976. 2. La Comisión Chilena del Cobre (Cochilco) es un organismo técnico y altamente especializado. IPC (Unidad: Promedio anual diciembre 1998 = 100) Fuente: Banco Central de Chile. 63 . Fuente: INE.Variables independientes consideradas para el modelo: 1. Precio del cobre (centavos de dólar la libra) Fuente: Cochilco.

898 a.297E8 9.103E7 Cobre 3.283 .680 . Modelo saturado: Primero se hará el modelo con todas las variables. Cobre.725 1.165E10 IPC 9.143E7 .500 2.056 1.396 2. menos en el de desocupados.948 . Variables predictoras: (Constante). Tolerancia FIV -6.000 .972 estimación . de la Modelo R R cuadrado a 1 .983E7 .380 3.214 . Variable dependiente: PIB Coeficientes Modelo 1 (Constante) a Coeficientes no Coeficientes Estadísticos de estandarizados tipificados colinealidad B Error típ.968 Durbin-Watson 1. Resumen del modelob Error típ.462E7 t Sig.102 .000 . presente algún problema o que no sea significativa en el modelo. Variable dependiente: PIB 64 .782E8 Desocupados 3.000 a.Se puede observar en todos los casos.000 .531 12. Eso puede significar que esta variable.986 R cuadrado corregida .12749E10 . Beta -8. IPC b.523 2. Desocupados.097E10 1. una tendencia.578 10.

00 .078 .2.04 . la dócima de Durbin-Watson da autocorrelación positiva.74 . Entre Correlación 0 .922 Incierta 2.078 Positiva 1. Dado el análisis gráfico anterior.34 Nula 2.03 3 .01 . algo que se afirma en el índice de condición de la colinealidad.000 .826 . 65 .82 . El segundo problema que se observa es la autocorrelación.1.078 6. como lo es el test de rachas.1.Diagnósticos de colinealidad a Proporciones de la varianza Índice de Modelo Dimensión Autovalores condición (Constante) IPC Cobre Desocupados 1 1 3. también se puede decir que no existe multicolinealidad.2.00 .97 a.66 .15 . lo más aconsejable sería sacar la variable.00 2 .789 1. como se dice en el anexo 1. y si además se observa la tabla ANOVA.610 .05 los estimadores calculados para esta variable no son significativos.013 16. El siguiente paso será sacar la variable “desocupados” y hacer de nuevo un modelo con las variable que quedan.922 .00 . Variable dependiente: PIB De la regresión anterior se puede apreciar que el coeficiente de determinación R2 de 0. Observando los valores del FIV.66 Incierta 1. para ver si es que se elimina el problema de la autocorrelación también.4 Negativa Si es que quedara en una zona incierta. ya que ninguno es mayor a 30. se puede deducir que las variables predictoras explican de gran manera la variable PIB.00 4 . El primer problema es la dócima t de la variable “desocupados”.986 .120 5. habría que aplicar otro test.50 . lo cual es muy alto.14 . Tomando una significancia que no pueda ser mayor que 0.34 .50 . ya que es muy probable que no afecte al modelo. Dado el criterio entregado en el anexo 1.10 .972.

765 1.520 12.253 .951E21 23 1. Variables predictoras: (Constante). Variables predictoras: (Constante). Cobre.184 . Variable dependiente: PIB a Coeficientes Modelo 1 (Constante) Coeficientes no Coeficientes Estadísticos de estandarizados tipificados colinealidad B Error típ.000 .307 .885 a.985 b . -7.000 .229E9 IPC 9.283E20 Total 1. IPC b.000 a.398 .622 15.706E8 2.001E23 25 F Sig.307 .000 .968 Durbin-Watson 1.13272E10 . Cobre.916E7 Beta a.Resumen del modelo Modelo R R cuadrado Error típica de la corregida estimación R cuadrado a 1 .971 . Tolerancia FIV -11.993E8 6.765 1. a 378. IPC b.582E7 Cobre 3.710 .855E22 Residual 2.010E10 6.710E22 2 4. Variable dependiente: PIB b ANOVA Suma de Modelo 1 cuadrados Gl Media cuadrática Regresión 9. Variable dependiente: PIB 66 T Sig.

Pero lo que se busca es ver si los errores tienen alguna relación con alguna variable en particular. se eliminará. para obtener nuevos coeficientes insesgados.447 . y además eficientes.095 5.47 . Esto ya que si el modelo presenta heterocedasticidad.10 a.01 . Variable dependiente: PIB No se eliminó el problema de la autocorrelación.04 . se analizaran los supuestos de homocedasticidad y normalidad en los errores.51 . necesitamos saber cual variables es la causante del problema. se grafican los residuos al cuadrado con respecto a cada variable del modelo. pero se realizara antes para así terminar de verificar el cumplimiento de los supuestos econométricos. los coeficientes siguen siendo insesgados. si existe heterocedasticidad.827 1.000 .94 . pero ahora todas las variables son significativas. Por lo que.01 .88 3 .078 6. ya que igual posteriormente se aplicará el método de MCP y. obteniendo los siguiente gráficos.Diagnósticos de colinealidad a Proporciones de la varianza Dimensió Modelo n Autovalores Índice de condición (Constante) IPC Cobre 1 1 2. Y el análisis de la normalidad de los residuos no afecta en el método de MCP.02 2 . Al existir autocorrelación en el modelo. Análisis de heterocedasticidad: Este se llevará acabo de modo gráfico.035 . se tendrá que utilizar el métodos de mínimos cuadrados ponderados (MCP). 67 . pero dejan de ser eficientes. Antes de hacer la regresión por MCP. y así aplicar el método MCP para poder solucionar ese problema junto con el de autocorrelación. lo cual serviría para realizar de manera correcta la regresión por MCP. Para poder saber si los residuos presentan relación con alguna variable.

De los gráficos se aprecia que los residuos no presentan ninguna clara relación
con alguna de las variables, por lo que a simple vista se puede decir que el
modelo no presenta heterocedasticidad.
Es importante mencionar que si posteriormente no se fuese aplicar MCP, sería
necesario aplicar un test más formal para ver si efectivamente el modelo
presenta o no heterocedasticidad. Ya que si existiera, y se dejara la regresión
actual, los estimadores serian insesgados, pero ineficientes. Y esto impediría
que el modelo sea un buen predictor del PIB, sirviendo nada más para saber el
comportamiento y, a groso modo, de esta variable con respecto a las variables
independientes.
Análisis de normalidad de los residuos
Este análisis busca corroborar que los residuos se comporta de manera normal,
para lo cual se grafican sus valores esperados con respecto a los estimados.
Buscando que si lo errores se comportan de manera normal, el gráfico se
asemeje a lo que es una línea recta.
68

A pesar de la tendencia a una línea recta, se puede ver algunas curvas. Se puede
decir que hay cierto grado de heterocedasticidad. Igual comprobaremos con el
test de Jarque-Bera y la dócima de Shapiro Wilk para confirmar (Gujarati,
2004), (Wooldridge, 2006).
Jarque - Bera se formula:
T: Tamaño de muestra
K: Es la curtosis
S: Es la asimetría
k: Número de regresores

JB 

T k
6

 2 K  32 
S 

4 

Regla de decisión:

JB  (2 ;2)

69

Para ilustrar mejor, tomaremos datos del caso que se plantea al final del
capítulo. Veremos si el error no estandarizado tiene una distribución normal
según el test de Jarque Bera. En este caso tenemos:
k=3
T = 25

(20,95;2)  0,1026
Nos quedaría calcular la asimetría y la curtosis, esto lo haremos con el
programa SPSS:

Estadísticos
Unstandardized Residual
N

Válidos

25

Perdidos

1

Asimetría

,513

Error típ. de asimetría

,464

Curtosis

-1,044

Error típ. de curtosis

,902

Tenemos una asimetría negativa y una distribución es platicúrtica según la
curtosis.

JB 

2
 1,044  32   15,956061
T  k  2 K  3  25  3 
2
S


0
,
513





6 
4 
6 
4

JB no es menor que  ( 0,95; 2) por lo tanto se refuta la hipótesis nula de que la
2

distribución es normal. Es decir, podemos asegurar que la distribución no se
parece a la distribución normal.
Regresión por mínimos cuadrados ponderados: Habiendo analizado todos los
supuestos, se procede a realizar una regresión por medio de MCP, con el
fin de poder encontrar estimadores insesgados y eficientes para cada una
de las variables. Y además poder utilizar este modelo con el fin de la predicción
del PIB.

70

650E10 7. se les dé menos peso para la regresión. En este caso el peso se asigno según los residuos al cuadrado.000 . Regresión de mínimos cuadrados ponderados .751E22 Residual 6.000 a.Ponderada por Residuos Coeficientes a.c ANOVA Modelo 1 Suma de cuadrados Gl Media cuadrática F Regresión 1.678E7 Estadísticos de colinealidad t Sig.387 .963 estimación .Ponderada por Residuos b. 295.419 2.387 a.527 8.981 R cuadrado corregida .419 2.887E8 4.174 a . Tolerancia -7. dándole más peso los datos que se creen más relevantes. Regresión de mínimos cuadrados ponderados .550E23 2 7.634 .000 .c Error típ. de forma que los que tuviesen más error. Variables predictoras: (Constante).309 . Regresión de mínimos cuadrados ponderados .708E8 1. Variable dependiente: PIB c. Variable dependiente: PIB b. Cobre.039E21 23 2. 71 FIV .107 a. Cobre. es darle un peso a cada dato.Ponderada por Residuos Es importante mencionar que lo que hace la regresión por MCP.626E20 Total 1.031E8 Cobre 3. de la Modelo R R cuadrado a 1 . IPC b.611E23 25 Sig. Variable dependiente: PIB c. tipificados Beta -5.000 . Variables predictoras: (Constante).62045E10 1.518 8.Resumen del modelo b. IPC b.445 .401E9 IPC 8.959 Durbin-Watson 1.b Coeficientes Coeficientes no estandarizados Modelo 1 (Constante) B Error típ.

Y analizando la información que nos dan de la regresión, vemos que el modelo
se comporta muy bien, explicando con un 98,1% de seguridad el
comportamiento del PIB según las variables independientes. Además, se puede
observar que todos los coeficientes encontrados son significativos en el
modelo.

72

CAPÍTULO 4: Serie de Tiempo
Una serie temporal es una secuencia ordenada de observaciones cada una de las
cuales está asociada a un momento de tiempo. Ejemplos de series temporales
las podemos encontrar en cualquier campo de la ciencia. En economía, cuando
buscamos datos para estudiar el comportamiento de una variable económica,
estos datos se presentan frecuentemente en forma de series temporales. Así,
podemos pensar en series como los precios diarios de las acciones, las
exportaciones mensuales, el consumo mensual, tasa de desempleo, tasa de
inflación, precio del dólar, precio del cobre, los beneficios trimestrales, etc. En
meteorología: cantidad de agua caída, temperatura máxima diaria, velocidad
del viento (energía eólica), energía solar, etc. En geofísica: series sismológicas.
En química: viscosidad de un proceso, temperatura de un proceso. En
transporte: series de tráfico. Etc.
Se define serie temporal o serie de tiempo como un conjunto de observaciones,
datos o valores {Yt; t = 1, 2, ... n } realizadas a lo largo del tiempo (Gujarati,
2004). Típicamente, en cada instante t se tiene una única respuesta Yt y se
habla de un modelo longitudinal.
4.1 Componentes de las Series de Tiempo
El análisis tradicional de las serie de tiempo descansa en la idea general que
una serie de tiempo se puede descomponer en términos de elementos parciales
que, agregados de alguna manera, reproducen el valor correspondiente de la
serie de tiempo. Estos componentes son los siguientes:
Tendencia: Es el comportamiento de la variable a largo plazo, refleja el sentido
de la serie de tiempo y corresponde a un modelo de regresión Y = f(t).
Habitualmente, f(t) se define con un método de suavizamiento exponencial,
modelo simple o cuadrático, se puede utilizar otros tipos de regresiones, como
logística, exponencial, entre otros.
Exportación Tendencia
2
2,1
2,5
2,4
2,6
2,6
3,1
2,9
3,2
3,2
3,3
3,5
3,6
3,8
4,3
4,1
4,4
4,4
4,8
4,7
5,1
5,0
5,2
5,3

Exportación de la empresa S&D
6
Millones de dólares

Año
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
2011

5

Recta Tendencia

4
3
2

Datos observados

1
0

2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011
Años

FIG. 27: TENDENCIA EN UNA SERIE DE TIEMPO.

Estacionalidad: Son movimientos regulares de la serie que se repiten
periódicamente en el corto plazo y dentro de un año. Ocurre con variables
73

como las ventas de trajes de baño, tarjetas de saludo, frutas frescas y similares.
La palabra "estacional" se refiere directamente a las estaciones climatológicas
del año, pero la idea es referirse a movimientos oscilatorios dentro del año,
coincidan o no con las estaciones climáticas.
Ventas
2,5
2,1
3,9
2,5
3,2
4,1
3,2
4,6
4,3
3,7
5,1
5,4

Ventas de la empresa S&D
6

Millones de dólares

Mes
Enero
Febrero
Marzo
Abril
Mayo
Junio
Julio
Agosto
Septiembre
Octubre
Noviembre
Diciembre

5

Variación Estacional

4

3
2
1
0

Meses

FIG. 28: ESTACIONALIDAD EN UNA SERIE DE TIEMPO

Variaciones cíclicas: Parecidas a la estacionalidad, son movimientos de la serie
que se observan a largo plazo (varios años) y suelen corresponder a los ciclos
económicos.

FIG. 29: VARIACIONES CÍCLICAS EN UNA SERIE DE TIEMPO

Componente no sistemático: Los movimientos irregulares (al azar) representan
todos los tipos de movimientos de una serie de tiempo que no sea tendencia,
variaciones estacionales y fluctuaciones cíclicas.
Son aquellas variaciones producidas por sucesos de ocurrencia imprevisible o
accidental que producen movimientos sin un patrón discernible; así por
ejemplo, las exportaciones de una empresa pueden ser afectadas por sucesos
inusuales no previsibles tales como huelgas, guerras, terremotos, inundaciones,
etc. Estas variaciones irregulares son de corta duración y de magnitud muy
variable.

74

cíclicos e irregulares. mientras que los otros componentes se expresan como razones. si Yt es una serie de tiempo. algo que difícilmente se da en el caso de la vida real.Y Tiempo FIG. para los temas siguientes. ciclos e irregulares corresponden a desviaciones en torno a la tendencia. It) cualquiera. el modelo de series de tiempo debe incluir los cuatro componentes anteriores. los modelos pueden ser aditivos o multiplicativos. respectivamente. números puros o porcentajes. Modelo multiplicativo: Se expresa por Yt = Tt * St * Ct * I t. 31: COMPONENTES DE UNA SERIE DE TIEMPO. S. En este caso sólo la tendencia está expresada en las unidades de Y. su modelo es una función f(Tt. En general. El modelo aditivo sufre el supuesto irreal de que los movimientos o componentes son independientes uno de otro. 30: COMPONENTE NO SISTEMICO EN UNA SERIE DE TIEMPO Sin considerar las variables independientes x del modelo transversal. Esta función se decide en base de los datos disponibles y del conocimiento técnico y profesional del investigador. FIG. Ct. Los componentes estacionales. Modelo aditivo: Se define en la forma Yt = Tt + St + Ct + I t. donde T. 75 . C e I representan los componentes de tendencia. St. MODELO ADITIVO. estacionales. En general.

a través de datos de panel se pueden modelar los efectos estacionales usando variables ficticias. Sin embargo. mezcla de los dos anteriores. ( ) 76 . un modelo mixto puede tener la expresión Yt = Tt * (1 + St ) * (1 + Ct ) + It . (Wooldridge. 4.El modelo multiplicativo supone que los movimientos o componentes interactúan entre sí y no se mueven independientemente. Los elementales que se encuentran en la econometría son (Gujarati. oscila en torno a una media constante. Por ejemplo. Por ejemplo. al mismo tiempo que se aísla el factor de tendencia. Modelos mixtos: La conceptualización de los modelos en puramente aditivo o puramente multiplicativo tiene relación con el análisis tradicional de las series de tiempo. con una volatilidad constante y cuyo pasado no contiene información útil para predecir valores futuros. el criterio fundamental que se debe seguir en el caso de una situación dada es emplear el modelo que mejor se ajuste a los datos. La tendencia actual usa otras técnicas para el estudio y análisis de las series de tiempo.2 Procesos Estocásticos Elementales Un proceso estocástico es un conjunto de variables aleatorias asociadas a distintos instantes de tiempo. 2004). donde se supone que el componente aleatorio es una perturbación directa sobre la respuesta Y y no representa una variación proporcional. Consideraciones de este tipo llevan a la formulación de modelos mixtos. por lo que este modelo es más utilizado que el aditivo. 2006): Ruido blanco: Un proceso de ruido blanco representa una variable que es constante. descomponiéndolas en cada uno de sus factores.

32: GRÁFICO RUIDO BLANCO Proceso estocástico estacionario: Una serie de tiempo Yt es un proceso estocástico estacionario (Gujarati. Matemáticamente sería: Los procesos autorregresivos pueden generalizarse al orden p. la covarianza al rezago k. es decir. Media móvil: Definimos una media móvil de primer orden MA(1) como un proceso aleatorio que responde a una expresión del tipo: 77 . entre dos valores Y que están separados k periodos. 2004) si tiene una media y una varianza constante σ2 en el tiempo y si el valor de la covarianza entre dos periodos depende solamente de la distancia o rezago entre estos dos periodos de tiempo y no del tiempo en el cual se ha calculado la covarianza. La serie de tiempo Yt es una serie estocástica estacionaria si cumple las siguientes propiedades: Media E(Yt) = µ Varianza var(Yt) = E(Yt .µ) (Yt+k .µ)2 = σ2 Covarianza ‫ﻻ‬k = E[(Yt . Caminata aleatoria: Es un proceso tal que la diferencia entre dos valores consecutivos de la variable se comporta como un ruido blanco. Si existe una tendencia sistemática en el cambio se denomina camino aleatorio con deriva.FIG. es la covarianza entre los valores de Yt y Yt+k.µ)] Donde ‫ﻻ‬k. Proceso autorregresivo: Definimos un proceso autorregresivo de primer orden AR(1) como un proceso aleatorio que donde Y tiene relación con sí misma en el periodo anterior de la serie. AR(p) sin más que añadir términos retardados en la expresión general.

Promedios móviles: Es el método de predicción más simple. de manera que podamos visualizar la tendencia. La idea central es definir a partir de la serie observada una nueva serie que filtra o suaviza los efectos ajenos a la tendencia (estacionalidad. al igual que los autorregresivos pueden generalizarse al orden q.3 Técnicas de Suavizamiento Se entiende por suavizar una serie de tiempo la aplicación de métodos que aminoren o cancelen el efecto de fluctuaciones aleatorias y muestren las tendencias y componentes cíclicos. es mediante suavizamiento de la serie. 2006). la cantidad de nuevos datos se reduce.con en diferencias a la media Los procesos de medias móviles son estacionarios y. I(1) ó I(2). ya que puede convertirse en estacionario tomando primeras diferencias. Este método presenta el inconveniente de que se pierden datos iniciales y finales de la serie original. con estacionario. Así. cíclicas e irregulares. En algunas ocasiones las diferencias deben aplicarse sobre el valor estacional. y se obtiene la media o promedio de la variable para los n periodos. quedando sólo el movimiento de tendencia. Una forma de visualizar la tendencia. un camino aleatorio sería un proceso integrado de orden 1 I(1). donde se selecciona un número dado de periodos n. efectos aleatorios). También se puede observar que a medida que n crece. Definimos el orden de integración de un proceso como el número de diferencias que debemos aplicarle para convertirlo en estacionario (Wooldridge. Procesos integrados: Un proceso integrado es aquel que puede convertirse en estacionario aplicando diferencias. por ejemplo. En el contexto de las series económicas los órdenes de integración más frecuentes son 1 ó 2. 78 . permitiendo que el promedio se mueva conforme se observan los nuevos datos de la variable en cuestión. MA(q) sin más que añadir términos retardados en la expresión general. 4. Hay dos tipos de técnicas de suavizamiento: promedios móviles y suavización exponencial. Utilizando adecuadamente estos movimientos medios se eliminan los movimientos o variaciones estacionales. 2004). (Gujarati.

. como 3. consideremos una serie de seis observaciones y fijemos el orden k =3. 33: COMPARACIÓN SERIE ORIGINAL Y SERIE SUAVIZADA. SUAVIZAMIENTO EXPONENCIAL.α)* Yt-1 + α (Ft-1). 7. 1 1 79 . Entonces en términos de la serie suavizada son: t 1 2 X(t) X(1) X(2) 3 X(3) 4 X(4) 5 X(5) 6 X(6) Z(t) media móvil de orden 3 -- -- Suavización exponencial: es una técnica de pronóstico de series de tiempo que pondera los datos históricos exponencialmente para que los datos más recientes tengan más peso en el promedio móvil. Por ejemplo.El método consiste en fijar un número k. el pronóstico Ft se construye con la predicción del último periodo Ft-1 por una porción α y (1. preferentemente impar. 5. y calcular los promedios de todos los grupos de k términos consecutivos de la serie.α) por el valor de la demanda real del periodo anterior Yt-1. etc. t≥ 2. FIG. Con la suavización exponencial simple. Ft = (1. F = Y (cálculo del primer pronóstico).

se ponderan moderadamente la serie original y la suavizada. Con un α cercano a 0.01 y 0. Un valor de α que proporcione aproximadamente un grado equivalente de suavización tanto como un promedio móvil de un periodo es: α = 2 / (n + 1) Para saber cuan preciso es el método empleado en la realización del pronóstico se utiliza la siguiente fórmula del cuadrado medio del error (CME o MSD) como indicador de precisión del pronóstico: ∑ Y(t): Valor pronosticado en t X(t): Valor observado en t 80 . luego ambas se parecen. y en consecuencia. y la serie suavizada pondera más fuertemente el valor suavizado inmediatamente anterior. Los valores altos son más sensibles a cambios en la demanda (introducciones de nuevos productos y error buscando cuál valor reduce el error del pronóstico. tratando con diferentes valores de α. pero cuya influencia declina exponencialmente al volverse antiguos los datos. Los valores bajos de α disminuyen efectivamente la variación aleatoria (ruido – dispersión). pero con una gran cantidad de variación aleatoria. Los valores bajos de α. Esto puede hacerse fácilmente modelando el pronóstico en un programa de cómputo. La selección de α depende de las características de la demanda.La constante de suavización α es un número entre 0 y 1 que entra multiplicando en cada pronóstico. por la que ningún valor de α compensará completamente la tendencia en los datos. No se puede extrapolar para efectos de tendencia. Y si α es cercano a 1. Los valores ordinarios de α varían entre 0. la serie suavizada pondera más fuertemente el valor original. Si α se acerca a 1/2.40. por lo que el suavizado es importante. por lo que el suavizamiento es moderado. Los valores altos de α son más sensibles a las fluctuaciones en la demanda.α) es cercano a cero. (1. son más apropiados para demandas relativamente estables (sin tendencia o ciclicidad). La suavización exponencial simple es un promedio suavizado centrado en el periodo presente. el suavizamiento es poco.

Sus parámetros de suavizado son el nivel y la tendencia. El suavizado exponencial amortiguado es similar a un modelo ARIMA con un orden de autorregresión. El suavizado exponencial simple es el más similar a un modelo ARIMA con cero órdenes de autorregresión. Sus parámetros de suavizados son el nivel y la tendencia. donde p es el 81 . Sus parámetros de suavizado son el nivel y la estación. el modelo de Brown es un caso especial del modelo de Holt.∑| ̂ ∑| ∑ | ̂ | ̂ En las expresiones anteriores representa la observación. Su único parámetro de suavizado es el nivel. un orden de diferenciación y dos órdenes de media móvil. cuanto menor sea su valor. p y p+1. Tendencia lineal de Bown: este modelo es adecuado para las series con una tendencia lineal y sin estacionalidad. que se asumen iguales. El modelo de suavizado exponencial de Holt es muy similar a un modelo ARIMA con cero órdenes de autorregresión. es similar a un modelo ARIMA con cero órdenes de autorregresión. y es similar a un modelo ARIMA con cero órdenes de autorregresión. un orden de media móvil y sin constante. y sus valores no se restringen mutuamente. un orden de diferenciación estacional y órdenes de media móvil. un orden de diferenciación. Sus parámetros son el nivel. Simple estacional: este modelo es adecuado para series con tendencia y un efecto estacional que es constante a lo largo del tiempo. Para estas tres medidas. dos órdenes de diferenciación y dos órdenes de media móvil. ̂ representa el valor pronosticado y n representa el número de predicciones a realizar. Tendencia amortiguada: este modelo es adecuado para las series con una tendencia lineal que va desapareciendo y sin estacionalidad. Por ello. El modelo de Holt es más general que el modelo de Brown pero puede llevar más tiempo de computación con series largas. mejor será el ajuste del modelo. la tendencia y la amortiguación de la tendencia. Tendencia lineal de Holt: este modelo es adecuado para las series con una tendencia lineal y sin estacionalidad. con el coeficiente para el segundo orden de media móvil igual al cuadrado de la mitad del coeficiente de primer orden. un orden de diferenciación. Tipos de suavizamiento exponencial: Simple: este modelo es adecuado para las series en las que no existe tendencia o estacionalidad. dos órdenes de diferenciación y dos órdenes de media móvil.

la tendencia y la estación. un orden de diferenciación estacional y p+1 órdenes de media móvil. donde p es el número de períodos contenidos en un intervalo estacional (para los datos mensuales. El procedimiento de descomposición estacional. es similar a un modelo ARIMA con cero órdenes de autorregresión. p = 12). Son los valores obtenidos después de eliminar la variación estacional de una serie. De Winters aditivo: es un modelo para series con tendencia lineal y un efecto estacional que no depende del nivel de la serie. Estos valores indican el efecto de cada periodo en el nivel de la serie. como lo son los modelos de Winters. un orden de diferenciación. generan cuatro nuevas variables (series) con los siguientes prefijos de tres letras para cada serie especificada (Gujarati. 82 . De Winters multiplicativo: es un modelo para series con tendencia lineal y un efecto estacional que depende del nivel de la serie. ERR: Valores de residuo o “error”. STC: Componentes de tendencia-ciclo suavizado. la tendencia y la estación. El propósito de este caso es presentar el método de suavizamiento exponencial para una situación hipotética de la variación del precio de un producto cualquiera que se transa en el mercado. SAS: Serie corregida estacionalmente.número de períodos contenidos en un intervalo estacional (para los datos mensuales. Sus parámetros de suavizado son el nivel. No es similar a ningún modelo ARIMA. Son los valores que permanecen después de eliminar los componentes estacionales. Estos valores muestran la tendencia y comportamiento cíclico de la serie. de tendencia y ciclo de la serie. 4. Sus parámetros de suavizado son el nivel. 2004): SAF: Factores de corrección estacional. p = 12).4 Caso: Variación de Precios de un Producto.

6 647.2 716.0 167.5 723.2 537.3 567.7 519.0 119.6 743.5 118.1 581.9 574.2 626.2 698.3 232.0 613.3 702.0 700.3 709. EJEMPLO SUAVIZAMIENTO EXPONENCIAL.2 636.1 330.1 626.8 115.1 701.0 435.1 219.8 202.8 684.6 258.0 118.2 294.8 563.8 313.5 164.7 743.0 403.1 487.5 337.Año 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 CME Precio 118 120 115 122 210 240 218 220 150 130 308 370 360 345 290 300 255 525 540 480 440 610 615 650 625 630 510 670 720 750 790 740 670 685 700 705 725 740 a=0.6 713.6 117.0 155.5 132.4 197.1 237.1 747.2 618.7 300.2 618.9 707.3 786.3 698.3 300.8 433.4 132.6 8259.0 117.8 704.5 443.9 358.6 647.5 156.0 118.1 364.7 629.8 744.5 504.4 257.0 294.4 299.3 346.1 182.4 299.7 519.04 a=0.0 119.6 525.2 174.3 706.0 237.3 658.9 533.5 696.6 749.5 612.3 786.3 412.5 203.2 484.6 258.5 475.1 209.7 118.5 443.6 624.3 698.0 155.2 698.2 215.0 537.2 484.3 715.9 146.4 5719.5 220.5 596.1 118.4 210.2 183.0 119.6 675.9 306.6 596.5 118.4 697.7 457.5 723.6 288.1 301.9 613.0 360.1 360. 83 .67 FIG.1 219.1 707. 34: PRECIO DEL PRODUCTO.3 364.1 715.4 121.3 187.2 294.5 220.91 a=0.3 6366.0 119.4 5719.0 118.8 115.3 600.0 471.6 669.9 281.2 747.7 675.7 684.5 203.4 121.0 294.7 629.0779 118.1 670.8 704.5 504.5 286.1 570.3 305.4 658.5 597.3 346.0 118.45 PronosSPSS 118.

282 .0 199.9 3 224 239.0 2 236 234. Año Trimestre Consumo Helado Tendencia 2010 1 201 190.352 2011 19.Descripción del modelo Tipo de modelo ID del modelo P Modelo_1 Simple FIG.289 0.5 3 176 200.7 2013 1 2 3 4 Serie 206.4 220.2 3 203 220. Modelo Aditivo: Yt = Tt + St + Ct + I t.264 R prom E(i) 15.033 1.128 0.813 3. con Método de Descomposición Estacional.6 225.462 -19.417 -0.4 4 199 205.385 3.4 238.506 -24.0 181.7 218.0 2012 1 246 230. Por este motivo se utilizará el método de descomposición estacional.1 4 229 225.121 0.121 3.6 2 195 195.110 -15.3 245.0 225.8 4 248 244.7 245.4 2011 1 230 210.0 Serie SPSS 202 195 177 201 224 218 202 226 250 242 223 248 271 264 246 271 84 2010 10. EJEMPLO SUAVIZAMIENTO EXPONENCIAL Caso: Consumo de Helado.3 2 225 215.0072 FE(i) 15.469 -19.956 2012 16. 35: GRÁFICO OBSERVADO Y AJUSTE DEL PRECIO.392 3.429 -6.725 9.7 201.3 205.802 -17. El propósito de este caso es analizar el consumo de un producto que tiene un comportamiento con tendencia y estacionalidad.

que un caso se determina con un modelo de regresión lineal simple y en el otro caso.FIG. la diferencia esta en el método para determinar el comportamiento de la componente de tendencia. lo que ocurra antes. son similares en comportamiento. EJEMPLO DESCOMPOSICIÓN ESTACIONAL Como se puede observar en los resultados al aplicar el modelo aditivo de descomposición estacional con el procedimiento presentado y desarrollado en Excel. 85 . las predicciones comienzan después del último valor no perdido del rango del período de estimación solicitado y finalizan en el último período para el que hay disponibles valores no perdidos de todos los predictores o en la fecha de finalización del período de predicción solicitado. con un método de suavizamiento exponencial. Una vez obtenido el modelo se puede hacer un pronóstico para el consumo de helado en los periodos siguientes. 36: CONSUMO DE HELADOS. comparado con los resultados obtenidos al utilizar software SPSS. Descripción del modelo Tipo de modelo ID del modelo Consumo Helado Modelo_1 Aditivo de Winters Previsión Modelo Consumo HeladoModelo_1 T1 2013 T2 2013 T3 2013 T4 2013 Previsión 271 264 246 271 LCS 280 274 256 281 LCI 262 255 237 261 Para cada modelo.

4 1 230 210.8 4 248 244.070 1.016 0.7 1 2 3 4 Serie 204.046 0.680 205.5 3 176 200. 37: OBSERVADO Y AJUSTE. EJEMPLO DESCOMPOSICIÓN ESTACIONAL.347 225. son similares en comportamiento.922 1.614 200.055 0.628 225.FIG.073 1.2 3 203 220.440 198. comparado con los resultados obtenidos al utilizar software SPSS. Por este motivo se utilizará el método de descomposición estacional y un modelo es mixto.018 2012 1.000 Como se puede observar en los resultados al aplicar el modelo mixto de descomposición estacional con el procedimiento presentado y desarrollado en Excel.0 1 246 230.4 4 199 205.016 0.730 Serie SPSS 202 195 177 201 224 218 202 226 250 242 223 248 271 264 246 271 2010 1.6 2 195 195. Una vez obtenido el modelo se puede hacer un pronóstico para el consumo de helado en los periodos siguientes. Caso: Consumo de Helado.9 3 224 239.878 0.038 246.619 218.997 0.934 1.000 1.911 1. Modelo Mixto: Yt = Tt * (1 + St ) * (1 + Ct ) + It Año 2010 2011 2012 2013 Trimestre Consumo Helado Tendencia 1 201 190.969 2011 1.013 R prom E(i) 1.911 1.687 238.094 1.073 1.610 182.0 2 236 234.576 244.1 4 229 225. con Método de Descomposición Estacional El objetivo de este caso es analizar el consumo de un producto que tiene un comportamiento con tendencia y estacionalidad. 86 .005 0.0000 FE(i) 1. CONSUMO DE HELADO.563 218.3 2 225 215.

d.q). habrá p términos autorregresivos y q términos de medias móviles.4 Modelos Autorregresivos Definimos un modelo como autorregresivo si la variable endógena de un período t es explicada por las observaciones de ella misma correspondientes a períodos anteriores añadiéndose. toda Yt puede expresarse como una combinación lineal de sus valores pasados (parte sistemática) más un término de error (innovación). un proceso autorregresivo y de media móvil. En general. AR(p). Por supuesto. 2004). tenga características de AR y MA a la vez. MA(q). Por ejemplo. Por ejemplo. por consiguiente se deben diferenciar d veces para hacerla estacionaria. Si se debe diferenciar una serie de tiempo d-veces para hacerla estacionaria y luego se aplica a ésta el modelo ARMA(p. y a t representa un término constante. bajo determinadas condiciones previas. Por ejemplo. los supuestos para que una serie sea estacionaria son. se dice que la serie original es ARIMA(p.q). La serie de tiempo Yt.4. un orden autorregresivo igual a 2 especifica que se van a utilizar los valores de la serie correspondientes a dos periodos de tiempo del pasado para predecir el valor actual. ARMA. Se sabe que muchas series económicas no son estacionarias (Gujarati.q). Los procesos autorregresivos de orden p (Gujarati. es una serie de tiempo autorregresiva integrada de 87 . este puede escribirse como Yt = at + ɵ1Yt-1 + β1ϵt + β2ϵt-1 Porque hay un término autorregresivo y uno de media móvil.1). 2004). es decir. Los órdenes de media móvil especifican el modo en que se utilizan las desviaciones de la media de la serie para los valores previos con el fin de predecir los valores actuales. 2004). si Yt sigue un proceso ARMA(1. En el caso de procesos estacionarios con distribución normal. en un proceso ARMA(p. los órdenes de media móvil de 1 y 2 especifican que las desviaciones del valor medio de la serie de cada uno de los dos últimos períodos de tiempo se tienen en cuenta al predecir los valores actuales de la serie. que la media y varianza de la serie son constantes y su covarianza es invariante en el tiempo. como en los modelos estructurales. es muy probable que la serie de tiempo Yt. Los órdenes autorregresivos especifican los valores previos de la serie utilizados para predecir los valores actuales. es decir. la teoría estadística de los procesos estocásticos dice que. un término de error. sigue un proceso de media móvil de orden q (Gujarati.

Verificación. denotada por ρk. pero por supuesto. Prueba simple. este consiste de los siguientes pasos: 1. Predicción. que son los gráficos de ACF y de PACF frente a la longitud del rezago. se define como. Estimación. una vez ajustado el modelo. la siguiente etapa es estimar los parámetros de los términos autorregresivos y de media móvil incluidos en el modelo. El orden de diferenciación se corresponde con el grado de la tendencia de la serie (la diferenciación de primer orden representa las tendencias lineales. probar si los residuos son ruido blanco. donde p denota el número de términos autorregresivos. cada caso debe ser verificado. se obtiene el correlograma poblacional. la función de autocorrelación parcial (PACF) y los correlograma resultantes. ya que es posible que exista otro modelo ARIMA que también lo haga.). pero otras se tendrá que recurrir a métodos de estimación no lineal (en parámetros). etc. La diferenciación es necesaria si hay tendencias (las series con tendencias suelen ser no estacionarias y el modelado de ARIMA asume la estacionariedad) y se utiliza para eliminar su efecto. especifica el orden de diferenciación aplicado a la serie antes de estimar los modelos. d el número de veces que la serie debe ser diferenciada para hacerla estacionaria y q es el número de términos de media móvil. Identificación. Algunas veces.media móvil (Gujarati. la diferenciación de segundo orden representa las tendencias cuadráticas. 2. en muchos casos las predicciones obtenidas por este método son confiables. 2004) resulta útil para determinar el modelo de serie de tiempo que represente el fenómeno que se quiere explicar. Diferencia (d). 4. se trata de ver luego si el modelo seleccionado se ajusta a los datos en forma razonablemente buena. este cálculo puede hacerse mediante mínimos cuadrados simples. habiendo identificado los valores apropiados de p y q. sino lo son iterar. encontrar los valores apropiados de p. d y q. Si se grafica ρk con respecto a k. 88 . Las herramientas principales en la identificación de los valores de p. 2004). después de seleccionar un modelo ARIMA particular y de estimar sus parámetros. La ACF al rezago k. 5. Por consiguiente. Se recurre al correlograma y el correlograma parcial para ayudar a identificar estos valores. d y q son la función de autocorrelación (FAC o ACF). la función de autocorrelación muestral al rezago k es que es simplemente la razón entre la covarianza y varianza muestral. ρk = [covarianza al rezago k/ varianza] ρk = ‫ﻻ‬k/‫ﻻ‬0 y -1 ≤ ρ k ≤ 1. 3. La metodología de Box-Jenkins (Gujarati.

Es por esto que es importante saber cómo se comporta. por lo que podríamos deducir que la serie no presenta estacionalidad. lo primero que se hace es graficar la serie con respecto al tiempo. hasta octubre del año 2010. calefacciones a petróleo. Esto lo podemos ver cotidianamente en el combustible que consumen los automóviles. Para lo cual se usaran series de tiempo con los precios mensuales del petróleo. Una vez ingresados los datos en el programa y definida la periodicidad de los datos.5 Análisis de Autocorrelaciones 89 . son una de las principales fuentes de energía en el mundo. tendencia y ver con qué modelo se pudiese modelar. 38: GRÁFICO PRECIO DEL PETRÓLEO. para ver si tiene estacionalidad. Hoy en día el petróleo y sus derivados. como esta explicado en el anexo 2. desde enero del año 2000. con el fin de obtener las mejores predicciones posibles. si hay estaciones del año en el cual sus precios bajan o suben. Esto nos servirá para tener alguna idea del comportamiento de la serie.La grafica de ‫ﯢ‬k frente a k se conoce como correlograma muestral. FIG. Además no se ven claramente las estacionalidades. CASO SERIE DE TIEMPO Del gráfico se puede apreciar una leve tendencia al alza en el precio. en el presente estudio se busca modelar el precio del petróleo. los aviones. Caso: Una Serie de Tiempo del Precio del Petróleo. Para esto. etc. entre otras cosas. 4. si su precio tiende a subir o a bajar a medida que pasa el tiempo.

se obtiene una conclusión más cuantitativa sobre la relación entre los distintos periodos de esta. Por esto mediante un análisis de autocorrelación hecho por el programa se obtuvo: FIG. a diferencia de lo que se podría inferir simplemente mirando el grafico de la serie.Al examinar las autocorrelaciones y las autocorrelaciones parciales de una serie temporal. 39: ACF CASO PRECIO PETRÓLEO 90 .

Descripción del modelo Tipo de modelo 91 . 40: ACF PARCIAL. eliminando la de anteriores rezagos.FIG. pregunta cuantos pronósticos se quieren obtener. Este tipo de diagramas es común en los procesos que no son estacionarios. pero además. Modelo: Ahora para crear el modelo para la serie. se puede ver una correlación significativa para los retardos 2. En esta ocasión se deja que se elija solo el mejor modelo. Esta es capaz de elegir el mejor modelo para la serie. se puede ver una clara tendencia. por lo que se confirma la no existencia de estacionalidad vista en el grafico de la serie.3 y 14. pidiéndole al programa las 6 proyecciones siguientes a los datos que se tienen. etc. que considera la relación existente solo con el retardo señalado. En este caso podemos ver que existe una alta correlación con el retardo uno. se utiliza la herramienta “crear modelo” del SPSS. se pueden realizar afirmaciones más concluyentes sobre la relación entre periodos. dándonos además la posibilidad de elegir nosotros el modelo. CASO PRECIO PETRÓLEO En el primer gráfico. obteniendo lo siguiente. Al analizar el gráfico de autocorrelaciones parciales. gráficos que se desean. Además.

206 .206 .611 19.265 7.206 .602 25.740 3.331 3.963 .999 4.265 7.206 .331 Estadísticos del modelo Estadísticos de ajuste del modelo Modelo Número de R-cuadrado predictores estacionaria petróleo- 0 Ljung-Box Q(18) Número de R-cuadrado .963 .265 7.331 .998 1.602 .963 .963 .963 .206 .349 (Tendencia) 92 .331 3.999 .250 3.740 3.939 .331 3.206 .265 7.602 25.999 4.963 Estadísticos 20.999 4.206 .265 estacionaria R-cuadrado MaxAPE MAE MaxAE BIC normalizado 25.740 3.999 4.265 7. 25.999 4. 3.602 25.331 3.062 .Descripción del modelo Tipo de modelo ID del modelo Petróleo Modelo_1 Tendencia amortiguada Ajuste del modelo Percentil Estadístico de ajuste R-cuadrado Media ET Mínimo Máximo 5 10 25 50 75 90 95 .740 3.265 7.602 25.206 .265 7. 15 valores atípicos .602 25.849 . .963 RMSE 4.206 .611 19.611 19. 4.331 3. . 3.602 25. 3.206 .740 3.611 19.999 MAPE 7.602 25.611 19.611 .611 19.602 25.999 4.999 4.740 3.611 3.393 .161 0 Modelo_1 Parámetros del modelo de suavizado exponencial Modelo petróleo-Modelo_1 Estimación Sin transformación ET T Sig.963 .740 .001 Gamma .306 GL Sig.963 .740 19.265 .999 4.331 3.611 19.963 .265 7.602 3.611 19.331 3.740 3.206 .740 19.331 3. 7. Alpha (Nivel) .963 .

OBSERVADO Y PREVISIÓN.91 102. .05 87.Estadísticos del modelo Estadísticos de ajuste del modelo Modelo Número de R-cuadrado predictores estacionaria Ljung-Box Q(18) Número de R-cuadrado Estadísticos Phi (Factor de GL Sig.69 47. SERIE DE TIEMPO El programa dice que el mejor modelo que se ajusta a la serie es el de tendencia amortiguada.69 Para cada modelo.60 129.208 valores atípicos 2.005 amortiguación de la tendencia) Previsión Modelo Nov 2010 petróleo-Modelo_1 Dic 2010 Ene 2011 Feb 2011 Mar 2011 Abr 2011 Previsión 84.45 123.01 85.03 52. las predicciones comienzan después del último valor no perdido del rango del período de estimación solicitado y finalizan en el último período para el que hay disponibles valores no perdidos de todos los predictores o en la fecha de finalización del período de predicción solicitado.23 63.48 117.15 88.39 LCS 93.91 87. FIG.74 88. lo que ocurra antes.60 110.885 .10 LCI 74.600 . Este modelo es adecuado para las series con una 93 . 41: CASO PRECIO PETRÓLEO.62 58.12 69.

Se puede ver que el valor de R cuadrado es de 0.tendencia lineal que va desapareciendo y sin estacionalidad. 94 . Sus parámetros de suavizado son el nivel. El suavizado exponencial amortiguado es muy similar a un modelo ARIMA con un orden de autorregresión. Por lo que la elección de modelos es congruente con los análisis realizados anteriormente. un orden de diferenciación y dos órdenes de media móvil. era de esperar que el modelo no tuviese estacionalidad.963. la tendencia y la amortiguación de la tendencia. Por lo visto en los análisis de autocorrelación. y en el gráfico de la serie. por lo que el modelo se ajusta de muy buena manera a lo que es la serie.

Consiste en ordenar objetos (personas.1 Clasificación de las Técnicas Clúster Podemos encontrarnos dos tipos fundamentales de métodos de clasificación: jerárquicos y no jerárquicos. De todo lo que se dispone es de una colección de observaciones. lo cual lo diferencia de los métodos multivariantes de asignación y discriminación. descubrir la estructura de las categorías en la que se encajan las observaciones. Los aglomerativos comienzan el análisis con tantos grupos como individuos haya en el estudio. A partir de ahí se van formando grupos de forma 95 . plantas. En los primeros. El análisis clúster se ocupa principalmente para:      Segmentación del mercado Comprensión del comportamiento del comprador Identificación de oportunidades para productos nuevos Selección de mercados de prueba Reducción de datos En análisis clúster poca o ninguna información es conocida sobre la estructura de las categorías. Cada clúster se describe como la clase a la que sus miembros pertenecen (Wooldridge. 2006). Los métodos jerárquicos se subdividen a su vez en aglomerativos y disociativos. como ya se dijo anteriormente. Los métodos también pueden dividirse en aglomerativos y divisivos. animales. 5. etc. siendo el objetivo operacional en este caso. de tal forma que se minimice alguna función distancia o bien se maximice alguna medida de similitud. mientras que en el segundo las clases no son anidadas. el objetivo es ordenar las observaciones en grupos tales que el grado de asociación natural es alto entre los miembros del mismo grupo y bajo entre miembros de grupos diferentes.CAPÍTULO 5: Análisis Clúster El análisis de clúster (o análisis de conglomerados) es una técnica de análisis exploratorio de datos para resolver problemas de clasificación. Más concretamente. la clasificación resultante tiene un número creciente de clases anidadas.) en grupos (conglomerados o clústeres) de forma que el grado de similitud entre miembros del mismo clúster sea más fuerte que el grado de asociación entre miembros de diferentes clúster. Métodos jerárquicos: Estos métodos tienen. por objetivo agrupar clústers para formar uno nuevo o bien separar alguno ya existente para dar origen a otros dos. variables. En los primeros. cosas. se parte de tantas clases como objetos tengamos que clasificar y en pasos sucesivos vamos obteniendo clases de objetos similares. mientras que en los segundos se parte de una única clase formada por todos los objetos que se va dividiendo en clases sucesivamente.

2. destacan.ascendente. 96 . Método de Ward. también conocidos como partitivos o de optimización. dentro de los métodos aglomerativos destacan: 1. 5. al final del proceso. El análisis de asociación. tienen por objetivo realizar una sola partición de los individuos en K grupos. posiblemente. siendo esta. Método del centroide. Independientemente del proceso de agrupamiento. Métodos no jerárquicos: En cuanto a los métodos no jerárquicos. la principal diferencia respecto de los métodos jerárquicos. Método del amalgamamiento simple. Los métodos disociativos o divisivos realizan el proceso inverso al anterior. hasta que. Dentro de los métodos disociativos. Por ejemplo. Estos se pueden clasificar en: Métodos de reasignación: Permiten que un individuo asignado a un grupo en un determinado paso del proceso sea reasignado a otro grupo en un paso posterior. 4. además de los anteriores. 3. A partir de este grupo inicial se van formando. Empiezan con un conglomerado que engloba a todos los individuos. grupos cada vez más pequeños. La asignación de individuos a los grupos se hace mediante algún proceso que optimice el criterio de selección. Ello implica que el investigador debe especificar a priori los grupos que deben ser formados. si ello optimiza el criterio de selección. todos estos criterios se basan en una matriz de distancias o similitudes. (no obstante hay que señalar que hay diversas versiones de estos procedimientos que flexibilizan un tanto el número final de clusters a obtener). todos los casos están englobados en un mismo conglomerado. a través de sucesivas divisiones. Método del promedio entre grupos. 6. que siguen siendo válidos: 1. Método del amalgamamiento completo. hay diversos criterios para ir formando los conglomerados. Método de la mediana. El proceso acaba cuando no quedan individuos cuya reasignación permita optimizar el resultado que se ha conseguido. Al final del proceso se tienen tantos grupos como individuos en la muestra estudiada. Otra diferencia de estos métodos respecto a los jerárquicos reside en que trabajan con la matriz de datos original y no precisan su conversión en una matriz de distancias o similitudes. Dentro de estos métodos están: a) El método K-medias. El detector automático de interacción. 2.

El algoritmo más conocido dentro de este grupo es el Block-Clustering.b) El Quick-Clúster análisis. 3. Selección de muestra de datos. Entre ellos destacan: a) El análisis modal de Wishart. 2. c) El método de Fortín. los grupos se forman buscando las zonas en las cuales se da una mayor concentración de individuos. 5. Se les conoce como Análisis Factorial tipo Q. c) El método de Forgy. En el segundo tipo. Selección del método y concepto de distancia o similitud. de "pautas" de transición (por ejemplo. se parte del postulado de que las variables siguen una ley de probabilidad según la cual los parámetros varían de un grupo a otro. cada factor corresponde a un grupo. b) El método Taxmap. Métodos de búsqueda de la densidad: Dentro de estos métodos están los que proporcionan una aproximación tipológica y una aproximación probabilística. Los criterios pueden ser de:  Correlación: Se traslada el concepto tradicional de covariación. En el primer tipo. Los criterios pueden ser variados y depende de la persona encargada del estudio.2 Etapas de un Análisis Clúster Para hacer un análisis clúster se debe seguir los siguientes pasos: 1. Cuando se refiere a selección del concepto de distancia o similitud habla del criterio que se usará para definir los grupos. Métodos directos: Permiten clasificar simultáneamente a los individuos y a las variables. d) El método de las nubes dinámicas. de conexión entre variables. Entre los métodos de este tipo destaca el método de las combinaciones de Wolf. el 97 . Métodos de reducción de dimensiones: Estos métodos consisten en la búsqueda de unos factores en el espacio de los individuos. Selección y transformación de variables a utilizar. Se trata de encontrar los individuos que pertenecen a la misma distribución. por lo tanto es importante tenerlo en mente para el análisis antes de formar los clúster y después de ellos.

Determinación de la estructura correcta. La determinación de la estructura correcta o el número de conglomerados es una decisión subjetiva y dependerá del encargado del estudio. cálculo de un coeficiente de correlación) aplicándolo a las observaciones de los sujetos como si fuesen observaciones de variables. Medidas de similitud o distancia: Definen proximidad. no covariación. mientras que las líneas muestran que conglomerados se agrupan y cuáles no. Algunas medidas de distancia serían: Euclidea (para "t" variables) √∑ Manhattan (o función de la distancia absoluta. 98 . Hay diferentes métodos para la selección y agrupación de grupos según el método que se use. Selección y agrupación por el criterio de agrupación elegido. Dendograma: Es un gráfico que muestra como se agrupan los conglomerados (Siendo este un caso de conglomerados jerárquicos). donde salen los casos y las distancias. Pero hay gráficos que ayudan a ver como se forman los conglomerados. y su elección (tipos) viene determinada por la escala de medida de las variables: binaria u ordinal o de intervalo/razón.r) (∑ ) D2 de Manhalanobis ∑ 4. 5. o City-Block) ∑| | Formulación general de Power (s. La selección de uno u otro método se basa en la forma en que la distancia se considera en el algoritmo de agrupación. los cuales fueron descritos anteriormente.

También el dendograma puede ser mostrado en forma horizontal: Rescaled Distance Cluster Combine C A S E Label Num 0 5 10 15 20 25 +---------+---------+---------+---------+---------+ 72 146 231 174 145 171 209 20 126 181 117 178 336 275 333 -+ -+ -+ -+-------+ -+ +-----------------------+ -+-------+ +---------------+ -+ | | ---------------------------------+ | -+ | -+ | -+-+ | -+ | | -+ +---------------------------------------------+ -+ | ---+ 99 .FIG. excepto el 146 y el 77 que se unen formando el primer grupo. hasta llegar arriba donde todos son un gran conglomerado. ANÁLISIS CLUSTER Este diagrama se lee de abajo hacia arriba. Mientras más se avanza hacia arriba más grupos se van uniendo y menos son los números de conglomerados. Al principio todos los casos están separados. 42: DENDOGRAMA DE TÉMPANOS.

En este análisis de debe considerar que las únicas variables demográficas que hay en los datos que tiene la superintendencia sobre las APV. Siendo estos obtenidos de la Encuesta Nacional Urbana de Seguridad Ciudadana (ENUSC) a nivel nacional.3 Caso: Estudio del Producto APV en las AFP. Además. ya que estas son las tres razones por lo cual dicen las AFP que se toma un APV. esta es el fruto del convenio suscrito entre la Subsecretaría de Prevención del Delito del Ministerio del Interior y Seguridad Pública y el Instituto Nacional de Estadísticas (INE). la preocupación por la vejez y la estabilidad económica. 2012).5. que es un mecanismo que permite a los trabajadores dependientes e independientes ahorrar por sobre lo que cotizan obligatoriamente en su Administradora de Fondos de Pensión “AFP”. la que tiene un error muestral de 4. de los datos de la Superintendencia de Pensiones. por lo tanto se pueden tomar como representativas del país. Siendo elegido los datos por edad ya que son los que más permiten análisis. previsión. los datos disponibles del APV se obtienen de la Superintendencia de Pensiones. si es dependiente o independiente y edad. se buscaron variables que representaran la preocupación por el desempleo. con importantes beneficios tributarios (Contreras. Para realizar el análisis se utilizará el método de clúster para hacer la segmentación de mercado. El objetivo de este caso es analizar el comportamiento del Ahorro Previsional Voluntario “APV”. es el número de personas y el saldo total de cada fondo por sexo. 2012): “Indique en orden de importancia las tres situaciones que más le generan preocupación”  Perder el trabajo  Dificultad de insertarse en el mercado laboral  Ser víctima de delito  Que un miembro del grupo familiar caiga en el alcoholismo o la drogadicción  La inestabilidad económica del hogar  No tener acceso a la vivienda propia o perderla  Incertidumbre en la vejez (salud. desamparo)  Que usted o alguien de su familia no reciba una educación que mejore sus oportunidades laborales  No contar con un sistema de salud que cubra enfermedades o accidentes  No sabe  No responde 100 . para formar conglomerados.5%. Las preguntas de la encuesta de seguridad ciudadana son las siguientes (Contreras.

9. Fuente: Superintendencia de pensiones. Número de ahorrantes fondo A (Diciembre 2011). Número de ahorrantes fondo C (Diciembre 2011). Teniendo esto. Saldo promedio por ahorrante fondo C (Diciembre 2011). 2012): 1. Saldo promedio por ahorrante fondo A (Diciembre 2011). Número de ahorrantes fondo E (Diciembre 2011). Saldo promedio por ahorrante fondo E (Diciembre 2011). Fuente: Superintendencia de pensiones. Fuente: Pregunta “Indique en orden de importancia las tres situaciones que más le generan preocupación” Encuesta seguridad ciudadana 2011 (ENUSC) 101 . es decir. en la primera pregunta el porcentaje de la gente de la misma edad que nombró en sus tres primeras preocupaciones y. 8.“¿Cuál de los siguientes problemas de actualidad nacional tiene mayor importancia para usted? ¿Y en segundo lugar?”  La pobreza  La situación económica  La contaminación ambiental  El tráfico de drogas  La educación  El desempleo  La salud  La delincuencia  El consumo de drogas  La corrupción  Otro  No sabe  No responde Se escogieron para este análisis las que están marcadas con negrita. 5. (Contreras. 6. 2. las variables para el análisis clúster serían. Número de ahorrantes fondo B (Diciembre 2011). Fuente: Superintendencia de pensiones. el porcentaje de las personas de la misma edad que mencionaron el problema a nivel nacional. 11. Fuente: Superintendencia de pensiones. Número de ahorrantes fondo D (Diciembre 2011). en la segunda. Saldo promedio por ahorrante fondo B (Diciembre 2011). Saldo promedio por ahorrante fondo D (Diciembre 2011). Fuente: Superintendencia de pensiones. 3. Menciones “Perder el trabajo” por edad. 10. 4. 7. ya que son las variables que más representan lo que se quiere estudiar. Fuente: Superintendencia de pensiones. De estas se tomó la frecuencia relativa de la mención. Fuente: Superintendencia de pensiones. Fuente: Superintendencia de pensiones. Fuente: Superintendencia de pensiones. Fuente: Superintendencia de pensiones.

Dado esto. desamparo)” Fuente: Pregunta “Indique en orden de importancia las tres situaciones que más le generan preocupación” Encuesta seguridad ciudadana 2011 (ENUSC) 14. Menciones “La situación económica”. Fuente: Pregunta “¿Cuál de los siguientes problemas de actualidad nacional tiene mayor importancia para usted? ¿Y en segundo lugar?” Encuesta seguridad ciudadana 2011 (ENUSC) 16. Menciones “Incertidumbre en la vejez (salud. hacemos el análisis en SPSS dando los siguientes resultados: Historial de conglomeración 102 . Menciones “La pobreza”: Fuente: Pregunta “¿Cuál de los siguientes problemas de actualidad nacional tiene mayor importancia para usted? ¿Y en segundo lugar?” Encuesta seguridad ciudadana 2011 (ENUSC) Todas estas variables tienen datos dentro de estos rangos de edades: 1. 30-39 5. 15-19 2. Menciones “El desempleo”: Fuente: Pregunta “¿Cuál de los siguientes problemas de actualidad nacional tiene mayor importancia para usted? ¿Y en segundo lugar?” Encuesta seguridad ciudadana 2011 (ENUSC) 17. Menciones “La inestabilidad económica del hogar” Fuente: Pregunta “Indique en orden de importancia las tres situaciones que más le generan preocupación” Encuesta seguridad ciudadana 2011 (ENUSC) 13. Los datos en concreto se pueden ver en el Anexo 6.12. 25-29 4. 50-59 7. 20-24 3. Aunque esto solo afecta significativamente a la variable “número de afiliados”. 60 y más Se debe considerar en el análisis que hay rangos de edades que son distintos (“15-19”. previsión. Menciones “La salud”: Fuente: Pregunta “¿Cuál de los siguientes problemas de actualidad nacional tiene mayor importancia para usted? ¿Y en segundo lugar?” Encuesta seguridad ciudadana 2011 (ENUSC) 18. “20-24” y “60 y más”). 40-49 6. Menciones “No contar con un sistema de salud que cubra enfermedades o accidentes” Fuente: Pregunta “Indique en orden de importancia las tres situaciones que más le generan preocupación” Encuesta seguridad ciudadana 2011 (ENUSC) 15.

662 0 0 2 2 1 3 67.637 4 5 0 H I E R A R C H I C A L C L U S T E R A N A L Y S I S Dendrogram using Average Linkage (Between Groups) Rescaled Distance Cluster Combine C A S E Label Num 0 5 10 15 20 25 +---------+---------+---------+---------+---------+ 1 2 3 4 5 -+-+ -+ +-------------------+ ---+ +-------------------------+ -----------------------+ | -----------+-----------------------+ | 103 .Etapa en la que el conglomerado Conglomerado que se combina Etapa Conglomerado 1 aparece por primera vez Conglomerado 2 Coeficientes Conglomerado 1 Próxima Conglomerado 2 etapa 1 1 2 23.388 3 0 6 6 1 5 599.994 1 0 4 3 5 6 154.551 0 0 5 4 1 4 293.459 2 0 6 5 5 7 436.

CASO APV. el cual fue elegido por.  A pesar de que se podría unir en tres clústeres y representar en grupo de “Personas trabajadoras”. 2012):  Como se ve. (Contreras. se hicieron gráficos de dispersión de cada una de las variables como el que se muestra a continuación: 104 . En la imagen se muestra una línea que indica el corte elegido para esta ocasión.6 7 -----------+ +-------------+ -----------------------------------+ FIG. 60 y más Para analizar las diferencias y las características de cada clúster. 30 – 39 años 3. 43: DENDOGRAMAS. se puede decir que quedan cuatro clúster: 1. 40 – 59 años 4. por lo tanto se eligió la separación donde se pudiera ver la diferencia entre los que están en edad de jubilarse y los que no. ANÁLISIS CLUSTER Sabido es que la elección de los clústeres en base a un dendograma es subjetiva y depende del criterio de la persona encargada del estudio. Tras esto. la separación de los grupos tendía a hacer por edad. los jóvenes con los jóvenes y los viejos con los viejos. 15 – 39 años 2. “Personas a menos de 10 años de jubilarse” y “Personas jubiladas” se considero que el dato 4 (30-39 años) tiene un comportamiento lo suficientemente distinto a los tres anteriores como para hacer su propio clústeres.

 Conglomerado 2 (30 – 39 años) o Tienen un saldo promedio bajo en todos los fondos. o Decreciente preocupación por el desempleo.Encerrados en cada círculo se ven los diferentes clústeres y su comportamiento por cada variable.  Conglomerado 3 (40-59 años) o Tienen el más alto saldo promedio en todos los fondos. o Tienen una creciente entrada al fondo B y E. o Son los que más le preocupa la inestabilidad en el hogar. o Les preocupa el desempleo. o Tienen una creciente entrada al fondo B y E. o Decreciente preocupación por la inestabilidad en el hogar. (Contreras. B. o Creciente entrada al fondo A. o Creciente preocupación por perder el trabajo. pero creciente. Con los gráficos de dispersión se puede concluir que. 2012):  Conglomerado 1 (15-29 años) o Tienen bajo saldo promedio en todos los fondos. o Los más preocupados por perder el trabajo. o Son los que más personas participan en el fondo A y B. 105 . C y E. o Alta y decreciente participación en los fondos A. Los demás gráficos se pueden ver en el Anexo 3.

Creciente preocupación por el desamparo en la vejez. o Alta participación en el fondo D. 106 . Conglomerado 4 (60 y más años) o Saldo alto en todos los fondos. B. o Les preocupa el desamparo en la vejez. C y E. o Les preocupa la pobreza. o Decreciente preocupación por el desempleo.o o  Baja y creciente participación en el fondo D. por el sistema de salud y la situación económica. o Creciente preocupación por la pobreza y la salud. o Baja participación en el fondo A. por el sistema de salud y la situación económica.

Ma. Patel. los sistemas de reglas son una generalización de los árboles de decisión. 107 Hojas .. La decisión final a tomar se puede determinar siguiendo las condiciones que se cumplen desde la raíz del árbol hasta algunas de sus hojas (Hernández. 2004). C.CAPÍTULO 6: Árboles de Decisión Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial.. muy similares a los sistemas de predicción basados en reglas. Patel. & Bruce. Dada una base de datos se construyen diagramas de construcciones lógicas. Ramirez Quintana. Edad Raíces < 25 años ≥ 25 años Rechazar Experiencia ≥ 3 años < 3 años Rechazar Aceptar FIG. Ramirez Quintana.. Ferri Ramirez. J. G. C. podría aplicarse más de una regla o ninguna (Hernández. J. 2004). Ma. siendo un clasificador que ayuda a tomar una decisión en concreto... Pero en este no se exige exclusión ni exhaustividad en las condiciones de las reglas. Vemos como primero se discrimina por edad y después por experiencia. un árbol de decisión se puede expresar como un conjunto de reglas. N.. (Shmueli... Ferri Ramirez. G. 44: EJEMPLO ÁRBOL DE DECISIÓN Como se ve en la figura anterior. P. 2007). 2007). es decir.. ¿Es candidato para el cargo? Si Edad ≥ 25 años Y Experiencia ≥ 3 años Entonces SI En otro caso No.. (Shmueli. P. Por otro lado. que sirven para representar y categorizar una serie de condiciones que ocurren de forma sucesiva. & Bruce. es sencillo aplicar un árbol de decisión en casos como selección de personal. N. de hecho. para la resolución de un problema.

1984). El espacio se iba partiendo de arriba abajo. a cuantas más particiones se elijan la complejidad del algoritmo será mayor. es decir. pero no puede ser de las dos. un ejemplo es la temática de una película. la diferencia más importante entre los sistemas de aprendizaje de árboles de decisión y los sistemas de inducción de reglas es el algoritmo que utilizan. se llega a la situación en la que todos los ejemplos caen en un nodo inferior son de la misma clase. Finalmente. si es un planeta o una estrella. como CART (Breiman. Por lo tanto el árbol no sigue creciendo. ID3 (Quinlan 1983). etc. las clases deben ser también disjuntas. Lo cual es distinto a la categorización. 6.  Criterio de selección de particiones. Simplemente el algoritmo va construyendo el árbol añadiendo particiones y los hijos resultantes de cada partición. Si es por partición o cobertura.La representación en forma de reglas suele ser más reducida que la de los árboles. Por lo tanto. utilizando cada vez una partición. 1993). como la de “En otro caso” que se muestra en el ejemplo anterior. solo tendrá una clase el ejemplo. En general. un conjunto de condiciones excluyentes y exhaustivas. donde se permite más de una clase. Por ende.1 Sistemas por Partición: Árboles de Decisión para Clasificación. El desafío es encontrar un buen equilibrio entre precisión y eficiencia. ya que permite englobar condiciones y permite el uso de reglas por defecto. Casos simples sería: La raza de un perro. etc. que un caso es de la clase a o de la b. Un árbol de decisión en un problema de clasificación conducirá un ejemplo de una sola hoja. Esto es lo que diferencia a los distintos algoritmos de partición existentes. donde perfectamente puede ser una película de acción y de humor al mismo tiempo. uno de los aspectos más importantes en los sistemas de aprendizaje de árboles de decisión es el denominado criterio de partición. 6.5 (Quinlan. Estos algoritmos se llaman algoritmos de partición. Los dos puntos más importantes a considerar para que el algoritmo funcione bien son los siguientes:  Particiones a considerar. es decir. C4.2 Particiones Posibles Las particiones son un conjunto de condiciones exhaustivas y excluyentes. Cuantas más particiones permitamos más precisos podrán ser los árboles de decisión generados. es decir. Esta propiedad dio el esquema para los primeros algoritmos de aprendizaje de árboles de decisión. La característica más relevante de los problemas de clasificación es que se asume que las clases son disjuntas. 108 . Pero.

. xi = v2. se intentan tomar particiones que separen los ejemplos en intervalos.….5 (Quinlan 1993) y DKM (Kearns & Mansour 1996). como se muestra en la siguiente tabla: f(p1. se han presentado en las últimas décadas numerosos criterios de partición. Ferri Ramirez. puede tomar valores diferentes en los ejemplos y tienen infinitos valores en general. solo existirá una partición posible para ese atributo. la cual será (xi = v1..5 contiene solo un tipo de partición para los atributos nominales y uno solo para los numéricos. esto se debe a que se pueden ajustar a muchos patrones y son fácilmente interpretables. Además. Bajo esta fórmula general. los criterios Gain. Basándose en la idea de buscar particiones que discriminen o consigan nodos más puros. Por esta razón. el criterio Gini (Breiman 1984). G. v2... J. Particiones nominales: El atributo xi es nominal y tiene posibles valores {v1. Por ejemplo C 4.. es la proporción de elementos de la clase 1 en el nodo j. xi = vk). y así para las c clases. las particiones ya nombradas pueden llegar a ser demasiadas. N.…. pj es la probabilidad de caer en el nodo j. Aunque las particiones descritas anteriormente son bastante simples. Estos aspectos tienen como consecuencia que se busque un criterio que permita realizar una buena partición y que se haga sin demasiado esfuerzo computacional. definido de la siguiente forma: ∑ Donde n es el número de nodos hijos de la partición (Número de condiciones de la partición). Gain Ratio y la modificación del C 4. Ramirez Quintana. P. Muchos algoritmos siguen esta partición. C. tales como el criterio del error esperado. Estos criterios buscan la partición s con el menor I(s) (Hernández.3 Criterio de Selección de Particiones Los algoritmos de decisión tienen la particularidad que una vez decidida una partición sigue hacia abajo la construcción del árbol y no se vuelven a plantearse las particiones ya construidas. permiten obtener árboles de decisión precisos y muy comprensibles.p2.vk}. 6. 2004).…. Particiones numéricas: Si un valor xi es numérico y continuo. cada criterio de partición implementa una función f distinta.Por esto es porque la mayoría de los algoritmos de aprendizaje de árboles de decisión solo permiten un juego muy limitado de particiones. Patel. mientras que otros exigen que los árboles sean binarios (Solo dos hijos por nodo). (Shmueli. es la proporción de elementos de la clase 2 en el nodo j.pc) Criterio 109 . 2007). Ma. & Bruce.

la función I(s) calcula la media ponderada (Dependiendo de la cardinalidad de cada hijo) de la impureza de los hijos en una partición. N. Los métodos de poda pueden dividirse en dos: prepoda y pospoda.p2. & Bruce. 2007): FIG. G..pc) 1-Ʃ(pi)2 Ʃpi log(pi) 2(Πpi)1/2 Error Esperado GINI Entropía (gain) DKM Estas funciones f(. Los nodos que están por debajo del límite de poda se eliminan. En lo que son los árboles de decisión el contexto es eliminar condiciones de las ramas de los árboles.) se denominan funciones de impureza y. La manera más frecuente de solucionar este problema es modificar los algoritmos de aprendizaje de tal manera que obtengan modelos menos específicos. ya que se consideran demasiado específicos.5 son basados en Entropía. (Shmueli. 6. Esto podría parecer optimo. especialmente si existe ruido en la muestra. intentar aproximar demasiado un modelo puede llegar a que seamos demasiado específicos y no acertemos a los nuevos ejemplos. el modelo cubre todos los ejemplos vistos y los cubre todos de manera correcta. Patel. Se puede ver gráficamente como lo ilustra la siguiente figura. Varios de estos criterios son usados en algoritmos conocidos. 45: PODA. como Gain Ratio o C4. Por lo tanto. 110 .….. es decir. por lo tanto.Min(p1. pero un modelo que se ajuste demasiado a la evidencia suele comportarse mal para nuevos ejemplo. P.4 Poda Los algoritmos de árboles de decisión vistos obtienen un modelo que es completo y consistente con respecto a la evidencia.. ÁRBOL DE DECISIÓN.

Generalmente la postpoda. se trata de eliminar nodos de abajo a arriba hasta un cierto límite. 2007). Se trata en realidad de determinar el criterio de parada a la hora de seguir especificando una rama. en un criterio de partición y otras extensiones. Ramirez Quintana. N.. pero es menos eficiente en lo que es optimización de recursos. podría provocar desencadenamiento de otros operadores y convertirlo en un árbol más simple (Hernández. Patel. P. 46: EJEMPLO DE OPERADOR "TRANSPOSICIÓN". J. C. como el criterio MDL..  CART (Breiman.. (Shmueli. los criterios de prepoda pueden estar basados en número de ejemplos por nodo. en número de excepciones respecto a la clase mayoritaria (error esperado) o técnicas más sofisticadas. P.. 1984) y derivados: son métodos de partición que construyen árboles binarios y se basan en el criterio de partición GINI y que sirve tanto para clasificación como para regresión. G. Patel. La poda es una de las primeras y más simples modificaciones que se han ideado para mejorar el comportamiento de los árboles de decisión. Ma..7 Color = verde Talla < 21. Postpoda: El proceso se realiza después de la construcción del árbol. han aparecido numerosos algoritmos y sistemas de aprendizaje de árboles de decisión.5 Algoritmos más Populares Basándose en diferentes particiones. generalmente apodados operadores de “restructuración”. 2007). El ejemplo de la figura anterior. El resultado es un árbol diferente pero equivalente. 6. En general. Talla ≤ 21. La poda se 111 . se muestra la aplicación de un operador de “Transposición”. ÁRBOLES DE DECISIÓN. tiende a tener mejores resultados que la prepoda. & Bruce. Cuando se hace una visión global del árbol. & Bruce. (Shmueli.7 A B Talla ≥ 21... G. N.Prepoda: el proceso se realiza durante la construcción del árbol. al tener el modelo ya completo. se puede observar mucho mejor que ciertas partes se pueden reestructurar con el objetivo de simplificar la representación y/o conseguir mejor predicción.. que. 2004). Con posteridad se han definido otras serie de operadores y modificadores. Ferri Ramirez. además.7 C D Color = verde Color = verde A B C D FIG.

Base quiebras: Registro Nacional de Quiebras (2000-2012). etc. Estos registros contienen por ejemplo. desde sus estados financieros publicados por la Superintendencia de Valores y Seguros. perceptrones.  SLIQ (Mehta. elaborado por la Superintendencia de Quiebras. constituye un riesgo para las partes interesadas quienes temen la aparición de este evento de manera súbita e impredecible.  ID3 (Quinlan 1983) (Quinlan 1986) C 4. (Godoy. el tribunal a cargo de la quiebra. etc.basa en una estimación de la complejidad de error. la razón social de la empresa fallida. y empresas sanas o que no hayan quebrado en ese periodo. la fecha de publicación de la quiebra en el Diario Oficial. El proceso de quiebra conlleva altos costos pecuniarios y sociales asociados al fracaso empresarial. el síndico de quiebra. la fecha de la declaración de la quiebra. paralelización. 1996)y SPRINT: modificaciones de árboles de decisión clásicos para conseguir escalabilidad para grandes volúmenes de datos. Generalmente se pueden encontrar en programas de minería de datos con el nombre C&RT.5 (Quinlan 1993) y derivados (Assistant (Cestnik 1987): son métodos de partición de la ganancia (GainRatio). 112 . dirección. Esta muestra se divide en dos grupos: empresas quebradas. 6. El registro completo contiene las quiebras históricas registradas en Chile desde 1956 hasta la fecha. Para este estudio se ha extraído los datos financieros de 30 empresas operando en Chile.5 Caso: Analizar la Situación de Quiebra de una Empresa. (Godoy.2011. registradas bajo la Superintendencia de Quiebras entre 2002 . Se trabaja con los registros de empresas quebradas a partir del 1 de enero de 2000 hasta el 31 de julio de 2012.  IND (Buntine 1992. entre otros datos. Contiene métodos de colapsado de ramas y muchas otras mejoras. Para conformar la población de datos se consultaron diferentes fuentes. El objetivo de este caso es explicar el fenómeno de la quiebra de empresas utilizando un método de minería de datos con la técnica de árboles y utilizando el software SPSS Clementine. 2012). LMDT (Brodley & Utgoff 1995) y otros sistemas híbridos: incorporan características de varios sistemas o añaden otras técnicas de aprendizaje y construcción de árboles de decisión: regresión lineal. Por esta razón. 2012): 1. Tienen poda basada en reglas u otros mecanismos más sofisticados.

El modelo consiste en usar 8 ratios financieros tradicionales que consideran medidas de liquidez. solvencia y rentabilidad. Base FECU: Ficha estadística codificada uniforme (FECU) de empresas de la muestra. Utilizando el SPSS Clementine1 cargamos los datos y los separamos. 3. Base SII: A través del Servicio de Impuestos Internos (SII). Posee un formato estandarizado. debe presentarse trimestralmente e incluye el balance general y el estado de resultado. 1 Anexo 6 para más detalles. 60% de ellos para entrenamiento (Datos que servirán para hacer el árbol) y 40% para el grupo de comprobación (Datos que no están cuando se genera el modelo y servirán para ver la efectividad de este en otros casos). cobertura.2. La FECU es un informe mediante el cual las empresas fiscalizadas por la SVS dan a conocer sus estados financieros. actividad. Estas fichas se obtienen desde la página de la Superintendencia de Valores y Seguros (SVS). entre otros datos. Variable WCTA CACL TSTA EBITTI TDTA TDTE OMTA ROA Ratio Financiero Capital de Trabajo / Total de Activos Activo Circulante / Pasivo Circulante Ventas / Total de Activos EBIT / Gastos Financieros Total de Deuda / Total de Activos Total de Deuda / Total de Patrimonio Margen Operacional / Total de Activos Utilidad del Ejercicio / Total de Activos Categoría Liquidez Liquidez Actividad Cobertura Solvencia Solvencia Rentabilidad Rentabilidad Donde la variable a predecir será si es que la empresa quiebra o no. se obtiene el giro de las empresas a través de la opción Situación Tributaria/Consultas y Solicitudes/Consulta tributaria de terceros disponible en su portal online. 113 .

47: ÁRBOL DE DECISIÓN. CASO QUIEBRA.0.FIG. Dejando las variables por defecto del algoritmo tenemos: FIG.24% 2 11.0. SPSS CLEMENTINE En este caso. 48: ÁRBOL DE DECISIÓN CON NODO C5. usaremos el algoritmo C5. Análisis del grupo de entrenamiento: Partición' Correctos Erróneos 1_Entrenamiento 15 88.76% 114 .

Este modelo se ve que las empresas pueden clasificarse según la liquidez y la rentabilidad si es que quiebran o no.Total 17 Análisis del grupo de Comprobación 'Partición' Correctos Erróneos Total 13 2_Comprobación 10 76.92% 3 23. No obstante. Para ver otras opciones.08% Como se ve a primera vista. que no es este caso. probaremos el nodo árbol de decisión 115 : . se puede mejorar los resultados variando las opción “ruido esperado”. el modelo es muy coherente en lo que son el grupo de entrenamiento y el grupo de Comprobación. pero eso es solo recomendable hacerlo cuando los árboles que tienen muchas hojas y son muy profundos.

FIG. CASO QUIEBRA Partición Correctos Erróneos Total 17 1_Entrenamiento 17 100% 0 0% 'Partición' 2_Comprobación 116 . 49: ÁRBOL DE DECISIÓN.

Lo cual demuestra que a veces es mejor un árbol más simple para lo que es predicción. 117 .23% 30.77% En esta ocasión vemos un árbol de decisión más grande y que acierta completamente con los ejemplos de entrenamiento. pero que es menos efectivo con datos que no entraron al entrenamiento.Correctos Erróneos Total 13 9 4 69.

7. formado por el sistema nervioso y hormonal. 118 . trasmitirlas y elaborarlas. procedentes de otras neuronas o receptores. las cuales utilizan el producto de sus secreciones como señales químicas (trasmisores) para enviar la información. FIG. 4.CAPÍTULO 7: Redes Neuronales Artificiales Las redes neuronales artificiales son modelos matemáticos que simulan las propiedades de las redes neuronales biológicas imitando el comportamiento del cerebro humano. Para entenderlos bien es bueno hacer un acercamiento a las redes neuronales biológicas.” (Viñuela & León. 3. Integran la información en un código de activación propio de la neurona. A través de sus ramificaciones el axón efectúa la distribución espacial de los mensajes. El elemento estructural fundamental de este es la célula nerviosa o neurona. en parte la almacena y envía en forma elaborada a los órganos efectores. Las neuronas recogen información que llega a ellas en forma de impulsos. Dicha información se envía entre distintas neuronas.1 Redes Neuronales Biológicas “El aparato de comunicación neuronal de los animales y del hombre. 2004) El sistema nervioso es el que recibe la información. en parte también almacenarlas y enviarlas de nuevo en forma elaborada. Trasmiten la información codificada en forma de impulsos a través de su axón. 50: NEURONA BIOLÓGICA La cual tiene cinco funciones principalmente: 1. en conexión a los órganos de los sentidos y los órganos efectores (músculos. lo que le da ventajas importantes respecto de otros modelos predictivos. 2. glándulas) tiene la misión de recoger informaciones. formando redes (Godoy. a través de prolongaciones. 2012). la elabora.

(Godoy. cada uno con sus pesos respectivos. generan una gran satisfacción para los investigadores en el sentido en cómo el entendimiento. conectadas cada una con las neuronas de la capa siguiente. se ha sofisticado en los últimos años (Viñuela & León. pero puede estar constituida por una o más capas. Se puede ver a una red neuronal artificial como un grafo dirigido. una capa oculta y una capa de salida.2 Modelo Matemático Las neuronas artificiales utilizadas para construir estas redes neuronales son verdaderamente primitivas en comparación a las que se pueden encontrar en el cerebro. Se considera entonces el conjunto de capas ocultas como la capa oculta simplificada. el notable avance y la riqueza de herramientas teóricas y tecnológicas en conjunto.5. radicado en la analogía neurobiológica. Esta capa de salida posee neuronas que entregan la información final. 2004). Se pueden identificar los siguientes elementos básicos en un modelo neuronal artificial: Un conjunto de sinapsis o conexiones neuronales. La información es procesada por la capa oculta y transmitida hacia la siguiente capa de salida. En sus terminales transmite los impulsos a las neuronas subsiguientes o a las células efectoras. y donde las conexiones entre ellas corresponden a los arcos entre nodos. La siguiente capa corresponde a la capa oculta. La capa de entrada contiene neuronas receptoras que captan la información desde el exterior de la red y la traspasan a la siguiente capa. donde los nodos corresponden a las neuronas de cada capa. 119 . 2012). Una red neuronal artificial está compuesta por capas de neuronas: una capa de entrada. La capa oculta es a menudo simplificada en una sola. 7. Sin embargo. cada una de los cuales está caracterizada por un peso o fuerza por sí sola.

x2 .wk2 .1]..FIG. para sumar las señales entrantes. θk es el umbral. que limita la amplitud de salida de la neurona a un valor finito.. Una función de activación.xp son las señales de entrada. Matemáticamente. una señal x j en la entrada de una sinapsis j conectada a una neurona k es multiplicada por un peso sináptico wkj . 51: CAPAS DE UNA RED NEURONAL ARTIFICIAL Específicamente. siendo éste el negativo del umbral..1]. Por otro lado. Un peso wkj es positivo si la sinapsis es excitadora.) corresponde a la función de activación.. la entrada a la función de activación puede ser aumentada utilizando un término de sesgo en vez de un umbral. la amplitud normalizada del rango de salida de la neurona se escribe como el intervalo cerrado de la unidad [0.. El modelo de la neurona también incluye un parámetro externo llamado umbral θk. se puede describir una neurona k según el par de ecuaciones: ∑ Donde x1 . Estas operaciones constituyen a una combinación lineal.. wk1 . Un sumador. Generalmente. que tiene el efecto de reducir la entrada de la función de activación. 120 . (.. ponderadas por sus respectivas conexiones neuronales.wkp son los pesos sinápticos de la neurona k. uk es la combinación lineal de la salida. o alternativamente [−1. e yk es la señal de salida de la neurona.. es negativo si la sinapsis es inhibitoria.

llamadas ocultas. como se explicó anteriormente. las cuales sirven para calcular los resultados finales de la red.FIG. las que reciben los valores representados como vectores. La estructura básica de una red es la red multicapa mostrada en la figura anterior. cuyas unidades responden a rasgos particulares que pueden aparecer en los patrones de entrada. El primer nivel lo constituyen las células de entrada. El último nivel es la salida. 52: MODELO DE NEURONA. 121 . a las células destino. esta se propaga. vía conexiones de salida. Calculada la salida de una neurona. Puede haber uno o varios niveles ocultos. La figura muestra el modelo matemático no lineal de una neurona artificial con un parámetro umbral que atenúa la entrada desde la red de la función de activación. A continuación hay una serie de capas intermedias. RED NEURONAL ARTIFICIAL. como se muestra a continuación: Patrones de entrada Patrones de Salidas Representación interna de las unidades FIG. Varias de estas forman una red. 53: ESTRUCTURA BÁSICA DE UNA RED MULTICAPA.

se tiene: 122 . Se pueden identificar tres tipos de funciones de activación: 1. Dicho de otro modo. la salida de la neurona k empleando esta función de activación. la salida tomará valor de 1. supera (o es mayor) al umbral de esa neurona (θk). 1943).Función umbral: Para este tipo de función de activación. 54: FUNCIÓN UMBRAL Correspondientemente. si la suma de los entradas ponderadas que llegan a una neurona desde otras ( ∑ ). que utiliza una función umbral como función de activación. será: ∑ Este modelo neuronal en particular. denotada por (.).Función lineal por tramos: Se ilustra esta función en la siguiente figura.7. define la salida de una neurona en términos de su nivel de actividad en su entrada.3 Tipos de Función de Activación La función de activación. Aquí la salida de la neurona toma el valor de1 si el nivel de actividad interna total de esa neurona es no negativo y 0 en cualquier otro caso.. corresponde al llamado modelo de McCulloch-Pitts (McCulloch and Pitts. y en cualquier otro caso tomará un valor de 0. descrita en la siguiente ecuación: { FIG.. 2.

De esta función pueden existir dos situaciones. 2012): a) Surge una combinación lineal. Es definida como una función estrictamente creciente que exhibe propiedades asintóticas y de suavidad. (Godoy. Un ejemplo es la función logística. donde el amplificador dentro de la región lineal en operación se asume como la unidad.Función sigmoidal: Esta función es por lejos la forma más común usada en la construcción de redes neuronales artificiales. si el factor de amplificación es infinitamente grande. 3. b) La función lineal por tramos se reduce a una función umbral.{ FIG.. 55: FUNCIÓN UMBRAL. definida por: 123 . el rango del dominio de la región intermedia disminuye su amplitud. mientras este sea mayor. si la región en operación se mantiene sin correr en saturación.

(Viñuela & León. 2. 2004): a) Red con propagación hacia adelante con una capa (también llamada perceptrón). Mientras que la función umbral toma los valores de 0 o 1. el conjunto de datos de entrenamiento debe tener datos con esa anomalía. Esto quiere decir.5 Aprendizaje Las redes neuronales son sistemas de aprendizaje basados en ejemplos. b) Red con propagación hacia adelante multicapa (también llamada perceptrón multicapa). el proceso de aprendizaje debe poseer las siguientes características: 1. Esta propiedad continua la hace diferenciable. Se habla entonces. característica conveniente en el tratamiento matemático de la teoría de redes neuronales (Godoy. 2012). La capacidad de una red para resolver un problema estará ligada de forma fundamental al tipo de ejemplos que dispone el proceso de aprendizaje.donde a es un parámetro de pendiente de la función sigmoidal. de algoritmo de aprendizaje usado en el diseño de la red neuronal cuando se refiere a cómo se ha sido estructurada esta misma. 7. La forma en que las neuronas de una red están estructuradas está íntimamente relacionada al algoritmo de aprendizaje usado para entrenar a la red. desde la capa de entrada hacia la capa de salida. Cuando la salida de una neurona va en una sola dirección. El proceso de aprendizaje de una red de neuronas artificiales consiste en ir introduciendo paulatinamente todos los ejemplos del conjunto de aprendizaje y 124 . c) Red recurrente. Desde el punto de vista de los ejemplos. Ser representativo: Los componentes del conjunto de aprendizaje deberán ser diversos. Ser significativo: Debe haber un número suficiente de ejemplos. una función sigmoidal asume un rango continuo de valores desde 0 a 1. si se quiere medir la aparición de un caso especial. Una conexión es una única línea de comunicación que va desde una neurona que envía información hasta otra que recibe. la red es una red con propagación hacia adelante. como sus capas de neuronas están organizadas y conectadas. Aquellas redes propagadas hacia atrás que van en sólo una dirección se llaman redes recurrentes. la red es una red con propagación hacia atrás. la función sigmoidal se convierte básicamente en una función umbral. Con esta información se distinguen entonces las siguientes estructuras de red. esto es. cuando el parámetro de pendiente se acerca al infinito. 7. En el límite. Cuando la salida de una neurona es la entrada de una neurona de la misma capa u otra precedente.4 Estructuras y Arquitectura de Red La topología describe la estructura de la red neuronal.

pero si se le indica a la red una cierta medida del error que puede cometer. • Regla delta generalizada o algoritmo de retro-propagación de error. los cuales son: 1. Cuando la modificación de los pesos sea irrelevante. 125 . objetivo). Cuando el error descienda bajo una cantidad establecida. Aprendizaje competitivo y cooperativo: • Red de Kohonen • Cognitron 3. Se controla el entrenamiento según la respuesta que debería generar la red a partir de una entrada determinada. Algunos ejemplos de aprendizaje supervisado son:  Aprendizaje por corrección del error: • Regla de aprendizaje del perceptrón. El criterio de convergencia depende del tipo de red utilizado. A la red se le proporciona un grado de desempeño de la misma que debiese lograr. aunque es un error global. Lo que hace a la rede reconocer regularidades en el conjunto de entradas. compresión de datos. Algunos ejemplos son:   Aprendizaje asociativo: Hebbiano. salida). En este tipo de aprendizaje se le proporciona a la red un conjunto de ejemplos que determinan el comportamiento propio de la red. 2012): 1. 2. Aprendizaje no supervisado o aprendizaje auto-organizado (entrada. • Regla delta o del mínimo error cuadrado. salida. es decir.  Aprendizaje por refuerzo. Aprendizaje supervisado (entrada. hay tres formas. Se enfoca generalmente a problemas de clustering. Mediante un número fijo de ciclos. No se proporciona una salida deseada. Heurística crítica adaptativa. Aprendizaje reforzado (recompensa/castigo). Algoritmo asociativo con recompensa y penalización. Sobre el tipo de aprendizaje.modificar los pesos de las conexiones siguiendo un determinado esquema de aprendizaje hasta llegar a un criterio de convergencia dado. Este es una gran aproximación del aprendizaje humano y la percepción. Las entradas son las únicas disponibles para el aprendizaje. estimar una función densidad de probabilidad que describe la distribución de patrones.  Aprendizaje estocástico. 2. clasificación y mapas topográficos. 3. Aquí se pueden mencionar:    Algoritmo lineal con recompensa y penalización. (Godoy. el algoritmo de la red aprende a categorizar las entradas.

2004): 1. que puede almacenar internamente patrones presentados de forma incompleta o con ruido. ya que ahora la activación o desactivación de una de ellas influye en la otra. pero si se puede hacer una reseña de los más conocidos. Estos mapas se forman de la información de entrada. provocando que los pesos de las conexiones se ajusten en función de la neurona vencedora. Perceptron multicapa: Este tipo de red neuronal artificial es una ampliación del anterior. estas actuarán en conjunto incrementando o potenciando la sinapsis. El aprendizaje de este tipo de red es del tipo supervisado y se basa principalmente en la regla de corrección de error con respecto a la salida deseada. Según su topología. la cual mediante la semejanza de sus datos. Un Perceptron multicapa es una red neuronal artificial con alimentación hacia delante y está compuesta de varias capas de neuronas entre la entrada y la salida. Redes hebbianas: Este tipo de redes tiene un aprendizaje no supervisado. dos o más de ellas se activan simultáneamente. Esta red utiliza el aprendizaje no supervisado de tipo competitivo. 5. por consiguiente se pueden activar varias neuronas en la salida. 3. la sinapsis queda reforzada. Este tipo de redes nos indica que si en el momento de la asociación entre las neuronas. 2. Redes Kohonen: Este tipo de red neuronal artificial que posee la capacidad de formar mapas de características de manera similar al cerebro. Perceptron simple: Es una red unidireccional compuesta por dos capas de neuronas. las neuronas compiten por activarse y sólo una de ellas permanece activa ante una determinada información de entrada. la cual dice que cuando una neurona activa a otra. Redes Hopfield: Funciona como una memoria asociativa no lineal. ya que incorpora uno o más niveles de unidades ocultas. forma diferentes categorías.6 Tipos de Redes Neuronales Artificiales Modelos de redes neuronales artificiales hay muchos como para describirlos todos. Esta red está formada por neuronas conectadas simétricamente (al existir una conexión desde la neurona Ni a la neurona Nj. también existe la conexión desde Nj a Ni y ambas con el 126 . algunos modelos de redes neuronales serían. por lo tanto en este modelo las neuronas de entrada únicamente envían la información a las neuronas de salida. una de entrada y la otra de salida. permitiendo de esta manera establecer regiones de decisión mucho más complejas en comparación con el Perceptron simple. (Viñuela & León.7. 4. El objetivo de este modelo es demostrar que un estímulo externo (información de entrada) por si solo es suficiente para forzar la formación de estos mapas. es decir. Se basa en la regla de Hebb.

si es que el afiliado cambia de fondos sus aportes y lo que se le paga al pensionado. sino que también como la gente mueve sus ahorros previsionales entre los fondos. (Contreras. al haber datos diarios de estas variables.1) o sea binario. D. B. 2012).y se diferencian unas de otras por el nivel de riesgo y rentabilidad que le dan a sus afiliados. Este modelo es similar al Perceptron. estos son cinco alternativas de inversión. entonces se usará la cantidad de cada multifondo en su defecto. El fondo A según la legislación chilena es definido como el fondo de pensiones donde la renta variable puede ser con un máximo de 80% y un mínimo de 40%. Por lo tanto. Se han denominado alfabéticamente .mismo peso Wij = Wji) y el conjunto permitido de valores de entrada y salida es (0. que a la vez hará cambiar el suyo. Es importante entender que al predecir la cantidad del fondo no solo se esta considerando la rentabilidad. Este hecho. presentan conexiones de salida hacia otras neuronas de la capa media. 127 . El objetivo de este caso es estudiar el fondo A que ofrece una AFP de los multifondos (Contreras. las otras cambian su estado de activación. pero presenta una característica adicional y es que las neuronas de la capa media. hace que en esta capa se dé una retroalimentación entre sus neuronas. de forma que al activarse una de las neuronas. C.1) pudiendo ser (-1. Esto incluye el aporte de cada afiliado. Como la rentabilidad de los multifondos esta dada de forma mensual en la superintendencia de pensiones no son datos suficientes para ingresarlos a una red. por lo tanto hay que buscar variables que sus datos se adapten a los requisitos de la red. Para redes neuronales artificiales. creadas para incrementar el valor esperado de las pensiones. Esta red no implica cálculo de pesos sinápticos ya que estos se mantienen constantes. E . 7. 2012).A.7 Caso: Predicción al Corto Plazo Fondo A de los Multifondos. el patrón de activación se transmitirá sólo cuando se llegue a un equilibrio.

Pesos Chilenos

3,5E+13

Multifondos - Chile

3E+13
2,5E+13
2E+13
1,5E+13
1E+13
5E+12
0

Fondo A
Fondo D

Fondo B
Fondo E

Fondo C

FIG. 56: GRAFICO MULTIFONDOS, CASO RED NEURONAL ARTIFICIAL.

Para las variables de entrada, por parte del mercado se vio lo que las mismas
AFP dicen que afecta a la rentabilidad, para así representar esa parte de la
variabilidad de la cantidad del fondo. Sobre los cambios que hace el afiliado
entre fondos, se sabe que tienen cierta relación con la economía y como se ven
en el fondo, algo que se ve claramente en el gráfico en el caso del fondo E,
donde aumento entre el 2008 y el 2009 en momentos de crisis. Esto último se
debe por decisión propia del afiliado o por consejos de la misma AFP. Por
ende, se supondrá que los cambios en la rentabilidad son los que explican en su
totalidad o en gran parte, la variabilidad de los fondos.
Las AFP dicen que la rentabilidad de los fondos está dividida en dos tipos de
papeles, los de renta variable y los de renta fija, los cuales también pueden
clasificarse en papeles internacionales y nacionales. Sobre la segunda
clasificación nombrada las AFP dicen tener sus papeles en, (Contreras, 2012):
Internacional:
 Asia Emergente
 Latino América
 Norteamérica
 Asia Pacifico Desarrollada
 Europa emergente
 África-Medio Oriente
 Europa
Nacional:
 Servicios
128




Eléctrico
Recursos naturales
Industrial
Telecomunicaciones

Para representar estas variables, en el caso internacional, se ocuparon los
índices bursátiles de las economías más importantes de cada sector del mundo
nombrado. En lo que es nacional, se ocuparon los índices sectoriales dados por
la Bolsa de Santiago, estos índices no necesariamente representan el exacto
sector económico a los que se refieren las AFP, pero si contienen a varias
empresas que son importantes. Los índices que se usarán para el análisis son:
Internacional
 Asia Emergente
o SSE Composite Index (China)
o BSE SENSITIVE (India)
 Latino América
o IPC (México)
o IBOVESPA (Brasil)
 Norteamérica
o DowJones (USA)
 Asia Pacifico Desarrollada
o Nikkei (Japón)
 Europa emergente
o RTSI (Rusia)
 África-Medio Oriente
o Tel Aviv (Israel)
 Europa
o Next150 (Euronext)
Nacional
 Banca (Chile)
 Construcción&Inmobiliario. (Chile)
 Utilities (Chile)
 Industrial (Chile)
 Retail (Chile)
 Consumo (Chile)
 Comodities (Chile)
Por lo tanto, las variables para el modelo serían los datos del 3 de enero del
2006 al 30 de abril del 2012 de (Contreras, 2012):
Variable objetivo
1. Cantidad diaria fondo A . Fuente: Superintendencia de pensiones.
2. Cantidad diaria fondo B. Fuente: Superintendencia de pensiones.
3. Cantidad diaria fondo C. Fuente: Superintendencia de pensiones.
4. Cantidad diaria fondo D. Fuente: Superintendencia de pensiones.
129

5. Cantidad diaria fondo E. Fuente: Superintendencia de pensiones.
Variables de entrada
 SSE Composite Index (China). Fuente: Google Finance.
 BSE SENSITIVE (India). Fuente: Yahoo Finanzas.
 IPC (México). Fuente: Yahoo Finanzas.
 IBOVESPA (Brasil). Fuente: Yahoo Finanzas.
 DowJones (USA). Fuente: Yahoo Finanzas.
 Nikkei (Japón). Fuente: Yahoo Finanzas.
 RTSI (Rusia). Fuente: Yahoo Finanzas.
 Tel Aviv (Israel). Fuente: Yahoo Finanzas.
 Next150 (Euronext). Fuente: Yahoo Finanzas.
 Banca (Chile). Fuente: Bolsa de Santiago.
 Const.&Inmob. (Chile). Fuente: Bolsa de Santiago.
 Utilities (Chile). Fuente: Bolsa de Santiago.
 Industrial (Chile). Fuente: Bolsa de Santiago.
 Retail (Chile). Fuente: Bolsa de Santiago.
 Consumo (Chile). Fuente: Bolsa de Santiago.
 Comodities (Chile). Fuente: Bolsa de Santiago.
Dado la cantidad de variables se hizo una división en el modelo, quedando un
modelo por cada fondo en las variables objetivo y en las variables de entrada
las variables que fueran más correlacionadas. Para elegirlas se uso la
correlación lineal de Pearson. Esto es solo para hacer ejemplo más
rápidamente, pero se aconseja buscar más formas de elegir bien las variables de
entrada.

Correlaciones de Pearson
SSE Composite Index - China

0.499

DowJones

0.369

Nikkei

-0.377

RTSI

0.490

Next150

0.315

IPC - Mexico

0.950

IBOVESPA

0.909

BSE SENSITIVE

0.921

TEL AVIV

0.826

Banca

0.202

CONST.&INMOB.

0.928

UTILITIES

0.802

INDUSTRIAL

0.846

130

Se decidió elegir el mejor modelo considerando dos índices: El error absoluto promedio y la Correlación lineal. 57: GRUPOS DE ENTRENAM IENTO. el cual es el grupo con que se entrena la red en el programa.  IPC (México). Fuente: Bolsa de Santiago.874 CONSUMO 0. (Contreras. Estos fueron conformados así. Cantidad diaria fondo A .&Inmob.  Comodities (Chile). COMPROBACIÓN Y VALIDACIÓN. que son datos dentro de la misma fecha del grupo de entrenamiento que no se ocupan en la red. el grupo de Comprobación. Primero un grupo de Entrenamiento.RETAIL 0. Fuente: Yahoo Finanzas.  IBOVESPA (Brasil). Fuente: Bolsa de Santiago. (Chile). Fuente: Superintendencia de pensiones. 2012): Datos 2006-2011 Entrenamiento Comprobación Datos enero-abril 2012 Validación FIG. CASO RED NEURONAL ARTIFICIAL Después de esto se entrenaron todos los modelos disponibles dentro del SPSS Clementine. Para entrenar estas redes se decidió hacer tres grupos de datos.882 Comodities 0. que sirve para ver como se comporta la red fuera de los datos que se dieron. Fuente: Bolsa de Santiago.  Consumo (Chile). Variables de entrada  BSE SENSITIVE (India). que representan en cierta forma lo deseado para predecir una variable. Comprobación Entrenamiento Error absoluto promedio 131 Correlación lineal . Fuente: Yahoo Finanzas.948 Quedando: Variable objetivo 1. Fuente: Yahoo Finanzas.  Const. que sirven para ver si la red fue bien entrenada y el de Validación.

59: GRÁFICO GRUPO DE VALIDACIÓN.0342E+11 0. 58: GRÁFICO GRUPO DE COMPROBACIÓN.Poda Exhaustiva Poda Dinámico Múltiple Rápido 2.749 4.991 0.986 0.985 0.82953E+11 0. CASO RED NEURONAL .58413E+11 0. FIG.661 4.99 0.23461E+11 0.652 6.48283E+11 0.05515E+11 0.98 Validación Entrenamiento Rápido Poda RBFN Dinámico Múltiple Poda Exhaustiva Error absoluto promedio Correlación lineal 3. CASO RED NEURONAL 132 FIG.521 4.64206E+11 4.56332E+11 0.3053E+11 3.003E+11 4. Principalmente porque es el que muestra los mejores resultados en los dos grupos de entrenamiento y una correlación lineal positiva.688 4.91491E+11 3.583 Para este caso fue elegido el modelo generado por el entrenamiento del SPSS Poda.

se calcularon las tasas diarias.0131% 0.09% Industrial -7.0033% 0. País % crecimiento Anual Q1 Q2 Q3 Q4 2.0087% 0.0271% 0.0054% 0.50% Israel 3. Para esto se tomaron las predicciones anuales hechas por la OCDE (Organización para la Cooperación y el Desarrollo Económico) para los países dentro del 2012 y las predicciones hechas por los distintos sectores económicos del país sobre su crecimiento.30% 0.10% 0. Antes de predecir valores en los fondos de pensiones hay que dar valores a las otras variables.50% Banca 5.20% India 7.50% -0.20% 1.0271% 0.0271% -0.0003% 0.0152% 133 Q3 Q4 .60% Brasil 3.20% USA Euro área Anual Q1 Construcción e Inmobiliaria 7.00% 4. Mientras que en la validación se ve la misma tendencia.70% Japón 2.70% Q2 Q3 Q4 Después de esto.50% 2. En el caso de no encontrarse se hizo la suposición de que crecían al mismo porcentaje anual que el año pasado.30% Utilities 6.80% 1.50% Comodities -10.40% Retail -16.0033% 0.En el gráfico de comprobación se ve que la predicción (Que es la nombrada como $N-FondoA) es muy cercana y certera a los datos reales. es decir.0065% 0.00% -0.20% 2.0239% Q2 0.0440% 0.76% Consumo 6.10% 0.0000% -0.30% 0.40% México 3.10% Rusia 4.20% China 8.50% 2. pero al final se ve que los datos que predice la red tienden a estar más debajo de los datos reales.40% 2. generar un escenario.0076% 0. Tasas diarias USA Euro área Japón Anual Q1 0.

Resultados finales: Tras hecho todo lo anteriormente nombrado aquí están los resultados de las predicciones hechas por los modelos.295.0188% Rusia 0.239.13.22% 134 FIG.0086% China 0.534.0216% India 0.0086% Anual Construcción e Inmobiliaria 0. En las variables donde había tasas trimestrales se uso el valor diario calculado a partir de esas tasas.0179% Consumo 0.009.402. Para un mayor análisis se agregará una comparación de los resultados al 30 de mayo del 2012. CASO RED NEURONAL.685.091.- Variación Abril-Mayo -5.0494% Comodities -0.0142% Utilities 0. empezando desde abril y considerando las tasas diarias. (Contreras.México 0.0198% Banca 0. 2012).863. Predicción Real Valor (Pesos chilenos) 13.0097% Brasil 0. 60: PREDICCIÓN FONDO A.0121% Israel 0.0211% Retail -0.0310% Q1 Q2 Q3 Q4 La predicción se hizo hasta el segundo cuarto del año 2012.88% -4.0162% Industrial -0. .

como anteriormente se dijo. para haber calculado las variables de entrada linealmente. teniendo un error del 1% en la variación Abril-Mayo. Como se ve en la predicción de mayo. El resultado es inusualmente cercano. 135 .El fondo A. se veía que sería un buen modelo de predicción al corto plazo.

sociales y de competitividad nacional e internacional de gran trascendencia. utilizando métodos y técnicas estadísticas. Por ello. Ante el entorno cambiante que se desenvuelven. la cual necesita ir evolucionando para no quedar atrás. que tiene como principal característica ser sistemático y participativo. dado que es el corazón de la actividad de una organización. tomando en cuenta aquellos posibles escenarios perceptibles hoy. económicos. Incluye diferentes actividades que van desde: 1) acuciosa recopilación y análisis de información. holístico en una organización. propuso que el desempeño de un alto directivo sea juzgado mediante el doble criterio de eficacia -la habilidad para hacer las cosas “correctas”. sin un marco estratégico no se sabe a dónde ir o por qué se quiere llegar allí. su contraste con las fortalezas y debilidades de la empresa. También. 136 . el exceso de información y los altos niveles de competitividad. se requiere un marco de referencia confiable y práctico que permita llevar a cabo una eficiente y efectiva dirección estratégica. 2 Peter Drucker. lo visualiza. De estos cambios no puede quedar fuera una organización. inventa. tampoco importa por qué se ha llegado allí. el cual es un método sistémico. imagina un futuro a partir del presente.CAPÍTULO 8: Reflexiones Sobre el Modelo Propuesto El trabajo de dirección estratégica debe ser liderado por los altos ejecutivos. Luego. Parte esencial es la identificación de oportunidades y amenazas en el medio ambiente en que se desenvuelve la organización y. se puede reconocer que la sociedad y su entorno están sufriendo dinámicos cambios demográficos. debido al alto desarrollo de las tecnologías y las comunicaciones y los tratados comerciales. autor de múltiples obras reconocidas mundialmente sobre temas referentes a la gestión de las organizaciones.y eficiencia -la habilidad para hacerlas “correctamente”-. Este proceso se apoya en la convicción de que el futuro será muy diferente al pasado. abogado y tratadista austríaco. Es así. adquiriendo relevancia la utilización de métodos y herramientas que permitan desarrollar una apropiada gestión y sustentar los objetivos organizacionales relacionados a generar un valor agregado en el conjunto de sus actividades utilizando eficientemente sus recursos. sistemas de información y sociedad del conocimiento. que la globalización es responsable en gran parte de la creciente competitividad de los mercados. reconocido como padre del management moderno. autor de numerosas obras sobre gestión de las organizaciones y sociedad del conocimiento. El proceso de planificación estratégica está inserto en el marco de la dirección estratégica. donde las decisiones de corto plazo no afecten los lineamientos de sustentabilidad del negocio. Y una de sus actividades fundamentales es la planificación estratégica. Fue uno de los líderes más influyente del siglo XX. Peter Drucker 2. y perder participación en su sector industrial.

Consecuentemente con esto el modelo propuesto muestra que la base de toda propuesta tiene que tener bases científicas robustas. al combinar indicadores financieros y no financieros. medir y gestionar incluso el valor oculto en cualquier compañía asociada al recurso humano. ampliamente investigada por diversos científicos. creando las condiciones esenciales para la obtención de las mejores capacidades y habilidades de las personas. este generará inequívocamente un impacto directo en la motivación. pudiendo incluir la problemática actual del management al valorar. con el consecuente incremento de la satisfacción de los clientes y finalmente poder obtener los resultados financieros sobresalientes. al considerar cinco aspectos claves. que pasan a ser la base donde se construye todo sistema de dirección. utilizando un método top-down. desde el ápice estratégico hasta el nivel operativo de la organización. Es un método estructurado para seleccionar los indicadores de gestión que guían la dirección en el corto y largo plazo. Por otra parte. en el empoderamiento de las personas en sus funciones. 137 . La teoría de la neurociencia puede complementar el modelo. etc. El método propuesto también proporciona a estas organizaciones un instrumento para respaldar su dirección estratégica. en el clima organizacional. se recoge otra de las inquietudes más relevantes en materia de dirección del personal. en la mejora de los liderazgos.econométricas. Dado el enfoque fundamental de este método. y por ende. este transforma los objetivos estratégicos en un conjunto de medidas de rendimiento posibles de evaluar y controlar periódicamente. producir nuevas ideas. Evaluar la gestión como se puede observar es posible en cualquier contexto y se pueden utilizar modelos y métodos cualitativos y cuantitativos que fueron pensados para empresas de todo tipo. 3) determinación de objetivos globales y estrategias. y permite adelantar tendencias y realizar una política estratégica proactiva. el éxito de las organizaciones sin fines de lucro se debe a cuán eficiente y eficazmente satisfacen las necesidades de sus usuarios. pensando en el comportamiento de las personas en las organizaciones. Al haber incorporado la quinta perspectiva en el diseño de los sistemas de control. 4) hasta formalizar planes y acciones para lograrlos. 2) examinar el futuro. El modelo de dirección estratégica propuesto surge de la investigación de documentos de varios autores y la experiencia de haberlo aplicado a diversas organizaciones en diferentes sectores industriales y se caracteriza por ser un procedimiento se puede aplicar en cualquier tipo de organización. data mining o minería de datos. el natural impacto en los procesos internos de las compañías. Una propuesta de un paradigma de dirección estratégica es fundamental para liderar una organización en un sistema altamente competitivo y globalizado. business intelligence.

la productividad. comprender y retener la mejor dotación de personas.El modelo estima que el valor oculto de una organización radica en poder generar las condiciones necesarias para permitir desarrollar todas las capacidades de los individuos que forman parte de una compañía. 138 . al profundizar en la gestión de personas el trabajo aclara aspectos esenciales para ser eficientes. aunque todos los ejecutivos del área saben que son las personas quienes determinan la estrategia. Si bien es cierto se tiene la percepción que el modelo propuesto de dirección estratégica es un método adecuado. donde se pueda desarrollar más experimentos. el empoderamiento. este requiere de mayores estudios y comprobaciones futuras. FIG. el liderazgo. es por esta sencilla razón que se estima que. 14 y 15). Se debe buscar crear una comunidad de talentos. desarrollar. porque incrementan la concentración. así entonces se da cuenta de forma inequívoca la conexión del personal con la estrategia fundamental de la organización. y existen buenas intenciones pero sin abordar realmente la problemática. motivar. Los cinco aspectos fundamentales de la quinta perspectiva considerada en el sistema de control de gestión (ver mapa estratégico. Un principio que es esencial en esta propuesta es intuir que las personas son el centro de la dirección en las organizaciones. que todos los expertos en managment concuerdan. etc. Permitir el desarrollo de carrera y capacitación del personal. de modo de atraer. manipulación de variables y datos con modelos cuantitativos. en una etapa posterior es necesario poder demostrar a ciencia cierta los resultados del nuevo modelo. tienen como denominador común que todos estos son fundamentales para las personas en las organizaciones. La estrategia de dirección del personal no es considerada como pieza clave en las compañías. la motivación. como muchos plantean.

10-18). Strategic Administration. New York: Free Press. Editorial Norma. Brain of the Firm Second Edition. (1980). Hax. J. (2003). Econometría. México: CECSA. Harvard Business Review. Kaplan. The Delta Model: Adaptive Management for Changing World.Bibliografía Beer. D. (2001). 100-110). & Norton.. (2003). (2012). What Makes An Effective Executive. Predicción de la probabilidad de quiebra de empresas en Chile mediante redes neuronales artificiales. Harvard Business Review. R. (Marzo-Abril de 1990). Hax. Harvard Business Review. Dirección Estratégica en organizaciones sin fines de lucro & Data Warehouse (págs. Porter. Harvard Business Review. Competitive Strategy. 139 . A. & Wilde. R. G. D. D. (2012).. & Kristjanpoller. Samuelson. D. Putting the Balance Scorecard to Work. & Scholes. 32(5). & Majluf. SOCOTE. Chang. O. Godoy. (1999). E. (2001). Ma. Reguera. Modelo de Dirección Estratégica (págs. & Norton. 167-176. F. W. Modelos matemáticos para el análisis estratégico de un sector financiero. Introducción a la Minería de datos. R. Strategic Management. D. Editorial Pearson. Cómo Utilizar el Cuadro de Mando Integral para Implantar y Gestionar su Estrategia. (2000). N. M. F. N. 10-17. Macroeconomía. Mapas Estratégicos. (2005). S. Saavedra. Contreras. Colombia: Congreso Iberoamericano. (1996). 11-28. C. (1988). Chile: UTFSM. E. Gujarati. F. Porter. R. España: Gestión 2000. Ediciones Dolmen. Saavedra.. O. A. Johnson. & Mauborgne. (2004). & Norton. P. The Strategy Map: Guide to Aligning Intangible Assets. W. (September-October de 1993). R. Valparaíso: UTFSM. McGraw-Hill Interamerica. (2004). 134-142. A. Harvard Business Review. (Septiembre-Octubre de 2000).. Prentice Hall. Gestión de Empresa. (2004). D. Kaplan. (Enero-Febrero de 1996).. (2004). Ramirez Quintana. K. R. & Norton. D. N. Apuntes de Econometría. Ferri Ramirez. 75-85. ENEFA. E. Drucker. Kaplan. D. The Competitive Advantage of Nations. La estrategia de Océano Azul. Using the Balanced Scorecard as a Strategic Management System. España: McGraw-Hill. Sloan Management Review. & Torres. Hernández. Kaplan. (2004). Bogotá: Editorial Norma. & Norton.. R. J. Delta Project. Hax. London and New York: John Wiley. España: Gestión 2000.. P. (2012). (2001). M. M. & Wilde. Kaplan. Ventaja Competitiva. P. & Norton. A. Prentice Hall. (Octubre de 2012). Kaplan. (1987).. 73-93. D. Strategy & Leadership. Porter. Saavedra. Decimosexta edición. Hunger. D. Having Trouble with Your Strategy? Then Map It. D. R.

N.. Estados Unidos de Norteamerica : John Wiley & Sons. Redes de Neuronas Artificiales. M. I. (2004). J. G. Un enfoque Moderno. Inc. Paraninfo. I. Introducción a la Econometría.. P.. Viñuela. M. Un enfoque práctico. Patel. P. & Bruce. Data Mining for Business Intelligence. (2006). Wooldridge. 140 . & León.Shmueli. Madrid: Pearson Prentice Hall. (2007).

En el SPSS se calculan en base a MCO. Como se mencionó en el capítulo 3. En la actualidad. Cada uno de estos módulos se compra por separado. sea simple o múltiple. los modelos de regresión lineal son los modelos que la variable predictora X. En el SPSS se puede calcular entrando a: REGRESIÓN LINEAL SPSS Donde aparece la siguiente ventana: 141 . Originalmente SPSS fue creado como el acrónimo de Statistical Package for the Social Sciences aunque también se ha referido como "Statistical Product and Service Solutions". por Mínimos cuadrados ordinarios (MCO). la sigla se usa tanto para designar el programa estadístico como la empresa que lo produce. Máxima Verosimilitud y Mínimos cuadrados ordinarios.Anexos Anexo 1: Análisis de Regresión Lineal en SPSS Statistical Package for the Social Sciences (SPSS) es un programa estadístico informático muy usado en las ciencias sociales y las empresas de investigación de mercado. Lo cual se puede presentar como: Los estimadores pueden ser calculados de tres maneras. El programa consiste en un módulo base y módulos anexos que se han ido actualizando constantemente con nuevos procedimientos estadísticos. por lo tanto cuando se arma un modelo de Regresión lineal. Como programa estadístico es muy popular su uso debido a la capacidad de trabajar con bases de datos de gran tamaño. la variable respuesta Y y los parámetros β son lineales. hay que tener en consideración los supuestos de MCO en el cálculo de estos.

Las que son:  Variable Dependiente: Es la variable endógena de la regresión.VENTANA DE REGRESIÓN LINEAL SPSS.  Eliminar: Las variables de un bloque se eliminan todas de un solo paso. Es útil cuando tenemos más de un bloque y queremos elegir que variables eliminar para realizar comparaciones entre modelos con distintas variables. De esta lista seleccionaremos. y es la que será explicada por las demás variables independientes o exógenas. y son aquellas que explicaran el comportamiento de la variable dependiente. tenemos una lista con todas las variables de nuestro archivo de datos. Los métodos disponibles son:  Introducir: En este método se introducen todas las variables del bloque de un solo paso. En la parte izquierda.  Variables Independientes: Son las variables exógenas de la regresión. haciendo click sobre la variable correspondiente y luego presionando el botón con una flecha para cada opción. El método termina cuando ya no hay más variables candidatas a ser incluidas o eliminadas. El icono que tiene cada variable representa el tipo de dato que fue especificado para esta variable (en la vista de variables). ya que eliminamos todas las variables del modelo.  Por pasos: En cada paso se introduce la variable independiente que no se encuentre ya en la ecuación y que tenga la probabilidad para F más pequeña. Este método no es muy útil si se utiliza un solo bloque. si esa probabilidad es suficientemente pequeña. Generalmente es se refiere a ella como “Y” en la literatura. 142 . Las variables ya introducidas en la ecuación de regresión se eliminan de ella si su probabilidad para F llega a ser suficientemente grande.

El proceso se repite hasta que ya no queden variables fuera del modelo que satisfagan el criterio de selección. 143 . hacia atrás y hacia adelante se pueden configurar en la casilla “Opciones”. Los criterios de eliminación y selección mencionados en los métodos por pasos. El proceso se repite hasta que ya no queden variables en el modelo que satisfagan el criterio de eliminación. La primera variable a considerar es aquella que presenta la mayor correlación parcial con la variable dependiente.  Usar valor de F: Una variable se introduce en el modelo si su valor de F es mayor al valor de entrada y se elimina si su valor de F es menor que el valor de salida. Si satisface el criterio. El programa ya viene con valores por defecto para estas opciones. ingresara el modelo. Si satisface el criterio. Aquella variable que tenga la menor correlación parcial con la variable dependiente será la primera en ser considerada para su eliminación.  Probabilidad de F: Una variable se introduce en el modelo si su nivel de significación es menor al valor de entrada y se elimina si su significación del valor de F es mayor que el valor de salida. Aparecerá el siguiente cuadro: VENTANA DE OPCIÓNES REGRESIÓN LINEAL Podemos elegir utilizar o la probabilidad de F (significación) o el valor de F para los criterios de entrada y salida de variables.  Eliminación hacia atrás: Procedimiento en el que se introducen todas las variables al modelo y luego se van eliminando una por una. será eliminada. Selección hacia adelante: Aquí se tiene primero el modelo sin variables y luego se van considerando una por una para ser introducidas en el mismo. Se debe establecer un valor de F mayor para la entrada que para la salida y utilizar dos valores positivos.

X1. X3 TABLA 1: RESULTADOS MODELO REGRESIÓN LINEAL SPSS. ya que la interpretación de los resultados de un modelo con o sin intercepto no son comparables. Tenemos las siguientes opciones:  Excluir casos según lista: Solo se incluirán en el análisis los casos con valores validos para todas las variables  Excluir casos según pareja: Los casos con datos completos para la pareja de variables correlacionadas se utilizan para calcular el coeficiente de correlación en el cual se basa el análisis de regresión. Se debe escoger la variable que queremos utilizar para discriminar la selección y luego establecemos la regla. sustituyendo las observaciones perdidas por la media de la variable. Resumen del modelo R cuadrado Error típ. Una ecuación sin constante (sin intercepto) pasa por el origen. al apretar aceptar en la pantalla de resultados aparecerá: Variables introducidas/eliminadas Variables Variables Modelo introducidas eliminadas Método 1 X4. que fueron mencionados en la primera parte. Generalmente no se acostumbra a utilizar esta opción. X3a . X4.543 -.También en podemos elegir si queremos incluir o no la constante en la ecuación.737a . Introducir a.98324 a. Teniendo esto se puede especificar el modelo. Variables predictoras: (Constante). Todas las variables solicitadas introducidas.  Remplazar por la media: Se emplean todos los casos en los cálculos.829 . de la Modelo R R cuadrado corregida estimación 1 .  Variable de selección: es posible establecer una regla de selección para que se escojan solo algunas observaciones. (FUENTE: ELABORACIÓN PROPIA) En resumen del modelo observamos los valores R y R 2 que son los coeficientes de determinación. De igual forma. X1. los cuales nos permiten ver cuánto se explica del 144 . podemos elegir como queremos que se traten los valores perdidos de las variables.

459 2. (Constante) -35.909 X3 8. En t se ve el valor t de cada parámetro y en Sig esta el valor p de la prueba de hipótesis por cada uno. como se ve. donde el valor p es menor a 0. el cual se compara con el nivel de significación que se requiere (generalmente es 0.516X3 – 7. Variables predictoras: (Constante).05). 145 . además de esto nos da la significación o el valor p (También llamado p-value) este nos sirve para poder comparar las dócimas sin tener que calcular los estimadores. mientras menor sea es mejor.158 . X4. la hipótesis nula solo se rechaza en X1.971 -1.455 . -.516 X4 -7.382 . Regresión 1.396 .967 Total 2.017 tipificados Beta t Sig.737 -.641 .066 + 0.535 .732 . En este caso se muestra un valor p bastante alto (0.comportamiento de las variables el modelo. Variable dependiente: Y TABLA 3: RESULTADOS MODELO REGRESIÓN LINEAL SPSS. X1. Coeficientesa Coeficientes Coeficientes no estandarizados Modelo 1 B Error típ.066 55. Variable dependiente: Y TABLA 2: RESULTADOS TABLA ANOVA SPSS. (FUENTE: ELABORACIÓN PROPIA) Aquí se nos muestra la tabla Anova explicada en el capítulo III.017X4.05.632 . (FUENTE: ELABORACIÓN PROPIA) Siendo en la última tabla en coeficientes la que nos muestra los betas de la regresión en Coeficientes no estandarizados.459X1 + 8.790 Residual .000 18.487 a.114 4 a a.728 6. El valor p es la probabilidad de rechazar la hipótesis nula cuando esta es verdadera.042 .3% dado por el R2. en este caso sería un 54.146 .497 X1 .79) por lo cual no se puede rechazar la hipótesis nula del estadístico F.147 3 .967 1 . B en este caso sería Y = -35. X3 b. b ANOVA Suma de Modelo 1 cuadrados Gl Media cuadrática F Sig.

multicolonealidad y autocorrelación. se entra en “Gráficos”. para comprobar la no existencia de heterocedasticidad. Heterocedasticidad En SPSS se pueden hacer gráficos de los residuos para poder hacer el análisis de residuos: GRÁFICOS DE RESIDUALES SPSS Para obtenerlos.Análisis de los residuos Para que una regresión sea significativa hay que hacer un análisis de residuos en ella. que está en las opciones de la regresión lineal. Así se pueden obtener estos y un histograma. GRÁFICOS REGRESIÓN LINEAL. SPSS 146 .

 *SDRESID: Residuales estudentizados eliminados. SPSS Multicolonealidad Para hacer pruebas de multicolonealidad en SPSS se hace un análisis de colinealidad que se puede hacer entrando en “Estadísticos” de la ventana de Regresión Lineal.Siendo estos:  DEPENDNT: Variable dependiente.  *ZRESID: Residuales tipificados. Al entrar en análisis en la regresión se aprieta en “Guardar”.  *SRESID: Residuales estudentizados. También se pueden obtener el valor de los residuos tipificados o no en el SPSS. ahí nos mostrará la siguiente ventana: RESIDUOS Y RESIDUOS TIPIFICADOS.  *DRESID: Residuales eliminados. 147 .  *ZPRED: Valores pronosticados tipificados.  *ADJPRED: Valores pronosticados corregidos.

X1 b. que saldrá en esta tabla: DIAGNOSTICO DE COLINEALIDAD PANTALLA DE RESULTADOS SPSS Se ven los índices de condición mayores que 30.094 b . Siendo los criterios para ver la autocorrelación los siguientes: 148 1. la cual al ser seleccionada en la ventana de estadísticos aparece en el resumen de la regresión: Resumen del modelo Modelo 1 R R cuadrado Error típ. Variable dependiente: Y TABLA 44: RESULTADOS MODELO REGRESIÓN LINEAL SPSS.DIAGNOSTICO DE COLINEALIDAD SPSS Con esto se puede calcular el FIV. Graficar los residuos (Explicado en la parte de heteroestacidad) y la dócima de DW.83573 a.322 Durbin-Watson . para estos si alguna de las proporciones de la varianza es mayor que 90%. de la corregida estimación R cuadrado a .935 . Variables predictoras: (Constante).009 -. significa que hay colinealidad. Autocorrelación Para detectar la autocorrelación en el SPSS se tienen dos herramientas principalmente en lo que es regresión lineal.

34 2.078 1.2.1. en el software SPSS.4 Correlación Positiva Incierta Nula Incierta Negativa Análisis de residuos Todos lo explicado en el capítulo 3.Entre 0 . VENTANA PARA GUARDAR DATOS.66 1.922 2.922 .078 .1. REGRESIÓN LINEAL SPSS Por el cual se termina mostrando: 149 .34 2.66 . para análisis de residuos puede encontrarse en la opción Regresión lineal: Guardar.

998 1.168 Máximo 49.005 294 N 294 294 a.3397 -2.65010 3. Es suficiente con evaluar si el valor máximo y/o mínimo de las medidas de alejamiento o influencia superan los umbrales establecidos. GRÁFICOS REGRESIÓN LINEAL.000 .001 .000 Desv iación típ. No es necesario para saber si hay casos atípicos o influyentes listar todos esos valores.440 Media 24.258 11.663 -2.701 2.97624 -2.192 3. En este caso no parece que haya ningún caso claramente influyente.000 38.5264 24. Dist .286 294 8. SPSS 150 .513 .33554 3.001 .007 294 294 294 294 294 294 294 .00000 .27098 -2.98817 .003 .a Estadísticos sobre los residuos Valor pronosticado Valor pronosticado tip. de Mahalanobis Dist ancia de Cook Valor de inf luencia centrado Mínimo 8. Error típico del v alor pronosticado Valor pronosticado corregido Residuo brut o Residuo t ip. Residuo eliminado Residuo eliminado est ud.000 .835 .004 11.002 12.948 . Residuo estud.000 . un gráfico de puntos o un gráfico de dispersión colocando el número del caso (filas de la matriz de datos) en el eje de abscisas y las medidas de alejamiento o de influencia en el eje de ordenadas.559 .040 .8464 3.205 38.39960 294 -31.997 . 7.675 -32. En tal caso conviene realizar un histograma.000 -.050 .07426 1.3848 7.704 .006 1. La tabla “Estadísticos sobre los residuos” nos ofrece información del rango.40139 1. tendencia central y dispersión de las variables que hemos creado con objeto de identificar casos alejados y/o influyentes.00046 . Variable dependiente: estrés total ESTADÍSTICOS SOBRE LOS RESIDUOS SPSS.3844 .4853 50.

151 .6 0. 998 N =294 Regresión Residuo tipificado HISTOGRAMA RESIDUOS. Estos gráficos de residuos frente a puntuaciones ajustadas son los que proporcionan más información acerca del cumplimiento de los supuestos del modelo y juegan un papel fundamental en la identificación de valores alejados e influyentes.0 0. SPSS. Estos gráficos nos permiten.6 0. valorar el cumplimiento del supuesto de normalidad en los residuos.0 Prob acum esperada 0.8 1.Es útil realizar el gráfico de dispersión de los residuos estandarizados frente a las puntuaciones ajustadas estandarizadas (pronósticos estandarizados). Además del gráfico de dispersión.8 0.4 0. hemos seleccionado el histograma y el gráfico de probabilidad normal. No obstante. se puede realizar una prueba de significación que elimine la ambigüedad inherente a la inspección visual.6E-16 Desviación típica =0. mediante inspección visual.2 0. SPSS Gráfico P-P normal de regresión Residuo tipificado Variable dependiente: estrés total 1. Histograma Variable dependiente: estrés total 50 Frecuencia 40 30 20 10 0 -3 -2 -1 0 1 2 3 4 Media =1.4 0.2 0.0 0.0 Prob acum observada GRÁFICOS DE PROBABILIDAD NORMAL DE RESIDUOS.

Comparando la curva normal con la distribución empírica en el histograma y evaluando el alejamiento de los puntos representados en el segundo gráfico con respecto a la diagonal. En la medida en que aparezcan tendencias curvilíneas en el gráfico. Por último el gráfico de dispersión de residuos frente a puntuaciones ajustadas. Podemos concluir que no existen grandes desviaciones de la curva normal. el modelo utilizado sería incorrecto. SPSS. 152 . Con este gráfico podemos evaluar errores en la especificación del modelo por incumplimiento del supuesto de linealidad. Los gráficos histograma y gráfico P-P normal de regresión nos permiten valorar el alejamiento del supuesto de normalidad.Gráfico de dispersión Variable dependiente: estrés total Regresión Residuo tipificado 4 3 2 1 0 -1 -2 -3 -3 -2 -1 0 1 2 3 4 Regresión Valor pronosticado tipificado GRÁFICO DE DISPERSIÓN DE RESIDUOS.

DEFINIR FECHAS . Después de esto aparecerán nuevas columnas en el editor de datos. nos dirá que definamos como son los casos. Al elegir el tipo de caso nos pedirá que definamos la fecha del primer caso. DEFINIR SPSS > Crear FECHAS - 153 . En la ventana para definir fechas. el SPSS nos da distintas opciones.Anexo 2: Análisis de Series de Tiempo en el Software SPSS Para estimar modelos de serie de tiempo en el SPSS primero es conveniente definir las fechas de estas.SPSS Tras esto entramos a crear modelos en Analizar > Predicciones modelos para crear nuestra serie temporal. Con estas el programa podrá saber las fechas de cada dato. Aunque no es necesario completamente si puede ayudar a usar opciones en los modelos de las series de tiempo. especialmente cuando se quieren crear predicciones.

o Tendencia lineal de Brown. que se asumen iguales. Entre los modelos que se puede elegir en SPSS son: Suavizamiento exponencial:  No estacional: o Simple. El modelo de suavizado exponencial de Holt es muy similar a un modelo ARIMA con cero órdenes de autorregresión. o Tendencia lineal de Holt. El modelo de Holt es más general que el modelo de Brown pero puede llevar más tiempo de computación con series largas.SPSS Aquí podemos escoger el método en que queremos que el programa modele la serie de tiempo el cual puede ser autorregresivo integrado de media móvil (ARIMA) o un modelo suavizado exponencial. Sus parámetros de suavizado son el nivel y la tendencia. Este modelo es adecuado para las series con una tendencia lineal y sin estacionalidad. Otra posibilidad consiste en especificar un modelo ARIMA o de suavizado exponencial personalizado. El modelo de suavizado exponencial de Brown es muy similar a un modelo ARIMA 154 . Este modelo es adecuado para las series en las que no existe tendencia o estacionalidad. El suavizado exponencial simple es el más similar a un modelo ARIMA con cero órdenes de autorregresión. un orden de media móvil y sin constante. Su único parámetro de suavizado es el nivel. También existe el procedimiento de Modelizador experto que identifica y estima automáticamente el modelo ARIMA o de suavizado exponencial eligiendo el que mejor se ajuste para una o más series de variables dependientes. Sus parámetros de suavizado son el nivel y la tendencia. el modelo de Brown es un caso especial del modelo de Holt. un orden de diferenciación. y sus valores no se restringen mutuamente. lo que elimina la necesidad de identificar un modelo adecuado mediante ensayo y error. Este modelo es adecuado para las series con una tendencia lineal y sin estacionalidad. Por ello. dos órdenes de diferenciación y dos órdenes de media móvil.MODELIZADOR DE SERIES TEMPORALES .

Sus parámetros de suavizado son el nivel. la tendencia y la estación. un orden de diferenciación. Tendencia amortiguada. Sus parámetros de suavizado son el nivel. donde p es el número de períodos contenidos en un intervalo estacional (para los datos mensuales.q) en donde: o p: Autorregresión o d: Integración o Diferenciación o q: Media Móvil 155 . El modelo de suavizado exponencial simple estacional es muy similar a un modelo ARIMA con cero órdenes de autorregresión. un orden de diferenciación estacional y p +1 órdenes de media móvil. la tendencia y la estación. con el coeficiente para el segundo orden de media móvil igual al cuadrado de la mitad del coeficiente de primer orden. dos órdenes de diferenciación y dos órdenes de media móvil. El modelo de suavizado exponencial aditivo de Winters es muy similar a un modelo ARIMA con cero órdenes de autorregresión. El suavizado exponencial amortiguado es muy similar a un modelo ARIMA con un orden de autorregresión. Estacional: o o o Simple estacional: Este modelo es adecuado para series con tendencia y un efecto estacional que es constante a lo largo del tiempo. la tendencia y la amortiguación de la tendencia.d. Sus parámetros de suavizado son el nivel. Este modelo es adecuado para las series con una tendencia lineal que va desapareciendo y sin estacionalidad. El modelo de suavizado exponencial multiplicativo de Winters no es similar a ningún modelo ARIMA. un orden de diferenciación y dos órdenes de media móvil. De Winters aditivo: Este modelo es adecuado para las series con tendencia lineal y un efecto estacional que no depende del nivel de la serie. De Winters multiplicativo: Este modelo es adecuado para las series con tendencia lineal y un efecto estacional que depende del nivel de la serie. ARIMA: Un modelo ARIMA es un modelo dinámico de series de tiempo. p = 12). Sus parámetros de suavizado son el nivel y la estación. un orden de diferenciación estacional y órdenes demedia móvil 1. donde p es el número de períodos contenidos en un intervalo estacional (para datos mensuales p = 12). un orden de diferenciación. p y p + 1. ARIMA es un modelo (p.o  con cero órdenes de autorregresión. es decir las estimaciones futuras vienen explicadas por los datos del pasado y no por variables independientes.

Anexo 3: Análisis de Clúster en el Software SPSS
El programa SPSS dispone de dos tipos de análisis de conglomerados: El
análisis de conglomerados jerárquico y el análisis de conglomerados de K
medias. El método jerárquico es idóneo para determinar el número óptimo de
conglomerados existentes en los datos y el contenido de los mismos. El método
de K medias permite procesar un número ilimitados de casos, pero solo permite
utilizar un método de aglomeración y requiere que se proponga previamente el
número de conglomerados que se desea obtener.
Nos vamos a “Analizar -> Clasificar -> Conglomerados Jerárquicos”
Se abrirá la siguiente ventana:

VENTANA SPSS ANÁLISIS CLUSTER

Variables: El primer paso es elegir el conjunto de variables para realizar el
análisis. El conjunto de variables seleccionado debe describir la similitud entre
los objetos en términos relevantes para el problema que se desea estudiar.
También se puede etiquetar las variables con alguna otra variable del archivo
de datos.
Estadísticos: Aquí se pueden pedir tablas que describan el proceso de diferentes
formas. Él Historial de conglomeración que nos dice como fueron formados los
conglomerados o la matriz de distancias que es la que nos da las distancias
entre cada dato, lo cual es lo que se usa para hacer los conglomerados.
Gráficos: Aquí se pueden pedir los diferentes gráficos que sirven para el
análisis de los conglomerados. Como el Dendograma y el gráfico de Témpanos.
Método: Aquí se puede seleccionar el método que se utilizara para realizar los
conglomerados, como también la medida de distancia que se utilizara.
Guardar: Aquí podremos elegir si queremos guardar los conglomerados
resultantes. Sin embargo, aquí necesitamos ingresar un número de
conglomerados. Si no conocemos este número, es mejor hacer el análisis

156

primero, y después, cuando se pueda inferir con los resultados el número de
conglomerado optimo, realizarlo nuevamente ingresando aquí este número.
Volviendo a la ventana principal de conglomerados jerárquicos, verificaremos
que estén marcadas las casillas de visualización para estadísticos y gráficos.
Luego damos clic en aceptar. En la ventana resultado se presentaran 4
elementos principales de los resultados.
Resumen de los casos. No siempre se pueden tomar los valores de la muestra
completa como se ve en el ejemplo porque puede un caso tener un valor
perdido o ausente para alguna variable, por lo que será descartado por el
análisis.
Resumen del procesamiento de los casos

a,b

Casos
Válidos
N

Perdidos

Porcentaje
15

N

100,0

Total

Porcentaje
0

N

,0

Porcentaje
15

100,0

a. distancia euclídea al cuadrado usada
b. Vinculación promedio (Inter-grupos)

Historial de conglomeración
Etapa en la que el conglomerado
Conglomerado que se combina
Etapa

Conglomerado 1 Conglomerado 2

aparece por primera vez
Coeficientes

Próxima

Conglomerado 1 Conglomerado 2

etapa

1

72

146

,000

0

0

2

2

72

231

25,000

1

0

7

3

117

178

36,000

0

0

5

4

126

181

2885,000

0

0

8

5

117

336

9874,000

3

0

6

6

117

275

19873,000

5

0

8

7

72

174

69023,333

2

0

10

8

117

126

141724,500

6

4

11

9

171

209

168325,000

0

0

12

10

72

145

360497,500

7

0

12

11

117

333

519727,333

8

0

14

12

72

171

1990572,900

10

9

13

13

20

72

7131117,571

0

12

14

157

Historial de conglomeración
Etapa en la que el conglomerado
Conglomerado que se combina
Etapa

Conglomerado 1 Conglomerado 2

aparece por primera vez
Coeficientes

Próxima

Conglomerado 1 Conglomerado 2

etapa

1

72

146

,000

0

0

2

2

72

231

25,000

1

0

7

3

117

178

36,000

0

0

5

4

126

181

2885,000

0

0

8

5

117

336

9874,000

3

0

6

6

117

275

19873,000

5

0

8

7

72

174

69023,333

2

0

10

8

117

126

141724,500

6

4

11

9

171

209

168325,000

0

0

12

10

72

145

360497,500

7

0

12

11

117

333

519727,333

8

0

14

12

72

171

1990572,900

10

9

13

13

20

72

7131117,571

0

12

14

11

0

14

20
117
1,096E7
13
RESULTADOS CONGLOMERADOS ANÁLISIS CLUSTER, SPSS.

Cuando ya se obtiene el número de conglomerados recomendado, se volverá a
hacer el análisis, pero esta vez, en la opción “Guardar”, se especificara que se
realizarán 3 conglomerados:3

VENTANA ANÁLISIS CLUSTER SPSS

3

Ver detalles de eso en Capítulo 4

158

ANÁLISIS CLÚSTER. y se arrastra al diagrama de arriba. ANÁLISIS CLÚSTER SPSS Después de esto se puede realizar un grafico para ver como se agruparon los datos. 159 .Al realizar el análisis. del menú de la izquierda. En “Gráficos -> Generador de gráficos” se puede realizar un grafico de dispersión. SPSS En (4) se debe elegir. se verá que aparece una nueva columna en el conjunto de datos en la cual cada dato que este en ese clúster tendrá un número específico: NUEVA VARIABLE. utilizando la nueva variable para clasificar los datos: 1 2 3 4 GRÁFICO DE DISPERSIÓN ANÁLISIS CLUSTER. Para elegir este grafico. que corresponde a un grafico de dispersión con distintas capas. los gráficos de dispersión. se debe escoger el que se muestra en la foto (3). se selecciona con clic. En las opciones de esta selección.

En el eje vertical (1) y en el horizontal (2). ANALISIS CLUSTER 160 . se graficara dos variables a analizar.Aquí. Por último. arrastrar las variables del menú de la izquierda a las distintas casillas. se debe agregar la variable creada por el análisis de clúster. de la misma manera. al cuadro de la esquina superior derecha. se debe. se realizara el grafico: GRÁFICO DE DISPERSIÓN. Una vez hecho esto.

sea este un nodo para generar un modelo. Lo que está encerrado en el cuadrado dos es la ventana que nos muestra los nodos disponibles en el programa. para mostrar resultados. En ella se ponen los nodos. etc. Con un diseño que sigue el modelo CRISP-DM. en este caso la versión 11. Dentro del cuadrado uno está la ventana que nos muestra los nodos y las diferentes rutas que generamos con él. se mueven en forma gráfica a libertad y al hacerles doble clic se entrar a la configuración de este. donde cada nodo es un proceso del proyecto. El Clementine ocupa una lógica de nodos.Anexo 4: Software SPSS Clementine SPSS Clementine (Clementine desde ahora) es un conjunto de programas de minería de datos que permite desarrollar rápidamente modelos predictivos. 1 3 2 2 VENTANA DE USUARIO SPSS CLEMENTINE En la ilustración anterior es una foto de pantalla de lo que es el SPSS Clementine. los cuales están divididos en: 161 . Para ejecutar las rutas hechas solo hay que presionar en ejecutar dentro de las opciones de los nodos o en los botones con flechas verdes que están en la parte superior del cuadro rojo.1.

Nodos Gráficos: Nodos que sirven para mostrar diferentes tipos de gráficos de las variables 5. 3. unir registros de diferentes orígenes. Nodos Modelado: Aquí están todos los nodos que generan modelos que contiene el Clementine. Con dos opciones. Nodos Operaciones con campos: Nodos que permiten trabajar más a fondo con los datos. Finalmente. Nodos Operaciones con registros: Nodos que sirven para muestrear datos. etc.1. 2. el cuatro esta una ventana que nos ofrece Clementine para ordenar los archivos de proyecto. entre ellos archivos Excel y SPSS. seleccionar datos. Nodos Resultado: Nodos que muestran diferentes análisis de los resultados de cierto modelo u de una base de datos dada. Todos estos nodos tienen diferentes requisitos para ser usados que están bien explicados en el manual de referencia de nodos que viene con el programa. Se puede exportar a diferentes archivos. Se puede importar de diferentes tipos de base de datos hasta archivos Excel o SPSS. ver los archivos ordenados a través de la metodología CRISP-DM o por clases o tipos de archivos que uno genera en el programa. Pueden mostrar diferentes estadísticos dependiendo el tipo de variable que se tenga o generar informes personalizados. las diferentes ventanas de resultado y los modelos generados. 7. 162 . cambiando datos. etc. Nodos Orígenes: Estos nodos sirven para importar datos al programa. Los nodos de modelos generados aparecen cuando se ejecuta algún nodo de modelado. Nodos Exportar: Nodos que crean archivos externos al Clementine para guardar los resultados. El tres es la ventana donde se muestran las rutas o distintos archivos de rutas que hemos abierto. 4. 6. partiendo datos en distintos grupos.

disponible en el nodo red neuronal. 163 . contiene el tipo de red Perceptron multicapa. al ser de entrenamiento supervisado aprende según los resultados que se le da. Además. una de entrenamiento no supervisado los mapas de Kohonen y una de entrenamiento supervisado.Anexo 5: Redes neuronales artificiales en el software SPSS Clementine El Clementine ofrece dos tipos de red neuronal. Esto último permite que la red pueda predecir modelos que no necesariamente estén entre 0 y 1. tiene opciones para evitar el sobreentrenamiento de esta. Perceptron multicapa. Las características principales de la red son: P(t) FUNCIÓN SIGMOIDE Función de activación: Función sigmoidea en las capas ocultas y función identidad en las capas de salida. al ser una red es de entrenamiento no supervisado hace clasificaciones y busca redundancias dentro de los datos. este nodo no solamente hace el proceso de aprendizaje. como anteriormente se dijo. La red Kohonen se encuentra en el nodo Kohonen. La red Perceptron multicapa. que son los límites de la función sigmoidea. sino que también tiene varios métodos de entrenamiento que permiten elegir el tamaño de red más adecuado. Nodo red neuronal El nodo red neuronal.

Opciones. Esto produce diferencias entre redes entrenadas con los mismos conjuntos de datos y la misma estructura. se defina las variables objetivo y las entradas. Las variables objetivo son las que se quiere predecir y las de entrada son las que uno usa para predecir. cuando se detiene el entrenamiento y que uno prefiere optimizar en el computador. Si esto no se hace el nodo red neuronal no funcionará. Modelo.  Campos: Aquí uno puede definir las variables objetivo y las variables de entrada. También se puede seleccionar la opción de usar la configuración del nodo tipo. El método. Este algoritmo es básicamente que el error de las salidas finales se propaga hacía atrás de la red ponderado por los pesos de cada entrada.Algoritmo de entrenamiento: Retro propagación o Regla delta generalizada. Esta formula puede cambiar según versión que se use del Clementine. NODO RED NEURONAL SPSS CLEMENTINE El nodo red neuronal tiene varias opciones. Lo importante es que en alguna parte. VENTANA DE EDICIÓN. A pesar de esto.  Modelo: En esta opción uno define las propiedades principales del entrenamiento. El algoritmo busca minimizar de la gradiente de los pesos. sea en el nodo tipo. en la misma red neuronal o en el nodo donde se importan los datos. algo que puede generar mínimos locales o máximos locales. 164 . divididas en cinco partes: Campos. En los métodos de entrenamiento el Clementine nos ofrece: o Rápido: Este método utiliza reglas de miniaturas y características de los datos para seleccionar una forma adecuada (Topología) para la red. generalmente los resultados no deberían tener diferencias significativas. Experto y Anotaciones.

Tenga en cuenta que este método puede necesitar mucho tiempo para realizar entrenamientos. se entrenan estas redes de acuerdo con un procesamiento en seudoparalelo. Se inicia con una red de gran tamaño y poda las unidades más débiles de las capas ocultas y de entrada según se va completando el entrenamiento. Para hacer que estos se visualicen hay que marcarlos aquí. Múltiple: Este método crea varias redes de distintas topologías (el número exacto depende de los datos de entrenamiento). Aunque por lo general este método es el más lento. Para más detalle de los métodos se pueden ver en el Manual de Algoritmos que trae el Clementine. RBFN: La red de función de base radial (RBFN) utiliza una técnica similar al conglomerado de K-Medias para crear una partición de los datos basándose en valores del campo objetivo. Poda exhaustiva: Este método está relacionado con el método de poda. añade o elimina unidades ocultas y modifica esta topología. se presenta como modelo final el modelo con el nivel inferior de error cuadrático medio.  Experto: Los métodos de entrenamiento que tiene el Clementine traen opciones por defecto. Como hacer una red neuronal en SPSS Clementine Entrenamiento 1 2 3 4 165 . Poda exhaustiva selecciona los parámetros de entrenamiento de red para garantizar una búsqueda exhaustiva de los posibles modelos para seleccionar el más adecuado. Al final del entrenamiento. especialmente con conjuntos de datos de gran tamaño. según avanza el entrenamiento. pero si se estima que estas opciones no son suficientes se pueden cambiar aquí. Poda: Este método se inicia con una red de gran tamaño y elimina (o poda) las unidades más débiles de las capas ocultas y de entrada según se va completando el entrenamiento. Lo que se visualice dependerá del método de entrenamiento seleccionado. muchas veces genera los mejores resultados.  Opciones: Clementine ofrece varios análisis del entrenamiento como gráficos que nos muestran el desempeño mientras la red se entrena. muchas veces genera resultados mejores que otros métodos. Aunque por lo general este método es lento. A continuación.o o o o o Dinámico: Este método crea una topología inicial aunque.

SPSS CLEMENTINE 1. aquí se puede escoger que variables se quiere que importen. donde se ve el archivo de origen y que parte de él se quiere importar. VENTANA NODO ORIGEN.  Filtro. 166 . El grupo de entrenamiento. que es usado para ver el comportamiento de una red neuronal con datos que no pertenecían al grupo principal. haremos como si fueran tres grupos de datos los que se usarán. Importar los datos: Sea de SPSS. el grupo de comprobación. Excel o cualquier otro tipo de archivo de base de datos. que se usará para entrenar la red. Después tener todo eso y ordenarlos en una base de datos (Sea SPSS. En este ejemplo. es imprescindible exportar los datos. Excel o cualquiera que acepte el Clementine). Los nodos de origen tienen 4 campos principalmente  Datos. que se usará para comprobar si los datos dentro del rango de la red y el grupo de validación.5 Comprobación 6 Validación 7 RUTA PARA GENERAR REDES NEURONALES EN EL SPSS CLEMENTINE Para hacer una red neuronal se necesita primero definir cuales serán los grupos de datos y variables con que se entrenaran. Muy útil si la base de datos tiene muchas variables que no se usarán en el análisis.

167 . Esto no es necesario hacerlo en este nodo. como se ha dicho anteriormente. Definir tipo de variable: Dada la importancia de definir el tipo de variable para realizar la red se ha puesto un nodo tipo para representar este paso. VENTANA NODO TIPO. como se ve en la imagen en la columna dirección. Si es que estos variables tipo razón. ordinales. texto anexo que se quiera agregar. Lo necesario para la red neuronal es definir las variables entradas y las salidas. a pesar de que se puede definir. en el nodo de importar datos y en el nodo del entrenamiento. Anotaciones. SPSS CLEMENTINE 2.  Tipos. etc. donde se puede definir el tipo de cada variable.

Esta servirá para definir en el nodo seleccionar porque parte de la ruta se irán. En este nodo uno puede definir que porcentaje de datos quedarán en cada grupo que saldrá del nodo. 5. 168 . VENTANA NODO SELECCIONAR SPSS CLEMENTINE 4. Dividir las variables: Después se tiene repartir los datos en dos o tres grupos. se entrena la red con el nodo red neuronal con las opciones que se prefieran. Entrenar la red: Después de esto. Tras esto se pueden agregar distintos nodos de resultado según se estime conveniente. explicadas anteriormente.VENTANA NODO PARTICIÓN SPSS CLEMENTINE 3. Para definir por donde saldrá cada uno se da una etiqueta en donde dice “Valor”. en esto se ocupa el nodo partición. Aplicar modelo al grupo de comprobación: En el paso 5 sacamos el nodo del modelo generado de la pantalla de modelos y lo conectamos al nodo seleccionar.

Aplicar modelo al grupo de validación: Importamos otra base de datos con variables que separamos para el grupo de validación.6. También se puede hacer de la misma forma si se quiere hacer alguna predicción. 169 . Estas no necesitan ser especificadas para entrada o salida pero si tener el mismo nombre.

Los tipos de los campos utilizados en el modelo deben estar completamente instanciados y cualquier campo ordinal que se utilice en el modelo debe disponer de almacenamiento numérico (no en cadena). Hay cuatro algoritmos disponibles en Clementine para realizar un análisis de segmentación y clasificación. Si lo considera necesario. dividiendo los subgrupos en unidades cada vez más pequeñas hasta completar el árbol (según se defina determinados criterios de parada). El nodo de árbol de clasificación y regresión genera un árbol de decisión que permite pronosticar o clasificar observaciones futuras. Se ignorarán los campos establecidos en Ambos o Ninguno. que son diferentes algoritmos que hacen árboles de decisión. Todas las divisiones son binarias (sólo se crean dos subgrupos). Los campos objetivo y predictor pueden ser de rango o categóricos. se precisan uno o varios campos de entrada y exactamente uno de salida. Lo único que cambia es el nodo de entrenamiento. Los campos objetivo y predictor pueden ser de rango o categóricos. Todos estos algoritmos son básicamente similares: examinan todos los campos de la base de datos para detectar el que proporciona la mejor clasificación o pronóstico dividiendo los datos en subgrupos. especialmente en lo que es la generación de los grupos de entrenamiento y comprobación. El proceso se aplica de forma recursiva. utilice a continuación el nodo Reclasificar para realizar las 170 . El método utiliza la partición reiterada para dividir los registros de entrenamiento en segmentos minimizando las impurezas en cada paso.Anexo 6: Árboles de Decisión en el Software SPSS Clementine RUTA ARBOL DE DECISIÓN – SPSS CLEMENTINE Hacer un árbol de decisión en clementine es muy parecido a las redes neuronales descritas anteriormente.  Requisitos: Para entrenar un modelo de Árbol C&R. donde un nodo se considera “puro” si el 100% de los casos del nodo corresponden a una categoría específica del campo objetivo.

CHAID puede generar árboles no binarios. Los nodos pueden dividirse en dos o más subgrupos en cada nivel.0.conversiones. utilice a continuación el nodo Reclasificar para realizar las conversiones. CHAID puede generar árboles no binarios. A diferencia de los nodos C&RT y QUEST. Además. Los campos objetivo y predictor pueden ser de rango o categóricos. los modelos de Árbol C&R suelen ser más fáciles de comprender que algunos tipos de modelos: la interpretación de las reglas derivadas del modelo es muy directa. A diferencia de C5. lo que significa que algunas divisiones generarán más de dos ramas. El nodo CHAID genera árboles de decisión utilizando estadísticos de chicuadrado para identificar las divisiones óptimas.  Puntos fuertes. CHAID admite todos los tipos de predictores y acepta tanto variables de frecuencia como ponderaciones de casos. A diferencia de los nodos C&RT y QUEST.  Puntos fuertes: Los modelos de Árbol C&R son bastante más robustos cuando aparecen problemas como datos perdidos y un número elevado de campos. está diseñado para reducir el tiempo de procesamiento necesario para realizar los análisis de C&RT y reducir la tendencia de los 171 .  Requisitos. lo que significa que algunas divisiones tendrán más de dos ramas. aunque necesita más tiempo para realizar los cálculos. Por lo general no precisan de largos tiempos de entrenamiento para calcular las estimaciones. Árbol C&R puede adaptar rangos numéricos como campos de salida categóricos. Si lo considera necesario. Es por ello que tiende a crear un árbol más extenso que los métodos de desarrollo binarios. El nodo QUEST proporciona un método de clasificación binario para generar árboles de decisión. Los campos objetivo y predictor pueden ser de rango o categóricos. Todos los campos ordinales utilizados en el modelo deben disponer de almacenamiento numérico (no en cadenas). Consulte Nodo Reclasificar si desea obtener más información. CHAID exhaustivo es una modificación de CHAID que examina con mayor precisión todas las divisiones posibles.

Esto contrasta con los casos de CHAID. donde el resultado de la comprobación de estadísticos que determina la selección de variables también genera la división. El nodo C5. Se permiten varias divisiones en más de dos subgrupos. QUEST utiliza comprobaciones estadísticas para decidir si se ha de utilizar un predictor o no.0 suelen ser más fáciles de comprender que algunos tipos de modelos. los modelos C5. Además. sin embargo el campo objetivo debe ser categórico. se precisa un campo de entrada y uno o varios campos de salida simbólicos.  Puntos fuertes. Si lo considera necesario.  Requisitos.  Requisitos. Los campos predictores pueden ser rangos numéricos. utilice a continuación el nodo Reclasificar para realizar las conversiones.métodos de clasificación de árboles para favorecer a los predictores que permitan realizar más divisiones.0 genera un árbol de decisión o un conjunto de reglas. ya que la interpretación de las reglas derivadas del modelo es muy directa. Por lo general no precisan de largos tiempos de entrenamiento para calcular las estimaciones. Los modelos C5. C5.0 también ofrece el eficaz método del aumento para obtener una mayor precisión en tareas de clasificación. Al igual que CHAID (pero a diferencia de C&RT). 172 . Los campos predictor pueden ser rangos numéricos. El modelo divide la muestra basándose en el campo que ofrece la máxima ganancia de información en cada nivel. Para entrenar un modelo C5.0 son bastante más robustos cuando aparecen problemas como datos perdidos y un número elevado de campos de entrada. De un modo similar. El campo objetivo debe ser categórico. C&RT emplea la medida de impureza-cambio tanto para seleccionar la variable predictora como para determinar la división. sin embargo el campo objetivo debe ser categórico. Los tipos de los campos utilizados en el modelo deben estar completamente instanciados.0. Todas las divisiones son binarias.  Puntos fuertes. No podrá utilizar los campos de ponderación. Se ignorarán los campos establecidos en Ambos o Ninguno. y aplica criterios distintos a ambos casos. Todas las divisiones son binarias. Todos los campos ordinales utilizados en el modelo deben disponer de almacenamiento numérico (no en cadenas). También separa las cuestiones relacionadas con la división y la selección de predictores.

22 -5.24 1.40 2.00 0. Antes de generar uno o varios modelos. Seleccione los campos objetivo y predictor y especifique las opciones del modelo adicionales que considere necesario.09 0.28 1.00 -0.47 0.11 1.84 5.01 6.El Generador de árboles Esta opción puede generar un modelo de árbol automáticamente.14 47281.03 0.01 1.53 39490. CHAID o QUEST.95 -0.24 1.04 1. Ejecute la ruta para abrir el generador de árboles.65 0.16 1.36 559.04 54.35 0.00 -0. WCTA CACL TSTA EBITTI TDTA TDTE OMTA ROA Si quiebra o no -0. Anexo 7: Datos Caso Quiebra Caso quiebra.43 0.46 4. Se muestra el árbol actual desde el nodo raíz. seleccione Iniciar sección interactiva.00 -0.0 no admiten la generación de árboles interactivos.00 173 .53 758.70 2.08 12.72 0.13 0.74 2.00 -4.01 -0.80 -1.74 0.24 1.00 -0.29 0. que permita al algoritmo seleccionar la división más adecuada para cada nivel.08 0.19 0.02 -43.39 0.41 1.04 0. puede editar y podar el árbol nivel a nivel y acceder a ganancias.01 1.10 -10.92 0.00 4358. riesgos e información relacionada.07 0.25 -2.76 2.16 -0.00 0.64 0. o bien.30 0.54 -0. consulte la documentación de los distintos nodos de generación de árboles.38 0. Para obtener instrucciones específicas.00 0.75 1.22 1.59 0. puede utilizar el Generador de árboles interactivos para tomar el control.00 -0.80 0.09 0.13 0.09 0.15 -0.01 -60.00 1.00 -0.50 0. (Nota: los árboles C5.01 1.11 0.64 1.52 0. Cree una ruta y añada uno de los nodos de generación de árboles C&RT.30 0.79 0.00 -0.11 2029.62 0.22 0.00 1.36 0.54 1.03 17300.13 1.46 2.17 0.35 0.02 0.77 0.01 -6.98 41.98 0.18 1.87 0.09 -0.87 0.81 0.59 0.08 0.00 -1.84 7.31 1.39 0.00 -0.46 0.41 4.03 1.87 6.10 0. árbol de decisión.) En la ficha Modelo. aplicando sus conocimientos empresariales para refinar o simplificar el árbol antes de guardar el modelo generado.03 0.00 0.09 0.

00 71349202309.47 0.01 0.27 0.02 0.89 11.22 0.00 -1.90 8.01 -5887.00 -0.80 2.95 0.40 184.09 0.02 0.00 79373597080.69 0.06 363.60 95.36 349.68 174 Cobre 110.00 36424168146.98 303. Regresión lineal múltiple.12 0.09 0.01 0.11 0.93 108.01 0.51 115.00 95652734478.70 129.13 0.00 24640912616.00 Caso PIB.15 561.-0.60 154.30 .62 0.05 0.12 1.61 0.65 93.04 0.70 107.59 0.69 0.21 0.00 75769008174.00 28385038397.04 0.11 409.43 81.00 0.71 119.94 533.05 353.36 0.00 20902096532.23 255.00 100.00 0.12 0.70 157.02 -63.00 -145.00 31558927517.04 0.04 0.00 -1.87 6.00 47693992627.03 -1.41 0.21 1.00 123055000000.50 144.01 0.02 0.73 0.12 1.96 22.00 -0.10 0.38 0.44 0.25 123.03 97.72 546.68 431.00 82808986192.01 -0.00 -0.07 0.00 0.00 94.25 -5.01 0.92 0.33 0.00 -0.57 176.77 2.00 0.01 0.00 73989608529.08 1.00 44467946384.03 0.81 5.00 68568293067.46 0.00 0.20 331.82 301.23 0.68 0.06 0.64 87.18 0.02 0.04 0.04 104.69 75.25 28.60 292.55 13.84 0.00 154670000000.50 0.03 0.00 55154226760.21 1.18 0.06 25.30 195.03 0.30 187.00 -0.01 0.71 52.00 -0.80 143.04 67.64 0.10 189.00 67265403373.02 0.63 431.15 424.25 3.00 0.49 0.00 173079000000.86 363.02 370.00 0.08 0.40 0.00 0.93 510.15 0.40 139.69 0.04 0.19 0.15 0.96 33.22 0.14 0.78 101.80 110.01 -177.52 0.13 5.50 1.14 0.04 1.00 0.93 1.53 0.00 0.36 5.63 0.44 1.98 0.00 179627000000.03 536.22 322.00 75210511780.72 3.46 1.40 0.56 0.00 -0.16 2.48 0.72 139.94 Desocupados 449.67 541.83 341.81 544.47 -5.00 IPC 21.30 0.62 1.66 3.10 0.07 0.43 0.30 161.25 2.06 1.92 10.00 72995286764.29 0.73 0.07 1.19 0.20 12.02 60.90 0.00 -0.50 156.11 602.80 204.07 0.01 0.80 103.97 0.80 328.52 0.37 0.29 128.69 0.50 0.28 548.00 0. Año 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 PIB 17722536671.38 114.89 42.67 111.09 -0.05 1.

6 62.6290 1 17.6 64.8 59.1 72.7 36.77392 6.99 534.00 142.76635 13.8 58.7 40.1 71.9 25.8 44.4 133.23452 11.5 70.5191 6 13.46485 10.18 563.4 28.1 30. Análisis Cluster Edad Fondo A Número de Saldo ahorrantes promedio Fondo B Número de Saldo ahorrantes promedio Fondo C Número de Saldo ahorrantes promedio Fondo D Número de ahorrantes Saldo promedio 15-19 231 20414 126 6540 54 1195 6 431 20-24 4122 537789 1947 108830 811 32788 114 10109 25-29 21108 4661675 8722 963323 2962 444652 525 158314 30-39 78439 52651074 36679 13447883 20576 7366291 2520 2484086 40-49 72679 117274477 19566 37342610 67000 50652600 3662 8845674 50-59 60 y más 40493 118911569 14540 55577562 59809 115545799 19851 29971745 6410 40803031 19264 88835461 40969 60211284 Edad 9932 50767031 Fondo E Número de ahorrante Saldo s promedio 15-19 54 3659 20-24 608 121063 25-29 2410 596815 30-39 9288 9162804 40-49 12092 33959731 50-59 11240 71457261 Indique en orden de importancia las tres situaciones que más le generan preocupación La Incertidumbre en la No contar con un Perder inestabilida vejez (salud.9 59.5 2010 78.4 58.9 94.1 32.40 Caso Petróleo – Serie de tiempo Enero Febrero Marzo Abril Mayo Junio Julio Agosto Septiembre Octubre Noviembre Diciembre 2000 27.6 26.7 65 65.3 2002 19.9 29.9 45.9 63.3 38 40.4 2006 65.4 2003 33 35.3 29.10 373.1 2004 34.3 81.4 27.97234 4.2 19.4185 2.1138 8 17.7 39.6 28. sistema de salud que el d económica previsión.35355 9.8 48 54.5 73.4 116.4 79.0234 13.6 75.3 31.3448 6 17.81486 3.2 53 49.7 24.00 248585000000.3 84.4 2001 29.4 75.4 76.3 30.8 33.6 19.4 2008 93 95.02 632.17458 13.9 53.2 48 49.1 62 2007 54.3 59.4 73 63.7893 13.4 2009 41.9 74.4 58.7 31.5 112.90596 2.5 26.3 60.4 28.2009 2010 2011 172591000000.14368 11.6 57.07702 11.3 29.3135 8.2 28.4 76.9 Caso APV.76 148.9 28.4 105.96278 13.9 70.7 75.78453 13.2 27.5 26.7282 11.8 31.88559 13.7 20.40 239.4 29.8 91.00 216309000000.66478 13.1 34.6 125.3 41.2 22.9 76.6 63.9 33.8 31.5 67.9 85.8 28.2 27 25.2 2005 46.83778 13.3 28.5 62.4 29.2 59.6 27.4 81.9 26.68421 14.0805 13.2 34.79 144.1 69.5 61.5 43.6 103. cubra enfermedades o La situación trabajo del hogar desamparo) accidentes económica 9.4454 175 .7 30.5 74.8 78 74.3 48.9 69.1 69.4 26.6 27.9 133.4 76.5 29.7 28.7 36.3 33.2608 17.8 56.5055 3 16.

46411 8.22697 15.com/u/12063322/Ejemplo%20%20Redes%20Neuronales%20-%20validaci%C3%B3n.dropbox.51429 15.60 y más 6955 66064499 5.75863 18.94863 17.35886 19.01984 25-29 8.com/u/12063322/Ejemplo%20%20Redes%20Neuronales%20%20datos%20entrenamiento%20y%20comprobaci%C3%B3n.92277 40-49 7.36294 16.49843 15.2837 8.66303 9.86568 12.59088 30-39 7.dropbox.26988 ¿Cuál de los siguientes problemas de actualidad nacional tiene mayor importancia para usted? ¿Y en segundo lugar? Edad 6 El desempleo 7 La salud 1 La pobreza 15-19 4.56975 15.42283 9.54623 9.6018 Caso fondo A.14606 50-59 7.85761 60 y más 4.6521 .xls Grupo de validación https://dl.69749 15.11282 20-24 6. Redes Neuronales Artificiales Ver archivos en estos enlaces Grupo de entrenamiento y comprobación https://dl.39189 14.51108 10.xls 176 11.