UNIDAD 1.

FILOSOFIA Y TECNICAS INTERNACIONALES DE LA CALIDAD
1.1INTRODUCCION
La Calidad es una filosofía de la administración actual. La calidad es una prioridad competitiva. La administración de la calidad total (TQM) insiste en 3 principios: Satisfacción del cliente, involucramiento del empleado y mejoramiento continúo de la calidad. Las gerencias deben buscar formas innovadoras de incrementar la productividad empresarial, pues manejan recursos cada vez más escasos. Objetivo empresarial tradicional y muy actual: Reducción de costos. La Calidad total ayuda a cumplir dicho objetivo

1.1.1 DEFINICIONES BASICAS
Calidad: Es satisfacer plenamente las necesidades del cliente: • Cumplir las expectativas del cliente y algunas más. • Despertar nuevas necesidades del cliente • Lograr productos y servicios con cero defectos • Hacer bien las cosas desde la primera vez • Dar respuestas inmediatas alas solicitudes de los clientes Diseñar, producir y entregar un producto de satisfacción total: • Producir un artículo o servicio de acuerdo a las normas establecidas • Sonreír a pesar de las adversidades • Una categoría tendiente siempre a al excelencia • Es la totalidad de los rasgos y características de un producto o un servicio que se sustenta en su habilidad para satisfacer las necesidades establecidas implícitas

1.2EPISTEMOLOGIA DE LA CALIDAD
La historia de la humanidad está directamente ligada con la calidad desde los tiempos más remotos, el hombre al construir sus armas, elaborar sus alimentos y fabricar su vestido observa las características del producto y enseguida procura

mejorarlo. La práctica de la verificación de la calidad se remonta a épocas anteriores al nacimiento de Cristo. En el año 2150 A.C., la calidad en la construcción de casas estaba regida por el Código de Hammurabi, cuya regla # 229 establecía que "si un constructor construye una casa y no lo hace con buena resistencia y la casa se derrumba y mata a los ocupantes, el constructor debe ser ejecutado". Los fenicios también utilizaban un programa de acción correctiva para asegurar la calidad, con el objeto de eliminar la repetición de errores. Los inspectores simplemente cortaban la mano de la persona responsable de la calidad insatisfactoria. En los vestigios de las antiguas culturas también se hace presente la calidad, ejemplo de ello son las pirámides Egipcias, los frisos de los templos griegos, etc. Sin embargo, la Calidad Total, como concepto, tuvo su origen en Japón donde ahora es una especie de religión que todos quieren practicar. Durante la edad media surgen mercados con base en el prestigio de la calidad de los productos, se popularizó la costumbre de ponerles marca y con esta práctica se desarrolló el interés de mantener una buena reputación (las sedas de damasco, la porcelana china, etc.) Dado lo artesanal del proceso, la inspección del producto terminado es responsabilidad del productor que es el mismo artesano. Con el advenimiento de la era industrial esta situación cambió, el taller cedió su lugar a la fábrica de producción masiva, bien fuera de artículos terminados o bien de piezas que iban a ser ensambladas en una etapa posterior de producción. La era de la revolución industrial, trajo consigo el sistema de fábricas para el trabajo en serie y la especialización del trabajo. Como consecuencia de la alta demanda aparejada con el espíritu de mejorar la calidad de los procesos, la función de inspección llega a formar parte vital del proceso productivo y es realizada por el mismo operario (el objeto de la inspección simplemente señalaba los productos que no se ajustaban a los estándares deseados.) A fines del siglo XIX y durante las tres primeras décadas del siglo XX el objetivo es producción. Con las aportaciones de Taylor la función de inspección se separa de la producción; los productos se caracterizan por sus partes o componentes intercambiables, el mercado se vuelve más exigente y todo converge a producir. El cambio en el proceso de producción trajo consigo cambios en la organización de la empresa. Como ya no era el caso de un operario que se dedicara a la elaboración de un artículo, fue necesario introducir en las fábricas procedimientos específicos para atender la calidad de los productos fabricados en forma masiva. Dichos procedimientos an ido evolucionando durante los ultimos tiempos. El control de la calidad se practica desde hace muchos años en Estados Unidos y en otros países, pero los japoneses, enfrentados a la falta de recursos naturales y dependientes en alta grado de sus exportaciones para obtener divisas que les permitieran comprar en el exterior lo que no podían producir internamente, se dieron cuenta de que para sobrevivir en un mundo cada vez más agresivo

comercialmente, tenían que producir y vender mejores productos que sus competidores internacionales como Estados Unidos, Inglaterra, Francia y Alemania. Lo anterior los llevó a perfeccionar el concepto de calidad. Para ellos debería haber calidad desde el diseño hasta la entrega del producto al consumidor, pasando por todas las acciones, no sólo las que incluyen el proceso de manufactura del producto, sino también las actividades administrativas y comerciales, en especial las que tienen que ver con el ciclo de atención al cliente incluyendo todo servicio posterior. William Edwards Deming nació en 1900 Wyoming, EU., al inicio de su carrera se dedicó a trabajar sobre el control estadístico de la calidad, pero la entrada de los EU. a la Segunda Guerra Mundial y la demanda excesiva de productos por parte de los aliados provocó que las empresas americanas se orientarán a la producción en masa satisfaciendo dicha demanda en un mercado muy estandarizado y muy cerrado, dejando de lado las ideas de Shewhart, Deming y otros precursores. Las autoridades japonesas vieron en los trabajos de este estudioso el motor de arranque de la catastrófica situación en que había quedado el país tras su derrota militar. Japón asumió y desarrollo los planteamientos de Deming, y los convirtió en el eje de su estrategia de desarrollo nacional. En 1950 W. Edward Deming visitó Japón, invitado por la JUSE (Unión de Científicos e Ingenieros Japoneses) dando una serie de conferencias sobre Control Punto uno: Crear constancia en el propósito de mejorar el producto y el servicio. Dr. Deming sugiere una nueva definición radical del papel que desempeña una compañía. En vez de hacer dinero, debe permanecer en el negocio y proporcionar empleo por medio de la innovación, la investigación, el constante mejoramiento y el mantenimiento. Punto dos: Adoptar la nueva filosofía. Estamos en una nueva era económica. Para la nueva Gerencia, la palabra control significa conocimiento, especialmente conocimiento de la variación y de los procesos. La nueva filosofía comprende educación continua, entrenamiento y alegría en el trabajo. Punto tres: No depender más de la inspección masiva. La inspección que se hizo con el animo de descubrir los productos malos y botarlos es demasiado tardía, ineficaz y costosa manifiesta el Dr. Deming. La calidad no se produce por la inspección sino por el mejoramiento del proceso. La Calidad debe ser diseñada en el producto desde el principio, no puede crearse a través de la Inspección. La inspección provee información sobre la calidad del producto final, pero el costo de los defectos son pasados al consumidor aunque este solo reciba productos de primera calidad.

La inspección hace que el trabajador desplace la responsabilidad de la Calidad al inspector. La inspección no detectará problemas empotrados en el sistema. El grueso de los problemas son del Sistema y este es responsabilidad de la Gerencia. Punto cuatro: Acabar con la práctica de adjudicar contratos de compra basándose exclusivamente en el precio. Tiene tres serias desventajas: La primera es que , casi invariablemente, conduce a una proliferación de proveedores. La segunda es que ello hace que los compradores salten de proveedor en proveedor. Y la tercera, que se produce una dependencia de las especificaciones, las cuales se convierten en barreras que impiden el mejoramiento continuo. Punto cinco: Mejorar continuamente y por siempre el sistema de producción y de servicios. Cuando UD. mejora un proceso, UD. mejora su conocimiento del proceso al mismo tiempo. Mejoramiento del producto y el proceso van mano a mano con mayor comprensión y mejor teoría. Punto seis: Instituir la capacitación en el trabajo. Es muy difícil borrar la capacitación inadecuada, dice el Dr. Deming: Esto solamente es posible si el método un trabajo diferente. nuevo es totalmente diferente o si a la persona la están capacitando en una clase distinta de habilidades para eso. Punto siete: Instituir el liderazgo. Liderazgo requiere conocimiento de las causas comunes y las causas especiales de variación; conocer la diferencia entre la descripción de lo que sucedió en el pasado y la teoría que nos permita predecir. Un Líder reconoce las destrezas, los talentos y las habilidades de los que trabajan con él. No es un juez. Debe saber cuando alguien está fuera del sistema y tomar la acción adecuada. Punto ocho: Desterrar el temor. Nueve de los catorce puntos tienen que ver con el miedo. Sólo eliminándolo puede la gente trabajar en forma efectiva a favor de la Empresa. El miedo viene de una fuente conocida. La ansiedad viene de una fuente desconocida. Punto nueve: Derribar las barreras que hay entre las áreas de staff. Cuando los departamentos persiguen objetivos diferentes y no trabajan en equipo para solucionar los problemas, para fijar las políticas o para trazar nuevos rumbos. Aunque las personas trabajen sumamente bien en sus respectivos departamentos, dice el Dr. Deming, si sus metas están en conflictos, pueden arruinar a la compañía. Punto diez: Eliminar los slogan, las exhortaciones y las metas numéricas para la fuerza laboral. Los slogan, dice el Dr. Deming generan frustraciones y resentimientos. Una meta

sin un método para alcanzarla es inútil. Pero fijar metas sin describir como han de lograrse es una practica común entre los gerentes norteamericanos. Un trabajador no puede lograr mejor Calidad de lo que el Sistema le permite. Las exhortaciones crean una reacción adversa por cuanto el 94% de los problemas de Calidad son causados por el Sistema (causas comunes), y sólo 6% por causas especiales. El rol de la Gerencia es trabajar sobre el sistema para mejorarlo continuamente, con la ayuda de todos. Punto once: Eliminar las cuotas numéricas. Las cuotas u otros estándares de trabajo tales como el trabajo diario calculado sostiene el Dr. Deming, obstruyen la calidad más que cualquier otra condición de trabajo. Los estándares de trabajo garantizan la ineficiencia y el alto costo. A menudo incluyen tolerancia para artículos defectuosos y para desechos, lo cual es una garantía de que la gerencia los obtendrá. Punto doce: Derribar las barreras que impiden el orgullo de hacer bien un trabajo. Una de las prácticas más perniciosas es la evaluación anual por méritos, destructor de la motivación intrínseca y de la gente; una forma fácil de la Gerencia para eludir su responsabilidad. Punto trece: Instituir un programa vigoroso de educación y reentrenamiento. Se puede lograr productividad en varias formas: Mejorando la maquinaria existente, rediseñando los productos y el flujo de trabajo, mejorando la forma en que las partes trabajan juntas, pero el conocimiento y destrezas de los individuos son la verdadera fuente del mejoramiento y los mismos son necesarios para la planificación a largo plazo. Punto catorce: Tomar medidas para lograr la transformación. Una Empresa que emprende la ruta del mejoramiento continuo tiene que cambiar sus percepciones, no solamente los principios corrientes de negocio, sino los aspectos fundamentales de como funciona el mundo, sus creencias y sus prácticas empresariales. Una mariposa no puede mantener 100 patas y todavía volar como es debido, o es mariposa o es gusano. En los años 60's Philp B. Crosbry, propuso un programa de catorce pasos tendiente a lograr la meta de "cero defectos". El programa de Crosby planteaba la posibilidad de lograr la perfección mediante la motivación de los trabajadores por parte de la dirección de la organización, dándole un gran peso a las relaciones humanas en el trabajo. Calidad como conformidad con las especificaciones Las empresas despilfarran recursos realizando incorrectamente procesos y repitiéndolos • Definir la calidad como el cumplimiento de los requisitos establecidos • El sistema que causa la calidad es la prevención • El único estándar de rendimiento válido es el cero defectos

• •

La única medida válida de la actuación de la organización es el coste de calidad CALIDAD 100%

LOS CATORCE PUNTOS DE CERO DEFECTOS
Estos catorce pasos son los siguientes: 1.- Compromiso de la dirección: la alta dirección debe definir y comprometerse en una política de mejora de la calidad. 2.- Equipos de mejora de la calidad: se formarán equipos de mejora mediante los representantes de cada departamento. 3.- Medidas de la calidad: se deben reunir datos y estadísticas para analizar las tendencias y los problemas en el funcionamiento de la organización. 4.- El coste de la calidad: es el coste de hacer las cosas mal y de no hacerlo bien a la primera. 5.- Tener conciencia de la calidad: se adiestrará a toda la organización enseñando el coste de la no calidad con el objetivo de evitarlo. 6.- Acción correctiva: se emprenderán medidas correctoras sobre posibles desviaciones. 7.- Planificación cero defectos: se definirá un programa de actuación con el objetivo de prevenir errores en lo sucesivo. 8.- Capacitación del supervisor: la dirección recibirá preparación sobre cómo elaborar y ejecutar el programa de mejora. 9.- Día de cero defectos: se considera la fecha en que la organización experimenta un cambio real en su funcionamiento. 10.- Establecer las metas: se fijan los objetivos para reducir errores. 11.- Eliminación de la causa error: se elimina lo que impida el cumplimiento del programa de actuación error cero. 12.- Reconocimiento: se determinarán recompensas para aquellos que cumplan las metas establecidas. 13.- Consejos de calidad: se pretende unir a todos los trabajadores mediante la comunicación. 14.- Empezar de nuevo: la mejora de la calidad es un ciclo continuo que no termina Nace en Rumania en 1904 y es otra de las grandes figuras de la calidad. Se traslada a Minnesota en 1912. Es contemporáneo de Deming. Después de la II Guerra Mundial trabajó como consultor. Visita Japón en 1954 y convierte el Control de la Calidad en instrumento de la dirección de la empresa. Imparte su conferencia sobre: "Gestión Sistemática del Control de Calidad". Se le descubre a raíz de la publicación de su libro, desechado por otras editoriales: "Manual de Control de Calidad". Describe la calidad como la "adecuación de los Productos y Servicios al uso para el cual han sido concebidos" y desarrolló una trilogía de calidad: Establecer un Plan de Calidad, efectuar el Control de Calidad e implantar la Mejora de la

Calidad. Su fundamento básico de la calidad, es que sólo puede tener efecto en una empresa cuando ésta aprende a gestionar la calidad. La calidad hay que incorporarla dentro del propio proceso productivo. El representante emblemático del movimiento del Control de Calidad en Japón es el Dr. Kaoru Ishikawa. Nacido en 1915 en el seno de una familia de amplia tradición industrial, se graduó en la Universidad de Tokio el año 1939 en Química Aplicada. De 1939 a 1947 trabaja en la industria y en la Armada. Fue profesor de ingeniería en la misma Universidad, donde comprendió la importancia de los métodos estadísticos, ante la dispersión de datos, para hallar consecuencias. En 1949 participa en la promoción del Control de Calidad y, desde entonces trabajó como consultor de numerosas empresas e instituciones comprometidas con la estrategia de desarrollo nacional.Se incorpora a la JUSE: Unión Científicos e Ingenieros Japoneses. El año 1952 Japón entra en la ISO (International Standard Organization), Asociación internacional encargada de establecer los estándares para las diferentes industrias y servicios. Desarrolla el Diagrama Causa-Efecto como herramienta para el estudio de las causas de los problemas. Parte de que los problemas no tienen causas únicas, sino que suelen ser, según su experiencia, un cúmulo de causas. Sólo hay que buscar Ishikawa hizo muchas aportaciones, entre las cuales se destacan: Creación del diagrama causa-efecto, o espina de pescado de Ishikawa, o en inglés "Fishbone Diagrama" Demostró la importancia de las 7 herramientas de calidad. Trabajó en los círculos de calidad. Su concepción conceptual al concebir su Diagrama Causa-Efecto (Espina de Pescado de Ishikawa) se puede resumir en que cuando se realiza el análisis de un problema de cualquier índole y no solamente referido a la salud, estos siempre tienen diversas causas de distinta importancia, trascendencia o proporción. Algunas causas pueden tener relación con la presentación u origen del problema y otras, con los efectos que este produce. El diagrama de Ishikawa ayuda a graficar las causas del problema que se estudia y analizarlas. Es llamado "Espina de Pescado" por la forma en que se van colocando cada una de las causas o razones que a entender originan un problema. Tiene la ventaja que permite visualizar de una manera muy rápida y clara, la relación que tiene cada una de las causas con las demás razones que inciden en el origen del problema. En algunas oportunidades son causas independientes y en otras, existe una íntima relación entre ellas, las que pueden estar actuando en cadena. La mejor manera de identificar problemas es a través de la participación de todos los miembros del equipo de trabajo en que se trabaja y lograr que todos los participantes vayan enunciando sus sugerencias. Los conceptos que expresen las

personas, se irán colocando en diversos lugares. El resultado obtenido será un Diagrama en forma de Espina de Ishikawa. Ideado en 1953 se incluye en él los siguientes elementos: El problema principal que se desea analizar, el cual se coloca en el extremo derecho del diagrama. Se aconseja encerrarlo en un rectángulo para visualizarlo con facilidad. Las causas principales que a nuestro entender han originado el problema. Gráficamente está constituida por un eje central horizontal que es conocida como "línea principal o espina central". Posee varias flechas inclinadas que se extienden hasta el eje central, al cual llegan desde su parte inferior y superior, según el lugar adonde se haya colocado el problema que se estuviera analizando o descomponiendo en sus propias causas o razones. Cada una de ellas representa un grupo de causas que inciden en la existencia del problema. Cada una de estas flechas a su vez son tocadas por flechas de menor tamaño que representan las "causas secundarias" de cada "causa" o "grupo de causas del problema". El Diagrama que se efectúe debe tener muy claramente escrito el nombre del problema analizado, la fecha de ejecución, el área de la empresa a la cual pertenece el problema y se puede inclusive colocar información complementaria como puede ser el nombre de quienes lo hayan ejecutado ELEMEMNTOS CLAVE DEL PENSAMIENTO DE ISHIKAWA La calidad empieza con la educación y termina con la educación. El primer paso a la calidad es conocer lo que el cliente requiere. El estado ideal de la calidad es cuando la inspección no es necesaria. Hay que remover la raíz del problema, no los síntomas. El control de la calidad es responsabilidad de todos los trabajadores. No hay que confundir los medios con los objetivos. Primero poner la calidad y después poner las ganancias a largo plazo. El comercio es la entrada y salida de la calidad. Los altos ejecutivos de las empresas no deben de tener envidia cuando un obrero da una opinión valiosa. Los problemas pueden ser resueltos con simples herramientas para el análisis. Información sin información de dispersión es información falsa. La teoría de Ishikawa era manufacturar todo a bajo costo. Postuló que algunos efectos dentro de empresas que se logran implementando el control de calidad son la reducción de precios, bajar los costos, establecer y mejorar la técnica, entre otros. No es en vano que a Ishikawa se le deba mucha gratitud por sus ideas que revolucionaron el mundo de la industria, la administración, el comercio y los

servicios. De su capacidad y sus teorías se nutrió el Japón y llegó a ser lo que todos vemos hoy día. El Dr. Genichi Taguchi nació en Japón en 1924, graduándose en la Escuela Técnica de la Universidad Kiryu, y más tarde recibió el Doctorado en la Universidad Kyushu en 1962. Trabajó en el Astronomical Department Of. the Navigation Institute del entonces Imperio Japonés; más tarde trabaja en el Ministerio de Salud Pública y en el Institute of Statistical Mathematics. Sin embargo, su principal etapa profesional ha sido dentro de la Electrical Communication Laboratory (ECL) de la Nippon Telephone and Telegraph Co. (1948-1961) en donde se enfocó a la mejora de la productividad en la investigación y desarrollo. Posterior a esto, es profesor para la Universidad Aoyama Gaukin de Tokio y consultor para empresas tan importantes como Toyota Motors y Fuji Films. Es miembro de la Japan Association for Quality Control, la Japan Association for Industrial Engineering, la Japan Association for Applied Statistics y la Central Japan Quality Control Association. La contribución más importante del Dr. Taguchi, ha sido la aplicación de la estadística y la ingeniería para la reducción de costos y mejora de la calidad en el diseño de productos y los procesos de fabricación. En sus métodos emplean la experimentación a pequeña escala con la finalidad de reducir la variación y descubrir diseños robustos y baratos para la fabricación en serie. Las aplicaciones más avanzadas de los Métodos Taguchi, permiten desarrollar tecnología flexible para el diseño y fabricación de familias de productos de alta calidad, reduciendo los tiempos de investigación, desarrollo y entrega del diseño. Además de la rápida mejora del diseño de productos y procesos, los métodos del Dr. Taguchi proporcionan un lenguaje común y un enfoque que mejora la integración del diseño del producto y los procesos de fabricación. La formación de ingenieros de diseño y de personal de fabricación en estos métodos proporciona perspectivas y objetivos comunes (un gran paso adelante para derribar las tradicionales barreras entre estos dos grupos). Los métodos del Dr. Taguchi se introdujeron en los Estados Unidos en los años 1980–82, con AT&T Bell Laboratorios, Ford Motor Company y Xerox Corporación como pioneros. Ayudó a la fundación del American Supplier Institute (ASI) para facilitar una amplia diseminación de sus métodos e ideas, que ahora están siendo adoptadas y puestas en práctica por cientos de industrias en los Estados Unidos, Europa y muchos otros países. ASI Internacional España se fundó en 1989, con una licencia en exclusiva de ASI Incorporated para la formación y asesoramiento en Métodos Taguchi®, Quality Función Deployment (QFD), Total Quality Management (TQM) y otras sistemáticas de calidad desarrolladas por ASI. El Dr. Taguchi ha sido durante más de 30 años líder y miembro activo de la Japan

Association for Quality Control, la Japan Association for Industrial Engineering, la Japan Association for Applied Statistics y la Central Japan Quality Control Association. Ha sido Editor Jefe de la revista “Quality”, así como Vocal del Quality Control Research Group de la Japanese Standard Association. Ha publicado más de 40 libros y varios cientos de artículos y ponencias. Además del Premio Deming en 1990 por aplicaciones en calidad, el Dr. taguchi ha recibido otros tres Premios Deming por literatura sobre calidad en 1951, 1953 y 1984. Ha recibido la Medalla Willard F. Rockwell durante el Congreso Internacional en Tecnología e Intercambio Tecnológico, en 1986. El Dr. Taguchi fue admitido en el Hall of Fame for Engineering Science and Tecnóloga en el Congreso Internacional de Tecnología e Intercambio Tecnológico de 1989. En Mayo de 1989 fue condecorado con la medalla con banda púrpura, al Avance Tecnológico y Económico, por Akihito, Emperador de Japón. El pensamiento de Taguchi se basa en dos conceptos fundamentales: *Productos atractivos al cliente. • • • Ofrecer mejores productos que la competencia: Los productos deben ser mejores que los de la competencia en cuanto a diseño y precio. Estos conceptos se concretan en los siguientes puntos. Función de pérdida: La calidad se debe definir en forma monetaria por medio de la función de pérdida, donde a mayor variación de una especificación con respecto al valor nominal, mayor es la pérdida monetaria transferida al consumidor. Optimización del diseño del producto. Mejora continua: la mejora continua del proceso productivo y la reducción de la variabilidad son indispensables para subsistir en la actualidad. La mejora continua y la variabilidad: La mejora continua del proceso esta íntimamente relacionada con la reducción de la variabilidad con respecto al valor objetivo. La variabilidad puede cuantificarse en términos monetarios. *Diseño del producto: Se genera la calidad y se determina el costo final del producto.

• • • • •

Además, desarrollo una metodología que denomino ingeniería de la calidad que divide en línea y fuera de línea. Ingeniería de calidad en línea: son actividades de ingeniería de calidad en línea, el área de manufactura, el control y la corrección de procesos, así como el mantenimiento preventivo. • Ingeniería de calidad fuera de línea: se encarga de la optimización del diseño de productos y procesos. El control de calidad desde la etapa del diseño del producto. • Desarrollo sus propios métodos estadísticos al trabajar en una compañía de teléfonos, lo aplicó al incremento de la productividad y calidad en la industria.

Aportación de Taguchi. Creó el concepto de “diseño robusto”, este excedía sus expectativas de calidad, para así lograr la satisfacción del cliente. DISEÑO ROBUSTO Cada vez que se diseña un producto, se hace pensando en que va a cumplir con las necesidades de los clientes, pero siempre dentro de un cierto estándar, a esto se le llama “calidad aceptable”, y así cuando el cliente no tiene otra opción mas que comprar, pues a la empresa le sale mas barato reponer algunos artículos defectuosos, que no producirlos. Pero no siempre será así, por que en un tiempo la gente desconfiara de la empresa y se irán alejando los clientes. El tipo de diseño que Taguchi propone es que se haga mayor énfasis en las necesidades que le interesan al consumidor y que a su vez, se ahorre dinero en las que no le interesen, así rebasara las expectativas que el cliente tiene del producto. Asegura que es más económico hacer un diseño robusto que pagar los controles de calidad y reponer las fallas. Al hacer un diseño robusto de determinado producto maximizamos la posibilidad de éxito en el mercado. Y aunque esta estrategia parece costosa, en realidad no lo es, por que a la vez que gastamos en excedernos en las características que de verdad le interesan al consumidor, ahorramos en las que no les dan importancia. Función de perdida de Taguchi. Con esto, Taguchi trató de orientar a los productores a que redujeran las variaciones en la calidad. Para poder reinventar esta perdida, se utiliza una ecuación cuadrática que se ajusta a los datos de costos y desempeño del producto. Conforme el desempeño del producto se vaya alejando la ecuación va aumentando de valor y se incrementa el costo de calidad para la sociedad.

1.3.1 CIRCULOS DE CALIDAD
La idea básica de los Círculos de Calidad consiste en crear conciencia de calidad y productividad en todos y cada uno de los miembros de una organización, a través del trabajo en equipo y el intercambio de experiencias y conocimientos, así como el apoyo recíproco. Todo ello, para el estudio y resolución de problemas que afecten el adecuado desempeño y la calidad de un área de trabajo, proponiendo ideas y alternativas con un enfoque de mejora continúa. Las definiciones siguientes son expuestas en el libro de Phillip C. Thompson, Círculos de Calidad, Como hacer que funcionen, y se refieren a las distintas maneras como se define el concepto en el texto: Un Círculo de Calidad es un pequeño grupo de personas que se reúnen voluntariamente y en forma periódica, para detectar, analizar y buscar soluciones a los problemas que se suscitan en su área de trabajo. Un Círculo de Calidad está formado por pequeños grupos de empleados que se reúnen e intervienen a intervalos fijos con su dirigente, para identificar y solucionar

problemas relacionados con sus labores cotidianas. Un Círculo de Calidad está integrado por un reducido número de empleados de la misma área de trabajo y su supervisor, que se reúnen voluntaria y regularmente para estudiar técnicas de mejoramiento de control de calidad y de productividad, con el fin de aplicarlas en la identificación y solución de dificultades relacionadas con problemas vinculados a sus trabajos. El Círculo de Calidad es un grupo pequeño que desarrolla actividades de control de calidad voluntariamente dentro de un mismo taller. Este pequeño grupo lleva a cabo continuamente, como parte de las actividades de control de calidad en toda la empresa, auto desarrollo y desarrollo, mutuo control y mejoramiento dentro del taller, utilizando técnicas de control de calidad con participación de todos los miembros. Un grupo pequeño de empleados que realizan tareas similares y que voluntariamente se reúnen con regularidad, en horas de trabajo, para identificar las causas de los problemas de sus trabajos y proponer soluciones a la gerencia. A pesar de ser muchas las definiciones atribuidas al concepto de Círculos de Calidad es conveniente dejar claro que para los efectos que nos competen definiremos Círculo de Calidad como: “Grupo natural de trabajo, conformado por empleados de una misma institución o empresa que realizan tareas similares y que voluntariamente se reúnen con regularidad, en horas de trabajo, para identificar las causas de los problemas de sus trabajos y proponer soluciones a la gerencia”. La popularidad de los Círculos de Calidad, se debe a que favorecen que los propios trabajadores compartan con la administración la responsabilidad de definir y resolver problemas de coordinación, productividad y por supuesto de calidad. Adicionalmente, propician la integración y el involucramiento del personal con el objetivo de mejorar, ya sea productos, servicios o procesos. En otras palabras los Círculos de Calidad se dan cuenta de todo lo erróneo que ocurre dentro de una empresa, dan la señal de alarma y crean la exigencia de buscar soluciones en conjunto. Los empleados de cada Círculo forman un grupo natural de trabajo, donde las actividades de sus integrantes están de alguna forma relacionadas como parte de un proceso o trabajo. La tarea de cada uno de ellos, encabezada por un supervisor consiste en estudiar cualquier problema de producción o de servicio que se encuentre dentro del ámbito de su competencia. En la mayoría de los casos, un Círculo comprende un proyecto de estudio que puede solucionarse en tres meses aproximadamente y que no tomará arriba de un semestre (seis meses). La misión de un Círculo pueden resumirse en: Contribuir a mejorar y desarrollar a

la empresa. Respetar el lado humano de los individuos y edificar un ambiente agradable de trabajo y de realización personal. Propiciar la aplicación del talento de los trabajadores para el mejoramiento continuo de las áreas de la organización. El término Círculo de Calidad tiene dos significados. Se refiere tanto a una estructura y a un proceso como a un grupo de personas y a las actividades que realizan. Por consiguiente, es posible hablar de un proceso de Círculo de Calidad al igual que de la estructura del mismo. Estructura: La estructura de un Círculo de Calidad es fundamentalmente la forma como esta integrado el grupo y se define dé acuerdo con la posición de los miembros dentro de una organización empresarial. En la práctica, los Círculos de Calidad requieren de un periodo prolongado de labores bajo la tutela de un Asesor. Proceso: el proceso de un Círculo de Calidad está dividido en los pasos siguientes. a) Identificación del problema. b) Análisis del problema y recopilación de información. c) Búsqueda de soluciones. d) Selección de una solución. e) Presentación de la solución a la gerencia. f) Ejecución de la solución. g) Evaluación de la solución. PROCESO PARA LA SOLUCIONDE LOS PROBLEMAS EN LOS CIRCULOS DE CALIDAD Por otra parte, existen personajes encargados del desarrollo de los Círculos de Calidad: El Facilitador.- El o ella, es el responsable para dirigir las actividades de los Círculos y atender sus juntas. Sirve como un enlace o vía entre los Círculos y el resto de la institución y reporta a una alta autoridad que apoya la idea de los círculos de control de calidad. Otras responsabilidades incluyen el entrenamiento de líderes y la formación de otros círculos dentro de la organización. Consigue asistencia técnica externa cuando se requiera El Líder del Círculo de Calidad.- Es el jefe natural del grupo de trabajo y a la vez el símbolo del respaldo de la gerencia, dirección o jefatura. Su ausencia de los Círculos de Calidad, de una u otra forma, es siempre perjudicial para el proceso.

Con el tiempo, los integrantes del Círculo de Calidad elegirán al líder que más prefieran según sus acuerdos; mientras tanto y hasta que esto suceda, el supervisor será el generalmente elegido. Las actividades del líder comprenden: • Crear un ambiente en las reuniones que aliente la participación. • Utilizar técnicas de interacción que dan a cada uno la oportunidad de hablar a fin de que se escuchen todos los puntos de vista. • Trabajar con el equipo para ayudarles a tomar decisiones sin conflictos. • Asegurar que alguien se encargue de llevar a cabo las decisiones y acuerdos tomados por el Círculo de Calidad. • Dar seguimiento a las propuestas y resoluciones tomadas. CATRACTERISTICAS DE LOS CIRCULOS DE CALIDAD Los Círculos de Calidad son grupos pequeños. En ellos pueden participar desde cuatro hasta quince miembros. Ocho es el número ideal. Se reúnen a intervalos fijos (generalmente una vez a la semana) con un dirigente, para identificar y solucionar problemas relacionados con sus labores cotidianas. Todos sus miembros deben laborar en un mismo taller o área de trabajo. Esto le da identidad al Círculo y sentido de pertenencia a sus integrantes. Los integrantes deben trabajar bajo el mismo jefe o supervisor, quien a su vez es también integrante del Círculo. Por lo regular, el jefe o supervisor es también jefe del Círculo. Este no ordena ni toma decisiones, son los integrantes en conjunto quienes deciden. La participación es voluntaria, tanto para el líder como para los miembros. De ahí que la existencia de los Círculos depende de la decisión de cada integrante. Los Círculos se reúnen una vez a la semana durante las horas acordadas con los superiores jerárquicos inmediatos. Lo ideal es que las reuniones se celebren en lugares especiales alejados del área de trabajo. Los miembros del Círculo deben recibir capacitación especial para participar adecuadamente, tanto previa a la creación del Círculo, como continua durante su operación. Los miembros del grupo y no la gerencia son quienes eligen problema y los proyectos sobre los cuales habrá de trabajarse. En forma ideal el proceso de selección no se lleva a cabo por votación democrática (por mayoría de votos), sino por consenso; en esta forma todos los participantes convienen en los problemas que es necesario resolver. Los Círculos deben recibir asistencia o asesoría para analizar un problema y decidir al respecto. La Dirección General y los expertos técnicos deben comprometerse a brindar su

ayuda a los Círculos de Calidad. Los Círculos habrán de recibir el apoyo de un Asesor (interno o externo), que asistirá a todas las reuniones, pero que no es miembro del Círculo. Las exposiciones preparadas para la Dirección serán previamente presentadas a los gerentes y los expertos técnicos quienes normalmente tienen la autoridad para tomar una decisión acerca de la viabilidad de la propuesta. La empresa debe efectuar evaluaciones periódicas para comprobar si se proporciona lo necesario para la operación de los Círculos de Calidad, así como para la ejecución de las propuestas que de Éstos se deriven.
Los Círculos de Calidad no son para sostenerlos durante un tiempo y luego abandonarlos, sino que hay que mantenerlos permanentemente en operación, procurando siempre su mejoramiento.

ESTABLECIMIENTO DE LOS CIRCULOS DE CALIDAD Para la introducción de los Círculos de Calidad en una empresa o institución se requiere fundamentalmente llevar a cabo las siguientes fases o etapas: • Convencer y comprometer a la Dirección General en el proceso. • Establecer la organización necesaria para la administración de los Círculos de Calidad, a partir de una unidad administrativa encargada de coordinar su introducción y operación. • Comprometer a los empleados. • Desarrollar un plan de trabajo para la introducción de los Círculos de Calidad, a efecto de que éstos formen parte de la operación de la empresa o institución. • Reglamentar la forma de operación de los Círculos de Calidad. • Desarrollar los Sistemas de Apoyo para los Círculos de Calidad. • Aplicar programas de capacitación a todo el personal y niveles de la empresa, para que se tenga un conocimiento y metodología de trabajo homogéneos. • Disponer de los apoyos didácticos y logísticos para las tareas de los Círculos de Calidad. Al vender la idea de los Círculos de Calidad, es necesario proceder de arriba hacia abajo. Primero se debe involucrar a los ejecutivos, después a los gerentes de nivel medio y, finalmente, a los empleados. Posteriormente, durante el establecimiento de los Círculos de Calidad, es conveniente comenzar por el nivel medio capacitando a los gerentes o jefes de departamento, Al vender la idea de los Círculos de Calidad, es necesario proceder de arriba hacia abajo. Primero se debe involucrar a los ejecutivos, después a los gerentes de nivel medio y, finalmente, a los empleados. Posteriormente, durante el establecimiento de los Círculos de Calidad, es conveniente comenzar por el nivel medio capacitando a los gerentes o jefes de departamento, según sea el caso, con el fin

de que comprendan cuales son los objetivos del programa, la función que ellos deben desempeñar y los beneficios que disfrutarán. Después se debe capacitar a los jefes o supervisores como jefes de los Círculos de Calidad. Finalmente se debe enseñar a los empleados las técnicas para solucionar problemas en grupo y los métodos para la toma de decisiones en conjunto. En la operación de los Círculos de Calidad se distinguen dos etapas: Primera Etapa.- Se ubica en el nivel de los empleados, quienes identifican un problema, lo analizan y presentan una solución a la gerencia mediante un planteamiento viable, estructurado y documentado. Segunda Etapa.- Se realiza a nivel gerencial, al ser éstos quienes escuchen las propuestas emanadas de los Círculos de Calidad, las evalúan y deciden por lo general después de dos o tres reuniones- si puede ser puesta en práctica o no. Si la decisión es favorable, elaboran un plan para ejecutar la propuesta y lo ponen en marcha con la mayor brevedad posible. • Propiciar un ambiente de colaboración y apoyo recíproco en favor del mejoramiento de los procesos operativos y de gestión. • Fortalecer el liderazgo de los niveles directivos y de supervisión. • Mejorar las relaciones humanas y el clima laboral. • Motivar y crear conciencia y orgullo por el trabajo bien hecho. • Concientizar a todo el personal sobre la necesidad de desarrollar acciones para mejorar la calidad. • Propiciar una mejor comunicación entre los trabajadores y los directivos o gerentes. • Dar a conocer los avances y obstáculos a vencer para lograr una mejora constante. DESARROLLO DE LOS CÍRCULOS DE CALIDAD Por otra parte, existen personajes encargados del desarrollo de los Círculos de Calidad: El Facilitador.- El o ella, es el responsable para dirigir las actividades de los Círculos y atender sus juntas. Sirve como un enlace o vía entre los Círculos y el resto de la institución y reporta a una alta autoridad que apoya la idea de los círculos de control de calidad. Otras responsabilidades incluyen el entrenamiento de líderes y la formación de otros círculos dentro de la organización. Consigue asistencia técnica externa cuando se requiera. El Líder del Círculo de Calidad.- Es el jefe natural del grupo de trabajo y a la vez el símbolo del respaldo de la gerencia, dirección o jefatura. Su ausencia de los Círculos de Calidad, de una u otra forma, es siempre perjudicial para el proceso.

Con el tiempo, los integrantes del Círculo de Calidad elegirán al líder que más prefieran según sus acuerdos; mientras tanto y hasta que esto suceda, el supervisor será el generalmente elegido. Las actividades del líder comprenden: • Crear un ambiente en las reuniones que aliente la participación. • Utilizar técnicas de interacción que dan a cada uno la oportunidad de hablar a fin de que se escuchen todos los puntos de vista. • Trabajar con el equipo para ayudarles a tomar decisiones sin conflictos. • Asegurar que alguien se encargue de llevar a cabo las decisiones y acuerdos tomados por el Círculo de Calidad. • Dar seguimiento a las propuestas y resoluciones tomadas.

Instructor.- Organiza y realiza los cursos de capacitación para el personal operativo, supervisores y jefes de los círculos, así como para los empleados miembros de los círculos y asesores. Inicialmente, los cursos están dirigidos a explicar las funciones de cada cual debe desempeñar dentro del proceso, después la capacitación se orienta al manejo de herramientas y técnicas para la identificación y resolución de problemas. Asesor.- Aconseja a los Círculos y en particular a los líderes, sobre la manera como deben de manejarse las reuniones, solucionar los problemas y hacer la presentación de los casos a la gerencia. El asesor asiste a todas las reuniones de los Círculos que le han sido asignados, se reúne en privado con sus líderes antes y después de cada reunión con el propósito de ayudarles a organizar y evaluar su progreso, y brinda su apoyo en lo que se refiere a material de estudio. El experto.- Es aquél que por su conocimiento científico o técnico está facultado para dictaminar la factibilidad de la solución o medida propuesta por el Círculo de Calidad. CAPACITACION Dentro del desarrollo de los círculos la capacitación juega un papel muy importante. Las primeras acciones de capacitación deben dirigirse al facilitador y los gerentes. El facilitador a su vez entrena a los líderes, quienes a su vez entrenarán a los miembros del Círculo. Los temas en los cuales los miembros son instruidos incluyen principios de técnicas de solución de problemas, tormenta de ideas, análisis de problemas, toma de decisiones, diagramas de Ishikawa, diagramas de Pareto, histogramas, cartas de control de procesos, hojas de revisión, técnicas de muestreo, presentación de resultados y casos de estudio, entre otras. El programa de capacitación para los Círculos de Calidad está dirigido a habilitar

al personal que formará parte de los éstos, enfatizando en las funciones principales de cada integrante: • La del miembro de un Círculo. • La del Jefe de un Círculo. La del Experto • La del Asesor OBJETIVOS DE CAPACITACION • • • • • • Dar a conocer a los participantes el proceso de los Círculos de Calidad y sensibilizarlos de las ventajas que conlleva tanto para ellos como para la empresa. Despejar cualquier temor o duda que pueda tenerse acerca de los Círculos de Calidad. Convencer a los participantes para que colaboren voluntariamente. Prepararlos para desempeñar su papel como miembros de un Círculo de Calidad. Habilitarlos en el manejo de las técnicas para solucionar problemas en grupo. Estimularlos para que asuman su compromiso como responsables de la organización y sostenimiento del Círculo. CIRCULOS PARA SOLUCIONAR

TECNICAS UTILIZADAS EN LOS PROBLEMAS • Improvisación de ideas en grupo. • Diagramas de flujo. • Análisis de Pareto. • Diagramas de causa efecto. • Histogramas. • Gráficos. • Cuadros de control. • Hojas de verificación. • Matrices para decisiones.

OTROS ELEMENTOS Para la adecuada operación del trabajo en grupo es conveniente enfatizar en el uso correcto de los siguientes elementos:

Agendas Una agenda clara para las reuniones proporciona a los miembros un esquema de trabajo en el cual operar. La Agenda debe entregarse por anticipado a cada miembro. Debe incluir la hora (de inicio y terminación), el lugar y el objetivo de la reunión. Asimismo puede acompañarse de material de apoyo.

Procedimientos claros Cuando se llega a un acuerdo común sobre las reglas o la metodología de la reunión, todo el mundo se siente más cómodo con la manera como se conduce las reuniones. La participación en la elaboración induce al compromiso. Objetivos claramente establecidos A fin de que los participantes dirijan y concentren sus esfuerzos, todos deben conocer y participar en la definición de los objetivos del grupo de trabajo, y actualizarlo o validarlos periódicamente. Tiempo de reflexión El tiempo de reflexión puede tomar la forma de un descanso corto para permitir que todos tomen un respiro; también. En ocasiones, cuando surge un conflicto o la situación se pone difícil, es muy productivo conceder un tiempo de silencio para que los miembros se serenen y aclaren sus ideas. Asignación de acciones y responsabilidades El líder debe revisar las asignaciones de acciones y responsabilidades antes del final de la reunión y éstas deben registrarse en la minuta. Minutas Las minutas se utilizan para comunicar las decisiones y con base en éstas, llevar a cabo el seguimiento de las acciones correspondientes. Durante la reunión, alguien deberá ser responsable de registrar lo que sucede. Después de la reunión, la minuta debe distribuirse a los miembros de equipo y a cualquier otra persona que necesite saber lo que ocurrió. Ambiente Idóneo para las Reuniones de los Círculos de Calidad El ambiente más adecuado de una reunión es aquel que propicia el que cada miembro esté dispuesto a participar y a aportar. Escuche a los demás y se comprometa de lleno en el trabajo del equipo. • Debe darse un ambiente especial según se trate de: • Preparación de la Reunión. • Disposición para escuchar • Apertura • Desarrollo de la confianza

Disposición para escuchar. Esta es quizá la habilidad más importante para trabajar en equipo. Escuchar es algo que hacemos todos los días; no escuchar es también algo que hacemos todos los días. En las reuniones, un buen oyente se esforzará por comprender la intención y el

contenido de lo que los demás están diciendo, sin distraerse con su estilo de hablar. Debe verse más allá de la forma e ir al fondo del expuesto, evitando preenjuiciarse por estilos personales. Consolidación de los Círculos de Calidad. Puede decirse que los Círculos de Calidad están firmemente establecidos cuando: • Cubren la totalidad de la organización en todos los niveles. • Son permanentes. • Son promovidos, capacitados y sustentados por los niveles medios de la gerencia. Contribuciones de los Círculos (Cómo medir su efectividad) Número de presentaciones hechas a la gerencia. Tipos de propuestas presentadas. Porcentaje de propuestas presentadas (número anual de propuestas presentadas por cada Círculo). Porcentaje de propuestas aprobadas (número de propuestas aceptadas por la gerencia). Resultados empresariales (Qué se obtiene con su implementación) • Cambio en el porcentaje de producción. • Cambio en el porcentaje de defectos. • Cambio en el porcentaje de productos rechazados, o servicios deficientes. • Cambio en el porcentaje de fricciones. • Cambio en el porcentaje de tiempo perdido. • Cambio en el porcentaje de motivos de queja. • Cambio en el índice de accidentalidad. • Ahorro calculado en costos. • Proporción entre los ahorros en los costos y los gastos generados por el programa. • Mejores resultados personales. Finalmente, los logros de los Círculos de Calidad deben publicarse en los boletines de la empresa o institución o fijarse en los tableros, de tal manera que los participantes reciban reconocimiento por sus esfuerzos, tanto de la dirección o gerencia donde laboran como de sus compañeros de trabajo, y a la vez conozcan los avances e impacto de las propuestas desarrolladas.

1.3.2 CERO DEFECTOS
Philip Crosby, Mr. "Cero Defectos" Acuñó el concepto "cero defecto" como objetivo a alcanzar por las organizaciones

en sus procesos de calidad. Consultor y autor estadounidense, especialista en management de calidad, ante el avance de las corporaciones japonesas sobre el mercado norteamericano, Philip Crosby (1926-2001) elaboró una serie de consejos para mejorar la calidad de los productos estadounidenses. Este gurú es autor de célebres frases como "cero defecto" y "hacerlo bien la primera vez". Según Crosby, la filosofía en que debe basarse un buen management de calidad puede sintetizarse en cuatro principios: La calidad consiste en satisfacer las exigencias de los clientes Prevenir es mejor que inspeccionar El objetivo a alcanzar es un estándar de "defecto cero" La calidad se mide monetariamente Sobre estos cimientos, Crosby construyó un programa de 14 pasos que debe seguir toda empresa que desee mejorar la calidad de sus productos: Para alcanzar una buena calidad de producto, es necesario un compromiso absoluto del management Crear equipos de mejoramiento de calidad con representantes de los distintos departamentos de la empresa Realizar una medición permanente de los procesos para prever potenciales problemas de calidad Evaluar los costos monetarios de la baja calidad Incrementar la conciencia de los empleados sobre problemas de calidad Resolver los problemas que vayan siendo detectados Monitorear constantemente el progreso de las mejoras de calidad Capacitar a los supervisores de calidad Organizar en la empresa "días de cero defecto" Motivar a los empleados para que se sumen a la lucha por alcanzar el ideal del "cero defecto" Incentivar a los empleados a que sugieran al management posibles formas de superar los obstáculos a la calidad Reconocer y valorar sinceramente el esfuerzo que realizan los participantes Crear comités de calidad Hacer todo de nuevo: la mejora de calidad es una tarea que nunca se termina

Además de su lucha por la calidad de producto, en su obra "Organización Permanentemente Exitosa" Crosby describe las características de la empresa ideal: 1) 2) La La gente gerencia hace anticipa las el cosas cambio bien y lo desde usa el a su principio favor

3)

El

crecimiento

es

constante

y

rentable

4) Los nuevos bienes y servicios surgen cuando el público los demanda 5) Todos están contentos de trabajar allí

1.3.3BENCHMARKING
En la actualidad las empresas tienen que competir no sólo con empresas de la misma región, sino que se presenta una competencia cada vez mayor con otras empresas de otros lugares y países, lo anterior debido a la globalización que se ha estado presentando. Es por lo anterior que las empresas deben buscar formas o fórmulas que las dirijan hacia una productividad y calidad mayor para poder ser competitivos. Una de estas herramientas o fórmulas es el Benchmarking. PERSPECTIVA HISTORICA La cronología que se presenta aquí es la de Xerox Corporation. Xerox tuvo la fortuna de descubrir y aplicar benchmarking a principios de su campaña para combatir la competencia. La experiencia de Xerox muestra la necesidad y la promesa de benchmarking. En 1979 Xerox inició un proceso denominado benchmarking competitivo. Benchmarking se inició primero en las operaciones industriales de Xerox para examinar sus costos de producción unitarios. Se hicieron comparaciones de productos seleccionados y se hicieron comparaciones de la capacidad y características de operación de máquinas de copiar de los competidores y se desarmaron sus componentes mecánicos para analizarlos. Estas primeras etapas de benchmarking se conocieron como comparaciones de calidad y las características del producto. El benchmarking se formalizó con el análisis de las copiadoras producidas por Fuji - Xerox, la afiliada japonesa de Xerox, y más tarde otras máquinas fabricadas en Japón. Se identificó que los competidores vendían las máquinas al mismo precio que a Xerox les costaba producirlas por lo que se cambio el estilo de producción el EUA para adoptar las metas de benchmark fijadas externamente para impulsar sus planes de negocios. Debido al gran éxito de identificar los nuevos procesos de los competidores, los nuevos componentes de fabricación y los costos de producción, la alta gerencia ordeno que en todas la unidades de negocios se utilizara el benchmarking y el 1983 el director general ordenó la prioridad de alcanzar el liderazgo a través de la calidad y benchmarking se contempló, junto con la participación de los empleados y el proceso de calidad, como fundamental para lograr la calidad en todos los productos y procesos. Antes de 1981 la mayoría de las operaciones industriales hacían las

comparaciones con operaciones internas, benchmarking cambió esto, ya que se empezó a ver la importancia de ver los procesos y productos de la competencia, así como el considerar otras actividades diferentes a la producción como las ventas, servicio post venta, etc. como partes o procesos capaces de ser sometidos a un estudio de benchmarking. Aunque durante esta etapa de benchmarking ayudó a las empresas a mejorar sus procesos mediante el estudio de la competencia, no representaba la etapa final de la evolución de benchmarking, sino que después se comprendió que la comparación con la competencia a parte de ser difícil, por la dificultad de conseguir y compartir información, sólo nos ayudaría a igualarlos, pero jamás a superarlos y a ser más competitivos. Fue por lo anterior que se buscó una nueva forma de hacer benchmarking, que permitiera ser superiores, por lo que se llegó a la reconocer que benchmarking representa descubrir las mejores prácticas donde quiera que existan. DEFINICION DE BENCHMARKING Se derivó de la experiencia y los éxitos de los primeros días de aplicar las técnicas de benchmarking al área de fabricación : Benchmarking es el proceso continuo de medir productos, servicios y prácticas contra los competidores más duros o aquellas compañías reconocidas como líderes en la industria. Esta definición presenta aspectos importantes tales como el concepto de continuidad, ya que benchmarking no sólo es un proceso que se hace una vez y se olvida, sino que es un proceso continuo y constante. Otro aspecto es el de la medición, ya que esta está implicada en el proceso de benchmarking, pues se tienen que medir los procesos propios y los de otras empresas para poder compararlos. También se puede ver en esta definición es que se puede aplicar benchmarking a todos las facetas del negocio. Y finalmente la definición implica que el benchmarking se debe dirigir hacia aquellas empresas y funciones de negocios dentro de las empresas que son reconocidas como las mejores o como los líderes de la industria. Esta definición también es informativa y define benchmarking como : Una marca del agrimensor... de una posición previamente determinada... y que se usa como punto de referencia... un estándar mediante el cual se puede medir o juzgar algo. Sirve para reforzar la idea de que benchmark es un estándar para la comparación de otros objetos o actividades. Es un punto de referencia a partir del cual se medirán otros. Benchmarking es un proceso sistemático y continuo para comparar nuestra propia eficiencia en términos de productividad, calidad y prácticas con aquellas compañías y organizaciones que representan la excelencia. Definición de trabajo. Es la definición desde el punto de vista de alguien que ha trabajado en el proceso

durante varios años y lo ha puesto en práctica muchas veces, y es : *Benchmarking es la búsqueda de las mejores prácticas de la industria que conducen a un desempeño excelente. (Robert C. Camp). Esta definición es comprensible para las unidades de negocios y funciones orientadas hacia las operaciones. La atención se centra en las prácticas. Insiste en las prácticas y la comprensión de las mismas antes de derivar una métrica de benchmarking. Las mediciones de benchmarking se contemplan como el resultado de comprender las mejores prácticas, no como algo que pueda cuantificar primero y comprender después. Se concentra en lograr el desempeño excelente. *Benchmarking es la justificación más creíble para todas las operaciones. Es poca la discusión que pueda existir sobre la posición de un gerente si ha buscado lo mejor de la industria y lo ha incorporado a sus planes y procesos. LO QUE ES Y LO QUE NO ES DEL BENCHMARKING Benchmarking no es un mecanismo para determinar reducciones de recursos. Los recursosde resignarán a la forma más efectiva de apoyar las necesidades de los clientes y obtener la satisfacción de los mismos. *Benchmarking no es una panacea o un programa. Tiene que ser un proceso continuo de la administración que requiere una actualización constante - la recopilación y selección constante de las mejores prácticas y desempeño externos para incorporarlos a la toma de decisiones y las funciones de comunicaciones en todos los niveles del negocio. Tiene que tener una metodología estructurada para la obtención de información, sin embargo debe ser flexible para incorporar formas nuevas e innovadoras. • • • • • • Benchmarking no es un proceso de recetas de libros de cocina que sólo requieran buscar los ingredientes y utilizarlos para tener éxito. Benchmarking es un proceso de descubrimiento y una experiencia de aprendizaje. Benchmarking no sólo es una moda pasajera, sino que es una estrategia de negocios ganadora. Ayuda a tener un desempeño excelente. Benchmarking es una nueva forma de hacer negocios. Obliga a utilizar un punto de vista externo que asegure la corrección de la fijación de objetivos. Es un nuevo enfoque administrativo. Obliga a la prueba constante de las acciones internas contra estándares externos de las prácticas de la industria. Es una estrategia que fomenta el trabajo de equipo al enfocar la atención sobre las prácticas de *negocios para permanecer competitivos más bien que en el interés personal, individual. Elimina la subjetividad de la toma de decisiones.

ASPECTOS Y CATEGORIAS DEL BENCHMARKING Calidad: Entre los aspectos tenemos a la calidad, que se refiere al nivel de valor creado de los productos para el cliente sobre el costo de producirlos. Dentro de este aspecto el benchmarking puede ser muy importante para saber la forma en que las otras empresas forman y manejan sus sistemas de calidad, aparte de poder ser usado desde un punto de vista de calidad conforme a la calidad percibida por los clientes, la cual es determinada por la relación con el cliente, la satisfacción del mismo y por último la comparaciones con la competencia. También se puede ver el aspecto de la calidad conforme a lo que se llama calidad relativa a normas, la cual se refiere a diseñar sistemas de calidad que aseguren que la calidad resultante de los mismos se apegará o cumplirá con especificaciones y estándares predeterminados, lo cual se puede hacer a través de revisar el proceso de desarrollo y diseño, los procesos de producción y distribución y los procesos de apoyo como contabilidad, finanzas, etc. Por último dentro del aspecto de calidad se puede ver lo referente al desarrollo organizacional en base a que tanto nos enfocamos en lo que hacemos, en el desarrollo del recurso humano, en el compromiso e involucramiento del mismo, así como en el entrenamiento. Productividad: El benchmarking de productividad es la búsqueda de la excelencia en las áreas que controlan los recursos de entrada, y la productividad puede ser expresada por el volumen de producción y el consumo de recursos los cuales pueden ser costos o capital. Tiempo: El estudio del tiempo, al igual que de la calidad, simboliza la dirección del desarrollo industrial en los años recientes. Flujos más rápidos en ventas, administración, producción y distribución han recibido una mayor atención como un factor potencial de mejora de la productividad y la competencia. El desarrollo de programas enfocados en el tiempo han demostrado una habilidad espectacular para recortar los tiempos de entrega. CATEGORIAS DEL BENCHMARKING BENCHMARKING INTERNO En la mayor parte de las grandes empresas con múltiples divisiones o internacionales hay funciones similares en diferentes unidades de operación. Una de las investigaciones de benchmarking más fácil es comparar estas operaciones internas. Debe contarse con facilidad con datos e información y no existir problemas de confidencialidad. Los datos y la información pueden ser tan amplios y completos como se desee. Este primer paso en las investigaciones de benchmarking es una base excelente no sólo para descubrir diferencias de interés sino también centrar la atención en los temas críticos a que se enfrentará o que

sean de interés para comprender las prácticas provenientes de investigaciones externas. También pueden ayudar a definir el alcance de un estudio externo. BENCHMARKING COMPETITIVO Los competidores directos de productos son contra quienes resulta más obvio llevar a cabo el benchmarking. Ellos cumplirían, o deberían hacerlo, con todas las pruebas de comparabilidad. En definitiva cualquier investigación de benchmarking debe mostrar cuales son las ventajas y desventajas comparativas entre los competidores directos. Uno de los aspectos más importantes dentro de este tipo de investigación a considerar es el hecho que puede ser realmente difícil obtener información sobre las operaciones de los competidores. Quizá sea imposible obtener información debido a que está patentada y es la base de la ventaja competitiva de la empresa. BENCHMARKING FUNCIONAL No es necesario concentrarse únicamente en los competidores directos de productos. Existe una gran posibilidad de identificar competidores funcionales o líderes de la industria para utilizarlos en el benchmarking incluso si se encuentran en industrias disímiles. Este tipo de benchmarking ha demostrado ser productivo, ya que fomenta en interés por la investigación y los datos compartidos, debido a que no existe el problema de la confidencialidad de la información entre las empresas disímiles sino que también existe un interés natural para comprender las prácticas en otro lugar. Por otra parte en este tipo de investigación se supera el síndrome del "no fue inventado aquí" que se encuentra frecuentemente cuando se realiza un benchmarking con la misma industria. BENCHMARKING GENERICO Algunas funciones o procesos en los negocios son las mismas con independencia en las disimilitudes de las industrias, por ejemplo el despacho de pedidos. El beneficio de esta forma de benchmarking, la más pura, es que se pueden descubrir prácticas y métodos que no se implementan en la industria propia del investigador. Este tipo de investigación tiene la posibilidad de revelar la mejor de las mejores prácticas. La necesidad mayor es de objetividad y receptividad por parte del investigador. Que mejor prueba de la posibilidad de ponerlo en práctica se pudiera obtener que el hecho de que la tecnología ya se ha probado y se encuentra en uso en todas partes. El benchmarking genérico requiere de una amplia conceptualización, pero con una comprensión cuidadosa del proceso genérico. Es el concepto de benchmarking más difícil para obtener aceptación y uso, pero probablemente es el que tiene mayor rendimiento a largo plazo. PROCESO DE BENCHMARKING DE ROBERT C. CAMP (XEROX) El proceso consiste de cinco fases. El proceso se inicia con la fase de planeación y continúa a través del análisis, la integración, la acción y por último la madurez.

Fase De Planeación El objetivo de esta fase es planear las investigaciones de benchmarking. Los pasos esenciales son los mismos que los de cualquier desarrollo de planes - qué, quién y cómo. 1.- Identificar que se va a someter a benchmarking. En este paso la clave es identificar el producto de la función de negocios. Dicho producto puede ser resultado de un proceso de producción o de un servicio. En este paso no podemos ayudar mediante la declaración de una misión para la función de negocios que se va a someter a benchmarking que es un nivel de evaluación alto, una vez hecho esto se dividen aun más las producciones en partidas específicas a las que aplicar benchmarking. Es importante el documentar los procesos del negocio y ver los sistemas de evaluación de desempeño, ya que las variables que estos miden puede representar las variables importantes del negocio a las cuales se les debe aplicar el estudio de benchmarking. 2.- Identificar compañías comparables. En este paso es de suma importancia el considerar que tipo de estudio de benchmarking se quiere aplicar, interno, competitivo, funcional o genérico, ya que esto determinará en gran manera con que compañía no habremos de comparar, es importante recordar que sea cual quiera el tipo de estudio, se deben de buscar las empresas con las mejores prácticas para compararnos con ellas. Para identificar a esas empresas podemos auxiliarnos con herramientas como las bases públicas de datos, las asociaciones profesionales y otras fuentes limitadas tan sólo por el ingenio del investigador. 3.- Determinar el método para recopilación de datos y recopilar los datos. La recopilación de los datos es de suma importancia, y el investigador puede obtener datos de distintas fuentes. La información obtenida puede ser : *Información interna. Resultado de análisis de productos, de fuentes de la compañía, estudios de combinación de piggybacking (uso de información obtenida en estudios anteriores) y por parte de expertos. *Información del dominio público. Proviene de bibliotecas, asociaciones profesionales o mercantiles, de consultores o de expertos y estudios externos. *Búsqueda e investigaciones originales. La información se obtiene por medio de cuestionario directo o por correo, encuestas realizadas por teléfono, etc *Visitas directas en la ubicación. Son de suma importancia, y por lo tanto debemos tratar de sacar el mayor provecho de las mismas, por lo que debemos hacer una preparación de las mismas, establecer los contactos adecuados en las otras empresas, realizar un itinerario de la visita y planear sesiones de intercambio de información entre las empresas. Fase De Análisis Después de determinar qué, quién y cómo, se tiene que llevar a cabo la recopilación y el análisis de los datos. Esta fase tiene que incluir la comprensión cuidadosa de las prácticas actuales del proceso así como las de los socios en el benchmarking.

4.- Determinar la brecha de desempeño actual. En este paso se determina la diferencia de nuestras operaciones con las de los socios de benchmarking y se determina la brecha existente entre las mismas. Existen tres posibles resultados que son: Brecha negativa. Significa que las operaciones externas son el benchmarking. Significa que las prácticas externas son mejores. Operaciones en paridad. Significa que no hay diferencias importantes en las prácticas. Brecha positiva. Las prácticas internas son superiores por lo que el benchmarking se basa en los hallazgos internos. Dicha superioridad se puede demostrar de forma analítica o en base a los servicios de operación que desea el mercado. 5.- Proyectar los niveles de desempeño futuros. Ya que se definieron las brechas de desempeño es necesario establecer una proyección de los niveles del desempeño futuro, el cual es la diferencia entre el desempeño futuro esperado y lo mejor en la industria. En este paso se puede hacer uso de la gráfica Z la cual nos muestra en forma gráfica el tamaño de la brecha, así como el alcance completo de la brecha, en la actualidad y en el futuro. Es útil basar la gráfica en una sola estadística resumida que muestre la función o el desempeño global de la unidad de negocios. Esta gráfica se divide en tres componentes esenciales. Se muestra la tendencia de la productividad histórica, o reducción del costo. Después se muestra el tamaño de la brecha, y por último se muestra traza la productividad futura proyectada. Productividad Histórica. Lo más probable es que sea cierto que ninguna empresa ha permanecido completamente estática si no que, de hecho, ha tenido algún nivel de productividad con el transcurso del tiempo. Se supondrá que se ha buscado algún nivel de productividad histórica, que se puede medir y por lo tanto representar gráficamente. Es lo que muestra primero la gráfica Z. Se traza como una línea inclinada que asciende hasta el momento de la medición de la brecha. Brecha de Benchmarking. La brecha se muestra como una función de un paso por una sola vez, que es necesario cerrar para alcanzar la paridad. Se basa en el efecto sumario de la diferencia entre el desempeño actual y de la industria. Se muestra como una línea vertical al momento del estudio. Productividad Futura. Se presenta como una línea inclinada que sigue la medición de la brecha. Es el nivel de productividad que se proyecta para el futuro de manera que se logre alcanzar primero la paridad y después la superioridad. Es una medida comparativa entre la operación interna y la productividad supuesta de la industria. A continuación se muestra una gráfica "Z“. Integración

La integración es el proceso de usar los hallazgos de benchmarking para fijar objetivos operacionales para el cambio. Influye la planeación cuidadosa para incorporar nuevas prácticas a la operación y asegurar que los hallazgos se incorporen a todos los procesos formales de planeación. 6.- Comunicar los hallazgos de benchmarking y obtener aceptación. Los hallazgos de benchmarking se tienen que comunicar a todos los niveles de la organización para obtener respaldo, compromiso y propiedad. Para la comunicación primeramente se debe determinar el auditorio y sus necesidades, se selecciona un método de comunicación y por último, se deben presentar los hallazgos en una forma ordenada. En el proceso de obtención de aceptación es importante establecer una estrategia de comunicación en múltiples facetas, aparte de la declaración de una misión y de principios operacionales, así como el ver a benchmarking como una iniciativa de cambio al mostrar las mejores prácticas y explicar la forma en que estas operan. Diferentes. 7.- Establecer metas funcionales. En este punto se tratan de establecer metas funcionales con respecto a los hallazgos de benchmarking, y convertir dichas metas en principios de operación que cambien los métodos y las prácticas de manera que se cierre la brecha de desempeño existente. Acción Se tiene que convertir en acción los hallazgos de benchmarking y los principios operacionales basados en ellos. Es necesario convertirlos en acciones específicas de puesta en práctica y se tiene que crear una medición periódica y la evaluación del logro. 8.- Desarrollar planes de acción. En este punto se incluyen dos consideraciones principales. La primera tiene que ver con las tareas en la planeación de la acción las cuales tienen que ver con el qué, cómo, quién y cuándo. Específicamente incluyen. *Especificación de la tarea. *Poner en orden la tarea. *Asignación de las necesidades de recursos. *Establecimiento del programa. *Determinación de las responsabilidades. *Resultados esperados. Supervisión. 9.- Implementar acciones específicas y supervisar el progreso. Dicha implementación se puede realizar por medio de alternativas tradicionales como son la administración el línea o la administración de proyectos o programas. Otra es la alternativa de implantación mediante equipos de desempeño o por los más cercanos al proceso y que tienen la responsabilidad de operación del mismo ; y por último la alternativa de nombrar un "zar del proceso" que sería el responsable de la implementación del programa. De igual manera es importante el supervisar el proceso y realizar informas del progreso que nos ayuden a aumentar el éxito del benchmarking.

10.- Recalibrar los benchmarks. Este paso tiene como objetivo el mantener los benchmarks actualizados en un mercado con condiciones cambiantes de manera que se asegure el desempeño excelente. Es importante el realizar una evaluación en áreas como la comprensión del proceso de benchmarking, la comprensión de las mejores prácticas, la importancia y valor, lo adecuado para fijar metas y la comunicación de benchmarking dentro de la empresa para ver que aspecto necesita una recalibración de benchmarks por medio de una planeación bien realizada y la repetición del proceso de 10 pasos hasta llegar a la institucionalización del benchmarking. MADUREZ Será alcanzada la madurez cuando se incorporen las mejores prácticas de la industria a todos los procesos del negocio, asegurando así la superioridad. También se logra la madurez cuando se convierte en una faceta continua, esencial y auto iniciada del proceso de administración, o sea que se institucionaliza.

1.3.4 JUSTO A TIEMPO
Justo a Tiempo ó Justo in Time fue desarrollado por Toyota inicialmente para después trasladarse a muchas otras empresas de Japón y del mundo, ha sido el mayor factor de contribución al impresionante desarrollo de las empresas japonesas. Esto ha propiciado que las empresas de otras latitudes se interesen por conocer como es esta técnica. El ideólogo del asunto, Taiichi Ohno, creía que la sobreproducción generaba desperdicio en otras áreas, en tal sentido ideó un sistema de producción con dos características JIT (justo a tiempo) y jidohka (automatización), como apoyo a dicho sistema, Ohno desarrollo el "kamban" (procedimientos etiquetados en el producto). La primera razón que está detrás de este concepto, es que puede reducir inventarios, tiempos y costos de producción, así como mejorar la calidad de los productos y servicios. Just in Time es el intento de establecer un alineamiento cliente - proveedor automático e inteligente teniendo los procedimientos en el producto preprogramados. La idea básica del Just in Time es producir un artículo justo a tiempo para que este sea vendido o utilizado por la siguiente estación de trabajo en un proceso de manufacturas. Debido a que el inventario es considerado la raíz de muchos problemas en las operaciones, este debe ser eliminado o reducido al mínimo. Se le ha dado el enfoque principal de disminuir inventarios lo cual ha llevado a varias empresas

a tener faltantes tanto de materias primas como de productos terminados en el momento en que se necesitan. Analizando esta metodología, algunos opinan que su enfoque esta dirigido a disminuir el desperdicio (en tiempo, dinero, trabajo y esfuerzo) y obviamente donde es muy fácil encontrar que sobra algo es en inventarios. Para que esta metodología funcione hay que apoyarse en algunas otras del desarrollo organizacional. El Justo a Tiempo puede reducir la necesidad de inventarios lo bastante para reducir las fuentes de incertidumbre o diseñar un sistema más flexible para enfrentar las necesidades de cambio. De ahí que la orientación del Justo a Tiempo sea diferente de los sistemas tradicionales. Para reducir inventarios y producir el artículo correcto en el tiempo exacto, con la cantidad adecuada, se requiere de información acerca del tiempo y el volumen de los requerimientos de producción de todas las estaciones de trabajo. El Justo a Tiempo suministra esta información, no a través de un caro y sofisticado sistema de cómputo, sino a través del uso de una orientación de "pull" (orientación de jalar) en lugar de la orientación convencional de "push" (de empujar). La orientación "push" comienza con una orden en el centro de trabajo inicial. Una vez que el trabajo es completado en la primera estación de trabajo, este se mueve al siguiente centro de trabajo, este proceso continua hasta el final de la estación de trabajo. Como puede advertirse, el trabajo es disparado al completarse el trabajo de la estación precedente y no en relación a las necesidades de la siguiente estación de trabajo. Por el contrario, en la orientación "pull" o de jalar, las referencias de producción provienen del precedente centro de trabajo. Entonces la precedente estación de trabajo dispone de la exacta cantidad para sacar las partes disponibles a ensamblar o agregar al producto. Esta orientación significa comenzar desde el final de la cadena de ensamble e ir hacia atrás hacia todos los componentes de la cadena productiva, incluyendo proveedores y vendedores. De acuerdo a esta orientación una orden es disparada por la necesidad de la siguiente estación de trabajo y no es un artículo innecesariamente producido. La orientación "pull" es acompañada por un sistema simple de información llamado KANBAN que es una tarjeta que es pasada de una subsecuente estación de trabajo hacia su precedente y esta señala una corrida de producción. Así, la necesidad de un inventario para el trabajo en proceso se ve reducida por el empalme ajustado de la etapa de fabricación. Esta reducción ayuda a sacar a la luz cualquier pérdida de tiempo o de material, el uso de refacciones defectuosas y la operación indebida del equipo. Con el Justo a Tiempo, el ensamblado general de producción dicta el ritmo y los requerimientos de producción para los procesos precedentes. No obstante, la programación del ensamble debe ser tan "suave" y repetitiva como sea posible. Cualquier fluctuación en la mezcla de artículos producidos en el proceso general, podría crear variaciones en los requerimientos de producción de las estaciones precedentes. Variaciones grandes en cualquier centro de trabajo,

necesitan indeseables grandes inventarios en proceso o capacidades productivas que permitan enfrentar los picos de demandas. VENTAJAS DE JUSTO A TIEMPO Estos beneficios se derivan de la experiencia de diversas industrias, que han aplicado esta técnica. Reduce el tiempo de producción. Aumenta la productividad. Reduce el costo de calidad. Reduce los precios de material comprado. Reduce inventarios (materiales comprados, obra en proceso, productos terminados). Reduce tiempo de alistamiento. Reducción de espacios. Reduce la trayectoria del producto entre el fabricante, el almacén y el cliente. Se puede aplicar a cualquier tipo de empresa que reciba o despache mercancías. Se basa en el principio de que el nivel idóneo de inventario es el mínimo que sea viable. Es una metodología más que una tecnología que ha ganado mucha aceptación, sin embargo pocas empresas han creado la disciplina y los sistemas necesarios para aplicarlo efectivamente. APLICACIONES DE JUSTO A TIEMPO A NIVEL EXTERNO E INTERNO DE LA EMPRESA Las aplicaciones del JAT, se explica como sigue: 1. Producción o procesos de producción. a. Utilizar máquinas de múltiples propósitos, en las que fácilmente se pueda pasar de la producción de un componente a otro. b. Aplicar las técnicas de grupos o celdas, donde las series de componentes se puedan producir juntas, esto permite reducir los períodos de planificación. c. Trazar un esquema en U, en el cual los materiales se colocan en un costado de la U, y los productos terminados en el otro costado, permitiendo la reducción del movimiento del material. d. Utilizar órdenes de compra generales, que autoricen a un proveedor a suministrar una cierta cantidad de material durante un período de tiempo, esto evita las órdenes individuales, ahorrando tiempo y esfuerzo. Reduciendo los costos operativos. Niveles de inventario reducidos a. Utilizar un sistema para hacer que los materiales fluyan de acuerdo con los requerimientos de producción / trabajo, conocido también como sistema de

afluencia antes de un sistema de almacenado. Mejoramiento del control de calidad a. Insistir en los detalles de calidad de los proveedores o fuentes. b. Adoptar un sistema de control de calidad total, comenzando con la calidad de los artículos suministrados por el proveedor, poniendo énfasis en la calidad en la línea de producción de los artículos manufacturados y en la calidad del servicio que presta el colaborador. Mejoramiento de la calidad y la fiabilidad a. Diseñar calidad y fiabilidad en el producto. Utilizar técnicas de ingeniería del valor, diseño para la fabricación y diseño para el montaje. El objetivo es eliminar el descarte y todos los defectos, para que los clientes reciban una calidad superior con menos reparaciones de garantía. Flexibilidad del producto La menor cantidad de trabajo en proceso permite una mayor capacidad para responder rápido a los cambios en las demandas del consumidor para diferentes artículos. Responsabilidad en la distribución. Al utilizar el sistema de afluencia y el control de calidad total permite dar una mejor respuesta a los clientes, en cuanto a una distribución puntual de productos y de servicios de calidad. Utilización de los activos a. Reducir la inversión de capital. Al reducir los inventarios y contar con un manejo más eficiente, se requieren menos activos para los procesos actuales. Esto permite reducir los gastos operativos de las instalaciones actuales o brinda más espacio para la expansión del negocio.

Utilización del personal a. Promover la capacitación cruzada del personal para trabajar en diferentes áreas de producción. Los empleados familiarizados con el proceso contribuyen al mejoramiento continuo; pues poseen más sentido de propiedad con respecto al producto o servicio. Utilización del personal a. Promover la capacitación cruzada del personal para trabajar en diferentes áreas de producción. Los empleados familiarizados con el proceso contribuyen al mejoramiento continuo; pues poseen más sentido de propiedad con respecto al producto o servicio MINIMINIZACION DE LOS COSTOS

a. Reducir el inventario. b. Reducir el desperdicio de material y el desaprovechamiento de la mano de obra debido a los defectos. c. Establecer cuotas de trabajo simplificadas que significan menores costes por primas. d. Reducir los costes mediante el mejoramiento del mantenimiento preventivo. e. Simplificar los procesos administrativos para reducir el trabajo por empleado

1.3.5 REINGENIERIA
Michael Hammer, Profesor de Ciencias de Computación, se ha convertido en el misionero del cambio organizacional masivo. Utiliza él termino "Reingeniería", para abogar por el trabajo del diseño radical. Hace unos 12 años aproximadamente Hammer junto con Champy empieza a observar que unas pocas compañías habían mejorado espectacularmente su rendimiento en unas áreas de su negocio, cambiando radicalmente las formas en que trabajaban. No habían cambiado el negocio a que se dedicaban, habían alterado en forma significativa los procesos que seguían y todos los procedimientos. Poco a poco examinaron las experiencias de muchas compañías y pudieron discernir los patrones que no los lograron, y gradualmente vieron surgir una serie de procedimientos que efectuaba el cambio radical. Con el tiempo, le dieron a esta serie de procedimientos un nombre de "Reingeniería". DEFINICION "Es el método mediante el cual una organización puede lograr un cambio radical de rendimiento medido por el costo, tiempo de ciclo, servicio y calidad, mediante la aplicación de varias herramientas y técnicas enfocadas en el negocio como una serie de procesos del producto principal del negocio, Si analizamos el párrafo anterior, nos damos cuenta que los señores Hammy & Champy focalizan el concepto de la Reingeniería en cuatro palabras claves: Fundamental: Al comenzar el proceso de Reingeniería de un negocio cualquiera, el individuo debe hacerse las preguntas más básicas sobre su compañía y como funciona, lo cual obliga a la persona a examinar todas y cada unas de las reglas tácitas y los supuestos en que se basa el manejo del negocio Radical: Esta palabra proviene del latín RADIX (raíz). Rediseñar de manera radical significa llegar hasta la raíz de las cosas, vale decir, no efectuar cambios superficiales ni tratar de arreglar lo que existe; es simplemente abandonar lo viejo. Al hablar de Reingeniería, el rediseño radical consiste en destacar todas las estructuras y los procedimientos existentes e Inventar nuevas maneras el realizar de trabajo. Rediseñar es Reinventar, no mejorar ni modificar.

Espectacular: La Reingeniería no es cuestión de hacer mejoras marginales o increméntales, sino de dar salto gigantesco en rendimiento. Se debe apelar la Reingeniería únicamente cuando exista la necesidad de desaparecer todo; la mejora marginal requiere una afinación de sumo cuidado, mientras que la mejora espectacular exige cambiar los viejo por algo totalmente nuevo. Procesos: Los procesos en un negocio están definidos como un conjunto de actividades que recibe uno o más insumos para crear un producto o servicio. El objetivo de cualquier proceso es satisfacer con éxito a los clientes y sus necesidades. Para lograrlo, es preciso obtener una retroalimentación continua de los rendimientos. Otro objetivo es entregar rendimiento mejor, más rápido y más barato que la competencia. La mejora de calidad busca el mejoramiento incremental del desempeño del proceso. La Reingeniería, como lo hemos visto, busca avances decisivos, no mejorando los procesos existentes sino descartándolos por completo y cambiándolos por otros enteramente nuevos. La Reingeniería implica, igualmente, un enfoque de gestión del cambio diferente del que necesitan los programas de calidad. TIPOS DE EMPRESAS QUE REQUIEREN DE REINGENIERIA Según Hammer & Champy existen tres tipos de empresas donde puede aplicarse la Reingeniería de tres maneras distintas y alcanzar éxito, siempre y cuando estas se atrevan a afrontar el reto. *En primer lugar están aquellas empresas que se encuentran en graves dificultades, es decir, no tienen mas remedio. Por ejemplo: si en este tipo de empresas los costos se encuentran sumamente elevados, si el servicio a los clientes es sumamente defectuoso y esto viven quejándose, si la competencia se encuentra un 500% mas arriba que dicha empresa definitivamente son requeridas mejoras inmensas, vale decir Reingeniería. En segundo lugar están las compañías que todavía no se encuentran con ningún problema de importancia, pero tienen la capacidad de avisarlos. En dichas compañías, los resultados financieros podrían ser satisfactorios, pero pueden ser detectadas calamidades como las siguientes: competidores, requisitos cambiantes de la clientela, cambios económicos drásticos, etc. Para que este tipo de compañías siga por el buen camino por el que están OBJETIVOS DE LA REINGENIERIA La Reingeniería persigue definir criterios de simplificación y optimización que permiten alcanzar las metas del cambio: *Racionalizar las operaciones *Reducir los costos * Mejorar la calidad *Aumentar los ingresos

PRINCIPIOS DE REINGENIERIA *Habilidad para utilizar el cambio con eficiencia *Utilizar el cambio de manera continua; habilidad de cambiar con rapidez para ganar ventaja competitiva. Desarrollo de enfoques para aplicar Reingeniería, con base en el concepto de cambio continuo y dirigido (Paradigma Cambiante) *Paradigma Cambiante *Consiste en orientar la operación hacia un cambio continuo, y sostiene que calidad y eficiencia solo pueden mejorarse mediante una constante evolución. La gerencia debe evaluar de manera continua las razones para competir en todos los mercados y dentro de cada ramo del negocio, y de igual manera estar abierta a la investigación de oportunidades. *Comenzar sobre una base limpia Organizar con base en resultados, no en tareas Este principio sugiere que una persona ejecute todos los pasos de un proceso. Diseñar el trabajo de esa persona con base en objetivo o resultados en vez de una sola tarea. Unir actividades paralelas en lugar de integrar sus resultados Este principio llama a crear nexos entre funciones paralelas y a coordinarlas durante el proceso en si, no después de que el mismo haya terminado. (Las redes de comunicación bases de datos compartidas y la teleconferencia pueden unir a los grupos independientes para que la coordinación sea progresiva. El centro de la toma de decisiones debe estar en donde se ejecuta el trabajo, y debe crearse un control dentro del proceso Sugiere que la misma gente que realiza el trabajo debe ser responsable de tomar sus propias decisiones y que el proceso en si puede poseer controles.

Piense en grande Nadie en una organización quiere llevar a cabo un proceso de reingeniera. Crea confusión y afecta las costumbres de la gente si la gerencia mayor respalda el esfuerzo y sobrevive a los cínicos como podría la gente tomar en serio la Reingeniería. Si los gerentes poseen una visión adecuada, la Reingeniería proveerá el cambio. Cultura Corporativa Los proyectos de cambio, pueden adoptar como meta el cambio de la cultura corporativa, cuando se intenta muchos cambios. Pero al mismo tiempo prevalece o se impone sobre estos la cultura, se generan problemas de resistencia a los cambios organizacionales y problemas con el personal. Si se identifica el problema con el personal. Si se identifica el problema, la cultura corporativa o institucional podría cambiarse, pero con mucha dificultad y/o con ayuda experta.

DIAGRAMA DE PARETO DEFINICIÓN El Diagrama de Pareto consiste en un gráfico de barras similar al histograma que se conjuga con una ojiva o curva de tipo creciente y que representa en forma decreciente el grado de importancia o peso que tienen los diferentes factores que afectan a un proceso, operación o resultado. UTILIDAD Al identificar y analizar un producto o servicio para mejorar la calidad. Cuando existe la necesidad de llamar la atención a los problemas o causas de una forma sistemática. Al analizar las diferentes agrupaciones de datos (ejemplo: por producto, por segmento del mercado, área geográfica, etc.) Al buscar las causas principales de los problemas y establecer la prioridad de las soluciones. Al evaluar los resultados de los cambios efectuados a un proceso (antes y después). Cuando los datos puedan agruparse en categorías. En casos típicos, los pocos vitales (pasos, servicios, ítems, problemas, causas) son responsables por la mayor parte en el impacto negativo sobre la calidad. Un equipo puede utilizar la Gráfica de Pareto para varios propósitos durante un proyecto para lograr mejoras: • Para analizar las causas • Para estudiar los resultados. • Para planear una mejora continua • Como fotos de "antes y después" para demostrar que progreso se ha logrado. EJEMPLOS DE APLICACION Encontrar el o los motivos de devoluciones del Foco Ahorrador de 65W de marca comercial conocida en el año 2005. Total de venta en el año 2005: 1500 unidades Precio del foco para la venta: $8.90 Total de foco devueltos:167 unidades. De los 82 clientes directos que adquieren el producto, determinamos que 19 clientes son los que nos han devuelto el producto en el transcurso del año 2005. DEVOLUCIÓN DE FOCO AHORRADOR DE 65W EN UNIDADES El objetivo del ejemplo es obtener las posibles causas de la devolución del producto, lo cual analizaremos a los 19 clientes de acuerdo al Principio y Diagrama de Pareto. PRIMER PASO: Ordenar a los clientes de acuerdo a la frecuencia de devolución en forma descendente.

SEGUNDO PASO: Calcular el porcentaje, en lo cual debemos dividir el valor de la frecuencia de cada cliente por el total de devolución. TERCER PASO: Calculamos elporcentaje acumulado. Con la tabla completa ya podemos construir el Diagrama de Pareto CONCLUSIÓN DEL EJEMPLO: Al analizar el porque las devoluciones de los 5 clientes intermediarios que aparecen en el principio del diagrama se determinó que el 10% era por defectos de fábrica. Pero, el 90% de la cantidad que nos devuelven pertenece a 2 casos particulares: El cliente intermediario no tiene cuidado con el producto (frágil) en sus bodegas. Receptan artículos defectuosos por parte del consumidor final (mal uso, caídas, etc.) y nos envía con el justificativo de defectos de fábrica. Por este motivo se determinó que al momento de despachar a los clientes intermediarios ya mencionado el producto se verifique por unidad por parte del personal técnico. DIAGRAMA CAUSA-EFECTO Los Diagramas Causa-Efecto ayudan a los estudiantes a pensar sobre todas las causas reales y potenciales de un suceso o problema, y no solamente en las más obvias o simples. Además, son idóneos para motivar el análisis y la discusión grupal, de manera que cada equipo de trabajo pueda ampliar su comprensión del problema, visualizar las razones, motivos o factores principales y secundarios, identificar posibles soluciones, tomar decisiones y, organizar planes de acción. El Diagrama Causa-Efecto es llamado usualmente Diagrama de "Ishikawa" porque fue creado por Kaoru Ishikawa, experto en dirección de empresas interesado en mejorar el control de la calidad; también es llamado "Diagrama Espina de Pescado" por que su forma es similar al esqueleto de un pez: Está compuesto por un recuadro (cabeza), una línea principal (columna vertebral), y 4 o más líneas que apuntan a la línea principal formando un ángulo aproximado de 70º (espinas principales). Estas últimas poseen a su vez dos o tres líneas inclinadas (espinas), y así sucesivamente (espinas menores), según sea necesario. COMO INTERPRETAR UN DIAGRAMA CAUSA-EFECTO El diagrama Causa-Efecto es un vehículo para ordenar, de forma muy concentrada, todas las causas que supuestamente pueden contribuir a un determinado efecto. Nos Permite, por tanto, lograr un conocimiento común de un problema complejo, sin ser nunca sustitutivo de los datos. Es importante ser conscientes de que los diagramas de causa-efecto presentan y organizan teorías. Sólo cuando estas teorías son contrastadas con datos podemos probar las causas de los fenómenos observables. Errores comunes son construir el diagrama antes de analizar globalmente los síntomas, limitar las teorías propuestas enmascarando involuntariamente la causa raíz, o cometer errores tanto en la relación causal como en el orden de las teorías, suponiendo un gasto de tiempo importante.

ELABORACION DE UN DIAGRAMA DE ISHIKAWA Definir claramente el efecto o síntoma cuyas causas han de identificarse. Encuadrar el efecto a la derecha y dibujar una línea gruesa central apuntándole. Usar Brainstorming o un enfoque racional para identificar las posibles causas. Distribuir y unir las causas principales a la recta central mediante líneas de 70º. Añadir subcausas a las causas principales a lo largo de las líneas inclinadas. Descender de nivel hasta llegar a las causas raíz (fuente original del problema). Comprobar la validez lógica de la cadena causal. Comprobación de integridad: ramas principales con, ostensiblemente, más o menos causas que las demás o con menor detalle. EJEMPLO: El ejemplo se basa en el proceso de fabricación de mayonesa, para así explicar los Diagramas de Causa-Efecto: La variabilidad de las características de calidad es un efecto observado que tiene múltiples causas. Cuando ocurre algún problema con la calidad del producto, se debe investigar a fin de identificar las causas del mismo. Para hacer un Diagrama de Causa-Efecto se siguen los siguientes pasos: Se decide cuál va a ser la característica de calidad que se va a analizar. Por ejemplo, en el caso de la mayonesa podría ser el peso del frasco lleno, la densidad del producto, el porcentaje de aceite, etc. Se traza una flecha gruesa que representa el proceso y a la derecha se escribe la característica de calidad: Se indican los factores causales más importantes y generales que puedan generar la fluctuación de la característica de calidad, trazando flechas secundarias hacia la principal. Por ejemplo: Materias Primas, Equipos, Operarios, Método de Medición, etc. Se incorporan en cada rama factores más detallados que se puedan considerar causas de fluctuación. Para hacer esto, se pueden formular estas preguntas: ¿Por qué hay fluctuación o dispersión en los valores de la característica de calidad? Por la fluctuación de las Materias Primas. Se anota Materias Primas como una de las ramas principales. ¿Qué Materias Primas producen fluctuación o dispersión en los valores de la característica de calidad? Aceite, Huevos, sal, otros condimentos. Se agrega Aceite como rama menor de la rama principal Materias Primas. ¿Por qué hay fluctuación o dispersión en el aceite? Por la fluctuación de la cantidad agregada a la mezcla. Agregamos a Aceite la rama más pequeña Cantidad. ¿Por qué hay variación en la cantidad agregada de aceite? Por funcionamiento irregular de la balanza. Se registra la rama Balanza. ¿Por qué la balanza funciona en forma irregular? Por que necesita mantenimiento. En la rama Balanza colocamos la rama Mantenimiento. Así se sigue ampliando el Diagrama de Causa-Efecto hasta que contenga todas

las causas posibles de dispersión. Finalmente se verifica que todos los factores que puedan causar dispersión hayan sido incorporados al diagrama. Las relaciones Causa-Efecto deben quedar claramente establecidas y en ese caso, el diagrama está terminado. Un diagrama de Causa-Efecto es de por si educativo, sirve para que la gente conozca con profundidad el proceso con que trabaja, visualizando con claridad las relaciones entre los Efectos y sus Causas. Sirve también para guiar las discusiones, al exponer con claridad los orígenes de un problema de calidad. Y permite encontrar más rápidamente las causas asignables cuando el proceso se aparta de su funcionamiento. HISTOGRAMA El histograma es una gráficas de barras que permite describir el comportamiento de un conjunto de datos en cuanto a su tendencia central, forma y dispersión. El histograma permite que de un vistazo se pueda tener una idea objetiva sobre la calidad de un producto, el desempeño de un proceso o el impacto de una acción de mejora. La correcta utilización del histograma permite tomar decisiones no solo con base en la media, sino también con base en la dispersión y formas especiales de comportamiento de los datos. Su uso cotidiano facilita el entendimiento de la variabilidad y favorece la cultura de los datos y los hechos objetivos. CONSTRUCCION DE UN HISTOGRAMA Para decidir correctamente y detectar posibles anormalidades en los datos se procede a lo siguiente para construir un histograma: Paso 1. Determinar el rango de datos. La diferencia entre el dato máximo y el dato mínimo. Paso 2. Obtener el número de clases (NC) o barras. Ninguno de ellos es exacto, esto depende de cómo sean los datos y cuantos sean . Un criterio usado es del número de clases, debe ser aprox. Igual a la raíz cuadrada del numero de datos. Paso3. Establecer la longitud de clase (LC).Se establece de tal manera que el rango pueda ser cubierto en su totalidad por NC. Una forma directa de obtener la LC es dividiendo el rango entre el numero de clases, LC= R/NC. Paso 4. Construir los intervalos de clase. Resultan de dividir el rango (original o ampliado) en NC e intervalos de longitud LC. Paso 5. Obtener la frecuencia de cada clase. Se cuentan los datos que caen en cada intervalo de clase. Paso 6.Graficar el histograma. Se grafican en barras, en las que su base es el intervalo de clase y la altura sean las frecuencias de las clases INTERPRETACION DE UN HISTOGRAMA Lo que se aprecia en el histograma como tendencia central, variabilidad y comportamientos especiales será una información valiosa. Observándolo se pueden contestar varias preguntas tales como: ¿Hay un comportamiento simétrico?, ¿Hay Sesgo?, ¿Hacia que lado? Para esto basta que se observe la forma del histograma; cuando es resultado de una

muestra grande, hay un sesgo significativo pude ser que haya algún problema, como calentamiento de los equipos o instrumentos de medición descalibrados. ¿Esta centrado el proceso? Con un tamaño de muestra grande es muy fácil ver mediante un histograma si un proceso esta centrado o no, ya que basta observar la posición del cuerpo del histograma respecto a la calidad optima y a las especificaciones, si no esta centrado la calidad que se produce no es adecuada. ¿Hay acantilados? Las posibles causas que motivan la presencia de acantilados están: un lote de articulo previamente inspeccionados al 100% donde se excluyo a los artículos que no cumplen con alguna medida mínima o que exceden una medida máxima, problemas con el equipo de medición y errores en la inspección. Un acantilado es anormal y debe buscarse la causa del mismo. Estratificación. Cuando se obtienen datos que proceden de diferentes maquinas, proveedores u operadores, se hace un histograma por cada fuentes y así se podrá encontrar la maquina o proveedor más problemático. EJEMPLO : A una fabrica de envases de vidrio, un cliente le está exigiendo que la capacidad de cierto tipo de botella sea de13 ml., con una tolerancia de más menos 1 ml.. La fábrica establece un programa de mejora de calidad para que las botellas que se fabriquen cumplan con los requisitos del cliente. Muestreo = 11,12,13,12,13,14,14,15,11,12,13,12,14,15,11,12,16,16,14,13,14,14,13,15,15 1. Rango: 16 –11 = 5 2. Ö25 = 5 3. 5/5 = 1 DIAGRAMA DE DISPERSION Definición Representación gráfica del grado de relación entre dos variables cuantitativas Un Diagrama de Dispersión es la forma mas sencilla de definir si existe o no una relación causa efecto entre dos variables y que tan firme es esta relación, como estatura y peso. Una aumenta al mismo tiempo con la otra. El Diagrama de Dispersión es de gran utilidad para la solución de problemas de la calidad en un proceso y producto, ya que nos sirve para comprobar que causas (factores) están influyendo o perturbando la dispersión de una característica de calidad o variable del proceso a controlar. Los motivos mas comunes de este tipo de diagrama son analizar: La relación entre una causa y un efecto. La relación entre una causa y otra. La relación entre una causa y otras dos causas.

Un efecto y otro efecto. La primera forma de describir una distribución bivariante es representar los pares de valores en el plano cartesiano. El gráfico obtenido recibe el nombre de nube de puntos o diagrama de dispersión. Un diagrama de dispersión es una representación gráfica de la relación entre dos variables, muy utilizada en las fases de Comprobación de teorías e identificación de causas raíz y en el Diseño de soluciones y mantenimiento de los resultados obtenidos. Tres conceptos especialmente destacables son que el descubrimiento de las verdaderas relaciones de causa-efecto es la clave de la resolución eficaz de un problema, que las relaciones de causa-efecto casi siempre muestran variaciones, y que es más fácil ver la relación en un diagrama de dispersión que en una simple tabla de números. Línea De Tendencia La línea de tendencia es la herramienta básica más importante con la que cuenta el analista técnico. Es una línea o conjunto de líneas que se trazan en el gráfico uniendo con una misma pendiente series sucesivas de puntos mínimos (líneas de tendencia alcista) o de puntos máximos (línea de tendencia bajista). Sirve para determinar en primer lugar la dirección del mercado y establecer sus objetivos de proyección. Marca los niveles de soporte o de resistencia que están proyectando los precios. Permite analizar en cada momento el nivel de Beneficio/Riesgo que se puede tomar al iniciar o cerrar una posición, tomando como referencia el precio actual respecto a línea de tendencia y su proyección. La ruptura de una línea de tendencia al alza o la baja es una de las señales que confirma un cambio en la dirección de los precios. Son la base para trazar los canales que encuadran el posible movimiento de los precios. Según sea la dispersión de los datos (nube de puntos) en el plano cartesiano, pueden darse alguna de las siguientes relaciones, Lineal, Logarítmica, Exponencial, Cuadrática, entre otras. MODELO MATEMÁTICO Llamado también ajuste de curvas es una ecuación dada en un grafico, dependiendo del grado de correlación que mas se ajuste al conjunto de datos. • AJUSTE LINEAL: Y=BX+A • AJUSTE LOGARITMICO: Y=B Ln X+A • AJUSTE EXPONENCIAL: Y=AC BX • AJUSTE PARABOLICO, CUADRATICO O POLINOMIAL: Y= AX2 + BX + A Estima una valoración aproximada basada en datos de periodos anteriores (datos históricos o estadísticos) a través de muestreos.

Pronósticos • Es estimar un valor de y dado o supuesto un valor de x. También se puede decir que es prever el futuro. Enuncie Los Pasos Para Ajustar Un Conjunto De Datos Y Crear Un Conjunto Su Modelo Matemático Tener tabulado un conjunto de datos Xi, Yi cuyas variables tengan relación • Utilidades vs. Costos • Costos vs. Cantidad Producida • Utilidades vs. Mes • Costos vs. Semanas • Ingresos vs. Año MÉTODO DE FLUJO DE PROCESO Con este método de construcción, la línea principal del diagrama de Ishikawa sigue la secuencia normal del proceso de producción o de administración. Los factores que pueden afectar la característica de calidad se agregan en el orden que les corresponde, según el proceso. La figura siguiente muestra un diagrama construido con este método. Con frecuencia el diagrama de flujo del proceso es la primer etapa para entender un proceso de manufactura o de cualquier otro tipo. Para ir agregando, en el orden del proceso, las causas potenciales, se puede realizar la siguiente pregunta: La variabilidad en esta parte del proceso afecta el problema especificado? Este método permite explorar formas alternativas de trabajo, detectar cuellos de botella, descubrir problemas ocultos, etcétera. GRÁFICOS DE CONTROL La Gráfica de Control es un tipo especial de gráfica que se dirige a la posibilidad de interpretar información derivada de un proceso creando una imagen de las fronteras o límites de variación permisibles. Permite de manera objetiva determinar si un proceso se encuentra “en control” o “fuera de control”. Es una herramienta útil para establecer fronteras de variación dentro de un proceso. Muestra cuando estas fronteras se sobrepasan y entonces buscar las claves que lleven a las causas para resolverlas. ELABORACION A) Determine lo que va a medirse: • Será necesario identificar una medida clave que quiera medir a través del tiempo o contra algún otro factor. Esta medida deberá ser un indicador de calidad /productividad (cliente externo o proceso interno) que nos de información útil para la toma de decisiones. • Algunos factores de medición posibles son los siguientes: o Volumen: Por ejemplo qué tanto dentro de un período específico. o Tiempo del ciclo: Qué tanto tiempo toma el realizar o llevar a cabo algo.

B) Recolecte los datos: • Algunas sugerencias para recolectar la información: • Utilice una muestra que contenga al menos 50 unidades / artículos o elementos inspeccionados o factibles de ser revisados, (la muestra debe ser lo suficientemente grande como para dar un promedio de 3 o más defectos por muestra). Evite tomar muestras al través de períodos prolongados (por ejemplo reduzca las muestras grandes en períodos más manejables de 2 a 4 horas en lugar de uno de 24 horas). Evite variar el tamaño de las muestras. Utilice un mínimo de 20 muestras. • Después de haber tomado un mínimo de 20 muestras y calculado el porcentaje de defectos de cada una, elabore la escala en el eje vertical de la gráfica . La escala debe reflejar lo que sea apropiado de acuerdo a la medida que usted ha seleccionado. Elabore el eje horizontal con un marcaje por cada fecha de la muestra. Grafique el porcentaje de defectos. A continuación calcule el porcentaje promedio todos los porcentajes de defectos y divida el resultado entre el total de muestras sumadas. Dibuje una línea horizontal en la con el valor resultante y nómbrela “P”.

C) Calcule los Límites de Control • Los límites de control le dirán si su proceso tiene un control estadístico ( en el ejemplo sólo se denota variación por causa común, o la cantidad de variación de día a día que podría esperarse por causas comunes tales como alguna diferencia en materiales, métodos, equipo, etc.). Piense que los límites de control son fronteras invisibles. Mientras que los puntos se encuentren entre las estas frontera de control, todo estará bien. Sin embargo, cuando los puntos rebasan estas fronteras se deberá investigar las causas por las que se han rebasado. Las fórmulas que se utilizan para calcular los límites de control son:

Donde: o o o o o o o P es el promedio del número de defectos obtenido. N es el tamaño de la muestra LSC es el Límite Superior de Control LIC es el Límite Inferior de control SEGUIMIENTO: Decida sobre las siguientes acciones: Si los puntos se encuentran dentro de los límites de control: Continúe sin hacer cambios significativos.

b) Vuelva a hacer un ejercicio de tablero de control después de un tiempo para verificar que el proceso está funcionando. c) Lleve a cabo mejoras en el proceso que logren reducir las pequeñas

variaciones en el desempeño que ha encontrado. Haga un seguimiento para asegurarse de que los cambios que ha efectuado han tenido un efecto positivo. B) Si los puntos se encuentran fuera de los límites de control: Investigue y tome las acciones necesarias para eliminar la(s) causa (s). Haga un seguimiento para asegurarse de que los cambios efectuados hayan tenido efectos positivos y que se hayan eliminado las causas de las variaciones en el proceso. Tome muestras nuevas y haga un nuevo ejercicio de gráfica de control utilizando los límites que se deriven de la nueva información. 3. Formato Formato para el registro de la información 4. Ejemplo Se encuentra en una situación en la que en un Hospital existen quejas de los diferentes departamentos por material de curación que se recibe como “defectuoso” y se detecta al ser utilizado por diferentes áreas . Existen reportes de las quejas presentadas. Para este efecto se ha decidido elaborar una gráfica de control usando promedios, identificar los tipos de defectos máximos y posteriormente definir las acciones que pueden llevarse a cabo En el ejemplo antes citado, el porcentaje de defectos encontrados por cada muestra se calcula sumando el tipo de defectos encontrados, por 100 y divididos entre el “ No. inspeccionado”. En el caso de este ejemplo en la muestra obtenida el 1º de junio: 8+1+1=10 teniendo la suma se procede a hacer el siguiente cálculo: 10x 100/50=20%. Para el caso de este ejemplo el promedio total se obtiene de la suma de la columna “Defectos Encontrados” entre el número de casos presentados. Así P= 245/9=27.22 (figura1) Ya habiendo calculado los Límites de Control Superior e Inferior se grafican y se observa, en el caso del ejemplo, que el proceso se encuentra “en control” ya Que dichos límites no se rebasan.(figura 2) Para el caso del ejemplo los cálculos se realizan de la siguiente forma: Límite Superior de Control (LSC) = En las formulas la simbología que se aplica es la siguiente: P Promedio del porcentaje de defectos obtenido N Tamaño de la muestra LSC Limite Superior de Control

lic. Limite Inferior de Control Decida sobre las siguientes acciones, si los puntos se encuentran dentro de los límites de control (que es el caso del ejemplo, vea Fig. 2): Continúe sin hacer cambios significativos. Vuelva a hacer un ejercicio de gráfica de control después de un tiempo para verificar que el proceso está funcionando Lleve a cabo mejoras en el proceso que logren reducir las pequeñas variaciones en el desempeño que ha encontrado. Haga un seguimiento para asegurarse de que los cambios que ha efectuado han tenido un efecto positivo. HOJA DE VERIFICACION Una Hoja de Verificación (también llamada "de Control" o "de Chequeo") es un impreso con formato de tabla o diagrama, destinado a registrar y compilar datos mediante un método sencillo y sistemático, como la anotación de marcas asociadas a la ocurrencia de determinados sucesos. Esta técnica de recogida de datos se prepara de manera que su uso sea fácil e interfiera lo menos posible con la actividad de quien realiza el registro. Ventajas. Supone un método que proporciona datos fáciles de comprender y que son obtenidos mediante un proceso simple y eficiente que puede ser aplicado a cualquier área de la organización. Las Hojas de Verificación reflejan rápidamente las tendencias y patrones subyacentes en los datos. Utilidades. En la mejora de la Calidad, se utiliza tanto en el estudio de los síntomas de un problema, como en la investigación de las causas o en la recogida y análisis de datos para probar alguna hipótesis. También se usa como punto de partida para la elaboración de otras herramientas, como por ejemplo los Gráficos de Control EJEMPLO Verificación para radiografías defectuosas en la clínica médica“w”. La hoja de registro es útil cuando se desea registrar el tipo de problemas y frecuencia con que se presentan Además indica de forma objetiva y permanente a la dirección cuales son los principales problemas, lo que orienta a la generación de planes para reducirlos Así mismo esta hoja sirve para evaluar los planes de mejora. Es importante considerar que el uso excesivo de la hoja verificación puede llevar a obtener datos sin ningún objetivo concreto e importante Para evitar esto, debe considerarse que cada hoja con la que se obtienen datos en una empresa, tenga un objetivo claro y de importancia. METODO DE ESTRATIFICACION La idea de este método de construcción del diagrama de Ishikawa es ir directamente a las principales causas potenciales de un problema. La selección de

estas causas muchas veces se hace a través de una sesión de lluvia de ideas. Con la idea de atacar causas reales y no consecuencias o reflejos, es importante preguntarse un mínimo de cinco veces el porqué del problema, con lo que se profundizará en la búsqueda de las causas y la construcción del diagrama de Ishikawa partirá de este análisis previo, con lo que el abanico de búsqueda será más reducido y los resultados más positivos. Esta manera de construir el diagrama de Ishikawa es natural cuando las categorías de las causas potenciales pueden subdividirse. Por ejemplo, un producto terminado puede dividirse fácilmente en sus subensambles. En la figura siguiente se muestra un diagrama de Ishikawa construido con este método. El método de estratificación contrasta con el método 6M, ya que en éste se va de lo muy general a lo particular, mientras que en aquél se va directamente a causas potenciales del problema.

1.5.1 INTRODUCCION
La Ingeniería de la Calidad está diseñada para generar procesos de calidad. Basado en los fines de la Ingeniería de la calidad, TAGUCHI desarrolló una aproximación al diseño de experimentos con el objetivo de reducir los costos emanados de la experimentación, esta aproximación es más práctica que teórica y se interesa más por la productividad y los costos de producción que por las reglas estadísticas. Los conceptos de estas técnicas están basados en las relaciones de costos y ahorros.

Existen algunos factores de ruido que afectan los procesos, y son aquellos que causan que una característica funcional se desvíe de un valor objetivo, estos son causantes de variabilidad y pérdida de calidad. De acuerdo con TAGUCHI esta pérdida de calidad constituye a largo plazo, una pérdida de tiempo y dinero tanto para el consumidor como para el fabricante. Dentro de las actividades del control de la calidad, la Ingeniería de la calidad consta de las actividades dirigidas a la reducción de la variabilidad y de las pérdidas. Dentro de las actividades del control de la calidad, la ingeniería de calidad consta de las actividades dirigidas a la reducción de la variabilidad y de las pérdidas. Los resultados del ANOVA para dos factores pueden ser extendidos a un caso general en donde son los niveles del factor, A,B son los factores del nivel C, y así sucesivamente los cuáles pueden ser arreglados en un experimento en el cual el número de replicas es n. Esta diseñada para generar procesos de calidad TAGUCHI desarrollo una aproximación al diseño de experimentos con el objetivo de reducir los costos emanados de la experimentación, esta aproximación es más práctica que teórica y se interesa más por la productividad y los costos de producción que en las reglas

estadísticas. Los conceptos de estas técnicas están basados en las relaciones de costos y ahorros Diseñar un sistema de manufactura para elaborar un producto requiere de conocimientos técnicas además de una gran experiencia en el área a la cual pertenece el producto. Los diseños factoriales son ampliamente utilizados en experimentos en los que intervienen varios factores para estudiar el efecto conjunto de estas sobre una respuesta. En los últimos años se ha observado un creciente interés por las ideas del profesor Genichi Taguchi acerca del diseño experimental y su aplicación al mejoramiento de la calidad. El diseño factorial fraccionaria 2 Kb se usa en experimentos rutinarios para identificar con rapidez y de manera eficiente el subconjunto de factores que son activos y para obtener alguna información sobre interacción.

1.5.1.1 FUNCION DE PÉRDIDA
El control de calidad ha obtenido como objetivo controlar la variación funcional y los problemas relacionados con esto. El objetivo de la función de pérdida es evaluar cuantitativamente la perdida de calidad debido a variaciones funcionales. El Dr. Taguchi ha descubierto que la representación cuadrática de la función de pérdida, es una forma eficiente y efectúa para establecer la pérdida debido a la desviación de una característica de calidad del valor meta; esto es la pérdida debido a la mala calidad. Es importante recordar que: 1.-Conforme con los límites de especificaciones es un indicador inadecuado de la calidad o pérdida debido a la mala calidad. 2.- La pérdida de la calidad es causada por la insatisfacción del consumidor. 3.- La pérdida de la calidad es una pérdida financiera. 4.- La pérdida de la calidad puede relacionarse con las características del producto. 5.- La función de pérdida es una herramienta excelente para evaluar la pérdida en la etapa inicial del desarrollo del producto. Índice CPM o Índice Taguchi. Es de todos conocidos el índice de capacidad potencial (Cp) Y el índice de capacidad real (Cpk) para los cuales lo más importante es reducir la variabilidad y cumplir con las especificaciones. Sin embargo del proceso el CPM mide mejor el Cpk el centrado del proceso y la variabilidad. Si el CPM es mayor que 1.33 entonces la media del proceso estará dentro de la quinta parte media del rango de especificaciones función de pérdida de Taguchi usa es una aproximación de una expansión de la serie de Taylor alrededor de un valor meta “m”. La función de pérdida de calidad se expresa con la ecuación:

L (y) = K (y-m) En donde: L (y) = Pérdida en dinero por unidad de producto cuando las características de calidad son iguales a 41 y 55 y = valor de la característica de calidad, esto es, longitud, anchura etc.

1.5.1.2 LOS SIETE PUNTOS DE LA INGENIERIA DE LA CALIDAD SEGÚN TAGUCHI
• • • • • • • Definición de la calidad en forma monetaria por medio de la función perdida. El proceso de mejora continua y la reducción de la variabilidad son indispensables para seguir subsistiendo en la actividad. El proceso de mejora continua esta últimamente relacionado con la reducción de la variabilidad en enfocada hacia el valor objetivo. La variabilidad en el funcionamiento del producto provoca una perdida al usuario este puede medirse como el cuadrado de la diferencia entre el funcionamiento real y el valor objetivo. Es en la fase de diseño donde se genera la calidad y se determina el costo final del producto. Se puede diseñar un producto basándose en la parte no lineal de su respuesta Disminuir la variabilidad.

1.5.2DISEÑOS DE EXPERIMENTOS
Introducción ¿Qué se entiende por "diseño de un experimento"? Diseñar un experimento significa planear un experimento de modo que reúna la información pertinente al problema bajo investigación. El diseño de un experimento es la secuencia completa de pasos tomados de antemano para asegurar que los datos apropiados se obtendrán de modo de modo que permitan un análisis objetivo que conduzca a deducciones válidas con respecto al problema establecido. La necesidad de un diseño de experimento surge de la necesidad de responder a preguntas como: • ¿Cómo se va a medir el efecto? ó ¿Cuáles son las características a analizar? • ¿Qué factores afectan las características que se van a analizar? • ¿Cuáles son los factores que se estudiaran en esta investigación? • ¿Cuántas veces deberá ejecutarse el experimento?

• •

¿Cuál será la forma de análisis? ¿A partir de que valores se considera importante el efecto?

Objetivos de un diseño de experimentos Proporcionar la máxima cantidad de información pertinente al problema bajo investigación. El diseño, plan o programa debe ser tan simple como sea posible. La investigación debe efectuarse lo más eficientemente posible; ahorrar tiempo, dinero, personal y material experimental. "Proporcionar la máxima cantidad de información al mínimo costo" Principios básicos del diseño de experimentos • Reproducción. Aleatorización. Control Local. • Reproducción. Repetición del experimento porque: Proporciona una estimación del error experimental. Permite obtener una estimación más precisa del efecto medio de cualquier factor. Unidad Experimental Unidad a la cual se le aplica un solo tratamiento (que puede ser una combinación de muchos factores) en una reproducción del experimento. Error Experimental Describe la situación de no llegar a resultados idénticos con dos unidades experimentales tratadas idénticamente y refleja: Errores de experimentación Errores de observación Errores de medición Variación del material experimental (esto es, entre unidades experimentales) Efectos combinados de factores extraños que pudieran influir las características en estudio, pero respecto a los cuales no se ha llamado la atención en la investigación. El error experimental puede reducirse: Usando material experimental más homogéneo o por estratificación cuidadosa del material disponible. Utilizando información proporcionada por variables aleatorias relacionadas Teniendo más cuidado al dirigir y desarrollar el experimento Usando un diseño experimental muy eficiente. Confusión Dos o más efectos se confunden en un experimento si es posible separar sus

efectos, cuando se lleva a cabo el subsecuente análisis estadístico. Aleatorización. Asignación al azar de tratamiento a las unidades experimentales. Una suposición frecuente en los modelos estadísticos de diseño de experimentos en que las observaciones o los errores en ellas están distribuidos independientemente. La aleatorización hace válida esta suposición. Agrupamiento. Colocación de un conjunto de unidades experimentales homogéneas en grupos, de modo que los diferentes grupos puedan sujetarse a distintos tratamientos. Bloqueo. Distribución de las unidades experimentales en bloques, de manera que las unidades dentro de un bloqueo sean relativamente homogéneas, de esta manera, la mayor parte de la variación predecible entere las unidades queda confundida con el efecto de los bloques. Balanceo. Obtención de las unidades experimentales, el agrupamiento, el bloqueo y la asignación de los tratamientos a las unidades experimentales de manera que resulte una configuración balanceada. Tratamiento o combinación de tratamientos. Conjunto particular de condiciones experimentales que deben imponerse a una unidad experimental dentro de los confines del diseño seleccionado. Control local. Cantidad de balanceo, bloqueo y agrupamiento de las unidades experimentales que se emplean en el diseño estadístico adaptado. Proposición de la técnica experimental y el diseño. Examen de sucesos posibles y referencias en que se basan las razones para la indagación que asegure que el experimento proporcionará la información requerida y en la extensión adecuada. Consideración de los posibles resultados desde el punto de vista de los procedimientos estadísticos que se aplicarán y para asegurar que se satisfagan las condiciones necesarias para que sean válidos estos procedimientos. Factor. Una variable independiente. En la mayoría de las investigaciones se trata con más de una variable independiente y con los cambios que ocurren en la variable independiente, cuando varia una o mas de las variables independientes. Etapas de un diseño de experimentos. Enunciado o planteamiento del problema. Formulación de hipótesis. Ejecución del experimento. Aplicación de las técnicas estadísticas a los resultados experimentales.

Extracción de conclusiones con medidas de la confiabilidad de las estimaciones generadas. Deberá darse cuidadosa consideración a la validez de las conclusiones para la población de objetos o eventos a la cual se van a aplicar. Valoración de la investigación completa y contrastación con otras investigaciones del mismo problema o similares. Lista de comprobación para planear programas de pruebas. Obtenga un enunciado claro del problema Identifique la nueva e importante área del problema. Determine la relación del problema particular con la investigación total o desarrollo del programa Reúna la información básica disponible. Investigue todas las fuentes de información posible. Tabule los datos pertinentes para planear el nuevo problema. Diseñe el programa de prueba Subraye el problema específico dentro de sus limitaciones usuales. Defina el propósito exacto del programa de prueba. Sostenga una conferencia respecto a todas las partes concernientes. Enuncie las proposiciones por probar. Especifique respecto a la magnitud de las diferencias que usted considere que valen la pena. Esboce las alternativas posibles de los sucesos. Escoja los factores por estudiar. Determine el rango práctico de estos factores y los niveles específicos a los qie se harán las pruebas. Escoja las mediciones finales que van a hacerse. Considere el efecto de variabilidad de muestreo y de la precisión de métodos de prueba.

Considere las posibles interrelaciones (o interacciones) de los factores. Determine las limitaciones de tiempo, costo, materiales, potencia humana, instrumentación y otros factores y de condiciones extrañas tales como condiciones meteorológicas. Considere los aspectos de las relaciones humanas del programa. Diseñe el programa en forma preliminar. Prepare una cédula sistemática y completa. Proporcione las etapas de ejecución o adaptación de la cédula si es necesario. Elimine los efectos de las variables que no están en estudio. Reduzca al mínimo el número de ejecuciones de los experimentos. Elija el método de análisis estadístico. Haga las indicaciones prudentes para una acumulación ordenada de datos. Revise el diseño con todo lo concerniente. Ajuste el programa de acuerdo con los comentarios. Desglose en términos precisos los pasos a seguir. Registre el avance del programa. Analice los datos.

Reduzca los datos registrados a forma numérica, si es necesario. Aplique las técnicas adecuadas de la Estadística Matemática. Planee y lleve a cabo el trabajo experimental. Desarrolle métodos, materiales y equipo. Aplique los métodos o técnicas. Supervise y cheque los detalles modificando los métodos si es necesario. Registre cualquier modificación al diseño del programa. Sea cuidadoso en la colección de datos. Interprete los resultados. Considere todos los datos observados. Limite las conclusiones a deducciones estrictas a partir de la evidencia obtenida. Pruebe, mediante experimentos independientes, las controversias que susciten los datos. Llegue a conclusiones, tanto respecto al significado técnico de resultados como respecto a significancia estadística. Especifique lo que implican los resultados para su aplicación y para trabajos posteriores. Tome en cuente las limitaciones impuestas por los métodos usados. Describa claramente el trabajo dando antecedentes, aclaraciones pertinentes del problema y del significado de los resultados. Use métodos gráficos y tabulares para la presentación de los datos en forma eficiente para usos futuros. Suministre información suficiente para que el lector pueda verificar resultados y sacar sus propias conclusiones. Limite las conclusiones a un resumen objetivo, tal que el trabajo evidencie su uso para consideraciones rápidas y acciones decisivas.

Enuncie los resultados en términos de probabilidades verificables. Prepare el reporte VENTAJAS Y DESVENTAJAS ESTADISTICAMENTE DE LOS EXPERIMENTOS DISEÑADOS

Ventajas Se requiere una estrecha colaboración entre los estadísticos y el investigador o científicos con las consiguientes ventajas en el análisis e interpretación de las etapas del programa. Se enfatiza respecto a las alternativas anticipadas y respecto a la PRE-planeación sistemática, permitiendo aun la ejecución por etapas y la producción única de datos útiles para el análisis en combinaciones posteriores. Debe enfocarse la atención a las interrelaciones y a la estimación y cuantificación de fuentes de variabilidad en los resultados. La comparación de los efectos de los cambios es más precisa debido a la agrupación de resultados. La exactitud de las conclusiones se conoce con una precisión matemáticamente

definida. El número de pruebas requerido puede determinarse con certeza y a menudo puede reducirse. Desventajas de los experimentos diseñados estadísticamente. Tal diseño y sus análisis, usualmente están acompañados de enunciados basados en el lenguaje técnico del estadístico. Sería significativos a la generalidad de la gente, además, el estadístico no debería subestimar el valor de presentarnos los resultados en forma gráfica. De hecho, siempre debería considerar a la representación gráfica como un paso preliminar de un procedimiento más analítico. Muchos diseños estadísticos, especialmente cuando fueron formulados por primera vez, se han criticado como demasiado caros, complicados y que requieren mucho tiempo. Tales críticas, cuando son válidas, deben aceptarse de buena fe y debe hacerse un intento honesto para mejorar la situación, siempre que no sea en detrimento de la solución del problema. Conclusiones En este trabajo podemos darnos cuenta de la importancia del diseño de experimentos, o dicho de otra manera, el planear paso a paso las operaciones para así obtener un resultado satisfactorio a nuestro problema planteado. Para el diseño de un experimento debemos tener en cuenta los efectos y las características de nuestro problema a resolver. Como se puede apreciar un diseño debe de ser lo más sencillo posible y así poder ahorrar tiempo, inversión y personal, pero no por eso se deben de olvidar considerar los principios básicos en el diseño. Observamos el trabajo conjunto de los investigadores con los estadísticos que nos llevan a obtener una mejor planeación del experimento, aunque tiene sus desventajas se puede notar que actuando de manera correcta se puede cambiar la forma de ver de los inconvenientes que puede representar el alto costo que se tiene con los estadísticos. Podemos estar seguros de que si llevamos a cabo todos los elementos de la lista de comprobación tendremos una planeación efectiva de nuestro experimento y así obtener los resultados esperados.

1.5.2.1 DISEÑOS FACTORIALES 2K DISEÑOS FACTORIALES A DOS NIVELES DISEÑOS FACTORIALES GENERALES Y DISEÑOS A DOS NIVELES
Para realizar un diseño factorial general, el investigador selecciona un número fijo de niveles (o versiones) para cada conjunto de variables (factores) y luego hace experimentos con todas las combinaciones posibles. Si hay m sub. 1 niveles para

la primera variable, m sub. 2 para la segunda y ......m sub. k para la k-ésima variable, el conjunto de todas las m sub. uno por m sub. dos por ...........m sub. k condiciones experimentales se llama diseño factorial. Por ejemplo, un diseño factorial 2 x 3 x 5 comprende 2 x 3 x 5 = 30 factores Experimentales elementales y un diseño 2 x 2 x 2= 2 ³ comprende 8 experimentos elementales. Un ejemplo de un experimento factorial a dos factores es el que estudia la supervivencia de cuatro animales a los que se ha asignado al azar tres venenos y cuatro tratamientos. El diseño factorial es un 3 x 4 y se repite cuatro veces,. Ya que ambos factores, venenos y tratamientos son de igual interés, podría interesar si existe interacción entre ellos. Tiempo de supervivencia (unidad igual a 10 horas) de los animales en un experimento factorial 3 x 4 con 4 repeticiones. (Los valores están multiplicados por 1000) • • • • Los diseños factoriales son importantes por varias razones Requieren relativamente pocos experimentos elementales para cada factor, y permiten explorar factores que pueden indicar tendencias y así determinar una dirección prometedora para experimentos futuros. Si existe interacción entre los factores estudiados permite medirla . Cuando el número de factores (variables) suelen ser importantes para estudiar todas las variables, los diseños factoriales fraccionados permiten estudiarlas a todas para estudiarlas superficialmente en lugar de hacer experimentos mas pequeños que pueden no incluir las variables importantes. Estos diseños y sus correspondientes fraccionados pueden ser utilizados en bloques para construir diseños de un grado de complejidad que se ajuste a las necesidades del problema. La interpretación de las observaciones producidas por estos diseños se puede realizar en gran parte a base de sentido común y aritmética elemental.

• •

Ejemplo de un diseño factorial 2³ en una planta piloto. La tabla siguiente representa un experimento factorial 2³ en el que hay dos variables cuantitativas - temperatura y concentración y una cualitativa catalizador. La respuesta es la cantidad de producto. Los datos se obtuvieron de una investigación en una planta piloto de un proceso. En las variables cuantitativas un menos significa el nivel mas bajo y un más el nivel más alto. Para variables cualitativas las dos versiones, ó niveles, se pueden codificar también con signos menos y más. Una tabla de este tipo se llama matriz de diseño. Experimento T 1 C K - 0 T 0 C 0 K

2 3 4 5 6 7 8

+ + + + -

+ + + + +

0 + + +

1 0 1 0 1 0 1

0 1 1 1 0 1 1

0 0 1 1 1

Experimento de la planta piloto Temperatura ( -) 160 Concentración ( - ) 20 Catalizador (-)A (+) 180 (+) 40 (+) B

En general es importante la replica de los experimentos elementales ya que permite estimar la variación total que afecta a las observaciones. La aleatorización garantiza que las repeticiones sean genuinas. Por ello a los experimentos factoriales generalmente se los puede realizar en forma completamente aleatorizado ó en bloques.

1.5.2.2 DISEÑOS FACTORIALES 3K
Diseño Factorial Fraccionado 3k-p A menudo se desea un fraccionamiento mayor del diseño 3k para valores de moderados a grandes de k. En general, puede construirse una fracción (1/3) P de un diseño 3k para p < k, donde la fracción 3k-2 es la fracción (1/9), el 3k-3 consiste en seleccionar p componentes de interacción, y usar estos efectos para descomponer las 3 k combinaciones de tratamientos de 3p bloques. Cada bloque constituye ahora un diseño factorial fraccionario 3k-p. La relación 1 define cualquier fracción, consta de los p efectos elegidos inicialmente y de sus (3p-2p-1) / 2 interacciones generalizadas. Los alias de cualquier efecto principal o componente de interacción se determinan multiplicando el efecto por 1 e 12 módulo 3. Ejemplo: La salida máxima de voltaje de un tipo particular de batería, se piensa que puede ser influenciado por el material usado en los platos y por la temperatura en la localización en la cual la batería es colocada. Se hacen cuatro replicas en el

experimento en un experimento factorial, para tres tipos de temperatura y tres materiales. los resultados son: Primero se hace la suma de los cuadrados de todas las muestras, menos la suma del total de renglones y columnas, entre la multiplicación de renglones de columnas * # de muestras n=4 a=3 b=3 Después se hace la suma de los totales al cuadrado del factor, a: Ahora sumamos las cuatro muestras de cada combinación y las evaluamos igual. Eso es la suma de cuadrados de la intersección ab ejemplo: 130+155+74+180 =539 el material tipo 2 se comporta más estable. da mejor voltaje a las diferentes temperaturas. a) Los datos reflejan evidencias suficientes que el tipo de material se afecta al voltaje de salida, considerado al nivel de significancia del 5% b) Los datos presentan evidencias suficientes que las temperaturas usada -5 en los experimentos si afectan al voltaje de salida, considerando un nivel de significancia del 5% c) Los datos demuestran evidencias suficientes ove el tipo de material usado y las temperaturas consideradas en el experimento tienen efecto conjunto sobre el voltaje de salida considerado k un nivel de significancia del 5% y en cada una de las hipótesis aceptamos h1. Definición Se entiende por diseño experimental la realización de una serie de experimentos previamente diseñados donde se varían los valores de las variables de entrada de un proceso o sistema y se miden los valores de la respuesta de salida Imaginemos que en la figura No 1 tenemos un proceso de vulcanización por inyección donde e (entrada) es el compuesto que se introduce en la máquina, x1 a x4 son las variables con las que vamos a trabajar en el diseño de experimentos, que pueden ser por ejemplo: X1: Temperatura del molde X2: Temperatura de la cámara de precalentamiento de material X3: Cantidad de acelerante secundario X4: Cantidad de reductor de viscosidad agregado en la formulación Z1...si son otras variables que intervienen en el proceso y que nosotros intentaremos mantener constantes durante el experimento, como por ejemplo la temperatura a la que entra el compuesto en el inyector, el ciclo de venteo, etc. Finalmente, y será la respuesta de salida que deseamos estudiar, por ejemplo, la cantidad porcentual de material defectuoso por la suma de distintos tipos de fallas

de llenado. Concretando, intentaremos conocer como varía el porcentaje de material defectuoso en función de la temperatura del molde, temperatura de la cámara de calentamiento de material, del porcentaje de acelerante secundario utilizado y del porcentaje de reductor de viscosidad agregado a la formulación básica, manteniendo constantes otros valores que. también podrían actuar como variables, tales como la temperatura de entrada del compuesto a la máquina y sus ciclos de venteo. Generalizando, podemos aplicar el diseño de experimentos para: • Determinar que variables tienen mayor influencia en los valores de respuesta • Determinar el mejor valor de las variables x para tener un valor cercano al valor de respuesta deseado. • Determina el mejor valor de las variables para que el valor de la respuesta tenga la menor variabilidad. ice Douglas Montgomery en el primer capítulo de su libro titulado Diseño y Análisis de Experimentos lo siguiente : “ Para que un experimento se realice en la forma más eficiente, es necesario emplear métodos científicos en su planeación. El diseño estadístico de experimentos es el proceso de planear un experimento para obtener datos apropiados que puedan ser analizados mediante métodos estadísticos, con objeto de producir conclusiones válidas y objetivas .Se requiere de un enfoque estadístico del diseño de experimentos para obtener conclusiones significativas a partir de los datos. La metodología estadística es el único enfoque objetivo para analizar un problema que involucre datos sujetos a errores experimentales. Así que hay dos aspectos en cualquier problema experimental: el diseño del experimento y el análisis estadístico de los datos “ A efectos de poder dar un enfoque estadístico al diseño se deberán respetar tres principios básicos en el diseño de experimentos: • Replicación, o repetición de ensayos • Aleatorización de experimentos • Análisis por bloques. El problema más importante para la aplicación del diseño experimental en la industria es que la enorme mayoría de los técnicos no conoce en profundidad sobre estadística, y consecuentemente menos sobre su aplicación al diseño experimental. Sin embargo, esto ha dejado de ser un problema con el acceso generalizado a la computación, que nos provee de herramientas altamente eficientes en el tema y nos permite dedicarnos prácticamente con exclusividad al análisis de resultados, como veremos más adelante, abriendo las puertas masivamente a este tipo de tecnologías.

Para poder realizar un programa de experimentos, es necesario previamente comprender el problema que se desea estudiar, elegir las variables más apropiadas y sus niveles de uso, elegir la o las salidas de respuesta a evaluar, el modelo de diseño experimental a utilizar, realizar el experimento, analizar los datos y sacar las conclusiones correspondientes. Respecto de las variables a utilizar durante el experimento, juegan un papel de gran importancia la experiencia previa del experimentador como su nivel de conocimientos tecnológicos específicos. La elección inapropiada de los niveles de las variables se traduce en la obtención de respuestas fuera de los niveles esperados. Por ejemplo, la elección de niveles inapropiados de negro de humo en un compuesto determinado dará resultados de tensión de rotura fuera del rango que buscamos. La elección inapropiada de los niveles de las variables se traduce en la obtención de respuestas fuera de los niveles esperados. Por ejemplo, la elección de niveles inapropiados de negro de humo en un compuesto determinado dará resultados de tensión de rotura fuera del rango que buscamos. En relación al modelo de diseño experimental a utilizar, existe una gran variedad desarrollados en base al uso de las técnicas estadísticas y su aplicación de cálculos en forma manual, o histórica, como pueden verse en la lista siguiente: • • • Diseños por bloques aleatorizados Cuadrados latinos Diseños por bloques incompletos

Diseño factorial 2K • Diseños fraccionarios de 2 niveles • Diseños factoriales 3K • Diseños factoriales 3k fraccionarios • Diseños Jerárquicos • Análisis de regresión lineal • Superficie de Respuesta • Diseños por bloques incompletos • Diseño factorial 2K • Diseños fraccionarios de 2 niveles • Diseños factoriales 3K • Diseños factoriales 3k fraccionarios • Diseños Jerárquicos • Análisis de regresión lineal • Superficie de Respuesta Todas estas técnicas han dado un significativo aporte a la historia de la investigación. Sin embargo casi todas ellas, salvo el estudio de superficies de

respuesta adolecen del error de simplificación que implica suponer que las variaciones de respuesta son lineales con las de las variables. Esto significa que se supone que las respuestas no tienen curvatura y pueden ser representadas por ecuaciones de primer grado. El esquema de Superficie de Respuesta asume en principio que todas las variables son de segundo grado, lo que implica una mayor complejidad en la resolución de los temas relacionados al análisis estadístico. Su principio fundamental es trabajar con el concepto de línea de regresión, aplicado a una ecuación de segundo grado, que cuando se usa para dos variables independientes se transforma en una superficie de respuesta, de donde toma su nombre. . La ecuación fundamental para dos variables se representa de la siguiente forma: Y = A11X1^2 + A1X1 + A22X2^2 + A2X2 + A12X1X2 + A0 (1) Donde Y es la respuesta que estudiamos, X1 y X2 las variables que modificamos y los diversos Ají los coeficientes de la ecuación que definen el proceso. Existen varios programas de computación específicamente desarrollados para este tema, entre los cuales podemos citar los producidos por: • • • • • • Design Experto E-Chip JMP Minitab Statgraphics Statistica

Para poder utilizar Excel es necesario conocer los fundamentos estadísticos del diseño de experimentos y plantear sus ecuaciones para determinación de errores, análisis de variancia y cálculo matricial. A efectos de resolver el cálculo matricial arriba presentado, existen en Excel funciones como MDETERM, MINVERSA, MMULT, TENDENCIA, etc.

1.5.2.3 DISEÑO DEL PROCESO
Concepto: Secuencia de operaciones que transforman inputs en outputs. Resultado de la implementación de una tecnología: forma concreta de hacer trabajar en equipo a unos inputs combinados en una proporción dada influencia en: • Estructura de costes • Calidad del producto • Tiempos de entrega • Flexibilidad de las operaciones

TIPOS DE PROCESO TIPO DE PROCESO LINEAL CONTRA INTERMITENTE • Secuencia prescrita • Acoplamiento de tareas individuales • Equipo muy especializado (Economías de Escala) • Productos muy estandarizados • Eficientes pero inflexibles PROYECTO • Existe una serie de tareas a realizar que hay que programar teniendo en cuenta las relaciones de precedencia • Producto único (gran componente de creatividad) • No fáciles de automatizar • Muy flexible TIPOS DE PROYECTOS • Proyectos: • Edificios, carreteras, diques, puentes, agencias de publicidad, hospitales, películas, etc. • Es decir es un producto único DISTRIBUCION Ordenación y ubicación de los factores productivos para integrar los diferentes elementos en un sistema productivo que consiga los objetivos propuestos.

INDICIOS QUE REQUIEREN UNA REDISTRIBUCION • Falta de espacio • Cuellos de botella • Accidentes laborales • Acumulación de materiales en proceso • Distancias excesivas a recorrer en el proceso • Malestar de los trabajadores CORRESPONDENCIA ENTRE TIPO DE PROCESO Y DISTRIBUCION TIPOS DE DISTRIBUCION Los componentes se ordenan según las etapas progresivas a través de las que avanza la fabricación Unos a continuación de otros. Se minimiza el transporte, movimiento interno Equilibrado de la línea TIPOS DE DISTRIBUCION • POSICIÓN FIJA

PROYECTOS

Todos los factores se trasladan al lugar donde el producto está inmovilizado según se van requiriendo Programación y control del proyecto DISTRIBUCION EN FORMA DE U Se suele utilizar para células de trabajo. Son pequeñas líneas de fabricación, es decir conjunto de máquinas y trabajadores que realizan una serie de operaciones sobre una serie de productos o piezas. Las piezas siguen un camino secuencial (la U) pero los operarios no. Intenta compatibilizar los objetivos de eficiencia y flexibilidad.

1.5.2.4 NIVELES DE CALIDAD
Nivel 1: Inspección. En este nivel se asume que la empresa produce defectos de calidad y existe un equipo o departamento que se dedica única y exclusivamente a separar los productos defectuosos de los buenos. Tipos de inspecciones hay muchos. Éstos van desde los más sencillos, inspección total, a inspecciones más evolucionadas basadas en parámetros estadísticos, muestreos e inspecciones selectivas. Pero por muy evolucionada que sea la inspección, si ésta es la única herramienta utilizada para conseguir productos de calidad, estaremos en el nivel bajo de los sistemas de calidad. En los sistemas de calidad más evolucionados existe también la inspección, pero la filosofía es totalmente distinta. No se trata de inspeccionar para eliminar los productos defectuosos sino para comparar la calidad obtenido con la calidad planificada, estudiar las desviaciones y corregir el proceso para obtener la calidad deseada. Los sistemas de calidad más ambiciosos como el Seis Sigma ni tan siquiera aceptan la posibilidad de productos defectuosos. En estos sistemas se puede eliminar la inspección final substituyéndola por inspecciones del proceso. Si el proceso está controlado, la calidad final será la planificada. Nivel 2: Control de Calidad. La aplicación de técnicas estadísticas a los procesos productivos nos permite la obtención de informaciones muy valiosas sobre los procesos de producción. Podemos determinar la capacidad de un proceso, es decir, demostrar si el proceso está suficientemente bien preparado para producir sin defectos de calidad en condiciones normales. También nos permite determinar las causas especiales de fallo que afectan al proceso, es decir, aunque el proceso sea capaz, puede haber una causa especial (operario, material defectuoso, avería, etc.) que provoque la aparición de productos defectuosos. Nivel 3: Aseguramiento de la Calidad. El aseguramiento de la calidad supone un paso más en la evolución de los sistemas de calidad porque en estos sistemas se involucra a todos los departamentos de la empresa, no sólo al de calidad, se da mayor importancia al factor humano en la empresa y la dirección de la empresa

empieza a tomar el papel de liderazgo en la consecución de los objetivos de calidad. No obstante, los sistemas de aseguramiento de la calidad no son los sistemas de calidad más evolucionados que se conocen porque tienen un objetivo de calidad determinado y se limitan a asegurar ese nivel de calidad sin preocuparse por superarlo. Aunque en los sistemas de aseguramiento de la calidad más conocidos como el ISO 9000 y otros se anime a la mejora continua, estos sistemas no son suficientemente evolucionados para conseguir mejoras permanentes en los procesos. El hecho de que las empresas propongan un objetivo de porcentaje de defectos aceptables y se limiten a conseguirlo ha sido muy criticado por los gurús de la calidad como Deming, Juran y otros, ya que es poco ambicioso y evita la mejora de la competitividad. Nivel 4: Calidad Total. La calidad total integra todos los elementos de calidad de los niveles anteriores pero la amplia a todos los niveles de la empresa y a todo su personal. Se caracteriza por una búsqueda constante de mejora en todos los ámbitos de la empresa y no sólo los aspectos productivos. La calidad llega hasta la propia elección estratégica de la empresa teniendo en cuenta todos los escenarios competitivos y poniendo la voz del cliente en el lugar más importante, que es el que le corresponde. Es en éste nivel en el cual operan las empresas que han implementado el Sistema Just-in-Time. En la actualidad conviven en la arena competitiva empresas con sistemas de calidad de distintos niveles, no obstante el incremente de la competencia y la globalización de los mercados están empujando inexorablemente a las empresas a desarrollar sistemas de calidad más evolucionados.

Sign up to vote on this title
UsefulNot useful