You are on page 1of 172

UNIVERSIDAD DE PAMPLONA

FACULTAD DE INGENIERIAS Y ARQUITECTURA
DEPARTAMENTO DE INGENIERIA ELECTRONICA, ELECTRICA,
TELECOMUNICACIONES Y SISTEMAS
PROGRAMA DE INGENIERÍA ELECTRÓNICA
TITULO:
SINTONIZACION DE CONTROLADORES PID UTILIZANDO ALGORITMOS
EVOLUTIVOS
AUTOR:
MARÍA CLAUDIA PINTO FIGUEROA
PAMPLONA COLOMBIA
MAYO 2006
UNIVERSIDAD DE PAMPLONA
FACULTAD DE INGENIERIAS Y ARQUITECTURA
DEPARTAMENTO DE INGENIERIA ELECTRONICA, ELECTRICA,
TELECOMUNICACIONES Y SISTEMAS
PROGRAMA DE INGENIERÍA ELECTRÓNICA
TRABAJO DE GRADO PARA OPTAR POR EL TITULO DE INGENIERO
ELECTRÓNICO
TÍTULO:
SINTONIZACION DE CONTROLADORES PID UTILIZANDO ALGORITMOS
EVOLUTIVOS
AUTOR:
MARÍA CLAUDIA PINTO FIGUEROA
DIRECTOR:
Ph.D. ELIEZER COLINA MORLES
PAMPLONA COLOMBIA
MAYO 2006
RESUMEN
En el desarrollo de este trabajo se diseñó una herramienta computacional
basada en algoritmos evolutivos para la sintonización de controladores PID.
Inicialmente la herramienta fue empleada con técnicas fuera de línea, para
varios sistemas estables e inestables a lazo abierto, con sistemas con distintos
tiempos de respuesta y con sistemas no lineales; usando diferentes funciones
objetivo.
Luego se trabajó con sistemas en línea, manipulando pocos individuos con una
función de aptitud que tiene en cuenta el sobreimpulso y el tiempo de
asentamiento, con el fin de comparar su desempeño con otras técnicas de
sintonización ya existentes.
Por último se aplicaron algoritmos evolutivos en el diseño del controlador de un
proceso de evaporación, tomando en cuenta la variable tasa de flujo de vapor,
que depende de la tasa de transferencia de calor.
ABSTRACT
This work includes an evolutionary algorithm based computational tool design
intended for PID tuning in a variety of control system configurations. The
computational tool was tested on open loop stable and unstable control
systems, control systems with different time response as well as with some
clases of non linear control system. Different objective functions were
considered in order to check the performance of the evolutionary algorithm.
The work also includes computational simulations of the evolutionary algorithm
for on line tuning of PID controllers and a performance trade off with respect to
other tuning techniques is presented.
Finally, the work contemplates the controller design problem for an evaporator
system using the proposed evolutionary computational tool.
CONTENIDO
INTRODUCCION
OBJETIVOS
JUSTIFICACION
PLANTEAMIENTO DEL PROBLEMA
METODOLOGIA
CAPÍTULO 1. COMPUTACION EVOLUTIVA
1.1. INTRODUCCIÓN
1.2. ORIGENES
1.3. ANTECEDENTES
1.4. BASES BIOLÓGICAS DE LA COMPUTACIÓN EVOLUTIVA.
1.5. COMPONENTES DE UN ALGORITMO EVOLUTIVO
1.6. MODELOS SOBRE EL ESQUEMA GENERAL
1.7. ALGORITMOS GENÉTICOS (AG)
1.7.1. CODIFICACIÓN DE LAS VARIABLES
1.7.2. OPERADORES
1.7.2.1. CRUCE
1.7.2.1.1. Cruces para permutación
1.7.2.1.1.1. Cruce por emparejamiento parcial (PMX)
1.7.2.1.1.2. Cruces por orden (OX)
1.7.2.1.1.2.1. Variantes al Cruce por orden
1.7.2.1.1.3. Cruce por ciclos (CX)
1.7.2.1.1.4. Cruce por recombinación de rutas (ERX)
1.7.2.2. MUTACIÓN
1.7.2.2.1. Mutaciones sobre genes
1.7.2.2.2. Mutaciones no estacionarías
1.7.2.2.3. Mutaciones no uniformes
1.7.2.3. VARIANTES EN OPERADORES BÁSICOS PARA NÚMEROS
REALES
1.7.2.4. OTROS OPERADORES
1.7.2.4.1. Cromosomas de longitud variable
1.7.2.4.2. Operadores de nicho (ecológico)
1.7.2.4.3. Operadores especializados
1.7.3. FUNCIÓN DE ADAPTACIÓN
1.7.4. EL TEOREMA DEL ESQUEMA
1.7.5. EVALUACIÓN
1.7.6. MÉTODOS DE SELECCIÓN
1.7.7. MECANISMOS DE REEMPLAZO
1.7.8. CARACTERÍSTICAS DE LOS AGS
1.7.9. ¿COMO FUNCIONAN?
1.7.10. ¿POR QUÉ UTILIZAR ALGORITMOS GENÉTICOS EN LA
OPTIMIZACIÓN
1.7.11. CONVERGENCIA DEL ALGORITMO
1.7.12. ¿CÓMO SABER SI ES POSIBLE USAR EL ALGORITMO
GENÉTICO?
1.7.13. DECISIONES PARA IMPLEMENTAR UN ALGORITMO GENÉTICO
1.7.14. VENTAJAS DE LOS AGS
1.7.15. DESVENTAJAS O LIMITACIONES QUE TIENEN LOS AG CON
RESPECTO A OTRAS TÉCNICAS DE BÚSQUEDA
1.7.16. CONSIDERACIONES AL USAR ALGORITMOS GENÉTICOS
1.7.17. DIFERENCIAS ENTRE LOS MÉTODOS TRADICIONALES Y LOS
A.G.
1.8. PROGRAMAS EVOLUTIVOS (PES)
1.8.1. PES EN OPTIMIZACIÓN PARAMÉTRICA
1.8.2. PES EN OPTIMIZACIÓN COMBINATORIA
1.8.3. PROGRAMAS EVOLUTIVOS Y ALGORITMOS GENÉTICOS
1.9. ESTRATEGIAS EVOLUTIVAS (EES)
1.9.1. EES SIMPLES
1.9.2. EES MÚLTIPLES
1.9.3. ESTRATEGIAS EVOLUTIVAS Y ALGORITMOS GENÉTICOS
1.10. PROGRAMACIÓN EVOLUTIVA (EP)
1.10.1. ALGORITMO GENERAL
1.10.2. PROGRAMACIÓN EVOLUTIVA Y ALGORITMOS GENÉTICOS
1.10.3. PROGRAMACIÓN EVOLUTIVA Y LAS ESTRATEGIAS
EVOLUTIVAS
1.11. PROGRAMACIÓN GENÉTICA (PG)
1.11.1. FUNCIONAMIENTO DE LOS OPERADORES GENÉTICOS
1.11.2. MUTACIÓN EN PG
1.11.3. ALGORITMO GENERAL
1.12. AMBIENTES DE PROGRAMACIÓN
1.13. PROGRAMAS AUTOCONFIGURABLES
1.14. ROBUSTEZ DE LOS MÉTODOS DE OPTIMIZACIÓN Y BÚSQUEDA
TRADICIONALES
CAPÍTULO 2. CONTROLADORES PID
2.1. INTRODUCCIÓN
2.2. ACCIONES BASICAS DE CONTROL
2.2.1. CLASIFICACIÓN DE LOS CONTROLADORES INDUSTRIALES
2.2.2. CONTROLADOR AUTOMÁTICO, ACTUADOR Y SENSOR
(ELEMENTO DE MEDICIÓN)
2.2.3. CONTROLADORES AUTO-OPERADOS
2.2.4. ACCIÓN DE CONTROL DE DOS POSICIONES O ENCENDIDO Y
APAGADO (ON/OFF)
2.2.5. ACCIÓN DE CONTROL PROPORCIONAL
2.2.6. ACCIÓN DE CONTROL INTEGRAL
2.2.7. ACCIÓN DE CONTROL PROPORCIONAL- INTEGRAL
2.2.8. ACCIÓN DE CONTROL PROPORCIONAL – DERIVATIVA
2.2.9. ACCIÓN DE CONTROL PROPORCIONAL- INTEGRAL- DERIVATIVA
2.3. EFECTOS DE LAS ACCIONES DE CONTROL INTEGRAL Y
DERIVATIVO SOBRE EL DESEMPEÑO DE UN SISTEMA.
2.3.1. ACCIÓN DE CONTROL INTEGRAL
2.3.2. ACCIÓN DE CONTROL DERIVATIVA
2.4. SINTONIZACIÓN DE CONTROLADORES PID
2.4.1. CONTROL PID DE PLANTAS
2.4.2. REGLAS DE ZIEGLER – NICHOLS PARA SINTONIZAR
CONTROLADORES PID
2.4.2.1. PRIMER MÉTODO. MÉTODO BASADO EN LA CURVA DE
REACCIÓN
2.4.2.2. SEGUNDO MÉTODO. MÉTODO DE OSCILACIÓN
2.4.3. MÉTODO DE ASIGNACIÓN DE POLOS
2.4.3.1. TEOREMA 1 (TEOREMA DE SYLVESTER).
2.4.3.2. LEMA 1 (ASIGNACIÓN DE POLOS SISO).
2.4.3.3. LEMA 2.
2.5. MODIFICACIONES DE LOS ESQUEMAS DE CONTROL PID
2.5.1. CONTROL PI-D
2.5.2. CONTROL I-PD
2.6. INTEGRAL WINDUP
CAPÍTULO 3. DISCRETIZACIÓN DE SISTEMAS Y LINEALIZACIÓN DE
SISTEMAS NO LINEALES
3.1. LINEALIZACIÓN DE SISTEMAS NO LINEALES
3.2. DISCRETIZACIÓN DE SISTEMAS EN TIEMPO CONTINUO.
3.2.1. IMPLEMENTACIÓN DIGITAL DE CONTROLADORES ANALÓGICOS
3.2.1.1. IMPLEMENTACIÓN DIGITAL DEL CONTROLADOR PID
3.2.1.1.1. Integración trapezoidal
3.2.1.1.2. Integración rectangular hacia delante
3.2.1.1.3. Integración rectangular hacia atrás
3.2.2. ÍNDICES DE DESEMPEÑO
3.2.2.1. FORMULACIÓN DE LOS PROBLEMAS DE OPTIMIZACIÓN
3.2.2.2. PUNTOS CONCERNIENTES A LA EXISTENCIA DE LAS
SOLUCIONES A LOS PROBLEMAS DE CONTROL ÓPTIMO.
3.2.2.3. NOTAS ACERCA DE LOS SISTEMAS DE CONTROL ÓPTIMO.
CAPÍTULO 4. ESTADO DEL ARTE DE LOS ALGORITMOS EVOLUTIVOS Y
SU USO PARA CONTROLADORES PID
4.1. APLICACIONES DE LA PROGRAMACIÓN GENÉTICA.
4.2. COMPUTACIÓN EVOLUTIVA Y CONTROLADORES PID
4.3. APLICACIÓN EN PROCESOS DE CONTROL
4.3.1. SINTONIZACIÓN DE CONTROLADORES
4.3.2. DISEÑO DE ESTRUCTURA DE CONTROL
4.3.3. APLICACIONES EN LÍNEA
4.4. CÓMO PUEDEN LOS AG SER DE BENEFICIO PARA EL CONTROL?
4.4.1. ESTABILIDAD
CAPÍTULO 5. SINTONIZACIÓN DE CONTROLADORES PID UTILIZANDO
ALGORITMOS EVOLUTIVOS
5.1. SISTEMA MECÁNICO: MASA –RESORTE
5.1.1. CONTROLABILIDAD DEL SISTEMA
5.1.2. OBSERVABILIDAD
5.1.3. DISCRETIZACIÓN DEL SISTEMA
5.1.4. CALCULO DEL CONTROLADOR
5.1.5. DISCRETIZACIÓN DEL CONTROLADOR
5.1.6. SINTONIZACIÓN DE CONTROLADORES PID UTILIZANDO
ALGORITMOS EVOLUTIVOS EN LÍNEA
5.1.6.1. VALIDACIÓN DEL ALGORITMO EN LÍNEA
5.2. CIRCUITO LRC
5.3. SISTEMA DE LEVITACIÓN MAGNÉTICA
5.3.1. FUNCIÓN DE TRANSFERENCIA
5.3.2. CALCULO DEL CONTROLADOR
5.4. MODELO DEL EVAPORADOR
5.4.1. MODELO NO LINEAL
5.4.2. PROCESO DE BALANCE DE MASA LIQUIDA
5.4.3. PROCESO DE BALANCE DE MASA LIQUIDA DEL SOLUTO
5.4.4. PROCESO DE BALANCE DE MASA DE VAPOR
5.4.5. PROCESO DE BALANCE DE ENERGÍA LIQUIDA
5.4.6. ENVOLTURA DEL VAPOR CALIENTE
5.4.7. CONDENSADOR
5.4.8. MODELO MATEMÁTICO DEL EVAPORADOR
5.5. SINTONIZACIÓN DE CONTROLADORES PID UTILIZANDO
ALGORITMOS EVOLUTIVOS FUERA DE LÍNEA
5.5.1. SISTEMA MECÁNICO: MASA –RESORTE
5.5.2. CIRCUITO LRC
5.5.3. SISTEMA DE LEVITACIÓN MAGNÉTICA
5.5.4. MODELO DEL EVAPORADOR
6. ANALISIS ECONOMICO Y ADMINISTRATIVO
7. ANALISIS DE LEGALIDA
8. INFLUENCIA AMBIENTAL
CONCLUSIONES
RECOMENDACIONES
BIBLIOGRAFIA
ANEXOS
GLOSARIO DE TÉRMINOS TÉCNICOS
INTRODUCCIÓN
A pesar de que la tecnología ha ido avanzando a pasos gigantescos en el área
industrial desde la invención del controlador PID, éstos continúan teniendo una
gran acogida hasta nuestros días, siendo utilizados para el control de la
mayoría de los procesos a lazo cerrado. En general, los procesos donde estos
controladores son empleados tienden a desestabilizarse debido a
perturbaciones no lineales, desgaste de equipos, y varios otros factores, lo cual
hace que tengan que ser resintonizados o reajustados para las nuevas
condiciones de operación o funcionamiento de los sistemas.
Con este trabajo se busca realizar la entonación de controladores PID, ante
cambios de los parámetros de los sistemas, de forma autónoma, sin la ayuda
del operador.
Para esto se propone utilizar algoritmos evolutivos, que constituyen una rama
de la llamada Computación Blanda, con los cuales se emula la evolución
natural de los seres vivos, utilizando la selección y reproducción, para
encontrar la solución óptima a un problema específico, sin tener ningún
conocimiento previo de este.
Inicialmente se propone un conjunto de posibles soluciones, que luego son
sometidas a procesos de transformación y después a una selección que
escoge las mejores y descarta las peores, de acuerdo a una calificación o
medida de aptitud dada por una función de aptitud, que se establece de
acuerdo al objetivo del problema.
Dentro de los algoritmos evolutivos se pueden destacar diferentes directrices,
como la de los algoritmos genéticos, las cuales se aplican de acuerdo a la
codificación que se hace de los individuos (posibles soluciones al problema).
El desarrollo de este trabajo esta organizado como sigue:
- En el primer capítulo se trata todo lo referente a los algoritmos evolutivos
desde sus inicios, pasando por todas las técnicas que han sido
desarrolladas a través del tiempo. También se orienta un poco sobre las
consideraciones que se deben tener en cuenta a la hora de la
implementación y se mencionan sus ventajas y sus desventajas.
- En el segundo capítulo se hace referencia a toda la teoría relacionada
con los controladores PID. Diferentes acciones de control y
configuraciones de los controladores y sus efectos sobre los sistemas.
- El tercer capítulo es un enfoque reducido sobre las diferentes técnicas
de discretización de sistemas y además la linealización de sistemas no
lineales.
- El cuarto capítulo es una perspectiva sobre el estado del arte de los
algoritmos evolutivos y sus usos para solucionar problemas relacionados
con controladores PID
- En el quinto capítulo se llevan a cabo varios experimentos para la
sintonización de controladores con algoritmos evolutivos; primero en
línea y luego fuera de línea, para luego ser aplicados a un proceso de
evaporación.
- El sexto capítulo se dan conclusiones específicas y recomendaciones
sobre el uso de este método de acuerdo a las conclusiones obtenidas en
los experimentos.
OBJETIVOS
OBJETIVO GENERAL:
Desarrollar un nuevo algoritmo de sintonización de controladores PID
utilizando algoritmos evolutivos.
OBJETIVOS ESPECÍFICOS
• Diseñar experimentos para respaldar el desarrollo de algoritmos
evolutivos para la sintonización de controladores.
• Diseñar un algoritmo evolutivo para la sintonización adaptativa de
controladores PID e implementar el diseño utilizando herramientas de
computación en Matlab.
• Validar los desarrollos, a través de simulaciones computacionales, con
un modelo matemático de un sistema de evaporación, mediante la
verificación de condiciones de estabilidad del sistema en estudio.
• Definir otras potenciales aplicaciones de implementación en el ámbito
industrial.
JUSTIFICACIÓN
De acuerdo con las diversas asignaturas cursadas en el transcurso del
programa propuesto para Ingeniería Electrónica, el control automático es una
de las áreas de estudio de la carrera. El control como tal, dentro de su
diversidad de temas, métodos y técnicas, incluye el diseño de controladores
PID, los cuales son ampliamente utilizados a nivel industrial.
Los controladores han generado muchos beneficios para la apropiada
operación de procesos o sistemas; por lo cual son de gran interés, tanto en
sus funcionalidades, como en el mejoramiento continuo del desempeño de
procesos industriales. Para lograr estas mejoras se han usado diferentes
métodos basados en una diversidad de técnicas para la entonación automática
de los controladores.
Teniendo en cuenta los objetivos del proyecto, sus logros aportarían soluciones
a la industria, ya que permitirían mejorar la operación de plantas al tiempo que
robustecerían las condiciones de seguridad operacional en procesos de alto
riesgo donde el control resulta esencial.
PLANTEAMIENTO DEL PROBLEMA
En las instalaciones industriales más del 95% de los procesos son regulados
por controladores PID, pero debido a la vida útil de los equipos, a cambios de
dinámica de los procesos, a la presencia de comportamientos no lineales y a
perturbaciones de naturaleza aleatoria, entre otros factores, con frecuencia se
pierde la entonación de los controladores. Todo eso ocasiona una degradación
en las condiciones de operación de los sistemas, ya que estos están diseñados
para operar en un punto específico de equilibrio, trayendo como consecuencia
pérdidas económicas o detrimento de las condiciones de seguridad en la
operación del proceso. Por esto, se hace necesaria la asistencia de ingenieros
de control para reestablecer el buen desempeño del sistema, entonando los
controladores. Lo ideal sería que el controlador se acoplara automáticamente a
los cambios de parámetros del sistema de forma eficiente, rápida y efectiva sin
necesidad de recurrir a un operador para realizarlo, lo cual resultaría más
costoso.
METODOLOGÍA
• Recolección de información:
En este primer paso se llevó a cabo una consulta e investigación
documental sobre el estado del arte de los controladores PID y los
algoritmos evolutivos. Para esto fue necesario usar la INTERNET, fuentes
bibliográficas (artículos, libros, folletos y revistas) y colaboración de
profesores conocedores del área. La información recopilada permitió la
escogencia de la estructura del controlador y de los parámetros de diseño
del algoritmo evolutivo: codificación, población inicial, fusión objetivo,
condición de terminación, operadores, entre otros elementos.
• Diseño de experimentos:
Se comenzó con el desarrollo de la técnica en línea, utilizando varios
sistemas estables a lazo cerrado, a los cuales se les realizó cambios de
las condiciones iniciales, usando como función de aptitud la diferencia
del error cuadrático y empleando como operador genético el de
mutación basada en descenso por gradiente. También se trabajó con
sistemas inestables a lazo abierto y un tipo de sistemas no lineales,
haciendo cambios en la función objetivo del algoritmo evolutivo y con
mutación basada en ascenso por gradiente. Luego fue desarrollada la
técnica fuera de línea. Para todas estas pruebas se utilizó la ayuda del
sistema programado Simulink y las herramientas de programación de
Matlab. Por último se aplicó este algoritmo a la variable de tasa de flujo,
de un proceso de evaporación, para controlar las diferentes salidas de
este sistema. Aquí se hizo necesaria la utilización de diferentes técnicas
de discretización de sistemas lineales para la implementación del
algoritmo.
• Obtención de resultados:
Una vez obtenidos los comportamientos de los diferentes sistemas
considerados después de haber utilizado el algoritmo evolutivo
diseñado, fueron establecidas conclusiones y recomendaciones relativas
a los resultados y en correspondencia con los objetivos originalmente
planteados para el trabajo. Así mismo se realizaron consideraciones
sobre la plataforma tecnológica necesaria a nivel industrial para poder
hacer la implantación física del método de entonación PID desarrollado.
Capítulo 1
Computación Evolutiva
1.1. INTRODUCCIÓN
En la naturaleza todos los seres vivos se enfrentan a problemas que deben
resolver con éxito, como conseguir más luz del sol, o cazar una mosca. La
Computación Evolutiva interpreta la naturaleza como una inmensa máquina de
resolver problemas y trata de encontrar el origen de dicha potencialidad para
utilizarla en programas [1, 5,13].
La computación evolutiva busca relacionar algunos conceptos expresados en la
teoría de la evolución con un conjunto de técnicas usadas para resolver
computacionalmente algunos problemas. La computación evolutiva CE abarca
los modelos computacionales que usan como elemento clave algún mecanismo
de la teoría de la evolución para su diseño e implementación [4].
El principal aporte de la CE a la metodología de la resolución de problemas ha
sido el uso de mecanismos de selección de soluciones potenciales y de
construcción de nuevas candidatas por recombinación de característica de
otras ya existentes [4].
La Computación Evolutiva surge a finales de los años 60 cuando John Holland
planteó la posibilidad de incorporar los mecanismos naturales de selección y
supervivencia a la resolución de problemas de Inteligencia Artificial. [22]
En la actualidad se tienen varias aplicaciones industriales exitosas inspiradas
en enfoques evolutivos para diversas áreas [22]:
o Diseño de circuitos
o Planificación de tareas
o Cálculo de Estrategias de Mercado
o Cortado de patrones, etc.
Las implementaciones concretas en el área de la CE han sido denominadas
algoritmos evolutivos [4].
Los Algoritmos Evolutivos recogen un conjunto de modelos basados en la
evolución de los seres vivos inspirados en la naturaleza, constituyendo así una
técnica de resolución de problemas [22,5].
En un Algoritmo Evolutivo se define una estructura de datos que admite todas
las posibles soluciones a un problema. Cada uno de los posibles conjuntos de
datos admitidos por esa estructura será una solución al problema. Unas
soluciones serán mejores, otras peores. Estas soluciones serán sometidas a
ciertas transformaciones y luego a un proceso de selección que favorece a los
mejores. Se espera que después de cierto número de generaciones el mejor
individuo de la población esté cerca de la solución buscada. Solucionar el
problema consistirá en encontrar la solución óptima, y por tanto, los Algoritmos
Evolutivos son en realidad un método de búsqueda muy especial, en el que las
soluciones al problema son capaces de reproducirse entre sí, combinando sus
características y generando nuevas soluciones [5, 8,22].
En cada ciclo se seleccionan las soluciones que más se acercan al objetivo
buscado, eliminando el resto de soluciones. Las soluciones seleccionadas se
reproducirán entre sí, permitiendo de vez en cuando alguna mutación o
modificación al azar durante la reproducción [5].
No siempre el espacio de búsqueda completo contiene soluciones válidas; en
algunos casos, los valores de las variables se sitúan dentro de un rango, más
allá del cual la solución es inválida. Se trata entonces de un problema de
optimización con restricciones. En este caso, el problema consiste en
maximizar F(xi) dentro del subespacio.
1.2. ORIGENES
A principios del siglo XIX, las cuestiones relacionadas con las variaciones
evolutivas se centraban en tres aspectos: cuál era la naturaleza del material
genético transmitido a la descendencia, cómo pasaban fielmente las
características de una generación a la siguiente, y cómo se producían
variaciones en ellas que después se transmitían. El zoólogo francés Jean
Baptiste de Lamarck pensaba que la vida animal y vegetal sufría nuevas
influencia de acuerdo a los cambios climáticos y áreas geográficas que
experimentaban, desencadenando nuevas necesidades y por tanto nuevas
estrucuturas. A estas nuevas estructuras Lamarck las llamó características
adquiridas que pueden ser heredadas a nuevas generaciones [19].
A finales del siglo XIX, científicos como Charles Darwin, el biólogo alemán
Ernst Haeckel, el botánico holandés Hugo De Vries y el biólogo alemán
August Weismann desarrollaron teorías sobre la herencia. La razón principal
que suscitó este interés fue que la teoría de la selección natural de Darwin,
publicada por primera vez en 1859. La selección natural fomenta la adaptación
de los organismos cuando ello es necesario para la supervivencia, el éxito
debió alcanzar a aquellas que conseguían desarrollar una habilidad o
mecanismo especial para su autoconservación y replicación rápida [19].
Charles Darwin elaboró su teoría de la selección natural, que se convertiría en
el fundamento de la teoría de la evolución, influenciado por las ideas del
geólogo Adam Sedgwick y el naturalista John Henslow.
La mayor parte de la selección natural se denomina selección estabilizadora,
por cuanto elimina genes del conjunto genético que tienden a producir
desviaciones de una forma que ya es óptima [20].
La selección natural elige los más aptos, los organismos más capacitados.
Para Darwin aptitud significaba cualquier cualidad que ayudaba a un organismo
a sobrevivir y reproducirse [18].
Gregor Johann Mendel (1822-1884) fue un monje austriaco, cuyos
experimentos se convirtieron en el fundamento de la actual teoría de la
herencia (transmisión a los descendientes de los caracteres de los
ascendientes). Sus exhaustivos experimentos con plantas tuvieron como
resultado el enunciado de dos principios que más tarde serían conocidos como
leyes de la herencia. Sus observaciones le llevaron también a acuñar dos
términos que siguen empleándose en la genética de nuestros días: dominante
y recesivo [18, 21].
El redescubrimiento en 1900 de los escritos de Mendel del año 1866 sobre los
patrones de la herencia en la planta del guisante, supuso una fuente importante
de conceptos nuevos sobre la herencia. De su estudio sobre el cruzamiento de
este tipo de plantas, Mendel llegó a tres generalizaciones. La primera fue la ley
de la uniformidad en la primera generación filial: cuando se cruzan dos razas
puras (homocigotas), diferentes en un carácter concreto, la descendencia
presenta siempre el mismo fenotipo. La segunda fue la ley de la segregación:
en la formación de células germinales, los dos factores (alelos) para cualquier
característica están siempre separados entre sí y van a diferentes óvulos o
espermatozoides. La tercera generalización, que con posterioridad se
denominó la ley de la herencia independiente, afirmaba que los factores
maternos y paternos para cualquier grupo de características se separaban de
forma independiente de aquellos que pertenecían a otro grupo de
características [20,21].
Los estudios de Mendel, retomados a finales del siglo, demostraron lo que
Darwin insinuó vagamente en cierta época, que la herencia es particular, no
combinada. Sean o no los descendientes formas intermedias entre sus dos
padres, heredan y transmiten partículas hereditarias separadas, que hoy en día
se denominan genes.
Hugo Marie de Vries (1848-1935) fue un botánico holandés, quien redescubrió
de modo independiente las leyes de la herencia desarrolladas por el monje
austriaco Gregor Mendel, e incorporó el concepto de mutación a la teoría
evolutiva (variaciones a gran escala que pueden producir nuevas especies en
una sola generación), la mutación es el origen último de la variación genética.
De Vries concedió a Mendel todo el mérito por el trabajo [18].
En 1903, Walter Sutton, en Estados Unidos, y Theodore Boveri, en Alemania,
formularon por separado la teoría cromosómica de la herencia, en la que
proponían que los cromosomas eran el soporte físico de los genes. Después de
varios años de experimentación el científico estadounidense Thomas Hunt
Morgan, junto con sus colaboradores, Alfred Henry Sturtevant, Calvin
Blackman Bridges y Hermann Joseph Muller, demostraron la teoría
formulada por Sutton y Boveri. Los cromosomas contienen la información
genética del organismo. La mitad de los cromosomas proceden del padre, y la
otra mitad de la madre. Las diferencias entre individuos reflejan la
recombinación genética de estos juegos de cromosomas al pasar de una
generación a otra [19].
Harriet B. Creighton y Barbara McClintock demostraron experimentalmente,
en 1931, la correlación existente entre la recombinación genética y el
intercambio de fragmentos cromosómicos (entrecruzamiento) que acontece
durante la meiosis [19].
1.3. ANTECEDENTES
Los primeros ejemplos de lo que hoy se podría llamar algoritmos genéticos
aparecieron a finales de los 50 y principios de los 60, programados en
computadoras por biólogos evolutivos que buscaban explícitamente realizar
modelos de aspectos de la evolución natural [28].
John Holland En los años 50 entró en contacto con los primeros ordenadores,
donde pudo llevar a cabo algunas de sus ideas, aunque no se encontró con un
ambiente intelectual fértil para propagarlas. Fue a principios de los 60, en la
Universidad de Michigan en Ann Arbor, donde, dentro del grupo Logic of
Computers, sus ideas comenzaron a desarrollarse y a dar frutos. Y fue,
además, leyendo un libro escrito por un biólogo evolucionista, R. A. Fisher,
titulado La teoría genética de la selección natural, como comenzó a descubrir
los medios de llevar a cabo sus propósitos de comprensión de la naturaleza [2].
En esa universidad, Holland impartía un curso titulado Teoría de sistemas
adaptativos. Dentro de este curso, y con una participación activa por parte de
sus estudiantes, fue donde se crearon las ideas que más tarde se convertirían
en los algoritmos genéticos [2].
Por tanto, cuando Holland se enfrentó a los algoritmos genéticos, los objetivos
de su investigación fueron dos [2]:
• Imitar los procesos adaptativos de los sistemas naturales, y
• Diseñar sistemas artificiales (normalmente programas) que retengan los
mecanismos importantes de los sistemas naturales.
Ese mismo año, la importante tesis de Kenneth De Jong estableció el
potencial de los AGs demostrando que podían desenvolverse bien en una gran
variedad de funciones de prueba, incluyendo paisajes de búsqueda ruidosos,
discontinuos y multimodales [28].
Unos 15 años más adelante, David Goldberg, actual delfín de los algoritmos
genéticos, conoció a Holland, y se convirtió en su estudiante. Golberg era un
ingeniero industrial que trabajó en diseño de pipelines, y fue uno de los
primeros que trató de aplicar los algoritmos genéticos a problemas industriales
[2].
En 1932, Cannon visualizó la evolución natural como un proceso de
aprendizaje. Alan Turing reconoció, en 1950, que debe haber una conexión
obvia entre el aprendizaje de máquina y la evolución y señaló que se podrían
desarrollar programas para jugar ajedrez usando esta técnica. Campbell
conjeturó en 1960 que en todos los procesos que llevan a la expansión del
conocimiento, se involucra un proceso ciego de variación y supervivencia
selectiva. Los primeros intentos de aplicar de manera formal la teoría de la
evolución, a problemas prácticos de ingeniería, apareció en las áreas de control
de procesos estadísticos, aprendizaje de máquina y optimización de funciones.
Tal vez el primer intento serio de este tipo se dio en el trabajo que realizaron
G.E.P. Box y sus colegas G.J. Friedman, W.W. Bledsoe y H.J. Bremermann
en 1957, en el desarrollo de una técnica que denominaron Operación Evolutiva,
la cual se aplicó a una planta de manufactura para manejarla, y que se
implanto sobre la base de los votos de un comité de jefes técnicos. Bajo este
esquema, la planta se veía como a una especie en evolución. La calidad del
producto avanzaba a través de mutaciones aleatorias y la selección era
determinada por el comité [3,8].
Por su parte, Friedberg intentó, en 1958, hacer que un programa en lenguaje
de máquina se mejorara a sí mismo, seleccionando instrucciones que se
asociaran más frecuentemente con un resultado exitoso. La comunidad de
Inteligencia Artificial de la época prestó poca atención a su trabajo, y en
algunas ocasiones lo atacó despiadadamente. Por ejemplo, Minsky lo criticó
duramente, argumentando que una búsqueda puramente aleatoria era mucho
mejor que el algoritmo de Friedberg (este argumento aún es esgrimido
infundadamente por algunos miembros de la comunidad científica en contra de
los algoritmos genéticos) [3].
El trabajo de Bremermann, en 1958, se enfocó más a la optimización,
introduciendo el importante manejo de un valor de aptitud, y definiendo a un
individuo como una cadena de símbolos binarios (unos y ceros). Bremermann
advirtió, acertadamente, que la mutación jugaba un papel importante en la
evolución, pues impedía el estancamiento en mínimos locales [3].
Barricelli ofreció, en 1954, una de las primeras simulaciones que usaba
principios evolutivos, utilizando los mismos procedimientos generales que se
usan hoy en día en la disciplina conocida como vida artificial. Sin embargo, en
este trabajo, así como el que Reed realizó posteriormente en 1967, se
concluyó que el cruce no parecía mejorar la velocidad de la adaptación
selectiva, y el operador primordial era la mutación [3].
El siguiente desarrollo importante en el campo vino en 1966, cuando L.J.
Fogel, A.J. Owens y M.J. Walsh introdujeron en América una técnica que
llamaron programación evolutiva. En este método, las soluciones candidatas
para los problemas se representaban como máquinas de estado finito sencillas;
su algoritmo funcionaba mutando aleatoriamente una de estas máquinas
simuladas y conservando la mejor de las dos. Fue Fogel el que introdujo la
primera técnica evolutiva que realmente funcionó más o menos dentro de los
lineamientos actuales de la computación evolutiva. Su programación evolutiva
consistía en hacer evolucionar autómatas de estados finitos por medio de
mutaciones. Fogel introdujo los importantes conceptos de población y
selección, y aunque las revisiones iniciales de su trabajo fueron favorables,
algunos investigadores, como Solomonoff, enfatizaron que el método de Fogel
no debía verse en su estado actual (en 1966) como algo particularmente útil
para resolver problemas, a excepción de los más simples posibles [3, 28].
Otra técnica evolutiva dirigida particularmente a la optimización de funciones
continuas de alta complejidad se desarrolló en Alemania, en 1965, por Ingo
Rechenberg y Schwefel. Esta técnica, llamada estrategia evolutiva, se utilizó
inicialmente para resolver problemas ingenieriles que desafiaban a los métodos
de optimización tradicionales, como el gradiente conjugado, y se basa en la
modificación sistemática de un vector de números reales (representando las
variables de decisión del problema) mediante operadores probabilísticos,
usando ciertos criterios para decidir en qué dirección dirigir la búsqueda. La
estrategia evolutiva utiliza como operador principal a la mutación, y en su
versión más reciente usa el cruce como operador secundario [3].
Aunque el australiano Fraser propuso, desde fines de los 50, un procedimiento
muy similar al que John Holland llamó planes evolutivos a fines de los 60, es al
segundo al que se le suele atribuir la creación de la técnica que se conoce
como algoritmo genético, a raíz de que Holland publicara el libro Adaptation in
Natural and Artificial Systems en 1975. La principal diferencia del algoritmo
genético con las técnicas antes mencionadas, es que utiliza el cruce como
operador principal y a la mutación como operador secundario (e incluso
opcional). El algoritmo genético, al igual que las redes neuronales, funciona
como una caja negra que recibe ciertas entradas y produce (tras una cantidad
de tiempo indeterminada) las salidas deseadas [3].
En 1994, Karl Sims publicó Evolving Virtual Creatures en la conferencia
SIGGRAPH, en la que despertó el interés de expertos y del público en general.
Sims reprodujo en su computadora un entorno natural en el que se simulaban
diversos medios como el acuático y el terrestre, con consideración de
parámetros físicos como gravedad, rozamiento y viscosidad. Asimismo, dotó a
la computadora de un conjunto de bloques con los que construyó criaturas
virtuales [11].
1.4. BASES BIOLÓGICAS DE LA COMPUTACIÓN EVOLUTIVA.
Desde el punto de vista biológico, la CE se basa en tres teorías:
Evolución de Darwin, la de seleccionismo de Weismann y la de genética de
Mendel [4].
Postulados de la selección natural que conforman las bases biológicas de la
CE [4]:
1. No todos los individuos de una misma especie son iguales. Pueden ser
heredadas pequeñas variaciones a sus descendientes.
2. Dichas variaciones podrían facilitar la supervivencia a sus portadores en
determinados ambientes.
3. En las poblaciones en cada generación el número permanece
aproximadamente constante, por el hecho de que no todos sobreviven.
4. Los individuos portadores de la mejor adaptación irán incrementando en
relación de parte de la población al transmitir sus características a sus
descendientes.
5. Al irse agregando características favorables, luego de cierto numero de
generaciones se forma una nueva especie que difiere mucho del grupo original.
La NeoDarwinista combina la teoría de Darwin con los aportes de la Genética,
conocida también con el nombre de Teoría Sintética de la Evolución. Esta
teoría postula un principio que es altamente relevante para la CE: La unidad
sobre la que actúa la evolución no es el individuo, sino otra de orden superior,
La población [4].
De entre las teorías formuladas para explicar cómo se heredan las
características, una merece especial mención. Esta es la de Mendel, que
proporcionó el fundamento sobre el cual se ha basado toda la investigación
genética posterior [4].
Para explicar los resultados obtenidos en sus experimentos, Mendel formuló
una serie de hipótesis para explicar resultados obtenidos. Las hipótesis
formuladas por Mendel fueron las siguientes [4]:
1. En cada organismo existe un par de factores que regulan la aparición de una
determinada característica (Hoy en día, a estos factores son denominamos
genes).
2. El organismo obtiene tales factores de sus padres, un factor por cada padre.
3. Cada uno de estos factores se transmite como una unidad discreta
inmodificable.
4. Primera ley de Mendel, o ley de la segregación.
5. Si un organismo posee dos factores diferentes para una característica dada,
uno de ellos debe expresarse y excluir totalmente al otro. Hoy en día, los
biólogos usan el término alelo para describir las formas alternativas de un gen
que controla la aparición de una característica dada.
Por su parte, la teoría de Weismann ha tenido implicaciones cruciales para la
evolución: Demostró que los cambios en el cuerpo, debido al uso o el desuso
de partes del mismo, no se reflejan en el plasma del germen, y por
consiguiente, no pueden ser heredados. Con experimentos probó que el
cuerpo del padre transmite meramente su germen plasmático, invalidando así
la teoría Lamarkista [4].
1.5. COMPONENTES DE UN ALGORITMO EVOLUTIVO
Los componentes de un algoritmo evolutivo se `pueden observar en la figura
1.1 [5]:
1. Una representación genética de soluciones del problema.
2. una manera de crear una población inicial con estas estructuras.
3. una función de aptitud que juegue el papel de ambiente y que jerarquice las
soluciones en términos de su efectividad en la resolución del problema.
4. un mecanismo de selección y un conjunto de operadores que motoricen la
búsqueda modificando parcialmente las estructuras de solución.
5. valores para los parámetros que determinan la dinámica evolutiva.
Figura 1.1. Estructura De Los Algoritmos Evolutivos
Los Algoritmos Evolutivos han emergido como una clase de búsqueda aleatoria
de varios puntos, concurrentemente, sobre un espacio de soluciones factibles;
los AEs requieren de mucho poder de cómputo y espacio de memoria lo cual
los hace interesantes para paralelizarlos. La paralelización del AE mejora
considerablemente tanto el desempeño del algoritmo como la calidad de las
soluciones reportadas debido a que se pueden manipular grandes espacios de
búsqueda y además abarata los costes del hardware [7].
Los Algoritmos Evolutivos requieren que se les especifique la codificación de
los individuos y una función de evaluación que mida la aptitud de cada
individuo. La función de Aptitud es la guía que emplean estos algoritmos para
explorar de forma eficiente su amplio espacio de búsqueda de posibles
soluciones [7].
Los algoritmos evolutivos han sido amplia y exitosamente usados para diseños
de aplicaciones fuera de línea. En el campo de la ingeniería de control de
sistemas, estas aplicaciones incluyen diseño de controladores, identificación
de modelos, análisis de estabilidad robusta, fiabilidad a de sistemas y
diagnostico de fallas [9].
Los Algoritmos Evolutivos pueden considerarse una técnica de aprendizaje no
supervisado, es decir, aprendizaje inductivo por observación y descubrimiento
[22]:
• Estos algoritmos generan ejemplos por si mismos.
• La creación de nuevos ejemplos (puntos de búsqueda) por el algoritmo
es una apuesta inductiva sobre la base del conocimiento existente.
Los algoritmos evolutivos se distinguen también por no quedar atrapados
fácilmente en mínimos locales, como la mayor parte de las técnicas de
búsqueda clásicas, además de usar operadores probabilísticos más robustos
que los operadores determinísticos, que las otras técnicas suelen usar. No
obstante, siendo una heurística, tampoco pueden garantizar encontrar siempre
la solución óptima, si bien la experiencia acumulada hasta la fecha parece
demostrar que, cuando se utilizan apropiadamente, pueden proporcionar
soluciones muy aceptables y, en la mayoría de los casos, superiores a las
encontradas con otras técnicas de búsqueda y optimización [3].
La clara ventaja de los Algoritmos Evolutivos es su aplicabilidad universal a
cualquier tipo de espacio de estructuras [22].
1.6. MODELOS SOBRE EL ESQUEMA GENERAL
Hasta hace poco era común hablar de Algoritmos Genéticos (AG) en general,
en vez de identificar diferentes tipos de CE, ya que el resto de los algoritmos se
pueden interpretar como variaciones o mejoras de los AG, más conocidos
[25,14].
- Algoritmos Genéticos: trabajan con una población de cadenas binarias
con el fin obtener la máxima generalidad y el máximo grado de
paralelismo implícito [22].
- Programas Evolutivos: los individuos pueden ser cualquier estructura de
datos [22].
- Programas Genéticos: los individuos son programas o autómatas
(longitud variable), generalmente representados en forma de árbol [22].
- Estrategias Evolutivas: trabajan con números reales que codifican las
posibles soluciones de problemas numéricos [22].
La agregación simulada (Simulated Annealing) se puede considerar una
simplificación de los AG cuyo origen está en los procedimientos físicos de
solidificación controlada [25].
1.7. ALGORITMOS GENÉTICOS (AG)
Los primeros hechos relacionados con los Algoritmos Genéticos (en adelante
AGs) surgieron en 1932 cuando Cannon interpreta la evolución natural como
un proceso de aprendizaje muy similar al proceso mediante el cual una persona
aprende por ensayo y error. También en 1950 Turing reconoce una conexión
entre la evolución y el aprendizaje de una máquina [24].
Los investigadores en computación observaron que esta clase de algoritmos
podía utilizarse también para optimizar funciones. De hecho, aunque las
primeras descripciones técnicas y definiciones de adaptación provienen de la
biología, ya en este contexto, adaptación designa cualquier proceso por el cual
una estructura va modificándose de forma progresiva para lograr el
comportamiento óptimo en su entorno. Es decir, los procesos adaptativos son
básicamente procesos de optimización, pero es difícil aglutinarlos y unificar su
estudio porque las estructuras modificables son complejas y su
comportamiento es incierto [24, 25].
Los algoritmos genéticos son métodos sistemáticos para la resolución de
problemas de búsqueda y optimización que aplican a estos los mismos
métodos de la evolución biológica: selección basada en la población,
reproducción sexual y mutación. Los AG utilizan el cruce como operación
principal y a la mutación como operador secundario e incluso opcional [2,3, 27].
Los mecanismos de selección del más apto y de reproducción sexual del
algoritmo genético, son los encargados de preservar las características más
adecuadas de cada individuo a fin de hacer converger a la población en
soluciones óptimas [3].
Mediante la selección se determina que miembros de una población sobreviven
para reproducirse, y mediante la reproducción se asegura la mezcla y
recombinación de los genes de la descendencia [24].
Esta mezcla del material genético permite que las especies evolucionen mucho
mas rápidamente de lo que lo harían si tuvieran sólo la copia de los genes de
uno de sus progenitores [24].
En un algoritmo genético, tras parametrizar el problema en una serie de
variables, (x
i
,...,x
n
) se codifican en un cromosoma. Todos los operadores
utilizados por un algoritmo genético se aplicarán sobre estos cromosomas, o
sobre poblaciones de ellos [2].
Aunque no se sabe aún de manera completa la información específica
codificada en los cromosomas de un individuo, las siguientes propiedades
generales son aceptadas por todos los especialistas en el tema [15]:
a) La evolución es un proceso que opera fundamentalmente sobre los
cromosomas.
b) El proceso de selección natural es el responsable de que aquellos individuos
que tienen mejor adaptación al entorno se reproduzcan más que los poco
adaptados.
c) En la reproducción es donde tiene lugar la evolución.
d) La evolución biológica carece de memoria.
En el algoritmo genético va implícito el método para resolver el problema; son
solo parámetros de tal método los que están codificados, a diferencia de otros
algoritmos evolutivos como la programación genética. Hay que tener en cuenta
que un algoritmo genético es independiente del problema, lo cual lo hace un
algoritmo robusto, por ser útil para cualquier problema, pero a la vez débil, pues
no está especializado en ninguno [2].
Las soluciones codificadas en un cromosoma compiten para ver cuál constituye
la mejor solución (aunque no necesariamente la mejor de todas las soluciones
posibles). El ambiente, constituido por las otras camaradas soluciones, ejercerá
una presión selectiva sobre la población, de forma que sólo los mejor
adaptados sobrevivan o leguen su material genético a las siguientes
generaciones, igual que en la evolución de las especies [2].
Los algoritmos genéticos han demostrado ser un método útil de búsqueda de
soluciones satisfactorias (calidad/tiempo), en problemas cuyo espacio de
solución es difícil de tratar por otros métodos por su amplio rango. Estas
posibilidades brindan la oportunidad de ajustar los parámetros de tal manera
que la convergencia a la solución sea mucho más eficiente en cuanto a la
relación calidad/tiempo que los métodos exactos pueden ofrecer [6].
Para encontrar óptimos globales, los algoritmos de optimización hacen uso de
dos técnicas: explorar áreas desconocidas en el espacio de búsqueda y
explotar el conocimiento obtenidos de puntos previamente evaluados. Los
algoritmos combinan ambas técnicas de una forma eficiente [17].
Los resultados de los AGs mejoran significativamente si se usa una
representación y unos operadores genéticos naturales.
1.7.1. Codificación de las variables
Los algoritmos genéticos requieren que el conjunto se codifique en un
cromosoma. Cada cromosoma tiene varios genes, que corresponden a sendos
parámetros del problema. Para poder trabajar con estos genes en el ordenador,
es necesario codificarlos en una cadena, es decir, una ristra de símbolos
(números o letras) que generalmente va a estar compuesta de 0s y 1s aunque
hay otras codificaciones posibles usando alfabetos de diferente cardinalidad [2,
28].
La mayoría de las veces, una codificación correcta es la clave de una buena
resolución del problema. Esto puede llevar a usar cromosomas
bidimensionales, o tridimensionales, o con relaciones entre genes que no sean
puramente lineales de vecindad. En algunos casos, cuando no se conoce de
antemano el número de variables del problema, caben dos opciones: codificar
también el número de variables, fijando un número máximo, o bien, lo cual es
mucho más natural, crear un cromosoma que pueda variar de longitud. Para
ello, claro está, se necesitan operadores genéticos que alteren la longitud.
Normalmente, la codificación es estática, pero en casos de optimización
numérica, el número de bits dedicados a codificar un parámetro puede variar, o
incluso lo que representen los bits dedicados a codificar cada parámetro [2].
1.7.2. Operadores
Una vez que la selección ha elegido a los individuos aptos, éstos deben ser
alterados aleatoriamente con la esperanza de mejorar su aptitud para la
siguiente generación. Existen dos estrategias básicas para llevar esto a cabo.
1.7.2.1. Cruce
Consiste en el intercambio de material genético entre dos cromosomas (a
veces más, como el operador orgía propuesto por Eiben). El teorema de los
esquemas confía en él para hallar la mejor solución a un problema,
combinando soluciones parciales [2].
Implica elegir a dos individuos para que intercambien segmentos de su código,
produciendo una “descendencia'' artificial cuyos individuos son combinaciones
de sus padres como se muestra en la figura 1.2. Este proceso pretende
simular el proceso análogo de la recombinación que se da en los cromosomas
durante la reproducción sexual. Como norma general se aplica después de un
proceso de selección de dos individuos [15, 28].
Figura1.2. Aplicación del operador de cruce.
Las 2 formas más comunes de reproducción sexual son: uso de un punto único
de cruce y uso de 2 puntos de cruce [6,26, 28].
Cuando se usa un solo punto de cruce, éste se escoge de forma aleatoria
sobre la longitud de la cadena que representa el cromosoma, y a partir de él se
realiza el intercambio de material de los 2 individuos [2,6, 26].
Cuando se usan 2 puntos de cruce, se procede de manera similar, pero en este
caso Se eligen dos puntos de ruptura al azar para intercambiar [6,26].
• cruce uniforme: se genera un patrón aleatorio de 1s y 0s, y se
intercambian los bits de los dos cromosomas que coincidan donde hay
un 1 en el patrón. O bien se genera un número aleatorio para cada bit, y
si supera una determinada probabilidad se intercambia ese bit entre los
dos cromosomas [2,6].
• cruce especializado: en algunos problemas, aplicar aleatoriamente el
cruce da lugar a cromosomas que codifican soluciones inválidas; en este
caso hay que aplicar el cruce de forma que genere siempre soluciones
válidas [2].
1 1
1 1
1 1 1
1
1 1
1
1
0 0
0 0
Padres (criadores)
Hijos (vástagos)
1 1
0 0
0 0
0 0
0
0
0
0 0
0 0 0
• Cruce segmentado: existe una probabilidad de que un cromosoma sea
punto de un cruce. Conforme se va formando la nueva cadena del
descendiente, para cada gen, se verifica si ahí se va producir un cruce.
Normalmente el cruce se maneja dentro de la implementación del algoritmo
genético como un porcentaje que indica con qué frecuencia se efectuará. Esto
significa que no todas las parejas de cromosomas se cruzarán, sino que habrá
algunas que pasarán intactas a la siguiente generación. De hecho existe una
técnica desarrollada hace algunos años en la que el individuo más apto a lo
largo de las distintas generaciones no se cruza con nadie, y se mantiene
intacto hasta que surge otro individuo mejor que él, que lo desplazará. Dicha
técnica es llamada elitismo, y no debe sorprender el hecho de que haya sido
desarrollada en Alemania [26].
1.7.2.1.1. Cruces para permutación
1.7.2.1.1.1. Cruce por emparejamiento parcial (PMX)
Toma una subsecuencia del cromosoma del padre y procura preservar el orden
absoluto de los genes, es decir, orden y posición en el cromosoma, del resto
del cromosoma lo más parecido posible de la madre. Aparece también en la
bibliografía como PMX [23].
1.7.2.1.1.2. Cruces por orden (OX)
Cruce de mapeamiento parcial o Cruce por orden: toma una subsecuencia del
cromosoma del padre y procura preservar el orden relativo de los genes del
resto del cromosoma lo más parecido posible de la madre. Se puede encontrar
en la bibliografía como OX [23].
Este cruce sólo considera el orden relativo de las soluciones, no su posición.
Existen dos variantes de este cruce que toman en cuenta las posiciones (muy
usados en planificación de tareas).
1.7.2.1.1.2.1. Variantes al Cruce por orden
- Cruce por orden con posiciones prioritarias
No se elige un tramo para intercambiarlo entre los progenitores, sino un
conjunto de posiciones al azar. (El resto no cambia).
- Cruce por orden con orden prioritario: Los individuos no intercambian
genes, sino el orden relativo existente entre ellas.
1.7.2.1.1.3. Cruce por ciclos (CX)
Se toma el primer gen del cromosoma del padre, poniéndolo en la primera
posición del hijo, y el primer gen del cromosoma de la madre, poniéndolo
dentro del cromosoma del hijo en la posición que ocupe en el cromosoma del
padre. El gen que está en la posición que ocupa el gen del cromosoma del
padre igual al primer gen del cromosoma de la madre se va a colocar en la
posición que ocupe en el cromosoma del padre, y así hasta rellenar el
cromosoma del hijo. Este método también es conocido en la bibliografía como
CX.
1.7.2.1.1.4. Cruce por recombinación de rutas (ERX)
La descendencia se construye combinando los cromosomas que interconectan
los genes de los progenitores.
1.7.2.2. Mutación
En la Evolución, una mutación es un suceso bastante poco común (sucede
aproximadamente una de cada mil replicaciones), como ya se ha visto
anteriormente. En la mayoría de los casos las mutaciones son letales, pero en
promedio, contribuyen a la diversidad genética de la especie. En un algoritmo
genético tendrán el mismo papel, y la misma frecuencia (es decir, muy baja) [2].
Realiza un cambio a uno de los genes de un cromosoma elegido
aleatoriamente. Cuando se usa una representación binaria, el gen seleccionado
se sustituye por su complemento (un cero cambia en uno y viceversa) como se
puede observar en la figura 1.3. Este operador permite la introducción de nuevo
material cromosómico en la población, tal y como sucede con sus equivalentes
biológicos [26].
Figura 1.3. Aplicación del operador de mutación.
Al igual que la cruce, la mutación se maneja como un porcentaje que indica con
qué frecuencia se efectuará, aunque se distingue de la primera por ocurrir
mucho más esporádicamente (el porcentaje de cruce normalmente es de más
del 60%, mientras que el de mutación normalmente nunca supera el 5%) [26].
El operador de mutación que se acaba de describir representa la denominada
mutación clásica. Este operador también puede tener algunas variantes al
operador clásico [4].
1.7.2.2.1. Mutaciones sobre genes: Cuando un gen puede tomar más de dos
valores (llamados también alelos), la mutación se realiza cambiando el valor
actual por otro más o menos parecido [4].
1.7.2.2.2. Mutaciones no estacionarías: en algunas ocasiones es conveniente
reducir la tasa de mutación (probabilidad de mutación) según el programa
progresa. La forma de implementar tal reducción depende en gran medida del
1 1 1 1 1 1 1
1 1 1 1 1 0
0
0 0
Individuo original
Individuo después de la mutación
problema; una manera sencilla es multiplicando la probabilidad de mutación por
un factor de reducción cada cierto número de generaciones [4].
1.7.2.2.3. Mutaciones no uniformes: Se dan distintas probabilidades de
mutación a cada gen (o a cada bit dentro de un gen), dependiendo de su
significado.
1.7.2.3. Variantes en operadores básicos para números reales
Aunque t5ambien se puede utilizar los mecanismos mencionados para codificar
binarios, existen variantes relevantes si se trabaja con representación basada
en números reales.
Por ejemplo
Cruce
1
C escalar o vector de números reales
2
C escalar o vector de números reales
| )
2 1 1 1
C C C H − + · α (1-1)
| )
1 2 2 2
C C C H − + · α (1-2)
2
2 1
C C
Hu
+
· (1-3)
También se pueden producir más de dos hijos asignando una terna operación
posible a cada caso.
Mutación
1
C Cromosoma a ser mutado
f C H ∆ + · α
1 1
Gradiente ascendente
f C H ∆ − · α
1 1
Gradiente descendente
Depende de si se quiere minimizar o maximizar la función objetivo.
El gradiente pudiera ser analítico explicito
C
f


si f f es derivable. Si f no e
derivable, se selecciona el individuo a mutar y otro que difiera
significativamente del ∗
1
C puede ser en cuanto a función de ajuste o de
estructura.
∗ −
∗ −
·


1 1
1 1
1
C C
fC fC
C
f
(1-4)
Si
1
C es un escalar, es directo el gradiente. Si
1
C es un vector habrá un
gradiente distinto para cada elemento del cromosoma, ya que para cada
elemento varia el valor del denominador.
1.7.2.4. Otros operadores
No se usan en todos los problemas, sino sólo en algunos, y en principio su
variedad es infinita. Generalmente son operadores que exploran el espacio de
soluciones de una forma más ordenada, y que actúan más en las últimas fases
de la búsqueda, en la cual se pasa de soluciones "casi buenas" a "buenas"
soluciones [2].
1.7.2.4.1. Cromosomas de longitud variable
Hay problemas en los que no se conoce de antemano el número de parámetros
del mismo. En estos casos, se necesitan dos operadores más: añadir y
eliminar. Estos operadores se utilizan para añadir un gen, o eliminar un gen del
cromosoma. La forma más habitual de añadir un locus es duplicar uno ya
existente, el cual sufre mutación y se añade al lado del anterior. En este caso,
los operadores del algoritmo genético simple (selección, mutación, cruce)
funcionarán de la forma habitual, salvo, claro está, que sólo se hará cruce en la
zona del cromosoma de menor longitud [2].
Estos operadores permiten, además, crear un algoritmo genético de dos
niveles: a nivel de cromosoma y a nivel de gen [2].
1.7.2.4.2. Operadores de nicho (ecológico)
Otros operadores importantes son los operadores de nicho. Estos operadores
están encaminados a mantener la diversidad genética de la población, de
forma que cromosomas similares sustituyan sólo a cromosomas similares, y
son especialmente útiles en problemas con muchas soluciones; un algoritmo
genético con estos operadores es capaz de hallar todos los máximos,
dedicándose cada especie a un máximo. Más que operadores genéticos, son
formas de enfocar la selección y la evaluación de la población [2].
1.7.2.4.3. Operadores especializados
En una serie de problemas hay que restringir las nuevas soluciones generadas
por los operadores genéticos, pues no todas las soluciones generadas van a
ser válidas, sobre todo en los problemas con restricciones. Por ello, se aplican
operadores que mantengan la estructura del problema. Otros operadores son
simplemente generadores de diversidad, pero la generan de una forma
determinada [2]:
• Zap: en vez de cambiar un solo bit de un cromosoma, cambia un gen
completo de un cromosoma [2].
• Creep: este operador aumenta o disminuye en 1 el valor de un gen;
sirve para cambiar suavemente y de forma controlada los valores de los
genes [2].
• Transposición: similar al cruce y a la recombinación genética, pero
dentro de un solo cromosoma; dos genes intercambian sus valores, sin
afectar al resto del cromosoma. Similar a este es el operador de
eliminación-reinserción: en el que un gen cambia de posición con
respecto a los demás [2].
• Agrega Alternativa: generaliza una restricción sobre un atributo,
cambiando un 0 por un 1 en la sub cadena que corresponde al atributo
[17].
• Elimina Condición: lleva a cabo una generalización más drástica,
remplazando todos los bits de una sub cadena por 1s, esto es, elimina
por completo la restricción en un atributo dado [17].
• Duplicación: Copia exactamente la información de un individuo a otro
[4].
• Translocación: Se intercambian trozos del código genético de un
individuo [4].
• Inversión: Este operador modifica la información genética de un
individuo tomando dos componentes (genes) del mismo e
intercambiando los valores de éstos; es decir, al primero se le asigna la
información del segundo y al segundo la información del primero [4].
• Dominación: Determina algunos componentes (genes) que son
preponderantes en el individuo para su valor de aptitud y da preferencia
a esos componentes en otros operadores genéticos [4].
• Segregación: Es lo contrario a la dominación. En este caso, los
componentes segregados no influyen de manera determinante en el
grado de adaptabilidad del individuo [4].
1.7.3. Función de adaptación
La función de adaptación (fitness) define el criterio para ordenar las hipótesis
potenciales y para seleccionarlas probabilísticamente, para su inclusión en la
siguiente generación de la población. Si la tarea consiste en aprender reglas de
clasificación, entonces la función de adaptación contiene un componente para
evaluar la precisión de las hipótesis sobre un conjunto de entrenamiento dado
[17].
Es la base para determinar qué soluciones tienen mayor o menor probabilidad
de sobrevivir.
Se tiene que tener un balance entre una función que haga diferencias muy
grandes (y por lo tanto una convergencia prematura) y diferencias muy
pequeñas (y por lo tanto un estancamiento).
La función de aptitud no es más que la función objetivo de nuestro problema de
optimización. El algoritmo genético únicamente maximiza, pero la minimización
puede realizarse fácilmente utilizando el recíproco de la función maximizante
(debe cuidarse, por supuesto, que el recíproco de la función no genere una
división por cero). Una característica que debe tener esta función es que debe
ser capaz de "castigar" a las malas soluciones, y de "premiar" a las buenas, de
forma que sean estas últimas las que se propaguen con mayor rapidez [26].
1.7.4. El teorema del esquema
Proporciona el fundamento teórico de porqué los AG pueden resolver diversos
problemas. En su análisis se considera el proceso de selección y los
operadores de cruce y mutación.
Un esquema se construye utilizando un nuevo símbolo (*) para representar un
comodín (no importa) que puede aparear ambos valores (0 o 1). El esquema
11*00* representa las cadenas: 111001, 111000, 110001, 110000.
El orden de un esquema es el número de elementos que no son “`*'' dentro del
esquema.
La longitud que define a un esquema es la distancia entre la primera posición
fija y la última posición fija.
El teorema dice que: Los esquemas pequeños de bajo orden arriba del
promedio reciben un incremento exponencial de representantes en las
siguientes generaciones de un algoritmo genético [Holland 92]
El teorema del esquema caracteriza la evolución de una población en un
algoritmo genético en términos del número de elementos representando cada
esquema. Sea m(s, t) el numero de elementos del esquema s al tiempo t. El
teorema del esquema describe el valor esperado de m(s, t + 1) en términos de
m(s, t) y otras propiedades del esquema, la población, y los parámetros del
algoritmo genético [17].
Un algoritmo genético tiene también una serie de parámetros que se tienen que
fijar para cada ejecución, como los siguientes [2]:
• Tamaño de la población: debe de ser suficiente para garantizar la
diversidad de las soluciones, y, además, tiene que crecer más o menos
con el número de bits del cromosoma. Por supuesto, depende también
del ordenador en el que se esté ejecutando. El número de soluciones en
una población es altamente relevante para la velocidad de optimización.
• Condición de terminación: lo más habitual es que la condición de
terminación sea la convergencia del algoritmo genético o un número
prefijado de generaciones.
1.7.5. Evaluación
Durante la evaluación, se decodifica el gen, convirtiéndose en una serie de
parámetros de un problema, se halla la solución del problema a partir de esos
parámetros, y se le da una puntuación a esa solución en función de lo cerca
que esté de la mejor solución. A esta puntuación se le llama fitness [2].
El fitness determina siempre los cromosomas que se van a reproducir, y
aquellos que se van a eliminar, pero hay varias formas de considerarlo para
seleccionar la población de la siguiente generación [2].
Una vez evaluado el fitness, se tiene que crear la nueva población teniendo en
cuenta que los buenos rasgos de los mejores se transmitan a esta. Para ello,
hay que seleccionar a una serie de individuos encargados de tan ardua tarea.
1.7.6. Métodos de selección
El mecanismo de selección permite orientar la búsqueda a aquellos puntos más
promisorios con la mayor adaptación observada hasta el momento. La
selección no produce puntos nuevos en el espacio de búsqueda, sino que
determina que individuos dejaran descendencia y en que cantidad en la
próxima generación [12].
Un algoritmo genético puede utilizar muchas técnicas diferentes para
seleccionar a los individuos que deben copiarse hacia la siguiente generación,
pero abajo se listan algunos de los más comunes. Algunos de estos métodos
son mutuamente exclusivos, pero otros pueden utilizarse en combinación, algo
que se hace a menudo [28]:
• Selección elitista: se garantiza la selección de los miembros más aptos
de cada generación [28].
• Selección proporcional a la aptitud: los individuos más aptos tienen
más probabilidad de ser seleccionados, pero no la certeza [28].
• Selección por rueda de ruleta o universal (R): Conceptualmente, esto
puede representarse como un juego de ruleta, cada individuo obtiene
una sección de la ruleta, pero los más aptos obtienen secciones
mayores que las de los menos aptos. Luego la ruleta se hace girar, y en
cada vez se elige al individuo que “`posea'' la sección en la que se pare
la ruleta [2, 15, 26,28].
• Selección escalada: al incrementarse la aptitud media de la población,
la fuerza de la presión selectiva también aumenta y la función de aptitud
se hace más discriminadora. Este método puede ser útil para
seleccionar más tarde, cuando todos los individuos tengan una aptitud
relativamente alta y sólo les distingan pequeñas diferencias en la aptitud
[28].
• Selección por torneo (T): se eligen subgrupos de individuos de la
población, y los miembros de cada subgrupo compiten entre ellos. Sólo
se elige a un individuo de cada subgrupo para la reproducción [2, 26,28].
• Selección por rango: a cada individuo de la población se le asigna un
rango numérico basado en su aptitud, y la selección se basa en este
ranking, en lugar de las diferencias absolutas en aptitud. La ventaja de
este método es que puede evitar que individuos muy aptos ganen
dominancia al principio a expensas de los menos aptos, lo que reduciría
la diversidad genética de la población y podría obstaculizar la búsqueda
de una solución aceptable [2,28].
• Selección generacional: la descendencia de los individuos
seleccionados en cada generación se convierte en toda la siguiente
generación. No se conservan individuos entre las generaciones [28].
• Selección por estado estacionario: la descendencia de los individuos
seleccionados en cada generación vuelven al acervo genético
preexistente, reemplazando a algunos de los miembros menos aptos de
la siguiente generación. Se conservan algunos individuos entre
generaciones [28].
• Selección jerárquica: los individuos atraviesan múltiples rondas de
selección en cada generación. Las evaluaciones de los primeros niveles
son más rápidas y menos discriminatorias, mientras que los que
sobreviven hasta niveles más altos son evaluados más rigurosamente.
La ventaja de este método es que reduce el tiempo total de cálculo al
utilizar una evaluación más rápida y menos selectiva para eliminar a la
mayoría de los individuos que se muestran poco o nada prometedores, y
sometiendo a una evaluación de aptitud más rigurosa y
computacionalmente más costosa sólo a los que sobreviven a esta
prueba inicial [28].
• Selección por escaños: se divide el rango del número aleatorio en un
número predeterminado de escaños. Los escaños se reparten de
acuerdo con la ley d'Hont, tomando como «puntuación» para repartir los
escaños el grado de adaptación. Se observa que es más probable
escoger un elemento de baja probabilidad por este método que en el de
selección por sorteo.
• Selección por restos estocásticos: igual que el método de selección
de escaños, sólo que los escaños no asignados directamente, es decir,
aquellos en que se aplica directamente la ley d'Hont, se asignan de
forma aleatoria. La probabilidad de escoger un elemento de muy baja
probabilidad es más alta que en el de selección por escaños.
• Selección estocástica universal SUS: es análogo a la ruleta con M
puntos igualmente espaciados entre si, de modo que con un solo
lanzamiento se obtienen M ganadores. El método SUS no tiene sesgo y
su dispersión es la mínima posible [12].
• Selección por sorteo :Se asume que cada individuo de la población
tiene una cierta puntuación, normalmente relacionada a su valor de
aptitud, con la cual se calcula la probabilidad p
i
que tiene cada individuo
i’ para formar parte de la muestra [4]:

·
·
n
j
j
i
f
f
i
p
0
(1-5)
Donde:
n : tamaño de la población
f: función de aptitud
1.7.7. Mecanismos de Reemplazo
Los mecanismos de reemplazo permiten mantener la población constante.
Entre los mecanismos de reemplazo, los de mayor uso y aceptación son [4]:
Reemplazo directo
Los progenitores son reemplazados directamente por sus descendientes.
Obviamente, este criterio solo puede usarse si s < n [4].
Reemplazo por similitud
Cada descendiente reemplaza aquel miembro de la población que más se le
asemeja. Al igual que en el caso directo, debe cumplirse que s < n [4].
Reemplazo por inserción (,)
Este criterio puede usarse con variación según la relación entre s y n [4]:
Si s n; Se escogen s individuos de la población, los cuales serán sustituidos
por los s descendientes. Esta escogencia se hace a través de algún criterio de
muestreo, normalmente se toman los peores.
Si S > n: Se toma una muestra (con algún criterio) de tamaño n de los s
descendientes. Bajo este esquema, cada individuo vive sólo por una
generación.
Reemplazo por inclusión (+}
Se unen los n miembros de la población con los s descendientes, conformando
una población auxiliar de tamaño s + n. Luego, de esta población auxiliar, se
toma una muestra de tamaño n según algún criterio de selección [4].
1.7.8. Características de los AGs
Los AGs poseen características que determinan su funcionamiento y su
aplicabilidad en determinados problemas. Estas son [4]:
Búsqueda Ciega. No disponen de ningún conocimiento específico del
problema.
Codificación de Parámetros. Se trabaja con la codificación de un conjunto de
parámetros (o un subconjunto de ellos) y no con los parámetros en sí.
Búsqueda Basada en Población. Se busca desde una población de puntos y
no desde uno solo.
Función Objetivo como Elemento a Optimizar. Se usa una función objetivo o
función de evaluación para definir lo que se desea optimizar, sin requerir más
información derivada o auxiliar.
Operadores Aleatorios. Se hace uso de operadores estocásticos para las
transformaciones, en vez de reglas de transición determinísticas
1.7.9. ¿Como funcionan?
El funcionamiento de un algoritmo genético clásico comienza generando una
población inicial aleatoria de candidatos a ser el óptimo y usa la información
contenida en ella con el fin de producir iterativamente nuevas y “mejores”
poblaciones. Esa “calidad” se entiende en términos de la medida que de su
idoneidad proporciona la función de ajuste [24].
Para ello, en primer lugar (y una vez codificados los miembros de la población
Inicial), se evalúa su idoneidad y se seleccionan los mejores cromosomas.
Algunos de estos individuos seleccionados sufren ciertas alteraciones por la
acción de diferentes operadores genéticos encargados de introducir nuevos
elementos en la población. En los algoritmos genéticos clásicos, dos son los
operadores genéticos a destacar: el cruce y la mutación [24].
Los descendientes obtenidos a través de la selección y la recombinación,
constituyen lo que se conoce como una generación. El proceso se repite
durante generaciones hasta que se alcanza una cierta condición de parada. Es
decir, el algoritmo finaliza cuando se ha ejecutado un número determinado de
iteraciones prefijado de antemano, cuando se ha encontrado el óptimo [24].
1.7.10. ¿Por qué utilizar algoritmos genéticos en la optimización?
La razón del creciente interés por los algoritmos genéticos es que estos son un
método global y robusto de búsqueda de las soluciones de problemas. La
principal ventaja de estas características es el equilibrio alcanzado entre la
eficiencia y eficacia para resolver diferentes y muy complejos problemas de
grandes dimensiones [24].
1.7.11. Convergencia del Algoritmo
Dado que el algoritmo genético opera con una población en cada iteración, se
espera que el método converja de modo que al final del proceso la población
sea muy similar, y en el infinito se reduzca a un sólo individuo [6].
Se ha desarrollado toda una teoría para estudiar la convergencia de estos
algoritmos en el caso de cadenas binarios. Esta teoría se basa principalmente
en considerar que una cadena es un representante de una clase de
equivalencia o esquema, reinterpretando la búsqueda en lugar de entre
cadenas, entre esquemas [6].
1.7.12. ¿Cómo saber si es posible usar el Algoritmo Genético?
No todos los problemas pudieran ser apropiados para la técnica, y se
recomienda en general tomar en cuenta las siguientes características del
mismo antes de intentar usarla [26]:
· Su espacio de búsqueda (sus posibles soluciones) debe estar delimitado
dentro de un cierto rango.
· Debe poderse definir una función de aptitud que indique qué tan buena o mala
es una cierta respuesta.
Las soluciones deben codificarse de una forma que resulte relativamente fácil
de implementar en el computador.
1.7.13. Decisiones para implementar un algoritmo genético
Las decisiones que hay que tomar para implementar un algoritmo genético son:
• Criterio de codificación. Como se va a almacenar la información en el
cromosoma.
• Criterio de tratamiento de individuos no factibles. Como se van a
tratar a los individuos que no cumplan las restricciones
• Criterio de inicialización. Cómo se va a construir la población inicial del
algoritmo genético.
• Criterio de parada. Determina cuándo el algoritmo ha llegado a una
solución aceptable.
• Función de adaptación.
• Operadores genéticos.
• Criterios de reemplazo.
• Parámetros de funcionamiento. Determinados parámetros que, sin
poder ser englobados en ninguno de los anteriores, son fundamentales
para el funcionamiento de un algoritmo genético. Es el caso, por
ejemplo, del tamaño de la población, la probabilidad de la aplicación de
los operadores genéticos.
1.7.14. Ventajas de los AGs
• los algoritmos genéticos son intrínsecamente paralelos, pueden explorar
el espacio de soluciones en múltiples direcciones a la vez [28,29].
• funcionan particularmente bien resolviendo problemas cuyo espacio de
soluciones potenciales es realmente grande (demasiado vasto para
hacer una búsqueda exhaustiva en un tiempo razonable) [28].
• se desenvuelven bien en problemas con un paisaje adaptativo complejo,
aquéllos en los que la función de aptitud es discontinua, ruidosa, cambia
con el tiempo, o tiene muchos óptimos locales [28].
• Otra área en el que destacan los algoritmos genéticos es su habilidad
para manipular muchos parámetros simultáneamente [28,29].
• Usan operadores probabilísticos, en vez de los típicos operadores
determinísticos de las otras técnicas [26].
• los AGs no saben nada de los problemas que deben resolver [28].
1.7.15. Desventajas o limitaciones que tienen los AG con respecto a otras
técnicas de búsqueda
Aunque los algoritmos genéticos han demostrado su eficiencia y potencia como
estrategia de resolución de problemas, no son la panacea. Los AGs tienen
ciertas limitaciones; sin embargo, se ha demostrado que todas ellas pueden
superarse y que ninguna de ellas afecta a la validez de la evolución biológica
[28].
• Pueden tardar mucho en converger, o no converger en absoluto,
dependiendo en cierta medida de los parámetros que se utilicen (tamaño
de la población, número de generaciones, etc.) [26].
• Pueden converger prematuramente debido a una serie de problemas de
diversa índole [26].
• El lenguaje utilizado para especificar soluciones candidatas debe ser
robusto; es decir, debe ser capaz de tolerar cambios aleatorios que no
produzcan constantemente errores fatales o resultados sin sentido [28].
• Si se elige mal una función de aptitud o se define de manera inexacta,
puede que el algoritmo genético sea incapaz de encontrar una solución
al problema, o puede acabar resolviendo el problema equivocado [28].
• Si el tamaño de la población es demasiado pequeño, puede que el
algoritmo genético no explore suficientemente el espacio de soluciones
para encontrar buenas soluciones consistentemente. Si el ritmo de
cambio genético es demasiado alto o el sistema de selección se escoge
inadecuadamente, puede alterarse el desarrollo de esquemas
beneficiosos y la población puede entrar en catástrofe de errores, al
cambiar demasiado rápido para que la selección llegue a producir
convergencia [28].
• Una dificultad práctica al usar algoritmos genéticos es conocida como
crowding. En este fenómeno, un individuo que es mas apto que otros
miembros de la población, comienza a reproducirse rápidamente de tal
forma que copias de este individuo, o bien de individuos muy parecidos,
ocupan una fracción importante de la población reduciendo la diversidad
de la población, haciendo la búsqueda más lenta. Eso se puede
solucionar escogiendo un apropiado método de selección [17].
• Se aconseja no utilizar algoritmos genéticos en problemas resolubles de
manera analítica. Ya que los métodos analíticos tradicionales consumen
mucho menos tiempo y potencia computacional que los [28].
1.7.16. Consideraciones al usar algoritmos genéticos
Tomar cualquier método de optimización para trabajar de una manera óptima
requiere alguna experimentación con sus parámetros de configuración y
selecciones inadecuadas de éstos conducirán a un bajo rendimiento en la
búsqueda. Cuando no se conoce mucho acerca de la superficie de respuesta y
calcular el gradiente es computacionalmente intensivo o numéricamente
inestable muchas personas prefieren usar métodos de optimización como AG,
SA y Simplex los cuales no requieren información del gradiente [16].
Para las aplicaciones donde el cálculo del vector gradiente es numéricamente
preciso y rápido, no se recomienda usar los AG, ya que éstos alcanzarán la
región óptima mucho más lento que los métodos hill-climbing. Otro tipo de
aplicaciones no recomendadas para los AG son aquellas que requieren
encontrar el óptimo global exacto, dada la característica de los AG de ser
buenos encontrando la región óptima global pero enfrentando problemas
algunas veces para localizar el óptimo exacto [16].
1.7.17. Diferencias entre los Métodos Tradicionales y los A.G.
Se puede decir que los Algoritmos Genéticos difieren de los principales
métodos tradicionales de optimización en cuatro puntos fundamentales de los
cuales no han sido mencionados [15]:
1. Los A.G. no utilizan derivadas ni otras propiedades de la función objetivo,
sino únicamente la propia función objetivo.
2. Los A.G. se rigen mediante reglas de transición probabilísticas, no
determinísticas.
1.8. PROGRAMAS EVOLUTIVOS (PEs)
Los programas evolutivos fueron presentados en 1994 por Michalewicz. los
PEs son métodos que incorporan directamente conocimiento específico a los
AGs, puesto que permiten la utilización de estructuras de datos naturales.
Además, de perder un poco de generalización, con la incorporación de
conocimiento específico, también se pierde el paralelismo implícito (basado en
alfabetos de símbolos mínimos). Sin embargo, esta pérdida se compensa con
el procesamiento de información más útil [14].
Los PEs no son restrictivos en cuanto a la representación del problema.
Mientras en los AGs se hace necesaria una codificación de las soluciones del
problema; en los PEs, tal representación se hace de forma directa.
Si se diseñan adecuadamente, los PEs pueden competir en eficiencia y calidad
de las soluciones con métodos específicos (más costosos de implementar) [23].
Los PEs surgieron al resolver problemas de optimización paramétrica en los
que se requería alta precisión [23].
Se distinguen dos grandes grupos de PEs según la naturaleza de los objetos
tratados [23]:
PEs, especializados en optimización paramétrica
PEs, especializados en optimización combinatoria
1.8.1. PEs en optimización paramétrica
Por precisión y eficiencia no es conveniente utilizar AGs en problemas de
optimización paramétrica. De esta manera, se requería un esquema que
permitiese representar a los individuos como arreglos de números reales donde
cada uno de esos números seria un gen [4].
1.8.2. PEs en optimización combinatoria
Existen algunos problemas que se caracterizan por la existencia de soluciones
que se componen secuencialmente, es decir, dando un conjunto de elementos
se pueden obtener diferentes arreglos ordenados de estos , permitiendo una
basta cantidad de posibilidades; los cuales se denominan problemas de
optimización combinatoria [4].
1.8.3. Programas Evolutivos y Algoritmos Genéticos
Desde el punto de vista práctico, se tratarán a los PEs como una variación de
los AGs, compartiendo exactamente su estructura básica, con las siguientes
distinciones [14]:
a. La representación es más natural. Por lo cual, está más cercana al
dominio del problema.
b. Los operadores genéticos son específicos al contexto del problema.
1.9. ESTRATEGIAS EVOLUTIVAS (EEs)
Las Estrategias Evolutivas, desarrolladas en 1964 por Rechenberg, surgieron
inicialmente para resolver problemas de optimización paramétrica; con el paso
del tiempo fueron incorporando procedimientos propios de la computación
evolutiva, con lo que han llegado a convertirse en una disciplina más. Su
principal característica es que utilizan una representación de vectores reales,
una selección determinística y operadores genéticos específicos de cruce y
mutación. [8, 14,25].
Las EEs pueden dividirse en dos tipos: Estrategias Evolutivas Simples y
Estrategias Evolutivas Múltiples.
1.9.1. EEs Simples
En este caso, se hace evolucionar un solo individuo usando únicamente a la
mutación como operador genético. Son relativamente sencillas, y se
denominan también EEs de dos miembros. Debido a que evoluciona un solo
individuo a la vez, no son consideradas estrictamente como métodos evolutivos
[14].
1.9.2. EEs Múltiples
Surgen como respuesta a las debilidades de las EEs simples, las cuales
tienden a converger hacia subóptimos. En las EEs múltiples existen múltiples
individuos (población), y se producen en cada generación varios nuevos
individuos, usando tanto mutación como cruce (también puede usarse cualquier
otro operador [14].
1.9.3. Estrategias Evolutivas y Algoritmos Genéticos
Los puntos de inicio de los AGs y de las EEs son diferentes, puesto que parten
de enfoques distintos. Se puede decir que las EEs son un tipo especial de AGs
o viceversa. A continuación se presentan las diferencias más significativas
entre ambos métodos [14]:
a. Las EEs son más fuertes por lo que los AGs son mucho más generales
b. El operador fundamental en las EEs es la mutación, mientras que en los
AGs es el cruce.
c. Los AGs realizan búsqueda global, mientras que en las EEs se presenta
exactamente lo contrario.
1.10. Programación evolutiva (EP)
La Programación Evolutiva originalmente fue concebida por Lawrence J. Fogel
en 1960, es una estrategia de optimización estocástica similar a los Algoritmos
Genéticos. El libro "Artificial Intelligence Through Simulated Evolution"
publicado en 1966 por Fogel, Owens y Walsh es la publicación clave para las
aplicaciones de la EP [14].
Una maquina de estados finitos es un transductor que puede ser estimulado
por un alfabeto finito de símbolos de entrada que puede responder a un
alfabeto finitos de símbolo de salida, y que posee algún numero finito de
estados internos diferentes. La figura 1.4 muestra una maquina de estados
finitos, donde os números representan los símbolos de entrada, las letras
griegas símbolos de salida, y los caracteres en mayúscula representan los
estados [4].
Figura 1.4. Maquina de estados finitos de tres estados (A,B,C), dos Símbolos de entrada
(0,1) y tres símbolos de salida
En la programación evolutiva, un conjunto de maquinas de estado finitos (son
los individuos) se expone a un ambiente; esto es, a una secuencia de símbolos
observados en un momento dado. Para cada máquina de Estados Finitos, por
cada símbolo de entrada que se le presenta se determina el símbolo de salida
que da y se compara con el del ambiente (también puede compararse su
próximo estado con el que corresponde en el ambiente). Así, la predicción de
cada máquina de Estados Finitos es media respecto al ambiente, como una
función error (error absoluto, error cuadrático, etc.). Después que se hace la
última predicción, un error promedio para cada máquina es calculado para
indicar la aptitud de ella. Las máquinas que presenten el mejor resultado
(mínimo error) se retienen para ser padres en la próxima generación [4].
A
0/
C
1/
B
0/
1/
0/
1/
Funciones de optimización combinatoria y de valores reales en las cuales, la
superficie de optimización es abrupta, presentando muchas soluciones óptimas
locales, son bien tratadas a través de la EP [14].
Para la EP, existe una suposición muy importante que consiste en que la
función de fitness puede caracterizarse en término de las variables, y además
existe una solución óptima (o múltiples óptimos) en función de dichas variables
[14].
El método de EP básico involucra tres pasos (repetidos hasta que se excede el
umbral de iteraciones o hasta que se encuentre una solución adecuada) [14]:
1. Selección de forma aleatoria de una población inicial de posibles
soluciones.
2. Cada solución se replica en una nueva población.
3. A cada solución hija se le calcula y asigna un valor de adaptación.
Debe resaltarse que la EP típicamente no utiliza el cruzamiento como operador
genético.
1.10.1. Algoritmo General
1. Definir la secuencia de símbolos y función objetivo como una matriz de
pago.
2. Inicializar la población de Máquinas de Estado Finito (MEF).
3. Introducir símbolo de entrada a la población de MEF y observar su
salida.
4. Evaluar comparando su salida con la próxima entrada para ver si predijo
bien.
5. Crear nuevos hijos usando mutación
5.1. Cambiar símbolos
5.2 Cambiar estado de transición
5.3 Añadir o eliminar estado
5.4 Cambiar estado inicial
6. Seleccionar los mejores padres
1.10.2. Programación Evolutiva y Algoritmos Genéticos
Existen dos aspectos importantes en los cuales la EP difiere de los AG.
Primero, no existe restricción en la representación. En la EP, la representación
depende del problema [14].
Segundo, la operación mutación simplemente cambia aspectos de la solución
de acuerdo a una distribución estadística, la cual reconoce que menores
variaciones en el comportamiento de los descendientes son altamente
probables, y que variaciones sustanciales son altamente improbables [14].
1.10.3. Programación Evolutiva y las Estrategias Evolutivas
A pesar de haber sido desarrolladas de forma independiente a lo largo de 30
años, estas dos técnicas presentan bastantes similitudes. Ambas técnicas
típicamente operan sobre los valores reales. Se aplican mutaciones gaussianas
multivariadas de media cero a cada padre de una población [14].
Las principales diferencias entre EEs y EP son [14]:
1. Selección: la EP típicamente utiliza una selección estocástica a través de un
torneo. En contraste, las EEs utiliza una abstracción de la evolución a nivel del
comportamiento del individuo.
2. Recombinación: La EP es una abstracción de la evolución al nivel de
poblaciones reproductivas (es decir, especies), por ende no se usan
mecanismos de recombinación debido a que esta no ocurre entre especies. En
contraste, las EEs es una abstracción de la evolución a nivel del
comportamiento individual.
1.11. PROGRAMACIÓN GENÉTICA (PG)
La PG es un método independiente del dominio que generalmente reproduce
poblaciones de programas de computación, con el fin de resolver problemas.
La PG es una extensión de los AGs, en la cual la población genética está
contenida por programas de computación [14].
La PG combina la expresiva representación simbólica de alto nivel usada en los
programas de computación, con la eficiencia de la búsqueda alrededor del
óptimo que realizan los AGs. Un programa de computación que resuelve (o
aproximadamente resuelve) un problema dado, frecuentemente emerge de
este proceso. Esto significa, que no se está en la búsqueda de soluciones a los
problemas planteados, sino en encontrar el mejor procedimiento para
resolverlos. [14].
Los elementos básicos de la PG fueron introducidos por Koza a partir de 1987
en diferentes trabajos de investigación realizados por él y un grupo de
colaboradores. La primera corrida usando PG se hizo en ese mismo año y sus
bases teóricas fueron descritas en detalle en 1988 [14].
La PG establece los siguientes aspectos que son muy importantes [14]:
Una amplia variedad de problemas aparentemente diferentes
provenientes de distintos campos pueden ser combinados, con el fin de
descubrir un programa de computación que produzca algunas salidas
deseadas cuando se presentan ciertos valores particulares en las
entradas.
La PG provee una forma de hacer programación inductiva.
La PG determina automáticamente el tamaño del programa (es decir, el
número total de pasos) y de la misma manera determina la secuencia exacta
de funciones primitivas y terminales que son ejecutadas por el programa.
Específicamente, la PG demuestra que es posible [14]:
Crear de forma automática programas que poseen una única rama
principal,
Crear de forma automática programas con múltiples ramas,
Crear de forma automática programas cuyas ramas se construyen de
acuerdo a la estructura sintáctica restrictiva,
Crear de forma automática programas formados de un programa
principal y una o más subrutinas que pueden referenciarse
jerárquicamente unos con otros.
En la PG, la representación de los individuos se hace a través de unas
estructuras de datos jerárquicamente enlazadas que reciben el nombre de
árboles de análisis como se muestra en la figura 2.6 [4].
Las funciones pueden ser operaciones aritméticas, funciones matemáticas,
funciones lógicas, o funciones específicas del dominio [4].
En la práctica, tanto las funciones como los símbolos pueden
implementarse de manera sencilla usando “expresiones-S” de LISP. Por
ejemplo, la siguiente expresión [4]:
(+ 1 2 (IF (> TIME 10) 3 4))
Contiene los átomos: 1, 2, 10, 3, 4, TIME; y las funciones:+, IF, >. El
respectivo arrebol se observa en la figura 1.5.
Figura 1.5. Ejemplo de un árbol de análisis
1.11.1. Funcionamiento de los operadores genéticos
Tomando como los árboles padres de la figura 1.6. Si se toma la raíz del árbol
como punto de cruce, el hijo 1 contendrá las ramas izquierdas de los padres;
mientras que el hijo 2 las derechas como se observa en la figura 1.7.
(a): (+ (+ 0.234 Z) (- X 0.789)
(b): (*(* Z Y) (+Y 0.314 Z)))
Figura 1.6. Árboles padres para el operador de cruce
0.23
-
+
Z
0.78
X
+
Z
+
*
Y
0.31
4
Y
*
*
Z
(a) (b)
1
I
F
+
10
2
TIME
3
4
>
Figura 1.7. Árboles hijos obtenidos por el cruce
(a): (*(* Z Y) (+ 0.234 Z))
(b): (+ (+ Y (* 0.314 Z)) (- X 0.789))
1.11.2.1. Mutación en PG
El operador de mutación tiene una implementación mas intuitiva, ya que
permite cambiar símbolos terminales por funciones (crear nuevas ramas), o
modificar funciones (cambiar ramas ya existentes, ya sea por otras ramas o por
símbolos terminales). En el árbol de la figura 1.8 se le cambia el símbolo
Terminal 1 por una nueva rama [4].
Figura 1.8. Árbol obtenido por mutación de un árbol padre
Los problemas resueltos en la PG involucran regresión simbólica (sistemas de
identificación, descubrimiento empírico, modelado, minería de datos (data
0.78
Y
-
+
*
0.31
X
+
Z
-
*
Y
0.23
Z
*
Z
(a)
+
I
F
+
10
2
TIME
3
4
>
1 4
(b)
mining), proyecciones), clasificación, control, optimización, resolución de
ecuaciones, juegos, inducción, problemas que exhiben comportamiento
emergente, problemas que involucran coevolución, programación de autómatas
celulares, construcción aleatoria, compresión de imágenes, integración
simbólica y diferenciación, problemas inversos, árboles de decisión de
inducción y muchas otras. Los problemas en PG incluyen muchos problemas
actuales presentes en área como inteligencia artificial, redes neuronales y
máquinas de aprendizaje [14].
Con todo esto se puede concluir que esta técnica posee un atributo muy
importante como la aplicabilidad, ya que produce soluciones satisfactorias a
una amplia variedad de problemas provenientes de diferentes campos [14].
1.11.3. Algoritmo General
Los pasos de este algoritmo consisten en crear una población inicial y entonces
de forma iterativa ejecutar el ciclo generacional principal. La adaptación
(fitness) de cada individuo en la población se determina y las operaciones
genéticas se llevan a cabo en dicho ciclo principal. A diferencia de los otros
métodos de CE en este se debe escoger una operación de alteración de
arquitectura del repertorio de este tipo de funciones disponibles y crear un
nuevo programa hijo para la nueva población.
En este método, los cambios aleatorios pueden generarse cambiado el
operador o alterando el valor de un cierto nodo del árbol, o sustituyendo un
subárbol por otro [25].
1.12. Ambientes de Programación
En la actualidad existe un gran número de ambientes de programación
disponibles en el mercado para experimentar con los algoritmos, pueden
distinguirse 3 clases de ambientes de programación [26]:
1) Sistemas Orientados a las aplicaciones: Son esencialmente "cajas negras"
para el usuario, pues ocultan todos los detalles de implementación. Ejemplos
de este tipo de sistemas son: Evolver (Axcelis, Inc.) y XpertRule GenAsys (Attar
Software).
2) Sistemas Orientados a los algoritmos: Soportan algoritmos genéticos
específicos, y suelen subdividirse en:
· Sistemas de uso específico
· Bibliotecas
En estos sistemas se proporciona el código fuente para que el usuario
(normalmente un programador) pueda incluir el algoritmo genético en sus
propias aplicaciones.
3) Cajas de Herramientas: Proporcionan muchas herramientas de
programación, algoritmos y operadores genéticos que pueden aplicarse en una
enorme gama de problemas. Normalmente se subdividen en:
· Sistemas Educativos.
· Sistemas de Propósito General.
1.13. Programas autoconfigurables
Es interesante agrupar todos los aspectos y opciones en cuatro categorías,
según la siguiente.
• Tipo gen
Los aspectos de tipo gen serán aquellos que, como los genes, son
diferentes dentro de un mismo individuo.
• Tipo individuo
Los aspectos de tipo individuo son aquellos que se mantienen iguales en un
mismo individuo, pero difieren de unos agentes a otros.
• Tipo isla
Los aspectos de tipo isla son aquellos que son iguales para un subconjunto
de individuos; de más de uno, pero sin llegar al total.
• Tipo población
Los aspectos de tipo población son los que deben ser iguales para toda la
población.
1.14. Robustez de los Métodos de Optimización y Búsqueda Tradicionales
Existen en la literatura tres tipos principales de métodos de búsqueda a saber:
basados en el cálculo, enumerativos y aleatorios [15].
Los métodos basados en el cálculo se subdividen a su vez en directos e
indirectos. Los métodos indirectos realizan la búsqueda de extremos locales
mediante la resolución de sistemas de ecuaciones no lineales resultantes de
igualar a cero el gradiente de la función a optimizar. Por otro lado, los métodos
directos buscan óptimos locales moviéndose sobre la función en dirección del
gradiente local. Pero estos métodos basados en el cálculo tienen cierta
carencia de robustez, debida principalmente a dos causas. En primer lugar la
búsqueda se realiza localmente, es decir se busca mejorar dentro de un
entorno del estado actual, lo que en muchos casos deriva en un óptimo local.
En segundo lugar, es necesario que las funciones a optimizar sean derivables
[15].
Los métodos enumerativos, como su propio nombre indica, realizan una
búsqueda punto a punto. Es evidente que cuando el espacio de búsqueda es
de un tamaño importante estos métodos carecen de eficiencia [15].
Finalmente, los algoritmos de búsqueda aleatorios poseen igualmente una falta
de eficiencia. De todas formas no se debe confundir los métodos puramente
aleatorios con aquellos que utilizan la aleatoriedad como una técnica en una
búsqueda guiada mediante la explotación de buenas características de algún
punto ya encontrado. De alguna manera, este tipo de técnica es utilizada por
los algoritmos genéticos [15].
Capítulo 2
Controladores PID
2.1. Introducción
Hoy en día, a pesar de la abundancia de sofisticadas herramientas y métodos
avanzados de control, el controlador PID es aún el más ampliamente utilizado
en la industria moderna, controlando más del 95% de los procesos industriales
en lazo cerrado.
Históricamente, ya las primeras estructuras de control usaban las ideas del
control PID. Sin embargo, no fue hasta el trabajo de Minorsky de 1922, sobre
conducción de barcos, que el control PID cobró verdadera importancia teórica.
Los controladores automáticos comparan el valor real de la salida de una
planta con la entrada de referencia (el valor deseado), determina la desviación
y produce una señal de control que reducirá la desviación a cero o a un valor
pequeño. La manera en la cual el controlador produce una señal de control se
denomina acción de control.
2.2. ACCIONES BASICAS DE CONTROL
Para analizar las acciones básicas de control que utilizan los controladores
analógicos industriales primero se hará una clasificación de los controladores
analógicos industriales [32].
2.2.1. Clasificación de los controladores industriales: los controladores
industriales se clasifican, de acuerdo con sus acciones de control como [32]:
1. de dos posiciones o encendido y apagado (on/off)
2. proporcionales
3. integrales
4. proporcionales- integrales
5. proporcionales- derivativos
6. proporcionales- integrales-derivativos
Casi todos los controladores industriales emplean como fuente de energía la
electricidad o fluido despresurizado, tal como el aceite o el aire. Los
controladores también pueden clasificarse, de acuerdo con el tipo de energía
que utilizan en su operación, como neumáticos, hidráulicos o electrónicos. El
tipo de controlador que se use debe decidirse con base en la naturaleza de la
planta y las condiciones operacionales, incluyendo consideraciones tales como
seguridad, costo, disponibilidad, precisión, peso y tamaño [32].
2.2.2. Controlador automático, actuador y sensor (elemento de medición):
el diagrama en bloques de la figura 2.1 es un sistema de control industrial que
consiste en un controlador automático, un actuador, una planta y sensor
(elemento de medición). El controlador detecta la señal de error y la amplifica a
un nivel lo suficientemente alto. La salida de un controlador automático se
alimenta a un actuador, tal como un motor o una válvula neumática, un motor
hidráulico, o un motor eléctrico. El actuador es un dispositivo de potencia que
produce la entrada para la planta de acuerdo con la señal de control, a fin de
que la señal de salida se aproxime a la señal de entrada de referencia.
El sensor, o elemento de medición, es un dispositivo que convierte la variable
de salida en otra variable manejable, tal como un desplazamiento, una presión,
o un voltaje que pueda usarse para comparar la salida con la señal de entrada
de referencia [32].
Figura 2.1. Diagrama en bloques de un sistema de control industrial, formado por un
controlador automático, un actuador, una planta y un sensor. (Elemento de medición)
2.2.3. Controladores auto-operados: en la mayor parte de los controladores
automáticos industriales, se usan unidades separadas para el elemento de
medición y el actuador. Sin embargo, en algunos muy sencillos, como los
controladores auto-operados, estos elementos se integran en una unidad. Los
controladores auto-operados utilizan la potencia desarrollada por el elemento
de medición, son muy sencillos y poco costosos [32].
2.2.4. Acción de control de dos posiciones o encendido y apagado
(on/off): en un sistema de control de dos posiciones, el elemento de actuación
sólo tiene dos posiciones fijas que, en muchos casos, son simplemente
encendido y apagado. El control de dos posiciones o de encendido y apagado
es relativamente simple y barato, razón por la cual su uso se ha extendido en
sistemas de control tanto industriales como domestico [32].
Si se supone que la señal de salida del controlador es u(t) y que la señal se
error es e(t). En el control de dos posiciones, la señal u(t) permanece en un
valor ya sea máximo o mínimo, dependiendo de si la señal de error es positiva
o negativa. De este modo,
u(t)= U1 para e(t)>0 (2-1)
u(t)= U2 para e(t)<0 (2-2)
Entrada
De referencia
Punto
De ajuste
amplifi-
cador
Sensor
Actuador Planta
Detector de errores
Salida
Señal
De error
Controlador automático
-
+
En donde U1 y U2 son constantes. Por lo general, el valor mínimo de U2 es
cero o –U1.
Las figuras 2.2(a) y 2.2(b) muestran los diagramas de bloques para dos
controladores de dos posiciones. El rango en que debe moverse la señal de
error antes de que ocurra la conmutación se denomina brecha diferencial. En la
figura 2.2(b) puede observar una brecha diferencial. Tal brecha provoca que la
salida del controlador u(t) conserve su valor presente hasta que la señal de
error se halla desplazado ligeramente mas allá de cero. En algunos casos, la
brecha diferencial es el resultado de una fricción no intencionada y de un
movimiento perdido; sin embargo, con frecuencia se provoca de manera
intencional para evitar una operación demasiado frecuente del mecanismo de
encendido y apagado [32].
Figura 2.2(a). Diagrama de bloques de un controlador
de encendido y apagado
Figura 2.2 (b). Diagrama de bloques de un controlador de
Encendido y apagado con una brecha diferencial
e
-
+
u
U1
U2
Brecha
-
+
e u
U1
U2
2.2.5. Acción de control proporcional: El control proporcional se conoce
como control continuo, ya que proporciona una respuesta instantánea del
controlador a los cambios que existan en el error.
Para un controlador con acción proporcional, la relación entre la salida del
controlador u(t) y la señal de error e(t) es :
U(t)= K
p
e(t) (2-3)
O bien, en cantidades transformadas por el método de laplace
p
K
s E
s U
·
) (
) (
(2-4)
En donde K
p
se considera la ganancia proporcional.
El Controlador proporcional es, en esencia, un amplificador con una ganancia
ajustable. El la figura 2.3 se presenta un diagrama en bloques de este
controlador.
Figura 2.3. Diagrama en bloques de un controlador
Proporcional.
2.2.6. Acción de control integral: en un controlador con acción de control
integral, el valor de las salida del controlador u(t) se cambia a una razón
proporcional a la señal de error e(t):
) (
) (
t e K
dt
t du
i
· (2-5)
-
+
E(s)
))
U(s)
))
K
p
O bien
dt t e k t u
t
i

·
0
) ( ) ( (2-6)
En donde K
i
es una constante ajustable. La función de transferencia del
controlador integral es:
s
k
s E
s U
i
·
) (
) (
(2-7)
Si se duplica el valor de e(t), el valor de u(t) varia dos veces mas rápido. Para
un error de cero, el valor de u(t) permanece estacionario. En ocasiones, la
acción de control integral se denomina control de reajuste (reset). En la figura
2.4 se muestra un diagrama en bloques de este controlador [32].
Figura 2.4. Diagrama en bloques de un controlador integral
La función principal de la acción integral es asegurar que la salida de los
procesos acceda con el punto de trabajo en estado estable.
El propósito de la acción integral de control es eliminar el error en estado
estacionario u “Offset”. Lo hace por medio de la integración o acumulación del
error en el tiempo [32].
2.2.7. Acción de control proporcional- integral: la acción de un controlador
proporcional- integral (PI) se define mediante
-
+
E(s)
))
U(s)
)
s
K
i
dt t e
T
k
t e k t u
t
i
p
p

+ ·
0
) ( ) ( ) ( (2-8)
O la función de transferencia del controlador es

,
`

.
|
+ ·
s T
k
s E
s U
i
p
1
1
) (
) (
(2-9)
En donde K
p
es la ganancia proporcional y T
i
se denomina tiempo integral.
Tanto como K
p
como T
i
son ajustables. El tiempo integral ajusta la acción
integral, mientras que un cambio en el valor de K
p
afecta las partes integral y
proporcional de la acción de control. El inverso del tiempo integral T
i
se
denomina velocidad de reajuste. La velocidad de reajuste es la cantidad de
veces por minuto que se duplica la parte proporcional de la acción de control.
La velocidad de reajuste se mide en términos de las repeticiones por minuto. La
figura 2.5 muestra un diagrama en bloques de un controlador proporcional más
integral [32].
Figura 2.5. Diagrama en bloques de un controlador proporcional-
Integral
Si la señal de error e(t) es una función escalón unitario, como se aprecia en la
figura 2.6 , la salida del controlador u(t) se convierte en lo que se muestra en la
figura 2.7.
-
+
E(s)
))
U(s)
)
| )
s T
s T K
i
i p
+ 1
Figura 2.6. Entrada escalón unitario
Figura 2.7. Salida del controlador a un escalón unitario
Muchos controladores industriales tienen solo acción PI. Se puede demostrar
que un control PI es adecuado para todos los procesos donde la dinámica es
esencialmente de primer orden [32].
2.2.8. Acción de control proporcional – derivativa: la acción de un
controlador proporcional- derivativa (PD) se define mediante
dt
t de
T k t e k t u
d p p
) (
) ( ) ( + · (2-10)
Y la función de transferencia es
| ) s T k
s E
s U
d p
+ · 1
) (
) (
(2-11)
1
t 0
E(t)
))))
Escalón
K
(Solo proporcional)
Acción de
Control PD
0
u(t)
)
t
Donde k
p
es la ganancia proporcional y T
d
es una constante denominada tiempo
derivativo. Tanto como K
p
como T
d
son ajustables. La acción de control
derivativa, es en ocasiones denominada control de velocidad, ocurre donde la
magnitud de la salida del controlador es proporcional a la velocidad de cambio
de la señal de error. El tiempo derivativo T
d
es el intervalo de tiempo durante el
cual la acción de la velocidad hace avanzar el efecto de la acción de control
proporcional. La figura 2.8 muestra un diagrama de bloques de un controlador
proporcional- derivativo. Si la señal de error e(t) es una función rampa unitaria
como se aprecia en la figura 2.9, la salida del controlador u(t) se convierte en la
que se muestra la figura 2.10 [32].
Figura 2.8. Diagrama en bloques de un controlador proporcional-
Derivativo.
Figura 2.9. Entrada rampa unitaria
t
0
E(t)
)
Rampa
-
+
E(s)
))
U(s)
)))
| ) s T K
d p
+ 1
Figura 2.10. Salida del controlador a una entrada rampa.
La acción de control derivativa tiene un carácter de previsión. Sin embargo, es
obvio que una acción de control derivativa nunca prevé una acción que nunca
ha ocurrido [32].
Auque la acción de control derivativa tiene la ventaja de ser de previsión, tiene
las desventajas de que amplifica las señales de ruido y puede provocar un
efecto de saturación en el actuador. La acción de control derivativa no se usa
nunca sola, debido a que solo es eficaz durante periodos transitorios. El
propósito de la acción derivativa es mejorar la estabilidad a lazo cerrado [32].
Cuando una acción de control derivativa se agrega a un controlador
proporcional, permite obtener un controlador de alta sensibilidad, es decir, que
responde a la velocidad del cambio del error y produce una corrección
significativa antes de que la magnitud del error se vuelva demasiado grande.
Aunque el control derivativo no afecta en forma directa al error de estado
estacionario, añade amortiguamiento al sistema y, por tanto, permite un valor
mas grande que la ganancia K, lo cual provoca una mejora en la precisión en
estado estable [32].
2.2.9. Acción de control proporcional- integral- derivativa: es la
combinación de la acción proporcional, integral y derivativa (PID). Esta acción
combinada tiene las ventajas de cada una de las tres acciones de control
individuales. La ecuación del controlador con esta acción combinada se obtiene
mediante [32]:
0
u(t)
(Solo proporcional)
Acción de
Control PD
t
dt
t de
T k dt t e
T
k
t e k t u
d p
t
i
p
p
) (
) ( ) ( ) (
0
+ + ·

(2-12)
O la función de transferencia es

,
`

.
|
+ + · s T
s T
k
s E
s U
d
d
p
1
1
) (
) (
(2-13)
En donde K
p
es la ganancia proporcional, T
i
es el tiempo integral y T
d
es el
tiempo derivativo. El diagrama en bloques de un controlador proporcional-
integral- derivativo se muestra en la figura 2.11.
Figura 2.11. Diagrama de bloques de un controlador proporcional- integral
Derivativo.
La estructura de un controlador PID es simple, aunque su simpleza es también
su debilidad, dado que limita el rango de plantas donde pueden controlar en
forma satisfactoria (existe un grupo de plantas inestables que no pueden
estabilizadas con ningún miembro de la familia PID.
Con un control proporcional, es necesario que exista error para tener una
acción de control distinta de cero. Con acción integral, un error pequeño
positivo siempre dará una acción de control creciente, y si fuera negativo la
señal de control será decreciente. Este razonamiento sencillo muestra que el
error en régimen permanente será siempre cero.
-
+
E(s)
))
U(s)
))
| )
s T
s T T s T K
i
d i i p
2
1 + +
Los controladores tienen varias funciones importantes: ellos proveen
realimentación, ellos tiene la habilidad para eliminar el estado estable de
compensación por la acción integral, ellos pueden anticipar el futuro a través de
la acción derivativa y ellos pueden contrastar con un actuador de saturación.
Los controladores PID son también suficientes para muchos problemas de
control, particularmente donde hay dinámicas de procesos favorables y
modestos requerimientos de desempeño.
El controlador PID es el algoritmo de control más común. Este es
implementado de muchas formas diferentes. El algoritmo PID puede ser
aproximado de muchos ángulos diferentes. Este también puede ser
considerado como un dispositivo que puede operar con pocas reglas de
manejo, pero este también puede aproximarse analíticamente.
2.3. Efectos de las acciones de control integral y derivativo sobre el
desempeño de un sistema.
2.3.1. Acción de control integral: en el control proporcional de una planta,
cuya función de transferencia no posee un integrador 1/s, hay un error en
estado estable, o desplazamiento (offset), en la respuesta para una entrada
escalón. Tal offset se elimina si se incluye la acción de control integral en el
controlador [32].
En el control integral de una planta, la señal de control, que es la señal de
salida a partir del controlador, es, en todo momento el área bajo la curva de la
señal de error hasta tal momento. La señal de control u(t) tiene un valor
diferente de cero cuando la señal de error e(t) es cero, como se aprecia en la
figura 2.12. Esto es posible en el caso del controlador proporcional, dado que
una señal de control diferente de cero requiere de una señal de error diferente
de cero. (Una señal de error diferente de cero en estado estable significa que
hay una equivalencia). La figura 2.13 muestra la curva e(t) contra t y la curva
u(t) correspondiente contra t cuando el controlador es de tipo proporcional [32].
Figura 2.12. Graficas de las curvas e(t) y u(t) que muestran una señal de control
Diferente de cero cuando la señal de error es cero (control integral)
Figura 2.13. Graficas de las curvas e(t) y u(t) que muestran una señal de control
De cero cuando la señal de error es cero (control proporcional).
La acción de control integral, aunque elimina el offset o el error en estado
estable, puede conducir a una respuesta oscilatoria de amplitud decreciente
lenta o incluso, de amplitud creciente, y ambos casos, por lo general, se
consideran inconvenientes [32].
2.3.2. Acción de control derivativa: cuando una acción de control derivativa
se agrega a un controlador proporcional, aporta un medio de obtener un
controlador con alta sensibilidad. Una ventaja de usar una acción de control
derivativa es que responde a la velocidad del cambio del error y produce una
corrección significativa antes de que la magnitud del error se vuelva demasiado
grande. El control derivativo prevé el error, inicia una acción correctiva
oportuna y tiende a aumentar la estabilidad del sistema [32].
u(t)
0
t
E(t)
))
t
0
U(t)
0
t
E(t)
t
0
Aunque el control derivativo no afecta en forma directa el error en estado
estable, añade amortiguamiento al sistema y, por tanto, permite el uso de un
valor más grande que la ganancia, lo cual provoca una mejora en la precisión
de estado estable [32].
Debido a que el control derivativo opera sobre la velocidad de cambio de error,
y no sobre el mismo, este modo nunca se usa solo. Siempre se emplea junta
con una acción de control proporcional o proporcional- integral.
2.4. Sintonización de controladores PID
Debido a que casi todos los controladores PID se ajustan en el sitio, en la
literatura se han propuesto muchos tipos diferentes de sintonización delicada y
fina de los controladores PID en el sitio. Asimismo, se han desarrollado
métodos automáticos de sintonización y algunos de los controladores PID
poseen capacidad de sintonización en línea.
2.4.1. Control PID de plantas: la figura 2.14 muestra el control PID de una
planta. Si se puede obtener un modelo matemático de la planta, es posible
aplicar diversas técnicas de diseño con el fin de determinar los parámetros del
controlador que cumpla las especificaciones en estado transitorio y en estado
estable del sistema en lazo cerrado. Sin embargo, si la planta es tan
complicada que no es fácil obtener su modelo matemático, tampoco es posible
un enfoque analítico para el diseño de un controlador PID. En este caso se
debe recurrir a los enfoques experimentales para la sintonización de los
controladores PID [32].
Figura 2.14. Control PID de una planta.
El proceso de seleccionar los parámetros del controlador que cumplan con las
especificaciones de desempeño se conoce como sintonización del controlador.
Ziegler y Nichols sugirieron mas reglas para sintonizar los controladores PID.
(Lo cual significa establecer valores K
p
, T
i
Y T
d
) con base en las respuestas
escalón experimentales o basadas en el valor de K
p
que se produce en la
estabilidad marginal cuando solo se usa la acción de control proporcional [32].
2.4.2. Reglas de Ziegler – Nichols para sintonizar controladores PID:
Ziegler y Nichols propusieron unas reglas para determinar los valores de la
ganancia proporcional K
p
, del tiempo integral y T
i
del tiempo derivativo T
d
, con
base en las características de respuesta transitoria de una planta específica.
Tal determinación de los parámetros de los controladores PID o de la
sintonización de los controladores PID la realizan los ingenieros en el sitio
mediante experimentos sobre la planta [32].
Existen dos métodos denominados reglas de sintonización de Ziegler- Nichols.
En ambos se pretende obtener un 25% de sobrepaso máximo en la respuesta
escalón.
2.4.2.1. Primer método. Método basado en la curva de reacción: en el
primer método, la respuesta de la planta a una entrada escalón unitario se
obtiene de manera experimental, como se observa en la figura 2.15. Si la
planta no contiene integradores ni polos dominantes complejos conjugados, la
curva de respuesta escalón unitario puede tener forma de S, como se observa
en la figura 2.16. (Si la respuesta no exhibe una curva con forma de S, este
-
+
Planta

,
`

.
|
+ + s T
s T
k
d
i
p
1
1
método no es pertinente). Tales curvas de respuesta escalón se generan
experimentalmente o a partir de una simulación dinámica de la planta [32, 33].
Figura 2.15. Respuesta escalón unitario de una planta.
Figura 2.16. Curva de respuesta con forma de S
La curva con forma de S se caracteriza por dos parámetros: el tiempo de
retardo L y la constante de tiempo T. el tiempo de retardo y la constante de
tiempo se determinan dibujando una recta tangente en el punto de inflexión de
la curva con forma de S y determinando las intersecciones de esta tangente
con el eje del tiempo y la línea c(t)= K, como se aprecia en la figura 2.16.
Ziegler y Nichols sugirieron establecer los valores de K
p
, T
i
y T
d
de acuerdo con
la formula que aparece en la tabla 1.
Tipo de
controlador
K
p
T
i
T
d
planta
aA u(t) e(t)
1
t
K
Línea tangente el
Punto de inflexión
0
C(t)
T L
P
L
T 0
PI
L
T
9 . 0
3 . 0
L 0
PID
L
T
2 . 1
L 2 L 5 . 0
Tabla 1. Regla de sintonización Ziegler- Nichols basada en la respuesta escalón de la planta
(primer método)
2.4.2.2. Segundo método. Método de oscilación: en el segundo método,
primero se establece T
i
= y T
d
= 0. Usando solo acción de control
proporcional como se muestra en la figura 2.17, se incrementa K
p
de cero a un
valor crítico K
cr
en donde la salida exhiba primero oscilaciones sostenidas. Si la
salida no presenta oscilaciones sostenidas para cualquier valor que pueda
tomar K
p
, no se aplica este método. Por tanto, la ganancia crítica K
cr
y el
periodo P
cr
correspondiente se determinan experimentalmente como se
observa en la figura 2.18. Ziegler y Nichols sugirieron que se establecieran los
valores de los parámetros K
p
, T
i
y T
d
de acuerdo con la formula que aparece
en la tabla 2.
Figura 2.17. Sistema en lazo cerrado con controlador Proporcional.
Figura 2.18. Oscilación sostenida con un
Periodo P
cr
Tipo de K
p
T
i
T
d
-
+
R(t)
K
Planta
C(t) U(t)
P
c
t 0
c(t)
controlador
P
cr
K 5 . 0 0
PI
cr
K 45 . 0
cr
P
2 . 1
1 0
PIDS
cr
K 6 . 0
cr
P 5 . 0
cr
P 125 . 0
Tabla 2. Regla de sintonización Ziegler- Nichols basada en la ganancia critica K
cr
y en el
periodo critico P
cr
(segundo método)
Sin embargo, si la planta tiene un integrador, en algunos casos estas reglas no
son pertinentes.
2.4.3. Método de asignación de polos
La asignación de polos es un método de diseño de controladores cuando se
quiere que el desempeño del sistema a lazo cerrado cumpla con determinadas
especificaciones de diseño [31].
Considere el lazo nominal de la Figura 2.19 con las siguientes funciones
transferencias:
) (
) (
) (
s L
s p
s c ·
) (
) (
) (
0
0
0
s A
s B
s G · (2-14)
Figura 2.19. Diagrama en bloques estructura de controlador PID
Con P(s), L(s), B0(s) y A0(s) polinomios de grados np, nl , n - 1 y n
respectivamente (se asume que el modelo nominal de la planta es
estrictamente propio).Considere que el polinomio a lazo cerrado deseado está
dado por Alc [31].
PID G(s)
Y(s)
U(s)
)
R(s)
)
Ejemplo:
Sea el modelo nominal de una planta dada y un controlador de la forma:
2 3
1
) (
2 0
+ +
·
s s
s G (2-15)
) (
) (
) (
s L
s P
s c ·
Se puede ver que Alc = A0(s)L(s) + B0(s)P(s) = (s2 + 3s + 2)(l1s + l0) + (p1s +
p0). Si se igualan los coeficientes se obtiene el siguiente sistema de
ecuaciones:
]
]
]
]
]
]

1 0 2 0
0 2 3 2
0 0 1 3
0 0 0 1
]
]
]
]
]
]

1
0
1
0
p
p
l
l
=
]
]
]
]
]
]

1
3
3
1
(2-16)
Se puede verificar que la matriz anterior es no-singular, por lo que el sistema
tendrá solución única: l1 = 1, l0 = 0, p1 = 1 y p0 = 1. Así el polinomio
característico es alcanzado para un controlador dado por la siguiente función
transferencia [31]:
s
s
s C
1
) (
+
· (2-17)
En el ejemplo anterior se vio como la asignación de polos a lazo cerrado
depende de la no-singularidad de una matriz particular. Como la idea es
generalizar el resultado anterior, primero se necesitan algunos resultados
matemáticos [31].
2.4.3.1. Teorema 1 (Teorema de Sylvester). Considere los polinomios
A(s) = ansn+ = an-1sn-1 + . . . + = a1s + a0, (2-18)
B(s) = bnsn + bn-1sn-1 + . . . + = b1s + b0, (2-19)
Junto con la matriz
(2-20)
Se dice que A(s) y B(s) son coprimos, es decir que no tienen factores en
común o raíces, si y solo si det(Me) 0 [31].
Con este resultado se puede ahora generalizar lo visto en el Ejemplo, para
mostrar que la asignación de polos es generalmente posible, cuando se
cumplen algunos requerimientos mínimos [31].
2.4.3.2. Lema 1 (Asignación de Polos SISO). Considere un lazo de
realimentación de un grado de libertad con un controlador C(s) y un modelo
nominal G0(s) dado por (2-14). Suponiendo que A0(s) y B0(s) son coprimos y
que sus grados son n y n -1, respectivamente. Sea Alc un polinomio arbitrario
de grado nc = 2n -1. Entonces existen polinomios P(s) y L(s), con grados np = nl
= n -1 tal que [31]:
A0(s)L(s) + B0(s)P(s) = Alc(s) (2-21)
Nota 1. El lema anterior establece bajo qué condiciones existe solución para el
problema de asignación de polos, asumiendo un controlador bipropio, Cuando
se requiere un controlador estrictamente propio, el grado de P(s) y L(s) debería
ser np = n -1 y nl = n, respectivamente. De esta forma, para poder estar en
condiciones de elegir un polinomio a lazo cerrado Alc(s) arbitrario, su grado
debería ser igual a 2n [31].
Nota 2. No están permitidas las cancelaciones del estilo polo-cero inestables.
Cualquier cancelación entre el controlador y la planta aparecerá como factor en
A0(s) L(s) y también en B0(s) P(s). Para que la condición del lema 1 pueda ser
satisfecha, el mismo factor deberá aparecer en Alc(s), pero el polinomio
característico a lazo cerrado se debe elegir estable, por lo que ese factor
común deberá ser estable. Sólo de esta forma, el lazo cerrado nominal es
garantía de ser internamente estable, es decir, las cuatro funciones de
sensibilidad serán estables [31].
Considerando un lazo de control de un grado de libertad con controladores PI
de la siguiente forma [31]:
s
k
k s C
i
p PI
+ · ) ( (2-22)
Y la forma del controlador PID
1
) (
+
+ + ·
s
s k
s
k
k s C
D
d i
p PID
τ
(2-23)
Para referencias futuras se nota la siguiente representación alternativa de un
controlador PID:
2.4.3.3. Lema 2. Cualquier controlador de la forma: es idéntico al controlador
PID de (3-23) con los siguientes valores de los parámetros [31]:
s d s d
n s n s n
s C
1
2
2
0 1
2
2
) (
+
+ +
· (2-24)
2
1
2 0 1 1
d
d n d n
k
p
+
· (2-25)
1
0
d
n
k
i
· (2-26)
3
1
2
2 0 2 1 1
2
1 2
d
d n d d n d n
k
d
+ −
· (2-27)
1
2
d
d
D
· τ (2-28)
Demostración. Desarrollando en fracciones simples (2-23) y comparándola
con (2-24) se obtienen dichos coeficientes.
Si se asume que la planta puede ser (por lo menos, aproximadamente)
modelada por un modelo de segundo orden, entonces se puede utilizar
asignación de polos para sintonizar un controlador PID [31].
2.5. Modificaciones de los esquemas de control PID
Considerando el sistema de control PID básico de la figura 2.20, en el cual el
sistema esta sujeto a perturbaciones y ruido. La figura 2.21 es un diagrama de
bloques modificado del mismo sistema. En un sistema de control PID básico,
como el de la figura 2.21, si la entrada de referencia es una función escalón,
debido a la presencia del término derivativo en la acción de control, la variable
manipulada u(t) contendrá una función impulso. En un controlador PID real, en
lugar del término derivativo puro T
d
s se emplea
s T
T
d
d
γ + 1
(2-29)
donde el valor de está en algún punto alrededor de 0.1. Por tanto, cuando la
entrada de referencia es una función escalón, la variable manipulada u(t) no
contendrá una función impulso, sino que implicará una función de pulso aguda.
Tal fenómeno se denomina reacción del punto de ajuste.
Figura 2.20. Sistema de un controlador PID
Entrada de
Referencia R(s)
-
+ +
+
+
+
Controlador
PID
Planta
Gp(s)
Perturbación
D(s)
Salida
(s)
Ruido
N(s)
Señal observada B(s)
Figura23.21. Diagrama en bloques equivalente.
2.5.1. Control PI-D para evitar el fenómeno de reacción del punto de ajuste,
se pretende operar la acción derivativa solo en la trayectoria de realimentación,
a fin de que la diferenciación ocurra únicamente la señal de realimentación y no
en la señal de referencia. El esquema de control ordenado de esta forma se
denomina PI-D. La figura 2.22 muestra un sistema con un control PI-D.
Figura 2.22. Sistema de un controlador PI-D.
2.5.2. Control I-PD: se considera nuevamente el caso en que la entrada de
referencia es una función escalón. Tanto el control PID como el control PI-D
implican una función escalón en la señal manipulada. En muchas ocasiones, tal
cambio escalón en la señal manipulada no es conveniente. Por tanto, puede
convenir mover la acción proporcional y la acción derivativa a la trayectoria de
-
+
+
+
+
R(s)
E(s)
T
d
1
s T
i
1
B(s)
+
+
K
p
D(s)
U(s)
+
+
G
p
(s)
Y(s)
+
+
-
+
R(s)
E(s)
T
d
1
s T
i
1
B(s)
+
+
K
p
D(s)
U(s)
G
p
(s)
Y(s)
N(s)
-
+
+
B(s)
realimentación a fin de que estas acciones solo afecten la señal de
realimentación. La figura 2.23 muestra el esquema de control, que se denomina
control I-PD.
Figura 2.23. Sistema con un controlador I-PD.
2.6. Integral windup
Ocurre cuando un regulador con acción integral es conectado a un proceso con
un actuador de saturación.
Aunque muchos aspectos de un sistema de control pueden ser comprendidos
basados en la teoría lineal, se deben considerar algunos efectos no lineales.
Todos los actuadores tienen limitaciones: un motor tiene limitación de
velocidad, una válvula no puede estar mas que completamente abierta o
completamente cerrada, etc. Cuando un sistema de control opera por encima
del rango de las condiciones de operación, esto puede ocurrir que la variable
de control alcance los límites del actuador. Cuando esto sucede el lazo de
realimentación es efectivamente abierto porque el actuador quedará como esta
limitación independientemente de la salida del proceso. Si es usada la acción
integral, el error continuará para ser integrado. Esto significa que el término
integral puede volverse muy grande o, coloquialmente, (el error “winds up”, en
idioma ingles). Entonces esto requiere que cambie la señal de error por un
-
+
R(s)
T
d
s
1
s T
i
1
B(s)
+
+
K
p
D(s)
U(s)
+
+
G
p
(s)
Y(s)
N(s) B(s)
-
+
largo período antes de que se normalice. Las consecuencias es que cualquier
controlador con acción integral puede dar una gran transición cuando se satura
el actuador.
El fenómeno windup es ilustrado en la figura 2.24. La cual muestra el control de
un proceso con un controlador PI. La transición del punto inicial de trabajo es
tan grande que el actuador se satura en el límite alto. El integrador aumenta
inicialmente porque el error es positivo, y alcanza su valor más grande al
timepo de t=10 cuando el error pasa por el cero. La salida queda saturada en
este punto debido al grande valor de la integral, y esto no permite el límite de
saturación hasta que el error haya sido negativo para un largo tiempo para
permitir que la parte integral descienda a un pequeño nivel. El efecto neto es un
gran exceso, el cual es claramente notable en la figura 2.24. La integral windup
puede ocurrir en conexión con un gran cambio del punto de trabajo o puede ser
causado por grandes perturbaciones o malfuncionamiento de equipos.
Figura 2.24. Ilustración de integral windup.
0
4 0
1
0
4
0
0.1
-0.1
0
4
0
0.
1
Capítulo 3
Discretización de sistemas y linealización de
sistemas no lineales
3.1. Linealización de sistemas no lineales
El proceso de linealizar sistemas no lineales es importante, porque linealizar
ecuaciones no lineales permite aplicar numerosos métodos de análisis lineal
que proporcionen información acerca del comportamiento de los sistemas no
lineales [32].
La mayoría de los componentes y actuadotes que se encuentran en sistemas
físicos tienen características no lineales. En la práctica estas no linealidades
pueden ser moderadas o pueden aparecer en ciertas regiones de operación. Al
modelar estos dispositivos como sistemas lineales se pueden obtener
resultados analíticos muy exactos sobre un intervalo amplio de condiciones de
operación. Sin embargo, existe un sinnúmero de dispositivos físicos que
poseen características fuertemente no lineales. Para estos dispositivos, un
modelo no linealizado solo es valido en un intervalo de condiciones muy
limitado, y a menudo sólo en el punto de operación en el que se realizó la
linealización. Cuando un sistema no lineal es linealizado en un punto de
operación, el modelo no lineal puede contener elementos variantes con el
tiempo [33].
Como los sistemas no lineales son normalmente difíciles de analizar y diseñar,
es deseable realizar una linealización cuando la situación lo justifique [33].
La capacidad de representar un sistema no lineal y/o variante con el tiempo
mediante ecuaciones de estado es una ventaja que distingue al enfoque de
variables de estado sobre el método de la función de transferencia, ya que este
ultimo solo esta definido estrictamente para sistemas lineales invariantes con
el tiempo. Como ejemplo, considere las siguientes ecuaciones no lineales [33]:
) ( ) (
) (
2
2 1
1
t x t x
dt
t dx
+ · (3-1)
) ( ) (
) (
1
2
t r t x
dt
t dx
+ · (3-2)
Con la expansión en series de Taylor de las ecuaciones de estado no lineales
alrededor de un punto o trayectoria de operación nominal se puede llegar a un
proceso de linealización. Todos los términos de la serie de Taylor de orden
superior a uno se descartan, y resulta la aproximación lineal de las ecuaciones
de estado no lineales en el punto nominal [33].
Un sistema no lineal se representa mediante las ecuaciones de estado de
forma matricial:
| } ) ( ), (
) (
t r t x f
dt
t dx
· (3-3)
Donde ) (t x representa el vector de estado de 1 × n , ) (t r es el vector de entrada
de 1 × p y | } ) ( ), ( t r t x f denota un vector función de 1 × n . En general, f es una
función del vector de estado y del vector de entrada [33].
La trayectoria de operación nominal se denota pro x
0
(t), la cual corresponde a
la entrada nominal r
0
(t) y algunos estados iniciales fijos. Al expandir la ecuación
de estado no lineal de la ecuación 3-3 en una serie de Taylor alrededor de x(t)
= x
0
(t) y descartando los términos de orden superior se obtiene [33]:
) (
) , (
) (
) , (
) , ( ) (
0
,
1 1
0
,
0 0
0 0
0 0
j j
r x
n
j
p
j j
i
j j
r x
j
i
i i
r r
r
r x f
x x
x
r x f
r x f t x −


+ −


+ ·
∑ ∑
· ·
& (3-4)
En donde i = 1,2,…, n
Sea:
oi i i
x x x − · ∆ (3-5)
y
j j j
r r r
0
− · ∆ (3-6)
Entonces
i i i
x x x
0
& & & − · ∆ (3-7)
Ya que
) , (
0 0 0
r x f x
i i
· & (3-8)
La ecuación (3-2) se escribe como:
j
r x
n
j
p
j j
i
j
r x
j
i
i
r
r
r x f
x
x
r x f
x ∆


+ ∆


· ∆
∑ ∑
· ·
0 0
0 0 ,
1 1
,
) , ( ) , (
& & (3-9)
La ecuación (3-7) se pude escribir en la forma matricial:
r B x A x ∆ + ∆ · ∆ * * & (3-10)
En donde:
]
]
]
]
]
]
]
]
]
]



















·
n
n n n
n
n
x
f
x
f
x
f
x
f
x
f
x
f
x
f
x
f
x
f
A
...
. ... . .
...
...
*
2 1
2
2
2
1
2
1
2
1
1
1
(3-11)
]
]
]
]
]
]
]
]
]
]



















·
n
n n n
n
n
r
f
r
f
r
f
r
f
r
f
r
f
r
f
r
f
r
f
B
...
. ... . .
...
...
*
2 1
2
2
2
1
2
1
2
1
1
1
(3-12)
3.2. Discretización de sistemas en tiempo continuo.
En este capitulo se estudian algunos de los procedimientos para obtener
sistemas en tiempo discreto que se comporten aproximadamente igual que un
sistema en tiempo continuo. Esta operación suele denominarse discretización
[34].
Existen tres técnicas fundamentales, cada una de ellas con distintos métodos o
variantes.
(I) transformaciones ) (Z f s ·
Consiste en sustituir en ) (s G la variable s por una función racional en Z . Son
sencillas y flexibles de aplicar, en casi cualquier situación. Pueden justificarse
de distintas maneras [34]:
a) como una aproximación a ala derivación
b) como una aproximación a la integración
c) como una aproximación racional de
s T
s
e Z ·
I.1 puede verse como una derivación adelantada, no causal (forward rule) o
como una integración rectangular retrasada
i.2 puede verse como una derivación (back rule) o como una integración
rectangular
I.3 puede verse como una integración trapezoidal. Es la transformación bilineal
con
s
T c / 2 · . Se conoce también como la regla de Tustin.
I.4 es la transformación bilineal con prewarping
Propiedades y comentarios
• todas conservan la ganancia estática, ya que 0 ) 1 ( · f
• los polos y ceros en s se transforman mediante aproximaciones
racionales de
s T
s
e Z · . Si ) (s G está en forma ceros-polos resulta cómodo
transformarlos individualmente; pero debe ajustarse además una
ganancia.
• Estudiando la transformación de los polos se demuestra que todas,
salvo I.1 conserva la estabilidad: si ) (s G es estable, también lo será
) (Z G
3.2.1. Implementación digital de controladores analógicos
Existen situaciones bajo las cuales el controlador analógico ya está diseñado,
pero la disponibilidad y las ventajas del control digital sugieren que el
controlador sea implementado por elementos digitales [33].
3.2.1.1. Implementación digital del controlador PID
El controlador digital en el dominio del tiempo continuo se describe como:
s
K
s K K s G
i
D p c
+ + · ) ( (3-13)
El componente proporcional
p
K se implementa en forma digital mediante una
ganancia constante
p
K . La constante
p
K no puede realizarse con resolución
infinita [33].
La derivada con respecto al tiempo de una función ) (t f en kT t · se puede
aproximar mediante la regla de la diferencia hacia atrás, empleando los
valores de ) (t f medidos en kT t · y T k ) 1 ( − ; esto es:
]) ) 1 [( ) ( (
1 ) (
T k f kT f
T dt
t df
kT t
− − ·
·
(3-14)
Para encontrar la función de transferencia Z de la operación derivada descrita
anteriormente, se toma la transformada Z en ambos lados de la ecuación 3-14.
Se tiene:
| ) ) (
1
) ( 1
1 ) (
1
Z F
TZ
Z
Z F Z
T dt
t df
kT t

· − ·

,
`

.
|
Ζ

·
(3-15)
Por lo que la función de transferencia Z del diferenciador digital es:
TZ
Z
K z G
D c
1
) (

· (3-16)
Donde
D
K es la constante proporcional de la derivada del controlador. Al
sustituir Z por e
Ts
en la ecuación 3-16, se puede mostrar que el periodo de
muestreo T se aproxima a cero, ) (z G
D
se aproxima a s K
D
, que es la función de
transferencia de la derivada del controlador analógico. La selección del periodo
de muestreo es muy importante, el valor de T debe ser lo suficientemente
pequeño, para la aproximación digital sea exacta [33].
Hay un número de reglas de integración numérica que pueden emplearse para
aproximar de forma digital al controlador integral s K
I
/ . Los tres métodos
básicos de integración numérica del área de una función son: integración
trapezoidal, integración rectangular hacia delante e integración rectangular
hacia atrás [33].
3.2.1.1.1. Integración trapezoidal
La regla de integración trapezoidal aproxima el área bajo la función ) (t f
mediante una serie de trapezoides, como se muestra en la figura 3.1. Sea el
integral de ) (t f evaluado en kT t · designado como ) (kT u . Entonces:
| ) | ) | } | ) | ) | } { } T k f kT f
T
T k u kT u 1
2
1 − + + − · (3-17)
Figura 3.1. Regla de integración trapezoidal
Donde el área bajo ) (t f para kT t T k < ≤ − ) 1 ( se aproxima mediante el área del
trapezoide en el intervalo. Tomando la transformada Z en ambos miembros de
la ecuación 3-17, se tiene la función de transferencia del integrador digital como
[33]:
) 1 ( 2
) 1 (
) (
) (
) (

+
· ·
Z
Z T K
z f
z U
K z G
i
i i
(3-18)
Donde
i
K es la constante proporcional.
| ) | )
) 1 (
/ / 2 2 / / 2 /
) (
2

+ − − + + +
·
Z Z
T K Z T K K TK Z T K TK K
z Gc
D D p I D i p
(3-19)
3.2.1.1.2. Integración rectangular hacia delante
Para la integración rectángula hacia delante, se aproxima el área bajo
) (t f mediante rectángulos como se muestra en la figura 3.2. La integral de
) (t f en kT t · se aproxima por:
| ) | ) | } ) ( 1 kT Tf T k u kT u + − · (3-20)
Figura 3.2. Regla de integración rectangular hacia delante.
Al tomar la transformada Z en ambos miembros de la ecuación 3-20, la función
de transferencia del integrador digital empleando la regla rectangular hacia
delante es [33]:
) 1 ( ) (
) (
) (

· ·
Z
TZ K
z f
z U
K z G
i
i i
(3-21)
| ) | )
) 1 (
/ / 2 /
) (
2

+ + − + +
·
Z Z
T K Z T K K Z TK T K K
z Gc
D D p I D P
(3-22)
3.2.1.1.3. Integración rectangular hacia atrás
Para integración rectangular hacia atrás, la regla de aproximación digital se
ilustra en la figura 3.3. La integral de ) (t f en kT t · se aproxima mediante [33]:
| ) | ) | } ] ) 1 [( 1 T k Tf T k u kT u − + − · (3-23)
Figura 3.3. Regla de integración rectangular hacia atrás
La función de transferencia z del integrador digital empleando la regla de
integración rectangular hacia atrás es:
) 1 ( ) (
) (
) (

· ·
Z
T K
z f
z U
K z G
i
i i
(3-24)
| ) | )
) 1 (
/ / 2 /
) (
2

+ − − + +
·
Z Z
T K Z T K K TK Z T K K
z Gc
D D p I D p
(3-25)
Cuando 0 ·
I
K , la función de transferencia del controlador PID digital es:
| )
Z
T K Z T K K
z Gc
D D p
/ /
) (
− +
· (3-26)
3.2.2. Índices de desempeño
Un sistema de control optimo, cuyo diseño optima (minimiza o maximiza), el
valor de la función seleccionada como el índice de desempeño, que difiere del
ideal pero es mas alcanzable en presencia de restricciones físicas [35].
Al diseñar un sistema de control optimo se necesita encontrar una regla para
determinar la decisión de control presente, sujeta aciertas restricciones, para
minimizar alguna medida de desviación de un comportamiento ideal. Dicha
medida es provista, generalmente, por el índice de desempeño seleccionado
que es una función cuyo valor se considera una indicación de qué tanto se
parece el desempeño del sistema real al desempeño deseado. En la mayoría
de los casos, el comportamiento del sistema se hace óptimo al escoger el
vector de control ) (K U de tal forma que el índice de desempeño se minimice (o
maximice, dependiendo de la naturaleza del índice de desempeño
seleccionado). La selección de un índice de desempeño apropiado es
importante porque, en alto grado, determina la naturaleza del sistema de
control óptimo resultante. Esto es, que el sistema resultante sea lineal, no
lineal, estacionario, o variante en el tiempo, dependerá de la forma del índice
de desempeño. Los requisitos de diseño por lo regular no sólo incluyen
especificaciones de desempeño, sino también, para asegurará que sea
físicamente realizable, restringen la forma del control a utilizar [35].
El proceso de optimización no solo debe proveer leyes de control óptimo y
configuraciones de los parámetros, sino también debe predecir la degradación
en el desempeño debido a cualquier desvío del valor mínimo (o máximo) de la
función del índice de desempeño que resulta cuando se aplican leyes de
control no optimas [35].
El escoger el índice de desempeño mas apropiado para un problema dado es
muy difícil, especialmente en sistemas complejos. El uso de la teoría de
optimación en el diseño de sistemas ha sido problemático debido al conflicto
entre factibilidad analítica y la utilidad práctica al seleccionar el índice de
desempeño. Es preferible que el criterio para un control óptimo se origine
desde un punto de vista práctico y no matemático. En general, sin embargo, la
selección de un índice de desempeño implica un compromiso entre una
evaluación útil del desempeño del sistema y un problema matemático [35].
3.2.2.1. Formulación de los problemas de optimización
El problema de optimización de un sistema de control se puede formular si se
tiene la siguiente información [35]:
1. ecuaciones del sistema
2. clase de vectores de control permitidos
3. restricciones en el problema
4. índice de desempeño
5. parámetros del sistema
La solución de un problema de control óptimo consiste en determinar el vector
de control óptimo ) (K U dentro de la clase de vectores de control permitidos.
Este vector ) (K U depende de [35]:
1. la naturaleza del índice de desempeño
2. la naturaleza de las restricciones
3. el estado inicial o salida inicial
4. el estado deseado o salida deseada
Excepto en algunos casos, el problema de control óptimo puede ser muy
complicado para obtener una solución analítica por lo que se tiene que obtener
una solución por computador [35].
3.2.2.2. Puntos concernientes a la existencia de las soluciones a los
problemas de control óptimo.
Se ha establecido que el problema de control óptimo, dada una condición
inicial ) 0 ( X , consiste en encontrar un vector de control permitido ) (K U que
transfiera al estado a la región deseada del espacio de estados y para el cual el
índice de desempeño se minimiza [35].
Es importante señalar que a veces una combinación particular de planta,
estado deseado, índice de desempeño y restricciones, hacen que un control
óptimo sea imposible. Esto es cuestión de requerir un desempeño más allá de
las capacidades físicas del sistema [35].
Las cuestiones que tienen que ver con la existencia de un vector de control
óptimo son importantes, ya que sirven para informar al diseñador si un control
óptimo es posible o no para un sistema determinado y dado un conjunto de
restricciones. Dos de las ecuaciones más importantes son aquellas acerca de
la controlabilidad y observabilidad.
3.2.2.3. Notas acerca de los sistemas de control óptimo.
El sistema cuyo desempeño minimiza (o maximiza) el índice de desempeño
seleccionado es, por definición, óptimo. Es evidente que le índice de
desempeño, en realidad, determina la configuración del sistema. Es muy
importante apuntar que un sistema de control que es óptimo bajo un índice de
desempeño es, en general, no óptimo bajo otro índice de desempeño [35].
Además que la realización en hardware de una ley de control óptimo en
particular puede ser algo difícil y costosa. Así, puede ser inútil demasiados
recursos para implantar un controlador óptimo que es el mejor en solamente
algún sentido individual limitado. A menudo, un sistema de control se diseña
para realizar una sola tarea específica completamente de antemano. En vez de
esto, se diseña para realizar una tarea seleccionada en forma aleatoria a partir
de un repertorio de tareas posibles. Entonces, en los sistemas prácticos, puede
ser mejor buscar una ley de control óptimo aproximada que no este atada
rígidamente a un solo índice de desempeño [35].
Capítulo 4
Estado del arte de los algoritmos evolutivos y su
uso para controladores PID
4.1. Aplicaciones de la programación genética.
1. Las Aplicaciones de la ciencia de los algoritmos en el descubrimiento de
conocimiento son una promesa y área pertinente de investigación. Está
ofreciendo nuevas posibilidades y beneficios en las aplicaciones del mundo
real, ayudando a entender mecanismos buenos de nuestros propios métodos
de adquisición de conocimiento. La programación genética como algoritmo de
aprendizaje posee ciertas ventajas que lo hacen provechoso para prever y
profundizar los datos financieros. Especialmente la serie de tiempo de soporte
tiene un número grande de propiedades específicas que juntos hacen un albor
de predicción excepcional. Una aplicación en especial es los resultados de usar
la programación genética para prever el retorno de Mercado de Calcetín
egipcio. Los resultados de los experimentos demuestran la capacidad de
programación genética para predecir los resultados exactos, comparable a los
algoritmos de aprendizaje de máquina tradicionales es decir, las redes
neuronales. [30]
El prever datos financieros es una de las actividades fundamentales en el uso
de programación genética (GP) ya que esta área es muy poco explorada. Es un
acercamiento prometedor debido a su efectividad investigando los espacios
muy grandes y la habilidad de realizar la búsqueda global para el mejor modelo
de la previsión. La programación genética puede aplicarse a prever la Bolsa de
Valores egipcia (ESE) que es uno de los más viejos en el mundo y comprende
de dos intercambios, respectivamente la Alejandría y El Cairo bolsa de valores.
Se evalúa la conducta del ESE acción retorno usando el CASE30 índice diario
que mide el retorno en la inversión del cambio en el valor de las acciones. El
índice rastrea la actuación de las 30 acciones más activas y medidas el retorno
en la inversión del cambio en el valor de las acciones. ESE provee la serie de
retorno de tiempo que tiene un gran número de propiedades específicas que
juntos hacen una tarea de predicción inusual. El proceso se comporta como un
proceso inesperado y cambia el sistema en el sentido que el proceso
fundamental es tiempo variable y volatilidad en el cambio de serie de tiempo
como el proveer movimientos en el mercado. Estas razones causan los
grandes problemas para los más tradicionales y populares algoritmos
estadísticos para las predicciones de serie de tiempo como el ARCO y GARCH
y los cuales requieren una serie de tiempo estacionaria con entradas normales
e independientes del residuo. Los predictores de la programación genética
como un método adaptable alternativo para prever el ESE proveen el retorno
desde el funcionamiento una búsqueda en que los operadores genéticos
pueden modificar muchas combinaciones diferentes de variables - usando las
varias funciones diferentes disponibles en la serie de la función. Si las
variables originales no tienen mucha fuerza predictiva por si mismas, el sistema
puede crear eficientemente “la derivada de las variables” con gran potencia de
predicción, por establecimiento de la serie de la función de las variables
originales. Finalmente, ofrece una gama amplia de posibilidades de variaciones
y modificaciones del algoritmo que puede llevar a mejorar la actuación global
de la aplicación. La técnica de GP se usa para el descubrimiento automático y
la evaluación de prever la actuación del modelo y su previsibilidad para el
mercado accionario egipcio dada la enorme cantidad de ruido en mercados
financieros representados. Sobre todo, los datos de retorno de mercado
accionarios egipcios tienen un número grande de propiedades específicas que
juntos hacen al modelo de la previsión generalizado inusual [30].
Koza presenta el primer estudio usando la GP para la predicción de los
siguientes valores de la ecuación logística. Los resultados de esta predicción a
corto plazo eran los posibleblemente buenos. Oakley y Mulloy et al., estudiaron
el uso de la GP en la predicción de serie de tiempo caótica. Mahfoud y Mani
presentaron un nuevo algoritmo genético basado en el sistema y la aplicación
a la tarea de predecir la actuación futura de acciones individuales; Neely et al.
Aplico el GP a intercambio exterior pronosticando y reportando algunos
cambios. Li y Tsang presentaron un GP basado en un sistema que toma unas
reglas técnicas muy conocidas y las adapta para proveer los problemas de la
predicción. Rafat presento el uso de GP en la inducción de regla técnica de
comercio para el mercado accionario egipcio [30].
2. Los algoritmos evolutivos han tenido gran utilidad en diferentes áreas de la
ciencia en proyectos como la clasificación del olor de la mezcla usando una red
neuronal fuzzy y su optimización a través del algoritmo genético. Se usan las
redes neuronal fuzzy ampliamente ya que estas se pueden adaptar
directamente a la medida del error, este modelo neuronal crea un dilema del
hecho de que ambas las redes largas y pequeñas tienen un número de
desventajas. Si el tamaño de la red es demasiado pequeño, la rata del error
tiende a aumentar debido a que la red no podría aproximarse lo suficiente a la
relación funcional entre la entrada y el rendimiento designado. Mientras, si el
tamaño es demasiado grande, la red no podría generalizar los datos de la
entrada antes de que sean ilustrados. El óptimo desarrollo de una red neuronal
fuzzy es entonces aplicado como el clasificador del modelo en el sistema de
reconocimiento de olor artificial. La actuación de su habilidad del
reconocimiento se explora y compara con la propagación inversa del sistema
neuronal convencional y la neurona fuzzy imperfecta. Se muestra claramente
que el promedio de la rata de reconocimiento del sistema neuronal fuzzy GA-
perfeccionado tiene la capacidad de reconocimiento más alta comparada con el
de otro sistema neuronal [30].
El sistema de discriminación de olor Artificial ha sido desarrollado usando una
partícula de resonadores de cuarzo como sensor, y analizando los datos de la
medida a través de varias redes neuronales como un modelo de
reconocimiento [30].
Los resultados experimentales muestran que la proporción del reconocimiento
del sistema altamente desarrollado si se usa para discriminar solo el basado en
olor, sin embargo, su reconocimiento disminuyó considerablemente cuando un
olor de la mezcla tiene que ser determinado. Investigadores han propuesto un
acceso para incorporar un elemento de la lógica fuzzy en la red neuronal para
mejorar su desempeño, sobre todo para acelerar la velocidad de convergencia
y la proporción del reconocimiento más alta. La ventaja de usar el sistema
fuzzy-neuronal es que puede adaptarse distribuidamente con la fuzzy causado
directamente por la medida de error, y las topologías de la red resultantes
también pueden realizar el principio de la inferencia fuzzy a través del análisis
los valores de los pesos de conexión. Las redes neuronales fuzzy son muy
conocidas y ampliamente usadas y se han hecho algunos trabajos para obtener
la estructura de la red apropiada y los pesos iniciales para reducir su tiempo de
entrenamiento. Sin embargo, este tipo de sistema neuronal tiene un
inconveniente debido a sus conexiones neuronales grandes. La optimización
de la arquitectura de la red es entonces hecho usando el método de
optimización discreto. En este acercamiento, cada estructura de la red se le
asigna un valor de la evaluación (por ejemplo, una estimación del error de la
generalización), formulando así una tarea de optimización discreta. Una
variedad de métodos puede aplicarse a esta clase de los problemas, sin
embargo, los algoritmos genéticos, han ganado una metodología fuerte como la
aproximación evolutiva por ambos, quitando las conexiones débiles entre las
neuronas o quitando las neuronas que realizan las activaciones débiles [30].
3. Las mejoras En el Algoritmo Genético Híbrido para la convergencia rápida
En el proceso de aclarar la solución multi-objetivo de Pareto, la búsqueda de la
habilidad en el área total y las características de la convergencia puede
reforzarse por auto-sintonización de probabilidad del error en la evolución de
las descendencias. Comparando con el algoritmo genético híbrido típico, la
convergencia de optimización más eficaz puede obtenerse usando el algoritmo
genético híbrido mejorado en la solución para el problema de optimización.
Simulación numérica basada en algunos ejemplos típicos demuestra la
efectividad del método propuesto [30].
En la aplicación de la ingeniería práctica, las preguntas de optimización de
multi-objetivo aparecen a menudo. Las funciones objetivas diferentes no
pueden compararse e incluso el conflicto mutuo. En el proceso de optimización,
necesita considerar la optimización de simultaneidad con muchas funciones
objetivas. El algoritmo genético es un tipo de aritmética de optimización total
que se desarrolló en los años recientes. Se usa ampliamente en todos los tipos
de preguntas de optimización complicadas debido a su paralelo oculto,
aleatoriamente y altamente robusto. En la actualidad, los métodos de algoritmo
genético con la optimización de multi-objetivo de aplicación están divididos en
tres principales tipos: el multi-objetivo converge solo objetivo, el no método de
Pareto y el método de Pareto. El método tradicional que convierte solo el
objetivo del multi-objetivo es un simple diseño del método aritmético, con una
alta eficiencia computacional, pero sólo puede resolver una solución de
disponibilidad. El no método de Pareto puede resolver muchas soluciones de
disponibilidad, pero estas soluciones normalmente enfocan en el puerto de la
interfase de disponibilidad. El método de optimización basado en el método de
Pareto es que muchos valores objetivos tomados directamente para función
adaptable. Comparando la relación de dominio de valor objetivo, la lista efectiva
se fundamentará. El tipo de método se puede resolver computado, pero el
método es complicado en la aritmética, baja eficiencia en las dimensiones de
las descendencias más grandes [30].
4. extracción de las reglas fuzzy IF-THEN el Extracto de las Reglas para
diagnostico medico usando algoritmos genéticos
El procedimiento sugerido mira a la cara la solución óptima que crece de la
primera parte de las reglas IF-THEN variantes que usan el cruce genético,
mutación y funcionamientos de la selección. La eficiencia del algoritmo
genético es ilustrada por un ejemplo de diagnóstico de enfermedad del corazón
de disemia.
En muchas áreas de medicina hay grandes colecciones de los datos
experimentales y es necesario que se transfieran estos datos en la forma
conveniente para la toma de la decisión. Varios métodos muy conocidos
normalmente se usan para el proceso de los datos usan las estadísticas
matemáticas, la regresión analítica, etc. Pero la toma de decisión en la
medicina no es típicamente estadística o matemática. Así que es importante
presentar los resultados de datos que se procesan de la forma más fácilmente
entendible para la toma de decisiones sin fundamento matemático especial.
La regla fuzzy IF-THEN permite hacer fácilmente entendible y bien el resultado
del análisis de los datos interpretados. Durante el desarrollo de los sistemas
especializados fuzzy se supone que la base de conocimiento inicial se genera
por un experto del área de medicina. Esto por qué la calidad de éstos los
sistemas dependen de la habilidad de un medico experto [30].
5. Un Algoritmo Evolutivo multicapas
Para Diseñar las Redes Neuronales Artificiales
Una representación genérica basada en la memoria neuronal multicapas en el
aprendizaje genético fue descrita para desarrollar una población de redes
neuronales. El plan cuenta con la información incluida en las neuronas en más
de un asociado. El objetivo es aprender ambos la topología de la red neuronal
óptima y los pesos óptimos según las múltiples capas del algoritmo genético.
Además usa un algoritmo de macroaprendizaje para entrenar el lenguaje, la
idea también es incluir un algoritmo de microaprendizaje sin supervisión. La
meta es adaptar parámetros de la estrategia potenciales del macroalgoritmo
genético para aumentar la actuación de la generalización considerablemente
[30].
Una red neuronal es una adaptación y un sistema no lineal inspirado para el
estudio del cerebro para resolver problemas matemáticamente o
computationalmente. La red neuronal, como el algoritmo Genético, representa
otro modelo de aprendizaje con un toque diferente. De hecho, una red neuronal
multicapas (MLP) es un gráfico orientado de células. Cada célula computa una
actividad de las actividades de los vecinos conectadas a sus entradas. Cada
célula propaga su actividad a los vecinos conectados a su rendimiento. El
hecho computational por una célula es aplicado a la función de transferencia f
i
de la forma

,
`

.
|
− ·
∑ i j ij i i
x w f y θ . Donde, y
i
es el rendimiento del nodo i, x
j
los
jth entradas al nodo, w
ij
es el peso de conexión entre i et j de los nodos es el
umbral del nodo. Normalmente, f
i
es no lineal, sigmoideo, o función gaussiana.
Los pesos representan información contenida en la red neuronal [30].
Como mecanismo de entrenamiento, un algoritmo reiterativo de pendiente en
descenso se diseño para minimizar la diferencia paso a paso entre el vector del
rendimiento real de la red y el vector del rendimiento deseado, como
repropagación (BP) en sus versiones, como QuickProp y RPROP, se usa
ampliamente como mecanismo entrenador. Aunque este método se usa el
exitosamente en muchos campos, sobre todo para el reconocimiento del
modelo, debido a su habilidad de aprendizaje, encuentra ciertas dificultades en
la práctica, como: la convergencia tiende a ser sumamente lenta, la
convergencia al mínimo global no es ninguna garantía, mientras se esta
aprendiendo las constantes deben suponerse el heurísticamente.
• Los algoritmos incrementales: como la Correlación de la Cascada,
Ornamentando y el Perceptron de la Cascada, y otros, son basados en la
agregación de capas ocultas a la red neuronal de tamaño mínimo hasta que
alcance la precisión requerida.
• Los algoritmos de decrementales: el método de recorte es basado en tomar
una red grande y capas ocultas de las neuronas y entonces eliminar una a una
las capas ocultas de la neurona, para obtener la red más pequeña. Otros
acercamientos pusieron algunos de los pesos para poner a cero.
Diseñar la arquitectura y los parámetros correctos para el algoritmo de
aprendizaje es una tarea tediosa por modelar una Red Neuronal Artificial
óptima (ANN) con la actuación de la mejor generalización. A menudo, va
surgiendo la necesidad de los sistemas inteligentes híbridos dominantes ANNs
que limitan y se vuelve un camino óptimo para conseguir el sistema neuronal
[30].
En recientes investigaciones, la evolución se ha introducido en ANNs en
términos generales en niveles: los pesos de conexión, las arquitecturas, y el
principio de aprendizaje. Entonces, el privilegio de hacer un algoritmo genético
hibrido y la red neuronal parecida incrementa la actuación del funcionamiento
de la red. La complejidad del acercamiento es construir un algoritmo Neuro-
genético que involucra principios de la evolución y activaciones del cerebro.
Actualmente, esto es un producto de una causa adaptable basada en el
aprendizaje genético sin supervisión para perfeccionar la topología y pesos de
la red neuronal multicapas.
Por consiguiente, el modelo del razonamiento adjunta dos innovaciones de la
evolución básica: la auto-organización y la auto-adaptación de parámetros de la
estrategia. La auto-organización apunta la arquitectura de memoria óptima
trazada por el aprendizaje genético, y la auto-adaptación apunta los parámetros
de estrategia de aprendizaje óptimos necesitados para proporcionar la
interconexión mínima y sus pesos óptimos.
La memoria del modelo representa una población de redes neuronales
abstractas. Esta memoria se estructura teóricamente como una topología de
red y 2 cortes.
4.2. Computación evolutiva y controladores PID
1. Experimento de programación evolutiva basado en le control de alta
precisión
Los esquemas convencionales de control lineal a menudo no proporcionan
posicionamiento preciso del control de un objeto bajo la influencia de fricción,
zona muerta, saturación, etc. Se propone un esquema de control de alta
precisión para posicionar un sistema punto a punto, llamada la tabla X-Y,
incluso bajo las influencias por encima de las conocidas. El esquema propuesto
está compuesto de un precompensador fuzzy y un controlador PD. El
precompensador fuzzy es empleado para mejorar la actuación del controlador
PD. Sus métodos fuzzy se obtienen de la programación evolutiva experimental
(EEP), no de un experto. La efectividad del esquema es demostrada por los
experimentos en la tabla X-Y, con un error del posicionamiento de menos de 1
m y estableciendo tiempo de menos de 0.15 s dónde la velocidad máxima y la
aceleración es 0,25 m/s y 1.7 m/s ', respectivamente [30].
La tabla X-Y se usa ampliamente en el mecanizando de procesos que
involucran tornos, fresado de las máquinas, y SMD (montaje de la superficie del
dispositivo) montadores en el campo industrial. Desde entonces la tabla X-Y
puede considerarse como un sistema lineal en un sentido global, la tabla X-Y
puede controlarse bastante bien por los esquemas de control lineal
convencional como el controlador PID (Proporcional-integro - Derivativo). Sin
embargo, considerando situaciones dónde se necesita el control de alta
presión, los esquemas del control convencionales no pueden son convenientes
debido a la no linealidad no uniforme, incluso la fricción, la repercusión
negativa, la histéresis, la saturación del actuador. etc., en el sistema mecánico.
La saturación del actuador afecta la actuación transitoria principalmente, y las
secciones pueden causar un error del sostenimiento del estado o un ciclo del
límite cerca de la posición del objeto en el control lineal convencional del
sistema del posicionamiento. Hoy, cuando se usan las máquinas para los
funcionamientos precisos en el campo industrial, firmemente y es requerido el
control preciso de la tabla X-Y. Es más, el control de precisión y las
especificaciones de dominio de la tabla X-Y varían dependiendo de su
aplicación [30].
En general, hay dos enfoques para lograr el control de alta precisión de la tabla
X-Y. Primero, nosotros podemos diseñar y podemos hacer una tabla X-Y más
precisa que no tiene la no linealidad anteriormente expresada. Por ejemplo,
nosotros podemos reemplazar los rumbos de la pelota usados en la tabla X-Y
con los rumbos aéreos quitar las condiciones de fricción. Este acercamiento,
sin embargo, puede llevar a un costo alto para el Sistema global. El otro
acercamiento es diseñar una ley de control más compleja que puede lograr los
objetivos de control de alta precisión. Recientemente, las mejoras rápidas en el
microprocesador le han hecho posible para comprenderla ley del control
complejo. Así si se puede desarrollar un algoritmo de control apropiado, el
segundo método será una aproximación más conveniente para el control de
posición de alta precisión sin aumentar el costo [30].
Se han propuesto recientemente varias técnicas de control de posición para el
control de alta precisión. Yang y Tomizuka proponen el uso de un controlador
de anchura de pulso adaptable para el posicionamiento preciso, basado en el
método de control de la anchura del pulso, en el cual se aplica un pulso según
el error actual. En este esquema, el controlador aplica un pulso y espera hasta
que pare el sistema, y entonces calcula la anchura del pulso para la próxima
entrada de control. Así, podría necesitarse demasiado tiempo hasta que el
sistema llegue al punto de la meta. Tung propuso un esquema de
compensación de fricción basado en un control repetitivo que de los sistemas
típicamente aplicados sujetado a las referencias periódicas y/o entradas de
perturbación. Kim propuso un método de diseño a un compensador de fricción
basado en un algoritmo evolutivo. Los dos esquemas de control anteriores, sin
embargo, se tratan de sólo control de baja velocidad. El esquema adaptable fue
también por algunos investigadores que tenían el periodo de transito
relativamente largo. Así estos esquemas no podrían ser convenientes para
sistemas que deben establecerse rápidamente [30].
Por otro lado, los métodos de control basados en fuzzy son útiles cuando las
formulaciones matemáticas precisas no son factibles. Sin embargo, los
controladores lógicos fuzzy a menudo dan un resultado de rendimiento superior
a los métodos del control convencionales. Kim] propuso una estructura de
control de “dos capas” que consiste en un precompensador fuzzy y un
controlador PD para los sistemas con zona muerta.
2. control robusto por Algoritmos Genéticos y el criterio integro de Minimización
Los controladores PID han encontrado las aplicaciones industriales extensas
durante varias décadas. Recientemente H2/H mixto los problemas de control
óptimos han recibido mucha atención desde punto de vista de plan teórico.
H2/H mixto los acercamientos de plan de control son útiles para la actuación
robusta para los sistemas bajo la perturbación del parámetro y la perturbación
incierta. Un procedimiento del plan propone poner a punto los parámetros de
controladores PID para lograr H2/H mixto de una forma óptima. Desde el
criterio que debe perfeccionarse de tipo íntegro, y las características se
imponen por el control robusto, el problema a ser resuelto es un favorable
problema de minimización de no linealidad que pueden existir. Los algoritmos
genéticos son técnicas de búsqueda paralelas, globales que emulan a los
operadores genéticos naturales. Porque un algoritmo genético evalúa muchos
puntos simultáneamente en el parámetro especie, más probablemente es
converger a la solución global [30]
La complejidad creciente de los sistemas del control moderno ha dado énfasis
a la idea de aplicar nuevos acercamientos para resolver los problemas de
ingeniería de control diferentes. El control PID es el tipo de control mas
ampliamente usado en la industria y el ingeniero del plan debe poner a punto
los parámetros del PID permitidos a las necesidades específicas. Deben
conocerse tres factores de la sintonización del controlador PID: la planta, el tipo
de control y el criterio de la actuación de la realimentación de control. Dentro
del armazón del la teoría clásica, uno de los factores muy importante de
sintonización de los controladores PID, el criterio de la actuación, puede ser
dividido en dos grupos principales: el tiempo crítico de dominio y criterio de
dominio de frecuencia. Respecto a esto, el diseñador reúne simultáneamente
de la forma mas breve menos difícil satisfacer el limite de diseño. Empezando
desde éstos, en el control PID los siguientes métodos de sintonización se usan
típicamente: Ziegler y Nichols (1942), Chien, Hrones y Reswick (1952), Clarke
(1984), Kaya y Scheib (1988), Aström y Hägglund (1984, 1988), [1], [3], [4], [5],
[6], [7]. Lo anterior arriba expresado se caracteriza por una desventaja obvia: el
diseñador debe intentar satisfacer más o menos los límites del diseño. La
habilidad de obtener un cierto régimen estacionario y transeúnte para el
sistema retroalimentado impone una opción particular de la estructura y
parámetros del control, en concordancia con el logro de la actuación. Los
índices de la actuación se especifican por el diseño. Porque en la mayoría de
los casos el logro de une ejecución de buena calidad lleva a un índice a las
soluciones contradictorias y el ensayo “en acoplamiento” la respuesta del
sistema dentro de los límites de los tipos como: un: cero error del mantener el
estado, bueno y tiempo propasado, tiempo del levantamiento, respuesta de
tiempo de sistema, ganancia y margen de la fase etc. la única manera parece
estar por fuera del ensayo y métodos de síntesis de error. El error del sistema
es el signo que probablemente mas influye en las actuaciones mencionadas.
Como la duración de error también debe jugar un papel, se encuentra que el
más significante de éstos es el criterio de la actuación que tiene la forma
íntegra. H2/H mixto. Los acercamientos de diseño de control son útiles para la
actuación robusta para los sistemas bajo la perturbación del parámetro y la
perturbación incierta. Sin embargo, la entrada de retroalimentación
convencional de control optimo de H2/H mixto. Son muy complicados y difíciles
de implementar para las aplicaciones de prácticas industriales. Los algoritmos
genéticos son la optimización y algoritmos de aprendizaje de máquina
inicialmente inspirados en los procesos de selección natural y las genéticas
evolutivas. El algoritmo propuesto ponteará el hueco entre el control teórico
mixto óptimo H2/H óptimo y el control clásico industrial PID. El diseño de
control H2/H propuesto consiste en encontrar un controlador PID internamente
estabilizado que minimiza un H2 el índice de la actuación íntegra sujeto a una
desigualdad reprimida en la norma de H. de la función de traslado de
retroalimentación. Eso significa que resolviendo los dos problemas: la exigencia
de robustez de estabilidad y la exigencia de atenuación de perturbación
externa. El problema puede interpretarse como un problema de actuación
óptima sujeto a una exigencia de estabilidad robusta (o la exigencia de
atenuación de perturbación externa). El procedimiento de diseño se propuso
para fuera de la línea PID que sintoniza para lograr el H2/H mixto. La actuación
óptima sigue los pasos [30]:
1. el primer paso basó en el criterio de Routh-Hurwitz, el dominio de estabilidad
de tres parámetros de PID, espacio que garantiza la estabilidad de la
retroalimentación especifica.
2. el segundo paso, el subconjunto del dominio de estabilidad en los
parámetros de espacio PID que corresponde para estar en 1 se especifica para
que la exigencia de H. anteriormente expresado.
3. en el tercer paso los problemas de diseño se vuelven, en el dominio del
subconjunto de H. la exigencia de dominio mencionado en paso 2, cómo
obtener un punto que minimiza el H2 que rastrea la actuación. Esto es
generalmente considerado favorable en el problema de minimización de la no
linealidad que puede existir.
Los algoritmos genéticos son técnicas de la búsqueda paralelas, globales que
emulan a los operadores genéticos naturales. Porque un GA evalúa muchos
puntos simultáneamente en el parámetro espacie, más probablemente es
converger a la solución global. No necesita asumir que el espacio de la
búsqueda es diferenciable o continuo, y también conserva la iteración de varios
tiempos en cada dato recibido. La optimización global puede lograrse por
varios operadores genéticos, ej., reproducción, mutación, y cruce. El AGs es
más conveniente la iteración del diseño de control PID H2/H por las razones
siguientes: el espacio de la búsqueda es grande; la superficie de la actuación
no requiere una asunción del diferenciador con respecto a los cambios en los
parámetros de PID (por consiguiente, los algoritmos escrutadores que
dependen de la existencia de los derivado son ineficaces); las condiciones de
las destrucciones probables probablemente serán destruidas bajo un operador
genético, por eso la ventaja a menudo la convergencia es más rápida [30].
4.3. Aplicación en procesos de control
4.3.1. Sintonización de controladores
Anteriormente los AEs eran utilizados como una alternativa para sintonizar
controladores proporciona-integral derivativo (PID). Oliveira uso un AG
estándar para determinar las estimaciones iniciales para los valores de los
parámetros de los PID. Ellos aplicaron su metodología para una variedad de
clases de sistemas lineales invariantes en el tiempo (LTI), abarcando fase
mínima, fase no mínima y sistemas inestables. En una investigación
independiente, Porter y Jones propusieron un AE base como una simple
técnica, genérica, método digital de sintonización de controladores PID. Wang y
Kwok cubrieron un AE usando inversión y preselección ‘micro-operadores’
para sintonización de controladores PID. Más recientemente, Vlachos aplico
un AE para la sintonización de controladores descentralizados proporcional –
integral (PI) para procesos multivariables. Onnen aplico un AEs para la
determinación de una secuencia optima de control basado en el modelo de
control predictivo (MBPC). Particular atención fue prestada a MBPC para
sistemas no lineales con entradas forzadas. Código genético especializado y
operadores fueron desarrollados con el objetivo de prevenir soluciones
absurdas de generación. El esquema resultante se aplico a un fermentador
retroalimentado simulado, con reporte de resultados favorables (comparado
con el tradicional método arma limite) para grandes horizontes de control.
El principal problema de la optimización basada en sintonización de
controladores es la selección de la función objetivo apropiada.
4.3.2. Diseño de estructura de control
Muchas aplicaciones de EA simplemente optimizaron los parámetros de las
estructuras existentes. En orden para recolección el pleno potencial de los AE,
algunos investigadores han experimentado con la manipulación de estructuras
del control. Los PG se han utilizado para la síntesis automática de los valores
de parámetros y la topología de controladores. El sistema ha reproducido las
patentes existentes según informes recibidos (para controladores PI y PID) y
redescubrió el viejo (un controlador que hace uso de la segunda derivada del
error entre la señal de referencia y la señal de salida).
4.3.3. Aplicaciones en línea
Las aplicaciones en línea presentan un particular desafío para los AE. Las
aplicaciones exitosas en este campo han sido algo limitadas para la fecha. Es
importante que una señal de control apropiada se provea a cada instante de
muestreo. Las acciones del mejor individuo actual del AE pueden infligir
consecuencias severas en el proceso. Esto en inaceptable en la mayoría de las
aplicaciones, sobre todo en el caso de una seguridad o misión critica del
sistema.
Dado que esto no sea posible para aplicar los valores representados por
cualquier individuo en una población para el sistema, está claro que la
evaluación de la completa, evolución, la población no puede desempeñarse en
el proceso real. La población puede ser evaluada usando un modelo del
proceso, asumiendo que existe un modelo semejante, o el desempeño puede
ser inferido de la respuesta del sistema para una señal de entrada actual. La
inferencia también puede usarse como un mecanismo para reducir los
requisitos del proceso haciendo un número grande de evaluaciones y entonces
computando las estimaciones para el resto de la población basada en estos
resultados. En aplicaciones en tiempo real hay un límite importante de tiempo
para el cual una optimización puede ser ejecutada entre puntos de decisión.
Dado el poder de la informática actual, es improbable que un EA ejecutara a la
convergencia dentro del límite de tiempo de muestreo de una aplicación del
control típica. Ahora, solo un cierto número de generaciones puede ser
evolucionado. Para sistemas con grandes tiempos de muestreo, un aceptable
nivel de convergencia puede ser bien realizado. En el caso de un controlador,
una aceptable señal de control debe proporcionarse a cada punto de control. Si
el AE es evolucionado para solo unas pocas generaciones entonces el
desempeño de la población puede aun ser pobre. Una complicación adicional
es que el sistema, visto de la perspectiva de la optimización, está cambiando
con el tiempo. Así, la señal de control evolucionada en un instante puede
volverse totalmente inapropiado en la siguiente.
Los AEs pueden oponerse con vistas de tiempo variable, pero una reciente
tendencia de los AEs puede ser requerida. En esta instancia, la población
inicial puede ser difundida con previas soluciones buenas. Note que esto no
garantiza la convergencia rápida e incluso puede llevar a la convergencia
prematura.
Hay tres amplias aproximaciones para el uso de AEs para control en línea:
• Utilizar un modelo del proceso
• Utilizar el proceso directamente
• Permitir sintonización restringida de un controlador existente.
4.4. Cómo pueden los AG ser de beneficio para el control?
4.4.1. Estabilidad
Muchos exponentes de algoritmos evolutivos citan a la naturaleza genérica del
género como la ventaja del control. Los AG pueden aplicarse a un ancho rango
de problemas sin modificación significante. Sin embargo, el AG a veces se
percibe como una herramienta que proporcionará los resultados mediocres en
un problema de dominio cuando se compara con los métodos de dominio
específico. También debe notarse que los parámetros del AG (el tamaño de la
población, la probabilidad de la mutación, y etc.) requieran sintonización para
los beneficios extendidos de los algoritmos a ser realizado.
Las aproximaciones evolutivas han demostrado particularmente exitoso en
problemas que son difíciles formalizar matemáticamente, y qué por
consiguiente no conduce al análisis. Esto incluye sistemas que son altamente
no lineales, que son estocásticos, y son comprendidos pobremente (el control
del cual representa una magia negra). Problemas que involucran las clases
mencionadas de proceso tienden a ser difíciles de resolver satisfactoriamente
usando los métodos convencionales. La falta de confianza AG en el dominio
heurístico específico lo hace un contendedor fuerte para la aplicación en esta
área. Muy pequeño información a priori se requiere, pero esto puede
incorporarse si así se desea.
Un singular problema de ingeniería de control puede contener una mezcla de
formato d variables de decisión. Esto puede proveer un problema significativo
para técnicas de optimización convencionales que requieren variables de un
solo tipo matemático o unidad científica. Desde que los AGs operan sobre .una
codificación del conjunto de parámetro, diversos tipos de variables pueden
representarse (y manipulaos subsecuentemente) dentro de una sola solución.
El AG es una búsqueda robusta y un método de optimización. Es capaz de
hacer frente a paisajes con funciones de costo perjudiciales, exhibiendo así
propiedades como multimodalidad, discontinuidad, tiempo de variación,
aleatoriedad, y ruido. Cada uno de estas propiedades puede causar
dificultades severas al tradicional método de búsqueda tradicional, además de
la falta de amenidad a una solución analítica. Además, una búsqueda de AG
se dirige y, luego, representa la mas grande eficacia potencialmente que una
búsqueda totalmente al azar o búsqueda enumerativa
Un camino particularmente prometedor de aplicación de los AG es el problema
multiobjetivo. Muchas aplicaciones del mundo real encajaron en esta
categoría, incluso más problemas de diseño de ingeniería.
El potencial del AG sólo está empezando a ser efectuado en esta arena. Los
AGs también son capaces de soportar múltiplos, contrastando, soluciones a un
problema simultáneamente. Esto le proporciona un grado mayor de opción y
flexibilidad al diseñador.
Para problemas que son bien comprendidos, que son aproximadamente
lineales, y para los cuales se confía que existen soluciones, el AG es
improbable para producir resultados competitivos. Si un problema puede
resolverse analíticamente con un nivel aceptable de asunciones entonces esa
aproximación es probablemente mejor. Si así una solución no puede ser
encontrada, y otras técnicas de problemas específicas están en fase de inicio,
entonces el uso de AG podría demostrar ser muy aprovechable y que vale la
pena.
Las aplicaciones misión-críticas y seguridad-críticas no aparecen, inicialmente,
ser favorable para el uso de AG. Hay un elemento de cambio en un algoritmo
genético. No garantiza proporcionar que los resultados serán de suficiente
calidad para el uso en línea. Cuando se evalúan AG en los problemas de
referencia, ellos normalmente se prueban mucho (típicamente veinte a treinta)
tiempo debido a la naturaleza estocástica del algoritmo. Hay también la
pregunta cómo se evaluarán los individuos si ningún modelo del proceso está
disponible (como puede ser bien el caso). Alguna teoría de apoyo existe para
los algoritmos genéticos, pero es improbable demostrar suficiente para ganar la
aprobación de agencias de las normas. Mucho cuidado habría, claramente, se
necesite para el sistema crítico.
Los AG son muy intensivos computacionalmente, a menudo requieren
implementaciones masivamente paralelas para producir los resultados dentro
de un marco de tiempo aceptable. Por lo tanto, la aplicación en línea para
control en tiempo real es grandemente imposible en la actualidad
Capítulo 5
Sintonización de controladores PID utilizando
algoritmos evolutivos
5.1. Sistema mecánico: masa –resorte
El sistema que aparece en la figura 5.1es lineal. La fuerza externa ) (t u es la
entrada para el sistema, mientras que el desplazamiento ) (t y de la masa es la
salida. El desplazamiento ) (t y se mide a partir de la posición de equilibrio en
ausencia de una fuerza externa. A partir del diagrama, la ecuación 5-1 describe
el sistema
Figura 5.1. Sistema masa
resorte
Bu Ax x
u ky y b y m
+ ·
· + +
&
& & &
(5-1)
El sistema es de segundo orden por lo que tiene dos integradores. Definiendo
las variables de estado como ) (
1
t x y ) (
2
t x
1 2
1
x y x
y x
& & · ·
·
(5-2)
De la ecuación 5-1
) 1 (
1
u
m
y
m
k
y
m
b
y
u ky y b y m
+ − − ·
+ − − ·
& & &
& & &
(5-3)
La ecuación de salida es
| )

,
`

.
|
·
2
1
0 1
x
x
y (5-4)
Despejando las derivadas de mayor orden
2 1
x x · & (5-5)
u
m
x
m
k
x
m
b
x
1
1 2 2
+ − − · & (5-6)
Las ecuaciones 5-5 y 5-6 en forma matricial quedan:
u
m
x
x
m
b
m
k
x
x

,
`

.
|
+

,
`

.
|

,
`

.
|
− −
·

,
`

.
|
1
0 1 0
2
1
2
1
&
&
(5-7)
Para obtener la función de transferencia se utilizo la siguiente ecuación
D B A SI C s G + − ·
−1
) ( ) ( (5-8)
De la ecuación (5-7) se obtiene:

,
`

.
|
− −
·
m
b
m
k
A
1 0
(5-9)
]
]
]
]

·
m
B
1
0
(5-10)
| } 0 1 · C (5-11)
0 · D (5-12)
Para calcular la matriz A SI −

,
`

.
|
+

·

,
`

.
|
− −

,
`

.
|
· −
m
b
s
m
k
s
m
b
m
k
s
s
A SI
1 1 0
0
0
(5-13)
Calculando la inversa de la matriz
| )
m
k
s
m
b
s
s
m
k
m
b
s
A
adjA
A SI
+ +

,
`

.
|
+
· · −

2
1
1
(5-14)
Sustituyendo en 5-8
| )

,
`

.
|

,
`

.
|
+
+ +
·
m s
m
k
m
b
s
m
k
s
m
b
s
s G
1
0 1
1
0 1 ) (
2
(5-15)
Al realizar las operaciones

,
`

.
|

,
`

.
|
+
+ +
·
m
m
b
s
m
k
s
m
b
s
s G
1
0
1
1
) (
2
(5-16)
m
k
s
m
b
s
m
s G
+ +
− ·
2
1 1
) ( (5-17)
Se obtiene la función de transferencia
k bs ms
s G
+ +

·
2
1
) ( (5-18)
5.1.1. Controlabilidad del sistema
La controlabilidad juega un papel muy importante en el diseño de sistemas de
control en el espacio de estados, ya que sus condiciones determinan la
existencia de una solución completa.
Si el rango de la matriz | } AB B s · es igual a 2, entonces el sistema será
controlable. (5-19)

,
`

.
|

,
`

.
|
− −
·
m m
b
m
k
AB
1
0 1 0
(5-20)
Det
2
2
1
1
1
0
m
m
b
m
m
s − ·

,
`

.
|

· (5-21)
Los vectores de la matriz son linealmente independientes entonces, el
determinante es diferente de cero por la tanto el sistema es controlable
5.1.2. Observabilidad
El sistema es observable si todas las transiciones del estado afectan
eventualmente a todos los elementos del vector de salida.
Si rango de la matriz
]
]
]

·
CA
C
v es igual a 2, entonces el sistema será
observable.
| ) 0 1 · C (5-23)
| ) | ) 1 0
1 0
0 1 ·

,
`

.
|
− −
·
m
b
m
k
CA (5-24)
Det 1
1 0
0 1
·

,
`

.
|
· v (5-25)
El sistema es observable
5.1.3. Discretización del sistema
Asignándole valores numéricos a las variables de la función de transferencia
del sistema
Tomando m=2 b =4 k =5
Reemplazando en la ecuación (5-18)
) (
) (
5 . 2 2
5 . 0
) (
2
s U
s Y
s s
s G ·
+ +
· (5-26)
Tomando condiciones iniciales cero
Despejando con respecto a la entrada y la salida del sistema
) ( 5 . 2 ) ( 2 ) ( ) ( 5 . 0
2
s Y s sY s Y s s U + + · (5-27)
Aplicando transformada de laplace
) ( 5 . 2 ) ( 2 ) ( ) ( 5 . 0 s Y s Y s Y s U + + ·
& & &
(5-28)
Aplicando el método de discretización aproximada
) ( 5 . 2
) ) 1 (( ) (
2
) ) 2 (( ) ) 1 (( 2 ) (
) ( 5 . 0
2
kT y
T
T k y kT y
T
T k y T k y kT y
kT U +
]
]
]

− −
+
]
]
]

− + − −
·
(5-29)
Realizando las operaciones
| } ) ( 5 . 2 ) ) 1 (( ) ( 2 ) ) 2 (( ) ) 1 (( 2 ) ( ) ( 5 . 0
2 2
kT y T T k y kT y T T k y T k y kT y kT U T + − − + − + − − · (5-30)
| } | } ) ) 2 (( 2 2 ) ) 1 (( 5 . 2 2 1 ) ( ) ( 5 . 0
2 2
T k y T T k y T T kT y kT U T − + + − − + + · (5-31)
Tomando 1 . 0 · T y reemplazando en (5-31)
| ) | ) | ) | } | ) | } ) 2 ( 1 . 0 2 2 ) 1 ( 1 . 0 5 . 2 1 . 0 2 1 ) ( 1 . 0 5 . 0
2 2
− + + − − + + · k y k y k y (5-32)
) 2 ( ) 1 ( 2 . 2 ) ( 225 . 1 ) ( 005 . 0 − + − − · k y k Y k y k U (5-33)
Despejando ) (k y
) 2 ( ) 1 ( 2 . 2 ) ( 005 . 0 ) ( 225 . 1 − − − + · k y k y k U k y (5-34)
) 2 ( 816 . 0 ) 1 ( 796 . 1 ) ( 00408 . 0 ) ( − − − + · k y k y k U k y (5-35)
Al expresar en función de Z
) ( 816 . 0 ) ( 796 . 1 ) ( 00408 . 0 ) (
2 1
Z Y Z Z Y yZ Z U Z y
− −
− + · (5-36)
| ) ) ( 00408 . 0 816 . 0 79 . 1 1 ) (
2 1
Z U Z Z Z Y · + −
− −
(5-37)
2 1
816 . 0 79 . 1 1
00408 . 0
) (
) (
− −
+ −
·
Z Z Z U
Z Y
(5-38)
816 . 0 79 . 1
00408 . 0
) (
) (
2
2
+ −
·
Z Z
Z
Z U
Z Y
(5-39)
5.1.4. Calculo del controlador
Hallando la función de transferencia del diagrama en bloques
Figura 5.2. Diagrama en bloque del sistema (controlador –planta)
CP
CP
Gs
+
·
1
(5-40)
El controlador se describe matemáticamente por
| ) | )

,
`

.
|
+
+ + ·
1
) ( ) (
s
s e T
s T
s e K
s e K s U
D
I
I
P
α
(5-41)
s K
s
K
K s C
d
I
P
+ + · ) ( (5-42)
s
K s K s K
s C
I P D
+ +
·
2
) ( (5-43)
Sustituyendo la ecuación 5-26 y 5-43 en la ecuación 5-40

,
`

.
|
+ +

,
`

.
| + +
+

,
`

.
|
+ +

,
`

.
| + +
·
5 . 2 2
5 . 0
1
5 . 2 2
5 . 0
2
2
2
2
s s s
K s K s K
s s s
K s K s K
Gs
I P D
I D P
(5-44)
| )
| )
| ) 5 . 2 2
5 . 0 5 . 0 5 . 0 5 . 2 2
5 . 2 2
5 . 0
2
2 2 3
2
2
+ +
+ + + + +

,
`

.
|
+ +
+ +
·
s s s
K s K s K s s s
s s s
K s K s K
Gs
I P D
I P D
(5-45)
| ) | )
I P D
I P D
K s K s K s
K s K s K
Gs
5 . 0 5 . 0 5 . 2 2
5 . 0 5 . 0 5 . 0
2 3
2
+ + + + +
+ +
· (5-46)
Usando el método de asignación de polos
Se quiere que el desempeño del sistema cumpla con ciertas especificaciones
entonces se usa el método de asignación de polos y se quiere que los polos
del sistema estén en el semiplano izquierdo del plano s para que el sistema sea
estable.
2 2
2
n n
w s w s + + ξ (5-47)
Donde ξ es el amortiguamiento
n
w Frecuencia natural no amortiguada.
Para esto
n
w ξ · −1 (5-48)
5 . 0 · ξ (5-49)
Despejando
n
w
2
5 . 0
1
· ·
n
w (5-50)
| ) 866 . 0 1
2
· − ·
n d
w w ξ (5-51)
| )| ) 4 2 4 2 1 4 2
2 2 3 2
+ + + + + · + + + s s s s s s s s (5-52)
4 6 3
2 3
+ + + s s s (5-53)
Igualando las ecuaciones
3 2 · +
D
K (5-54)
despejando
1 ·
D
K
6 5 . 0 5 . 2 · +
P
K (5-55)
7 ·
P
K
4 5 . 0 ·
I
K (5-56)
8 ·
I
K
5.1.5. Discretización del controlador
Para la discretización del controlador se usa el método de integración
trapezoidal por obtener una mejor muestra de la señal en tiempo continuo.
| ) | )
) 1 (
/ / 2 2 / / 2 /
) (
2

+ − − + + +
·
Z Z
T K Z T K K TK Z T K TK K
z Gc
D D p I D i p
(5-57)
Sustituyendo los valores
| )| ) | ) | ) | )| ) | ) | )| ) | ) | )
) 1 (
1 . 0 / 1 1 . 0 / 1 2 7 2 / 8 1 . 0 1 . 0 / 1 2 / 8 . 0 1 . 0 7
) (
2

+ − − + + +
·
Z Z
Z Z
z Gc (5-58)
Al realizar lo cálculos
) (
) (
) 1 (
10 6 . 26 4 . 17
) (
2
Z e
Z U
Z Z
Z Z
z Gc ·

+ −
· (5-59)
| ) | ) ) ( 10 6 . 26 4 . 17 ) (
2 2
Z e Z Z Z U Z Z + − · − (5-60)
Despejando ) (Z U
| ) | ) | ) Z e Z Z Z U Z
2 1 1
10 6 . 26 4 . 17 ) ( 1
− − −
+ − · − (5-61)
) ( 10 6 . 26 ) ( 4 . 17 ) ( ) (
2 1 1
Z e Z Z Z e Z U Z Z U
− − −
+ − · − (5-62)
Expresando en función de K
) 2 ( 10 ) 1 ( 6 . 26 ) ( 4 . 17 ) 1 ( ) ( − + − − · − − K e K e K e K U K U (5-63)
) 1 ( ) 2 ( 10 ) 1 ( 6 . 26 ) ( 4 . 17 ) ( − + − + − − · K U K e K e K e K U (5-64)
5.1.6. Sintonización de controladores PID utilizando algoritmos evolutivos
en línea
La sintonización del controlador PID consiste en darle los valores adecuado a
los parámetros del controlador
D
K ,
I
K y
P
K de forma que puedan estabilizar el
sistema de una forma rápida sin alterar el comportamiento del mismo.
Los datos de la planta y el controlador ya fueron discretizados anteriormente
para poder ser evaluados por el algoritmo. Como los parámetros que se tiene
del sistema son números reales, lo mas apropiado para el diseño del fue el uso
de estrategias evolutivas.
En este caso se mira el comportamiento en línea del sistema donde se van
cambiando en cada generación los nuevos individuos (constantes) para el
mejor funcionamiento del sistema. El algoritmo se desarrollo en Matlab por la
accesibilidad que de este se tiene en la universidad y por cumplir con todos los
requisitos necesario para su ejecución. El programa principal inicia con los
valores teóricos de las constantes que luego son evaluadas por el controlador y
la planta. Ya teniendo el error pasan al algoritmo donde las constantes son
recalculadas por el gradiente de este.
Para una mejor comprensión se presenta el diagrama de flujo de la figura 5.3
Figura 5.3. Diagrama de flujo del algoritmo en línea
k b a sp tol alfa t u ek ek ek y y , , , , , , , 1 , 2 , 1 , , 2 , 1 Son los valores de entrada del algoritmo
1 , 1 , 1 ki kp kd Son las constantes del controlador para el sistema masa- resorte
m Es un vector para crear las segundas constantes del sistema
h Es la variable que contabiliza el tiempo
5.1.6.1. Validación del algoritmo en línea
Para validar el algoritmo se incluirá las cuantificaciones del sistema masa-
resorte ya descrito. Primero se simulara con todos los valores iguales a cero
por lo que el sistema se estabiliza en cero como se puede ver en la figura 5.4.
5.4. Salida del sistema con condiciones iniciales cero
Ahora las condiciones iniciales permanecen excepto el set point que se cambia
a 1, por lo que se espera que el sistema estabilice en este valor como se
observa en la figura 5.5.
Figura 5.5. Sistema con condiciones iniciales cero y set point 1
Ya dándole valores a todas las condiciones iniciales del sistema. La salida se
puede observar en la figura 5.6.
Figura 5.6. Sistema con valores diferentes de cero y set point 1
Figura 5.7. Sistema con set point negativo
Ya teniendo el sistema estabilizando, se procede a incluir algunas variaciones
en la planta para observar como se comporta el sistema.
Figura 5.8. Sistema con variaciones en la planta, set point 3
Figura 5.9. Sistema con variaciones en la planta, set point 6
Cambiado el set point del sistema con el algoritmo en ejecución.
Figura 5.10. Sistema con cambio de set point
Cambiando el gradiente de descendente a ascendente.
Figura 5.11. Sistema con gradiente ascendente
5.2. Circuito LRC
Figura 5.12. Circuito LRC
El circuito de la figura 5.12 esta formado por una inductancia L (henry), una
resistencia R (ohm), y una capacitancia C (farad). Aplicando la ley de voltaje
de Kirchhoff al sistema, se obtiene las ecuaciones:

· + +
i
e idt
C
Ri
dt
di
L
1
(5-65)

·
0
1
e idt
C
(5-66)
Las ecuaciones 5-65 y 5-66 dan un modelo matemático del circuito
Hallando la función de transferencia
1
1
) (
) (
2
0
+ +
·
RCs LCs s e
s e
i
(5-67)
Dándole valores numéricos a la función de transferencia
R = 4 C =2 L =1
1 8 2
1
) (
2
+ +
·
s s
s G (5-68)
Discretizando la función de transferencia 5-68 se obtiene
2 8 . 4 81 . 2
01 . 0
) (
) (
2
2
+ −
·
Z Z
Z
Z U
Z y
(5-69)
Y la ecuación de la planta discretizada para el algoritmo es
) 2 ( 7117 . 0 ) 1 ( 7081 . 1 ) ( 00355 . 0 ) ( − − − + · k y k y k UU k y (5-70)
Al aplicar el método de asignación de polos las constantes obtenidas son:
11 ·
P
K
9 ·
I
K
4 − ·
D
K
Entonces el controlador en forma discreta resulta
Z Z
Z Z
Z G

− + −
·
2
2
40 45 . 69 55 . 28
) ( (5-71)
Y el controlador en forma discreta para el algoritmo es
) 1 ( ) 2 ( 40 ) 1 ( 45 . 69 ) ( 55 . 28 ) ( − + − − − + − · k U k e k e k e k U (5-72)
La salida del algoritmo para el circuito se puede observar en la figura 5.13
Figura 5.13. Salida del circuito LRC para el algoritmo
5.3. Sistema de levitación magnética
El sistema de suspensión magnética que permite mantener levitada una
pequeña esfera metálica de masa m. El objetivo del controlador será regular el
valor de la corriente del circuito del electroimán de tal forma que la esfera se
mantenga suspendida a una distancia constante X x · del electro magneto. La
tensión o voltaje aplicado al circuito ) (t v y actúa como una variable de control.
Figura 5.14. Sistema de levitación magnética
Las ecuaciones que describen el sistema son:
) (t v Ri i L + − · ′ (5-73)
x
Ci
mg fm mg x m
2
− · − · & & (5-74)
Despejando las ecuaciones del sistema en forma matricial y despejando
]
]
]
]
]
]
]
]



·
]
]
]
]
]

L
R
mX
C
mXg
C
X
g
x
x
x
0 0
2
0
0 1 0
3
2
1
&
&
&
]
]
]
]
]
]

+
]
]
]
]
]

L
x
x
x
1
0
0
3
2
1
(5-75)
| }
]
]
]
]
]

·
3
2
0 1 0
x
x
x
c (5-76)
Al analizar la controlabilidad el determinante de S es
3
4
mXL
Cg
S

· (5-77)
Lo que define que el sistema es controlable
Para la observabilidad el determinante de V es
L mX
C
mgX
CRg
V
2
2 −
· (5-78)
Por consiguiente el sistema también es observable
5.3.1. Función de transferencia
Partiendo de la ecuación 5-8
D B A SI C s G + − ·
−1
) ( ) (
Entonces
mXL
C
mgX
Cs
LX
Rg
s
X
g
s
L
R
s
s G
2
1
) (
2 3

− − +
· (5-79)
Dándole valores numéricos a la función de transferencia anterior
90 · g 40 · C 30 · m 5 · X 25 · L 50 · R
Y sustituyendo en 5-79 se obtiene
81 . 81 18 2
691918 . 0
) (
2 3
− − +

·
s s s
s
s G (5-80)
Discretizando la planta
| )
1 2 . 3 22 . 3 93819 . 0
003919 . 0
) (
2 3
2 3
− + −
− −
·
Z Z Z
Z Z
Z G (5-81)
) 3 ( 0658 . 1 ) 2 ( 4108 . 3 ) 1 ( 4321 . 3 ) 1 ( 004177 . 0 ) ( 004177 . 0 ) ( − + − − − + − + − · k y k y k y k U k U k y (5-82)
5.3.2. Calculo del controlador
Las constantes obtenidas por el método de asignación de polos
2062 . 10 − ·
D
K
598 . 300 − ·
I
K
7167 . 109 − ·
P
K
Usando el método de rectangular atrasada el controlador en forma discreta
seria
Z Z
Z Z
Z G

− + −
·
2
2
06 . 102 78 . 283 77 . 211
) ( (5-83)
) 1 ( ) 2 ( 062 . 102 ) 1 ( 786 . 283 ) ( 778 . 211 ) ( − + − − − + − · k U k e k e k e k U (5-84)
Por tanto la salida del sistema de levitación ante la simulación en el algoritmo
se puede observar en la figura 5.15.
Figura 5.15. Salida del algoritmo para el sistema de levitación
5.4. MODELO DEL EVAPORADOR
El tanque esta sellado herméticamente para que no se pierda ninguna
sustancia ya que puede ser corrosiva o tóxica y lo ideal del sistema es purificar
la sustancia sin perder nada.
Figura 5.16. Sistema del evaporador
El sistema tiene dos tubos de entrada. El primero es por donde llega la
sustancia a purificar y el segundo es el vapor (agua pura destilada caliente, no
tiene ningún compuesto adicional). Ambas entradas se mezcla en el tanque y
salen por la parte de arriba del tanque donde la presión que se mide es critica.
Luego van a un separador donde la sustancia más densa (a purificar) se
acumula en la parte de abajo el vapor con algunas moléculas de la sustancia
con que mezclo anteriormente. El vapor pasa a un condensador donde es
refrigerado ya que no se puede dejar que salga así al ambiente porque puede
oxidar los elementos que estén por ahí. En el separador ahí un sensor de
calidad que indica si la sustancia (producto) ya es optimo o tendría que
repetirse el proceso. Si el proceso es óptimo sale por la válvula.
Hay dos partes importantes para la descripción del modelo matemático:
• La primera parte deriva un modelo mecánico no lineal con asunciones
mayores expresadas, las variables definidas y parámetros dados.
• la segunda parte deriva una descripción del espacio de estado lineal en
la forma normalizada evaluando los apropiados elementos jacobianos.
5.4.1. Modelo no lineal
Los nombres de las variables, descripciones, los valores del estado estable
estándar, y las unidades manejadas se muestran en la tabla 5-1. El solvente es
el agua y el soluto es el no volátil.
Variable Descripción Valor Unidad
F1 Flujo de alimentación 10.0 Kg/min
F2 Flujo del producto 2.0 Kg/min
F3 Flujo de recirculación 510.0 Kg/min
F4 Flujo de vapor 8.0 Kg/min
F5 Flujo de condensación 8.0 Kg/min
X1 Composición de alimentación 5.0 Porcentaje
X2 Composición del producto 25.0 Porcentaje
T1 Temperatura de alimentación 40.0 Grados ºC
T2 Temperatura del producto 84.6 Grados ºC
T3 Temperatura de vapor 80.6 Kg/min
L2 Nivel del separador 1. Metros
P2 Presión de operación 50.5 kPa
F100 Flujo de vapor 5.3 Kg/min
T100 Temperatura de vapor 119.9 Kg/min
P100 Presión de vapor 194.7 kPa
Q100 Ciclo de calentamiento 539.0 kW
F200 Flujo de agua de enfriamiento 208.0 Kg/min
T200 Temperatura de agua de
enfriamiento
25.0 Grados ºC
T201 Temperatura de la salida del agua
de enfriamiento
46.1 Grados ºC
Q200 Ciclo de condensación 307.9 kW
Tabla 5-1. Variables del evaporador
5.4.2. Proceso de balance de masa líquida
Un balance de masa sobre el líquido total del proceso (solvente y soluto) in el
sistema produce:
2 4 1 / 2 F F F dt AdL − − · ρ (5-85)
Donde: ρ es la densidad del líquido
A es el área de cruce seccional del separador
El producto A ρ es asumido paras ser constante como 20 Kg/m
5.4.3. Proceso de balance de masa líquida del soluto
Un balance de masa sobre el soluto en el proceso de la fase líquida produce:
2 2 1 1 / 2 X F X F dt MdX − · (5-86)
Donde M es la cantidad de líquido en el evaporador y es asumido para ser
constante como 20 Kg
5.4.4. Proceso de balance de masa de vapor
Un balance de masa sobre el vapor del proceso en el evaporador expresara la
masa total del vapor de agua en términos de la presión que existe en el
sistema:
5 4 / 2 F F dt CdP − · (5-87)
Donde C es una constante que convierte la masa de vapor en una presión
equivalente y se asume que tiene un valor de 4 Kg/ kPa. Esta constante puede
ser derivada de la ley de gas ideal.
5.4.5. Proceso de balance de energía líquida
El líquido del proceso se asume para existir en este punto de ebullición y ser
mezclado perfectamente (asistido por la tasa alta de circulación).
La temperatura del líquido es:
43 . 48 2 3126 . 0 2 5616 . 0 2 + + · X P T (5-88)
La cual es un linealización de la línea líquida saturada para el agua sobre el
valor estándar del estado estable e incluye un término para aproximar la
elevación del punto de ebullición debido a la presencia del soluto.
La temperatura del vapor es:
0 . 55 2 507 . 0 3 + · P T (5-89)
La cual es un linealización de la línea líquida saturada para el agua sobre el
valor estándar del estado estable.
La dinámica del balance de energía es asumida para ser muy rápida así que:
λ / )) 1 2 ( 1 100 ( 4 T T C F Q F
p
− − · (5-90)
Donde
p
C es la capacidad de calor del licor y la constante se asume como un
valor de 0.07kW/K (Kg/min) y λ es el calor latente de vaporización del licor y es
asumida para tener un valor constante de 38.5kW / (Kg/min).
El sensible cambio de calor entre 2 T y 3 T para 4 F es considerado pequeño
comparado con el calor latente. Esto asume que no hay ninguna pérdida de
calor al ambiente o ganancias de calor de la entrada de energía de la bomba.
5.4.6. Envoltura del vapor caliente
La presión de vapor 100 P es una variable manipulada qué determina la
temperatura de vapor bajo la suposición de condiciones saturadas. Una
ecuación que relaciona la temperatura de vapor para la presión del vapor
puede ser obtenida aproximando la relación temperatura de vapor saturada -
presión por linealización loca sobre el valor en estado estable:
0 . 90 100 1538 . 0 100 + · P T (5-91)
La tasa de transferencia de calor para el proceso de ebullición del líquido es
dado por:
) 2 100 ( 1 100 T T UA Q − · (5-92)
Donde 1 UA es el coeficiente de tiempo de transferencia de calor completo el
área de transferencia de calor y es una función del flujo total a través de los
tubos en el evaporador:
) 3 1 ( 16 . 0 1 F F UA + · (5-93)
La rata de vapor es calculado de:
s
Q F λ / 100 100 · (5-94)
Donde
s
λ es el calor latente de vapor en la condición de saturación, asumido
como un valor constante de 36.6 kW/(Kg/min).
La dinámica dentro de la envoltura del vapor ha sido asumida para ser muy
rápida.
5.4.7. Condensador
El flujo de agua de enfriamiento 200 F es una variable manipulada y la entrada
de temperatura 200 T es una variable de perturbación.
Un balance de energía de agua de enfriamiento produce:
) 200 201 ( 200 200 T T C F Q
p
− · (5-95)
Donde
p
C es la capacidad de calor del agua de enfriamiento asumida como una
constante de 0.07kW/(Kg/min)
La ecuación de la tasa de transferencia de calor es aproximada por:
)) 201 200 ( 5 . 0 3 ( 2 200 T T T UA Q + − · (5-96)
Donde 2 UA es un coeficiente de tiempo de transferencia de calor completo el
área de transferencia de calor, la cual es asumida con un valor constante de
6.84kW/K.
Estas dos ecuaciones pueden ser combinadas para eliminar 201 T para dar
explícitamente:
) 200 2 /( 2 1
) 200 3 ( 2
200
F C UA
T T UA
Q
p
+

· (5-97)
Sigue que:
) 200 /( 200 200 201
p
C F Q T T + · (5-98)
El flujo de condensación es:
λ / 200 5 Q F · (5-99)
Donde λ es el calor latente de vaporización de agua asumido como una
constante de 38.5kW/K(K/min)
La dinámica dentro del condensador ha sido asumida para ser muy rápida.
5.4.8. Modelo matemático del evaporador
La ecuación en espacio de estados es
Dd By Ax X + + ·
&
(5-100)
Y la salida esta dada por
cx y · (5-101)
Calculando la ecuación en espacio de estados del sistemas
Dd Bu x A SI + · − ) ( (5-102)
Despejando x
| ) | } Dd Bu A SI x + − ·
−1
(5-103)
Despejando y
| ) | } Dd Bu A SI C y + − ·
−1
(5-104)
| ) | ) Dd A SI C Bu A SI C y
1 1 − −
− + − · (5-105)
Al linealizar el sistema se obtiene las matrices
]
]
]
]
]

× − ×
− ·
− − 1 1
10 54738 . 0 10 10340 . 0 0
0 1 . 0 0
37935 . 0 10445 . 0 0
A (5-106)
]
]
]
]
]

× ×


·
− − 2 1
10 75272 . 0 10 36914 . 0 0
0 0 01 .
0 37266 . 0 1 . 0
B (5-107)
]
]
]
]
]

·
1 0 0
0 1 0
0 0 1
C (5-108)
]
]
]
]
]

× × ×
× − −
·
− − −

1 2 2
1
10 17785 . 0 10 35972 . 0 0 10 32268 . 0 36302 . 0
0 0 1 . 0 1 . 0 0
0 10 3636 . 0 0 38605 . 0 36676 . 0
D (5-109)
Iniciando los calculo de las ecuaciones por la matriz A SI −

,
`

.
|
× − × −
− −

,
`

.
|
· −
− − 1 1
10 54738 . 0 10 10340 . 0 0
0 1 . 0 0
37935 . 0 10445 . 0 0
0 0
0 0
0 0
s
s
s
A SI (5-110)
Realizando la operación, reemplazando la matriz 5-86

,
`

.
|
× + ×
+

· −
− − 1 1
10 54738 . 0 10 10340 . 0 0
0 1 . 0 0
37935 . 0 10445 . 0
s
s
s
A SI (5-111)
Calculando la inversa de la matriz
| )
A SI
A SAI Adj
A SI


· −

) (
1
(5-112)
Se inicia calculando el determinante de la matriz
| )| )
1
1 1
10 54738 . 0 1 . 0
10 54738 . 0 10 10340 . 0
0 1 . 0

− −
× + + ·
]
]
]

× + ×
+
· − s s s
s
s
s A SI
(5-13)
| )| ) s s s s s s A SI 0054738 . 0 154738 . 0 10 54738 . 0 1 . 0
2 3 1 2
+ + · × + + · −

(5-114)
Para calcular la adjunta se procede a conseguir los cofactores
| )| )
1
1 1
10 54738 . 0 1 . 0
10 54738 . 0 10 10340 . 0
0 1 . 0
11

− −
× + + ·
× + ×
+
· s s
s
s
A (5-115)
0054738 . 0 154738 . 0 11
2
+ + · s s A (5-116)
0
10 54738 . 0 0
0 0
12
1
·
× +
·

s
A (5-117)
0
10 10340 . 0 0
1 . 0 0
13
1
·
× +
+
·

s
s
A (5-118)
| )| )
| )| ) ]
]
]
]

× −
− × + −
− ·
× + ×
− −
− ·


− −
1
1
1 1
10 10340 . 0 37935 . 0
10 54738 . 0 10445 . 0
10 54738 . 0 10 10340 . 0
37935 . 0 10445 . 0
21
s
s
A
(5-119)
| ) | } 0017949051 . 0 10445 . 0 003922749 . 0 0057173841 . 0 10445 . 0 21 + · − − − − − · s s A (5-120)
s s
s
s
A
1 2
1
10 54738 . 0
10 054738 . 0 0
37935 . 0
22


× + ·
× +

· (5-121)
s
s
A
1
14
10 10340 . 0
10 10340 . 0 0
10445 . 0
23


× − ·
×

− · (5-122)
| )| ) | } 037935 . 0 37935 . 0 37935 . 0 1 . 0
0 1 . 0
37935 . 0 10445 . 0
31 + · − + − ·
+
− −
· s s
s
A (5-123)
0
0 0
37935 . 0
32 ·

− ·
s
A (5-124)
| ) s s s s
s
s
A 1 . 0 1 . 0
1 . 0 0
10445 . 0
33
2
+ · + ·
+

· (5-125)
Reemplazando los cofactores de 5-96 a 5-104
Matriz de cofactores
]
]
]
]
]

+ − −
× − × + +
+ +
·
− −
s s s
s s s s
s s
Mc
1 . 0 0 037935 . 0 37935 . 0
10 10340 . 0 10 54738 . 0 0017949051 . 0 10445 . 0
0 0 0054738 . 0 154738 . 0
2
1 1 2
2
(5-126)
Transponiendo la matriz
]
]
]
]
]

+ × −
× +
+ + +
· −


s s s
s s
s s s s
A SI Adj
1 . 0 10 10340 . 0 0
0 10 54738 . 0 0
037935 . 0 37935 . 0 0017949051 . 0 10445 . 0 0054738 . 0 154738 . 0
) (
2 1
1 2
2
(5-127)
Ya teniendo la inversa de A SI − se multiplica por la matriz C
s s s
s s s
s s
s s s s
A SI C
0054738 . 0 154738 . 0
1 . 0 10 10340 . 0 0
0 10 54738 . 0 0
037935 . 0 37935 . 0 0017949051 . 0 10445 . 0 0054738 . 0 154738 . 0
) (
2 3
2 1
1 2
2
1
+ +
]
]
]
]
]

+ × −
× +
+ + +
· −



(5-128)
Luego se multiplica por B
s s s
s s s s
s s
s s s s
B A SI C
0054738 . 0 154738 . 0
00075 . 0 10 752 . 0 0036 . 0 10 36914 . 0 001034 . 0
0 0 0054 . 0 1 . 0
00028 . 0 0028 . 0 0034 . 0 0716 . 0 3726 . 0 0072 . 0 0259 . 0 1 . 0
) (
2 3
2 2 2 1
2
2 2
1
+ +
]
]
]
]
]

− × − + ×
− −
− − + + − − −
· −
− −
− (5-129)
Inicialmente sin tener en cuenta las perturbaciones del sistema
s s s
s s
s p
s p
0054738 . 0 154738 . 0
0036914 . 0 10 36914 . 0
) (
) (
2 3
2 1
100
2
+ +
+ ×
·

(5-130)
Simplificando
) 0054738 . 0 154738 . 0 (
) 0036914 . 0 10 36914 . 0 (
) (
) (
2
1
100
2
+ +
+ ×
·

s s s
s s
s p
s p
(5-131)
Y en forma discreta es
1 01547 . 2 015528 . 1
006914 . 0 00365 . 0
) (
) (
2
2
− −

·
Z Z
Z Z
Z U
Z y
(5-132)
) 2 ( 984 . 0 ) 1 ( 984 . 1 ) 1 ( 0068 . 0 ) ( 0035 . 0 ) ( − − − + − − · k y k y k U k U k y (5-133)
Al calcular los polos del sistema
0054738 . 0 154738 . 0
2
+ + s s (5-134)
1 . 0
1
− · s
0054738 . 0
2
− · s
El sistema es sobre amortiguado. Tiene un polo en y otro en -0.054738, por
tanto los tiempos de respuesta son 10 seg. Y 18.25 seg. respectivamente,
entonces se toma 18.25seg por corresponder al polo mas cercano al origen
(dominante). Por lo tanto
I
T no puede ser menor que 18.25seg.
Teniendo las condiciones de funcionamiento del sistema se pueden obtener las
constantes del mismo
4828 . 1 ·
P
K
008125 . 0 ·
I
K
674 . 0 ·
D
K
El controlador en forma discreta seria
Z Z
Z Z
Z G

+ −
·
2
2
74 . 6 962 . 14 2268 . 8
) ( (5-135)
) 1 ( ) 2 ( 74 . 6 ) 1 ( 962 . 14 ) ( 2268 . 8 ) ( − + − + − − · k U k e k e k e K U (5-136)
Llevando las constantes del sistema al algoritmo en línea.
Figura 5.17. Evaporador con algoritmo en línea
Ahora teniendo en cuenta las perturbaciones
s s s
s s s s s s s s s
s s s s
s s s s s s s s
D A SI C
0054738 . 0 154738 . 0
0017 . 0 10 17 . 0 000359 . 0 10 359 . 0 00103 . 0 00071 . 0 10 322 . 0 03630 . 0 36302 . 0
0 0 0054 . 0 1 . 0 0054 . 0 1 . 0 0
00013 . 0 0011 . 0 00019 . 0 0056 . 0 10 36 . 0 00017 . 0 0104 . 0 002 . 0 0714 . 0 386 . 0 002 . 0 056 . 0 366 . 0
) (
2 3
2 1 2 2 2 2 2
2 2
2 1 2 2
1
+ +
]
]
]
]
]

+ × + × − − × +
+ +
+ − − × − + + + − − −
· −
− − −


Tomando la perturbación
s s s
s s
s F
s p
0054378 . 0 154738 . 0
036302 . 0 36302 . 0
) ( 3
) (
2 3
2
2
+ +
+
· (5-137)
Discretizando la función
1 0154 . 2 01552 . 1
0036302 . 0 03593 . 0
) ( 3
) (
2
2
2
+ −

·
Z Z
Z Z
Z F
Z p
(5-138)
) 2 ( 9847 . 0 ) 1 ( 9846 . 1 ) 1 ·( 03574 . 0 ) ( 3 0353 . 0 ) (
2
− − − + − − · k p k p k F k F Z p (5-139)
La perturbación tomada es el flujo de recirculación 3 F .
Esta es sumada a la señal de entrada y al igual que el modelo anterior
evaluado en el algoritmo. Como se puede ver en la figura 5.18 el sistema inicial
mente tiene un sobre impulso que luego de un tiempo se va estabilizando.
Figura 5.18. Salida del sistema con perturbación
5.5. Sintonización de controladores PID utilizando algoritmos evolutivos
fuera de línea
Para el trabajo del algoritmo fuera de línea se hace con pocos individuos y se
comienza con una población aleatoria, donde la función objetivo también es
minimizar el error y el criterio de para es el tiempo. Ahora el mejor individuo no
es cambiado en cada generación, sino que los datos van siendo almacenados
y luego de terminadas las iteraciones a los dos mejores individuos se le aplican
los operadores de mutación y cruce para obtener el nuevo para ser
reemplazado por el peor. En este caso también se prueba con los sistemas ya
descritos.
5.5.1. Sistema mecánico: masa –resorte
Las constantes teóricas del sistema son
1 ·
D
K
8 ·
I
K
7 ·
P
K
Inmediatamente de ser evaluada por el algoritmo los mejores individuos
seleccionados y reemplazados son
0889 . 1
1
·
D
K
1584 . 8
1
·
I
K
1231 . 7
1
·
P
K
5.5.2. Circuito LRC
Los parámetros iniciales del controlador son
11 ·
P
K
9 ·
I
K
4 − ·
D
K
Y cambian a la salida del algoritmo por
0406 . 11
1
·
P
K
0397 . 9
1
·
I
K
9722 . 3
1
− ·
D
K
5.5.3. Sistema de levitación magnética
Inicialmente las constantes están dadas por
2062 . 10 − ·
D
K
598 . 300 − ·
I
K
7167 . 109 − ·
P
K
A la evaluación del algoritmo pasan a ser
2031 . 10
1
− ·
D
K
5090 . 300
1
− ·
I
K
4673 . 109
1
− ·
P
K
5.5.4. MODELO DEL EVAPORADOR
Teóricamente las constantes del evaporador son
4828 . 1 ·
P
K
008125 . 0 ·
I
K
674 . 0 ·
D
K
Y a la salida del algoritmo son
5878 . 1
1
·
P
K
0487 . 0
1
·
I
K
8084 . 0
1
·
D
K
6. ANÁLISIS ECONÓMICO Y ADMINISTRATIVO
En el desarrollo de este trabajo no se realizo implementación, por lo cual los
gasto son netamente de la investigación realizada.
• Documentación en Internet $ 100.000
• Fotocopias $ 100.000
• Impresiones $ 100.000
• Honorarios profesionales (Director) $ 200.000
TOTAL $ 500.000
Los recursos utilizados para cubrir los gastos de la elaboración de este trabajo
fueron de recursos propios.
El impacto Económico: este desarrollo construye un soporte para el posterior
desarrollo de una herramienta computacional de aplicación industrial que
pueda ser registrada, por lo que se pudiera tener ingresos económicos por la
comercialización de la misma. A la hora de ser implementada en plantas
industriales generaría menos perdidas en la elaboración de los productos, ya
que los equipos seguirían funcionando normalmente al ser resintonizandos los
puntos de operación cuando ocurra algún comportamiento no debido ocurra.
7. ANÁLISIS DE LEGALIDAD
Para la implementación de la herramienta computacional para la sintonización
de controladores PID se utilizó el software de Matlab. La Universidad de
Pamplona posee las licencias requeridas para ser usado por estudiantes,
investigadores y profesores vinculados a esta.
En el caso de implantación no se hace indispensable este software, cualquier
lenguaje de programación que posea las herramientas necesarias puede ser
utilizado.
8. INFLUENCIA AMBIENTAL
El funcionamiento inadecuado de las plantas industriales debido al desgaste,
vencimiento del tiempo útil de uso, factores externos de algunos equipos, etc.,
podría generar gases y sustancias nocivas para la salud del personal a cargo y
además contaminantes para el ambiente.
Este algoritmo traería beneficios no solo en la operación apropiada de procesos
o sistemas, sino que también reduce la emisión de residuos tóxicos a la
atmósfera, y el consumo de energía en la planta.
CONCLUSIONES
• El uso de algoritmos evolutivos para la sintonización de controladores
PID constituye un novedoso enfoque de resolución de problemas, con
excelentes potencialidades en el campo de las aplicaciones industriales.
• El desarrollo de este trabajo permitió el diseño de un algoritmo evolutivo
que logra la reentonación de controladores del tipo PID cuando ocurre
falla de algún componente del sistema.
• Los resultados alcanzados en el trabajo pueden ser visualizados como el
punto de partida para el desarrollo de investigaciones de punta en el
área de la sintonización de controladores industriales.
• El enfoque de desarrollo y el algoritmo propuesto no representa riesgos
para la operación segura de la planta ni para sus operarios.
• La implantación física del algoritmo de sintonización propuesto no
conlleva a gastos elevados en comparación con otros esquemas de
sintonización corrientemente utilizados en la práctica.
• Vale la pena recalcar, que una de las ventajas novedosas del enfoque
de sintonización propuesto está en permitir la continuación de la
operación de la planta, aún ante la presencia de perturbaciones o fallas
en la misma.
• Es notable la reducción del tiempo para acometer la sintonización de un
controlador PID, en comparación con el tiempo utilizado empleando
otros enfoques.
• El algoritmo puede ser utilizado exitosamente para sistemas dinámicos
de segundo y tercer orden, de los cuales se dispone de modelos
matemáticos representativos de sus comportamientos.
• El algoritmo de sintonización propuesto fue validado utilizando señales
de perturbación sobre los procesos considerados.
• Para propósitos ilustrativos, el algoritmo propuesto fue implantado en la
sintonización de controladores PID en una planta de evaporación,
utilizando un modelo matemático representativo de la misma.
• El trabajo ejecutado puede servir de base para el desarrollo de otros
proyectos de grado, tanto a nivel de pregrado como de postgrado.
• Todos los objetivos propuestos al inicio de este proyecto fueron
satisfactoriamente acometidos.
RECOMENDACIONES
• Para el caso del algoritmo en línea, se puede utilizar para cualquier
proceso. Es mas optimo y robusto (al variar la incertidumbre el
controlador no pierda su correcto funcionamiento) pero mas bajo un
punto de operación (no aleatorio sobre métodos convencionales).
• En el caso en línea se recomienda utilizar un computador con
procesador más rápido que el tiempo de respuesta del sistema.
• Con una posible implementación para sistemas d otra naturaleza tener
en cuenta la población, función de aptitud, tipo de operadores, y los
parámetros de población, generación probabilidad de cruce y
probabilidad de mutación
• En lo posible para realizar estudios sobre el concepto de robustez para
incluirlo dentro del algoritmo.
• Estudiar la posibilidad de ser implantado en algún proceso industrial
para ir obteniendo mejoras de este.
BIBLIOGRAFIA
[1] www.habitat.aq.upm.es .boletin/n21/amher1.html . Abril de 2004
[2] www.Informáticaevolutiva.com Algoritmosgenéticos.html, Juan Julián Merelo
Guervós, jmerelogeneura.ugr.es. Agosto de 2003
[3] www.inteligenciaartificialc.com .La Computación Evolutiva en el Contexto de
la Inteligencia Artificial.htm, Carlos A. Coello Coello, Copyright 1997 LANIA,
A.C.
[4] Computación Evolutiva. Francisco Hidrovo Torres- José L. Aguilar Castro.
Universidad de Los Andes. Merida, Venezuela
[5] \GAIA Computación Evolutiva.htm. Marzo 2005
[6] yo@alfredorahn.com, yelitzayoleth@mipunto.com .AG_Bivariado.pdf
Septiembre de 2003
[7] González Heli, Larrazábal Germán, Loyo Jacqueline, helijesusg@cantv.net.
Algoritmo Evolutivo Paralelo para Problemas de Asignación Cuadrática - QAP -
ilustrados_com.htm. Publicado sábado 31 de enero de 2004
[8] computación evolutiva.pdf, Andrés Romero Rodríguez, Mario Linares
Vásquez, XIV CNEIS, Marzo 16 - 2005
[9] EVOLUTIONARY ALGORITHMS.J. Madar and J. Abonyi (2005). EAfull.pdf
[10] IFAC PROFESSIONAL BRIEF. Genetic algorithms in control systems
engineering. P. J. Fleming http://www.shef.ac.uk/~acse/people/p.j.fleming/,
R. C. Purshouse www.shef.ac.uk/~acse/research/students/r.c.purshouse/.
Department of Automatic Control and Systems Engineering. University of
Sheffield, UK. PB_Fleming_Purshouse.pdf. 2005
[11] estructuras-FIN.pdf, ING. PHD. GUILLERMO FRANCO, Noticreto Nº 72.
Algoritmos evolutivos en ingeniería. Agosto- Septiembre- Octubre de 2004
[12] Pablo Estévez valencia. Chile, agosto 1997.
pestevez@tamarugo.cec.uchile.cl. optimizacion.pdf
[13] Computación Evolutiva eXactas_org La Universidad Evolutiva_
Comunidad Estudiantil de formación interdisciplinaria.htm abril de 2002 por los
estudiantes de la F.C.E.I.A. (U.N.R.).
[14] Computación Evolutiva3.htmhttp://www.aic.nrl.navy.mil/galist/, 2001
[15] [Alba/Cotta] Alba, E. Cotta, C. Tutorial de Algoritmos Evolutivos.
http://polaris.lcc.uma.es/~ccottap/semEC/. algoritmosGeneticos.pdf. 2001
[16] yelitzayoleth@mipunto.com, yo@alfredorahn.com, GMSP_paper.pdf. Junio
de 2002
[17] Dr. Alejandro Guerra Hernández. aguerra@uv.mx, www.uv.mx/aguerra.
México Abril 1, 2004
[18] ttp://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_Evoluci%C3%B3n1. 6:43
25 ago, 2005. El contenido está disponible bajo los términos de la GNU Free
Documentation License
[19] Universidad Nacional del Nordeste .Fac. De Agroindustrias, Sáenz Peña,
Chaco. Fac. Ciencias Agrarias, Corrientes República Argentina. ©1998-
2004.http://www.biologia.edu.ar.
http://fai.unne.edu.ar/biologia/evolucion/evo1.htm
[20] Publicación enviada por Aberto García. Código ISPN de la Publicación:
EpyyupVuyulSAOLqUy. Publicado Friday 17 de October de 2003
http://www.ilustrados.com/publicaciones/EpyyupVuyulSAOLqUy.php
[21] 1997 Lucas Morea / Sinexi S.A
http://www.monografias.com/trabajos/reproduccion/reproduccion.shtml
[22] introducción a la computación evolutiva cap1.pdf
[23] algoritmos evolutivos cap7.pdf
[24] María Teresa Iglesias Otero. Universidad de la Coruña. totero@udc.es
pg02-03-iglesias .pdf. 2002,2003
[25] REDcientifica - Computación Evolutiva - Manuel de la Herrán Gascón.htm.
18 de Enero de 2002
[26] computación evolutiva Carlos a Coello, abril de 2005
[27] Algoritmos Genéticos. eXactas_org. La Universidad Evolutiva_ Comunidad
Estudiantil de formación interdisciplinaria.htm abril de 2002 por los estudiantes
de la F.C.E.I.A. (U.N.R.).
[28] Algoritmos genéticos y computación evolutiva.htm, Adam Marczyk,
traducción Gabriel Rodríguez Alberich., octubre de 2004
[29] Características de los algoritmos genéticos.htm. David Santo Orcero
Palabras claves. Octubre de 2003
[30] BENYAMIN KUSUMOPUTRO. Computational Intelligence Research
Laboratory Faculty of Computer Science, University of Indonesia Depok
Campus, INDONESIA. kusumo@cs.ui.ac.id. 19 de Noviembre de 2003
[31] Control Automatico 1. http://iaci.unq.edu.ar/caut1. Automatización y Control
Industrial. Universidad Nacional de Quilmas. Virginia Mazon. Marzo 2002
[32] Ingeniería De Control Moderna. Katsuhiko Ogata. Tercera edición Pearson
educación.
[33] Sistemas de control automático séptima edición benjamín kuo Prentice
Hall 1996 Enrique Jacob México
[34] Universidad Simón Bolívar. Departamento de Procesos y Sistemas.
Sección de sistemas de control. Introducción al control de procesos. Prof.
Jenny Montbrun Di Filippo. Prof. Yamilet Sánchez Montero
[35] Sistemas De Control En Tiempo Discreto. Katsuhiko Ogata. Segunda
edición Pearson educación. México 1996
ANEXO
Los anexos de este trabajo se presentan en formato electrónico al respaldo del
informe o en una carpeta llamada ‘ANEXOS’ en el C.D de entrega final.
GLOSARIO DE TÉRMINOS TÉCNICOS
Alelo: Un alelo es un valor para un gen. Utilizando la definición de gen que
hace referencia a una porción de cadena genética determinada, los alelos de
ese gen serían todos los posibles valores que puede tomar ese segmento de
cadena genética. [5]
Azar, Aleatorio: sin causa, y por tanto, teóricamente impredecible, excepto en
forma de probabilidad [5]
Caos: es la situación de desorden en que, según ciertas teorías o creencias, se
encontraba el universo antes de adquirir su ordenación actual.[5]
Cromosoma: Un cromosoma está formado por un conjunto de genes. En
computación evolutiva es raro dividir la información genética en cromosomas y
éstos, a su vez, en genes. Lo habitual es que cada individuo esté formado por
un único cromosoma. Al existir ambos términos (cromosoma e individuo)
disponibles, la comunidad científica que aplica computación evolutiva los ha
utilizado para distinguir distintos matices de un mismo concepto. Así, cuando se
habla de cromosoma, se suele hacer referencia a la cadena de bits o de
símbolos que forman la entidad (genotipo). En cambio, cuando se usa el
término individuo, se hace referencia a la interpretación de estos símbolos, a su
significado como solución al problema. [5]
Diagrama en bloques: permite mostrar las conexiones y cada bloque que
representa.
Epístasis: El fenómeno de la epístasis consiste en la existencia de fuertes
vinculaciones (también llamadas "interacciones") entre los genes, de forma que
el efecto de unos genes inhibe o potencia otros, o incluso el resultado es tan
complejo que no tiene sentido considerar los efectos de los genes de forma
individual sino conjuntamente.
"El problema de la epístasis" o "el problema de la ausencia de bloques
constructores" consiste en la existencia de estas interacciones entre los genes.
Los problemas con poca epístasis son triviales, y se pueden solucionar con un
simple método de escalada. Los problemas con mucha epístasis son difíciles
de resolver, incluso para los Algoritmos Genéticos. Un problema donde todos
los genes tuvieran fuerte vinculación entre sí, es decir, cuyos efectos dependan
del valor de todos los demás genes, no sería un problema irresoluble, pero sí el
peor que nos podríamos encontrar, no sólo para las técnicas evolutivas, sino
para cualquier otro método. Sería algo así como buscar un objeto con los ojos
cerrados, y la mejor forma de tratarlo sería, lógicamente, una búsqueda
secuencial.
Error: es la diferencia entre la señal de referencia y la señal de salida real.
Estado: cantidad mínima necesaria que permite conocer la evolución de una
variable de estado.
Función fitness: Se trata de una función evaluadora de la calidad de un
individuo como solución a nuestro problema. Permite la ordenación de los
individuos de la población en cuanto a bondad de los mismos. [15]
Individuo o cromosoma: Un individuo determina una potencial solución del
problema que se pretende resolver mediante el algoritmo genético.[15]
Paradigma: Ejemplo, método, técnica, estrategia. [5]
Perturbación: es una señal que tiende a afectar la salida del sistema,
desviándola del valor deseado.
Planta: es el elemento físico que se desea controlar. Planta puede ser: un
motor, un horno, un sistema de disparo, un sistema de navegación, un tanque
de combustible, etc.
Población: Conjunto de individuos con los que se trabaja en el algoritmo
genético. En un algoritmo genético los individuos que constituyen la población
van cambiando pero generalmente el tamaño de la misma permanece
constante. [15]
Proceso: operación que conduce a un resultado determinado.
Sensor: es un dispositivo que convierte el valor de una magnitud física
(presión, flujo, temperatura, etc.) en una señal eléctrica codificada ya sea en
forma analógica o digital. También es llamado transductor. Los sensores, o
transductores, analógicos envían, por lo regular, señales normalizadas de 0 a 5
voltios, 0 a 10 voltios o 4 a 20 mA.
Señal de salida: es la variable que se desea controlar (posición, velocidad,
presión, temperatura, etc.). También se denomina variable controlada.
Señal de referencia: es el valor que se desea que alcance la señal de salida.
Señal de control: es la señal que produce el controlador para modificar la
variable controlada de tal forma que se disminuya, o elimine, el error.
Señal analógica: es una señal continua en el tiempo.
Señal digital: es una señal que solo toma valores de 1 y 0.
Sistema: consiste en un conjunto de elementos que actúan coordinadamente
para realizar un objetivo determinado.
Sistema de control en lazo cerrado: es aquel en el cual continuamente se
está monitoreando la señal de salida para compararla con la señal de
referencia y calcular la señal de error, la cual a su vez es aplicada al
controlador para generar la señal de control y tratar de llevar la señal de salida
al valor deseado. También es llamado control realimentado.
Sistema de control en lazo abierto: en estos sistemas de control la señal de
salida no es monitoreada para generar una señal de control.

UNIVERSIDAD DE PAMPLONA FACULTAD DE INGENIERIAS Y ARQUITECTURA DEPARTAMENTO DE INGENIERIA ELECTRONICA, ELECTRICA, TELECOMUNICACIONES Y SISTEMAS PROGRAMA DE INGENIERÍA ELECTRÓNICA

TRABAJO DE GRADO PARA OPTAR POR EL TITULO DE INGENIERO ELECTRÓNICO

TÍTULO: SINTONIZACION DE CONTROLADORES PID UTILIZANDO ALGORITMOS EVOLUTIVOS

AUTOR: MARÍA CLAUDIA PINTO FIGUEROA

DIRECTOR: Ph.D. ELIEZER COLINA MORLES

PAMPLONA COLOMBIA MAYO 2006

RESUMEN

En el desarrollo de

este trabajo se diseñó una herramienta computacional

basada en algoritmos evolutivos para la sintonización de controladores PID.

Inicialmente la herramienta fue empleada con técnicas fuera de línea, para varios sistemas estables e inestables a lazo abierto, con sistemas con distintos tiempos de respuesta y con sistemas no lineales; usando diferentes funciones objetivo.

Luego se trabajó con sistemas en línea, manipulando pocos individuos con una función de aptitud que tiene en cuenta el sobreimpulso y el tiempo de asentamiento, con el fin de comparar su desempeño con otras técnicas de sintonización ya existentes.

Por último se aplicaron algoritmos evolutivos en el diseño del controlador de un proceso de evaporación, tomando en cuenta la variable tasa de flujo de vapor, que depende de la tasa de transferencia de calor.

control systems with different time response as well as with some clases of non linear control system. Different objective functions were considered in order to check the performance of the evolutionary algorithm.ABSTRACT This work includes an evolutionary algorithm based computational tool design intended for PID tuning in a variety of control system configurations. The work also includes computational simulations of the evolutionary algorithm for on line tuning of PID controllers and a performance trade off with respect to other tuning techniques is presented. Finally. The computational tool was tested on open loop stable and unstable control systems. . the work contemplates the controller design problem for an evaporator system using the proposed evolutionary computational tool.

CONTENIDO INTRODUCCION OBJETIVOS JUSTIFICACION PLANTEAMIENTO DEL PROBLEMA METODOLOGIA CAPÍTULO 1.2. Cruce por emparejamiento parcial (PMX) 1.1.2.2.1. Mutaciones no uniformes 1.5. ALGORITMOS GENÉTICOS (AG) 1. Cruce por ciclos (CX) 1. MODELOS SOBRE EL ESQUEMA GENERAL 1. 1.2.7. COMPONENTES DE UN ALGORITMO EVOLUTIVO 1.7. OPERADORES 1. Cruces por orden (OX) 1.2.1.1.4.1.2. MUTACIÓN 1. Cruces para permutación 1.2.7.7. BASES BIOLÓGICAS DE LA COMPUTACIÓN EVOLUTIVA. ORIGENES 1.2.6.1.2. INTRODUCCIÓN 1.4.1.7.1.1.7.7.1.2.3. COMPUTACION EVOLUTIVA 1.2.7.7.2. Mutaciones no estacionarías 1. CODIFICACIÓN DE LAS VARIABLES 1.7.1. Mutaciones sobre genes 1.3.3.2.1.1.1.7.1. VARIANTES EN OPERADORES BÁSICOS PARA NÚMEROS REALES .7.2.2. ANTECEDENTES 1.7.7.2.2. Variantes al Cruce por orden 1. Cruce por recombinación de rutas (ERX) 1.3.1.7.2.2.2. CRUCE 1.1.1.2.

7.7. ¿CÓMO SABER SI ES POSIBLE USAR EL ALGORITMO GENÉTICO? 1. Operadores especializados 1. EES MÚLTIPLES ALGORITMOS GENÉTICOS EN LA .7. OTROS OPERADORES 1.7.13.17. PROGRAMAS EVOLUTIVOS Y ALGORITMOS GENÉTICOS 1.8.15.1.7.16.1. EES SIMPLES 1.7.9.3. PES EN OPTIMIZACIÓN PARAMÉTRICA 1.5.10.G. PROGRAMAS EVOLUTIVOS (PES) 1.7.7. Operadores de nicho (ecológico) 1. FUNCIÓN DE ADAPTACIÓN 1.9.7. PES EN OPTIMIZACIÓN COMBINATORIA 1. DECISIONES PARA IMPLEMENTAR UN ALGORITMO GENÉTICO 1.4.7.7. DESVENTAJAS O LIMITACIONES QUE TIENEN LOS AG CON RESPECTO A OTRAS TÉCNICAS DE BÚSQUEDA 1. ESTRATEGIAS EVOLUTIVAS (EES) 1.7. DIFERENCIAS ENTRE LOS MÉTODOS TRADICIONALES Y LOS A.8.7.9.8. CARACTERÍSTICAS DE LOS AGS 1.2.2.7.8.7.9. EL TEOREMA DEL ESQUEMA 1.7. 1. EVALUACIÓN 1.3.2.4.4. MÉTODOS DE SELECCIÓN 1.2. VENTAJAS DE LOS AGS 1.6.2. ¿POR QUÉ UTILIZAR OPTIMIZACIÓN 1.11.2.7. CONVERGENCIA DEL ALGORITMO 1.8.4. MECANISMOS DE REEMPLAZO 1.2.1. ¿COMO FUNCIONAN? 1.1.7.14. CONSIDERACIONES AL USAR ALGORITMOS GENÉTICOS 1. Cromosomas de longitud variable 1.3.7.4.12.7.

2.11.2. ACTUADOR Y SENSOR (ELEMENTO DE MEDICIÓN) 2.8.10.14. ROBUSTEZ DE LOS MÉTODOS DE OPTIMIZACIÓN Y BÚSQUEDA TRADICIONALES CAPÍTULO 2.9.1.3.2. ALGORITMO GENERAL 1.10.DERIVATIVA 2. . ALGORITMO GENERAL 1.10.1.10.2.3.2.5. PROGRAMACIÓN EVOLUTIVA (EP) 1.2.9. ACCIÓN DE CONTROL DE DOS POSICIONES O ENCENDIDO Y APAGADO (ON/OFF) 2.7. CONTROLADORES AUTO-OPERADOS 2.11. PROGRAMACIÓN EVOLUTIVA Y LAS ESTRATEGIAS EVOLUTIVAS 1.3. CONTROLADOR AUTOMÁTICO.6. INTRODUCCIÓN 2. ACCIÓN DE CONTROL PROPORCIONAL – DERIVATIVA 2. ACCIÓN DE CONTROL PROPORCIONAL. CLASIFICACIÓN DE LOS CONTROLADORES INDUSTRIALES 2.2. FUNCIONAMIENTO DE LOS OPERADORES GENÉTICOS 1.2. ACCIÓN DE CONTROL INTEGRAL 2.13. PROGRAMAS AUTOCONFIGURABLES 1. ACCIÓN DE CONTROL PROPORCIONAL 2. ACCIÓN DE CONTROL PROPORCIONAL. MUTACIÓN EN PG 1.3. CONTROLADORES PID 2.3.12. PROGRAMACIÓN EVOLUTIVA Y ALGORITMOS GENÉTICOS 1.INTEGRAL 2. ESTRATEGIAS EVOLUTIVAS Y ALGORITMOS GENÉTICOS 1.2.INTEGRAL. AMBIENTES DE PROGRAMACIÓN 1.2.4.2.2. ACCIONES BASICAS DE CONTROL 2.11.2.1. PROGRAMACIÓN GENÉTICA (PG) 1.1.1. EFECTOS DE LAS ACCIONES DE CONTROL INTEGRAL Y DERIVATIVO SOBRE EL DESEMPEÑO DE UN SISTEMA.11.

1.3.4. Integración trapezoidal 3.6. MODIFICACIONES DE LOS ESQUEMAS DE CONTROL PID 2. LEMA 1 (ASIGNACIÓN DE POLOS SISO).5.3. LINEALIZACIÓN DE SISTEMAS NO LINEALES 3.1.2. LEMA 2.2.1. Integración rectangular hacia atrás 3.4. 2. IMPLEMENTACIÓN DIGITAL DEL CONTROLADOR PID 3.3.2.2.2.2.1. PUNTOS CONCERNIENTES A LA EXISTENCIA DE LAS SOLUCIONES A LOS PROBLEMAS DE CONTROL ÓPTIMO.1.1.2.4.5.2.1. ACCIÓN DE CONTROL INTEGRAL 2. DISCRETIZACIÓN DE SISTEMAS EN TIEMPO CONTINUO.2.2. 2. FORMULACIÓN DE LOS PROBLEMAS DE OPTIMIZACIÓN 3.1. SINTONIZACIÓN DE CONTROLADORES PID 2.3. IMPLEMENTACIÓN DIGITAL DE CONTROLADORES ANALÓGICOS 3.1.2.1. .1.2. 2.3.1.1.1.2. ÍNDICES DE DESEMPEÑO 3.4. 3.2. CONTROL I-PD 2. PRIMER MÉTODO. MÉTODO DE ASIGNACIÓN DE POLOS 2.3.4.2.4.3.4. TEOREMA 1 (TEOREMA DE SYLVESTER).1. SEGUNDO MÉTODO. NOTAS ACERCA DE LOS SISTEMAS DE CONTROL ÓPTIMO. CONTROL PID DE PLANTAS 2.1. DISCRETIZACIÓN DE SISTEMAS Y LINEALIZACIÓN DE SISTEMAS NO LINEALES 3. Integración rectangular hacia delante 3.2.2.2.1. 3. INTEGRAL WINDUP CAPÍTULO 3.4.2. CONTROL PI-D 2. ACCIÓN DE CONTROL DERIVATIVA 2.2.5.2. MÉTODO DE OSCILACIÓN 2.2.3.2. REGLAS DE ZIEGLER – NICHOLS PARA SINTONIZAR CONTROLADORES PID 2.2.4. MÉTODO BASADO EN LA CURVA DE REACCIÓN 2.3.

1.1.1.1. APLICACIÓN EN PROCESOS DE CONTROL 4.1.4. VALIDACIÓN DEL ALGORITMO EN LÍNEA 5.4. CALCULO DEL CONTROLADOR 5.2. SINTONIZACIÓN DE CONTROLADORES 4.3.1.1.3. PROCESO DE BALANCE DE MASA LIQUIDA 5.3.6. SISTEMA DE LEVITACIÓN MAGNÉTICA 5. SISTEMA MECÁNICO: MASA –RESORTE 5.2. DISCRETIZACIÓN DEL SISTEMA 5. PROCESO DE BALANCE DE MASA DE VAPOR . CONTROLABILIDAD DEL SISTEMA 5. ESTADO DEL ARTE DE LOS ALGORITMOS EVOLUTIVOS Y SU USO PARA CONTROLADORES PID 4. COMPUTACIÓN EVOLUTIVA Y CONTROLADORES PID 4.1. APLICACIONES DE LA PROGRAMACIÓN GENÉTICA. DISEÑO DE ESTRUCTURA DE CONTROL 4. SINTONIZACIÓN DE CONTROLADORES PID UTILIZANDO ALGORITMOS EVOLUTIVOS 5.4.3.4. APLICACIONES EN LÍNEA 4.2.1.2. OBSERVABILIDAD 5.3. FUNCIÓN DE TRANSFERENCIA 5.1.1.2. MODELO DEL EVAPORADOR 5.5.4.2. SINTONIZACIÓN DE CONTROLADORES PID UTILIZANDO ALGORITMOS EVOLUTIVOS EN LÍNEA 5. 4.3.3.1.3.CAPÍTULO 4.1.4. CALCULO DEL CONTROLADOR 5. MODELO NO LINEAL 5. CÓMO PUEDEN LOS AG SER DE BENEFICIO PARA EL CONTROL? 4.4.1.4. PROCESO DE BALANCE DE MASA LIQUIDA DEL SOLUTO 5.3.6. CIRCUITO LRC 5. ESTABILIDAD CAPÍTULO 5. DISCRETIZACIÓN DEL CONTROLADOR 5.3.4.1.

4. CONDENSADOR 5.5.8.5.4.4.1. INFLUENCIA AMBIENTAL CONCLUSIONES RECOMENDACIONES BIBLIOGRAFIA ANEXOS GLOSARIO DE TÉRMINOS TÉCNICOS .6. SISTEMA MECÁNICO: MASA –RESORTE 5.5. CIRCUITO LRC 5.4.5.2. SINTONIZACIÓN DE CONTROLADORES PID UTILIZANDO ALGORITMOS EVOLUTIVOS FUERA DE LÍNEA 5. ANALISIS ECONOMICO Y ADMINISTRATIVO 7. MODELO DEL EVAPORADOR 6.3.5.5. SISTEMA DE LEVITACIÓN MAGNÉTICA 5. ENVOLTURA DEL VAPOR CALIENTE 5.5. PROCESO DE BALANCE DE ENERGÍA LIQUIDA 5.4.7. ANALISIS DE LEGALIDA 8. MODELO MATEMÁTICO DEL EVAPORADOR 5.

los procesos donde estos controladores son empleados tienden a desestabilizarse debido a perturbaciones no lineales. utilizando la selección y reproducción. como la de los algoritmos genéticos. que constituyen una rama de la llamada Computación Blanda. En general. que se establece de acuerdo al objetivo del problema. para encontrar la solución óptima a un problema específico. éstos continúan teniendo una gran acogida hasta nuestros días. que luego son sometidas a procesos de transformación y después a una selección que escoge las mejores y descarta las peores. sin la ayuda del operador. Dentro de los algoritmos evolutivos se pueden destacar diferentes directrices. sin tener ningún conocimiento previo de este. las cuales se aplican de acuerdo a la codificación que se hace de los individuos (posibles soluciones al problema). Con este trabajo se busca realizar la entonación de controladores PID. El desarrollo de este trabajo esta organizado como sigue: . Inicialmente se propone un conjunto de posibles soluciones. con los cuales se emula la evolución natural de los seres vivos. de acuerdo a una calificación o medida de aptitud dada por una función de aptitud. y varios otros factores. desgaste de equipos. siendo utilizados para el control de la mayoría de los procesos a lazo cerrado. Para esto se propone utilizar algoritmos evolutivos.INTRODUCCIÓN A pesar de que la tecnología ha ido avanzando a pasos gigantescos en el área industrial desde la invención del controlador PID. de forma autónoma. lo cual hace que tengan que ser resintonizados o reajustados para las nuevas condiciones de operación o funcionamiento de los sistemas. ante cambios de los parámetros de los sistemas.

primero en línea y luego fuera de línea. También se orienta un poco sobre las consideraciones que se deben tener en cuenta a la hora de la implementación y se mencionan sus ventajas y sus desventajas. - En el segundo capítulo se hace referencia a toda la teoría relacionada con los controladores PID. pasando por todas las técnicas que han sido desarrolladas a través del tiempo.- En el primer capítulo se trata todo lo referente a los algoritmos evolutivos desde sus inicios. Diferentes acciones de control y configuraciones de los controladores y sus efectos sobre los sistemas. para luego ser aplicados a un proceso de evaporación. El cuarto capítulo es una perspectiva sobre el estado del arte de los algoritmos evolutivos y sus usos para solucionar problemas relacionados con controladores PID En el quinto capítulo se llevan a cabo varios experimentos para la sintonización de controladores con algoritmos evolutivos. El tercer capítulo es un enfoque reducido sobre las diferentes técnicas de discretización de sistemas y además la linealización de sistemas no lineales. . El sexto capítulo se dan conclusiones específicas y recomendaciones sobre el uso de este método de acuerdo a las conclusiones obtenidas en los experimentos.

• Definir otras potenciales aplicaciones de implementación en el ámbito industrial. con un modelo matemático de un sistema de evaporación. OBJETIVOS ESPECÍFICOS • • Diseñar experimentos para respaldar el desarrollo de algoritmos evolutivos para la sintonización de controladores. • Validar los desarrollos. Diseñar un algoritmo evolutivo para la sintonización adaptativa de controladores PID e implementar el diseño utilizando herramientas de computación en Matlab. mediante la verificación de condiciones de estabilidad del sistema en estudio. .OBJETIVOS OBJETIVO GENERAL: Desarrollar un nuevo algoritmo de sintonización de controladores PID utilizando algoritmos evolutivos. a través de simulaciones computacionales.

Los controladores han generado muchos beneficios para la apropiada operación de procesos o sistemas. los cuales son ampliamente utilizados a nivel industrial. tanto en sus funcionalidades. incluye el diseño de controladores PID. Teniendo en cuenta los objetivos del proyecto. El control como tal. ya que permitirían mejorar la operación de plantas al tiempo que robustecerían las condiciones de seguridad operacional en procesos de alto riesgo donde el control resulta esencial. métodos y técnicas. por lo cual son de gran interés.JUSTIFICACIÓN De acuerdo con las diversas asignaturas cursadas en el transcurso del programa propuesto para Ingeniería Electrónica. dentro de su diversidad de temas. Para lograr estas mejoras se han usado diferentes métodos basados en una diversidad de técnicas para la entonación automática de los controladores. sus logros aportarían soluciones a la industria. el control automático es una de las áreas de estudio de la carrera. . como en el mejoramiento continuo del desempeño de procesos industriales.

a la presencia de comportamientos no lineales y a perturbaciones de naturaleza aleatoria. Por esto. entonando los controladores. entre otros factores. .PLANTEAMIENTO DEL PROBLEMA En las instalaciones industriales más del 95% de los procesos son regulados por controladores PID. Todo eso ocasiona una degradación en las condiciones de operación de los sistemas. lo cual resultaría más costoso. Lo ideal sería que el controlador se acoplara automáticamente a los cambios de parámetros del sistema de forma eficiente. rápida y efectiva sin necesidad de recurrir a un operador para realizarlo. se hace necesaria la asistencia de ingenieros de control para reestablecer el buen desempeño del sistema. pero debido a la vida útil de los equipos. trayendo como consecuencia pérdidas económicas o detrimento de las condiciones de seguridad en la operación del proceso. a cambios de dinámica de los procesos. ya que estos están diseñados para operar en un punto específico de equilibrio. con frecuencia se pierde la entonación de los controladores.

utilizando varios sistemas estables a lazo cerrado. entre otros elementos. Para todas estas pruebas se utilizó la ayuda del sistema programado Simulink y las herramientas de programación de Matlab. población inicial. . operadores. de un proceso de evaporación. Para esto fue necesario usar la INTERNET. folletos y revistas) y colaboración de profesores conocedores del área. También se trabajó con sistemas inestables a lazo abierto y un tipo de sistemas no lineales. haciendo cambios en la función objetivo del algoritmo evolutivo y con mutación basada en ascenso por gradiente. condición de terminación. • Diseño de experimentos: Se comenzó con el desarrollo de la técnica en línea. Aquí se hizo necesaria la utilización de diferentes técnicas de discretización de sistemas lineales para la implementación del algoritmo. usando como función de aptitud la diferencia del error cuadrático y empleando como operador genético el de mutación basada en descenso por gradiente. libros. Luego fue desarrollada la técnica fuera de línea. La información recopilada permitió la escogencia de la estructura del controlador y de los parámetros de diseño del algoritmo evolutivo: codificación. fusión objetivo. a los cuales se les realizó cambios de las condiciones iniciales.METODOLOGÍA • Recolección de información: En este primer paso se llevó a cabo una consulta e investigación documental sobre el estado del arte de los controladores PID y los algoritmos evolutivos. Por último se aplicó este algoritmo a la variable de tasa de flujo. para controlar las diferentes salidas de este sistema. fuentes bibliográficas (artículos.

fueron establecidas conclusiones y recomendaciones relativas a los resultados y en correspondencia con los objetivos originalmente planteados para el trabajo. . Así mismo se realizaron consideraciones sobre la plataforma tecnológica necesaria a nivel industrial para poder hacer la implantación física del método de entonación PID desarrollado.• Obtención de resultados: Una vez obtenidos los comportamientos de los diferentes sistemas considerados después de haber utilizado el algoritmo evolutivo diseñado.

Capítulo 1 Computación Evolutiva 1. La Computación Evolutiva interpreta la naturaleza como una inmensa máquina de resolver problemas y trata de encontrar el origen de dicha potencialidad para utilizarla en programas [1.13]. como conseguir más luz del sol. El principal aporte de la CE a la metodología de la resolución de problemas ha sido el uso de mecanismos de selección de soluciones potenciales y de construcción de nuevas candidatas por recombinación de característica de otras ya existentes [4]. [22] En la actualidad se tienen varias aplicaciones industriales exitosas inspiradas en enfoques evolutivos para diversas áreas [22]: o Diseño de circuitos o Planificación de tareas . INTRODUCCIÓN En la naturaleza todos los seres vivos se enfrentan a problemas que deben resolver con éxito. La computación evolutiva CE abarca los modelos computacionales que usan como elemento clave algún mecanismo de la teoría de la evolución para su diseño e implementación [4].1. 5. o cazar una mosca. La Computación Evolutiva surge a finales de los años 60 cuando John Holland planteó la posibilidad de incorporar los mecanismos naturales de selección y supervivencia a la resolución de problemas de Inteligencia Artificial. La computación evolutiva busca relacionar algunos conceptos expresados en la teoría de la evolución con un conjunto de técnicas usadas para resolver computacionalmente algunos problemas.

en el que las soluciones al problema son capaces de reproducirse entre sí. permitiendo de vez en cuando alguna mutación o modificación al azar durante la reproducción [5]. Estas soluciones serán sometidas a ciertas transformaciones y luego a un proceso de selección que favorece a los mejores. En este caso. otras peores.o Cálculo de Estrategias de Mercado o Cortado de patrones. No siempre el espacio de búsqueda completo contiene soluciones válidas.5]. eliminando el resto de soluciones. los Algoritmos Evolutivos son en realidad un método de búsqueda muy especial. el problema consiste en maximizar F(xi) dentro del subespacio. y por tanto. Las soluciones seleccionadas se reproducirán entre sí. En cada ciclo se seleccionan las soluciones que más se acercan al objetivo buscado. en algunos casos. Unas soluciones serán mejores. más allá del cual la solución es inválida. En un Algoritmo Evolutivo se define una estructura de datos que admite todas las posibles soluciones a un problema. los valores de las variables se sitúan dentro de un rango. Los Algoritmos Evolutivos recogen un conjunto de modelos basados en la evolución de los seres vivos inspirados en la naturaleza. constituyendo así una técnica de resolución de problemas [22.22]. etc. 8. combinando sus características y generando nuevas soluciones [5. Solucionar el problema consistirá en encontrar la solución óptima. Las implementaciones concretas en el área de la CE han sido denominadas algoritmos evolutivos [4]. Cada uno de los posibles conjuntos de datos admitidos por esa estructura será una solución al problema. Se trata entonces de un problema de optimización con restricciones. . Se espera que después de cierto número de generaciones el mejor individuo de la población esté cerca de la solución buscada.

los organismos más capacitados. A finales del siglo XIX. La selección natural elige los más aptos. las cuestiones relacionadas con las variaciones evolutivas se centraban en tres aspectos: cuál era la naturaleza del material genético transmitido a la descendencia. el botánico holandés Hugo De Vries y el biólogo alemán August Weismann desarrollaron teorías sobre la herencia. desencadenando nuevas necesidades y por tanto nuevas estrucuturas. científicos como Charles Darwin. La mayor parte de la selección natural se denomina selección estabilizadora. . El zoólogo francés Jean Baptiste de Lamarck pensaba que la vida animal y vegetal sufría nuevas influencia de acuerdo a los cambios climáticos y áreas geográficas que experimentaban. Para Darwin aptitud significaba cualquier cualidad que ayudaba a un organismo a sobrevivir y reproducirse [18]. ORIGENES A principios del siglo XIX. y cómo se producían variaciones en ellas que después se transmitían. el éxito debió alcanzar a aquellas que conseguían desarrollar una habilidad o mecanismo especial para su autoconservación y replicación rápida [19]. por cuanto elimina genes del conjunto genético que tienden a producir desviaciones de una forma que ya es óptima [20]. influenciado por las ideas del geólogo Adam Sedgwick y el naturalista John Henslow. el biólogo alemán Ernst Haeckel.2. publicada por primera vez en 1859. A estas nuevas estructuras Lamarck las llamó características adquiridas que pueden ser heredadas a nuevas generaciones [19]. Charles Darwin elaboró su teoría de la selección natural. que se convertiría en el fundamento de la teoría de la evolución. La razón principal que suscitó este interés fue que la teoría de la selección natural de Darwin. cómo pasaban fielmente las características de una generación a la siguiente. La selección natural fomenta la adaptación de los organismos cuando ello es necesario para la supervivencia.1.

retomados a finales del siglo. heredan y transmiten partículas hereditarias separadas. Hugo Marie de Vries (1848-1935) fue un botánico holandés. El redescubrimiento en 1900 de los escritos de Mendel del año 1866 sobre los patrones de la herencia en la planta del guisante. Los estudios de Mendel. Sean o no los descendientes formas intermedias entre sus dos padres. La segunda fue la ley de la segregación: en la formación de células germinales. afirmaba que los factores maternos y paternos para cualquier grupo de características se separaban de forma independiente de aquellos que pertenecían a otro grupo de características [20. quien redescubrió de modo independiente las leyes de la herencia desarrolladas por el monje . que hoy en día se denominan genes. Sus exhaustivos experimentos con plantas tuvieron como resultado el enunciado de dos principios que más tarde serían conocidos como leyes de la herencia. que con posterioridad se denominó la ley de la herencia independiente. Mendel llegó a tres generalizaciones.Gregor Johann Mendel (1822-1884) fue un monje austriaco. Sus observaciones le llevaron también a acuñar dos términos que siguen empleándose en la genética de nuestros días: dominante y recesivo [18. La tercera generalización. demostraron lo que Darwin insinuó vagamente en cierta época. supuso una fuente importante de conceptos nuevos sobre la herencia. los dos factores (alelos) para cualquier característica están siempre separados entre sí y van a diferentes óvulos o espermatozoides. no combinada. diferentes en un carácter concreto. cuyos experimentos se convirtieron en el fundamento de la actual teoría de la herencia (transmisión a los descendientes de los caracteres de los ascendientes).21]. De su estudio sobre el cruzamiento de este tipo de plantas. 21]. que la herencia es particular. La primera fue la ley de la uniformidad en la primera generación filial: cuando se cruzan dos razas puras (homocigotas). la descendencia presenta siempre el mismo fenotipo.

ANTECEDENTES Los primeros ejemplos de lo que hoy se podría llamar algoritmos genéticos aparecieron a finales de los 50 y principios de los 60. formularon por separado la teoría cromosómica de la herencia. dentro del grupo Logic of Computers. donde. Alfred Henry Sturtevant. La mitad de los cromosomas proceden del padre. junto con sus colaboradores. en Estados Unidos. la mutación es el origen último de la variación genética. Creighton y Barbara McClintock demostraron experimentalmente. aunque no se encontró con un ambiente intelectual fértil para propagarlas. John Holland En los años 50 entró en contacto con los primeros ordenadores. Los cromosomas contienen la información genética del organismo. 1. demostraron la teoría formulada por Sutton y Boveri. . Y fue. en la que proponían que los cromosomas eran el soporte físico de los genes. y Theodore Boveri. Harriet B. programados en computadoras por biólogos evolutivos que buscaban explícitamente realizar modelos de aspectos de la evolución natural [28]. en la Universidad de Michigan en Ann Arbor.austriaco Gregor Mendel. Las diferencias entre individuos reflejan la recombinación genética de estos juegos de cromosomas al pasar de una generación a otra [19]. Calvin Blackman Bridges y Hermann Joseph Muller.3. en 1931. Walter Sutton. En 1903. la correlación existente entre la recombinación genética y el intercambio de fragmentos cromosómicos (entrecruzamiento) que acontece durante la meiosis [19]. Fue a principios de los 60. y la otra mitad de la madre. donde pudo llevar a cabo algunas de sus ideas. en Alemania. Después de varios años de experimentación el científico estadounidense Thomas Hunt Morgan. e incorporó el concepto de mutación a la teoría evolutiva (variaciones a gran escala que pueden producir nuevas especies en una sola generación). sus ideas comenzaron a desarrollarse y a dar frutos. De Vries concedió a Mendel todo el mérito por el trabajo [18].

discontinuos y multimodales [28]. Holland impartía un curso titulado Teoría de sistemas adaptativos. Fisher. actual delfín de los algoritmos genéticos. cuando Holland se enfrentó a los algoritmos genéticos. Alan Turing reconoció. Cannon visualizó la evolución natural como un proceso de aprendizaje. Golberg era un ingeniero industrial que trabajó en diseño de pipelines. los objetivos de su investigación fueron dos [2]: • • Imitar los procesos adaptativos de los sistemas naturales. En esa universidad. incluyendo paisajes de búsqueda ruidosos. Ese mismo año. R. Unos 15 años más adelante. En 1932. y se convirtió en su estudiante. A. Dentro de este curso. leyendo un libro escrito por un biólogo evolucionista. titulado La teoría genética de la selección natural. fue donde se crearon las ideas que más tarde se convertirían en los algoritmos genéticos [2]. David Goldberg. Campbell conjeturó en 1960 que en todos los procesos que llevan a la expansión del conocimiento. en 1950. Por tanto. la importante tesis de Kenneth De Jong estableció el potencial de los AGs demostrando que podían desenvolverse bien en una gran variedad de funciones de prueba. y con una participación activa por parte de sus estudiantes. y fue uno de los primeros que trató de aplicar los algoritmos genéticos a problemas industriales [2]. como comenzó a descubrir los medios de llevar a cabo sus propósitos de comprensión de la naturaleza [2]. conoció a Holland. Los primeros intentos de aplicar de manera formal la teoría de la .además. se involucra un proceso ciego de variación y supervivencia selectiva. y Diseñar sistemas artificiales (normalmente programas) que retengan los mecanismos importantes de los sistemas naturales. que debe haber una conexión obvia entre el aprendizaje de máquina y la evolución y señaló que se podrían desarrollar programas para jugar ajedrez usando esta técnica.

Por su parte. Friedman. en 1954. apareció en las áreas de control de procesos estadísticos.J. y definiendo a un individuo como una cadena de símbolos binarios (unos y ceros). en 1958. que la mutación jugaba un papel importante en la evolución. W. Bajo este esquema. Sin embargo. introduciendo el importante manejo de un valor de aptitud. hacer que un programa en lenguaje de máquina se mejorara a sí mismo.W. acertadamente. Box y sus colegas G. Bremermann advirtió. así como el que Reed realizó posteriormente en 1967.J. la planta se veía como a una especie en evolución. se enfocó más a la optimización. y el operador primordial era la mutación [3]. y que se implanto sobre la base de los votos de un comité de jefes técnicos. en este trabajo. se concluyó que el cruce no parecía mejorar la velocidad de la adaptación selectiva. . pues impedía el estancamiento en mínimos locales [3]. aprendizaje de máquina y optimización de funciones. y en algunas ocasiones lo atacó despiadadamente. Por ejemplo. en 1958. a problemas prácticos de ingeniería. utilizando los mismos procedimientos generales que se usan hoy en día en la disciplina conocida como vida artificial. La comunidad de Inteligencia Artificial de la época prestó poca atención a su trabajo. Friedberg intentó.P. la cual se aplicó a una planta de manufactura para manejarla. La calidad del producto avanzaba a través de mutaciones aleatorias y la selección era determinada por el comité [3. Bledsoe y H. El trabajo de Bremermann. Barricelli ofreció. Bremermann en 1957. argumentando que una búsqueda puramente aleatoria era mucho mejor que el algoritmo de Friedberg (este argumento aún es esgrimido infundadamente por algunos miembros de la comunidad científica en contra de los algoritmos genéticos) [3]. en el desarrollo de una técnica que denominaron Operación Evolutiva.evolución.E. Tal vez el primer intento serio de este tipo se dio en el trabajo que realizaron G. seleccionando instrucciones que se asociaran más frecuentemente con un resultado exitoso. una de las primeras simulaciones que usaba principios evolutivos.8]. Minsky lo criticó duramente.

y en su versión más reciente usa el cruce como operador secundario [3]. es al segundo al que se le suele atribuir la creación de la técnica que se conoce como algoritmo genético. es que utiliza el cruce como operador principal y a la mutación como operador secundario (e incluso . 28]. Aunque el australiano Fraser propuso. se utilizó inicialmente para resolver problemas ingenieriles que desafiaban a los métodos de optimización tradicionales. y se basa en la modificación sistemática de un vector de números reales (representando las variables de decisión del problema) mediante operadores probabilísticos. a raíz de que Holland publicara el libro Adaptation in Natural and Artificial Systems en 1975. por Ingo Rechenberg y Schwefel. Fogel. a excepción de los más simples posibles [3. un procedimiento muy similar al que John Holland llamó planes evolutivos a fines de los 60. En este método. Otra técnica evolutiva dirigida particularmente a la optimización de funciones continuas de alta complejidad se desarrolló en Alemania. A. La principal diferencia del algoritmo genético con las técnicas antes mencionadas.J. su algoritmo funcionaba mutando aleatoriamente una de estas máquinas simuladas y conservando la mejor de las dos. Fue Fogel el que introdujo la primera técnica evolutiva que realmente funcionó más o menos dentro de los lineamientos actuales de la computación evolutiva.J. desde fines de los 50. cuando L. La estrategia evolutiva utiliza como operador principal a la mutación. Owens y M. usando ciertos criterios para decidir en qué dirección dirigir la búsqueda. algunos investigadores. como el gradiente conjugado. Fogel introdujo los importantes conceptos de población y selección. y aunque las revisiones iniciales de su trabajo fueron favorables. las soluciones candidatas para los problemas se representaban como máquinas de estado finito sencillas. llamada estrategia evolutiva.J.El siguiente desarrollo importante en el campo vino en 1966. enfatizaron que el método de Fogel no debía verse en su estado actual (en 1966) como algo particularmente útil para resolver problemas. como Solomonoff. Su programación evolutiva consistía en hacer evolucionar autómatas de estados finitos por medio de mutaciones. en 1965. Esta técnica. Walsh introdujeron en América una técnica que llamaron programación evolutiva.

Pueden ser heredadas pequeñas variaciones a sus descendientes. . En 1994. por el hecho de que no todos sobreviven. con consideración de parámetros físicos como gravedad. en la que despertó el interés de expertos y del público en general. Asimismo. BASES BIOLÓGICAS DE LA COMPUTACIÓN EVOLUTIVA. El algoritmo genético. Postulados de la selección natural que conforman las bases biológicas de la CE [4]: 1. dotó a la computadora de un conjunto de bloques con los que construyó criaturas virtuales [11]. Los individuos portadores de la mejor adaptación irán incrementando en relación de parte de la población al transmitir sus características a sus descendientes. Karl Sims publicó Evolving Virtual Creatures en la conferencia SIGGRAPH. rozamiento y viscosidad.4. En las poblaciones en cada generación el número permanece aproximadamente constante. la de seleccionismo de Weismann y la de genética de Mendel [4]. al igual que las redes neuronales. Sims reprodujo en su computadora un entorno natural en el que se simulaban diversos medios como el acuático y el terrestre.opcional). la CE se basa en tres teorías: Evolución de Darwin. 2. funciona como una caja negra que recibe ciertas entradas y produce (tras una cantidad de tiempo indeterminada) las salidas deseadas [3]. 3. Dichas variaciones podrían facilitar la supervivencia a sus portadores en determinados ambientes. No todos los individuos de una misma especie son iguales. 4. Desde el punto de vista biológico. 1.

o ley de la segregación. En cada organismo existe un par de factores que regulan la aparición de una determinada característica (Hoy en día. Al irse agregando características favorables. 4. La NeoDarwinista combina la teoría de Darwin con los aportes de la Genética. un factor por cada padre. Esta teoría postula un principio que es altamente relevante para la CE: La unidad sobre la que actúa la evolución no es el individuo. Las hipótesis formuladas por Mendel fueron las siguientes [4]: 1. Mendel formuló una serie de hipótesis para explicar resultados obtenidos. Esta es la de Mendel. Primera ley de Mendel. uno de ellos debe expresarse y excluir totalmente al otro. sino otra de orden superior. Hoy en día. una merece especial mención. a estos factores son denominamos genes). luego de cierto numero de generaciones se forma una nueva especie que difiere mucho del grupo original. Cada uno de estos factores se transmite como una unidad discreta inmodificable. El organismo obtiene tales factores de sus padres. De entre las teorías formuladas para explicar cómo se heredan las características. los . 5.5. Para explicar los resultados obtenidos en sus experimentos. que proporcionó el fundamento sobre el cual se ha basado toda la investigación genética posterior [4]. conocida también con el nombre de Teoría Sintética de la Evolución. 3. Si un organismo posee dos factores diferentes para una característica dada. 2. La población [4].

debido al uso o el desuso de partes del mismo. Por su parte. valores para los parámetros que determinan la dinámica evolutiva. una función de aptitud que juegue el papel de ambiente y que jerarquice las soluciones en términos de su efectividad en la resolución del problema. 3. y por consiguiente. un mecanismo de selección y un conjunto de operadores que motoricen la búsqueda modificando parcialmente las estructuras de solución. . COMPONENTES DE UN ALGORITMO EVOLUTIVO Los componentes de un algoritmo evolutivo se `pueden observar en la figura 1. 1. 4.biólogos usan el término alelo para describir las formas alternativas de un gen que controla la aparición de una característica dada. Con experimentos probó que el cuerpo del padre transmite meramente su germen plasmático. no se reflejan en el plasma del germen. la teoría de Weismann ha tenido implicaciones cruciales para la evolución: Demostró que los cambios en el cuerpo. 5. invalidando así la teoría Lamarkista [4].1 [5]: 1. 2. Una representación genética de soluciones del problema.5. una manera de crear una población inicial con estas estructuras. no pueden ser heredados.

Los algoritmos evolutivos han sido amplia y exitosamente usados para diseños de aplicaciones fuera de línea. Estructura De Los Algoritmos Evolutivos Los Algoritmos Evolutivos han emergido como una clase de búsqueda aleatoria de varios puntos. La función de Aptitud es la guía que emplean estos algoritmos para explorar de forma eficiente su amplio espacio de búsqueda de posibles soluciones [7]. . concurrentemente. fiabilidad a de sistemas y diagnostico de fallas [9]. análisis de estabilidad robusta. los AEs requieren de mucho poder de cómputo y espacio de memoria lo cual los hace interesantes para paralelizarlos.1. Los Algoritmos Evolutivos requieren que se les especifique la codificación de los individuos y una función de evaluación que mida la aptitud de cada individuo. La paralelización del AE mejora considerablemente tanto el desempeño del algoritmo como la calidad de las soluciones reportadas debido a que se pueden manipular grandes espacios de búsqueda y además abarata los costes del hardware [7]. identificación de modelos. En el campo de la ingeniería de control de sistemas. estas aplicaciones incluyen diseño de controladores.Figura 1. sobre un espacio de soluciones factibles.

Los Algoritmos Evolutivos pueden considerarse una técnica de aprendizaje no supervisado, es decir, aprendizaje inductivo por observación y descubrimiento [22]: • • Estos algoritmos generan ejemplos por si mismos. La creación de nuevos ejemplos (puntos de búsqueda) por el algoritmo es una apuesta inductiva sobre la base del conocimiento existente. Los algoritmos evolutivos se distinguen también por no quedar atrapados fácilmente en mínimos locales, como la mayor parte de las técnicas de búsqueda clásicas, además de usar operadores probabilísticos más robustos que los operadores determinísticos, que las otras técnicas suelen usar. No obstante, siendo una heurística, tampoco pueden garantizar encontrar siempre la solución óptima, si bien la experiencia acumulada hasta la fecha parece demostrar que, cuando se utilizan apropiadamente, pueden proporcionar soluciones muy aceptables y, en la mayoría de los casos, superiores a las encontradas con otras técnicas de búsqueda y optimización [3].

La clara ventaja de los Algoritmos Evolutivos es su aplicabilidad universal a cualquier tipo de espacio de estructuras [22].

1.6. MODELOS SOBRE EL ESQUEMA GENERAL Hasta hace poco era común hablar de Algoritmos Genéticos (AG) en general, en vez de identificar diferentes tipos de CE, ya que el resto de los algoritmos se pueden interpretar como variaciones o mejoras de los AG, más conocidos [25,14]. Algoritmos Genéticos: trabajan con una población de cadenas binarias con el fin obtener la máxima generalidad y el máximo grado de

paralelismo implícito [22]. Programas Evolutivos: los individuos pueden ser cualquier estructura de datos [22]. Programas Genéticos: los individuos son programas o autómatas (longitud variable), generalmente representados en forma de árbol [22].

-

Estrategias Evolutivas: trabajan con números reales que codifican las posibles soluciones de problemas numéricos [22].

La agregación simulada (Simulated Annealing) se puede considerar una simplificación de los AG cuyo origen está en los procedimientos físicos de solidificación controlada [25]. 1.7. ALGORITMOS GENÉTICOS (AG) Los primeros hechos relacionados con los Algoritmos Genéticos (en adelante AGs) surgieron en 1932 cuando Cannon interpreta la evolución natural como un proceso de aprendizaje muy similar al proceso mediante el cual una persona aprende por ensayo y error. También en 1950 Turing reconoce una conexión entre la evolución y el aprendizaje de una máquina [24]. Los investigadores en computación observaron que esta clase de algoritmos podía utilizarse también para optimizar funciones. De hecho, aunque las primeras descripciones técnicas y definiciones de adaptación provienen de la biología, ya en este contexto, adaptación designa cualquier proceso por el cual una estructura va modificándose de forma progresiva para lograr el comportamiento óptimo en su entorno. Es decir, los procesos adaptativos son básicamente procesos de optimización, pero es difícil aglutinarlos y unificar su estudio porque las estructuras modificables son complejas y su

comportamiento es incierto [24, 25]. Los algoritmos genéticos son métodos sistemáticos para la resolución de problemas de búsqueda y optimización que aplican a estos los mismos métodos de la evolución biológica: selección basada en la población, reproducción sexual y mutación. Los AG utilizan el cruce como operación principal y a la mutación como operador secundario e incluso opcional [2,3, 27]. Los mecanismos de selección del más apto y de reproducción sexual del algoritmo genético, son los encargados de preservar las características más

adecuadas de cada individuo a fin de hacer converger a la población en soluciones óptimas [3]. Mediante la selección se determina que miembros de una población sobreviven para reproducirse, y mediante la reproducción se asegura la mezcla y recombinación de los genes de la descendencia [24].

Esta mezcla del material genético permite que las especies evolucionen mucho mas rápidamente de lo que lo harían si tuvieran sólo la copia de los genes de uno de sus progenitores [24]. En un algoritmo genético, tras parametrizar el problema en una serie de variables, (xi,...,xn) se codifican en un cromosoma. Todos los operadores utilizados por un algoritmo genético se aplicarán sobre estos cromosomas, o sobre poblaciones de ellos [2]. Aunque no se sabe aún de manera completa la información específica codificada en los cromosomas de un individuo, las siguientes propiedades generales son aceptadas por todos los especialistas en el tema [15]:

a) La evolución es un proceso que opera fundamentalmente sobre los cromosomas. b) El proceso de selección natural es el responsable de que aquellos individuos que tienen mejor adaptación al entorno se reproduzcan más que los poco adaptados. c) En la reproducción es donde tiene lugar la evolución. d) La evolución biológica carece de memoria. En el algoritmo genético va implícito el método para resolver el problema; son solo parámetros de tal método los que están codificados, a diferencia de otros algoritmos evolutivos como la programación genética. Hay que tener en cuenta que un algoritmo genético es independiente del problema, lo cual lo hace un

una ristra de símbolos (números o letras) que generalmente va a estar compuesta de 0s y 1s aunque hay otras codificaciones posibles usando alfabetos de diferente cardinalidad [2. Los resultados de los AGs mejoran significativamente si se usa una representación y unos operadores genéticos naturales. 1. por ser útil para cualquier problema. . Los algoritmos genéticos han demostrado ser un método útil de búsqueda de soluciones satisfactorias (calidad/tiempo). 28]. es necesario codificarlos en una cadena. Los algoritmos combinan ambas técnicas de una forma eficiente [17]. ejercerá una presión selectiva sobre la población. Las soluciones codificadas en un cromosoma compiten para ver cuál constituye la mejor solución (aunque no necesariamente la mejor de todas las soluciones posibles). Cada cromosoma tiene varios genes. El ambiente. que corresponden a sendos parámetros del problema. pero a la vez débil.1. es decir. Estas posibilidades brindan la oportunidad de ajustar los parámetros de tal manera que la convergencia a la solución sea mucho más eficiente en cuanto a la relación calidad/tiempo que los métodos exactos pueden ofrecer [6]. Para poder trabajar con estos genes en el ordenador. en problemas cuyo espacio de solución es difícil de tratar por otros métodos por su amplio rango. los algoritmos de optimización hacen uso de dos técnicas: explorar áreas desconocidas en el espacio de búsqueda y explotar el conocimiento obtenidos de puntos previamente evaluados.algoritmo robusto. Codificación de las variables Los algoritmos genéticos requieren que el conjunto se codifique en un cromosoma. de forma que sólo los mejor adaptados sobrevivan o leguen su material genético a las siguientes generaciones. constituido por las otras camaradas soluciones. Para encontrar óptimos globales.7. pues no está especializado en ninguno [2]. igual que en la evolución de las especies [2].

éstos deben ser alterados aleatoriamente con la esperanza de mejorar su aptitud para la siguiente generación. cuando no se conoce de antemano el número de variables del problema. .2. o con relaciones entre genes que no sean puramente lineales de vecindad. Operadores Una vez que la selección ha elegido a los individuos aptos.2. Normalmente. Como norma general se aplica después de un proceso de selección de dos individuos [15.2.1.7. o incluso lo que representen los bits dedicados a codificar cada parámetro [2]. Para ello. Este proceso pretende simular el proceso análogo de la recombinación que se da en los cromosomas durante la reproducción sexual. el número de bits dedicados a codificar un parámetro puede variar. caben dos opciones: codificar también el número de variables. combinando soluciones parciales [2].La mayoría de las veces. 1. El teorema de los esquemas confía en él para hallar la mejor solución a un problema. crear un cromosoma que pueda variar de longitud. la codificación es estática. En algunos casos. como el operador orgía propuesto por Eiben). se necesitan operadores genéticos que alteren la longitud. lo cual es mucho más natural. o bien. Cruce Consiste en el intercambio de material genético entre dos cromosomas (a veces más. pero en casos de optimización numérica. 1.7. Implica elegir a dos individuos para que intercambien segmentos de su código. Esto puede llevar a usar cromosomas bidimensionales. o tridimensionales. Existen dos estrategias básicas para llevar esto a cabo. fijando un número máximo. produciendo una “descendencia'' artificial cuyos individuos son combinaciones de sus padres como se muestra en la figura 1. claro está. una codificación correcta es la clave de una buena resolución del problema. 28].

O bien se genera un número aleatorio para cada bit. • cruce especializado: en algunos problemas.26. Cuando se usan 2 puntos de cruce. Aplicación del operador de cruce. 28]. y se intercambian los bits de los dos cromosomas que coincidan donde hay un 1 en el patrón. se procede de manera similar. Cuando se usa un solo punto de cruce.Padres (criadores) 0 0 1 1 0 0 0 1 0 1 0 1 0 1 0 1 0 0 1 1 0 1 0 1 0 1 0 1 0 0 0 1 Hijos (vástagos) Figura1. y si supera una determinada probabilidad se intercambia ese bit entre los dos cromosomas [2. éste se escoge de forma aleatoria sobre la longitud de la cadena que representa el cromosoma. y a partir de él se realiza el intercambio de material de los 2 individuos [2. en este caso hay que aplicar el cruce de forma que genere siempre soluciones válidas [2].26].6].2. . • cruce uniforme: se genera un patrón aleatorio de 1s y 0s. aplicar aleatoriamente el cruce da lugar a cromosomas que codifican soluciones inválidas. 26].6. Las 2 formas más comunes de reproducción sexual son: uso de un punto único de cruce y uso de 2 puntos de cruce [6. pero en este caso Se eligen dos puntos de ruptura al azar para intercambiar [6.

es decir.1. Conforme se va formando la nueva cadena del descendiente. que lo desplazará.• Cruce segmentado: existe una probabilidad de que un cromosoma sea punto de un cruce.2. Cruce por emparejamiento parcial (PMX) Toma una subsecuencia del cromosoma del padre y procura preservar el orden absoluto de los genes. y se mantiene intacto hasta que surge otro individuo mejor que él. Aparece también en la bibliografía como PMX [23]. Dicha técnica es llamada elitismo. Esto significa que no todas las parejas de cromosomas se cruzarán. .2. 1.1. sino que habrá algunas que pasarán intactas a la siguiente generación. 1.2.1. orden y posición en el cromosoma. y no debe sorprender el hecho de que haya sido desarrollada en Alemania [26].1.2.1. para cada gen. del resto del cromosoma lo más parecido posible de la madre. Existen dos variantes de este cruce que toman en cuenta las posiciones (muy usados en planificación de tareas). Normalmente el cruce se maneja dentro de la implementación del algoritmo genético como un porcentaje que indica con qué frecuencia se efectuará.7. Cruces por orden (OX) Cruce de mapeamiento parcial o Cruce por orden: toma una subsecuencia del cromosoma del padre y procura preservar el orden relativo de los genes del resto del cromosoma lo más parecido posible de la madre.7. se verifica si ahí se va producir un cruce.1.7. De hecho existe una técnica desarrollada hace algunos años en la que el individuo más apto a lo largo de las distintas generaciones no se cruza con nadie.1. Se puede encontrar en la bibliografía como OX [23]. Este cruce sólo considera el orden relativo de las soluciones. Cruces para permutación 1. no su posición.

7.2. El gen que está en la posición que ocupa el gen del cromosoma del padre igual al primer gen del cromosoma de la madre se va a colocar en la posición que ocupe en el cromosoma del padre.1. Variantes al Cruce por orden - Cruce por orden con posiciones prioritarias No se elige un tramo para intercambiarlo entre los progenitores. Cruce por ciclos (CX) Se toma el primer gen del cromosoma del padre. 1.4.2. sino un conjunto de posiciones al azar. En un algoritmo genético tendrán el mismo papel. poniéndolo dentro del cromosoma del hijo en la posición que ocupe en el cromosoma del padre. Cuando se usa una representación binaria.2. Realiza un cambio a uno de los genes de un cromosoma elegido aleatoriamente.7.1.7.3.1. En la mayoría de los casos las mutaciones son letales. y la misma frecuencia (es decir.2. y así hasta rellenar el cromosoma del hijo. muy baja) [2]. y el primer gen del cromosoma de la madre. pero en promedio. (El resto no cambia). Cruce por orden con orden prioritario: Los individuos no intercambian genes. poniéndolo en la primera posición del hijo.1. Mutación En la Evolución.2. sino el orden relativo existente entre ellas. Este método también es conocido en la bibliografía como CX. como ya se ha visto anteriormente.2.7. 1. una mutación es un suceso bastante poco común (sucede aproximadamente una de cada mil replicaciones). 1.1.1. contribuyen a la diversidad genética de la especie. Cruce por recombinación de rutas (ERX) La descendencia se construye combinando los cromosomas que interconectan los genes de los progenitores. el gen seleccionado .1.1.

2.2. aunque se distingue de la primera por ocurrir mucho más esporádicamente (el porcentaje de cruce normalmente es de más del 60%. El operador de mutación que se acaba de describir representa la denominada mutación clásica.3. Mutaciones no estacionarías: en algunas ocasiones es conveniente reducir la tasa de mutación (probabilidad de mutación) según el programa progresa.2.7.2. mientras que el de mutación normalmente nunca supera el 5%) [26]. tal y como sucede con sus equivalentes biológicos [26]. Al igual que la cruce. 1. la mutación se realiza cambiando el valor actual por otro más o menos parecido [4]. 1. la mutación se maneja como un porcentaje que indica con qué frecuencia se efectuará. Mutaciones sobre genes: Cuando un gen puede tomar más de dos valores (llamados también alelos). La forma de implementar tal reducción depende en gran medida del .2. Individuo original 1 0 1 1 0 1 0 1 1 1 1 1 1 1 0 1 Individuo después de la mutación Figura 1.7.1.se sustituye por su complemento (un cero cambia en uno y viceversa) como se puede observar en la figura 1. Aplicación del operador de mutación. Este operador permite la introducción de nuevo material cromosómico en la población. Este operador también puede tener algunas variantes al operador clásico [4].3.

. una manera sencilla es multiplicando la probabilidad de mutación por un factor de reducción cada cierto número de generaciones [4].3. Mutaciones no uniformes: Se dan distintas probabilidades de mutación a cada gen (o a cada bit dentro de un gen).7. 1. existen variantes relevantes si se trabaja con representación basada en números reales. 1.problema.7. Mutación C 1 Cromosoma a ser mutado Gradiente ascendente Gradiente descendente H1 = C1 + α∆f H1 = C1 − α∆f Depende de si se quiere minimizar o maximizar la función objetivo.2. Variantes en operadores básicos para números reales Aunque t5ambien se puede utilizar los mecanismos mencionados para codificar binarios.2.3. dependiendo de su significado.2. Por ejemplo Cruce C1 C2 escalar o vector de números reales escalar o vector de números reales H1 = C1 + α (C1 − C2 H 2 = C2 + α (C2 − C1 Hu = C1 + C2 2 ) ) (1-1) (1-2) (1-3) También se pueden producir más de dos hijos asignando una terna operación posible a cada caso.

. el cual sufre mutación y se añade al lado del anterior.2. 1. En este caso. claro está. Cromosomas de longitud variable Hay problemas en los que no se conoce de antemano el número de parámetros del mismo.4. crear un algoritmo genético de dos niveles: a nivel de cromosoma y a nivel de gen [2]. Si C es un vector habrá un 1 1 gradiente distinto para cada elemento del cromosoma. ∆f fC − fC1 ∗ = 1 ∆C1 C1 − C1 ∗ (1-4) Si C es un escalar.1. La forma más habitual de añadir un locus es duplicar uno ya existente. en la cual se pasa de soluciones "casi buenas" a "buenas" soluciones [2]. salvo. Otros operadores No se usan en todos los problemas. Si f no e ∂C a mutar y otro que difiera significativamente del C1 ∗ puede ser en cuanto a función de ajuste o de estructura. Estos operadores se utilizan para añadir un gen. se necesitan dos operadores más: añadir y eliminar. o eliminar un gen del cromosoma. y que actúan más en las últimas fases de la búsqueda. mutación. ya que para cada elemento varia el valor del denominador. y en principio su variedad es infinita. sino sólo en algunos.7. Estos operadores permiten.El gradiente pudiera ser analítico explicito derivable.2. se selecciona el individuo ∂f si f f es derivable. 1. cruce) funcionarán de la forma habitual.4. además. es directo el gradiente. En estos casos. Generalmente son operadores que exploran el espacio de soluciones de una forma más ordenada. que sólo se hará cruce en la zona del cromosoma de menor longitud [2]. los operadores del algoritmo genético simple (selección.7.

1. sobre todo en los problemas con restricciones. se aplican operadores que mantengan la estructura del problema. cambiando un 0 por un 1 en la sub cadena que corresponde al atributo [17]. Similar a este es el operador de eliminación-reinserción: en el que un gen cambia de posición con respecto a los demás [2]. dedicándose cada especie a un máximo.4. Estos operadores están encaminados a mantener la diversidad genética de la población.1. • Agrega Alternativa: generaliza una restricción sobre un atributo. Por ello. • Transposición: similar al cruce y a la recombinación genética. • Creep: este operador aumenta o disminuye en 1 el valor de un gen. Otros operadores son simplemente generadores de diversidad. pues no todas las soluciones generadas van a ser válidas. un algoritmo genético con estos operadores es capaz de hallar todos los máximos.2. son formas de enfocar la selección y la evaluación de la población [2].2. Más que operadores genéticos.7.2. cambia un gen completo de un cromosoma [2]. y son especialmente útiles en problemas con muchas soluciones. . Operadores de nicho (ecológico) Otros operadores importantes son los operadores de nicho. dos genes intercambian sus valores. sirve para cambiar suavemente y de forma controlada los valores de los genes [2]. sin afectar al resto del cromosoma. de forma que cromosomas similares sustituyan sólo a cromosomas similares. pero la generan de una forma determinada [2]: • Zap: en vez de cambiar un solo bit de un cromosoma. Operadores especializados En una serie de problemas hay que restringir las nuevas soluciones generadas por los operadores genéticos.4.3.7. pero dentro de un solo cromosoma.

• Segregación: Es lo contrario a la dominación. entonces la función de adaptación contiene un componente para evaluar la precisión de las hipótesis sobre un conjunto de entrenamiento dado [17]. elimina por completo la restricción en un atributo dado [17]. los componentes segregados no influyen de manera determinante en el grado de adaptabilidad del individuo [4]. Función de adaptación La función de adaptación (fitness) define el criterio para ordenar las hipótesis potenciales y para seleccionarlas probabilísticamente. esto es.3. 1. • Inversión: Este operador modifica la información genética de un individuo tomando dos componentes (genes) del mismo e intercambiando los valores de éstos. En este caso. al primero se le asigna la información del segundo y al segundo la información del primero [4]. para su inclusión en la siguiente generación de la población. Si la tarea consiste en aprender reglas de clasificación.• Elimina Condición: lleva a cabo una generalización más drástica. es decir. • Duplicación: Copia exactamente la información de un individuo a otro [4]. remplazando todos los bits de una sub cadena por 1s. Es la base para determinar qué soluciones tienen mayor o menor probabilidad de sobrevivir. • Translocación: Se intercambian trozos del código genético de un individuo [4].7. • Dominación: Determina algunos componentes (genes) que son preponderantes en el individuo para su valor de aptitud y da preferencia a esos componentes en otros operadores genéticos [4]. .

El orden de un esquema es el número de elementos que no son “`*'' dentro del esquema. El . El teorema dice que: Los esquemas pequeños de bajo orden arriba del promedio reciben un incremento exponencial de representantes en las siguientes generaciones de un algoritmo genético [Holland 92] El teorema del esquema caracteriza la evolución de una población en un algoritmo genético en términos del número de elementos representando cada esquema. pero la minimización puede realizarse fácilmente utilizando el recíproco de la función maximizante (debe cuidarse. t) el numero de elementos del esquema s al tiempo t. En su análisis se considera el proceso de selección y los operadores de cruce y mutación. El teorema del esquema Proporciona el fundamento teórico de porqué los AG pueden resolver diversos problemas. por supuesto. El esquema 11*00* representa las cadenas: 111001. Sea m(s. 110001. 111000. 110000. 1. El algoritmo genético únicamente maximiza. Un esquema se construye utilizando un nuevo símbolo (*) para representar un comodín (no importa) que puede aparear ambos valores (0 o 1).Se tiene que tener un balance entre una función que haga diferencias muy grandes (y por lo tanto una convergencia prematura) y diferencias muy pequeñas (y por lo tanto un estancamiento). que el recíproco de la función no genere una división por cero). Una característica que debe tener esta función es que debe ser capaz de "castigar" a las malas soluciones. de forma que sean estas últimas las que se propaguen con mayor rapidez [26]. y de "premiar" a las buenas. La longitud que define a un esquema es la distancia entre la primera posición fija y la última posición fija.4.7. La función de aptitud no es más que la función objetivo de nuestro problema de optimización.

1. hay que seleccionar a una serie de individuos encargados de tan ardua tarea. tiene que crecer más o menos con el número de bits del cromosoma. Métodos de selección El mecanismo de selección permite orientar la búsqueda a aquellos puntos más promisorios con la mayor adaptación observada hasta el momento. y aquellos que se van a eliminar.teorema del esquema describe el valor esperado de m(s. se halla la solución del problema a partir de esos parámetros. pero hay varias formas de considerarlo para seleccionar la población de la siguiente generación [2]. Para ello. Una vez evaluado el fitness. Un algoritmo genético tiene también una serie de parámetros que se tienen que fijar para cada ejecución. Evaluación Durante la evaluación. convirtiéndose en una serie de parámetros de un problema.7. como los siguientes [2]: • Tamaño de la población: debe de ser suficiente para garantizar la diversidad de las soluciones. además. A esta puntuación se le llama fitness [2]. y se le da una puntuación a esa solución en función de lo cerca que esté de la mejor solución. • Condición de terminación: lo más habitual es que la condición de terminación sea la convergencia del algoritmo genético o un número prefijado de generaciones. La .6. 1. y.7. se decodifica el gen. y los parámetros del algoritmo genético [17]. t) y otras propiedades del esquema. t + 1) en términos de m(s.5. El fitness determina siempre los cromosomas que se van a reproducir. se tiene que crear la nueva población teniendo en cuenta que los buenos rasgos de los mejores se transmitan a esta. la población. depende también del ordenador en el que se esté ejecutando. Por supuesto. El número de soluciones en una población es altamente relevante para la velocidad de optimización.

y los miembros de cada subgrupo compiten entre ellos. Luego la ruleta se hace girar. algo que se hace a menudo [28]: • Selección elitista: se garantiza la selección de los miembros más aptos de cada generación [28]. cuando todos los individuos tengan una aptitud relativamente alta y sólo les distingan pequeñas diferencias en la aptitud [28]. pero no la certeza [28]. pero otros pueden utilizarse en combinación. • Selección por torneo (T): se eligen subgrupos de individuos de la población. • Selección proporcional a la aptitud: los individuos más aptos tienen más probabilidad de ser seleccionados. 15. 26.28]. y la selección se basa en este ranking. Un algoritmo genético puede utilizar muchas técnicas diferentes para seleccionar a los individuos que deben copiarse hacia la siguiente generación. • Selección escalada: al incrementarse la aptitud media de la población. pero abajo se listan algunos de los más comunes. • Selección por rango: a cada individuo de la población se le asigna un rango numérico basado en su aptitud. cada individuo obtiene una sección de la ruleta. • Selección por rueda de ruleta o universal (R): Conceptualmente. Sólo se elige a un individuo de cada subgrupo para la reproducción [2.28]. Algunos de estos métodos son mutuamente exclusivos. pero los más aptos obtienen secciones mayores que las de los menos aptos. y en cada vez se elige al individuo que “`posea'' la sección en la que se pare la ruleta [2. la fuerza de la presión selectiva también aumenta y la función de aptitud se hace más discriminadora.selección no produce puntos nuevos en el espacio de búsqueda. Este método puede ser útil para seleccionar más tarde. 26. sino que determina que individuos dejaran descendencia y en que cantidad en la próxima generación [12]. La ventaja de este método es que puede evitar que individuos muy aptos ganen . esto puede representarse como un juego de ruleta. en lugar de las diferencias absolutas en aptitud.

• Selección por escaños: se divide el rango del número aleatorio en un número predeterminado de escaños. es decir.dominancia al principio a expensas de los menos aptos. se asignan de forma aleatoria. aquellos en que se aplica directamente la ley d'Hont. • Selección generacional: la descendencia de los individuos seleccionados en cada generación se convierte en toda la siguiente generación. sólo que los escaños no asignados directamente. La ventaja de este método es que reduce el tiempo total de cálculo al utilizar una evaluación más rápida y menos selectiva para eliminar a la mayoría de los individuos que se muestran poco o nada prometedores. reemplazando a algunos de los miembros menos aptos de la siguiente generación. Los escaños se reparten de acuerdo con la ley d'Hont. Se conservan algunos individuos entre generaciones [28]. mientras que los que sobreviven hasta niveles más altos son evaluados más rigurosamente. lo que reduciría la diversidad genética de la población y podría obstaculizar la búsqueda de una solución aceptable [2. • Selección jerárquica: los individuos atraviesan múltiples rondas de selección en cada generación.28]. Las evaluaciones de los primeros niveles son más rápidas y menos discriminatorias. Se observa que es más probable escoger un elemento de baja probabilidad por este método que en el de selección por sorteo. y sometiendo a una evaluación de aptitud más rigurosa y computacionalmente más costosa sólo a los que sobreviven a esta prueba inicial [28]. No se conservan individuos entre las generaciones [28]. • Selección por estado estacionario: la descendencia de los individuos seleccionados en cada generación vuelven al acervo genético preexistente. La probabilidad de escoger un elemento de muy baja probabilidad es más alta que en el de selección por escaños. . • Selección por restos estocásticos: igual que el método de selección de escaños. tomando como «puntuación» para repartir los escaños el grado de adaptación.

Mecanismos de Reemplazo Los mecanismos de reemplazo permiten mantener la población constante. con la cual se calcula la probabilidad pi que tiene cada individuo i’ para formar parte de la muestra [4]: p i= fi (1-5) ∑ fj j =0 n Donde: n : tamaño de la población f: función de aptitud 1.7.) Este criterio puede usarse con variación según la relación entre s y n [4]: . Reemplazo por similitud Cada descendiente reemplaza aquel miembro de la población que más se le asemeja. de modo que con un solo lanzamiento se obtienen M ganadores. los de mayor uso y aceptación son [4]: Reemplazo directo Los progenitores son reemplazados directamente por sus descendientes. Obviamente.• Selección estocástica universal SUS: es análogo a la ruleta con M puntos igualmente espaciados entre si. Entre los mecanismos de reemplazo. Al igual que en el caso directo. este criterio solo puede usarse si s < n [4]. normalmente relacionada a su valor de aptitud. El método SUS no tiene sesgo y su dispersión es la mínima posible [12].7. debe cumplirse que s < n [4]. • Selección por sorteo :Se asume que cada individuo de la población tiene una cierta puntuación. Reemplazo por inserción (.

7. cada individuo vive sólo por una generación.Si s n. Se busca desde una población de puntos y no desde uno solo. Se hace uso de operadores estocásticos para las transformaciones. en vez de reglas de transición determinísticas . Si S > n: Se toma una muestra (con algún criterio) de tamaño n de los s descendientes. normalmente se toman los peores. Búsqueda Basada en Población. conformando una población auxiliar de tamaño s + n. Codificación de Parámetros.8. de esta población auxiliar. Esta escogencia se hace a través de algún criterio de muestreo. los cuales serán sustituidos por los s descendientes. No disponen de ningún conocimiento específico del problema. se toma una muestra de tamaño n según algún criterio de selección [4]. sin requerir más información derivada o auxiliar. Luego. Función Objetivo como Elemento a Optimizar. Características de los AGs Los AGs poseen características que determinan su funcionamiento y su aplicabilidad en determinados problemas. 1. Bajo este esquema. Operadores Aleatorios. Reemplazo por inclusión (+} Se unen los n miembros de la población con los s descendientes. Se trabaja con la codificación de un conjunto de parámetros (o un subconjunto de ellos) y no con los parámetros en sí. Estas son [4]: Búsqueda Ciega. Se usa una función objetivo o función de evaluación para definir lo que se desea optimizar. Se escogen s individuos de la población.

Es decir.10. Algunos de estos individuos seleccionados sufren ciertas alteraciones por la acción de diferentes operadores genéticos encargados de introducir nuevos elementos en la población. Los descendientes obtenidos a través de la selección y la recombinación. el algoritmo finaliza cuando se ha ejecutado un número determinado de iteraciones prefijado de antemano. en primer lugar (y una vez codificados los miembros de la población Inicial). se evalúa su idoneidad y se seleccionan los mejores cromosomas. dos son los operadores genéticos a destacar: el cruce y la mutación [24]. cuando se ha encontrado el óptimo [24].1. Para ello. ¿Como funcionan? El funcionamiento de un algoritmo genético clásico comienza generando una población inicial aleatoria de candidatos a ser el óptimo y usa la información contenida en ella con el fin de producir iterativamente nuevas y “mejores” poblaciones. En los algoritmos genéticos clásicos. 1. constituyen lo que se conoce como una generación.9.7. ¿Por qué utilizar algoritmos genéticos en la optimización? La razón del creciente interés por los algoritmos genéticos es que estos son un método global y robusto de búsqueda de las soluciones de problemas. Esa “calidad” se entiende en términos de la medida que de su idoneidad proporciona la función de ajuste [24]. .7. La principal ventaja de estas características es el equilibrio alcanzado entre la eficiencia y eficacia para resolver diferentes y muy complejos problemas de grandes dimensiones [24]. El proceso se repite durante generaciones hasta que se alcanza una cierta condición de parada.

1. Convergencia del Algoritmo Dado que el algoritmo genético opera con una población en cada iteración. Esta teoría se basa principalmente en considerar que una cadena es un representante de una clase de equivalencia o esquema.7. ¿Cómo saber si es posible usar el Algoritmo Genético? No todos los problemas pudieran ser apropiados para la técnica. 1. Como se van a tratar a los individuos que no cumplan las restricciones .7.1. Se ha desarrollado toda una teoría para estudiar la convergencia de estos algoritmos en el caso de cadenas binarios. y se recomienda en general tomar en cuenta las siguientes características del mismo antes de intentar usarla [26]: · Su espacio de búsqueda (sus posibles soluciones) debe estar delimitado dentro de un cierto rango.13. Las soluciones deben codificarse de una forma que resulte relativamente fácil de implementar en el computador.7. • Criterio de tratamiento de individuos no factibles. y en el infinito se reduzca a un sólo individuo [6]. · Debe poderse definir una función de aptitud que indique qué tan buena o mala es una cierta respuesta. reinterpretando la búsqueda en lugar de entre cadenas.11. Como se va a almacenar la información en el cromosoma.12. Decisiones para implementar un algoritmo genético Las decisiones que hay que tomar para implementar un algoritmo genético son: • Criterio de codificación. se espera que el método converja de modo que al final del proceso la población sea muy similar. entre esquemas [6].

ruidosa. Ventajas de los AGs • los algoritmos genéticos son intrínsecamente paralelos. Los AGs tienen .15. 1.29]. • Usan operadores probabilísticos. pueden explorar el espacio de soluciones en múltiples direcciones a la vez [28.29]. en vez de los típicos operadores determinísticos de las otras técnicas [26]. son fundamentales para el funcionamiento de un algoritmo genético. no son la panacea. Desventajas o limitaciones que tienen los AG con respecto a otras técnicas de búsqueda Aunque los algoritmos genéticos han demostrado su eficiencia y potencia como estrategia de resolución de problemas. del tamaño de la población.• Criterio de inicialización. 1. • Criterio de parada. por ejemplo. Determinados parámetros que. • Otra área en el que destacan los algoritmos genéticos es su habilidad para manipular muchos parámetros simultáneamente [28. • funcionan particularmente bien resolviendo problemas cuyo espacio de soluciones potenciales es realmente grande (demasiado vasto para hacer una búsqueda exhaustiva en un tiempo razonable) [28]. la probabilidad de la aplicación de los operadores genéticos. • los AGs no saben nada de los problemas que deben resolver [28].7. cambia con el tiempo. o tiene muchos óptimos locales [28]. Determina cuándo el algoritmo ha llegado a una solución aceptable. Es el caso. sin poder ser englobados en ninguno de los anteriores. Operadores genéticos. Criterios de reemplazo. Cómo se va a construir la población inicial del algoritmo genético. • se desenvuelven bien en problemas con un paisaje adaptativo complejo.7. • • • • Función de adaptación. aquéllos en los que la función de aptitud es discontinua. Parámetros de funcionamiento.14.

o no converger en absoluto. • Una dificultad práctica al usar algoritmos genéticos es conocida como crowding. dependiendo en cierta medida de los parámetros que se utilicen (tamaño de la población. puede alterarse el desarrollo de esquemas beneficiosos y la población puede entrar en catástrofe de errores. es decir. ocupan una fracción importante de la población reduciendo la diversidad de la población. etc. se ha demostrado que todas ellas pueden superarse y que ninguna de ellas afecta a la validez de la evolución biológica [28]. puede que el algoritmo genético no explore suficientemente el espacio de soluciones para encontrar buenas soluciones consistentemente. • Si el tamaño de la población es demasiado pequeño.ciertas limitaciones. o bien de individuos muy parecidos. haciendo la búsqueda más lenta. o puede acabar resolviendo el problema equivocado [28]. . puede que el algoritmo genético sea incapaz de encontrar una solución al problema. sin embargo. un individuo que es mas apto que otros miembros de la población. Eso se puede solucionar escogiendo un apropiado método de selección [17]. • Si se elige mal una función de aptitud o se define de manera inexacta.) [26]. • Pueden tardar mucho en converger. • • Pueden converger prematuramente debido a una serie de problemas de diversa índole [26]. número de generaciones. comienza a reproducirse rápidamente de tal forma que copias de este individuo. En este fenómeno. El lenguaje utilizado para especificar soluciones candidatas debe ser robusto. Si el ritmo de cambio genético es demasiado alto o el sistema de selección se escoge inadecuadamente. al cambiar demasiado rápido para que la selección llegue a producir convergencia [28]. debe ser capaz de tolerar cambios aleatorios que no produzcan constantemente errores fatales o resultados sin sentido [28].

16. ya que éstos alcanzarán la región óptima mucho más lento que los métodos hill-climbing.17.7. .G. sino únicamente la propia función objetivo. Diferencias entre los Métodos Tradicionales y los A. no se recomienda usar los AG.7. SA y Simplex los cuales no requieren información del gradiente [16]. dada la característica de los AG de ser buenos encontrando la región óptima global pero enfrentando problemas algunas veces para localizar el óptimo exacto [16]. Los A. Consideraciones al usar algoritmos genéticos Tomar cualquier método de optimización para trabajar de una manera óptima requiere alguna experimentación con sus parámetros de configuración y selecciones inadecuadas de éstos conducirán a un bajo rendimiento en la búsqueda.G. Otro tipo de aplicaciones no recomendadas para los AG son aquellas que requieren encontrar el óptimo global exacto. Para las aplicaciones donde el cálculo del vector gradiente es numéricamente preciso y rápido. se rigen mediante reglas de transición probabilísticas. no utilizan derivadas ni otras propiedades de la función objetivo. Ya que los métodos analíticos tradicionales consumen mucho menos tiempo y potencia computacional que los [28]. no determinísticas.• Se aconseja no utilizar algoritmos genéticos en problemas resolubles de manera analítica. 2. Los A.G. 1. 1. Se puede decir que los Algoritmos Genéticos difieren de los principales métodos tradicionales de optimización en cuatro puntos fundamentales de los cuales no han sido mencionados [15]: 1. Cuando no se conoce mucho acerca de la superficie de respuesta y calcular el gradiente es computacionalmente intensivo o numéricamente inestable muchas personas prefieren usar métodos de optimización como AG.

Si se diseñan adecuadamente.8. tal representación se hace de forma directa. De esta manera.1. Además.1. Se distinguen dos grandes grupos de PEs según la naturaleza de los objetos tratados [23]: PEs. Sin embargo. Mientras en los AGs se hace necesaria una codificación de las soluciones del problema. especializados en optimización paramétrica PEs. también se pierde el paralelismo implícito (basado en alfabetos de símbolos mínimos). en los PEs. PEs en optimización paramétrica Por precisión y eficiencia no es conveniente utilizar AGs en problemas de optimización paramétrica.8. especializados en optimización combinatoria 1. puesto que permiten la utilización de estructuras de datos naturales. . esta pérdida se compensa con el procesamiento de información más útil [14]. Los PEs surgieron al resolver problemas de optimización paramétrica en los que se requería alta precisión [23]. Los PEs no son restrictivos en cuanto a la representación del problema. se requería un esquema que permitiese representar a los individuos como arreglos de números reales donde cada uno de esos números seria un gen [4]. los PEs pueden competir en eficiencia y calidad de las soluciones con métodos específicos (más costosos de implementar) [23]. con la incorporación de conocimiento específico. los PEs son métodos que incorporan directamente conocimiento específico a los AGs. PROGRAMAS EVOLUTIVOS (PEs) Los programas evolutivos fueron presentados en 1994 por Michalewicz. de perder un poco de generalización.

Son relativamente sencillas. con el paso del tiempo fueron incorporando procedimientos propios de la computación evolutiva. desarrolladas en 1964 por Rechenberg.8.2. con las siguientes distinciones [14]: a. PEs en optimización combinatoria Existen algunos problemas que se caracterizan por la existencia de soluciones que se componen secuencialmente. se tratarán a los PEs como una variación de los AGs. 1. es decir.3.9.25].1. Por lo cual. permitiendo una basta cantidad de posibilidades. Las EEs pueden dividirse en dos tipos: Estrategias Evolutivas Simples y Estrategias Evolutivas Múltiples. 1. ESTRATEGIAS EVOLUTIVAS (EEs) Las Estrategias Evolutivas.1. una selección determinística y operadores genéticos específicos de cruce y mutación. está más cercana al dominio del problema. con lo que han llegado a convertirse en una disciplina más.8. [8. dando un conjunto de elementos se pueden obtener diferentes arreglos ordenados de estos . compartiendo exactamente su estructura básica. b. Su principal característica es que utilizan una representación de vectores reales. surgieron inicialmente para resolver problemas de optimización paramétrica. Programas Evolutivos y Algoritmos Genéticos Desde el punto de vista práctico. 14. 1. se hace evolucionar un solo individuo usando únicamente a la mutación como operador genético.9. EEs Simples En este caso. Los operadores genéticos son específicos al contexto del problema. los cuales se denominan problemas de optimización combinatoria [4]. La representación es más natural. y se .

1. A continuación se presentan las diferencias más significativas entre ambos métodos [14]: a. mientras que en los AGs es el cruce. mientras que en las EEs se presenta exactamente lo contrario.9. En las EEs múltiples existen múltiples individuos (población). las cuales tienden a converger hacia subóptimos. Las EEs son más fuertes por lo que los AGs son mucho más generales b.denominan también EEs de dos miembros. Debido a que evoluciona un solo individuo a la vez. es una estrategia de optimización estocástica similar a los Algoritmos Genéticos. El operador fundamental en las EEs es la mutación. El libro "Artificial Intelligence Through Simulated Evolution" publicado en 1966 por Fogel. y se producen en cada generación varios nuevos individuos. usando tanto mutación como cruce (también puede usarse cualquier otro operador [14]. Fogel en 1960. EEs Múltiples Surgen como respuesta a las debilidades de las EEs simples.9. puesto que parten de enfoques distintos. 1. no son consideradas estrictamente como métodos evolutivos [14]. Los AGs realizan búsqueda global. Owens y Walsh es la publicación clave para las aplicaciones de la EP [14].10. Se puede decir que las EEs son un tipo especial de AGs o viceversa. . Estrategias Evolutivas y Algoritmos Genéticos Los puntos de inicio de los AGs y de las EEs son diferentes. Programación evolutiva (EP) La Programación Evolutiva originalmente fue concebida por Lawrence J.2. 1. c.3.

4. La figura 1. donde os números representan los símbolos de entrada. las letras griegas símbolos de salida. etc. un error promedio para cada máquina es calculado para indicar la aptitud de ella. como una función error (error absoluto.C). dos Símbolos de entrada (0. esto es. . error cuadrático. Para cada máquina de Estados Finitos. Maquina de estados finitos de tres estados (A. por cada símbolo de entrada que se le presenta se determina el símbolo de salida que da y se compara con el del ambiente (también puede compararse su próximo estado con el que corresponde en el ambiente). Las máquinas que presenten el mejor resultado (mínimo error) se retienen para ser padres en la próxima generación [4]. a una secuencia de símbolos observados en un momento dado.).Una maquina de estados finitos es un transductor que puede ser estimulado por un alfabeto finito de símbolos de entrada que puede responder a un alfabeto finitos de símbolo de salida. y que posee algún numero finito de estados internos diferentes. Después que se hace la última predicción.B. Así.1) y tres símbolos de salida En la programación evolutiva. un conjunto de maquinas de estado finitos (son los individuos) se expone a un ambiente. 0/ 0/ B 0/ 1/ 1/ A 1/ C Figura 1. la predicción de cada máquina de Estados Finitos es media respecto al ambiente.4 muestra una maquina de estados finitos. y los caracteres en mayúscula representan los estados [4].

1. 5. A cada solución hija se le calcula y asigna un valor de adaptación. Crear nuevos hijos usando mutación 5. Evaluar comparando su salida con la próxima entrada para ver si predijo bien. 3. Definir la secuencia de símbolos y función objetivo como una matriz de pago. Algoritmo General 1. Cambiar símbolos 5. 4. El método de EP básico involucra tres pasos (repetidos hasta que se excede el umbral de iteraciones o hasta que se encuentre una solución adecuada) [14]: 1. 2.Funciones de optimización combinatoria y de valores reales en las cuales. 1.10.2 Cambiar estado de transición 5. Inicializar la población de Máquinas de Estado Finito (MEF). 3. presentando muchas soluciones óptimas locales.3 Añadir o eliminar estado . son bien tratadas a través de la EP [14]. Introducir símbolo de entrada a la población de MEF y observar su salida. la superficie de optimización es abrupta. 2. Debe resaltarse que la EP típicamente no utiliza el cruzamiento como operador genético. Selección de forma aleatoria de una población inicial de posibles soluciones.1. Cada solución se replica en una nueva población. Para la EP. existe una suposición muy importante que consiste en que la función de fitness puede caracterizarse en término de las variables. y además existe una solución óptima (o múltiples óptimos) en función de dichas variables [14].

10. Se aplican mutaciones gaussianas multivariadas de media cero a cada padre de una población [14].4 Cambiar estado inicial 6. las EEs es una abstracción de la evolución a nivel del comportamiento individual. . Recombinación: La EP es una abstracción de la evolución al nivel de poblaciones reproductivas (es decir. Las principales diferencias entre EEs y EP son [14]: 1. En contraste. En contraste. la operación mutación simplemente cambia aspectos de la solución de acuerdo a una distribución estadística. Segundo.10.5. Ambas técnicas típicamente operan sobre los valores reales. la representación depende del problema [14]. estas dos técnicas presentan bastantes similitudes. 1. no existe restricción en la representación. la cual reconoce que menores variaciones en el comportamiento de los descendientes son altamente probables. Selección: la EP típicamente utiliza una selección estocástica a través de un torneo. Programación Evolutiva y Algoritmos Genéticos Existen dos aspectos importantes en los cuales la EP difiere de los AG. 2. especies). las EEs utiliza una abstracción de la evolución a nivel del comportamiento del individuo. y que variaciones sustanciales son altamente improbables [14]. Seleccionar los mejores padres 1. por ende no se usan mecanismos de recombinación debido a que esta no ocurre entre especies. En la EP.3. Programación Evolutiva y las Estrategias Evolutivas A pesar de haber sido desarrolladas de forma independiente a lo largo de 30 años. Primero.2.

La PG combina la expresiva representación simbólica de alto nivel usada en los programas de computación.1. Un programa de computación que resuelve (o aproximadamente resuelve) un problema dado. Esto significa. PROGRAMACIÓN GENÉTICA (PG) La PG es un método independiente del dominio que generalmente reproduce poblaciones de programas de computación. con el fin de resolver problemas. la PG demuestra que es posible [14]: .11. La PG es una extensión de los AGs. que no se está en la búsqueda de soluciones a los problemas planteados. el número total de pasos) y de la misma manera determina la secuencia exacta de funciones primitivas y terminales que son ejecutadas por el programa. frecuentemente emerge de este proceso. Los elementos básicos de la PG fueron introducidos por Koza a partir de 1987 en diferentes trabajos de investigación realizados por él y un grupo de colaboradores. con el fin de descubrir un programa de computación que produzca algunas salidas deseadas cuando se presentan ciertos valores particulares en las entradas. sino en encontrar el mejor procedimiento para resolverlos. en la cual la población genética está contenida por programas de computación [14]. La PG establece los siguientes aspectos que son muy importantes [14]: Una amplia variedad de problemas aparentemente diferentes provenientes de distintos campos pueden ser combinados. La PG determina automáticamente el tamaño del programa (es decir. La primera corrida usando PG se hizo en ese mismo año y sus bases teóricas fueron descritas en detalle en 1988 [14]. Específicamente. con la eficiencia de la búsqueda alrededor del óptimo que realizan los AGs. [14]. La PG provee una forma de hacer programación inductiva.

IF. Crear de forma automática programas cuyas ramas se construyen de acuerdo a la estructura sintáctica restrictiva. TIME. >. la siguiente expresión [4]: (+ 1 2 (IF (> TIME 10) 3 4)) Contiene los átomos: 1. funciones matemáticas.5. Las funciones pueden ser operaciones aritméticas. En la práctica. 3. tanto las funciones como los símbolos pueden implementarse de manera sencilla usando “expresiones-S” de LISP. funciones lógicas. Crear de forma automática programas con múltiples ramas. . y las funciones:+.Crear de forma automática programas que poseen una única rama principal. Crear de forma automática programas formados de un programa principal y una o más subrutinas que pueden referenciarse jerárquicamente unos con otros. o funciones específicas del dominio [4]. 4. Por ejemplo. En la PG. El respectivo arrebol se observa en la figura 1. 2. la representación de los individuos se hace a través de unas estructuras de datos jerárquicamente enlazadas que reciben el nombre de árboles de análisis como se muestra en la figura 2.6 [4]. 10.

6.789) (b): (*(* Z Y) (+Y 0.23 Z (a) X Y (b) Y * 0. Funcionamiento de los operadores genéticos Tomando como los árboles padres de la figura 1.1.6.X 0.+ I 1 2 F > 3 4 TIME 10 Figura 1. (a): (+ (+ 0. Árboles padres para el operador de cruce Z .7.234 Z) (.11.78 + 0.5. Si se toma la raíz del árbol como punto de cruce.314 Z))) + * Z + * 0. Ejemplo de un árbol de análisis 1. mientras que el hijo 2 las derechas como se observa en la figura 1. el hijo 1 contendrá las ramas izquierdas de los padres.31 4 Figura 1.

descubrimiento empírico. modelado. + + 1 4 2 I F > 3 4 TIME 10 Figura 1.23 Z Y * X (b) 0. ya sea por otras ramas o por símbolos terminales).* + * - + - Z Y (a) 0.X 0.8.11.8 se le cambia el símbolo Terminal 1 por una nueva rama [4].2.31 Z Figura 1.78 0. o modificar funciones (cambiar ramas ya existentes. ya que permite cambiar símbolos terminales por funciones (crear nuevas ramas).314 Z)) (.1. Mutación en PG El operador de mutación tiene una implementación mas intuitiva.234 Z)) (b): (+ (+ Y (* 0. minería de datos (data .789)) 1.7. Árbol obtenido por mutación de un árbol padre Los problemas resueltos en la PG involucran regresión simbólica (sistemas de identificación. En el árbol de la figura 1. Árboles hijos obtenidos por el cruce (a): (*(* Z Y) (+ 0.

optimización. redes neuronales y máquinas de aprendizaje [14]. En este método. proyecciones). inducción. A diferencia de los otros métodos de CE en este se debe escoger una operación de alteración de arquitectura del repertorio de este tipo de funciones disponibles y crear un nuevo programa hijo para la nueva población.11. Los problemas en PG incluyen muchos problemas actuales presentes en área como inteligencia artificial. árboles de decisión de inducción y muchas otras.3. o sustituyendo un subárbol por otro [25]. clasificación. pues ocultan todos los detalles de implementación. los cambios aleatorios pueden generarse cambiado el operador o alterando el valor de un cierto nodo del árbol. problemas que exhiben comportamiento emergente. juegos. Ejemplos . Ambientes de Programación En la actualidad existe un gran número de ambientes de programación disponibles en el mercado para experimentar con los algoritmos. compresión de imágenes. ya que produce soluciones satisfactorias a una amplia variedad de problemas provenientes de diferentes campos [14].mining). problemas inversos. 1. programación de autómatas celulares. construcción aleatoria. 1. Algoritmo General Los pasos de este algoritmo consisten en crear una población inicial y entonces de forma iterativa ejecutar el ciclo generacional principal. pueden distinguirse 3 clases de ambientes de programación [26]: 1) Sistemas Orientados a las aplicaciones: Son esencialmente "cajas negras" para el usuario. resolución de ecuaciones.12. control. problemas que involucran coevolución. Con todo esto se puede concluir que esta técnica posee un atributo muy importante como la aplicabilidad. La adaptación (fitness) de cada individuo en la población se determina y las operaciones genéticas se llevan a cabo en dicho ciclo principal. integración simbólica y diferenciación.

13. como los genes. 1. Inc. . son diferentes dentro de un mismo individuo.de este tipo de sistemas son: Evolver (Axcelis. • Tipo individuo Los aspectos de tipo individuo son aquellos que se mantienen iguales en un mismo individuo. según la siguiente. • Tipo gen Los aspectos de tipo gen serán aquellos que. Programas autoconfigurables Es interesante agrupar todos los aspectos y opciones en cuatro categorías. 2) Sistemas Orientados a los algoritmos: Soportan algoritmos genéticos específicos.) y XpertRule GenAsys (Attar Software). pero difieren de unos agentes a otros. algoritmos y operadores genéticos que pueden aplicarse en una enorme gama de problemas. · Sistemas de Propósito General. 3) Cajas de Herramientas: Proporcionan muchas herramientas de programación. y suelen subdividirse en: · Sistemas de uso específico · Bibliotecas En estos sistemas se proporciona el código fuente para que el usuario (normalmente un programador) pueda incluir el algoritmo genético en sus propias aplicaciones. Normalmente se subdividen en: · Sistemas Educativos.

Pero estos métodos basados en el cálculo tienen cierta carencia de robustez. Los métodos basados en el cálculo se subdividen a su vez en directos e indirectos. De todas formas no se debe confundir los métodos puramente aleatorios con aquellos que utilizan la aleatoriedad como una técnica en una búsqueda guiada mediante la explotación de buenas características de algún .• Tipo isla Los aspectos de tipo isla son aquellos que son iguales para un subconjunto de individuos. En segundo lugar. debida principalmente a dos causas. Robustez de los Métodos de Optimización y Búsqueda Tradicionales Existen en la literatura tres tipos principales de métodos de búsqueda a saber: basados en el cálculo. Por otro lado. Finalmente. realizan una búsqueda punto a punto. • Tipo población Los aspectos de tipo población son los que deben ser iguales para toda la población. los algoritmos de búsqueda aleatorios poseen igualmente una falta de eficiencia. pero sin llegar al total. es necesario que las funciones a optimizar sean derivables [15]. Es evidente que cuando el espacio de búsqueda es de un tamaño importante estos métodos carecen de eficiencia [15]. de más de uno. lo que en muchos casos deriva en un óptimo local. Los métodos indirectos realizan la búsqueda de extremos locales mediante la resolución de sistemas de ecuaciones no lineales resultantes de igualar a cero el gradiente de la función a optimizar. es decir se busca mejorar dentro de un entorno del estado actual. los métodos directos buscan óptimos locales moviéndose sobre la función en dirección del gradiente local. En primer lugar la búsqueda se realiza localmente. Los métodos enumerativos. como su propio nombre indica. enumerativos y aleatorios [15]. 1.14.

. este tipo de técnica es utilizada por los algoritmos genéticos [15]. De alguna manera.punto ya encontrado.

1. el controlador PID es aún el más ampliamente utilizado en la industria moderna. Introducción Hoy en día. controlando más del 95% de los procesos industriales en lazo cerrado. de dos posiciones o encendido y apagado (on/off) 2. sobre conducción de barcos. Los controladores automáticos comparan el valor real de la salida de una planta con la entrada de referencia (el valor deseado).1.2. Sin embargo. Clasificación de los controladores industriales: los controladores industriales se clasifican. La manera en la cual el controlador produce una señal de control se denomina acción de control.Capítulo 2 Controladores PID 2. determina la desviación y produce una señal de control que reducirá la desviación a cero o a un valor pequeño. integrales . ya las primeras estructuras de control usaban las ideas del control PID. que el control PID cobró verdadera importancia teórica. ACCIONES BASICAS DE CONTROL Para analizar las acciones básicas de control que utilizan los controladores analógicos industriales primero se hará una clasificación de los controladores analógicos industriales [32]. 2. Históricamente. de acuerdo con sus acciones de control como [32]: 1.2. no fue hasta el trabajo de Minorsky de 1922. a pesar de la abundancia de sofisticadas herramientas y métodos avanzados de control. 2. proporcionales 3.

El tipo de controlador que se use debe decidirse con base en la naturaleza de la planta y las condiciones operacionales.2. El controlador detecta la señal de error y la amplifica a un nivel lo suficientemente alto. El sensor.1 es un sistema de control industrial que consiste en un controlador automático. incluyendo consideraciones tales como seguridad. tal como un desplazamiento. un actuador. es un dispositivo que convierte la variable de salida en otra variable manejable. una planta y sensor (elemento de medición).derivativos 6. proporcionales. La salida de un controlador automático se alimenta a un actuador. actuador y sensor (elemento de medición): el diagrama en bloques de la figura 2. o un motor eléctrico.2.integrales 5. Los controladores también pueden clasificarse. hidráulicos o electrónicos. 2. peso y tamaño [32]. a fin de que la señal de salida se aproxime a la señal de entrada de referencia. proporcionales.integrales-derivativos Casi todos los controladores industriales emplean como fuente de energía la electricidad o fluido despresurizado. Controlador automático. o un voltaje que pueda usarse para comparar la salida con la señal de entrada de referencia [32]. tal como el aceite o el aire. tal como un motor o una válvula neumática. como neumáticos. un motor hidráulico. costo.4. . El actuador es un dispositivo de potencia que produce la entrada para la planta de acuerdo con la señal de control. precisión. o elemento de medición. disponibilidad. de acuerdo con el tipo de energía que utilizan en su operación. una presión. proporcionales.

Controlador automático

Detector de errores Entrada De referencia + Punto De ajuste amplificador Señal De error Actuador Planta Salida

Sensor

Figura 2.1. Diagrama en bloques de un sistema de control industrial, formado por un controlador automático, un actuador, una planta y un sensor. (Elemento de medición)

2.2.3. Controladores auto-operados: en la mayor parte de los controladores automáticos industriales, se usan unidades separadas para el elemento de medición y el actuador. Sin embargo, en algunos muy sencillos, como los controladores auto-operados, estos elementos se integran en una unidad. Los controladores auto-operados utilizan la potencia desarrollada por el elemento de medición, son muy sencillos y poco costosos [32]. 2.2.4. Acción de control de dos posiciones o encendido y apagado (on/off): en un sistema de control de dos posiciones, el elemento de actuación sólo tiene dos posiciones fijas que, en muchos casos, son simplemente encendido y apagado. El control de dos posiciones o de encendido y apagado es relativamente simple y barato, razón por la cual su uso se ha extendido en sistemas de control tanto industriales como domestico [32].

Si se supone que la señal de salida del controlador es u(t) y que la señal se error es e(t). En el control de dos posiciones, la señal u(t) permanece en un valor ya sea máximo o mínimo, dependiendo de si la señal de error es positiva o negativa. De este modo, u(t)= U1 para e(t)>0 u(t)= U2 para e(t)<0 (2-1) (2-2)

En donde U1 y U2 son constantes. Por lo general, el valor mínimo de U2 es cero o –U1.

Las figuras 2.2(a) y 2.2(b) muestran los diagramas de bloques para dos controladores de dos posiciones. El rango en que debe moverse la señal de error antes de que ocurra la conmutación se denomina brecha diferencial. En la figura 2.2(b) puede observar una brecha diferencial. Tal brecha provoca que la salida del controlador u(t) conserve su valor presente hasta que la señal de error se halla desplazado ligeramente mas allá de cero. En algunos casos, la brecha diferencial es el resultado de una fricción no intencionada y de un movimiento perdido; sin embargo, con frecuencia se provoca de manera intencional para evitar una operación demasiado frecuente del mecanismo de encendido y apagado [32].

e + -

U1 U2

u

Figura 2.2(a). Diagrama de bloques de un controlador de encendido y apagado

Brecha

e + -

U1 U2

u

Figura 2.2 (b). Diagrama de bloques de un controlador de Encendido y apagado con una brecha diferencial

2.2.5. Acción de control proporcional: El control proporcional se conoce como control continuo, ya que proporciona una respuesta instantánea del controlador a los cambios que existan en el error.

Para un controlador con acción proporcional, la relación entre la salida del controlador u(t) y la señal de error e(t) es :

U(t)= Kpe(t)

(2-3)

O bien, en cantidades transformadas por el método de laplace

U ( s) = Kp E ( s)

(2-4)

En donde Kp se considera la ganancia proporcional. El Controlador proporcional es, en esencia, un amplificador con una ganancia ajustable. El la figura 2.3 se presenta un diagrama en bloques de este controlador.

E(s)

U(s) Kp

+

)) -

))

Figura 2.3. Diagrama en bloques de un controlador Proporcional.

2.2.6. Acción de control integral: en un controlador con acción de control integral, el valor de las salida del controlador u(t) se cambia a una razón proporcional a la señal de error e(t):

du (t ) = K i e(t ) dt

(2-5)

O bien u (t ) = k i ∫ e(t )dt 0 t (2-6) En donde Ki es una constante ajustable.7. Lo hace por medio de la integración o acumulación del error en el tiempo [32].4 se muestra un diagrama en bloques de este controlador [32]. En ocasiones. Diagrama en bloques de un controlador integral La función principal de la acción integral es asegurar que la salida de los procesos acceda con el punto de trabajo en estado estable. el valor de u(t) permanece estacionario. Acción de control proporcional. la acción de control integral se denomina control de reajuste (reset).integral (PI) se define mediante .2. 2. En la figura 2.4. el valor de u(t) varia dos veces mas rápido. El propósito de la acción integral de control es eliminar el error en estado estacionario u “Offset”. E(s) )) + - Ki s U(s) ) Figura 2. Para un error de cero. La función de transferencia del controlador integral es: U ( s ) ki = E (s) s (2-7) Si se duplica el valor de e(t).integral: la acción de un controlador proporcional.

como se aprecia en la figura 2. E(s) )) + - K p (1 + Ti s Ti s ) U(s) ) Figura 2. mientras que un cambio en el valor de Kp afecta las partes integral y proporcional de la acción de control. La velocidad de reajuste es la cantidad de veces por minuto que se duplica la parte proporcional de la acción de control. La figura 2. El inverso del tiempo integral Ti se denomina velocidad de reajuste. Tanto como Kp como Ti son ajustables. El tiempo integral ajusta la acción integral.u (t ) = k p e(t ) + kp Ti ∫ e(t )dt 0 t (2-8) O la función de transferencia del controlador es  U ( s) 1  = k p 1 +  Ts  E ( s) i   (2-9) En donde Kp es la ganancia proporcional y Ti se denomina tiempo integral. La velocidad de reajuste se mide en términos de las repeticiones por minuto.6 .5. .7.5 muestra un diagrama en bloques de un controlador proporcional más integral [32]. Diagrama en bloques de un controlador proporcionalIntegral Si la señal de error e(t) es una función escalón unitario. la salida del controlador u(t) se convierte en lo que se muestra en la figura 2.

Acción de control proporcional – derivativa: la acción de un controlador proporcional. Entrada escalón unitario t Acción de Control PD u(t) ) (Solo proporcional) K 0 t Figura 2.derivativa (PD) se define mediante u (t ) = k p e(t ) + k p Td de(t ) dt (2-10) Y la función de transferencia es U ( s) = k p (1 + Td s E (s) ) (2-11) . Se puede demostrar que un control PI es adecuado para todos los procesos donde la dinámica es esencialmente de primer orden [32].8. Salida del controlador a un escalón unitario Muchos controladores industriales tienen solo acción PI.2.Escalón E(t) )))) 1 0 Figura 2.7.6. 2.

9. La acción de control derivativa. Tanto como Kp como Td son ajustables.9.derivativo.10 [32]. Diagrama en bloques de un controlador proporcionalDerivativo. la salida del controlador u(t) se convierte en la que se muestra la figura 2. ocurre donde la magnitud de la salida del controlador es proporcional a la velocidad de cambio de la señal de error.8. E(s) )) + - K p (1 + Td s ) U(s) ))) Figura 2. es en ocasiones denominada control de velocidad. Si la señal de error e(t) es una función rampa unitaria como se aprecia en la figura 2. La figura 2. E(t) ) Rampa 0 Figura 2.Donde kp es la ganancia proporcional y Td es una constante denominada tiempo derivativo.8 muestra un diagrama de bloques de un controlador proporcional. Entrada rampa unitaria t . El tiempo derivativo Td es el intervalo de tiempo durante el cual la acción de la velocidad hace avanzar el efecto de la acción de control proporcional.

permite un valor mas grande que la ganancia K. El propósito de la acción derivativa es mejorar la estabilidad a lazo cerrado [32]. permite obtener un controlador de alta sensibilidad. Cuando una acción de control derivativa se agrega a un controlador proporcional. Esta acción combinada tiene las ventajas de cada una de las tres acciones de control individuales. Acción de control proporcional. por tanto. Sin embargo. lo cual provoca una mejora en la precisión en estado estable [32]. que responde a la velocidad del cambio del error y produce una corrección significativa antes de que la magnitud del error se vuelva demasiado grande.10. La acción de control derivativa tiene un carácter de previsión. Auque la acción de control derivativa tiene la ventaja de ser de previsión. es obvio que una acción de control derivativa nunca prevé una acción que nunca ha ocurrido [32]. tiene las desventajas de que amplifica las señales de ruido y puede provocar un efecto de saturación en el actuador. es decir. Salida del controlador a una entrada rampa. La acción de control derivativa no se usa nunca sola.2.derivativa: es la combinación de la acción proporcional. 2. añade amortiguamiento al sistema y. debido a que solo es eficaz durante periodos transitorios.9.integral. La ecuación del controlador con esta acción combinada se obtiene mediante [32]: . Aunque el control derivativo no afecta en forma directa al error de estado estacionario.Acción de Control PD u(t) (Solo proporcional) 0 t Figura 2. integral y derivativa (PID).

Con un control proporcional. Este razonamiento sencillo muestra que el error en régimen permanente será siempre cero. El diagrama en bloques de un controlador proporcionalintegral. Con acción integral. un error pequeño positivo siempre dará una acción de control creciente. y si fuera negativo la señal de control será decreciente. Diagrama de bloques de un controlador proporcional. dado que limita el rango de plantas donde pueden controlar en forma satisfactoria (existe un grupo de plantas inestables que no pueden estabilizadas con ningún miembro de la familia PID. .11. La estructura de un controlador PID es simple. es necesario que exista error para tener una acción de control distinta de cero. E(s) )) + - K p 1 + Ti s + TiTd s Ti s ( 2 ) U(s) )) Figura 2.11. Ti es el tiempo integral y Td es el tiempo derivativo.integral Derivativo. aunque su simpleza es también su debilidad.u (t ) = k p e(t ) + kp Ti ∫ e(t )dt + k 0 t p Td de(t ) dt (2-12) O la función de transferencia es   U ( s) 1 = k p 1 +  T s + Td s   E ( s) d   (2-13) En donde Kp es la ganancia proporcional.derivativo se muestra en la figura 2.

El algoritmo PID puede ser aproximado de muchos ángulos diferentes. cuya función de transferencia no posee un integrador 1/s.3. 2. 2. Efectos de las acciones de control integral y derivativo sobre el desempeño de un sistema. Los controladores PID son también suficientes para muchos problemas de control. particularmente donde hay dinámicas de procesos favorables y modestos requerimientos de desempeño. que es la señal de salida a partir del controlador. El controlador PID es el algoritmo de control más común. o desplazamiento (offset).12. Acción de control integral: en el control proporcional de una planta.13 muestra la curva e(t) contra t y la curva u(t) correspondiente contra t cuando el controlador es de tipo proporcional [32].3. en todo momento el área bajo la curva de la señal de error hasta tal momento. La señal de control u(t) tiene un valor diferente de cero cuando la señal de error e(t) es cero. ellos pueden anticipar el futuro a través de la acción derivativa y ellos pueden contrastar con un actuador de saturación. es. hay un error en estado estable. la señal de control. Esto es posible en el caso del controlador proporcional. como se aprecia en la figura 2. dado que una señal de control diferente de cero requiere de una señal de error diferente de cero. en la respuesta para una entrada escalón. ellos tiene la habilidad para eliminar el estado estable de compensación por la acción integral. . pero este también puede aproximarse analíticamente. Este es implementado de muchas formas diferentes. (Una señal de error diferente de cero en estado estable significa que hay una equivalencia).1.Los controladores tienen varias funciones importantes: ellos proveen realimentación. Tal offset se elimina si se incluye la acción de control integral en el controlador [32]. En el control integral de una planta. La figura 2. Este también puede ser considerado como un dispositivo que puede operar con pocas reglas de manejo.

La acción de control integral. inicia una acción correctiva oportuna y tiende a aumentar la estabilidad del sistema [32]. puede conducir a una respuesta oscilatoria de amplitud decreciente lenta o incluso. aunque elimina el offset o el error en estado estable. . Una ventaja de usar una acción de control derivativa es que responde a la velocidad del cambio del error y produce una corrección significativa antes de que la magnitud del error se vuelva demasiado grande. Graficas de las curvas e(t) y u(t) que muestran una señal de control Diferente de cero cuando la señal de error es cero (control integral) E(t) U(t) 0 t 0 t Figura 2. de amplitud creciente. Acción de control derivativa: cuando una acción de control derivativa se agrega a un controlador proporcional. y ambos casos. 2. Graficas de las curvas e(t) y u(t) que muestran una señal de control De cero cuando la señal de error es cero (control proporcional). aporta un medio de obtener un controlador con alta sensibilidad.13.3.12. El control derivativo prevé el error.2. por lo general. se consideran inconvenientes [32].E(t) )) u(t) 0 t 0 t Figura 2.

2.1.integral. Debido a que el control derivativo opera sobre la velocidad de cambio de error. si la planta es tan complicada que no es fácil obtener su modelo matemático. Control PID de plantas: la figura 2. es posible aplicar diversas técnicas de diseño con el fin de determinar los parámetros del controlador que cumpla las especificaciones en estado transitorio y en estado estable del sistema en lazo cerrado. .Aunque el control derivativo no afecta en forma directa el error en estado estable. Sintonización de controladores PID Debido a que casi todos los controladores PID se ajustan en el sitio.4. Si se puede obtener un modelo matemático de la planta. se han desarrollado métodos automáticos de sintonización y algunos de los controladores PID poseen capacidad de sintonización en línea. y no sobre el mismo. permite el uso de un valor más grande que la ganancia. por tanto. este modo nunca se usa solo. Asimismo.4. Sin embargo. En este caso se debe recurrir a los enfoques experimentales para la sintonización de los controladores PID [32].14 muestra el control PID de una planta. Siempre se emplea junta con una acción de control proporcional o proporcional. tampoco es posible un enfoque analítico para el diseño de un controlador PID. 2. lo cual provoca una mejora en la precisión de estado estable [32]. en la literatura se han propuesto muchos tipos diferentes de sintonización delicada y fina de los controladores PID en el sitio. añade amortiguamiento al sistema y.

+

-

  1 k p 1 + + Td s   Ts  i  

Planta

Figura 2.14. Control PID de una planta.

El proceso de seleccionar los parámetros del controlador que cumplan con las especificaciones de desempeño se conoce como sintonización del controlador. Ziegler y Nichols sugirieron mas reglas para sintonizar los controladores PID. (Lo cual significa establecer valores Kp, Ti Y Td) con base en las respuestas escalón experimentales o basadas en el valor de Kp que se produce en la estabilidad marginal cuando solo se usa la acción de control proporcional [32].

2.4.2. Reglas de Ziegler – Nichols para sintonizar controladores PID: Ziegler y Nichols propusieron unas reglas para determinar los valores de la ganancia proporcional Kp, del tiempo integral y Ti del tiempo derivativo Td, con base en las características de respuesta transitoria de una planta específica. Tal determinación de los parámetros de los controladores PID o de la sintonización de los controladores PID la realizan los ingenieros en el sitio mediante experimentos sobre la planta [32].

Existen dos métodos denominados reglas de sintonización de Ziegler- Nichols. En ambos se pretende obtener un 25% de sobrepaso máximo en la respuesta escalón. 2.4.2.1. Primer método. Método basado en la curva de reacción: en el primer método, la respuesta de la planta a una entrada escalón unitario se obtiene de manera experimental, como se observa en la figura 2.15. Si la planta no contiene integradores ni polos dominantes complejos conjugados, la curva de respuesta escalón unitario puede tener forma de S, como se observa en la figura 2.16. (Si la respuesta no exhibe una curva con forma de S, este

método no es pertinente). Tales curvas de respuesta escalón se generan experimentalmente o a partir de una simulación dinámica de la planta [32, 33].

1
planta u(t)

aA

e(t)

Figura 2.15. Respuesta escalón unitario de una planta.

C(t)

K
Línea tangente el Punto de inflexión

0 L T

t

Figura 2.16. Curva de respuesta con forma de S

La curva con forma de S se caracteriza por dos parámetros: el tiempo de retardo L y la constante de tiempo T. el tiempo de retardo y la constante de tiempo se determinan dibujando una recta tangente en el punto de inflexión de la curva con forma de S y determinando las intersecciones de esta tangente con el eje del tiempo y la línea c(t)= K, como se aprecia en la figura 2.16.

Ziegler y Nichols sugirieron establecer los valores de Kp, Ti y Td de acuerdo con la formula que aparece en la tabla 1.

Tipo de controlador

Kp

Ti

Td

P PI PID

T L 0.9 1. 2 T L T L L 0.3
2L

0 0
0.5 L

Tabla 1. Regla de sintonización Ziegler- Nichols basada en la respuesta escalón de la planta (primer método)

2.4.2.2. Segundo método. Método de oscilación: en el segundo método, primero se establece Ti = y Td = 0. Usando solo acción de control

proporcional como se muestra en la figura 2.17, se incrementa Kp de cero a un valor crítico Kcr en donde la salida exhiba primero oscilaciones sostenidas. Si la salida no presenta oscilaciones sostenidas para cualquier valor que pueda tomar Kp, no se aplica este método. Por tanto, la ganancia crítica Kcr y el periodo Pcr correspondiente se determinan experimentalmente como se observa en la figura 2.18. Ziegler y Nichols sugirieron que se establecieran los valores de los parámetros Kp, Ti y Td de acuerdo con la formula que aparece en la tabla 2.

R(t)

U(t)

+-

K

Planta

C(t)

Figura 2.17. Sistema en lazo cerrado con controlador Proporcional.

c(t)

Pc

0

t

Figura 2.18. Oscilación sostenida con un Periodo Pcr

Tipo de

Kp

Ti

Td

2 0 0 0. Método de asignación de polos La asignación de polos es un método de diseño de controladores cuando se quiere que el desempeño del sistema a lazo cerrado cumpla con determinadas especificaciones de diseño [31].5 Pcr Tabla 2.19.5 K cr 0.Considere que el polinomio a lazo cerrado deseado está dado por Alc [31]. 2.19 con las siguientes funciones transferencias: c( s ) = p( s ) L( s ) G0 (s) = B0 ( s) A0 ( s) (2-14) R(s) ) PID U(s) ) G(s) Y(s) Figura 2.controlador P PI PIDS 0.1 y n respectivamente (se asume que el modelo nominal de la planta es estrictamente propio).4.45 K cr 0. Regla de sintonización Ziegler.3. n . si la planta tiene un integrador. . Considere el lazo nominal de la Figura 2.6 K cr 1 Pcr 1.125 Pcr 0. Diagrama en bloques estructura de controlador PID Con P(s). B0(s) y A0(s) polinomios de grados np. nl .Nichols basada en la ganancia critica Kcr y en el periodo critico Pcr (segundo método) Sin embargo. en algunos casos estas reglas no son pertinentes. L(s).

Si se igualan los coeficientes se obtiene ecuaciones: 1 3  2  0 0 1 3 2 0 0 2 0 0 0  0  1  l0  1  l  3  1 =   p0  3      p1  1 el siguiente sistema de (2-16) Se puede verificar que la matriz anterior es no-singular.4. + = a1s + a0. (2-18) (2-19) Junto con la matriz . . primero se necesitan algunos resultados matemáticos [31]. por lo que el sistema tendrá solución única: l1 = 1. Como la idea es generalizar el resultado anterior. Así el polinomio característico es alcanzado para un controlador dado por la siguiente función transferencia [31]: C (s) = s +1 s (2-17) En el ejemplo anterior se vio como la asignación de polos a lazo cerrado depende de la no-singularidad de una matriz particular. 2. Considere los polinomios A(s) = ansn+ = an-1sn-1 + . B(s) = bnsn + bn-1sn-1 + .1. .3. p1 = 1 y p0 = 1.Ejemplo: Sea el modelo nominal de una planta dada y un controlador de la forma: G0 (s ) = 1 s + 3s + 2 2 (2-15) c( s ) = P( s) L(s ) Se puede ver que Alc = A0(s)L(s) + B0(s)P(s) = (s2 + 3s + 2)(l1s + l0) + (p1s + p0). + = b1s + b0. l0 = 0. . . Teorema 1 (Teorema de Sylvester).

4. respectivamente. cuando se cumplen algunos requerimientos mínimos [31]. para mostrar que la asignación de polos es generalmente posible. Suponiendo que A0(s) y B0(s) son coprimos y que sus grados son n y n -1. No están permitidas las cancelaciones del estilo polo-cero inestables. 2. su grado debería ser igual a 2n [31]. Sea Alc un polinomio arbitrario de grado nc = 2n -1. Nota 2.2. Cuando se requiere un controlador estrictamente propio. Para que la condición del lema 1 pueda ser .3. si y solo si det(Me) 0 [31]. Entonces existen polinomios P(s) y L(s). El lema anterior establece bajo qué condiciones existe solución para el problema de asignación de polos. asumiendo un controlador bipropio. para poder estar en condiciones de elegir un polinomio a lazo cerrado Alc(s) arbitrario. respectivamente. el grado de P(s) y L(s) debería ser np = n -1 y nl = n. con grados np = nl = n -1 tal que [31]: A0(s)L(s) + B0(s)P(s) = Alc(s) (2-21) Nota 1. Lema 1 (Asignación de Polos SISO).(2-20) Se dice que A(s) y B(s) son coprimos. es decir que no tienen factores en común o raíces. De esta forma. Con este resultado se puede ahora generalizar lo visto en el Ejemplo. Cualquier cancelación entre el controlador y la planta aparecerá como factor en A0(s) L(s) y también en B0(s) P(s). Considere un lazo de realimentación de un grado de libertad con un controlador C(s) y un modelo nominal G0(s) dado por (2-14).

por lo que ese factor común deberá ser estable. Lema 2. es decir. . el mismo factor deberá aparecer en Alc(s). Desarrollando en fracciones simples (2-23) y comparándola con (2-24) se obtienen dichos coeficientes.3. Considerando un lazo de control de un grado de libertad con controladores PI de la siguiente forma [31]: C PI ( s ) = k p + ki s (2-22) Y la forma del controlador PID C PID ( s) = k p + ki k s + d s τ Ds + 1 (2-23) Para referencias futuras se nota la siguiente representación alternativa de un controlador PID: 2.3. Sólo de esta forma. el lazo cerrado nominal es garantía de ser internamente estable.4. las cuatro funciones de sensibilidad serán estables [31].satisfecha. pero el polinomio característico a lazo cerrado se debe elegir estable. Cualquier controlador de la forma: es idéntico al controlador PID de (3-23) con los siguientes valores de los parámetros [31]: n2 s 2 + n1s + n0 C (s ) = d 2 s 2 + d1s (2-24) (2-25) (2-26) kp = ki = n1d1 + n0d 2 d12 n0 d1 n2d12 − n1d1d 2 + n0 d 22 kd = d13 (2-27) (2-28) τD = d2 d1 Demostración.

21. la variable manipulada u(t) no contendrá una función impulso. la variable manipulada u(t) contendrá una función impulso.Si se asume que la planta puede ser (por lo menos. Tal fenómeno se denomina reacción del punto de ajuste. Perturbación D(s) Entrada de Referencia R(s) Salida (s) + - Controlador PID + + Planta Gp(s) Ruido N(s) Señal observada B(s) + + Figura 2. En un controlador PID real. Modificaciones de los esquemas de control PID Considerando el sistema de control PID básico de la figura 2. Por tanto. aproximadamente) modelada por un modelo de segundo orden. entonces se puede utilizar asignación de polos para sintonizar un controlador PID [31]. cuando la entrada de referencia es una función escalón. si la entrada de referencia es una función escalón. debido a la presencia del término derivativo en la acción de control.20. La figura 2. en el cual el sistema esta sujeto a perturbaciones y ruido. En un sistema de control PID básico.5. 2.21 es un diagrama de bloques modificado del mismo sistema. Sistema de un controlador PID .20. como el de la figura 2.1. en lugar del término derivativo puro Tds se emplea Td 1 + γTd s (2-29) donde el valor de está en algún punto alrededor de 0. sino que implicará una función de pulso aguda.

21. 2.5.2. 1 R(s) E(s) 1 Ti s D(s) U(s) + B(s) + + - Kp + + Gp(s) Y(s) Td B(s) + N(s) + Figura 2.1. Tanto el control PID como el control PI-D implican una función escalón en la señal manipulada. El esquema de control ordenado de esta forma se denomina PI-D. Diagrama en bloques equivalente.22. tal cambio escalón en la señal manipulada no es conveniente. a fin de que la diferenciación ocurra únicamente la señal de realimentación y no en la señal de referencia. En muchas ocasiones. E(s) 1 Ti s + + + Kp U(s) + + Y(s) Gp(s) 2.22 muestra un sistema con un control PI-D.5. Por tanto. La figura 2.D(s) 1 R(s) + B(s) Td + + Figura23. se pretende operar la acción derivativa solo en la trayectoria de realimentación. Control PI-D para evitar el fenómeno de reacción del punto de ajuste. puede convenir mover la acción proporcional y la acción derivativa a la trayectoria de . Control I-PD: se considera nuevamente el caso en que la entrada de referencia es una función escalón. Sistema de un controlador PI-D.

Cuando esto sucede el lazo de realimentación es efectivamente abierto porque el actuador quedará como esta limitación independientemente de la salida del proceso. Integral windup Ocurre cuando un regulador con acción integral es conectado a un proceso con un actuador de saturación. etc. Cuando un sistema de control opera por encima del rango de las condiciones de operación. que se denomina control I-PD. Esto significa que el término integral puede volverse muy grande o.6. Entonces esto requiere que cambie la señal de error por un .realimentación a fin de que estas acciones solo afecten la señal de realimentación. esto puede ocurrir que la variable de control alcance los límites del actuador. el error continuará para ser integrado. se deben considerar algunos efectos no lineales. Sistema con un controlador I-PD. + N(s) + 2. coloquialmente. Si es usada la acción integral.23. en idioma ingles). (el error “winds up”.23 muestra el esquema de control. Aunque muchos aspectos de un sistema de control pueden ser comprendidos basados en la teoría lineal. Todos los actuadores tienen limitaciones: un motor tiene limitación de velocidad. La figura 2. D(s) R(s) U(s) + B(s) 1 Ti s + - Kp + + Y(s) Gp(s) 1 Tds B(s) Figura 2. una válvula no puede estar mas que completamente abierta o completamente cerrada.

1 0 -0.largo período antes de que se normalice. 0 0 Figura 2.24. El efecto neto es un gran exceso. el cual es claramente notable en la figura 2.24. El fenómeno windup es ilustrado en la figura 2. La cual muestra el control de un proceso con un controlador PI. 4 . El integrador aumenta inicialmente porque el error es positivo. La integral windup puede ocurrir en conexión con un gran cambio del punto de trabajo o puede ser causado por grandes perturbaciones o malfuncionamiento de equipos. Ilustración de integral windup. Las consecuencias es que cualquier controlador con acción integral puede dar una gran transición cuando se satura el actuador.24. y alcanza su valor más grande al timepo de t=10 cuando el error pasa por el cero. 1 0 0. La transición del punto inicial de trabajo es tan grande que el actuador se satura en el límite alto.1 0 0 4 4 1 0. y esto no permite el límite de saturación hasta que el error haya sido negativo para un largo tiempo para permitir que la parte integral descienda a un pequeño nivel. La salida queda saturada en este punto debido al grande valor de la integral.

La mayoría de los componentes y actuadotes que se encuentran en sistemas físicos tienen características no lineales. ya que este . Como los sistemas no lineales son normalmente difíciles de analizar y diseñar. Cuando un sistema no lineal es linealizado en un punto de operación. y a menudo sólo en el punto de operación en el que se realizó la linealización.Capítulo 3 Discretización de sistemas y linealización de sistemas no lineales 3. En la práctica estas no linealidades pueden ser moderadas o pueden aparecer en ciertas regiones de operación. el modelo no lineal puede contener elementos variantes con el tiempo [33]. porque linealizar ecuaciones no lineales permite aplicar numerosos métodos de análisis lineal que proporcionen información acerca del comportamiento de los sistemas no lineales [32]. un modelo no linealizado solo es valido en un intervalo de condiciones muy limitado. existe un sinnúmero de dispositivos físicos que poseen características fuertemente no lineales. La capacidad de representar un sistema no lineal y/o variante con el tiempo mediante ecuaciones de estado es una ventaja que distingue al enfoque de variables de estado sobre el método de la función de transferencia. Sin embargo. Linealización de sistemas no lineales El proceso de linealizar sistemas no lineales es importante. Al modelar estos dispositivos como sistemas lineales se pueden obtener resultados analíticos muy exactos sobre un intervalo amplio de condiciones de operación. Para estos dispositivos.1. es deseable realizar una linealización cuando la situación lo justifique [33].

n . Como ejemplo. En general. r ) ∂x j j =1 n ( x j − x0 j ) + ∑ x 0 . considere las siguientes ecuaciones no lineales [33]: dx1 (t ) 2 = x1 (t ) + x2 (t ) dt dx2 (t ) = x1 (t ) + r (t ) dt (3-1) (3-2) Con la expansión en series de Taylor de las ecuaciones de estado no lineales alrededor de un punto o trayectoria de operación nominal se puede llegar a un proceso de linealización. La trayectoria de operación nominal se denota pro x0(t). la cual corresponde a la entrada nominal r0(t) y algunos estados iniciales fijos. r0 ) + ∑ ∂f i ( x.2. Todos los términos de la serie de Taylor de orden superior a uno se descartan. Al expandir la ecuación de estado no lineal de la ecuación 3-3 en una serie de Taylor alrededor de x(t) = x0(t) y descartando los términos de orden superior se obtiene [33]: & xi (t ) = fi ( x0 . r (t ) ]denota un vector función de n × 1 . r (t ) dt ] (3-3) Donde x(t ) representa el vector de estado de n × 1 . r ) ∂rj j =1 p (rj − r0 j ) x 0 .ultimo solo esta definido estrictamente para sistemas lineales invariantes con el tiempo.…. r0 (3-4) En donde i = 1. r0 ∂f i ( x. r (t ) es el vector de entrada de p × 1 y f [x(t ). Un sistema no lineal se representa mediante las ecuaciones de estado de forma matricial: dx(t ) = f [x (t ). y resulta la aproximación lineal de las ecuaciones de estado no lineales en el punto nominal [33]. f es una función del vector de estado y del vector de entrada [33].

. r0 (3-9) La ecuación (3-7) se pude escribir en la forma matricial: & ∆x = A * ∆x + B * ∆r (3-10) En donde:  ∂f1  ∂x  1  ∂f 2 A* =  ∂x 1  .  ∂f n   ....  ∂f  n  ∂x1  ∂f1 ∂x2 ∂f 2 ∂x2 .. (3-11) .Sea: ∆xi = xi − xoi y ∆rj = r j − r0 j (3-5) (3-6) Entonces & & & ∆xi = xi − x0i Ya que & x0i = f i ( x0 . r ) ∂rj j =1 p ∆r j x 0 . ∂xn   . r ) ∂x j j =1 n & ∆x j + ∑ x 0 . .. r0 ) (3-8) (3-7) La ecuación (3-2) se escribe como: & ∆xi = ∑ ∂f i ( x. ∂xn  . ∂f n ∂x2 ∂f1  ∂xn   ∂f 2  .. r0 ∂f i ( x..

(I) transformaciones s = f (Z ) Consiste en sustituir en G (s) la variable s por una función racional en Z . Son sencillas y flexibles de aplicar. Existen tres técnicas fundamentales. ∂f n ∂r2 ∂f1  ∂rn   ∂f 2  ..4 es la transformación bilineal con prewarping . I. ∂rn  ..2 puede verse como una derivación (back rule) o como una integración rectangular I.. Esta operación suele denominarse discretización [34]. ∂f1  ∂r  1  ∂f 2 B* =  ∂r 1  . . cada una de ellas con distintos métodos o variantes.2...3 puede verse como una integración trapezoidal. Pueden justificarse de distintas maneras [34]: a) como una aproximación a ala derivación b) como una aproximación a la integración c) como una aproximación racional de Z = eTs s I. (3-12) 3. en casi cualquier situación. Discretización de sistemas en tiempo continuo. Se conoce también como la regla de Tustin. no causal (forward rule) o como una integración rectangular retrasada i. Es la transformación bilineal con c = 2 / Ts ..  ∂f  n  ∂r1  ∂f1 ∂r2 ∂f 2 ∂r2 .. ∂rn   .  ∂f n   ..1 puede verse como una derivación adelantada. En este capitulo se estudian algunos de los procedimientos para obtener sistemas en tiempo discreto que se comporten aproximadamente igual que un sistema en tiempo continuo.

pero debe ajustarse además una ganancia.1 conserva la estabilidad: si G (s) es estable. empleando los valores de f (t ) medidos en t = kT y (k − 1)T . La constante K p no puede realizarse con resolución infinita [33].1. Implementación digital del controlador PID El controlador digital en el dominio del tiempo continuo se describe como: Gc (s ) = K p + K D s + Ki s (3-13) El componente proporcional K p se implementa en forma digital mediante una ganancia constante K p . • Estudiando la transformación de los polos se demuestra que todas. también lo será G (Z ) 3. 3. La derivada con respecto al tiempo de una función f (t ) en t = kT se puede aproximar mediante la regla de la diferencia hacia atrás. Implementación digital de controladores analógicos Existen situaciones bajo las cuales el controlador analógico ya está diseñado.Propiedades y comentarios • • todas conservan la ganancia estática.1. esto es: df (t ) 1 = ( f (kT ) − f [(k − 1)T ]) dt t = kT T (3-14) . Si G (s) está en forma ceros-polos resulta cómodo transformarlos individualmente. salvo I. pero la disponibilidad y las ventajas del control digital sugieren que el controlador sea implementado por elementos digitales [33].1.2.2. ya que f (1) = 0 los polos y ceros en s se transforman mediante aproximaciones racionales de Z = eTs s .

para la aproximación digital sea exacta [33].1. el valor de T debe ser lo suficientemente pequeño. que es la función de transferencia de la derivada del controlador analógico. Entonces: ( ] u (kT ) = u[ k − 1 T) + T { f (kT ) + f [ k − 1 T) ( 2 ] } (3-17) . Se tiene:  df (t )  1 Z −1  = 1 − Z −1 F ( Z ) = Ζ F (Z )  dt  T TZ t = kT   ( ) (3-15) Por lo que la función de transferencia Z del diferenciador digital es: Gc ( z ) = K D Z −1 TZ (3-16) Donde K D es la constante proporcional de la derivada del controlador. como se muestra en la figura 3.Para encontrar la función de transferencia Z de la operación derivada descrita anteriormente. La selección del periodo de muestreo es muy importante.2. Integración trapezoidal La regla de integración trapezoidal aproxima el área bajo la función f (t ) mediante una serie de trapezoides. Hay un número de reglas de integración numérica que pueden emplearse para aproximar de forma digital al controlador integral K I / s . GD (z ) se aproxima a K D s .1. integración rectangular hacia delante e integración rectangular hacia atrás [33]. Los tres métodos básicos de integración numérica del área de una función son: integración trapezoidal.1. Al sustituir Z por eTs en la ecuación 3-16. Sea el integral de f (t ) evaluado en t = kT designado como u (kT ) .1. se toma la transformada Z en ambos lados de la ecuación 3-14. se puede mostrar que el periodo de muestreo T se aproxima a cero. 3.

2.1. Tomando la transformada Z en ambos miembros de la ecuación 3-17.1. Integración rectangular hacia delante Para la integración rectángula hacia delante.Figura 3.2. se aproxima el área bajo f (t ) mediante rectángulos como se muestra en la figura 3. se tiene la función de transferencia del integrador digital como [33]: Gi ( z ) = K i U ( z ) K iT ( Z + 1) = f ( z) 2(Z − 1) (3-18) Donde K i es la constante proporcional.2. La integral de f (t ) en t = kT se aproxima por: u (kT ) = u[ ( − 1 T) + Tf (kT ) k ] (3-20) . (K Gc( z ) = p ) / + TK i / 2 + K D / T Z 2 + TK I ( 2 − K p − 2 K D / T Z + K D / T Z ( Z − 1) ) (3-19) 3.1. Regla de integración trapezoidal Donde el área bajo f (t ) para (k − 1)T ≤ t < kT se aproxima mediante el área del trapezoide en el intervalo.

1. la regla de aproximación digital se ilustra en la figura 3.Figura 3.3.3. Regla de integración rectangular hacia atrás . Regla de integración rectangular hacia delante.1.2. la función de transferencia del integrador digital empleando la regla rectangular hacia delante es [33]: Gi ( z ) = K i Gc( z ) = U ( z) K TZ = i f ( z ) (Z − 1) Z ( Z − 1) (3-21) Z + ) D /T K (K P + K D / T + TK I Z 2) − (K p + 2 K D / T (3-22) 3.2.3. La integral de f (t ) en t = kT se aproxima mediante [33]: u (kT ) = u[ ( − 1 T) + Tf [(k − 1)T ] k ] (3-23) Figura 3. Integración rectangular hacia atrás Para integración rectangular hacia atrás. Al tomar la transformada Z en ambos miembros de la ecuación 3-20.

por el índice de desempeño seleccionado que es una función cuyo valor se considera una indicación de qué tanto se parece el desempeño del sistema real al desempeño deseado.2. en alto grado. cuyo diseño optima (minimiza o maximiza). La selección de un índice de desempeño apropiado es importante porque. la función de transferencia del controlador PID digital es: Gc( z ) = (K p + K D / T Z − )K D / T Z (3-26) 3. el valor de la función seleccionada como el índice de desempeño. determina la naturaleza del sistema de control óptimo resultante. o variante en el tiempo. Esto es.2. Al diseñar un sistema de control optimo se necesita encontrar una regla para determinar la decisión de control presente. dependiendo de la naturaleza del índice de desempeño seleccionado). Dicha medida es provista. para minimizar alguna medida de desviación de un comportamiento ideal. generalmente. que difiere del ideal pero es mas alcanzable en presencia de restricciones físicas [35]. sujeta aciertas restricciones.La función de transferencia z del integrador digital empleando la regla de integración rectangular hacia atrás es: Gi ( z ) = K i U ( z) K iT = f ( z ) (Z − 1) (3-24) Gc( z ) = (K p 2 ( + K D / T Z ) + TK I − K p − 2 K D / T Z + K D)/ T Z (Z − 1) (3-25) Cuando K I = 0 . no lineal. dependerá de la forma del índice . En la mayoría de los casos. Índices de desempeño Un sistema de control optimo. estacionario. el comportamiento del sistema se hace óptimo al escoger el vector de control U (K ) de tal forma que el índice de desempeño se minimice (o maximice. que el sistema resultante sea lineal.

especialmente en sistemas complejos. Es preferible que el criterio para un control óptimo desde un punto de vista práctico y no matemático.de desempeño. El proceso de optimización no solo debe proveer leyes de control óptimo y configuraciones de los parámetros. la selección de un índice de desempeño implica un compromiso entre una evaluación útil del desempeño del sistema y un problema matemático [35]. restringen la forma del control a utilizar [35]. Formulación de los problemas de optimización El problema de optimización de un sistema de control se puede formular si se tiene la siguiente información [35]: 1. 3. En general. Los requisitos de diseño por lo regular no sólo incluyen especificaciones de desempeño. Este vector U (K ) depende de [35]: . sino también. 5. ecuaciones del sistema clase de vectores de control permitidos restricciones en el problema índice de desempeño parámetros del sistema La solución de un problema de control óptimo consiste en determinar el vector de control óptimo U (K ) dentro de la clase de vectores de control permitidos. 2. El escoger el índice de desempeño mas apropiado para un problema dado es muy difícil. sin embargo. 4. sino también debe predecir la degradación en el desempeño debido a cualquier desvío del valor mínimo (o máximo) de la función del índice de desempeño que resulta cuando se aplican leyes de control no optimas [35]. para asegurará que sea físicamente realizable.2.1.2. 3. El uso de la teoría de optimación en el diseño de sistemas ha sido problemático debido al conflicto entre factibilidad analítica y la utilidad práctica al seleccionar el índice de se origine desempeño.

consiste en encontrar un vector de control permitido U (K ) que transfiera al estado a la región deseada del espacio de estados y para el cual el índice de desempeño se minimiza [35]. por definición. estado deseado. hacen que un control óptimo sea imposible.3. índice de desempeño y restricciones. óptimo. dada una condición inicial X (0) .2. Esto es cuestión de requerir un desempeño más allá de las capacidades físicas del sistema [35]. Puntos concernientes a la existencia de las soluciones a los problemas de control óptimo.2. Es evidente que le índice de . 4.2.2. el problema de control óptimo puede ser muy complicado para obtener una solución analítica por lo que se tiene que obtener una solución por computador [35]. 3. la naturaleza del índice de desempeño la naturaleza de las restricciones el estado inicial o salida inicial el estado deseado o salida deseada Excepto en algunos casos. Las cuestiones que tienen que ver con la existencia de un vector de control óptimo son importantes. 2.1. Dos de las ecuaciones más importantes son aquellas acerca de la controlabilidad y observabilidad. 3. 3. Es importante señalar que a veces una combinación particular de planta. ya que sirven para informar al diseñador si un control óptimo es posible o no para un sistema determinado y dado un conjunto de restricciones. El sistema cuyo desempeño minimiza (o maximiza) el índice de desempeño seleccionado es. Se ha establecido que el problema de control óptimo. Notas acerca de los sistemas de control óptimo.2.

desempeño. puede ser inútil demasiados recursos para implantar un controlador óptimo que es el mejor en solamente algún sentido individual limitado. se diseña para realizar una tarea seleccionada en forma aleatoria a partir de un repertorio de tareas posibles. Es muy importante apuntar que un sistema de control que es óptimo bajo un índice de desempeño es. determina la configuración del sistema. En vez de esto. en general. puede ser mejor buscar una ley de control óptimo aproximada que no este atada rígidamente a un solo índice de desempeño [35]. Además que la realización en hardware de una ley de control óptimo en particular puede ser algo difícil y costosa. un sistema de control se diseña para realizar una sola tarea específica completamente de antemano. . en los sistemas prácticos. en realidad. no óptimo bajo otro índice de desempeño [35]. A menudo. Entonces. Así.

La programación genética puede aplicarse a prever la Bolsa de Valores egipcia (ESE) que es uno de los más viejos en el mundo y comprende de dos intercambios. Una aplicación en especial es los resultados de usar la programación genética para prever el retorno de Mercado de Calcetín egipcio. ayudando a entender mecanismos buenos de nuestros propios métodos de adquisición de conocimiento. Los resultados de los experimentos demuestran la capacidad de programación genética para predecir los resultados exactos. [30] El prever datos financieros es una de las actividades fundamentales en el uso de programación genética (GP) ya que esta área es muy poco explorada. Se evalúa la conducta del ESE acción retorno usando el CASE30 índice diario que mide el retorno en la inversión del cambio en el valor de las acciones. las redes neuronales.Capítulo 4 Estado del arte de los algoritmos evolutivos y su uso para controladores PID 4. Es un acercamiento prometedor debido a su efectividad investigando los espacios muy grandes y la habilidad de realizar la búsqueda global para el mejor modelo de la previsión. Especialmente la serie de tiempo de soporte tiene un número grande de propiedades específicas que juntos hacen un albor de predicción excepcional. La programación genética como algoritmo de aprendizaje posee ciertas ventajas que lo hacen provechoso para prever y profundizar los datos financieros. El índice rastrea la actuación de las 30 acciones más activas y medidas el retorno . Las Aplicaciones de la ciencia de los algoritmos en el descubrimiento de conocimiento son una promesa y área pertinente de investigación. 1.1. Aplicaciones de la programación genética. Está ofreciendo nuevas posibilidades y beneficios en las aplicaciones del mundo real. respectivamente la Alejandría y El Cairo bolsa de valores. comparable a los algoritmos de aprendizaje de máquina tradicionales es decir.

el sistema puede crear eficientemente “la derivada de las variables” con gran potencia de predicción. Los predictores de la programación genética como un método adaptable alternativo para prever el ESE proveen el retorno desde el funcionamiento una búsqueda en que los operadores genéticos pueden modificar muchas combinaciones diferentes de variables . La técnica de GP se usa para el descubrimiento automático y la evaluación de prever la actuación del modelo y su previsibilidad para el mercado accionario egipcio dada la enorme cantidad de ruido en mercados financieros representados.usando las varias funciones diferentes disponibles en la serie de la función. El proceso se comporta como un proceso inesperado y cambia el sistema en el sentido que el proceso fundamental es tiempo variable y volatilidad en el cambio de serie de tiempo como el proveer movimientos en el mercado. ofrece una gama amplia de posibilidades de variaciones y modificaciones del algoritmo que puede llevar a mejorar la actuación global de la aplicación. Neely et al. los datos de retorno de mercado accionarios egipcios tienen un número grande de propiedades específicas que juntos hacen al modelo de la previsión generalizado inusual [30]. estudiaron el uso de la GP en la predicción de serie de tiempo caótica. ESE provee la serie de retorno de tiempo que tiene un gran número de propiedades específicas que juntos hacen una tarea de predicción inusual.en la inversión del cambio en el valor de las acciones. Estas razones causan los grandes problemas para los más tradicionales y populares algoritmos estadísticos para las predicciones de serie de tiempo como el ARCO y GARCH y los cuales requieren una serie de tiempo estacionaria con entradas normales e independientes del residuo. Finalmente. Oakley y Mulloy et al. por establecimiento de la serie de la función de las variables originales. Los resultados de esta predicción a corto plazo eran los posibleblemente buenos. . Sobre todo. Si las variables originales no tienen mucha fuerza predictiva por si mismas. Mahfoud y Mani presentaron un nuevo algoritmo genético basado en el sistema y la aplicación a la tarea de predecir la actuación futura de acciones individuales.. Koza presenta el primer estudio usando la GP para la predicción de los siguientes valores de la ecuación logística.

y analizando los datos de la medida a través de reconocimiento [30]. Los algoritmos evolutivos han tenido gran utilidad en diferentes áreas de la ciencia en proyectos como la clasificación del olor de la mezcla usando una red neuronal fuzzy y su optimización a través del algoritmo genético. La actuación de su habilidad del reconocimiento se explora y compara con la propagación inversa del sistema neuronal convencional y la neurona fuzzy imperfecta. si el tamaño es demasiado grande. varias redes neuronales como un modelo de Los resultados experimentales muestran que la proporción del reconocimiento del sistema altamente desarrollado si se usa para discriminar solo el basado en . la rata del error tiende a aumentar debido a que la red no podría aproximarse lo suficiente a la relación funcional entre la entrada y el rendimiento designado. la red no podría generalizar los datos de la entrada antes de que sean ilustrados. El óptimo desarrollo de una red neuronal fuzzy es entonces aplicado como el clasificador del modelo en el sistema de reconocimiento de olor artificial. este modelo neuronal crea un dilema del hecho de que ambas las redes largas y pequeñas tienen un número de desventajas. Rafat presento el uso de GP en la inducción de regla técnica de comercio para el mercado accionario egipcio [30]. Se muestra claramente que el promedio de la rata de reconocimiento del sistema neuronal fuzzy GAperfeccionado tiene la capacidad de reconocimiento más alta comparada con el de otro sistema neuronal [30].Aplico el GP a intercambio exterior pronosticando y reportando algunos cambios. Si el tamaño de la red es demasiado pequeño. Li y Tsang presentaron un GP basado en un sistema que toma unas reglas técnicas muy conocidas y las adapta para proveer los problemas de la predicción. Se usan las redes neuronal fuzzy ampliamente ya que estas se pueden adaptar directamente a la medida del error. El sistema de discriminación de olor Artificial ha sido desarrollado usando una partícula de resonadores de cuarzo como sensor. Mientras. 2.

Sin embargo. su reconocimiento disminuyó considerablemente cuando un olor de la mezcla tiene que ser determinado. sin embargo. quitando las conexiones débiles entre las neuronas o quitando las neuronas que realizan las activaciones débiles [30]. los algoritmos genéticos. y las topologías de la red resultantes también pueden realizar el principio de la inferencia fuzzy a través del análisis los valores de los pesos de conexión. una estimación del error de la generalización). La ventaja de usar el sistema fuzzy-neuronal es que puede adaptarse distribuidamente con la fuzzy causado directamente por la medida de error. Una variedad de métodos puede aplicarse a esta clase de los problemas. Comparando con el algoritmo genético híbrido típico. la búsqueda de la habilidad en el área total y las características de la convergencia puede reforzarse por auto-sintonización de probabilidad del error en la evolución de las descendencias. 3. sobre todo para acelerar la velocidad de convergencia y la proporción del reconocimiento más alta.olor. En este acercamiento. han ganado una metodología fuerte como la aproximación evolutiva por ambos. cada estructura de la red se le asigna un valor de la evaluación (por ejemplo. formulando así una tarea de optimización discreta. . Las redes neuronales fuzzy son muy conocidas y ampliamente usadas y se han hecho algunos trabajos para obtener la estructura de la red apropiada y los pesos iniciales para reducir su tiempo de entrenamiento. este tipo de sistema neuronal tiene un inconveniente debido a sus conexiones neuronales grandes. Simulación numérica basada en algunos ejemplos típicos demuestra la efectividad del método propuesto [30]. sin embargo. la convergencia de optimización más eficaz puede obtenerse usando el algoritmo genético híbrido mejorado en la solución para el problema de optimización. La optimización de la arquitectura de la red es entonces hecho usando el método de optimización discreto. Las mejoras En el Algoritmo Genético Híbrido para la convergencia rápida En el proceso de aclarar la solución multi-objetivo de Pareto. Investigadores han propuesto un acceso para incorporar un elemento de la lógica fuzzy en la red neuronal para mejorar su desempeño.

pero sólo puede resolver una solución de disponibilidad. los métodos de algoritmo genético con la optimización de multi-objetivo de aplicación están divididos en tres principales tipos: el multi-objetivo converge solo objetivo. las preguntas de optimización de multi-objetivo aparecen a menudo. pero estas soluciones normalmente enfocan en el puerto de la interfase de disponibilidad. mutación y funcionamientos de la selección. . el no método de Pareto y el método de Pareto. En la actualidad. Las funciones objetivas diferentes no pueden compararse e incluso el conflicto mutuo. aleatoriamente y altamente robusto. El método tradicional que convierte solo el objetivo del multi-objetivo es un simple diseño del método aritmético. Comparando la relación de dominio de valor objetivo. la lista efectiva se fundamentará. En el proceso de optimización. El tipo de método se puede resolver computado. necesita considerar la optimización de simultaneidad con muchas funciones objetivas. baja eficiencia en las dimensiones de las descendencias más grandes [30]. El método de optimización basado en el método de Pareto es que muchos valores objetivos tomados directamente para función adaptable. pero el método es complicado en la aritmética.En la aplicación de la ingeniería práctica. 4. El algoritmo genético es un tipo de aritmética de optimización total que se desarrolló en los años recientes. La eficiencia del algoritmo genético es ilustrada por un ejemplo de diagnóstico de enfermedad del corazón de disemia. El no método de Pareto puede resolver muchas soluciones de disponibilidad. Se usa ampliamente en todos los tipos de preguntas de optimización complicadas debido a su paralelo oculto. extracción de las reglas fuzzy IF-THEN el Extracto de las Reglas diagnostico medico usando algoritmos genéticos para El procedimiento sugerido mira a la cara la solución óptima que crece de la primera parte de las reglas IF-THEN variantes que usan el cruce genético. con una alta eficiencia computacional.

Pero la toma de decisión en la medicina no es típicamente estadística o matemática. Durante el desarrollo de los sistemas especializados fuzzy se supone que la base de conocimiento inicial se genera por un experto del área de medicina. representa otro modelo de aprendizaje con un toque diferente. una red neuronal . El objetivo es aprender ambos la topología de la red neuronal óptima y los pesos óptimos según las múltiples capas del algoritmo genético. la idea también es incluir un algoritmo de microaprendizaje sin supervisión. como el algoritmo Genético. Esto por qué la calidad de éstos los sistemas dependen de la habilidad de un medico experto [30]. Un Algoritmo Evolutivo multicapas Para Diseñar las Redes Neuronales Artificiales Una representación genérica basada en la memoria neuronal multicapas en el aprendizaje genético fue descrita para desarrollar una población de redes neuronales. la regresión analítica. 5. De hecho. Así que es importante presentar los resultados de datos que se procesan de la forma más fácilmente entendible para la toma de decisiones sin fundamento matemático especial. La meta es adaptar parámetros de la estrategia potenciales del macroalgoritmo genético para aumentar la actuación de la generalización considerablemente [30]. Varios métodos muy conocidos normalmente se usan para el proceso de los datos usan las estadísticas matemáticas. Una red neuronal es una adaptación y un sistema no lineal inspirado para el estudio del cerebro para resolver problemas matemáticamente o computationalmente. La regla fuzzy IF-THEN permite hacer fácilmente entendible y bien el resultado del análisis de los datos interpretados. etc.En muchas áreas de medicina hay grandes colecciones de los datos experimentales y es necesario que se transfieran estos datos en la forma conveniente para la toma de la decisión. El plan cuenta con la información incluida en las neuronas en más de un asociado. Además usa un algoritmo de macroaprendizaje para entrenar el lenguaje. La red neuronal.

y otros. Normalmente. Donde. fi es no lineal. debido a su habilidad de aprendizaje. Ornamentando y el Perceptron de la Cascada.multicapas (MLP) es un gráfico orientado de células. o función gaussiana. • Los algoritmos de decrementales: el método de recorte es basado en tomar una red grande y capas ocultas de las neuronas y entonces eliminar una a una las capas ocultas de la neurona. son basados en la agregación de capas ocultas a la red neuronal de tamaño mínimo hasta que alcance la precisión requerida. un algoritmo reiterativo de pendiente en descenso se diseño para minimizar la diferencia paso a paso entre el vector del rendimiento real de la red y el vector del rendimiento deseado. como: la convergencia tiende a ser sumamente lenta. Como mecanismo de entrenamiento. Aunque este método se usa el exitosamente en muchos campos. sigmoideo. para obtener la red más pequeña. wij es el peso de conexión entre i et j de los nodos es el umbral del nodo. como QuickProp y RPROP. sobre todo para el reconocimiento del modelo. Cada célula propaga su actividad a los vecinos conectados a su rendimiento. Cada célula computa una actividad de las actividades de los vecinos conectadas a sus entradas. mientras se esta aprendiendo las constantes deben suponerse el heurísticamente. • Los algoritmos incrementales: como la Correlación de la Cascada. Otros acercamientos pusieron algunos de los pesos para poner a cero. Los pesos representan información contenida en la red neuronal [30]. la convergencia al mínimo global no es ninguna garantía. se usa ampliamente como mecanismo entrenador. yi es el rendimiento del nodo i. encuentra ciertas dificultades en la práctica. xj los     jth entradas al nodo. como repropagación (BP) en sus versiones. . El hecho computational por una célula es aplicado a la función de transferencia fi   de la forma y i = f i  ∑ wij x j − θ i  .

La complejidad del acercamiento es construir un algoritmo Neurogenético que involucra principios de la evolución y activaciones del cerebro. va surgiendo la necesidad de los sistemas inteligentes híbridos dominantes ANNs que limitan y se vuelve un camino óptimo para conseguir el sistema neuronal [30]. Esta memoria se estructura teóricamente como una topología de red y 2 cortes. Computación evolutiva y controladores PID 1. La memoria del modelo representa una población de redes neuronales abstractas. Experimento de programación evolutiva basado en le control de alta precisión . Por consiguiente. el privilegio de hacer un algoritmo genético hibrido y la red neuronal parecida incrementa la actuación del funcionamiento de la red. el modelo del razonamiento adjunta dos innovaciones de la evolución básica: la auto-organización y la auto-adaptación de parámetros de la estrategia. esto es un producto de una causa adaptable basada en el aprendizaje genético sin supervisión para perfeccionar la topología y pesos de la red neuronal multicapas. A menudo. Entonces. y el principio de aprendizaje. y la auto-adaptación apunta los parámetros de estrategia de aprendizaje óptimos necesitados para proporcionar la interconexión mínima y sus pesos óptimos. En recientes investigaciones. Actualmente. la evolución se ha introducido en ANNs en términos generales en niveles: los pesos de conexión. 4.Diseñar la arquitectura y los parámetros correctos para el algoritmo de aprendizaje es una tarea tediosa por modelar una Red Neuronal Artificial óptima (ANN) con la actuación de la mejor generalización. las arquitecturas.2. La auto-organización apunta la arquitectura de memoria óptima trazada por el aprendizaje genético.

El precompensador fuzzy es empleado para mejorar la actuación del controlador PD. Desde entonces la tabla X-Y puede considerarse como un sistema lineal en un sentido global.7 m/s '. y las secciones pueden causar un error del sostenimiento del estado o un ciclo del límite cerca de la posición del objeto en el control lineal convencional del sistema del posicionamiento. y SMD (montaje de la superficie del dispositivo) montadores en el campo industrial. El esquema propuesto está compuesto de un precompensador fuzzy y un controlador PD. la saturación del actuador. el control de precisión y las especificaciones de dominio de la tabla X-Y varían dependiendo de su aplicación [30].15 s dónde la velocidad máxima y la aceleración es 0. la tabla X-Y puede controlarse bastante bien por los esquemas de control lineal convencional como el controlador PID (Proporcional-integro . La tabla X-Y se usa ampliamente en el mecanizando de procesos que involucran tornos.Derivativo). etc.25 m/s y 1. La efectividad del esquema es demostrada por los experimentos en la tabla X-Y. La saturación del actuador afecta la actuación transitoria principalmente. Se propone un esquema de control de alta precisión para posicionar un sistema punto a punto. en el sistema mecánico. con un error del posicionamiento de menos de 1 m y estableciendo tiempo de menos de 0. firmemente y es requerido el control preciso de la tabla X-Y. Sin embargo. fresado de las máquinas. los esquemas del control convencionales no pueden son convenientes debido a la no linealidad no uniforme. respectivamente [30]. Sus métodos fuzzy se obtienen de la programación evolutiva experimental (EEP). la repercusión negativa. la histéresis. incluso la fricción. saturación. considerando situaciones dónde se necesita el control de alta presión. zona muerta. .. cuando se usan las máquinas para los funcionamientos precisos en el campo industrial. etc. Hoy. no de un experto.Los esquemas convencionales de control lineal a menudo no proporcionan posicionamiento preciso del control de un objeto bajo la influencia de fricción. incluso bajo las influencias por encima de las conocidas. Es más. llamada la tabla X-Y.

el segundo método será una aproximación más conveniente para el control de posición de alta precisión sin aumentar el costo [30]. nosotros podemos diseñar y podemos hacer una tabla X-Y más precisa que no tiene la no linealidad anteriormente expresada. Este acercamiento. sin embargo. Kim propuso un método de diseño a un compensador de fricción basado en un algoritmo evolutivo. los métodos de control basados en fuzzy son útiles cuando las formulaciones matemáticas precisas no son factibles. Por otro lado. Así si se puede desarrollar un algoritmo de control apropiado. podría necesitarse demasiado tiempo hasta que el sistema llegue al punto de la meta. las mejoras rápidas en el microprocesador le han hecho posible para comprenderla ley del control complejo. Primero. El esquema adaptable fue también por algunos investigadores que tenían el periodo de transito relativamente largo. puede llevar a un costo alto para el Sistema global. Tung propuso un esquema de compensación de fricción basado en un control repetitivo que de los sistemas típicamente aplicados sujetado a las referencias periódicas y/o entradas de perturbación. se tratan de sólo control de baja velocidad. el controlador aplica un pulso y espera hasta que pare el sistema. Los dos esquemas de control anteriores. hay dos enfoques para lograr el control de alta precisión de la tabla X-Y. Sin embargo. Así. Se han propuesto recientemente varias técnicas de control de posición para el control de alta precisión. y entonces calcula la anchura del pulso para la próxima entrada de control. en el cual se aplica un pulso según el error actual. los . En este esquema. sin embargo. El otro acercamiento es diseñar una ley de control más compleja que puede lograr los objetivos de control de alta precisión. Recientemente. basado en el método de control de la anchura del pulso. Yang y Tomizuka proponen el uso de un controlador de anchura de pulso adaptable para el posicionamiento preciso. Por ejemplo. nosotros podemos reemplazar los rumbos de la pelota usados en la tabla X-Y con los rumbos aéreos quitar las condiciones de fricción. Así estos esquemas no podrían ser convenientes para sistemas que deben establecerse rápidamente [30].En general.

Kim] propuso una estructura de control de “dos capas” que consiste en un precompensador fuzzy y un controlador PD para los sistemas con zona muerta. Desde el de tipo íntegro. el problema a ser resuelto es un favorable problema de minimización de no linealidad que pueden existir. puede ser dividido en dos grupos principales: el tiempo crítico de dominio y criterio de . El control PID es el tipo de control mas ampliamente usado en la industria y el ingeniero del plan debe poner a punto los parámetros del PID permitidos a las necesidades específicas. 2. globales que emulan a los operadores genéticos naturales. más probablemente es converger a la solución global [30] La complejidad creciente de los sistemas del control moderno ha dado énfasis a la idea de aplicar nuevos acercamientos para resolver los problemas de ingeniería de control diferentes.controladores lógicos fuzzy a menudo dan un resultado de rendimiento superior a los métodos del control convencionales. el tipo de control y el criterio de la actuación de la realimentación de control. Recientemente H2/H mixto los problemas de control óptimos han recibido mucha atención desde punto de vista de plan teórico. H2/H mixto los acercamientos de plan de control son útiles para la actuación robusta para los sistemas bajo la perturbación del parámetro y la perturbación incierta. Los algoritmos genéticos son técnicas de búsqueda paralelas. y las características se criterio que debe perfeccionarse imponen por el control robusto. control robusto por Algoritmos Genéticos y el criterio integro de Minimización Los controladores PID han encontrado las aplicaciones industriales extensas durante varias décadas. Dentro del armazón del la teoría clásica. Porque un algoritmo genético evalúa muchos puntos simultáneamente en el parámetro especie. el criterio de la actuación. Un procedimiento del plan propone poner a punto los parámetros de controladores PID para lograr H2/H mixto de una forma óptima. Deben conocerse tres factores de la sintonización del controlador PID: la planta. uno de los factores muy importante de sintonización de los controladores PID.

H2/H mixto. [6]. bueno y tiempo propasado. Lo anterior arriba expresado se caracteriza por una desventaja obvia: el diseñador debe intentar satisfacer más o menos los límites del diseño. en el control PID los siguientes métodos de sintonización se usan típicamente: Ziegler y Nichols (1942). Empezando desde éstos. Respecto a esto. respuesta de tiempo de sistema. El diseño de control H2/H propuesto consiste en encontrar un controlador PID internamente estabilizado que minimiza un H2 el índice de la actuación íntegra sujeto a una desigualdad reprimida en la norma de H. ganancia y margen de la fase etc. [5]. Aström y Hägglund (1984. Hrones y Reswick (1952). La habilidad de obtener un cierto régimen estacionario y transeúnte para el sistema retroalimentado impone una opción particular de la estructura y parámetros del control. [3]. Los acercamientos de diseño de control son útiles para la actuación robusta para los sistemas bajo la perturbación del parámetro y la perturbación incierta. 1988). Son muy complicados y difíciles de implementar para las aplicaciones de prácticas industriales. el diseñador reúne simultáneamente de la forma mas breve menos difícil satisfacer el limite de diseño. Porque en la mayoría de los casos el logro de une ejecución de buena calidad lleva a un índice a las soluciones contradictorias y el ensayo “en acoplamiento” la respuesta del sistema dentro de los límites de los tipos como: un: cero error del mantener el estado. [4]. [1]. Los algoritmos genéticos son la optimización y algoritmos de aprendizaje de máquina inicialmente inspirados en los procesos de selección natural y las genéticas evolutivas. tiempo del levantamiento. se encuentra que el más significante de éstos es el criterio de la actuación que tiene la forma íntegra. la entrada de retroalimentación convencional de control optimo de H2/H mixto. de la función de traslado de . Como la duración de error también debe jugar un papel. El error del sistema es el signo que probablemente mas influye en las actuaciones mencionadas. Sin embargo. El algoritmo propuesto ponteará el hueco entre el control teórico mixto óptimo H2/H óptimo y el control clásico industrial PID. Los índices de la actuación se especifican por el diseño. en concordancia con el logro de la actuación. la única manera parece estar por fuera del ensayo y métodos de síntesis de error. Kaya y Scheib (1988).dominio de frecuencia. Chien. [7]. Clarke (1984).

2. ej. anteriormente expresado. el primer paso basó en el criterio de Routh-Hurwitz. El AGs es más conveniente la iteración del diseño de control PID H2/H por las razones siguientes: el espacio de la búsqueda es grande. 3. No necesita asumir que el espacio de la búsqueda es diferenciable o continuo. el dominio de estabilidad de tres parámetros de PID. y cruce. globales que emulan a los operadores genéticos naturales. Esto es generalmente considerado favorable en el problema de minimización de la no linealidad que puede existir. en el tercer paso los problemas de diseño se vuelven. mutación. Eso significa que resolviendo los dos problemas: la exigencia de robustez de estabilidad y la exigencia de atenuación de perturbación externa.. el subconjunto del dominio de estabilidad en los parámetros de espacio PID que corresponde para estar en 1 se especifica para que la exigencia de H. La optimización global puede lograrse por varios operadores genéticos. Los algoritmos genéticos son técnicas de la búsqueda paralelas. El problema puede interpretarse como un problema de actuación óptima sujeto a una exigencia de estabilidad robusta (o la exigencia de atenuación de perturbación externa). Porque un GA evalúa muchos puntos simultáneamente en el parámetro espacie. la exigencia de dominio mencionado en paso 2. reproducción. los algoritmos escrutadores que dependen de la existencia de los derivado son ineficaces). más probablemente es converger a la solución global. La actuación óptima sigue los pasos [30]: 1. El procedimiento de diseño se propuso para fuera de la línea PID que sintoniza para lograr el H2/H mixto. en el dominio del subconjunto de H. y también conserva la iteración de varios tiempos en cada dato recibido. cómo obtener un punto que minimiza el H2 que rastrea la actuación. espacio que garantiza la estabilidad de la retroalimentación especifica. el segundo paso. la superficie de la actuación no requiere una asunción del diferenciador con respecto a los cambios en los parámetros de PID (por consiguiente.retroalimentación. las condiciones de .

fase no mínima y sistemas inestables.3. genérica. Oliveira uso un AG estándar para determinar las estimaciones iniciales para los valores de los parámetros de los PID. El esquema resultante se aplico a un fermentador retroalimentado simulado. 4. Particular atención fue prestada a MBPC para sistemas no lineales con entradas forzadas. Vlachos aplico un AE para la sintonización de controladores descentralizados proporcional – integral (PI) para procesos multivariables. abarcando fase mínima. En una investigación independiente. Aplicación en procesos de control 4. por eso la ventaja a menudo la convergencia es más rápida [30].1.las destrucciones probables probablemente serán destruidas bajo un operador genético. con reporte de resultados favorables (comparado con el tradicional método arma limite) para grandes horizontes de control. Ellos aplicaron su metodología para una variedad de clases de sistemas lineales invariantes en el tiempo (LTI).3. Sintonización de controladores Anteriormente los AEs eran utilizados como una alternativa para sintonizar controladores proporciona-integral derivativo (PID). Más recientemente. Wang y Kwok cubrieron un AE usando inversión y preselección ‘micro-operadores’ para sintonización de controladores PID. Porter y Jones propusieron un AE base como una simple técnica. . Onnen aplico un AEs para la determinación de una secuencia optima de control basado en el modelo de control predictivo (MBPC). método digital de sintonización de controladores PID. El principal problema de la optimización basada en sintonización de controladores es la selección de la función objetivo apropiada. Código genético especializado y operadores fueron desarrollados con el objetivo de prevenir soluciones absurdas de generación.

o el desempeño puede ser inferido de la respuesta del sistema para una señal de entrada actual. la población no puede desempeñarse en el proceso real. Las acciones del mejor individuo actual del AE pueden infligir consecuencias severas en el proceso. La inferencia también puede usarse como un mecanismo para reducir los requisitos del proceso haciendo un número grande de evaluaciones y entonces computando las estimaciones para el resto de la población basada en estos resultados. Diseño de estructura de control Muchas aplicaciones de EA simplemente optimizaron los parámetros de las estructuras existentes.3. . sobre todo en el caso de una seguridad o misión critica del sistema. El sistema ha reproducido las patentes existentes según informes recibidos (para controladores PI y PID) y redescubrió el viejo (un controlador que hace uso de la segunda derivada del error entre la señal de referencia y la señal de salida).4. está claro que la evaluación de la completa. En orden para recolección el pleno potencial de los AE. Los PG se han utilizado para la síntesis automática de los valores de parámetros y la topología de controladores. Es importante que una señal de control apropiada se provea a cada instante de muestreo. Dado que esto no sea posible para aplicar los valores representados por cualquier individuo en una población para el sistema. Esto en inaceptable en la mayoría de las aplicaciones. algunos investigadores han experimentado con la manipulación de estructuras del control. evolución. La población puede ser evaluada usando un modelo del proceso. 4.2. En aplicaciones en tiempo real hay un límite importante de tiempo para el cual una optimización puede ser ejecutada entre puntos de decisión. Las aplicaciones exitosas en este campo han sido algo limitadas para la fecha. asumiendo que existe un modelo semejante.3. Aplicaciones en línea Las aplicaciones en línea presentan un particular desafío para los AE.3.

visto de la perspectiva de la optimización. Los AG pueden aplicarse a un ancho rango de problemas sin modificación significante.4.1. Si el AE es evolucionado para solo unas pocas generaciones entonces el desempeño de la población puede aun ser pobre. Note que esto no garantiza la convergencia rápida e incluso puede llevar a la convergencia prematura. Para sistemas con grandes tiempos de muestreo. un aceptable nivel de convergencia puede ser bien realizado. En el caso de un controlador. Sin embargo. Así.Dado el poder de la informática actual. la población inicial puede ser difundida con previas soluciones buenas. el AG a veces se percibe como una herramienta que proporcionará los resultados mediocres en un problema de dominio cuando se compara con los métodos de dominio . Los AEs pueden oponerse con vistas de tiempo variable.4. Una complicación adicional es que el sistema. Estabilidad Muchos exponentes de algoritmos evolutivos citan a la naturaleza genérica del género como la ventaja del control. solo un cierto número de generaciones puede ser evolucionado. está cambiando con el tiempo. En esta instancia. Hay tres amplias aproximaciones para el uso de AEs para control en línea: • • • Utilizar un modelo del proceso Utilizar el proceso directamente Permitir sintonización restringida de un controlador existente. Cómo pueden los AG ser de beneficio para el control? 4. Ahora. es improbable que un EA ejecutara a la convergencia dentro del límite de tiempo de muestreo de una aplicación del control típica. una aceptable señal de control debe proporcionarse a cada punto de control. 4. la señal de control evolucionada en un instante puede volverse totalmente inapropiado en la siguiente. pero una reciente tendencia de los AEs puede ser requerida.

El AG es una búsqueda robusta y un método de optimización. que son estocásticos. la probabilidad de la mutación. y etc. representa la mas grande eficacia potencialmente que una búsqueda totalmente al azar o búsqueda enumerativa . Muy pequeño información a priori se requiere. Además. exhibiendo así propiedades como multimodalidad. pero esto puede incorporarse si así se desea. tiempo de variación. Desde que los AGs operan sobre . Esto puede proveer un problema significativo para técnicas de optimización convencionales que requieren variables de un solo tipo matemático o unidad científica. luego. además de la falta de amenidad a una solución analítica. aleatoriedad. y ruido. Problemas que involucran las clases mencionadas de proceso tienden a ser difíciles de resolver satisfactoriamente usando los métodos convencionales. una búsqueda de AG se dirige y. diversos tipos de variables pueden representarse (y manipulaos subsecuentemente) dentro de una sola solución. Un singular problema de ingeniería de control puede contener una mezcla de formato d variables de decisión. También debe notarse que los parámetros del AG (el tamaño de la población. Cada uno de estas propiedades puede causar dificultades severas al tradicional método de búsqueda tradicional. y qué por consiguiente no conduce al análisis. La falta de confianza AG en el dominio heurístico específico lo hace un contendedor fuerte para la aplicación en esta área. y son comprendidos pobremente (el control del cual representa una magia negra). Esto incluye sistemas que son altamente no lineales. Es capaz de hacer frente a paisajes con funciones de costo perjudiciales. discontinuidad.) requieran sintonización para los beneficios extendidos de los algoritmos a ser realizado.específico.una codificación del conjunto de parámetro. Las aproximaciones evolutivas han demostrado particularmente exitoso en problemas que son difíciles formalizar matemáticamente.

Para problemas que son bien comprendidos. incluso más problemas de diseño de ingeniería. Esto le proporciona un grado mayor de opción y flexibilidad al diseñador. No garantiza proporcionar que los resultados serán de suficiente calidad para el uso en línea. Las aplicaciones misión-críticas y seguridad-críticas no aparecen. claramente. contrastando. y otras técnicas de problemas específicas están en fase de inicio. ellos normalmente se prueban mucho (típicamente veinte a treinta) tiempo debido a la naturaleza estocástica del algoritmo. Los AGs también son capaces de soportar múltiplos. Si un problema puede resolverse analíticamente con un nivel aceptable de asunciones entonces esa aproximación es probablemente mejor. El potencial del AG sólo está empezando a ser efectuado en esta arena. pero es improbable demostrar suficiente para ganar la aprobación de agencias de las normas. Si así una solución no puede ser encontrada. Alguna teoría de apoyo existe para los algoritmos genéticos. a menudo requieren implementaciones masivamente paralelas para producir los resultados dentro . Hay un elemento de cambio en un algoritmo genético. Cuando se evalúan AG en los problemas de referencia. el AG es improbable para producir resultados competitivos. se necesite para el sistema crítico. entonces el uso de AG podría demostrar ser muy aprovechable y que vale la pena. soluciones a un problema simultáneamente. Mucho cuidado habría. Hay también la pregunta cómo se evaluarán los individuos si ningún modelo del proceso está disponible (como puede ser bien el caso). Muchas aplicaciones del mundo real encajaron en esta categoría. inicialmente. y para los cuales se confía que existen soluciones. Los AG son muy intensivos computacionalmente.Un camino particularmente prometedor de aplicación de los AG es el problema multiobjetivo. ser favorable para el uso de AG. que son aproximadamente lineales.

Por lo tanto. la aplicación en línea para control en tiempo real es grandemente imposible en la actualidad .de un marco de tiempo aceptable.

El desplazamiento y (t ) se mide a partir de la posición de equilibrio en ausencia de una fuerza externa.1es lineal. La fuerza externa u (t ) es la entrada para el sistema.1.1. la ecuación 5-1 describe el sistema Figura 5. Sistema masa resorte & m&& + by + ky = u y & x = Ax + Bu (5-1) . A partir del diagrama. Sistema mecánico: masa –resorte El sistema que aparece en la figura 5. mientras que el desplazamiento y (t ) de la masa es la salida.Capítulo 5 Sintonización de controladores PID utilizando algoritmos evolutivos 5.

Definiendo las variables de estado como x1 (t ) y x2 (t ) x1 = y & & x2 = y = x1 De la ecuación 5-1 & m&& = −by − ky + u y b k 1 && = − y − y + u (1) & y m m m La ecuación de salida es  x1    y = (1 0 )  x  2 (5-2) (5-3) (5-4) Despejando las derivadas de mayor orden & x1 = x2 & x2 = − b k 1 x2 − x1 + u m m m (5-5) (5-6) Las ecuaciones 5-5 y 5-6 en forma matricial quedan: &  x1   0  = k  x  −  &2   m 1  x   0  b  1  +  1 u −  x2    m    m  (5-7) Para obtener la función de transferencia se utilizo la siguiente ecuación G ( s ) = C ( SI − A)−1 B + D (5-8) .El sistema es de segundo orden por lo que tiene dos integradores.

De la ecuación (5-7) se obtiene:  0 A= k −  m 0 B = 1 m   1  b −  m (5-9) (5-10) C = [1 0 D=0 ] (5-11) (5-12) Para calcular la matriz SI − A  s 0  0  SI − A =   0 s  − − k   m  1  s b = k −   m m −1  b s+  m (5-13) Calculando la inversa de la matriz b   1 s + m   k  s  adjA  m −1   (SI − A ) = = b k A s2 + s + m m Sustituyendo en 5-8 b   1  0  s + 1 m  1   G ( s ) = (1 0 )   b k  k s  m  s2 + s +   m m m  (5-14) (5-15) Al realizar las operaciones G( s) = b 1   0  s+ 1 1   b k  m   2 s + s+ m m m (5-16) G( s) = − 1 1 m s2 + b s + k m m (5-17) .

Se obtiene la función de transferencia G( s) = −1 ms + bs + k 2 (5-18) 5. entonces el sistema será CA observable.1. C = (1 0 ) 1  b  = (0 1 ) −  m (5-23) (5-24)  0  CA = (1 0 ) k −  m .1.  0 AB =  k −  m 1  0  b  1  −   m  m  AB ]es igual a 2. Controlabilidad del sistema La controlabilidad juega un papel muy importante en el diseño de sistemas de control en el espacio de estados. Observabilidad El sistema es observable si todas las transiciones del estado afectan eventualmente a todos los elementos del vector de salida.1. C  Si rango de la matriz v =   es igual a 2. el determinante es diferente de cero por la tanto el sistema es controlable 5.2. ya que sus condiciones determinan la existencia de una solución completa. entonces el sistema será (5-19) (5-20)  0 Det s =  1  m 1   m =− 1 b m2 − 2  m  (5-21) Los vectores de la matriz son linealmente independientes entonces. Si el rango de la matriz s = [B controlable.

5Y ( s ) (5-28) Aplicando el método de discretización aproximada  y ( kT ) − y (( k − 1)T )   y (kT ) − 2 y (( k − 1)T ) + y ((k − 2)T )  0.1.5T 2 − y ((k − 1)T )[2 + 2T + y ((k − 2)T ) ] [ ] (5-31) .5U (kT ) =  2  + 2.5 y ( kT )  + 2 T T     (5-29) Realizando las operaciones 0.5T 2 y(kT) (5-30) ] 0.5T 2U (kT ) = y (kT ) 1 + 2T + 2.5T 2U (kT) = y(kT) − 2 y((k −1)T ) + y((k − 2)T ) + 2T[ y(kT) − y((k −1)T ) + 2.3.1 0 Det v =   0 1 = 1   El sistema es observable (5-25) 5.5 = s + 2 s + 2. Discretización del sistema Asignándole valores numéricos a las variables de la función de transferencia del sistema Tomando m =2 b =4 k =5 Reemplazando en la ecuación (5-18) (5-26) G( s) = Y ( s) 0.5 U (s) 2 Tomando condiciones iniciales cero Despejando con respecto a la entrada y la salida del sistema 0.5U (s ) = s 2Y (s ) + 2 sY (s ) + 2.5Y ( s ) (5-27) Aplicando transformada de laplace & & 0.5U (s ) = Y&( s ) + 2Y ( s ) + 2.

79 Z −1 + 0. Calculo del controlador Hallando la función de transferencia del diagrama en bloques Figura 5.1.1 ) + y (k − 2) ] (5-33) (5-32) 0.) 0.5(0.2 y (k − 1) − y (k − 2) y (k ) = 0.816 (5-39) 5.00408U (k ) + 1.00408U ( Z ) (5-36) (5-37) (5-38) ( ) Y (Z ) 0.796 y (k − 1) − 0.1 5 [ 2 (− y()k − 1)[2]+ 2(0.4.2.816Z −2Y ( Z ) Y ( Z ) 1 − 1.00408 = U ( Z ) 1 − 1.2Y (k − 1) + y (k − 2) Despejando y (k ) 1.00408U ( Z ) + 1.225 y (k ) = 0.816Z − 2 Y (Z ) 0.005U (k ) + 2.1 (+ 2.79 Z + 0. Diagrama en bloque del sistema (controlador –planta) Gs = CP 1 + CP (5-40) El controlador se describe matemáticamente por .79 Z −1 + 0.00408Z 2 = U ( Z ) Z 2 − 1.816 Z −2 = 0.005U (k ) = 1.1 y reemplazando en (5-31) 0.816 y (k − 2) (5-34) (5-35) Al expresar en función de Z y (Z ) = 0.225 y (k ) − 2.1 ) = y (k ) 1 + 2 0.796 yZ −1Y ( Z ) − 0.Tomando 2 T = 0.

5  s   Gs =  2  K s + K P s + K I  0.5 K P s + 0. Para esto −1 = ξwn (5-48) (5-49) ξ = 0. K e( s ) TD e( s )   U (s ) = K P  e s (+ ) I +  TI s αs + 1    (5-41) C ( s) = K P + KI + Kd s s (5-42) (5-43) KDs2 + KP s + KI C (s ) = s Sustituyendo la ecuación 5-26 y 5-43 en la ecuación 5-40  K P s + K D s 2 + K I  0.5s + 0.5   2 1+  D   s + 2 s + 2.5K I Gs = 3 s + (2 + K D )s 2 +( 2.5K D s 2 + 0.5 K D s 2 + K P s + K I      s s 2 + 2 s + 2.5 K D s 2 + 0.5K P s) + 0.5K I (5-46) Usando el método de asignación de polos Se quiere que el desempeño del sistema cumpla con ciertas especificaciones entonces se usa el método de asignación de polos y se quiere que los polos del sistema estén en el semiplano izquierdo del plano s para que el sistema sea estable.5 + 0. 5  s    (5-44)  0.5   Gs = 3 s + 2 s 2 + 2.5 . s 2 + 2ξwn s + wn 2 (5-47) Donde ξ es el amortiguamiento wn Frecuencia natural no amortiguada.5 K P s + 0.5K I s s 2 + 2 s + 2.5 ( ( ( ) ) ) (5-45) 0. 5    2   s + 2 s + 2.

1)Z 2 + ( (0.5.5 2 (5-50) wd = (s ( 1−ξ wn = 0.8 ) /)2 + 1 / 0.1)()Z + 1 / 0).Despejando wn wn = 1 =2 0.5 K I = 4 KI = 8 (5-56) (5-55) 5. (K Gc( z ) = p ) / + TK i / 2 + K D / T Z 2 + TK I ( 2 − K p − 2 K D / T Z + K D / T Z ( Z − 1) ) (5-57) Sustituyendo los valores Gc( z ) = (7 + ((0.1 ) 0.1.5K P = 6 KP = 7 0.5 + 0.1 (5-58) .866 2 + 2s + 4 (s + 1 )= s 3 + 2 s 2 + 4 s + s 2 + 2 s + 4 ) ) (5-51) (5-52) (5-53) s 3 + 3s 2 + 6 s + 4 Igualando las ecuaciones 2 + KD = 3 despejando (5-54) KD = 1 2.(1 8 )(/ 2))− 7 − ( Z ( Z − 1) ( ) 2 1(/ 0. Discretización del controlador Para la discretización del controlador se usa el método de integración trapezoidal por obtener una mejor muestra de la señal en tiempo continuo.

6Z −1 + 10Z −2e(Z ) Expresando en función de K U ( K ) − U ( K − 1) = 17.4e( Z ) − 26.6Z ( −1 −1 + 10Z −2 e(Z ) (5-61) (5-62) U ( Z ) − Z −1U (Z ) = 17.4 Z 2 − 26.4 Z 2 − 26. El algoritmo se desarrollo en Matlab por la accesibilidad que de este se tiene en la universidad y por cumplir con todos los requisitos necesario para su ejecución. En este caso se mira el comportamiento en línea del sistema donde se van cambiando en cada generación los nuevos individuos (constantes) para el mejor funcionamiento del sistema.6. Como los parámetros que se tiene del sistema son números reales.4e( K ) − 26.6Z + 10 e( Z ) ) ( ) ) (5-60) Despejando U (Z ) (1 − Z ) U (Z ) = 17. Los datos de la planta y el controlador ya fueron discretizados anteriormente para poder ser evaluados por el algoritmo.1. Sintonización de controladores PID utilizando algoritmos evolutivos en línea La sintonización del controlador PID consiste en darle los valores adecuado a los parámetros del controlador K D . lo mas apropiado para el diseño del fue el uso de estrategias evolutivas.6e( K − 1) + 10e( K − 2) + U ( K − 1) (5-63) (5-64) 5. K I y K P de forma que puedan estabilizar el sistema de una forma rápida sin alterar el comportamiento del mismo.6 Z + 10 U ( Z ) = Z ( Z − 1) e( Z ) (5-59) (Z 2 − Z U (Z ) = 17. El programa principal inicia con los valores teóricos de las constantes que luego son evaluadas por el controlador y .4 − 26.6e( K − 1) + 10e( K − 2) U ( K ) = 17.4e( K ) − 26.Al realizar lo cálculos Gc( z ) = 17.

la planta. Para una mejor comprensión se presenta el diagrama de flujo de la figura 5. Ya teniendo el error pasan al algoritmo donde las constantes son recalculadas por el gradiente de este.3 .

k Son los valores de entrada del algoritmo . alfa. sp . y 2.Figura 5. t .3. Diagrama de flujo del algoritmo en línea y1. a. ek1. ek . u1. b. tol . ek 2.

6. Validación del algoritmo en línea Para validar el algoritmo se incluirá las cuantificaciones del sistema masaresorte ya descrito.5.kd1. kp1. 5.resorte m Es un vector para crear las segundas constantes del sistema h Es la variable que contabiliza el tiempo 5.4.1. ki1 Son las constantes del controlador para el sistema masa.1.4. . Salida del sistema con condiciones iniciales cero Ahora las condiciones iniciales permanecen excepto el set point que se cambia a 1. Primero se simulara con todos los valores iguales a cero por lo que el sistema se estabiliza en cero como se puede ver en la figura 5. por lo que se espera que el sistema estabilice en este valor como se observa en la figura 5.

5. Sistema con condiciones iniciales cero y set point 1 Ya dándole valores a todas las condiciones iniciales del sistema. La salida se puede observar en la figura 5.6.6. Figura 5. Sistema con valores diferentes de cero y set point 1 .Figura 5.

set point 3 .Figura 5. Sistema con set point negativo Ya teniendo el sistema estabilizando. Sistema con variaciones en la planta. se procede a incluir algunas variaciones en la planta para observar como se comporta el sistema.7.8. Figura 5.

Figura 5.10. . Sistema con cambio de set point Cambiando el gradiente de descendente a ascendente. set point 6 Cambiado el set point del sistema con el algoritmo en ejecución. Figura 5.9. Sistema con variaciones en la planta.

Sistema con gradiente ascendente 5. Circuito LRC Figura 5.Figura 5. una resistencia R (ohm).12. Circuito LRC El circuito de la figura 5.12 esta formado por una inductancia L (henry). Aplicando la ley de voltaje de Kirchhoff al sistema. se obtiene las ecuaciones: L di 1 + Ri + ∫ idt = ei dt C (5-65) (5-66) 1 idt = e0 C∫ Las ecuaciones 5-65 y 5-66 dan un modelo matemático del circuito Hallando la función de transferencia .11.2. y una capacitancia C (farad).

00355UU (k ) + 1.55Z 2 + 69.7117 y (k − 2) (5-70) Al aplicar el método de asignación de polos las constantes obtenidas son: K P = 11 KI = 9 K D = −4 Entonces el controlador en forma discreta resulta G(Z ) = − 28.45e(k − 1) − 40e(k − 2) + U (k − 1) (5-72) La salida del algoritmo para el circuito se puede observar en la figura 5.01Z 2 = U ( Z ) 2.13 .7081 y (k − 1) − 0.e0 ( s) 1 = 2 ei (s) LCs + RCs + 1 (5-67) Dándole valores numéricos a la función de transferencia R= 4 C =2 L =1 G( s) = 1 2s + 8s + 1 2 (5-68) Discretizando la función de transferencia 5-68 se obtiene y( Z ) 0.8Z + 2 (5-69) Y la ecuación de la planta discretizada para el algoritmo es y (k ) = 0.81Z 2 − 4.45Z − 40 Z2 − Z (5-71) Y el controlador en forma discreta para el algoritmo es U (k ) = −28.55e(k ) + 69.

Sistema de levitación magnética El sistema de suspensión magnética que permite mantener levitada una pequeña esfera metálica de masa m .3. Salida del circuito LRC para el algoritmo 5.14. Figura 5. El objetivo del controlador será regular el valor de la corriente del circuito del electroimán de tal forma que la esfera se mantenga suspendida a una distancia constante x = X del electro magneto.13. La tensión o voltaje aplicado al circuito v(t ) y actúa como una variable de control.Figura 5. Sistema de levitación magnética Las ecuaciones que describen el sistema son: .

3.Li′ = − Ri + v(t ) Ci 2 m&& = mg − fm = mg − x x 0  &  x1   x  =  g &  2  X  x3   &  0          (5-73) (5-74) Despejando las ecuaciones del sistema en forma matricial y despejando 1 0 0 0 mXg − 2C C mX R − L    x1   0  x  +  0   2 1   x3      L (5-75) x  c = [0 1 0 ]x2     x3    (5-76) Al analizar la controlabilidad el determinante de S es S= − 4Cg mXL3 (5-77) Lo que define que el sistema es controlable Para la observabilidad el determinante de V es − 2CRg mgX C 2 mX L V = (5-78) Por consiguiente el sistema también es observable 5.1. Función de transferencia Partiendo de la ecuación 5-8 G ( s ) = C ( SI − A)−1 B + D Entonces G( s) = 1 R g Rg s + s2 − s − L X LX 3 − 2Cs mgX C mXL (5-79) .

77 Z 2 + 283.06 Z2 − Z (5-83) (5-84) U (k ) = −211.3.004177 (k) + 0.22 Z 2 + 3.7167 Usando el método de rectangular atrasada el controlador en forma discreta seria G(Z ) = − 211.93819 Z 3 − 3.78Z − 102.15.786e(k − 1) − 102.4321 (k −1) − 3.2 Z − 1 ( ) (5-81) y(k) = −0.2062 K I = −300.778e(k ) + 283.598 K P = −109.691918s s + 2s 2 − 18s − 81. .81 3 (5-80) Discretizando la planta G( Z ) = − 0.Dándole valores numéricos a la función de transferencia anterior g = 90 C = 40 m = 30 X =5 L = 25 R = 50 Y sustituyendo en 5-79 se obtiene G( s) = − 0.4108 (k − 2) +1.003919 Z 3 − Z 2 0. Calculo del controlador Las constantes obtenidas por el método de asignación de polos K D = −10.004177 (k −1) + 3.062e(k − 2) + U (k − 1) Por tanto la salida del sistema de levitación ante la simulación en el algoritmo se puede observar en la figura 5.0658 (k − 3) (5-82) U U y y y 5.2.

Salida del algoritmo para el sistema de levitación 5.4.Figura 5. . MODELO DEL EVAPORADOR El tanque esta sellado herméticamente para que no se pierda ninguna sustancia ya que puede ser corrosiva o tóxica y lo ideal del sistema es purificar la sustancia sin perder nada.15.

. Ambas entradas se mezcla en el tanque y salen por la parte de arriba del tanque donde la presión que se mide es critica. Sistema del evaporador El sistema tiene dos tubos de entrada. no tiene ningún compuesto adicional). Si el proceso es óptimo sale por la válvula. las variables definidas y parámetros dados. El vapor pasa a un condensador donde es refrigerado ya que no se puede dejar que salga así al ambiente porque puede oxidar los elementos que estén por ahí. Luego van a un separador donde la sustancia más densa (a purificar) se acumula en la parte de abajo el vapor con algunas moléculas de la sustancia con que mezclo anteriormente.16.Figura 5. Hay dos partes importantes para la descripción del modelo matemático: • La primera parte deriva un modelo mecánico no lineal con asunciones mayores expresadas. En el separador ahí un sensor de calidad que indica si la sustancia (producto) ya es optimo o tendría que repetirse el proceso. El primero es por donde llega la sustancia a purificar y el segundo es el vapor (agua pura destilada caliente.

0 40.0 208.0 25.6 1.0 84.3 119.6 80.9 194.0 25.0 5.0 Unidad Kg/min Kg/min Kg/min Kg/min Kg/min Porcentaje Porcentaje Grados ºC Grados ºC Kg/min Metros kPa Kg/min Kg/min kPa kW Kg/min Grados ºC T201 Temperatura de la salida del agua de enfriamiento 46.7 539.1. descripciones. Modelo no lineal Los nombres de las variables.• la segunda parte deriva una descripción del espacio de estado lineal en la forma normalizada evaluando los apropiados elementos jacobianos. Variable F1 F2 F3 F4 F5 X1 X2 T1 T2 T3 L2 P2 F100 T100 P100 Q100 F200 T200 Descripción Flujo de alimentación Flujo del producto Flujo de recirculación Flujo de vapor Flujo de condensación Composición de alimentación Composición del producto Temperatura de alimentación Temperatura del producto Temperatura de vapor Nivel del separador Presión de operación Flujo de vapor Temperatura de vapor Presión de vapor Ciclo de calentamiento Flujo de agua de enfriamiento Temperatura de agua de enfriamiento Valor 10. El solvente es el agua y el soluto es el no volátil.0 8.0 2.4. los valores del estado estable estándar.1 Grados ºC . 5.0 510.0 8. 50.5 5. y las unidades manejadas se muestran en la tabla 5-1.

4.2.3.4. Proceso de balance de masa líquida del soluto Un balance de masa sobre el soluto en el proceso de la fase líquida produce: MdX 2 / dt = F 1X 1 − F 2 X 2 (5-86) Donde M es la cantidad de líquido en el evaporador y es asumido para ser constante como 20 Kg 5. Proceso de balance de masa líquida Un balance de masa sobre el líquido total del proceso (solvente y soluto) in el sistema produce: ρAdL 2 / dt = F1 − F 4 − F 2 Donde: ρ es la densidad del líquido (5-85) A es el área de cruce seccional del separador El producto ρA es asumido paras ser constante como 20 Kg/m 5.4.Q200 Ciclo de condensación 307.4. Proceso de balance de masa de vapor Un balance de masa sobre el vapor del proceso en el evaporador expresara la masa total del vapor de agua en términos de la presión que existe en el sistema: CdP 2 / dt = F 4 − F 5 (5-87) .9 kW Tabla 5-1. Variables del evaporador 5.

La dinámica del balance de energía es asumida para ser muy rápida así que: F 4 = (Q100 − F1C p (T 2 − T 1)) / λ (5-90) Donde C p es la capacidad de calor del licor y la constante se asume como un valor de 0. 5. Proceso de balance de energía líquida El líquido del proceso se asume para existir en este punto de ebullición y ser mezclado perfectamente (asistido por la tasa alta de circulación).0 (5-89) La cual es un linealización de la línea líquida saturada para el agua sobre el valor estándar del estado estable.07kW/K (Kg/min) y λ es el calor latente de vaporización del licor y es asumida para tener un valor constante de 38.4.5kW / (Kg/min).5616 P 2 + 0. Esta constante puede ser derivada de la ley de gas ideal.43 (5-88) La cual es un linealización de la línea líquida saturada para el agua sobre el valor estándar del estado estable e incluye un término para aproximar la elevación del punto de ebullición debido a la presencia del soluto. La temperatura del líquido es: T 2 = 0.5.Donde C es una constante que convierte la masa de vapor en una presión equivalente y se asume que tiene un valor de 4 Kg/ kPa. La temperatura del vapor es: T 3 = 0.507 P 2 + 55.3126 X 2 + 48. .

4.6 kW/(Kg/min).6. 5. Esto asume que no hay ninguna pérdida de calor al ambiente o ganancias de calor de la entrada de energía de la bomba. Una ecuación que relaciona la temperatura de vapor para la presión del vapor puede ser obtenida aproximando la relación temperatura de vapor saturada presión por linealización loca sobre el valor en estado estable: T 100 = 0. .0 (5-91) La tasa de transferencia de calor para el proceso de ebullición del líquido es dado por: Q100 = UA1(T 100 − T 2) (5-92) Donde UA1 es el coeficiente de tiempo de transferencia de calor completo el área de transferencia de calor y es una función del flujo total a través de los tubos en el evaporador: UA1 = 0.El sensible cambio de calor entre T 2 y T 3 para F 4 es considerado pequeño comparado con el calor latente.1538 P100 + 90.16( F1 + F 3) (5-93) La rata de vapor es calculado de: F100 = Q100 / λs (5-94) Donde λs es el calor latente de vapor en la condición de saturación. Envoltura del vapor caliente La presión de vapor P100 es una variable manipulada qué determina la temperatura de vapor bajo la suposición de condiciones saturadas. asumido como un valor constante de 36.

07kW/(Kg/min) La ecuación de la tasa de transferencia de calor es aproximada por: Q 200 = UA2(T 3 − 0. la cual es asumida con un valor constante de 6.4. 5. Estas dos ecuaciones pueden ser combinadas para eliminar T 201 para dar explícitamente: UA2(T 3 − T 200) 1 + UA2 /(2C p F 200) Q 200 = (5-97) Sigue que: T 201 = T 200 + Q 200 /( F 200C p ) (5-98) . Un balance de energía de agua de enfriamiento produce: Q 200 = F 200C p (T 201 − T 200) (5-95) Donde C p es la capacidad de calor del agua de enfriamiento asumida como una constante de 0.5(T 200 + T 201)) (5-96) Donde UA2 es un coeficiente de tiempo de transferencia de calor completo el área de transferencia de calor. Condensador El flujo de agua de enfriamiento F 200 es una variable manipulada y la entrada de temperatura T 200 es una variable de perturbación.La dinámica dentro de la envoltura del vapor ha sido asumida para ser muy rápida.84kW/K.7.

5.10340 × 10 −1 − 0.10445 0.El flujo de condensación es: F 5 = Q 200 / λ (5-99) Donde λ es el calor latente de vaporización de agua asumido como una constante de 38.5kW/K(K/min) La dinámica dentro del condensador ha sido asumida para ser muy rápida.54738 × 10−1    (5-106) .8.37935  0  0 A= − 0.4. Modelo matemático del evaporador La ecuación en espacio de estados es & X = Ax + By + Dd (5-100) Y la salida esta dada por y = cx (5-101) Calculando la ecuación en espacio de estados del sistemas ( SI − A) x = Bu + Dd (5-102) Despejando x x = (SI − A −1 ) [Bu + Dd ] (5-103) Despejando y y = C (SI − A y = C (SI − A −1 ) [Bu + Dd ] ) Bu + C SI( − A −1 Dd ) (5-104) (5-105) −1 Al linealizar el sistema se obtiene las matrices 0. 1 0  0 0.

01 B= 0 0   0 0.75272 × 10− 2    1 0 0 C = 0 1 0     0 0 1  (5-107) (5-108) − 0.17785 × 10  0 Iniciando los calculo de las ecuaciones por la matriz SI − A 0.0.54738 × 10−1 (5-13) −1  s + 0.3636 × 10 −1 0.1  0 0.36676 0.1  0.54738 × 10−1      (5-110) Realizando la operación.38605  D= 0 0.10340 × 10−1 − 0.54738 × 10  0.10445 0.37266 0   − 0.1 )s + 0.1 0 0 0.10340 × 10 0  = s (s + 0.36302 0.32268 × 10− 2  0 − 0.35972 × 10− 2   0  (5-109) −1  0.10445 s  SI − A =  0 s + 0.0054738s ( ( ) ) (5-114) Para calcular la adjunta se procede a conseguir los cofactores .1  SI − A = s  −1 0.54738 × 10  ( ) SI − A = s 2 + 0.1s s + 0.10340 × 10−1    0  −1  s + 0.54738 × 10 −1 = s 3 + 0. 1   − .154738s 2 + 0.36914 × 10−1 0. reemplazando la matriz 5-86 − 0. 1 SI − A =  0 s 0  −  0 0   0 0 s   0 − 0.37935 (5-111) Calculando la inversa de la matriz (SI − A −)1 = Adj (SAI − A) SI − A (5-112) Se inicia calculando el determinante de la matriz s + 0.37935   s 0 0 0     − 0.

0057173841(− 0.10340 × 10 −1 0 = (s + 0.10445s + 0.37935 s + 0.37935 0.0017949051 s + 0.54738 × 10 s − 0.37935 )= 0.A11 = s + 0.10340 × 10−1 s 0 0.37935 s = s 2 + 0.54738 × 10 −1 s + 0.037935  0 s 2 + 0.054738 × 10 − 0.54738 × 10 −1 s + 0.10340 × 10    ( ( ) ) A21= −[− 0.54738 × 10 −1 (− 0.1 0.10445 − 0.10445 − 0.37935 =0 0 0 A32 = − A33 = (5-124) s − 0.54738 × 10−1 ( (5-115) (5-116) (5-117) ) A11 = s 2 + 0.1 0 =0 0 s + 0.154738s + 0.10445 = s (s + 0.)10445 + 0.10445 s = −0.1 0 s − 0.1 )s + 0.0017949051 s − ] s (5-120) A22 = − 0.10340 × 10−14 (5-121) A23 = − A31 = (5-122) − 0.37935 (− ] s = −[(s + 0.37935 + 0.1 (5-125) Reemplazando los cofactores de 5-96 a 5-104 Matriz de cofactores  s 2 + 0.154738s + 0.037935(5-123) s + 0.37935s − 0.003922749= 0.10340 × 10 −1 − 0.54738 × 10 −1 −  (5-119) ) = −  −1 ) (− 0.0054738  0 0  2 −1 −1  Mc =  0.10445 s + 0.1s 0 s + 0.54738 × 10−1 s −1 0 s + 0.1 )= s 2 + 0.10340 × 10−1 (5-118) A21 = − − 0.10340 × 10 s  (5-126)  − 0.1s   .1 ) 0.0054738 A12 = A13 = 0 0 =0 0 s + 0.10445 0.

54738 × 10−1 s 0     0 s 2 + 0.3726 s 2 + 0.154738s + 0.0054738 0.01547 Z − 1 (5-132) y (k ) = 0.1s  Ya teniendo la inversa de SI − A se multiplica por la matriz C  s 2 + 0.154738s 2 + 0.0036s − 0.0028s − 0.154738s 2 + 0.0054738 s1 = −0.0054738s (5-130) Simplificando p2 (s ) s (0.36914 × 10−1 s + 0.0716 + 0.0017949051 s + 0.154738s0.00365Z 2 − 0.0054738  Adj ( SI − A) =  0  0  0.1s 2 − 0.10340 × 10 −1 s 2 −1 0.0054738 (5-134) .1s 2 − 0.154738s + 0.154738s 2 + 0.0034 − 0.36914 × 10 −1 s 2 + 0.0068U (k − 1) + 1.037935   (5-127) 0   s 2 + 0.015528Z 2 − 2.0035U (k ) − 0.10445s + 0.0017949051 0.0054738s C ( SI − A) −1 = (5-128) Luego se multiplica por B  − 0.154738 s 0.54738 × 10 s − 0 .37935s + 0.0259 s − 0.001034 s 0.0036914) = p100 (s ) s ( s 2 + 0.1 s2 = −0.984 y (k − 1) − 0.37935 s + 0 .00075 (5-129)   s 3 + 0.006914Z = U ( Z ) 1.984 y (k − 2) (5-133) Al calcular los polos del sistema s 2 + 0.00028    − 0.037935   0 s 2 + 0.36914 × 10−1 s 2 + 0.0054738) (5-131) Y en forma discreta es y( Z ) 0.0054 s 0 0    0.Transponiendo la matriz  s 2 + 0.0054738s C ( SI − A) −1 B = Inicialmente sin tener en cuenta las perturbaciones del sistema p 2 ( s ) 0.0036914 s = p100 ( s ) s 3 + 0.10340 × 10−1 s   s3 + 0.1s − 0.752 × 10− 2 s 2 − 0.0072 0.10445 s + 0 .

17. Evaporador con algoritmo en línea . Tiene un polo en y otro en -0. Figura 5. respectivamente.25 seg.674 El controlador en forma discreta seria G(Z ) = 8.008125 K D = 0.74 Z2 − Z (5-135) (5-136) U ( K ) = 8. Y 18. Por lo tanto TI no puede ser menor que 18. entonces se toma 18.054738.25seg por corresponder al polo mas cercano al origen (dominante).25seg.962Z + 6.El sistema es sobre amortiguado. Teniendo las condiciones de funcionamiento del sistema se pueden obtener las constantes del mismo K P = 1.2268Z 2 − 14.2268e(k ) − 14.4828 K I = 0.74e(k − 2) + U (k − 1) Llevando las constantes del sistema al algoritmo en línea. por tanto los tiempos de respuesta son 10 seg.962e(k − 1) + 6.

0714s + 0. Esta es sumada a la señal de entrada y al igual que el modelo anterior evaluado en el algoritmo.18 el sistema inicial mente tiene un sobre impulso que luego de un tiempo se va estabilizando.000359 s 0.0353F 3(k ) − 0.03630s 0.0036302 Z = F 3(Z ) 1.359 × 10 s + 0.0017 s  − 0.Ahora teniendo en cuenta las perturbaciones C ( SI − A) −1 D = − 0.0054738s Tomando la perturbación p2 ( s ) 0.002 0.0011s + 0.154738s 2 + 0. Salida del sistema con perturbación .056s − 0.03574 F ·(k − 1) + 1.36302s + 0.366s 2 − 0.0154 Z + 1 (5-138) p( Z ) = 0.1s 2 + 0.0054378s (5-137) Discretizando la función p2 ( Z ) 0.36 × 10 −1 s 2 − 0.9847 p (k − 2) (5-139) La perturbación tomada es el flujo de recirculación F 3 .03593Z 2 − 0.386s 2 + 0.36302s 2 + 0.036302s = F 3( s ) s 3 + 0.9846 p2 (k − 1) − 0.0056 s − 0.00013    0 0.002 0.1s 2 + 0.00019 0.17 × 10 s + 0.154738s 2 + 0.322 × 10 s − 0.00103s   s 3 + 0. Como se puede ver en la figura 5.0054 s 0 0   2 −2 2 −2 2 −1 2  0.00017 − 0. Figura 5.01552Z 2 − 2.18.00071s 0.0104s + 0.0054 s 0.

Ahora el mejor individuo no es cambiado en cada generación.1.1584 K P1 = 7.5. Sistema mecánico: masa –resorte Las constantes teóricas del sistema son KD = 1 KI = 8 KP = 7 Inmediatamente de ser evaluada por el algoritmo seleccionados y reemplazados son los mejores individuos K D1 = 1. Circuito LRC Los parámetros iniciales del controlador son K P = 11 KI = 9 K D = −4 . 5.2. Sintonización de controladores PID utilizando algoritmos evolutivos fuera de línea Para el trabajo del algoritmo fuera de línea se hace con pocos individuos y se comienza con una población aleatoria. donde la función objetivo también es minimizar el error y el criterio de para es el tiempo.5.5. En este caso también se prueba con los sistemas ya descritos. sino que los datos van siendo almacenados y luego de terminadas las iteraciones a los dos mejores individuos se le aplican los operadores de mutación y cruce para obtener el nuevo para ser reemplazado por el peor.1231 5.0889 K I 1 = 8.5.

Sistema de levitación magnética Inicialmente las constantes están dadas por K D = −10.Y cambian a la salida del algoritmo por K P1 = 11. MODELO DEL EVAPORADOR Teóricamente las constantes del evaporador son K P = 1.0397 K D1 = −3.5878 K I 1 = 0.5090 K P1 = −109.2031 K I 1 = −300.0487 K D1 = 0.0406 K I 1 = 9.674 Y a la salida del algoritmo son K P1 = 1.8084 .598 K P = −109.4673 5.3.2062 K I = −300.7167 A la evaluación del algoritmo pasan a ser K D1 = −10.008125 K D = 0.4828 K I = 0.4.5.5.9722 5.

A la hora de ser implementada en plantas industriales generaría menos perdidas en la elaboración de los productos.6. por lo que se pudiera tener ingresos económicos por la comercialización de la misma. por lo cual los gasto son netamente de la investigación realizada.000 $ 100.000 Honorarios profesionales (Director) $ 200. ANÁLISIS ECONÓMICO Y ADMINISTRATIVO En el desarrollo de este trabajo no se realizo implementación.000 TOTAL $ 500.000 Fotocopias Impresiones $ 100. El impacto Económico: este desarrollo construye un soporte para el posterior desarrollo de una herramienta computacional de aplicación industrial que pueda ser registrada. . • • • • Documentación en Internet $ 100.000 Los recursos utilizados para cubrir los gastos de la elaboración de este trabajo fueron de recursos propios. ya que los equipos seguirían funcionando normalmente al ser resintonizandos los puntos de operación cuando ocurra algún comportamiento no debido ocurra.

investigadores y profesores vinculados a esta. La Universidad de Pamplona posee las licencias requeridas para ser usado por estudiantes.7. En el caso de implantación no se hace indispensable este software. ANÁLISIS DE LEGALIDAD Para la implementación de la herramienta computacional para la sintonización de controladores PID se utilizó el software de Matlab. cualquier lenguaje de programación que posea las herramientas necesarias puede ser utilizado. .

INFLUENCIA AMBIENTAL El funcionamiento inadecuado de las plantas industriales debido al desgaste. etc. factores externos de algunos equipos. Este algoritmo traería beneficios no solo en la operación apropiada de procesos o sistemas. .8. podría generar gases y sustancias nocivas para la salud del personal a cargo y además contaminantes para el ambiente.. y el consumo de energía en la planta. sino que también reduce la emisión de residuos tóxicos a la atmósfera. vencimiento del tiempo útil de uso.

. que una de las ventajas novedosas del enfoque de sintonización propuesto está en permitir la continuación de la operación de la planta.CONCLUSIONES • El uso de algoritmos evolutivos para la sintonización de controladores PID constituye un novedoso enfoque de resolución de problemas. con excelentes potencialidades en el campo de las aplicaciones industriales. • Los resultados alcanzados en el trabajo pueden ser visualizados como el punto de partida para el desarrollo de investigaciones de punta en el área de la sintonización de controladores industriales. • La implantación física del algoritmo de sintonización propuesto no conlleva a gastos elevados en comparación con otros esquemas de sintonización corrientemente utilizados en la práctica. • Vale la pena recalcar. • Es notable la reducción del tiempo para acometer la sintonización de un controlador PID. aún ante la presencia de perturbaciones o fallas en la misma. • El enfoque de desarrollo y el algoritmo propuesto no representa riesgos para la operación segura de la planta ni para sus operarios. • El desarrollo de este trabajo permitió el diseño de un algoritmo evolutivo que logra la reentonación de controladores del tipo PID cuando ocurre falla de algún componente del sistema. en comparación con el tiempo utilizado empleando otros enfoques.

El algoritmo puede ser utilizado exitosamente para sistemas dinámicos de segundo y tercer orden, de los cuales se dispone de modelos matemáticos representativos de sus comportamientos.

El algoritmo de sintonización propuesto fue validado utilizando señales de perturbación sobre los procesos considerados.

Para propósitos ilustrativos, el algoritmo propuesto fue implantado en la sintonización de controladores PID en una planta de evaporación, utilizando un modelo matemático representativo de la misma.

El trabajo ejecutado puede servir de base para el desarrollo de otros proyectos de grado, tanto a nivel de pregrado como de postgrado.

Todos los objetivos propuestos al inicio de este proyecto fueron satisfactoriamente acometidos.

RECOMENDACIONES • Para el caso del algoritmo en línea, se puede utilizar para cualquier proceso. Es mas optimo y robusto (al variar la incertidumbre el controlador no pierda su correcto funcionamiento) pero mas bajo un punto de operación (no aleatorio sobre métodos convencionales). • En el caso en línea se recomienda utilizar un computador con procesador más rápido que el tiempo de respuesta del sistema. • Con una posible implementación para sistemas d otra naturaleza tener en cuenta la población, función de aptitud, tipo de operadores, y los parámetros de población, generación probabilidad de cruce y

probabilidad de mutación • En lo posible para realizar estudios sobre el concepto de robustez para incluirlo dentro del algoritmo. • Estudiar la posibilidad de ser implantado en algún proceso industrial para ir obteniendo mejoras de este.

BIBLIOGRAFIA

[1] www.habitat.aq.upm.es .boletin/n21/amher1.html . Abril de 2004 [2] www.Informáticaevolutiva.com Algoritmosgenéticos.html, Juan Julián Merelo Guervós, jmerelogeneura.ugr.es. Agosto de 2003 [3] www.inteligenciaartificialc.com .La Computación Evolutiva en el Contexto de la Inteligencia Artificial.htm, Carlos A. Coello Coello, Copyright 1997 LANIA, A.C.

[4] Computación Evolutiva. Francisco Hidrovo Torres- José L. Aguilar Castro. Universidad de Los Andes. Merida, Venezuela

[5] \GAIA Computación Evolutiva.htm. Marzo 2005

[6]

yo@alfredorahn.com,

yelitzayoleth@mipunto.com

.AG_Bivariado.pdf

Septiembre de 2003

[7] González Heli, Larrazábal Germán, Loyo Jacqueline, helijesusg@cantv.net. Algoritmo Evolutivo Paralelo para Problemas de Asignación Cuadrática - QAP ilustrados_com.htm. Publicado sábado 31 de enero de 2004

[8] computación evolutiva.pdf, Andrés Romero Rodríguez, Mario Linares Vásquez, XIV CNEIS, Marzo 16 - 2005

[9] EVOLUTIONARY ALGORITHMS.J. Madar and J. Abonyi (2005). EAfull.pdf

[10] IFAC PROFESSIONAL BRIEF. Genetic algorithms in control systems engineering. P. J. Fleming http://www.shef.ac.uk/~acse/people/p.j.fleming/, R. C. Purshouse www.shef.ac.uk/~acse/research/students/r.c.purshouse/.

Department of Automatic Control and Systems Engineering.es/~ccottap/semEC/. 2001 [16] yelitzayoleth@mipunto.uma.http://www.cl.uchile. [14] Computación Evolutiva3.pdf. (U.E. C.mx. GUILLERMO FRANCO. optimizacion. PHD. Ciencias Agrarias.lcc.).wikipedia. University of Sheffield. http://fai. E. Chaco. Tutorial de Algoritmos Evolutivos. México Abril 1. PB_Fleming_Purshouse. aguerra@uv. http://polaris. agosto 1997.aic. UK.htm . 2004 [18] ttp://es.org/wiki/Teor%C3%ADa_de_la_Evoluci%C3%B3n1.edu.htm http://www.ar.I.Septiembre.ar/biologia/evolucion/evo1. Chile. 6:43 25 ago.A.htm abril de 2002 por los estudiantes de la F. Sáenz Peña. Corrientes República Argentina.N.uv. Alejandro Guerra Hernández. pestevez@tamarugo.Octubre de 2004 [12] Pablo Estévez valencia. 2001 [15] [Alba/Cotta] Alba.biologia. Junio de 2002 [17] Dr.R. ©19982004.cec. GMSP_paper.navy. algoritmosGeneticos. Algoritmos evolutivos en ingeniería.unne. www.nrl.C. yo@alfredorahn. 2005.mx/aguerra.pdf. Cotta. El contenido está disponible bajo los términos de la GNU Free Documentation License [19] Universidad Nacional del Nordeste .mil/galist/. 2005 [11] estructuras-FIN. Agosto.pdf.com.Fac. De Agroindustrias.com.pdf. ING. Fac. Noticreto Nº 72.edu.pdf [13] Computación Evolutiva eXactas_org La Universidad Evolutiva_ Comunidad Estudiantil de formación interdisciplinaria.

ac. 18 de Enero de 2002 [26] computación evolutiva Carlos a Coello. David Santo Orcero Palabras claves.monografias. [28] Algoritmos genéticos y computación evolutiva. INDONESIA.es pg02-03-iglesias . La Universidad Evolutiva_ Comunidad Estudiantil de formación interdisciplinaria.N.Computación Evolutiva . 2002.com/trabajos/reproduccion/reproduccion. abril de 2005 [27] Algoritmos Genéticos. University of Indonesia Depok Campus. Adam Marczyk.A.pdf [23] algoritmos evolutivos cap7.).com/publicaciones/EpyyupVuyulSAOLqUy.pdf.htm abril de 2002 por los estudiantes de la F. 19 de Noviembre de 2003 . octubre de 2004 [29] Características de los algoritmos genéticos.R.Manuel de la Herrán Gascón..htm.php [21] 1997 Lucas Morea / Sinexi S. totero@udc.ilustrados.C. kusumo@cs.E. traducción Gabriel Rodríguez Alberich. Computational Intelligence Research Laboratory Faculty of Computer Science. (U.[20] Publicación enviada por Aberto García.id.A http://www.shtml [22] introducción a la computación evolutiva cap1.htm.I.ui.htm. eXactas_org. Universidad de la Coruña. Código ISPN de la Publicación: EpyyupVuyulSAOLqUy. Publicado Friday 17 de October de 2003 http://www.2003 [25] REDcientifica . Octubre de 2003 [30] BENYAMIN KUSUMOPUTRO.pdf [24] María Teresa Iglesias Otero.

Sección de sistemas de control. Katsuhiko Ogata. Departamento de Procesos y Sistemas. http://iaci. Universidad Nacional de Quilmas. México 1996 . Katsuhiko Ogata. Prof.unq. Segunda edición Pearson educación. [33] Sistemas de control automático séptima edición benjamín kuo Prentice Hall 1996 Enrique Jacob México [34] Universidad Simón Bolívar. Virginia Mazon.ar/caut1. Introducción al control de procesos. Marzo 2002 [32] Ingeniería De Control Moderna.[31] Control Automatico 1.edu. Tercera edición Pearson educación. Yamilet Sánchez Montero [35] Sistemas De Control En Tiempo Discreto. Automatización y Control Industrial. Prof. Jenny Montbrun Di Filippo.

ANEXO Los anexos de este trabajo se presentan en formato electrónico al respaldo del informe o en una carpeta llamada ‘ANEXOS’ en el C.D de entrega final. .

de forma que el efecto de unos genes inhibe o potencia otros. cuando se usa el término individuo. Utilizando la definición de gen que hace referencia a una porción de cadena genética determinada. se hace referencia a la interpretación de estos símbolos. a su vez. [5] Azar. En cambio.GLOSARIO DE TÉRMINOS TÉCNICOS Alelo: Un alelo es un valor para un gen. Así. y por tanto. Aleatorio: sin causa. se encontraba el universo antes de adquirir su ordenación actual. excepto en forma de probabilidad [5] Caos: es la situación de desorden en que. a su significado como solución al problema. [5] Diagrama en bloques: permite mostrar las conexiones y cada bloque que representa. . cuando se habla de cromosoma. se suele hacer referencia a la cadena de bits o de símbolos que forman la entidad (genotipo). Lo habitual es que cada individuo esté formado por un único cromosoma. En computación evolutiva es raro dividir la información genética en cromosomas y éstos. en genes.[5] Cromosoma: Un cromosoma está formado por un conjunto de genes. teóricamente impredecible. según ciertas teorías o creencias. los alelos de ese gen serían todos los posibles valores que puede tomar ese segmento de cadena genética. o incluso el resultado es tan complejo que no tiene sentido considerar los efectos de los genes de forma individual sino conjuntamente. Al existir ambos términos (cromosoma e individuo) disponibles. Epístasis: El fenómeno de la epístasis consiste en la existencia de fuertes vinculaciones (también llamadas "interacciones") entre los genes. la comunidad científica que aplica computación evolutiva los ha utilizado para distinguir distintos matices de un mismo concepto.

"El problema de la epístasis" o "el problema de la ausencia de bloques constructores" consiste en la existencia de estas interacciones entre los genes. Planta: es el elemento físico que se desea controlar.[15] Paradigma: Ejemplo. y la mejor forma de tratarlo sería. desviándola del valor deseado. Sería algo así como buscar un objeto con los ojos cerrados. estrategia. Planta puede ser: un motor. Un problema donde todos los genes tuvieran fuerte vinculación entre sí. lógicamente. Error: es la diferencia entre la señal de referencia y la señal de salida real. un sistema de disparo. Función fitness: Se trata de una función evaluadora de la calidad de un individuo como solución a nuestro problema. un horno. un tanque de combustible. y se pueden solucionar con un simple método de escalada. sino para cualquier otro método. pero sí el peor que nos podríamos encontrar. método. . etc. Los problemas con mucha epístasis son difíciles de resolver. Permite la ordenación de los individuos de la población en cuanto a bondad de los mismos. es decir. no sólo para las técnicas evolutivas. Los problemas con poca epístasis son triviales. técnica. una búsqueda secuencial. incluso para los Algoritmos Genéticos. no sería un problema irresoluble. cuyos efectos dependan del valor de todos los demás genes. Estado: cantidad mínima necesaria que permite conocer la evolución de una variable de estado. [5] Perturbación: es una señal que tiende a afectar la salida del sistema. un sistema de navegación. [15] Individuo o cromosoma: Un individuo determina una potencial solución del problema que se pretende resolver mediante el algoritmo genético.

etc. etc. [15] Proceso: operación que conduce a un resultado determinado. presión. por lo regular. Señal analógica: es una señal continua en el tiempo. Sistema: consiste en un conjunto de elementos que actúan coordinadamente para realizar un objetivo determinado. Los sensores. temperatura. flujo. analógicos envían. .Población: Conjunto de individuos con los que se trabaja en el algoritmo genético. Señal digital: es una señal que solo toma valores de 1 y 0. el error. o transductores. Sistema de control en lazo cerrado: es aquel en el cual continuamente se está monitoreando la señal de salida para compararla con la señal de referencia y calcular la señal de error. temperatura.). Sensor: es un dispositivo que convierte el valor de una magnitud física (presión. También es llamado control realimentado. También es llamado transductor. o elimine. Señal de control: es la señal que produce el controlador para modificar la variable controlada de tal forma que se disminuya. También se denomina variable controlada.) en una señal eléctrica codificada ya sea en forma analógica o digital. Señal de salida: es la variable que se desea controlar (posición. la cual a su vez es aplicada al controlador para generar la señal de control y tratar de llevar la señal de salida al valor deseado. 0 a 10 voltios o 4 a 20 mA. señales normalizadas de 0 a 5 voltios. Señal de referencia: es el valor que se desea que alcance la señal de salida. velocidad. Sistema de control en lazo abierto: en estos sistemas de control la señal de salida no es monitoreada para generar una señal de control. En un algoritmo genético los individuos que constituyen la población van cambiando pero generalmente el tamaño de la misma permanece constante.