CENTRO DE INVESTIGACIÓN Y DE ESTUDIOS AVANZADOS

DEL
INSTITUTO POLITÉCNICO NACIONAL

DEPARTAMENTO DE CONTROL AUTOMÁTICO



Redes neuronales difusas dinámicas para
identificación y control adaptable


TESIS QUE PRESENTA
Rigoberto Toxqui Toxqui


PARA OBTENER EL GRADO DE
MAESTRO EN CIENCIAS


EN LA ESPECIALIDAD DE
CONTROL AUTOMÁTICO


DIRECTORES DE TESIS:
Dr. Wen Yu Liu




México, D.F., abril del 2003.













Índice general
1. Introducción 1
1.1. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Publicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Estructura de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2. Neuro difuso identificación y control 7
2.1. Redes neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1. La neurona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.2. Topología de la red neuronal (RN) . . . . . . . . . . . . . . . . . . . 12
2.2. Lógica difusa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.1. Conjuntos difusos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.2. Borrosificador (Fuzzifier) . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.3. Desborrosificador (Defuzzifier) . . . . . . . . . . . . . . . . . . . . . . 17
2.3. Neuro difuso (Neurofuzzy) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.1. Estática y dinámica en sistemas difusos . . . . . . . . . . . . . . . . . 20
2.3.2. Comparaciones generales de sistemas difuso y redes neuronales . . . . 21
2.4. La estabilidad de la entrada a estado (ISS) y funciones de Lyapunov ISS . . 22
3. Estática neuro difuso para identificación 25
3.1. Estática difusa redes neuronales . . . . . . . . . . . . . . . . . . . . . . . . . 25
ii ÍNDICE GENERAL
3.1.1. Estructura tipos mamdani estática difusa redes neuronales . . . . . . 29
3.1.2. Estructura tipos takagi sugeno kang estática difusa redes neuronales . 31
3.2. Sistemas de identificación difusa . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3. Sistemas de identificación difusa neuronal . . . . . . . . . . . . . . . . . . . . 35
3.3.1. Funciones pertenencia conocidas . . . . . . . . . . . . . . . . . . . . . 35
3.3.2. Funciones pertenencia desconocidas . . . . . . . . . . . . . . . . . . . 37
3.4. Simulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4. Dinámica neuro difuso para identificación 49
4.1. Dinámica difusa redes neuronales . . . . . . . . . . . . . . . . . . . . . . . . 49
4.1.1. Estructura tipo mamdani dinámica difusa redes neuronales . . . . . . 49
4.1.2. Estructura tipo takagi sugeno dinámica difusa redes neuronales . . . 52
4.2. Sistemas de identificación con dinámica neuro difuso . . . . . . . . . . . . . 53
4.2.1. Funciones pertenencia conocidas . . . . . . . . . . . . . . . . . . . . . 53
4.2.2. Funciones pertenencia desconocidas . . . . . . . . . . . . . . . . . . . 55
4.3. Simulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5. Redes neuronales difusas dinámicas para sistemas no lineales de control
adaptable 67
5.1. Estructura difusa neuro control . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.2. Difusa neuro control con algoritmo estable . . . . . . . . . . . . . . . . . . . 71
5.2.1. Aprendizaje sin funciones pertenencia . . . . . . . . . . . . . . . . . . 71
5.2.2. Aprendizaje con funciones pertenencia . . . . . . . . . . . . . . . . . 73
5.3. Simulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6. Conclusiones 83
Índice de figuras
2.1. Modelo de una neurona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2. a) Escalón, b) Saturación c) Sigmoide d) Tangente hiperbólica . . . . . . . 13
2.3. Arquitectura básica de un controlador de lógica difusa (FLC) . . . . . . . . . 16
2.4. Estructura se un sistema de lógica difusa . . . . . . . . . . . . . . . . . . . . 18
2.5. Representación de la red de un sistema difuso con una red neuronal de tres
capas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1. Arquitectura de un sistema neuronal difuso . . . . . . . . . . . . . . . . . . . 31
3.2. Selección de variables de proposición . . . . . . . . . . . . . . . . . . . . . . 35
3.3. Sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.4. Datos de consecuencia y ruido . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.5. Función gausiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.6. Aproximación de la función . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.7. Aprendizaje inestable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.8. Error medio cuadratico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.9. Modelado de un sistema no lineal . . . . . . . . . . . . . . . . . . . . . . . . 46
3.10. Error cuadratico medio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1. La estructura del sistema de la dinámica neuronal difuso . . . . . . . . . . . 51
4.2. Sistema dinámico caótico de Lorenz . . . . . . . . . . . . . . . . . . . . . . 64
4.3. Sistema dinámico caótico de Lorenz . . . . . . . . . . . . . . . . . . . . . . 65
4.4. Sistema dinámico caótico de Lorenz . . . . . . . . . . . . . . . . . . . . . . 66
iv ÍNDICE DE FIGURAS
5.1. Identificación del sistema no lineal para el modelo Chen . . . . . . . . . . . . 79
5.2. Identificación del sistema no lineal para el modelo Narendra . . . . . . . . . 80
5.3. Identificación del sistema no lineal para el modelo Wen . . . . . . . . . . . . 81
Capítulo 1
Introducción
Las redes neuronales han sido populares modelos en una extensa variedad en modelado
y control, sin embargo las redes neuronales no pueden incluir descripciones en sistemas
lingüísticos, por que estos métodos se dificultan para obtener el conocimiento en una manera
comprensiva. Por otro lado, la deducción de los sistemas difusos representan el conocimiento
usando etiquetas lingüísticas y quizás sea más fácil de interpretar. Pero los sistemas difusos
no tienen mucha capacidad de aprendizaje, es difícil para un operador humano poner a punto
las reglas difusas y las funciones de pertenencia de un conjunto de datos de entrenamiento.
Entonces prometiendo aproximar para combinar dentro de un sistema integrado, tal que
podemos obtener resultados de ambos sistemas difusos y redes neuronales.
La aproximación del sistema neuro difuso tiene puestos muchas atenciones recientemente.
La fusión de las dos diferentres tecnologías pueden realizarse en tres direcciones [14].
1. Los sistemas neuronales difusos (redes neuronales basados en sistemas difusos), usan
redes neuronales como herramienta para los modelos difusos.
2. Las redes neuronales difusas (modelos de redes neuronales basados en lógica difusa),
se utilizan para borrosificadores de los modelos de redes neuronales convencionales.
3. Los sistemas híbridos neuronales difusos, unión de tecnología de lógica difusa y redes
neuronales dentro de sistemas híbridos.
2 Introducción
Los primeros dos sistemas representan a favor combinaciones, donde una tecnología esta
presente en la otra. La tercera muestra contribuciones de combinaciones, donde las dos
tecnologías son incluidos para realizar una común tarea.
Estos modelos libres se aproximan usando una característica de las redes neuronales
y sistemas difusos, pero la falta del modelo hace difícil obtener resultados teóricos en la
estabilidad de sistemas neuro difusos. Para el diseño es muy importante asegurar la teoría
de estabilidad antes de que estos sistemas quieran aplicarse a controladores neuro difuso
a sistemas reales. A pesar de sus aplicaciones exitosas, no hay muchos resultados en el
análisis de estabilidad para sistemas neuro difusos ahí aparecen un número de análisis de
estabilidad y síntesis de resultados en control difuso. La idea básica de estos métodos es
diseñar un controlador de retroalimentación o retropropagación (BP) de cada modelo local y
la construcción de un controlador global del controlador local de tal manera que la estabilidad
global de un sistema de control difuso en lazo cerrado sea garantizado. La existencia de un
controlador difuso para el sistema no lineal puede ser estabilizado con la teoría de lógica
difusa.
Las redes neuronales recurrentes han sido estudiados durante las últimas décadas. El
análisis de Lyapunov es apropiado para redes neuronales dinámicas, las redes neuronales de
capa simple fueron discutidos en [36], [39]. Las redes de alto orden y las redes multicapas se
encuentran en [37], [38]. La estabilidad de algoritmos de aprendizaje pueden ser derivados
por el análisis de la identificación o error de seguimiento de las redes neuronales.
Desde que las redes neuronales no pueden igualar a los sistemas desconocidos no lineales
exactamente, algunas modificaciones robustas [21] deberían ser aplicados en el gradiente nor-
mal o en los algoritmos de retroalimentación [36], [39]. La estabilidad de entrada a estado
(ISS) y la aproximación de pasividad son herramientas alternativas efectivas para redes neu-
ronales dinámicas. Las propiedades de pasividad de redes neuronales dinámicas se describen
en [40].
1.1 Motivación 3
1.1. Motivación
Básicamente la tarea a realizar es un modelo neuronal difuso para sistemas dinámicos de
identificación y control utilizando un algoritmo de aprendizaje. En artículos publicados por
[6], se analiza el modelado difuso para identificación de sistemas dinámicos en particular se
describe un nuevo modelo difuso de una red neuronal difusa dinámica (DFNN), consta de
reglas recurrentes Takagi Sugeno Kang (TSK). El objetivo principal parte del borrosificador
estático, mientras las siguientes partes de la reglas difusas son redes neuronales recurrentes
con la retroalimentación interior y la sinapsis de retraso de tiempo. La red está entrenada
por medio de un nuevo algoritmo de aprendizaje, el método de optimización restringiendo la
dinámica neuronal difuso (D-FUNCOM), basado en el concepto de restringir la optimización.
La propuesta del modelo dinámico, provee con el algoritmo de aprendizaje, se aplican a
varios problemas temporales, mientras se incluyen procesos de modelado tipo NARMA y
el problema de la cancelación de ruido. Comparando con la función, estas llevan a series
estáticos, sistemas dinámicos y algunos modelos difusos existentes recurrentes.
En general las redes neuronales difusas no pueden igualar a los sistemas no lineales. La
dinámica del no modelado lleva la tendencia de los parámetros al igual que el problema de
estabilidad. Algunas modificaciones robustas han sido incluidos en orden para garantizar
la estabilidad de Lyapunov. En esta tesis se aproxima la estabilidad entrada a estado, es
aplicado a acceso de algoritmos de entrenamiento robusto en redes neuronales difusas. Se
propone el análisis del modelado neuronal difuso en esta tesis no necesitan una modificación
robusta y esta robustes en alguna inestabilidad acotada.
1.2. Objetivos
1. El objetivo de esta tesis es abordar el modelo neuronal difuso para identificación y
control, para sistemas dinámicos y estáticos con funciones de pertenencia conocidas y
funciones de pertenencia desconocidas, así como el análisis de redes neuronales recur-
rentes difusas para sistemas no lineales de control.
4 Introducción
Modelo neuronal difuso recurrente de tipo takagi sugeno kang (TSK).
Modelo neuronal difuso recurrente de tipo mandani.
2. Algoritmos de aprendizaje estables para dos modelos.
3. Control estable adaptable usando sistemas recurrentes neuro difuso.
1.3. Publicaciones
Parte de esta tesis se presentó como el artículo titulado "Stable Fuzzy Identification Using
Recurrent Fuzzy Neural Networks"en el IASTED International Conference Neural Networks
and Computational Intelligence, 2003, Cancun, México
1.4. Estructura de la tesis
El presente trabajo consta de seis capítulos donde se expone la importancia del trabajo.
En el capítulo dos se presenta la estrategia de identificación para un sistema neuro difuso
de identificación y control, definiendo redes neuronales, lógica difusa finalmente neuro difuso.
En el capítulo tres se describe el sistema estática neuro difuso para la identificación,
describiendo la estática en redes neuronales para una red neuronal de capa simple y multicapa
así como la estática difusa en redes neuronales describiendo el sistema para la estructura de
las redes neuronales del tipo mandani y takagi sugeno kang. El aprendizaje de funciones de
pertenencia conocidas y funciones de pertenencia desconocidas, posteriormente se presenta
la parte de simulación.
En el capítulo cuatro se define la dinámica de identificación neuro difuso, primero redes
neuronales dinámicas para sistemas de capa simple y multicapa en redes neuronales recur-
rentes, como segundo punto se describe la dinámica difusa de redes neuronales, estructura
tipo mandani, takagi sugeno para funciones pertenencia conocidas y funciones pertenencia
desconocidas finalmente se presenta la simulación.
1.4 Estructura de la tesis 5
En el capítulo cinco se hace el análisis del sistema de redes neuronales difusas dinámicas
para sistemas no lineales de control adaptable, analizando su estructura difusa neuro control,
análisis de estabilidad difusa neuro control con y sin funciones pertenencia de aprendizaje,
también se tiene la parte de la simulación en donde se comparan tres métodos diferentes
Chen, Narendra y Wen.
Finalmente en el capitulo seis se presentan las conclusiones generales del trabajo, así
mismo se presentan propuestas para futuros trabajos.
6 Introducción
Capítulo 2
Neuro difuso identificación y control
2.1. Redes neuronales
La creciente demanda en tecnología de nuestra sociedad requiere nuevos enfoques para
los problemas actuales de control. Las Redes Neuronales (RN) con su masivo paralelismo y
su capacidad para aprender prometen mejores soluciones, al menos para algunos problemas.
En este momento, la comunidad de control ha puesto su atención en las RN y se pregunta si
pueden ser usadas para obtener mejores soluciones para viejos problemas o quizá soluciones
a problemas que se han resistido a nuestros mejores esfuerzos.
El uso de las RN en control puede verse como un paso natural en la evolución de la teoría
de control. Viendo hacia atrás la evolución del control se ha visto motivada por tres aspectos
fundamentales: la necesidad de tratar con sistemas complejos; la necesidad de cumplir con la
creciente demanda de nuevos modelos de control y la necesidad de obtener esos modelos con el
menor conocimiento de la planta y el medio ambiente, es decir la necesidad de controlar bajo
incertidumbre. La necesidad de controlar sistemas dinámicos complejos bajo incertidumbre
ha conducido a la revaluación de los métodos convencionales de control, y por lo tanto la
necesidad de nuevos métodos es obvia. Esto también ha conducido a un concepto mas general
de control, uno que incluye decisión, planeación y aprendizaje, los cuales son cualidades
necesarias cuando se desea un sistema con autonomía. En vista a esto, no es de sorprender
8 Neuro difuso identificación y control
que la comunidad de control este muy activa buscando nuevas ideas para resolver de forma
efectiva los problemas de control de la sociedad moderna. La necesidad es la madre de la
invención, y en control no ha sido la excepción, y por ejemplo en el siglo III se diseño un reloj
de agua con un mecanismo de retroalimentación, el primer artefacto con retroalimentación
en la historia. Así el uso de las RN en control es un paso bastante natural en su evolución. Las
RN parecen ofrecer un mejor entendimiento y quizás la solución de algunos de los problemas
de control mas difíciles. Es claro que las RN pueden ser aceptadas y usadas si ellas resuelven
problemas que han sido previamente imposible o muy difícil de resolver. Las RN pueden ser
rechazadas y ser solo producto de la moda, como lo han sido inventos tales como la máquina
de escribir eléctrica entre otros, si no promueven su utilidad. El reto es entonces encontrar
el mejor camino para utilizar completamente esta nueva poderosa herramienta en control.
Al referirnos a RN en control es importante dar las características y propiedades más
significativas de las RN:
Las RN poseen una gran habilidad para la aproximación de funciones.
Los elementos básicos de procesamiento en una RN tienen una estructura simple. Esto
en conjunción con una implementación en paralelo resulta en un procesamiento muy
rápido.
La capacidad de aprendizaje y de generalización de las RN las convierte en una her-
ramienta poderosa principalmente en sistemas variantes además de su capacidad de
adaptación en línea.
Las RN pueden operar con datos de forma cuantitativa así como de forma cualitativa.
Las RN pueden procesar muchas entradas y también muchas salidas, por lo tanto son
altamente aplicables en sistemas multivariables.
Desde el punto de vista de control la habilidad de las RN para tratar con sistemas no
lineales es un punto muy significativo. Respecto a este tema métodos para el diseño de
2.1 Redes neuronales 9
controles no lineales que incluyen métodos teórico-prácticos y optimización juegan un rol
importante y una posibilidad es el uso de RN para obtener sistemas de control no lineales.
Otra área en control es la teoría de control adaptable. Esta área ha producido muchos
resultados teóricos en los últimos 20 años, sin embargo es solo relativo a la teoría de sistemas
lineales, por lo tanto cuando estamos tratando con sistemas no lineales variantes en el tiempo
los cuales son bastante mas complejos las RN son una buena opción.
Autores como Widrow (et. al.) [7] definen una red neuronal como un sistema con entradas
y salidas que está compuesta de muchos elementos de procesamiento similares. Cada elemento
de procesamiento tiene un número de pesos sinápticos o simplemente pesos. Ajustando los
pesos de un elemento se puede cambiar el comportamiento del mismo y, por lo tanto, puede
también alterar el comportamiento de total de la red para alcanzar la relación de entrada
salida deseada. Este último proceso es conocido como entrenamiento de la red.
Para nuestro propósito una Red Neuronal (RN) la definimos como un aproximador no
lineal de funciones compuesto como dijimos anteriormente de neuronas, organizadas en una
topología específica que utiliza una ley de aprendizaje para mejorar su desempeño.
2.1.1. La neurona
La neurona o elemento de procesamiento a su vez están constituidas de: vector de entrada,
pesos, umbral, un operador matemático de suma y función de activación, Figura (2.1).
El primer modelo matemático de una neurona biológica fue dado por Mc Culloch y Pitt
[8] y es el siguiente:
y = ϕ(
n
X
i=0
w
i
u
i
) (2.1)
donde: u
i
, i = 1, 2, ..., n son las entradas a la neurona, u
0
es la entrada al umbral e y es la
salida de la neurona, los pesos sinápticos w
i
∈ <, i = 1, 2, ..., n cambian su valor según se
requiera, ϕ(.) es la función de activación. Lapedes Farber mostró, una arquitectura que es
básicamente la misma que la de Mc Culloch y Pitt, esta es:
y(k) = ϕ(v(k)); v(k) =
n
X
i=0
w
i
u
i
(k) (2.2)
10 Neuro difuso identificación y control
w
i0
u
0
=+1
w
i0

i
(bias)
Σ
w
i1
u
1
w
i2
u
2
w
im
u
m
ϕ(.)
Entradas
Salida
y
i
Función de
activación
Operador
Suma
Pesos
Sinápticos
v
i
Figura 2.1: Modelo de una neurona
donde y, ϕ, w y u son definidas como en el párrafo anterior, k es la variable de tiempo. A
continuación se da una descripción de cada uno de los elementos
Vector de entrada
Es denotado por U, U = (u
1
, u
2
, ..., u
m
) donde m es el número de entradas a la RN y
a su vez la dimensión de U, este vector U son los datos con los que va operar la neurona,
estas pueden ser dadas del medio ambiente o ser salidas de neuronas anteriores. Cabe hacer
notar que si estamos hablando de identificación de funciones o control de sistemas U = U(k),
donde k ∈ K ⊂ <; es la variable del tiempo, ya sea, según sea el caso, continuo o discreto,
para esta situación las entradas generan una matriz E ∈ <
nxm
donde m es la dimensión del
vector de entradas y n es la dimensión del subespacio K, esta n generalmente se le conoce
como número de iteraciones.
Pesos sinápticos
Al ser capturados los datos de entrada estos son propagados a través de la red, en el
proceso de propagación cada componente u
i
del vector de entrada U es multiplicada por una
2.1 Redes neuronales 11
variable w
ij
, la cual aumenta o atenúa la señal de entrada, a w
ij
se le conoce como peso
sináptico o simplemente peso, estos pesos no tienen el mismo valor siempre sino que se van
modificando según se requiera para tener un mejor desempeño, posteriormente puede haber
una convergencia y entonces estar fijos. Cuando se habla de que una red es capaz de aprender
se refiere al hecho de poder modificar sus pesos w
ij
, el conjunto de pesos genera una matriz
W, es decir, w
ij
es la ij-ésima componente de la matriz de pesos W.
El umbral
Denotado por θ
i
es simplemente un peso mas, pero a diferencia de estos el umbral tiene
una entrada fija de (-1). En el contexto en que usaremos las RN, el umbral nos sirve para
trasladar el punto de equilibrio de la RN, del origen ¯ x = 0 a un punto ¯ x 6= 0.
Operador de suma
Realiza la adición de los productos u
i
∗ w
ij
, la operación aquí descrita constituyen una
combinación lineal generando un campo local inducido (CLI) v
i
, es decir:
v
i
=
X
i
u
i
w
ij
−θ
i
(2.3)
La función de activación
Denotada por ϕ(·), define la salida de la neurona en términos del CLI v
i
, en [9] es definida
como una función para limitar la amplitud de la salida neuronal. Sin embargo en el sentido
en el que estamos tratando las Redes Neuronales, la razón de ser de la función de activación
es la de proporcionar un comportamiento no lineal a la red y así poder aproximar funciones
de todo tipo, el teorema universal de aproximación de funciones [9] da condiciones para
determinar si una función ϕ, es una función de activación.
La función Sigmoide, Tangente Hiperbólica, Saturación o Escalón cumplen las condiciones
del teorema y son utilizadas como funciones de activación. Las tres primeras funciones son
aptas para nuestro propósito, el escalón como veremos mas adelante tiene una gran aplicación
en reconocimiento de patrones.
Función Escalón: Para este tipo de función de activación tenemos que:
ϕ(v) =
(
1 si v ≥ 0
−1 si v < 0
(2.4)
12 Neuro difuso identificación y control
donde v es el CLI.
Función Saturación (Sat): Esta definida por la siguiente ecuación:
ϕ(v) =
_
¸
¸
_
¸
¸
_
c si v ≥ +1
v si + 1 > v > −1
−c si v ≤ −1
(2.5)
donde el factor de amplificación c es generalmente tomado como 1, pero su valor puede variar
según sea requerido en las tareas de identificación y control.
Función Sigmoide (Sigm): Es de hecho la función más común en la construcción de
RN. Esta es definida como una función estrictamente creciente que exhibe un balance entre
una conducta lineal y no lineal y es definida por:
ϕ(v) =
1
1 + exp(−av)
(2.6)
donde a es un parámetro que define la pendiente de la función sigmoide.
Función Tangente Hiperbólica (Tansig): Al igual que la sigmoide es una de las
principales funciones en la construcción de las RN especialmente como es mencionado en
tareas de identificación y control:
ϕ(v) =
1 −exp(av)
1 + exp(−av)
(2.7)
donde a es como antes, un parámetro. Las funciones escalón, saturación, sigmoide así como
la tangente hiperbólica son mostradas en la Figura (2.2).
2.1.2. Topología de la red neuronal (RN)
Es la forma en que se organizan las neuronas en una RN y existen dos tipos fundamentales
Redes Estáticas (Feed Forward), (RNFF) y Redes Recurrentes (RNR) o Redes Dinámicas.
En las RNFF, todas las señales neuronales se propagan hacia adelante. No existen conex-
iones hacia atrás y normalmente tampoco autorrecurrentes, ni laterales y son especialmente
útiles en tareas de reconocimiento o clasificación de patrones [10].
2.2 Lógica difusa 13
Figura 2.2: a) Escalón, b) Saturación c) Sigmoide d) Tangente hiperbólica
Las RNR son aquellas donde la información circula tanto hacia adelante como hacia
atrás durante el funcionamiento de la red. Para que esto sea posible, existen conexiones
hacia adelante y retroalimentaciones, [10]. En este trabajo de tesis utilizaremos una red
híbrida que posee las dos características pero asociada principalmente con las RNR.
2.2. Lógica difusa
En los años 60’s fue el comienzo de la teoría de la lógica difusa, esto fue debido por Lotfi
A. Zadeh in 1965 con su publicación de ”conjuntos difusos”, en los 70’s la teoría continuo
creciendo, surgieron las aplicaciones reales, es justo decir que la teoría difuso establecida
como el campo independiente el gran parte debido a la dedicación y notablemente al trabajo
de Zadeh, lo más fundamental de la teoría de lógica difusa fue propuesto por Zadeh en los
60’s y cerca de los 70’s, después el propuso los algoritmos difusos en 1968, [12].
La lógica difusa se utiliza en un amplio rango de aplicaciones como:
Controladores de lavadoras, sistemas de aire acondicionado, video cámaras, mecanismos
14 Neuro difuso identificación y control
de control, sistemas de control de mini submarinos, controladores del metro así como horno
de microondas.
La lógica difusa permite tratar información imprecisa, en términos de conjuntos difusos
veremos que estos conjuntos se combinan en reglas para definir acciones, por ejemplo, si la
temperatura es alta entonces enfría mucho. De esta manera, los sistemas de control basados en
lógica difusa combinan una variable de entrada (definidos en términos de conjuntos difusos),
por grupos que producen uno o varios valores de salida. Hablando ya en términos más
rigurosos, la teoría de lógica difusa parte de la teoría clásica de conjuntos, añadiendo una
función de pertenencia al conjunto, definida ésta como un número real entre 0 y 1, así se
introduce el concepto de lógica difusa determinado a un valor lingüístico. Para cada conjunto
o subconjunto difuso se define una función de pertenencia o inclusión µ
A
(t) , que indica el
grado en el cual la variable t está incluida en el concepto que esta representado por la etiqueta
A.
2.2.1. Conjuntos difusos
Recordando el ejemplo de las personas, esta situación puede describirse asignando un 1
a todos los elementos incluidos en el conjunto y un 0 a los no incluidos. A la función que
asigna estos valores se llama función de inclusión o pertenencia (membership funtion).
A los subconjuntos difusos se les puede aplicar determinados operadores, o bien pueden
realizarse operaciones entre ellos. Al aplicar un operador sobre un sólo conjunto difuso se
obtiene otro conjunto difuso, de la misma manera al combinar dos o más subconjuntos
mediante algunas operaciones, se obtendrá otro conjunto.
Sean los subconjuntos difusos identificados por las etiquetas A y B, asociados a una
variable linguistica x, entonces se pueden definir tres operaciones básicas: complemento unión
e intersección. Estas operaciones pueden expresarse de la siguiente manera en términos de
funciones de pertenencia de los conjuntos difusos A y B.
Sea U un conjunto cualquiera y M = [0, 1], su conjunto asociado de pertenencia. Si se
considera a un conjunto difuso A ∈ U, entonces el complemento de A será:
2.2 Lógica difusa 15
Complemento µ ¯
A
−(x) = 1 −µ
A
(x) ∀x ∈ U
Sea U un conjunto cualquiera y M = [0, 1], su conjunto asociado de pertenencia. La
unión difusa de dos conjuntos difusos, A ∈ U y B ∈ U, se define como:
Unión µ
A∪B
(x) = m´ ax [µ
A
(x) , µ
B
(x)] ≡ µ
A
(x) ∨ µ
B
(x) ∀x ∈ U, donde ∨ indica
la operación máxima.
Sea U un conjunto cualquiera y M = [0, 1], su conjunto asociado de pertenencia. La
intersección difusa de dos conjuntos difusos, A ∈ U y B ∈ U, se define como:
Intersección µ
A∩B
(x) = m´ın [µ
A
(x) , µ
B
(x)] ≡ µ
A
(x) ∧ µ
B
(x) ∀x ∈ U, donde ∧
indica la operación mínima.
Es importante resaltar que el funcionamiento de estas operaciones básicas coincide con
los correspondientes a los de la teoría clásica de conjuntos.
Operaciones entre conjuntos difusos
Operaci´ on Rango
Igualdad µ
A
(x) = µ
B
(x) x ∈ U
Unión µ
A∪B
(x) = m´ ax [µ
A
(x) , µ
B
(x)] ∀x ∈ U
Intersección µ
A∩B
(x) = m´ın [µ
A
(x) , µ
B
(x)] ∀x ∈ U
Complemento µ ¯
A
−(x) = 1 −µ
A
(x) x ∈ U
Norma µ
Norma(A)
(x) =
µ
A
(x)
m´ax[µ
A
(x)]
x ∈ U
Concentración µ
Conc(A)
(x) = (µ
A
(x))
2
x ∈ U
Dilatación µ
Dilat(A)
(x) = (µ
A
(x))
0,5
x ∈ U
(2.8)
La arquitectura típica de un control difuso lógico (FCL) se muestra en la Figura (2.3). El cual
se compone de cuatro principales componentes: un borrosificador, una regla difusa base, una
maquina de inferencia (Inference Engine) y un desborrosificador (defuzzifier). En la salida
del desborrosificador no hay una acción de control para una planta, entonces el sistema es
un sistema de decisión de lógica difusa. El borrosificador tiene el efecto de transformar los
datos medidos alterados.
16 Neuro difuso identificación y control
Fuzzifier Defuzzifier Planta
( ) x µ ( ) y µ
y
x x
Motor
Consecuencia
Base
Regla difusa
Fuzzifier Defuzzifier Planta
Estados
o
Salidas
( ) x µ ( ) y µ
y
x x
Maquina
de
Inferencia
Base
Regla difusa
Fuzzifier Defuzzifier Planta
( ) x µ ( ) y µ
y
x x
Motor
Consecuencia
Base
Regla difusa
Fuzzifier Defuzzifier Planta
Estados
o
Salidas
( ) x µ ( ) y µ
y
x x
Maquina
de
Inferencia
Base
Regla difusa
Figura 2.3: Arquitectura básica de un controlador de lógica difusa (FLC)
2.2.2. Borrosificador (Fuzzifier)
A continuación de enuncian algunas definiciones necesarias:
Inferencia borrosa también como en el caso de la lógica clasica, la borrosa se ocu-
pa del razonamiento formal con proposiciones, pero a diferencia de ésta, los valores de las
proposiciones pueden tomar valores intermedios entre verdadero y falso. De esta forma, los
conjuntos borrosos también representan predicados en la lógica proposicional. El objeto de
la lógica borrosa es proporcionar un soporte formal al razonamiento basado en el lenguaje
natural, que se caracteriza por tratarse de un razonamiento de tipo aproximado, que hace
uso de unas proposiciones que a su vez expresan información de carácter impreciso.
Borrosificador esto establece una relación entre puntos de entrada no borrosos al sis-
tema x = (x
1
, ..., x
n
)
T
, y sus correspondientes conjuntos borrosos A en U. Se pueden utilizar
diversas estrategias de borrosificación.
Borrosificador singleton. Es el método de borrosificación más utilizado, principalmente
en sistemas de control consiste en considerar los valores propios discretos como conjuntos
borrosos. De otra manera para cada valor de entrada x se define un conjunto A
0
que lo soporta,
con una función de pertenencia µ
A
(x
0
) , de modo que µ
A
(x) = 1, (x
0
= x) , y µ
A
(x
0
) = 0,
2.2 Lógica difusa 17
para todos los otros x
0
∈ U en los que x
0
6= x.
Borrosificador no singleton. Este método de borrosificador utiliza una función exponencial
del tipo siguiente:
µ
A
0 (x
0
) = a ∗ exp[−
µ
x
0
−x
σ

] (2.9)
Función con forma de campana, centrada en el valor x de entrada, de anchura σ y amplitud
a.
El conjunto de declaraciones consta de una regla base difusa, el cual es una parte vital de
un sistema de lógica difusa (FLS), como se observa en la Figura siguiente (2.4), la base de la
regla difusa (fuzzy inference engine), combina las declaraciones de la regla base, acordándose
de aproximar por razón de la teoría a producir un mapeo del conjunto difuso en la entrada del
espacio U a el conjunto difuso en la salida del espacio V . El borrosificador (fuzzifier), mapea
en conjunto de entradas difusa en la entrada del espacio y el desborrosificador (defuzzifier),
mapea agregando la salida del conjunto difuso una simple punto en la cresta de la salida en
el espacio.
2.2.3. Desborrosificador (Defuzzifier)
Se llaman dispositivos de inferencia borrosa a los sistemas que interpretan las reglas de
tipo IF - THEN de una base de reglas, con el fin de obtener los valores de salida a partir de
los actuales valores de las variables lingüísticas de entrada al sistema.
Desborrosificador es la función que transforma un conjunto borroso en V , normalmente
la salida de un dispositivo de inferencia borrosa, en un valor no borroso y ∈ V. Para esto se
utilizan diversos métodos.
Desborrosificador por máximo, esta definido como:
y = arg sup
y∈V

B
0 (y)) (2.10)
es decir, y es el punto de V en que µ
G
0 (y) alcanza su valor máximo, donde µ
B
0 (y) está
definido según la ecuación
µ
B
0 (y) = µ
B
1 (y)
˙
+...
˙

B
M (y) (2.11)
18 Neuro difuso identificación y control
FUZZIFIER DEFUZZIFIER
BASE DE LA REGLA DIFUSA
DEDUCCION DIFUSA DEL
PROCESADOR
SALIDA
( EN V )
ENTRADA
EN ( U )
( CONJUNTO DIFUISO EN U ) ( CONJUNTO DIFUISO EN V )
FUZZIFIER DEFUZZIFIER
BASE DE LA REGLA DIFUSA
DEDUCCION DIFUSA DEL
PROCESADOR
SALIDA
( EN V )
ENTRADA
EN ( U )
( CONJUNTO DIFUISO EN U ) ( CONJUNTO DIFUISO EN V )
Figura 2.4: Estructura se un sistema de lógica difusa
Desborrosificador por medida de centros, de la manera siguiente
y =
P
M
l=1
¯ y
1
¡
µ
B
0
¡
¯ y
l
¢¢
P
M
l=1

B
0 (¯ y
l
))
(2.12)
donde ¯ y
1
representa el centro del conjunto fuzzifier G
l
( definido como el punto de V en el
que µ
G
l (y) alcanza su valor máximo ), y µ
B
0 (y) esta definido como:
µ
B
0 (y) = sup
x∈U
h
µ
F
l
1
x...F
l
n
→G
l (x, y) ∗ µ
A
0 (x)
i
(2.13)
Desborrosificador por centro de área, definido como, [11].
y =
P
M
l=1
M
l
¡
µ
B
0
¡
¯ y
l
¢¢
P
M
l=1
A
l

B
0 (¯ y
l
))
=
P
M
l=1
R
l
V
µ
B
0
¡
¯ y
l
¢
2
dyM
l
¡
µ
B
0
¡
¯ y
l
¢¢
P
M
l=1
R
V
µ
B
0 (¯ y
l
) dy
(2.14)
donde M
l
es el momento (entorno al eje y del universo de discurso de la salida V ), de la
función de inclusión del conjunto borroso G
l
, A
l
es el área, y µ
B
0 (y) está definida como la
ecuación (2.13).
2.3 Neuro difuso (Neurofuzzy) 19
Capa 3
Capa 2
Capa 1
1
y
M
y
f a b =
1
Z
M
Z
f
1
X
n
X
i
X
( ) exp µ = = L
Capa 3
Capa 2
Capa 1
1
y
M
y
f a b =
1
Z
M
Z
f
1
X
n
X
i
X
( ) exp µ = = L
Figura 2.5: Representación de la red de un sistema difuso con una red neuronal de tres capas
La Figura (2.5), representa la salida del sistema difuso, es calculado como f(x) = a/b.
Estas operaciones de tres etapas se muestra como la Figura siguiente con tres capas de la
red de retroalimentación (feedforward).
2.3. Neuro difuso (Neurofuzzy)
El conjunto difuso o neurofuzzy son sistemas que usan lógica difusa que se comprende de
juegos difusos y las reglas difusas que es combinando los datos numéricos y lingüísticos.
La lógica difusa usa las condiciones del idioma naturales como: frío, caluroso, caliente,
pequeño, medio, grande. Tales condiciones no son precisas y no pueden representarse en la
teoría normal del juego. Los juegos difuso les permiten a los miembros ser bien, la función
parcial de pertenencia como el número de miembros multifijo normal. Este conjunto parcial
habilita; La diferencia primaria entre los sistemas difuso y neurofuzzy, es que los sistemas
difusos son especialistas en la construcción y los sistemas neurofuzzy son entrenados de datos.
Aunque el software permite usar una combinación de los dos acercamientos interactivamente.
Las reglas de lógica difusa se usan en sistemas difusos y neuro difuso, representándose en
términos lingüísticos la relación de entradas del sistema a sus salidas.
20 Neuro difuso identificación y control
2.3.1. Estática y dinámica en sistemas difusos
Uno de los más importantes conceptos de propiedades de sistemas dinámicos es la es-
tabilidad, sin embargo es difícil analizar la estabilidad de sistemas no lineales nos gustaría
que los sistemas difusos y las RN, como a continuación se dice que el análisis de estabilidad
de sistemas de controles difusos, el control difuso ha sido exitosamente aplicado en muchas
aplicaciones industriales practicas, varias metodologías existentes para el análisis de estabil-
idad para sistemas de control difuso fueron analizados por: [Mamdami, 1976; Kickert and
Mamdami, 1978; Tong, Chen 1989].
R
i
: Si x es A
i
& y es B
i
, entonces z = a
i
0
+a
i
1
x + ... a
i
n
y (2.15)
Donde x, y son variables lingüísticas estas representan la distancia y orientación en relación
a las cotas de la orientación, z es el próximo que sigue el ángulo decidido por el ith regla de
control, y a
i
0
, a
i
n
son los parámetros de entrada en el proceso de la identificación. La identifi-
cación se hace optimizando un mínimo cuadrados desempeñando el índice como un método
de regresión lineal con pesos (Un algoritmo recursivo es el algoritmo de mínimos cuadrados)
[Tong, 1978a; Takagi y Sugeno, 1983, 1985; Sugeno y Kang, 1986,1988]. Sumando el mode-
lado de una acción de operador, este método es también usando el modelo (Identificación)
controlando el proceso recordando sus datos entradas - salidas, el cual incluye parámetros de
aprendizaje como la estructura de aprendizaje [Sugeno y Tanaka, 1991]. Estos son llamados
reglas de control lingüísticas aproximándose al modelado difuso o identificación difusa. El
modelo Takagi y Sugeno tiene la siguiente forma:
L
i
: Si x(k) es A
i
1
& ... & x(k −n + 1) es A
i
n
& u(k) es B
i
1
& ... & u(k −m + 1) es B
i
m
Entonces x
i
(k + 1) = a
i
0
+a
i
1
x(k) + ... a
i
n
x(k −n + 1)
+b
i
1
u(k) + ... b
i
m
u(k −m+ 1)
(2.16)
donde x(·) es la variable de estado, x
i
(k + 1) es la salida de la regla L
i
, u(·) es la variable
de entrada
2.3 Neuro difuso (Neurofuzzy) 21
2.3.2. Comparaciones generales de sistemas difuso y redes neu-
ronales
Los sistemas Difusos y las RN (Redes Neuronales), ambos son estimados modelos numéri-
cos y sistemas dinámicos. Estos comparten la capacidad de mejorar la inteligencia del sistema
trabajando en un indeterminado, impreciso, y el ruido del medio ambiente. Los sistemas di-
fuso y las RN calculan ejemplos de funciones y se comportan tal como memorias asociadas.
Ambos tienen una ventaja en lo tradicional de la estimación estadística y en la aproximación
del control adaptable de una función estimación. Estos estiman una función sin necesidad
de una descripción de la función matemática de donde la salida de la funcionalidad depende
en la entrada; que ellos aprenden de ejemplos numéricos, la lógica difusa y la aproximación
de neuronas son numéricamente por naturaleza.
A pesar de que los sistemas difusos y las RN son de forma similar, hay significantes difer-
encias entre estos. Estos difieren de la manera en que ellos estiman las funciones probadas,
representan y dar un reconocimiento de la estructura, y asociativamente la deducción o
mapeo de entradas y salidas.
Las RN tienen un grande numero favorablemente de elementos a procesar (nodos), el
cual demuestra la habilidad de aprendizaje y generalización de patrones de entrenamiento
[14], los sistemas difusos la base de sus decisiones de su entrada en la forma linguistica las
variables se derivan de funciones el cual son formulas usadas para determinar el conjunto
difuso el cual el valor pertenece y el grado de la función esta en el conjunto. Las variables
entonces se igualan con las precondiciones de la regla lingüísticas Si Entonces (IF - THEN)
(regla de lógica difusa), la respuesta de cada regla se obtiene a través de una implicación
difusa.
Básicamente los sistemas difuso estiman funciones con conjuntos difusos por ejemplo
(A
i
, B
i
), mientras las RN usan puntos numéricos por ejemplo (x
i
, y
i
) , en una RN x
i
quizá
representa los píxeles que hagan una imagen, mientras que y
i
quizá representan una clasifi-
cación de un vector, en una RN x
i
, y
i
dependiendo de sus entradas y salidas pueden aprender
de un mapeo ajustando sus pesos, por otra parte los conjuntos difusos si A
i
se caracteriza
22 Neuro difuso identificación y control
el estado de un factor y B
i
la posibilidad de la presencia o ausencia de varios rupturas en el
factor, entonces la reglas difusas y la deducción se usaron para determinar la probabilidad
que uno de estas rupturas quizá se represente por una función de A
i
.
Opción de sistemas difusos o RN. Se entiende que una RN y la lógica difusa se usan
cuando uno o mas variables de estado son continuos y cuando un modelo matemático del
proceso no existe o existe pero es tan difícil integrar es decir es tan complejo ser evaluado
rápidamente para una operación en tiempo real. Entonces necesitamos encontrar cual método
es el mejor y cuando debe ser usado, la teoría de las RN, conjuntos difusos y lógica difusa
como desarrollando son sistemas abstractos que no hacen extensa demanda con respecto a
biológicas o psicológico recomendables.
Introducimos el teorema de estabilidad para sistemas difusos que proveer una condición
suficiente que garantiza la estabilidad de un sistema difuso acordándose de la definición de
estabilidad en el sentido de Lyapunov.
2.4. La estabilidad de la entrada a estado (ISS) y fun-
ciones de Lyapunov ISS
En esta sección estudiamos ISS, para sistemas no lineales en tiempo discreto, esto fue
propuesto inicialmente por Sontang (1989, 1990), la estabilidad de la entrada a estado es otra
elegante aproximación para analizar la estabilidad además el método de Lyapunov. Puede
llevar a las conclusiones generales en la estabilidad usando la entrada y las características del
estado, entendiendo las dependencias de las trayectoria de estados en magnitud de entrada
para sistemas del tipo:.
Considere el sistema no lineal de tiempo discreto siguiente:
x(k + 1) = f[x(k), u(k)] (2.17)
y(k) = h[x(k)]
dónde u(k) ∈ R
m
es el vector de entrada , x(k) ∈ R
n
un vector de estado, y Y (k) ∈ R
m
es
2.4 La estabilidad de la entrada a estado (ISS) y funciones de Lyapunov ISS 23
la salida del vector f y h son generalmente funciones suaves no lineales, f, h ∈ C

. De las
siguientes definiciones tenemos que.
Definición 2.1 El sistema (2.17), se dice que es globalmente estable entrada estado ISS
si ahí existe una función k γ (·) ( continuo y estrictamente creciente si γ (0) = 0 ) y una
función k$ β (·) (función k y el lim
s
k
→∞
β (s
k
) = 0), tal que para cada u ∈ L

, entonces
el sup {ku(k)k} < ∞, y cada estado inicial x
o
∈ R
n
, esto dice que kx(k, x
o
, u(k))k ≤
β (kx
o
, kk) +γ (u(k)) .
Definición 2.2 Una función continua V : R
n
→ R ≥ 0 se llama una función suave de
Lyaponov ISS del sistema (2.17), si: (a) existe un función k

(función k

y el lim
s
k
→∞
α
i
(s
k
) =
∞) α
1
(·) y α
2
(·) son tal que:
α
1
(s) ≤ V (s) ≤ α
2
(s), ∀s ∈ R
n
(b) Ahí existe una función k

α
3
(·) y una función k α
4
(·) tal que V
k+1
−V
k
≤ −α
3
(kx(k)k)+
α
4
ku(k)k , ∀x(k) ∈ R
n
, u(k) ∈ R
m
.
Teorema 2.3 Para un sistema no lineal de tiempo discreto ecuación (2.17), lo siguiente es
equivalente [23].
1. Es la estabilidad de entrada a estado (ISS).
2. Es estable y robusto.
3. Admite una función suave de Lyapunov ISS
Si un sistema no lineal es estable entrada a estado, el comportamiento del
sistema, permanece acotado cuando sus entradas son acotadas.
Propiedad 2.4 Si un sistema no lineal es estable entrada a estado, el comportamiento del
sistema, permanece acotado cuando sus entradas son acotadas.
24 Neuro difuso identificación y control
Capítulo 3
Estática neuro difuso para
identificación
3.1. Estática difusa redes neuronales
En general, las redes neuronales difusa no se pueden igualar con precisión a los sistemas
no lineales. El modelo dinámico puede ser el primero en llevar la tendencia de los parámetros
al igual que el problema de inestabilidad. Algunas modificaciones robustas tienen que ser in-
cluidas para garantizar la estabilidad de Lyapunov. En este modelo la estabilidad de entrada
a estado se aproxima y se aplica para acceder al algoritmo de entrenamiento robusto de redes
neuronales difusas. Concluimos que la ley descendiente del gradiente normal dependiente con
una proporción de aprendizaje de tiempo variante es estable en el sentido L

. El modelado
neuronal difuso se aproxima a lo propuesto en este modelo, no necesita ninguna modificación
robusta y es robusto en alguna inestabilidad acotada.
Ambas redes neuronales y la lógica difusas son consistentes universales, estos pueden
aproximar cualquier función no lineal en alguna exactitud con tal de que las neuronas ocultas
suficientes o reglas difusas que están disponibles. Recientemente resultados dicen que la fusión
de las dos diferentes tecnologías parece ser muy eficaz para modelar una clase extensamente
de sistemas no lineales complejos cuando nosotros no tengamos la información completa de
26 Estática neuro difuso para identificación
algún modelo [13],[17],[14]. El algoritmo de retroalimentación (backpropagation, BP), son
siempre usados para conectar los parámetros de funciones del conjunto difuso (fuzzy sets)
y los pesos del borrosificador (las redes neuronales). La baja velocidad de aprendizaje y
el mínimo local son principales conflictos del algoritmo de BP [25]. Algunas modificaciones
de aprendizaje del BP se deducen. [16] propuso un BP robusto que aprende para resistir el
efecto del ruido y rechazar los errores a su totalidad durante la aproximación. [34] B−spline
para funciones de conjunto difuso a minimizar la función del objeto robusto, la velocidad de
convergencia fue mejorado. Las redes neuronales de RBF y la idea dinámica fueron aplicadas
en [29], para determinar la estructura y parámetros del sistema neuronal difuso.
Para los ingenieros es muy importante asegurar la estabilidad en la teoría, antes de que
ellos quieran aplicar el modelado a la técnica neuronal difusa a sistemas reales. Se conoce bien
que los algoritmos normales de identificación (por ejemplo, gradiente y mínimo cuadrado)
son estable para condiciones ideales.
Sin la seguridad del modelo dinámico, estos procedimientos adaptables pueden ser fácil-
mente inestables. La falta de robustez de identificación de parámetros se demostró en [18] y
llego a ser un problema directo en 80’s. Varias técnicas de modificación robustas para identi-
ficación adaptable se propusieron en [21]. La actualización de los pesos del modelado neuro
difuso es una clasificación de identificación de parámetros, el aprendizaje del gradiente de-
scendiente normal y la retroalimentación son algoritmos estables, si el modelo neuronal difuso
puede igualar exactamente a la planta no lineal. Generalmente tenemos que hacer algunas
modificaciones de estos algoritmos por eso estos procesos de aprendizajes son estables.
El operador de proyección es muy efectivo para asegurar las cotas de los parámetros para
el modelado difuso [33]. La técnica de la proyección también se usa por muchos sistemas
difusos neuronales [31].
Otro método generalizado es usando las técnicas de modificación robustas de control
adaptable [21], en modelado de redes difusas. Por ejemplo, [35] aplicando un cambio de
modificaciones σ para prevenir la tendencia de parámetros.
El modelado neuronal difusa esta en el sentido de aproximación de una de caja negra.
Todas las incertidumbres pueden ser considerando las partes de la caja negra, entonces, sin la
3.1 Estática difusa redes neuronales 27
dinámica del modelo puede ser considerado dentro del modelo, no como las incertidumbres
estructuradas. Por lo tanto las técnicas usadas comúnmente no son necesarias. En [24],
los autores propusieron un algoritmo estable y un coeficiente de aprendizaje óptimo sin
la modificación robusta. El coeficiente óptimo fue difícil ser encontrado, de tal manera
que la búsqueda genética del algoritmo fue usado. Usando la teoría de pasividad, nosotros
demostramos ese descenso del gradiente de los algoritmos sin la modificación robusta fueron
estables y para algunas inestabilidad acotado para las redes neuronales recurrentes [41] neuro
identificación [42].
En este modelo nosotros extendemos nuestros resultados anteriores para modelado de
redes neuronales difusos. La estabilidad de la entrada a estado (ISS) la aproximación se aplica
para obtener nuevas leyes de aprendizaje de modelado neuronal difuso. Para mejorar nuestro
conocimiento, ISS se acercan para el sistema neuronal difuso no se ha establecido todavía
en la literatura. Comparado con [24], nosotros también usamos el coeficiente de aprendizaje
tiempo variante, pero este coeficiente de aprendizaje puede calcularse directamente de los
datos de entrada salida. El algoritmo de aprendizaje es más simple que en [24].
Ambas Redes neuronales y la lógica difusa son los evaluaciones universales, ellos pueden
aproximar cualquier función no lineal a alguna corrección, con tal de que las neuronas ocul-
tas suficientes y las reglas difusas están disponibles. Escribiendo resultados muestra que el
procedimiento de fusión de estas dos tecnologías diferentes parece ser muy eficaz para la
identificación de sistemas no lineales [13], [17], [14]. El gradiente descendiente y la retroali-
mentación son siempre usados para ajustar los parámetros de las funciones de pertenencia
(fuzzy sets) y los pesos de los borrosificadores (Redes Neuronales) para redes neuronales
difusas. La lenta convergencia y el mínimo local son principales inconvenientes de estos al-
goritmos [25]. Algunas modificaciones fueron derivados en recientes publicaciones. [16] hacer
pensar que la ley de retroalimentación robusta para resistir el efecto del ruido y rechazar
los errores durante la tendencia de la aproximación. [34] usando la función de pertenencia
B-spline para minimizar una función robusta, sus algoritmos pueden mejorar la velocidad
de convergencia. En [29], las redes neuronales con funciones radiales básicas (RBF) son
aplicados a sistemas difusos, las redes neuronales se aplicaron a sistemas difusos, un nuevo
28 Estática neuro difuso para identificación
acercamiento para determinar la estructura y parámetros de los sistemas neurales difusos
fue propuesto.
El problema de estabilidad de identificación neural difusa es muy importante en las apli-
caciones. Se conoce bien que los algoritmos de identificación normal (por ejemplo, gradiente
descendiente de pendiente y mínimos cuadrados) son estable en las condiciones ideales. En
la presencia de la dinámica del no modelado, ellos pueden volverse inestables. La falta de
robustez de la identificación de los parámetros se demostró en [18] y llego a ser un problema
directo en los 80’s, cuando algunas técnicas de la modificación robustas fueron sugeridas
[21]. El procedimiento de aprendizaje de las redes neural difusas puede considerarse como un
tipo de identificación de parámetros. El gradiente descendiente dependiente y algoritmo de
retroalimentación son estables, si los modelos neuronales difusos pueden igualar a las plantas
no lineales exactamente. Sin embargo, algunas modificaciones robustas deben aplicarse para
asegurar la estabilidad con respecto a las incertidumbres. La proyección del operador es una
herramienta eficaz para garantizar la cota del modelado difuso [24]. Es también usado por
muchos sistemas neurales difusos [31].
La identificación neuronal difusa usa datos de entrada salida y estructura del modelo.
Puede considerarse como la aproximación de una caja negra. Todo las incertidumbres pueden
ser consideradas como partes de la caja negra, es decir, la dinámica del no modelado está
dentro del modelo de la caja negra, no como las incertidumbres estructuradas. Por consigu-
iente las técnicas de robusticidad comúnmente usadas no son necesarias. En [32], los autores
sugirieron estabilidad y la velocidad de aprendizaje óptimo sin la modificación robusta, un
algoritmo genético de investigación fue propuesto para encontrar el porcentaje óptimo. Sin
embargo el algoritmo es complejo, y difícil de comprender. Usando la teoría de pasividad,
nosotros demostramos con éxito que para tiempo continuo las redes neuronales recurrentes,
los algoritmos de gradiente descendiente sin la modificación robusta eran estables y robus-
tos en alguna cota [41], y para la identificación de tiempo continuo estos fueron también
robustamente estables [42]. No obstante, hacer en tiempo discreto las redes neuronales di-
fusa tienen características similares. El mejor conocimiento, ISS se aproxima para el sistema
neural difuso todavía no se aplicó en la literatura.
3.1 Estática difusa redes neuronales 29
En esta sección de estabilidad de entrada a estado (ISS) la aproximación se aplica a
la identificación del sistema por redes neuronales difusas. Son considerados dos casos: 1)
la proposición pertenencia son supuestamente conocidos, predeterminar de algún modo en
progreso y aprendiendo a llevar sólo los parámetros a conclusión, y 2) la actualización de
peso incluye ambos la proposición y los parámetros para concluir. Los nuevos algoritmos
estables con las proporciones de aprendizaje de tiempo variantes se aplica a dos tipos de
modelos neuronales difusos, llamados tradicionalmente modelo del tipo Mamdani y modelo
de TSK.
El sistema no lineal para identificación
y(k) = h[x(k)] = Ψ[y (k −1) , y (k −2) , · · · u(k −1) , u(k −2) , · · · ] = Ψ[X (k)] (3.1)
donde
X (k) = [y (k −1) , y (k −2) , · · · u(k −d) , u(k −d −1) , · · · ]
T
(3.2)
3.1.1. Estructura tipos mamdani estática difusa redes neuronales
Los modelos difusos Mandani y TSK se han usado por mas de dos decadas en el modelado
de sistemas en la teoría de control (análisis y diseño).
El trabajo presenta un inovadora interpretación de los modelos difusos Mandani y TSK,
estos modelos permiten saber que una mejor representación para sistemas dinámicos. El mod-
elo Mandani es mejor para sistemas estáticos, mientras que el modelo TSk para dinámicos,
El modelo Mandani sera una mejor aproximación para sistemas dinámico.
El sistema se representa por reglas difusas en la forma siguiente:
Modelo mandani
R
(i
1
,...,in)
: si
³
x
1
es X
(i
1
)
1
´
y,..., y
¡
x
n
es X
(in)
n
¢
entonces
³
x
n+1
es X
(i
1
,...,in)
n+1
´
(3.3)
R
i
: si x
1
es A
1i
y x
2
es A
2i
y, ..., x
n
es A
ni
entonces ˆ y
1
es B
1i
y, ..., ˆ y
m
es B
mi
(3.4)
30 Estática neuro difuso para identificación
∀l = (1, 2, ..., n) difuso si entonces las reglas para realizar un vector de un mapeo de entrada
lingüística X = [x
1,...,
x
n
] ∈ R
n
a una variable de salida lingüística. A
1i
, ..., B
mi
son conjuntos
difusos estandares [33]. Para la variable de entrada x
i
hay l
´ı
conjunto difusos. En el caso
de una conexión completa, l = l
1
× l
2
×, ..., l
n
de [33] sabemos que, usando la inferencia del
producto, centro promedio y borrosificador singleton, el kth salida del sistema lógica difusa
se expresa como:
ˆ y
p
= (
l
X
i=1
w
pi
[
n
Y
j=1
µ
Aji
]/
l
X
i=1
[
n
Y
j=1
µ
Aji
])
=
l
X
i=1
w
pi
φ
i
(3.5)
donde µ
Aji
, son las funciones de pertenencia del conjunto difuso A
j´ı
y w
pi
es el punto en el
cual µ
Bpi
= 1. Si definimos
φ
i
=
n
Y
j=1
µ
Aji
/
l
X
i=1
n
Y
j=1
µ
Aji
. (3.6)
La ecuación (3.5) puede ser expresado como parámetros
ˆ
Y (k) = W
k
Φ[X (k)] (3.7)
donde
ˆ
Y (k) = [ˆ y
1
, ..., ˆ y
m
]
T
= W
k
=
_
¸
¸
_
w
11
w
1l
.
.
.
w
m1
w
ml
_
¸
¸
_
(3.8)
el vector de datos φ[X (k)] = [φ
1
, ..., φ
l
]
T
.
La arquitectura de una red neuronal difusa FNN ver Figura (3.1), consta de cuatro capas,
los nodos de entradas y los nodos de salidas se encuentran en la capa I y la capa IV, las
capas ocultas se forman de nodos de reglas para reglas difusas.
3.1 Estática difusa redes neuronales 31
Capa I II III IV
2
x
1
x
n
x
11
A
1l
A
1 n
A
nl
A
1
φ
2
φ
l
φ
1
w
ml
w
1
ˆ y
ˆ
m
y
Capa I II III IV
2
x
1
x
n
x
11
A
1l
A
1 n
A
nl
A
1
φ
2
φ
l
φ
1
w
ml
w
1
ˆ y
ˆ
m
y
Figura 3.1: Arquitectura de un sistema neuronal difuso
3.1.2. Estructura tipos takagi sugeno kang estática difusa redes
neuronales
Para el modelo neuronal difuso Takagi Sugeno Kang tenemos
R
i
: si x
1
es A
1i
y x
2
es A
2i
y, ..., x
n
es A
ni
entonces ˆ y
j
= p
i
j0
+p
i
j1
x
1
+... + p
i
jn
x
n
(3.9)
donde j = 1, · · · , m. el pth salida del sistema de lógica difusa puede expresarse como
b y
p
=
l
X
i=1
¡
p
i
p0
+p
i
p1
x
1
+ · · · p
i
pn
x
n
¢
φ
i
(3.10)
donde φ
i
es definido como en la ecuación (3.6). La ecuación (3.10) puede ser expresado en
la forma del tipo Mamdani (3.7),
b
Y (k) = W (k) Φ[x(k)]
32 Estática neuro difuso para identificación
donde
b
Y (k) = [b y
1
· · · b y
m
]
T
W (k) =
_
¸
¸
_
p
1
10
· · · p
l
10
p
1
11
· · · p
l
11
· · · p
1
1n
· · · p
l
1n
.
.
.
.
.
.
.
.
.
p
1
m0
· · · p
l
m0
p
1
m1
· · · p
l
m1
· · · p
1
mn
· · · p
l
mn
_
¸
¸
_
(3.11)
Φ[x(k)] =
h
φ
1
· · · φ
l
x
1
φ
1
· · · x
1
φ
l
· · · x
n
φ
1
· · · x
n
φ
l
i
T
(3.12)
Estructura Takagi Sugeno
3.2. Sistemas de identificación difusa
La idea principal es presentar una herramienta matemática para construir un sistema
modelo difuso, generalmente hablando el modelo de construcción por datos de entrada y
salida es caracterizado por dos cosas; el primero por una herramienta matemática para
expresar un modelo de sistemas y el otro es un método de identificación.
También se muestra el método de identificación de un sistema usando datos de entrada
y salida, como sabemos para la identificación de sistemas se divide en dos partes: estructura
de identificación y parámetros de identificación.
La estructura de implicaciones difusa y algoritmos de razonamientos, denotamos la fun-
ción de pertenencia de un conjunto difuso A como A(x), x ∈ X. Todos los conjuntos difusos
son asociados con funciones lineales, entonces la función pertenencia es caracterizado por
dos parámetros dando el grado mas alto 1 y el grado menos 0. El valor verdadero de una
proposición ”x es A & y es B”, se expresa por:
|x es A & y es B| = A(x) ∧ B(y) (3.13)
Formas de implicaciones, la implicación difusa R es de la forma:
R : es f(x
1
es A
1
, ..., x
k
es A
k
) entonces y = g(x
1
, ..., x
k
) (3.14)
3.2 Sistemas de identificación difusa 33
donde
y es la variable de respuesta cuyo valor es deducido
x
1
−x
k
proposición de variables que muestran en la parte del resultado
A
1
−A
k
conjunto difuso con funciones lineales representando un subespacio
difuso en el cual la implicación R puede ser aplicado
f función lógica que conecta la proposición
g función que implica el valor de y cuando x
1
−x
k
satisface la proposición
En la proposición si A
i
es igual a X
i
para algún i donde X
i
es el universo.
Proposición de cambio de variables
Se propone un algoritmo para el cambio de variables de las variables de entrada con-
siderables. Como han sido previamente declaradas, todas las variables de las consecuencias
que no siempre aparecen en las proposiciones. Hay dos problemas interesados con el algorit-
mo. Uno es el cambio de variables: para elegir una variable en la proposición esto implica
que es inciertamente dividido. El otro es el número de divisiones. El problema completo es
una combinación, por eso en general ahí al parecer no teóricamente hay una aproximación
disponible.
Aquí justamente se lleva a buscar un método descrito en los siguientes pasos.
Suponemos que construimos un modelo difuso de entrada K − ´ esima x
1
, ..., x
k
y un
sistema de salida única.
El rango de x
1
se divide en dos subespacios difusos ”grande” y ”pequeño”, el rango
de las otras variables x
2
, ..., x
k
no son divididas, se refiere que solo x
1
aparece en la
proposición de la implicación. Entonces el modelo consiste de dos implicaciones.
Si x
1
es grande
1
entonces ...
Si x
1
es chico
2
entonces ...
Este modelo se llama 1-1. Simultáneamente, un modelo en el cual el rango de x
2
se divide
y el rango de las otras variables x
1
, x
3,
..., x
k
no son divididas entonces son el modelo 1-2. De
esta manera tenemos k modelos, en el cual se compone de dos implicaciones. En general, el
modelo 1-i es de la forma
34 Estática neuro difuso para identificación
Si x
i
es grande
i
entonces ...
Si x
i
es chico
i
entonces ...
Para cada modelo los parámetros de la proposición óptima y parámetros de consecuen-
cia son encontrados por el algoritmo que se describe en la sección previa. El modelo
óptimo con el mínimo índice de desempeño se aprueba fuera del modelo k. Este paso
se llama estado estable.
Comenzando de un estado estable como el primer paso, se dice que el modelo 1-i,
donde solo la variable x
i
se muestra en la proposición, toma todas las combinaciones
de x
i
−x
j
(j = 1, 2, ..., k) y divide el rango de cada variable en dos subespacios difusos.
Para la combinación de x
i
− x
i
, el rango de x
i
se divide en cuatro subespacios, por
ejemplo ”grande”, ”medio grande”, ”medio chico” y ”chico”. Entonces se obtiene el
modelo k el cual cada modelo se llama 2 −j. Entonces cada modelo consiste de 2 × 2
implicaciones. Encontramos de nuevo un modelo con el mínimo índice de proposición
como el paso 2 que también se llama un estado estable en este paso.
Repitiendo el paso 3 simultáneamente de manera de poner otra variable dentro de la
proposición.
La búsqueda se detiene si cualquiera de los siguientes criterios se satisfacen.
1) El índice de la proposición de estado estable llega a ser menos que el valor predeter-
minado.
2) El número de implicaciones de un estado estable excede los números predeterminados.
El cambio de variables en la proposición se muestra en la Figura (3.2).
3.3 Sistemas de identificación difusa neuronal 35
1
x
2
x
Inicio
Estable
Estable
Estable
i
x
i j
x x −
1 i
x x −
1 i j
x x x − − Estado 3
Estado 2
Estado 1
k
x
i k
x x −
1
x
2
x
Inicio
Estable
Estable
Estable
i
x
i j
x x −
1 i
x x −
1 i j
x x x − − Estado 3
Estado 2
Estado 1
k
x
i k
x x −
Figura 3.2: Selección de variables de proposición
3.3. Sistemas de identificación difusa neuronal
3.3.1. Funciones pertenencia conocidas
Cuando tenemos alguna información anterior de la planta a identificar, podemos construir
reglas difusas como en las ecuaciones (3.4) y (3.9). Suponemos que las funciones pertenencia
A
li
, ..., A
ni
son dados por conocimiento anterior, entonces φ
i
=
n
Q
j=1
µ
A
ji
/
l
P
i=1
n
Q
j=1
µ
A
ji
se conoce
[16], [29], [35]. El objetivo del modelado de la neurona difusa es encontrar valores del centro
de B
1i
· · · B
mi
( los pesos entre las capas III y IV como se muestran en la Figura (3.1)), tal
que la salida
b
Y (k) de la red neuronal difusa (3.7), sigue la salida Y (k) de la planta no lineal
(3.1).
El error de identificación se define como:
e(K) =
ˆ
Y (K) −Y (K) (3.15)
El modelado neuronal difuso discutido en este modelo es un tipo de identificación en línea,
entonces usaremos el modelado del error e(k) para entrenar las redes neuronales difusas
la ecuación (3.7) en línea tal que
ˆ
Y (k) puede aproximarse a Y (k). según las teorías de
36 Estática neuro difuso para identificación
aproximación de la función de lógica difusa [24] y las redes neuronales [9], el proceso de
identificación no lineal la ecuación (3.1) se puede representar como:
Y (k) = W

Φ[X(k)] −µ(k) (3.16)
donde W

son los pesos desconocidos que pueden minimizar el no modelado dinámico µ(k).
Teorema 3.1 Si nosotros asumimos que las redes neuronales difusas la ecuación (3.7), el
modelado de la planta no lineal de la ecuación (3.1), el siguiente algoritmo de descenso de
gradiente con una proporción de aprendizaje de tiempo variante se puede hacer la identifi-
cación del error acotado e(k) .
W (k + 1) = W (k) −η
k
e(k)Φ
T
[X(k)] (3.17)
donde η
k
=
η
1 + kφ[X(k)k
2
, 0 < η ≤ 1. El error de identificación normalizado satisface el
siguiente promedio de desempeño
e
2
N
(k) =
e
2
(k)
1 + m´ ax
k
(kφ[X(k)]k
2
)
(3.18)
J = l´ımsup
T→∞
1
T
Σ
T
k=1
e
2
N
(k) ≤ ¯ µ
(3.19)
donde ¯ µ = m´ax
k

2
(k)].
Demostración. [43]
Propiedad 3.2 Porque el modelo neuronal difuso no puede igualar los sistemas no lineales
exactamente. Así nosotros no podemos hacer que los parámetros de convergencia neuronales
difusas a sus valores óptimos, nosotros solo queremos forzar la salida de las redes neuronales
para seguir la salida de la planta. Aunque los valores de los pesos no pueden converger a sus
valores óptimos, la ecuación (3.19) las muestras de la identificación normalizado del error
convergerá al radio de la bola ¯ µ.
3.3 Sistemas de identificación difusa neuronal 37
3.3.2. Funciones pertenencia desconocidas
Cuando consideramos la planta como una caja negra, ninguna de las proposiciones ni los
parámetros consecuentes son conocidos (ver [28], [34], [32]). Ahora el objeto del modelado
de la neurona difusa es encontrar valores centrales de B
1i
· · · B
mi
, como serían las funciones
pertenencia A
1i
· · · A
ni
, tal que la red neuronal difusa (3.7), puede seguir la planta no lineal
(3.1).
La función gaussiana pertenencia son aprovechados para identificar las reglas difusas en
esta sección, el cual se define como
µ
A
ji
= exp
Ã

(x
j
−c
ji
)
2
σ
2
ji
!
(3.20)
Teorema 3.3 Si nosotros usamos la red neuronal difusa de tipo Mamdani (3.4) para iden-
tificar la planta no lineal (3.1), el siguiente algoritmo de retroalimentación, hacer que la
identificación del error e (k) sea acotado.
W
k+1
= W
k
−η
k
e (k) Z (k)
T
c
ji
(k + 1) = c
ji
(k) −2η
k
z
i
w
pi
−b yp
b
x
j
−c
ji
σ
2
ji
(b y
q
−y
q
)
σ
ji
(k + 1) = σ
ji
(k) −2η
k
z
i
w
pi
−b yp
b
(x
j
−c
ji
)
2
σ
3
ji
(b y
q
−y
q
)
(3.21)
donde η
k
=
η
1 + kZk
2
+ 2 kD
z
k
2
, 0 < η ≤ 1. El promedio de la identificación del error
satisface
J = l´ımsup
T→∞
1
T
T
X
k=1
e
2
(k) ≤
η
π
ζ (3.22)
donde π =
η
(1 +κ)
2
> 0, κ = m´ax
k
¡
kZk
2
+ 2 kD
z
k
2
¢
, ζ = m´ax
k
£
ζ
2
(k)
¤
.
Demostración. [43]
Para el modelo neuronal difuso del tipo Takagi Sugeno Kang ecuación (3.4) seleccionamos
A
ji
, como funciones gaussiana. La qth salida del sistema lógico difuso puede expresarse como
b y
q
=
l
X
i=1
Ã
n
X
k=0
p
i
qk
x
k
!
n
Y
j=1
exp
Ã

(x
j
−c
ji
)
2
σ
2
ji
!
/
"
l
X
i=1
n
Y
j=1
exp
Ã

(x
j
−c
ji
)
2
σ
2
ji
!#
(3.23)
38 Estática neuro difuso para identificación
donde x
0
= 1. La parte
l
P
i=1
¡
w

qi
−w
qi
¢
z
i
/b
q
es la ecuación (??) fue cambiado como
l
X
i=1
Ã
n
X
k=0
¡
p
i∗
qk
−p
i
qk
¢
x
k
!
z
i
/b (3.24)
El teorema siguiente nos da un algoritmo estable para la red neuronal difusa del tipo TSK.
Teorema 3.4 Si usamos la red neuronal difusa de tipo TSK de la ecuación (3.23) para
identificar la planta no lineal ecuación (3.1), el algoritmo siguiente hace la identificación del
error acotado e (k) .
p
i
qk
(k + 1) = p
i
qk
(k) −η
k
(b y
q
−y
q
)
z
i
b
x
k
c
ji
(k + 1) = c
ji
(k) −2η
k
z
i
w
pi
−b yp
b
x
j
−c
ji
σ
2
ji
(b y
q
−y
q
)
σ
ji
(k + 1) = σ
ji
(k) −2η
k
z
i
w
pi
−b yp
b
(x
j
−c
ji
)
2
σ
3
ji
(b y
q
−y
q
)
(3.25)
donde η
k
=
η
1 + kZk
2
+ 2 kD
z
k
2
, 0 < η ≤ 1.
Demostración. [43]
Uno puede observar que TSK necesita solo una formulación diferente comparativo al
tradicional modelo Mamdani y la diferencia entre el teorema (3.3) y teorema (3.4), es contener
de la ley de actualización para p
i
qk
(k) .
3.4. Simulación
Ejemplo 3.5 R si x
1
es chico y x
2
es grande entonces
y = x
1
+x
2
+ 2x
3
(3.26)
La implicación de estado que si x
1
es chico y x
2
es grande, entonces el valor de y debería ser
igual a la suma de x
1
, x
2
y 2x
3
, donde x
3
no es condicionado de la propuesta.
R : si x
1
es A
1
&...& x
k
es A
k
, entonces y = p
0
+p
1
x
1
+... +p
k
x
k
.
3.4 Simulación 39
El algoritmo de razonamiento, suponemos que tenemos implicaciones R
i
(i = 1, ..., n) ante-
riormente entonces tenemos:
(x
1
= x
0
1
, ..., x
1
= x
0
k
) , donde x
0
1
−x
0
k
son singleton, el valor de y se deduce en los pasos sigu-
ientes:
1.- Para cada implicación R
i
, y
i
se calcula por la función g
i
el resultado es:
y
i
= g
i
¡
x
0
1
, ..., x
0
k
¢
= p
i
0
+p
i
1
x
0
1
, ..., +p
i
k
x
0
k
(3.27)
2.- El valor verdadero de la proposición y = y
i
se calcula por la ecuación:
¯
¯
y = y
i
¯
¯
=
¯
¯
x
0
1
es A
i
1
&...& x
0
k
es A
i
k
¯
¯
(3.28)

¯
¯
R
i
¯
¯
=
¡
A
i
1
(x
0
1
) ∧ ... ∧ A
i
k
(x
0
k
)
¢

¯
¯
R
i
¯
¯
(3.29)
donde |∗| se refiere al valor verdadero de la proposición * & ∧ es la proposición para el
operador mínimo, y |x
0
es A| = A(x
0
), entonces el grado de x
0
. Por simplicidad se asume
que |R
i
| = 1 por eso el valor verdadero del resultado se obtiene como:
¯
¯
y = y
i
¯
¯
= A
i
1
(x
0
1
) ∧ ... ∧ A
i
k
(x
0
k
) (3.30)
3.- la salida final y se deduce de n implicaciones es dado como el promedio de todos los y
i
con los pesos
¯
¯
y = y
i
¯
¯
: y =
X
|y = y
i
| ×y
i
X
|y = y
i
|
(3.31)
En este ejemplo se muestra la identificación usando un sistema de datos recopilados de entra-
da salida con ruidos. La deducción típica del ruido esta en el 5 % de la salidas. Este sistema
tiende a ser notado que se puede identificar justo los mismos parámetros de la condición
como el sistema original si el ruido no existe.
Es de gran importancia un punto de salida anteriormente hecho, si este no es el caso se
puede afirmar la valides de un algoritmo de identificación a la vez con una descripción de
lenguaje sistema difuso.
Suponemos que el sistema original existe ver Figura (3.3), con las dos implicaciones
siguientes:
40 Estática neuro difuso para identificación
Si x es entonces y = 0.6x+2
0 7
Si x es entonces y = 0.2x+9
4 10
Si x es entonces y = 0.6x+2
0 7
Si x es entonces y = 0.2x+9
4 10
Figura 3.3: Sistema
la función es consecuencia de implicaciones en datos con ruidos de entrada salida como
se muestra a continuación Figura (3.4), los parámetros propuestos de identificación como
se muestran, podemos ver que casi siempre son los mismos parámetros y estos han sido
derivados. En esta sección, se sugiere un algoritmo de aprendizaje estable que es evaluado
como una función de aproximación y un sistema a identificar.
Ejemplo 3.6 Una Función de aproximación de 2 dimensiones
Nosotros queremos usar el algoritmo estable para aproximar la función siguiente:
f(x
1
, x
2
) = 0.52 + 0.1x
1
+ 0.28x
2
−0.6x
1
x
2
este ejemplo se toma de [33], ellos usan el siguiente sistema difuso para aproximar esto.
ˆ
f =
Σ
x1
Σ
x2
f(x
1
, x
2

A
1
µ
A
2
Σ
x1
Σ
x2
µ
A
1
µ
A
2
(3.32)
se usara la red neuronal difusa la ecuación (3.7). La entrada X(k) = [x
1
(k), x
2
(k)] . Usamos
el mismo conjunto difuso como en [33]. El numero de conjunto difuso para cada variable de
entrada en la ecuación (3.5). Hay 25 reglas difusas. La función que asocia para x
1
y x
2
son
funciones pertenencia en [2, 2], ver Figura (3.5). como en la Figura (3.1), n = 2, l
1
= l
2
=
3.4 Simulación 41
y
15
12
9
6
3
0 1 2 3 4 5 6 7 8 9 10 x
+ + + +
+ +
+ +
+++ + +
++
+
+
+
+ + + + ++++
+++ + +++
+ +
++
+++
+ ++ +
+++ + + + +
++++
+ ++
y
15
12
9
6
3
0 1 2 3 4 5 6 7 8 9 10 x
+ + + +
+ +
+ +
+++ + +
++
+
+
+
+ + + + ++++
+++ + +++
+ +
++
+++
+ ++ +
+++ + + + +
++++
+ ++
Figura 3.4: Datos de consecuencia y ruido
0 100 200 300 400 500 600
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
Función membership
0 100 200 300 400 500 600
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
Función membership
Figura 3.5: Función gausiana
42 Estática neuro difuso para identificación
0 100 200 300 400 500 600
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
1.2
ˆ y
y
0 100 200 300 400 500 600
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
1.2
ˆ y
y
Figura 3.6: Aproximación de la función
11, l = 121, m = 1. y x
1
(k) y x
2
(k) son seleccionados como:
x
1
(k) =
·
2 ∗ exp
µ
−(x(k) −c)
2
σ
2

−1
¸
x
2
(k) =
·
2 ∗ exp
µ
−(x(k) −8.25)
2
σ
2

−1
¸
(3.33)
donde k = 1, 2, ..., T. En esta simulación nosotros dejamos T = 600. El algoritmo de apren-
dizaje es como en la ecuación (3.17), con η = 1. El resultado de identificación y los pesos se
muestran en la Figura (3.6). Para verificar la efectividad del algoritmo, nosotros encontramos
después de η ≥ 2.7, el proceso de aprendizaje se hace inestable. El resultado de identificación
con η = 2.7. se muestra en la Figura (3.7). El teorema (3.1), nos da una condición necesaria
de η para aprendizaje estable, con η ≤ 1. En este ejemplo la estabilidad se limita a ser
aumentado a un valor de η < 2.7. Para una aplicación real, podemos seleccionar un η = 1.
Del teorema (3.1) el modelado del error asegura que es estable. Si queremos un proceso de
aprendizaje rápido aumentando un poco más el valor de η quizás también sea el error de
3.4 Simulación 43
0 100 200 300 400 500 600
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
1.2
Figura 3.7: Aprendizaje inestable
identificación estable.
Para este sistema el error medio cuadratico queda expresado en la Figura (3.8).
Ejemplo 3.7 Identificación del sistema no lineal
Usamos un sistema no lineal para ilustrar el aprendizaje del gradiente descendiente
ecuación (3.17) y el algoritmo de retroalimentación ecuación (3.21) y el problema estable.
La planta identificada es (Ejemplo 4 de [27]).
y(k) =
y(k −1)y(k −2)y(k −3)u(k −1)[y(k −3) −1] +u(k −1)
1 +y(k −2)
2
+y(k −3)
2
(3.34)
la entrada de la señal se selecciona como:
u(k) =
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
sin(
π
15
)
1
−1
0.3 sin(
π
15
k) + 0.1 sin(
π
22
k) + 0.603 sin(
πk
8.5
)
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
k < 200
200 ≤ k < 400
400 ≤ k < 600
600 ≤ k < 1000
(3.35)
44 Estática neuro difuso para identificación
0 100 200 300 400 500 600
-0.2
0
0.2
0.4
0.6
0.8
1
1.2
Figura 3.8: Error medio cuadratico
nosotros usamos la red neuronal difusa la ecuación (3.7), para identificar la ecuación (3.34),
X(K) = [y(k −1), y(k −2), y(k −3), u(k −1), u(k −2)]
T
para la Figura (3.1), n = 5, l
j
= 10(j = 1, ..., 5). El método para evitar el peso computacional,
nosotros usamos una simple conexión, es decir, la entrada para φ
k
es solo A
1k
, A
k2
, ...,
A
nk
(k = 1, ..., l). Así l = 10, m = 1. Las funciones pertenencia son escogidas como funciones
gaussiana.
µ
Aji
(k) = exp(−(
x
j
(k) −c
ji
σ
ji
)
2
) (3.36)
El centro c
ji
y el ancho σ
ji
, son constantes aleatorias entre [0, 1]. La complejidad del modelo
es importante en el contexto de la identificación del sistema, el cual corresponde al número de
unidades de reglas del modelo neuronal difuso. En esta simulación nosotros intentamos probar
diferentes números de nodos ocultos, nosotros encontramos que después que los dominios de
los nodos es más que l > 10, la identificación aproximada no mejorara mucho. Nosotros
seleccionamos η = 1 para actualizar los pesos W
k
como en la ecuación (3.7). Las condiciones
3.4 Simulación 45
iniciales para W
k
son aleatorios entre [0, 1]. El resultado de identificación se muestra en
Figura (3.9), y ele error cuadratico medio en la Figura (3.10).
Del teorema (3.1). Dar una condición necesaria de η para el aprendizaje estable, η ≤ 1.
En este ejemplo, nosotros encontramos que si η ≥ 3.1, el proceso de aprendizaje llega a ser
inestable.
Comparando el gradiente normal descendiente, el porcentaje de aprendizaje en tiempo
variante η
k
en la ecuación (3.17) es más fácil para ser comprendido. Este ejemplo se ha
hecho en varios artículos. Por ejemplo, una red neuronal multicapas [27] (la velocidad de
aprendizaje fijando η = 0.025), la red difusa recurrente tipo TSK [5] y las redes neuronales
difusas dinámica [6]. Uno puede ver que el algoritmo propuesto en este modelo la ecuación
(3.17), es más fácil de comprender para el diseño. Quizás ahí existe una η mejor como en [24],
pero muchas de las simulaciones han sido hechas para encontrar un porcentaje de aprendizaje
mejor de η.
46 Estática neuro difuso para identificación
0 100 200 300 400 500 600 700 800 900 1000
-1.5
-1
-0.5
0
0.5
1
( ) y k
ˆ( ) y k
0 100 200 300 400 500 600 700 800 900 1000
-1.5
-1
-0.5
0
0.5
1
( ) y k
ˆ( ) y k
Figura 3.9: Modelado de un sistema no lineal
3.4 Simulación 47
0 100 200 300 400 500 600 700 800 900 1000
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
Figura 3.10: Error cuadratico medio
48 Estática neuro difuso para identificación
Capítulo 4
Dinámica neuro difuso para
identificación
4.1. Dinámica difusa redes neuronales
4.1.1. Estructura tipo mamdani dinámica difusa redes neuronales
Un modelo difuso de un grupo se presenta como una colección de reglas difusas de la
forma siguiente:
R
i
: si ˆ x
1
(k) es A
1i
y ˆ x
2
(k) es A
2i
y, ..., ˆ x
n
(k) es A
ni
entonces ˆ x
1
(k + 1) es B
1i
y, ..., ˆ x
n
(k + 1) es B
ni
o ˆ x
1
(k + 1) es u
1
C
1i
y, ..., ˆ x
m
(k + 1) es u
m
C
mi
, ..., ˆ x
n
(k + 1) es C
ni
(4.1)
entonces se puede escribir de las dos formas siguientes:
R
i
1
: si ˆ x
1
(k) es A
1i
y ˆ x
2
(k) es A
2i
y, ..., ˆ x
n
(k) es A
ni
entonces
β
2
ˆ x
1
(k + 1) es B
1i
y, ...,
β
2
ˆ x
n
(k + 1) es B
ni
R
i
2
: si ˆ x
1
(k) es A
1i
y ˆ x
2
(k) es A
2i
y, ..., ˆ x
n
(k) es A
ni
entonces
β
2
ˆ x
1
(k + 1) es u
1
C
1i
y, ...,
β
2
ˆ x
m
(k + 1) es u
m
C
mi
, ...,
β
2
ˆ x
n
(k + 1) es C
ni
(4.2)
donde β es conocida y es una constante positiva, se tiene que l (i = 1, 2, ..., l) la regla difusa
(si entonces) realiza un mapeo de un vector de entrada X = [ˆ x
1
, ..., ˆ x
n
] ∈ R
n
a un vector de
50 Dinámica neuro difuso para identificación
salida
ˆ
Y (k) = [ˆ x
1
(k + 1), ..., ˆ x
m
(k + 1)]
T
.
A
1i
, ..., A
ni
, B
1i
, ..., B
ni
y C
1i
, ..., C
ni
son conjuntos difusos básicos. Para entrada variable
x
i
hay l
i
conjuntos difusos. En el caso de conexión completa, l = l
1
× l
2
×, ..., l
n
, usando la
consecuencia del producto, centro promedio y la salida pth del sistema de lógica difusa se
expresa como.
b x
p
(k + 1) =
β
2
Ã
l
P
i=1
w
1pi
"
n
Q
j=1
µ
A
ji
#!
/
Ã
l
P
i=1
"
n
Q
j=1
µ
A
ji
#!
=
β
2
l
P
i=1
w
1pi
φ
i
b x
p
(k + 1) =
β
2
Ã
l
P
i=1
u
i
w
2pi
"
n
Q
j=1
µ
A
ji
#!
/
Ã
l
P
i=1
"
n
Q
j=1
µ
A
ji
#!
=
β
2
l
P
i=1
u
i
w
2pi
φ
i
(4.3)
donde µ
A
ji
es una función pertenencia del conjunto difuso A
ji
, w
pi
es el punto en el cual
µ
B
pi
= 1. Si definimos
φ
i
=
n
Y
j=1
µ
A
ji
/
l
X
i=1
n
Y
j=1
µ
A
ji
(4.4)
la ecuación (4.3) se puede expresar en forma de matriz como
βb x(k + 1) = W
1
(k) σ [x(k)] +W
2
(k) σ [x(k)] U (k) (4.5)
donde los parámetros,
W
k
=
_
¸
¸
_
w
11
w
1l
.
.
.
w
n1
w
nl
_
¸
¸
_
(4.6)
el vector de datos σ [x(k)] = [φ
1
· · · φ
l
]
T
, U(k) = [u
1
, u
2
· · · u
m
, 0, · · · 0]
T
. La estructura del
sistema de la estática neuronal difuso se muestra en la Figura (3.1). Estas cuatro capas de
la red neuronal difuso fue estudiado por [14]. La estructura del sistema dinámicos neuronal
difuso se muestra en la Figura (4.1). La identificación del sistema no lineal se muestra como
(2.17), asumimos que la planta es estable BIBO, y entonces x(k) y u(k) son acotados. Segun
el teorema Stone Weierstrass, en general la función suave no lineal se escribe como:
βx(k + 1) = W

1
σ [x(k)] +W

2
σ [x(k)] U (k) +µ(k) (4.7)
4.1 Dinámica difusa redes neuronales 51
) (
1
k x
) (k x
n
) 1 ( ˆ
+
k x
n
) 1 ( ˆ
1
+
k x
11
w
nl
w
1
φ
2
φ
l
φ
11
A
1
1l
A
n nl
A
1 n
A
I II III IV
Capa
β
1 −
z
n nl
A
1
φ
2
φ
l
φ
11
A
1
1l
A
n nl
A
1 n
A
) (
1
k x
) (k x
n
11
u
nl
u
Π
Σ
Σ
Π
Π
Π
Π
Π
1
u
2
u
n
u
) (
1
k x
) (k x
n
) 1 ( ˆ
+
k x
n
) 1 ( ˆ
1
+
k x
11
w
nl
w
1
φ
2
φ
l
φ
11
A
1
1l
A
n nl
A
1 n
A
I II III IV
Capa
β
1 −
z
n nl
A
1
φ
2
φ
l
φ
11
A
1
1l
A
n nl
A
1 n
A
) (
1
k x
) (k x
n
) (
1
k x
) (k x
n
) 1 ( ˆ
+
k x
n
) 1 ( ˆ
1
+
k x
11
w
nl
w
1
φ
2
φ
l
φ
11
A
1
1l
A
n nl
A
1 n
A
I II III IV
Capa
β
1 −
z
n nl
A
1
φ
2
φ
l
φ
11
A
1
1l
A
n nl
A
1 n
A
) (
1
k x
) (k x
n
11
u
nl
u
Π
Σ
Σ
Π
Π
Π
Π
Π
1
u
2
u
n
u
Figura 4.1: La estructura del sistema de la dinámica neuronal difuso
52 Dinámica neuro difuso para identificación
donde W

1
y W

2
son pesos constantes que pueden minimizar µ(k) , el error a modelar es
µ(k)
e (k) = b x(k) −x(k) (4.8)
Ahora de la ecuación (4.7) tenemos
βe (k + 1) =
f
W
1
(k) σ [x(k)] +
f
W
2
(k) σ [x(k)] U (k) +ζ (k) (4.9)
donde
f
W
1
(k) = W
1
(k) − W

1
,
f
W
2
(k) = W
2
(k) − W

2
, ε
1
(k) el error es una aproximación
de segundo orden, σ
0
es la derivada de la función de activación no lineal σ (·) en el punto
de W
1
(k) . Después la función de activación es una sigmoide φ, ε
1
(k) es acotada como

1
(k)k
2
≤ ε
1
, ε
1
es una constante positiva no conocida. Donde ζ (k) = ε
1
(k)+ε
2
(k)−µ(k) .
En el siguiente teorema tenemos un algoritmo de aprendizaje estable de tiempo discreto de
una red neuronal de capa simple.
4.1.2. Estructura tipo takagi sugeno dinámica difusa redes neu-
ronales
R
i
: Si x
1
es A
1i
y x
2
es A
2i
y , · · · , x
n
es A
ni
entonces b y
j
= p
i
j0
+p
i
j1
x
1
+ · · · p
i
jn
x
n
(4.10)
donde j = 1, · · · , m. el pth salida del sistema de lógica difusa puede expresarse como
b y
p
=
l
X
i=1
¡
p
i
p0
+p
i
p1
x
1
+ · · · p
i
pn
x
n
¢
φ
i
(4.11)
donde φ
i
es definido como en la ecuación (4.4). Ahora la ecuación (4.11) puede ser expresado
en la forma del tipo Mamdani ecuación (4.5),
b
Y (k) = W (k) σ [x(k)]
donde
b
Y (k) = [b y
1
· · · b y
m
]
T
W (k) =
_
¸
¸
_
p
1
10
· · · p
l
10
p
1
11
· · · p
l
11
· · · p
1
1n
· · · p
l
1n
.
.
.
.
.
.
.
.
.
p
1
m0
· · · p
l
m0
p
1
m1
· · · p
l
m1
· · · p
1
mn
· · · p
l
mn
_
¸
¸
_
(4.12)
4.2 Sistemas de identificación con dinámica neuro difuso 53
σ [x(k)] =
h
φ
1
· · · φ
l
x
1
φ
1
· · · x
1
φ
l
· · · x
n
φ
1
· · · x
n
φ
l
i
T
(4.13)
4.2. Sistemas de identificación con dinámica neuro di-
fuso
4.2.1. Funciones pertenencia conocidas
El interés principal es entender algunos conceptos de estabilidad de entrada estado (ISS).
Consideramos el siguiente sistema no lineal de tiempo discreto.
x(k + 1) = f[x(k), u(k)] (4.14)
donde u(k) ∈ R
m
es el vector de entrada, x(k) ∈ R
n
un vector de estado, y y(k) ∈ R
l
es la
salida del vector f es en general una función suave no lineales, f ∈ C

. Ahora las definiciones
(2.1, 2.2) y el teorema (2.3).
Teorema 4.1 Si se usa la red neuronal de capa simple para identificar la planta no lineal y
A esta en un intervalo como −1 < λ(A) < 0, el siguiente actualización de la regla gradiente
sin modificación robusta se puede identificar el error acotado e (k) (estable en L

)
W
1
(k + 1) = W
1
(k) −η (k) σe (k)
T
W
2
(k + 1) = W
2
(k) −η (k) u(k)σe
T
(k)
(4.15)
donde si
β ke (k + 1)k ≥ ke (k)k , η (k) =
η
1 + kσk
2
+ kuσk
2
Si
β ke (k + 1)k < ke (k)k , η (k) = 0
0 < η ≤ 1
Demostración. Seleccionamos la función de Lyapunov como
V (k) =
°
°
°
f
W
1
(k)
°
°
°
2
+
°
°
°
f
W
2
(k)
°
°
°
2
(4.16)
54 Dinámica neuro difuso para identificación
donde
°
°
°
f
W
1
(k)
°
°
°
2
=
P
n
i=1
e w
1
(k)
2
= tr
n
f
W
T
1
(k)
f
W
1
(k)
o
. De la regla de actualización (5.23)
f
W
1
(k + 1) =
f
W
1
(k) −η (k) σe (k)
T
(4.17)
Por eso,
∆V (k) = V (k + 1) −V (k)
=
°
°
°
f
W
1
(k) −η (k) σe (k)
T
°
°
°
2

°
°
°
f
W
1
(k)
°
°
°
2
+
°
°
°
f
W
2
(k) −η (k) u(k)σe
T
(k)
°
°
°
2

°
°
°
f
W
2
(k)
°
°
°
2
= η
2
(k) ke (k)k
2
kσk
2
−2η (k)
°
°
°σ
f
W
1
(k) e
T
(k)
°
°
°

2
(k) ke (k)k
2
ku(k)σk
2
−2η (k)
°
°
°u(k)σ
f
W
2
(k) e
T
(k)
°
°
°
(4.18)
Usando la ecuación (4.9) y η(k) ≥ 0, λ
m´ax
(A) ≤ −α, α > 0, ahí existe un pequeño β > 0,
tal que kβe (k + 1)k ≥ ke (k)k
−2η (k)
°
°
°σ
f
W
1
(k) e
T
(k)
°
°
° −2η (k)
°
°
°u(k)σ
f
W
2
(k) e
T
(k)
°
°
°
≤ −2η (k)
°
°
e
T
(k)
°
°
kβe (k + 1) −ζ (k)k
= −2η (k)
°
°
e
T
(k) βe (k + 1) −e
T
(k) ζ (k)
°
°
≤ −2η (k)
°
°
e
T
(k) βe (k + 1)
°
°
+ 2η (k)
°
°
e
T
(k) ζ (k)
°
°
≤ −2η (k) ke (k)k
2
+η (k) ke (k)k +η (k) kζ (k)k
2
(4.19)
después 0 < η ≤ 1, ,
∆V (k) ≤ η
2
(k) ke (k)k
2

0
x(k)k
2

2
(k) ke (k)k
2
°
°
°u(k)φ
0
x(k)
°
°
°
2
−η (k) ke (k)k
2
+η (k) kζ (k)k
2
= −η (k)
_
¸
_
1 −η

0
x(k)k
2
+
°
°
°u(k)φ
0
x(k)
°
°
°
2
1 + kσ
0
x(k)k
2
+
°
°
u(k)φ
0
x(k)
°
°
2
_
¸
_
e
2
(k) +η
k
ζ
2
(k)
≤ −πe
2
(k) +ηζ
2
(k)
(4.20)
donde π =
η
1 +κ
·
1 −
κ
1 +κ
¸
, κ = m´ax
k
µ

0
x(k)k
2
+
°
°
°u(k)φ
0
x(k)
°
°
°
2

. Puesto que −1 <
λ(A) < 0, π > 0
nm´ın
¡
e w
2
i
¢
≤ V
k
≤ nm´ ax
¡
e w
2
i
¢
(4.21)
4.2 Sistemas de identificación con dinámica neuro difuso 55
donde n ×m´ın ( e w
2
i
) y n ×m´ ax ( e w
2
i
) son funciones K

, y πe
2
(k) es una función K

, ηζ
2
(k)
es una función K, por eso V
k
admite una función suave de Lyapunov ISS como en la Defini-
ción (2.2). Del teorema (2.3), la identificación del error dinámico es ISS. La ”ENTRADA”
corresponde al segundo término de la ultima línea en la ecuación (4.20), entonces, el error a
modelar es ζ (k) = ε
1
(k) + ε
2
(k) −µ(k) , el ”ESTADO” corresponde al primer término de
la ultima línea de la ecuación (4.20), y entonces, la identificación del error es e (k) por que la
”ENTRADA” ζ (k) es acotada y la dinámica es ISS, el ”ESTADO” e (k) es acotado. Cuando
β ke (k + 1)k < ke (k)k , ∆V (k) = 0. V (k) es constante, la constante de W
1
(k) entonces
e (k) es acotado (ver (4.9)).
Propiedad 4.2 La ecuación (4.15) es el algoritmo gradiente descendiente (BackPropaga-
tion), el cual el aprendizaje normalizado n
k
es de tiempo variante en orden asegurar el
proceso de identificación sea estable. Esta regla de aprendizaje es simple a usar, por que no
se necesita tener cuidado como seleccionar un ley de aprendizaje mejor para asegurar ambos
en la rapidez de convergencia y estabilidad. En ninguna información previa se requiere.
Propiedad 4.3 La condición β ke (k + 1)k ≥ ke (k)k es la zona muerta. Si β es seleccionado
muy grande, la zona muerta llega a ser pequeña.
4.2.2. Funciones pertenencia desconocidas
Cuando la planta a identificar es considerada como caja negra, nosotros no podemos
construir reglas difusas para la proposición parte de µ
A
ji
(ver [28], [30], [34]). El objeto del
modelado de la neurona difusa es encontrar valores centrales (W
k
) de B
1i
· · · B
mi
, como serían
las funciones pertenencia A
1i
· · · A
ni
, tal que la red neuronal difusa, puede seguir la planta
no lineal.
La función pertenencia gaussiana para identificar las reglas difusas, son definidos como
µ
A
ji
= exp
Ã

(x
j
−c
ji
)
2
ρ
2
ji
!
(4.22)
56 Dinámica neuro difuso para identificación
qth es la salida del modelo neuronal difuso se puede expresar de la forma
b y
q
=
l
X
i=1
w
qi
n
Y
j=1
exp
Ã

(x
j
−c
ji
)
2
ρ
2
ji
!
/
"
l
X
i=1
n
Y
j=1
exp
Ã

(x
j
−c
ji
)
2
ρ
2
ji
!#
(4.23)
Ahora definimos
z
i
=
n
Y
j=1
exp
Ã

(x
j
−c
ji
)
2
ρ
2
ji
!
, a
q
=
l
X
i=1
w
qi
z
i
, b =
l
X
i=1
z
i
(4.24)
por eso
b y
q
=
a
q
b
(4.25)
Similar a la identificación del proceso no lineal, se puede expresar como
y
q
=
l
X
i=1
w

qi
n
Y
j=1
exp
Ã

¡
x
j
−c

ji
¢
2
ρ
∗2
ji
!
/
"
l
X
i=1
n
Y
j=1
exp
Ã

¡
x
j
−c

ji
¢
2
ρ
∗2
ji
!#
−µ
q
(4.26)
donde w

qi
, c

ji
y ρ
∗2
ji
son parámetros desconocidos el cual quizá no minimicen el modelado
dinámico µ
q
.
En el caso de tres variables independientes, una función suave f tiene la formula de Taylor
como:
f (x
1
, x
2
, x
3
) =
l−1
X
k=0
1
k!
·
¡
x
1
−x
0
1
¢

∂x
1
+
¡
x
2
−x
0
2
¢

∂x
2
+
¡
x
3
−x
0
3
¢

∂x
3
¸
k
0
f +R
l
(4.27)
donde R
l
es la formula de Taylor a recordar. Si x
1
, x
2
, x
3
corresponde a w

pi
, c

ji
y σ
∗2
ji
, x
0
1
, x
0
2
, x
0
3
corresponde a w
pi
, c
ji
y σ
2
ji
,
y
q

q
= b y
q
+
l
X
i=1
¡
w

qi
−w
qi
¢
z
i
/b +
l
X
i=1
n
X
j=1

∂c
ji
³
a
q
b
´
¡
c

ji
−c
ji
¢
(4.28)
+
l
X
i=1
n
X
j=1

∂ρ
ji
³
a
q
b
´
¡
ρ

ji
−ρ
ji
¢
+R
1q
(4.29)
Usando la regla de la cadena, obtenemos lo siguiente

∂c
ji
¡
aq
b
¢
=

∂z
i
¡
aq
b
¢
∂z
i
∂c
ji
=
³
1
b
∂aq
∂z
i
+

∂z
i
¡
1
b
¢
a
q
´³
2z
i
x
j
−c
ji
σ
2
ji
´
=
¡
w
qi
b

a
q
b
2
¢
³
2z
i
x
j
−c
ji
σ
2
ji
´
= 2z
i
w
qi
−b yq
b
x
j
−c
ji
σ
2
ji
(4.30)
4.2 Sistemas de identificación con dinámica neuro difuso 57

∂ρ
ji
³
a
q
b
´
=

∂z
i
³
a
q
b
´
∂z
i
∂ρ
ji
= 2z
i
w
qi
− b y
q
b
(x
j
−c
ji
)
2
ρ
3
ji
(4.31)
En forma de matriz,
y
q

q
= b y
q

f
W
q
Z (k) −D
Zq
C
k
E −D
Zq
B
k
E (4.32)
de donde
Z (k) = [z
1
/b · · · z
l
/b]
T
, W
q
= [w
q1
· · · w
ql
] ,
f
W
q
= W
q
−W

q
D
Zq
=
h
2z
1
w
q1
−b yq
b
, · · · , 2z
l
w
ql
−b y
q
b
i
, E = [1, · · · 1]
T
C
k
=
_
¸
¸
_
x
1
−c
11
σ
2
11
(c
11
−c

11
)
xn−c
n1
σ
2
n1
(c
n1
−c

n1
)
.
.
.
x
1
−c
1l
σ
2
1l
(c
1l
−c

1l
)
xn−c
nl
σ
2
nl
(c
nl
−c

nl
)
_
¸
¸
_
B
k
=
_
¸
¸
_
(x
1
−c
11
)
2
ρ
3
11

11
−ρ

11
)
(x
n
−c
n1
)
2
ρ
3
n1

n1
−ρ

n1
)
.
.
.
(x
1
−c
1l
)
2
ρ
3
1l

1l
−ρ

1l
)
(xn−c
nl
)
2
ρ
3
nl

nl
−ρ

nl
)
_
¸
¸
_
(4.33)
definimos la identificación del error de la forma como se define
e
q
= b y
q
−y
q
e
q
= Z (k)
f
W
q
+D
Zq
C
k
E +D
Zq
B
k
E +µ
q
−R
1q
(4.34)
donde R
1q
es de segundo orden el error de aproximación, de la serie de Taylor, q = 1 · · · m.
Nosotros definimos
e (k) = [e
1
· · · e
m
]
T
βe (k) =
f
W
k
Z (k) +D
z
(k) C
k
E +D
z
(k) B
k
E +ζ (k)
(4.35)
del cual
f
W
k
=
_
¸
¸
_
w
11
−w

11
w
m1
−w

m1
.
.
.
w
1l
−w

1l
w
ml
−w

ml
_
¸
¸
_
, D
z
(k) =
_
¸
¸
_
2z
1
w
11
−b y
1
b
2z
l
w
1l
−b y
1
b
.
.
.
2z
1
w
m1
−b ym
b
2z
l
w
ml
−b ym
b
_
¸
¸
_
.
ζ (k) = µ −R
1
, µ = [µ
1
· · · µ
m
]
T
, R
1
= [R
11
· · · R
1m
]
T
.Para las cotas de la función gaussiana
φ quizá asumimos que µ en la ecuación (4.26) es acotado, también R
1
es acotado. Por
eso ζ (k) en la ecuación (4.35) es acotado. El siguiente teorema nos da un algoritmo de
retroalimentación estable para una red neuronal difusa en tiempo discreto.
58 Dinámica neuro difuso para identificación
Teorema 4.4 Si usamos la red neuronal difusa ecuación (4.23) para identificar la planta
no lineal, el siguiente algoritmo de retroalimentación puede hacer la identificación del error
e (k) acotado
W
k+1
= W
k
−η
k
e (k) Z (k)
T
c
ji
(k + 1) = c
ji
(k) −2η
k
z
i
w
pi
−b yp
b
x
j
−c
ji
ρ
2
ji
(b y
q
−y
q
)
ρ
ji
(k + 1) = ρ
ji
(k) −2η
k
z
i
w
pi
−b yp
b
(x
j
−c
ji
)
2
ρ
3
ji
(b y
q
−y
q
)
(4.36)
donde si
β ke (k + 1)k ≥ ke (k)k , η
k
=
η
1 + kZk
2
+ 2 kD
z
k
2
Si
β ke (k + 1)k < ke (k)k , η
k
= 0
0 < η ≤ 1. El error promedio de la identificación satisface
J = l´ımsup
T→∞
1
T
T
X
k=1
e
2
(k) ≤
η
π
ζ (4.37)
donde π =
η
1 +κ
·
1 −
κ
1 +κ
¸
> 0, κ = m´ax
k
¡
kZk
2
+ 2 kD
z
k
2
¢
, ζ = m´ax
k
£
ζ
2
(k)
¤
Demostración. Definimos ec
ji
(k) = c
ji
(k) −c

ji
,
e
b
ji
(k) = σ
ji
(k) −σ

(k) , el elemento de
e
C
k
es expresado como ec
ji
(k) =
h
e
C
k
i
. Por eso
h
e
C
k+1
i
=
h
e
C
k
i
−2η
k
z
i
w
qi
− b y
q
b
x
j
−c
ji
ρ
2
ji
(b y
q
−y
q
) (4.38)
Nosotros seleccionamos una matriz definida positiva L
k
como
L
k
=
°
°
°
f
W
k
°
°
°
2
+
°
°
°
e
C
k
°
°
°
2
+
°
°
°
e
B
k
°
°
°
2
(4.39)
4.2 Sistemas de identificación con dinámica neuro difuso 59
Usando la ecuación (4.35) tenemos
∆L
k
=
°
°
°
f
W
k
−η
k
e (k) Z (k)
T
°
°
°
2
+
°
°
°
e
C
k

h

k
z
i
w
qi
−b yq
b
x
j
−c
ji
ρ
2
ji
(b y
q
−y
q
)

°
°
2
+
°
°
°
e
B
k

h

k
z
i
w
qi
−b yq
b
(x
j
−c
ji
)
2
ρ
3
ji
(b y
q
−y
q
)

°
°
2

°
°
°
f
W
k
°
°
°
2

°
°
°
e
C
k
°
°
°
2

°
°
°
e
B
k
°
°
°
2
= η
2
k
e
2
(k)
³
°
°
Z(k)
T
°
°
2
+ 2
°
°
D
T
z
°
°
2
´
−2η
k
ke (k)k
°
°
°
f
W
k
Z (k)
T
+D
T
z
C
k
E +D
T
z
B
k
E
°
°
°
= η
2
k
e
2
(k)
¡
kZk
2
+ 2 kD
z
k
2
¢
−2η
k
ke (k) [e (k) −ζ (k)]k
≤ −η
k
e
2
(k)
£
1 −η
k
¡
kZk
2
+ 2 kD
z
k
2
¢¤
+ηζ
2
(k)
≤ −πe
2
(k) +ηζ
2
(k)
(4.40)
donde π se define como
π =
η
1 + m´ ax
k
¡
kZk
2
+ 2 kD
z
k
2
¢ (4.41)
Por que
n
h
m´ın
¡
e w
2
i
¢
+ m´ın
¡
ec
2
ji
¢
+ m´ın
³
e
b
2
ji
´i
≤ L
k
≤ n
h
m´ ax
¡
e w
2
i
¢
+ m´ax
¡
ec
2
ji
¢
+ m´ax
³
e
b
2
ji
´i
(4.42)
donde n
h
m´ın ( e w
2
i
) + m´ın
¡
ec
2
ji
¢
+ m´ın
³
e
b
2
ji
´i
y n
h
m´ ax ( e w
2
i
) + m´ ax
¡
ec
2
ji
¢
+ m´ax
³
e
b
2
ji
´i
son fun-
ciones K

, y πe
2
(k) es una función K

, ηζ
2
(k) es una función K. De las ecuaciones (4.35)
y (4.39) conocemos que V
k
es la función de e (k) y ζ (k) , por eso L
k
admite una función de
Lyapunov suave ISS como en la Definición (2.2). del Teorema (2.3), la dinámica del error
de identificación entrada a estado estable ISS. Por que la ”ENTRADA” ζ (k) Es acotada y
la dinámica es ISS, el ”ESTADO” e (k) es acotado.
La ecuación (5.46) se puede reescribir como
∆L
k
≤ −πe
2
(k) +ηζ
2
(k) ≤ πe
2
(k) +ηζ (4.43)
Sumando la ecuación (4.43) de 1 hasta T, y usando L
T
> 0 y L
1
es una constante, obtenemos
L
T
−L
1
≤ −π
P
T
k=1
e
2
(k) +Tηζ
π
P
T
k=1
e
2
(k) ≤ L
1
−L
T
+Tηζ ≤ L
1
+Tηζ
(4.44)
la ecuación (3.22) es establecido.
60 Dinámica neuro difuso para identificación
Propiedad 4.5 Para el modelo neuronal difuso del tipo Takagi Sugeno Kang ecuación (4.10)
con una función gaussiana pertenencia en A
ji
, el qth salida del sistema lógico difuso puede
expresarse como
b y
q
=
l
X
i=1
Ã
n
X
k=0
p
i
qk
x
k
!
n
Y
j=1
exp
Ã

(x
j
−c
ji
)
2
σ
2
ji
!
/
"
l
X
i=1
n
Y
j=1
exp
Ã

(x
j
−c
ji
)
2
σ
2
ji
!#
(4.45)
donde x
0
= 1. La parte
l
P
i=1
¡
w

qi
−w
qi
¢
z
i
/b
q
es la ecuación (4.28) es cambiando como
l
X
i=1
Ã
n
X
k=0
¡
p
i∗
qk
−p
i
qk
¢
x
k
!
z
i
/b (4.46)
Si usamos el siguiente algoritmo
p
i
qk
(k + 1) = p
i
qk
(k) −η
k
(b y
q
−y
q
)
z
i
b
x
k
c
ji
(k + 1) = c
ji
(k) −2η
k
z
i
w
pi
−b yp
b
x
j
−c
ji
σ
2
ji
(b y
q
−y
q
)
σ
ji
(k + 1) = σ
ji
(k) −2η
k
z
i
w
pi
−b yp
b
(x
j
−c
ji
)
2
σ
3
ji
(b y
q
−y
q
)
(4.47)
El error de identificación e (k) es acotado. La demostración es la misma como en el teorema
(3.1).
Propiedad 4.6 Normalizando el porcentaje de aprendizaje η
k
en las ecuaciones (3.17) y
(3.21) son de tiempo variante, el método del error de identificación. Estas ganancias de
aprendizaje son fáciles para ser decididos como en [30], en ninguna información a priori se
requiere, por ejemplo si nosotros quizá seleccionamos η = 1. La contradicción en la rápida
convergencia y el algoritmo estable puede ser evitado. Cambiando el porcentaje del tiempo
variante puede ser encontrando algunos esquemas adaptables básicos como en [21]. Pero ellos
usan también modificación robusta para garantizar el proceso de identificación estable.
Propiedad 4.7 Si seleccionamos η como una función de zona muerta:
(
η = 0 si |e (k)| ≤ ζ
η = η
0
si |e (k)| > ζ
(4.48)
4.3 Simulación 61
la ecuación (3.21) es el mismo como en [35]. Si un término modificación σ o modificando
la regla δ los términos son sumados en
k
en la ecuación (3.17) o (3.21), Esto nos dice que
de [34] o [26]. Pero todas ellas necesitan la mayor de la cota del modelado del error ζ. Y la
identificación del error aumenta por las modificaciones de robustez [21].
Propiedad 4.8 Puesto que asumimos que la red neuronal difusa no puede igualar sistemas
no lineales, no podemos hacer que los parámetros (w
ji
, c
ji
y σ
ji
) convergen, nos gustaría
solo forzar la salida de la red neuronal difusa siguiendo a la salida de la planta, entonces la
identificación del error sera estable. Sin embargo los pesos no pueden converger a sus valores
óptimos, la ecuación (3.22) muestra que el error de identificación convergerá en una bola
de radio
η
π
ζ. Si la entrada es constante, el modelado del error ζ (k) no harán que los pesos
convergen a sus valores óptimos. Esto hace posible que la salida del error converge, pero los
pesos del error son muy altos cuando las reglas difusas no son bien definidas. La relación
de la salida del error y el error de los pesos se muestran en las ecuaciones (??) y (4.35).
En un caso simple usamos la ecuación (??) y las redes neuronales difusas no pueden igualar
exactamente a la planta no lineal.
planta: y = W

Φ[X (k)]
redes neuronales difusas: b y = W (k) Φ[X (k)]
salida del error: (y − b y) = (W

−W (k)) Φ[X (k)]
(4.49)
Si Φ[X (k)] es grande, la salida del error es pequeño (y − b y) no significa una buena conver-
gencia del error de los pesos W

−W (k) .
4.3. Simulación
1). Un sistema de tipo caótico, del modelo de Lorenz se elige para demostrar la facilidad
del neuro identificador. El modelo de Lorenz se usa para el fluido de la descripción específi-
camente para algunos características de la dinámica atmosférica [41]. El modelo a controlar
62 Dinámica neuro difuso para identificación
es descrito de la forma:
·
x
1
= −βx
1
+x
2
x
3
·
x
2
= ω(x
3
−x
2
)
·
x
3
= −x
1
x
2
+ρx
2
−x
3
(4.50)
donde x
1
, x
2
y x
3
representan medidas de temperaturas verticales, horizontales, velocidad
de fluido correspondientes, ω, ρ y β son parámetros positivos representando el número de
Prandtl, número Rayleigh y factor geométrico. Si ρ < 1, es el origen de equilibrio estable. Si
1 < ρ ≤ ρ

(σ, β) := ω (ω +β + 3) / (ω −β −1) , (4.51)
el sistema tiene dos puntos de equilibrio
³
±
p
β(ρ −1), ±
p
β(ρ −1), (ρ −1)
´
, y un punto
de equilibrio inestable el cual es (el origen). Si ρ

(ω, β) < ρ, los tres puntos de equilibrio
llegan a ser inestables. Como el caso comúnmente estudiado, seleccionamos ω = 10 y β = 8/3
que lleva a ρ

(ω, β) = 24.74. En este ejemplo se considera el sistema con ω = 10, β = 8/3 y
ρ = 28. El sistema caótico dinámico se muestra en las Figuras (4.2, 4.3, 4.4).
Usamos la siguiente técnica de diferencia para obtener los estados de tiempo discreto del
sistema ecuación (4.50), y de la ecuación (4.50) el cual se puede escribir de la forma siguiente
·
x = Ax (4.52)
con x = [x
1
, x
2
, x
3
]
T
, A =
_
¸
¸
_
−β 0 x
2
0 −σ σ
−x
2
ρ −1
_
¸
¸
_
. Ahora definimos s
1
= Ax
k
, s
2
= A(x
k
+s
1
) ,
s
3
= A
¡
x
k
+
s
1
+s
2
4
¢
. Si
¯
¯
s
1
−2∗s
3
+s
2
3
¯
¯

|x
k
|
1000
o
¯
¯
s
1
−2∗s
3
+s
2
3
¯
¯
< 1, entonces x
k+1
= x
k
+
s
1
+4s
3
+s
2
6
,
k = 0, 1, 2 · · · , x
0
= [50, 10, 20]
T
.
2). Primero usaremos una red neuronal difusa recurrente con las reglas siguientes entonces
se puede escribir de las dos formas siguientes
R
i
1
: si ˆ x
1
(k) es A
1i
y ˆ x
2
(k) es A
2i
y, ..., ˆ x
n
(k) es A
ni
entonces
β
2
ˆ x
1
(k + 1) es B
1i
y, ...,
β
2
ˆ x
n
(k + 1) es B
ni
R
i
2
: si ˆ x
1
(k) es A
1i
y ˆ x
2
(k) es A
2i
y, ..., ˆ x
n
(k) es A
ni
entonces
β
2
ˆ x
1
(k + 1) es u
1
C
1i
y, ...,
β
2
ˆ x
m
(k + 1) es u
m
C
mi
, ...,
β
2
ˆ x
n
(k + 1) es C
ni
4.3 Simulación 63
donde la función pertenencia se conoce como una función gaussiana
φ
i
=
n
Y
j=1
µ
A
ji
/
l
X
i=1
n
Y
j=1
µ
A
ji
(4.53)
de simple capa ecuación (4.5) para identificar la ecuación (4.50),
βb x(k + 1) = Ab x(k) +W
1
(k) σ [x(k)] (4.54)
de donde σ [x(k)] = [φ
1
· · · φ
l
]
T
, β = 4, σ (·) = tanh (·) , b x = [b x
1
, b x
2
, b x
3
]
T
, A = diag [0.8, 0.8, 0.8] ,
W
1
(k) ∈ <
3×3
. Los elementos de W
1
(0) son números aleatorios entre [0, 1] . Usamos la
ecuación (5.23) para actualizar los pesos para la identificación en línea.
W
1
(k + 1) = W
1
(k) −
1
1 + kσk
2
e (k) σ
T
(4.55)
Del teorema (4.1) tenemos una condición necesaria para un aprendizaje estable de η, con
η ≤ 1. En este ejemplo, encontramos que si η ≥ 2.5, el proceso de aprendizaje llega a
ser inestable. El neuro identificación en esta simulación esta en línea, aquí no se estudia la
convergencia de los pesos, cuidamos el error de identificación e (k) . Los pesos no convergen
a algunas constantes o valores óptimos. La simulación total en tiempo es de 600, ahí hay 14
tiempos β ke (k + 1)k < e (k) . Usamos una red difusa neuronal multicapa para identificar
(4.50),
βˆ x(k + 1) = Aˆ x(k) +V
k
σ [W
k
(K) x(k)] (4.56)
donde β = 4, σ (·) = tanh (·) , A = diag [¦8, ¦8, ¦8] . La complejidad del modelo es importante
en el contexto de la identificación del sistema, el cual corresponde al número de unidades
ocultas del neuro modelo. En esta simulación probamos diferentes números de nodos ocultos,
encontramos cuando los nodos ocultos son mas de 20, la exactitud de la identificación todavía
no ha sido mejorado mucho. En [27], también usaron 20 neuronas ocultas para la primer capa
oculta
64 Dinámica neuro difuso para identificación
0 100 200 300 400 500 600
-10
0
10
20
30
40
50
60
x1
0 100 200 300 400 500 600
-10
0
10
20
30
40
50
60
x1
Figura 4.2: Sistema dinámico caótico de Lorenz
4.3 Simulación 65
0 100 200 300 400 500 600
-20
-15
-10
-5
0
5
10
15
20
x2
0 100 200 300 400 500 600
-20
-15
-10
-5
0
5
10
15
20
x2
Figura 4.3: Sistema dinámico caótico de Lorenz
66 Dinámica neuro difuso para identificación
0 100 200 300 400 500 600
-30
-20
-10
0
10
20
30
x3
0 100 200 300 400 500 600
-30
-20
-10
0
10
20
30
x3
Figura 4.4: Sistema dinámico caótico de Lorenz
Capítulo 5
Redes neuronales difusas dinámicas
para sistemas no lineales de control
adaptable
5.1. Estructura difusa neuro control
El grado relativo del sistema, para entrada y salida simple,
y(k) = f [y (k −1) , · · · y (k −n) , u(k −1) , · · · u(k −m)]
+g [(k −1) , · · · y (k −n) , u(k −1) , · · · u (k −m)] u(k)
(5.1)
donde f [·] y g [·] son funciones suaves, g [·] es acotada fuera del cero. Este sistema de entrada
salida puede convertirse en una forma de espacios de estados, nosotros definimos
x
i
(k) = y (k −n +i −1) , i = 1 · · · n
x
i+n
(k) = u(k −m+i −1) , i = 1 · · · m
(5.2)
Un modelo de estado de la ecuación (5.1) es
x
i
(k + 1) = x
i+1
(k) , i = 1 · · · n −1
x
n
(k + 1) = f [x(k)] + g [x (k)] u(k)
(5.3)
68 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable
donde x(k) = [x
1
· · · x
n+m
]
T
, g [x(k)] es diferente de cero con la señal conocida. Entonces,
sin perder la generalidad, g [x(k)] ≥ g > 0, g es una constante positiva conocida. Dando
un diseño de la trayectoria x

n
(k) y estos valores de retardo x

i
(k + 1) = x

i+1
(k) , el error
acumulado se define como
e
n−i
(k) = x
n−i
(k) −x

n−i
(k) , i = 0 · · · n −1 (5.4)
Un filtro de seguimiento de error es usado tipicamente en un controlador de robot como sigue
[26]
r(k) = e
n
(k) +λ
1
e
n−1
(k) + · · · +λ
n−1
e
1
(k) (5.5)
donde λ
1
· · · λ
n−1
son constantes seleccionados para que (z
n−1

1
z
n−2
+ · · · +λ
n−1
) sea
estable. Usando las ecuaciones (5.3), (5.5) y r(k + 1) = e
n
(k + 1) + λ
1
e
n−1
(k + 1) + · · · +
λ
n−1
e
1
(k + 1), la dinámica del error de seguimiento es
r(k + 1) = f [x(k)] +g [x(k)] u(k) −x

n
(k + 1) +λ
1
e
n
(k) + · · · +λ
n−1
e
2
(k) (5.6)
Podemos seleccionar el estado de control de retroalimentación como
u(k) =
1
g [x(k)]
[x

n
(k + 1) −f [x(k)] +k
v
r (k) −λ
1
e
n
(k) −· · · −λ
n−1
e
2
(k)] (5.7)
donde 1 > |k
v
| . El sistema de lazo cerrado llega a ser
r (k + 1) = k
v
r(k) (5.8)
Por eso r(k) es asintóticamente estable. Puesto que la ecuación (5.5) se puede reescribir como
E(k + 1) = AE(k) +Br(k) (5.9)
donde E(k) = [e
1
(k) · · · e
n−1
(k)] , A =
_
¸
¸
_
0 1 0
−λ
n−1
· · · −λ
1
_
¸
¸
_
, B = [0 · · · 01]
T
.
Este es un sistema lineal estable con entrada r(k), por eso e
n
(k) es asintoticamente estable.
5.1 Estructura difusa neuro control 69
Propiedad 5.1 El sistema de entrada y salida simple (SISO) el grado relativo de un sis-
tema no lineal ecuación (5.1) en el caso simple, para sistemas de multi entradas y multi
salidas (MIMO), la forma general del control de retroalimentación es similar (ver [22]). Si
el grado relativo está más de uno, la transformación está más completa, pero el control de
retroalimentación es similar como la ecuación (5.7), para más discusión puede encontrarse
en [3].
Si f [x(k)] y g [x(k)] en la ecuación (5.3) son redes neuronales conocidas en tiempo
discreto se pueden aplicar para aproximar estas funciones. Recordando el teorema Stone
Weierstrass [4], estas funciones suaves generales no lineales se pueden expresar por redes
neuronales difusa de donde se puede representar como
Un modelo genérico difuso se presenta como una colección de reglas difusas en la forma
siguiente:
R
i
: si x
1
es A
1i
y x
2
es A
2i
y, ..., x
n
es A
ni
entonces
b
f
1
es B
1i
y, ...,
b
f
m
es B
mi
(5.10)
Usamos l(i = 1, 2, ..., l) difuso si entonces las reglas para realizar un vector de un mapeo
de entrada lingüística X = [x
1,...,
x
n
] ∈ R
n
a una variable de salida lingüística. A
1i
, ..., B
mi
son conjuntos difusos estandares [33]. Para la entrada x
i
variables hay l
´ı
conjunto difusos.
En el caso de conexión completa, l = l
1
× l
2
×, ..., l
n
de [33] sabemos. Usando la deducción
del producto, centro promedio y semifallo del borrosificador, el kth salida del sistema lógica
difusa se expresa como:
b
f [x (k)]
p
= (
l
X
i=1
w
pi
[
n
Y
j=1
µ
Aji
]/
l
X
i=1
[
n
Y
j=1
µ
Aji
])
=
l
X
i=1
w
pi
φ
i
(5.11)
donde µ
Aji
, son las funciones de pertenencia del conjunto difuso A
j´ı
y w
pi
es el punto en el
cual µ
Bpi
= 1. Si definimos
φ
i
=
n
Y
j=1
µ
Aji
/
l
X
i=1
n
Y
j=1
µ
Aji
. (5.12)
70 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable
La ecuación (3.5) puede expresarse en parámetros
b
f [x(k)] = W
1
φ
1
[x(k)] (5.13)
donde
b
f [x(k)] =
h
b
f
1
, ...,
b
f
m
i
T
= W
1
=
_
¸
¸
_
w
11
w
1l
.
.
.
w
m1
w
ml
_
¸
¸
_
(5.14)
el vector de datos φ
1
[x(k)] = [φ
1
, ..., φ
l
]
T
.
f [x(k)] = W

1
φ
1
[x(k)] −
e
f
1
g [x(k)] u (k) = W

2
φ
2
[x(k)] u(k) −eg
1
(5.15)
donde
e
f
1
y eg
1
son funciones del error de evaluación W

i
∈ R
1×n
es una matriz constante que
puede minimizar el error de la función de aproximación. La función de vector de dimensión
φ
i
y m, con i = 1, 2. La representación típica del elemento φ
i
(·) es la función de activación
sigmoide. Sea W
1,k
y W
2,k
denotando la estimación de W

1
y W

2
.
W

1
φ
1
[x(k)] = W
1,k
φ
1
[x(k)] −
e
f
2
,
W

2
φ
2
[x(k)] u(k) = W
2,k
φ
2
[x(k)] u(k) −e g
2
f [x(k)] =
b
f [x(k)] −
e
f, g [x(k)] u(k) = bg [x(k)] u(k) −eg
(5.16)
donde
e
f =
e
f
1
+
e
f
2
y eg = eg
1
+eg
2
son errores de la función de estimación.
b
f [x(k)] = W
1,k
φ
1
[x(k)]
bg [x(k)] = W
2,k
φ
2
[x(k)]
(5.17)
La ecuación de redes neuronales difusas se puede expresar en forma de matriz como
βb x(k + 1) = W
1
(k) σ [x(k)] +W
2
(k) σ [x(k)] u(k) (5.18)
5.2 Difusa neuro control con algoritmo estable 71
5.2. Difusa neuro control con algoritmo estable
5.2.1. Aprendizaje sin funciones pertenencia
La dinámica del error de seguimiento se escribe
r(k +1) = W
1,k
φ
1
[x(k)] +W
2,k
φ
2
[x(k)] u(k) −x

n
(k + 1) +λ
1
e
n
(k) +· · · +λ
n−1
e
2
(k) +ω (k)
(5.19)
donde ω (k) =
e
f +eg. Entonces el control u(k) se puede definir como lo siguiente
u(k) = [W
2,k
φ
2
]
+
[x

n
(k + 1) −W
1,k
φ
1
[x(k)] +k
v
r (x) −λ
1
e
n
(k) −· · · −λ
n−1
e
2
(k)] (5.20)
donde [·]
+
puesto que el sentido de la pseudo inversa en Moor Penrose, que se define como
[1].
x
+
=
x
T
kxk
2
, 0
+
= 0 (5.21)
El sistema de lazo cerrado es
r (k + 1) = k
v
r(k) +ω (k)
= k
v
r(k) +
e
f +egu(k)
= k
v
r(k) +
f
W
1,k
φ
1
[x(k)] +
f
W
2,k
φ
2
[x(k)] u(k) +ω
1
(k)
(5.22)
donde
f
W
1,k
= W
1,k
− W

1
,
f
W
2,k
= W
2,k
− W

2
, ω
1
(k) =
e
f
1
+ eg
1
. Recordando [20], ω (k) y
ω
1
(k) las constantes son acotadas ω y ω
1
, entonces, kω (k)k
2
≤ ω, kω
1
(k)k
2
≤ ω
1
.
Teorema 5.2 Si usamos el neuro control adaptable ecuación (5.20) para el control de la
planta no lineal ecuación (5.3), la siguiente ley de actualización del gradiente sin la modi-
ficación robusta se puede hacer que el error de seguimiento sea acotado r (k) (estable en el
sentido de L

)
W
1,k+1
= W
1,k
−η
k
r (k) φ
T
1
[x(k)]
W
2,k+1
= W
2,k
−η
k
r (k) φ
T
2
[x(k)] u(k)
(5.23)
donde η
k
satisface que
η
k
=
_
_
_
η
1 + kφ
1
k
2
+ kφ
2
uk
2
si β kr (k + 1)k ≥ kr (k)k
0 si β kr (k + 1)k ≥ kr (k)k
(5.24)
72 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable
aquí 1 ≥ η > 0,
1
1+k
V
≥ β ≥ 1.
Demostración. Seleccionamos una función de Lyapunov como
L
k
=
°
°
°
f
W
1,k
°
°
°
2
+
°
°
°
f
W
2,k
°
°
°
2
(5.25)
donde
°
°
°
f
W
1,k
°
°
°
2
=
P
n
i=1
e w
2
1,k,i
= tr
n
f
W
T
1,k
f
W
1,k
o
. De la ley de actualización ecuación (5.23)
f
W
1,k+1
=
f
W
1,k
−η
k
r (k) φ
T
[x(k)]
∆L
k
= L
k+1
−L
k
=
°
°
°
f
W
1,k
−η
k
r (k) φ
T
1
[x(k)]
°
°
°
2

°
°
°
f
W
1,k
°
°
°
2
+
°
°
°
f
W
2,k
−η
k
r (k) φ
T
2
[x(k)] u(k)
°
°
°
2

°
°
°
f
W
2,k
°
°
°
2
= η
2
k
r
2
(k) kφ
1
k
2

2
k
r
2
(k) kφ
2
uk
2
−2η
k
°
°
°r (k) φ
T
1
f
W
1,k
°
°
° −2η
k
°
°
°r (k) φ
T
2
f
W
2,k
u (k)
°
°
°
(5.26)
Usando la ecuación (5.22)
−2η
k
°
°
°r (k) φ
T
1
f
W
1,k
°
°
° −2η
k
°
°
°r (k) φ
T
2
f
W
2,k
u (k)
°
°
°
= −2η
k
kr (k)k
³°
°
°φ
T
1
f
W
1,k
°
°
° +
°
°
°φ
T
2
u(k)
f
W
2,k
°
°
°
´
≤ −2η
k
kr (k)k
°
°
°φ
T
1
f
W
1,k

T
2
f
W
2,k
u(k)
°
°
°
= −2η
k
kr (k)k kr (k + 1) −k
v
r(k) −ω
1
(k)k
= −2η
k
kr (k) r (k + 1) −k
v
r
2
(k) −r (k) ω
1
(k)k
(5.27)
si β kr (k + 1)k ≥ kr (k)k
−2η
k
°
°
°r (k) φ
T
1
f
W
1,k
°
°
° −2η
k
°
°
°r (k) φ
T
2
f
W
2,k
u(k)
°
°
°
≤ −

k
β
kr (k)k
2
+ 2η
k
k
v
kr (k)k
2

k
kr (k)k
2

k

1
(k)k
2
(5.28)
Usando 0 < η ≤ 1, 0 ≤ η
k
≤ η ≤ 1, η
k
=
η
1 + kφ
1
k
2
+ kφ
2
uk
2
∆L
k
= η
2
k
r
2
(k)
¡

1
k
2
+ kφ
2
uk
2
¢


k
β
r (k)
2
+ 2η
k
k
v
r (k)
2

k
r (k)
2

k
ω
2
1
(k)
= −η
k
"
³
2
β
−2k
v
−1
´
−η

1
k
2
+ kφ
2
uk
2
1 + kφ
1
k
2
+ kφ
2
uk
2
#
r
2
(k) +η
k
ω
2
1
(k)
≤ −πr
2
(k) +ηω
2
1
(k)
(5.29)
5.2 Difusa neuro control con algoritmo estable 73
donde π =
η
1 +κ
·
³

k
β
−2k
v
−1
´

κ
1 +κ
¸
, κ = m´ax
k
¡

1
k
2
+ kφ
2
uk
2
¢
. Puesto que
1
1+k
V

β ≥ 1,
³
2
β
−2k
v
−1
´
> 1, π > 0
nm´ın
¡
e w
2
i
¢
≤ V
k
≤ nm´ ax
¡
e w
2
i
¢
(5.30)
donde n ×m´ın ( e w
2
i
) y n ×m´ ax ( e w
2
i
) son funciones K

, y πe
2
(k) es una función K

, ηζ
2
(k)
es una función K. De las ecuaciones (5.22) y (5.25) conocemos V
k
es una función de e (k) y
ζ (k) , por eso V
k
admite una función de Lyapunov ISS. la dinámica del error de identificación
estable entrada estado. La ”ENTRADA” corresponde al segundo termino de la ultima línea
en la ecuación (5.29), entonces el modelado del error ζ (k) = ε (k) + µ(k) , el ”ESTADO”
corresponde al primer término de la ultima línea en la ecuación (5.29), entonces el error
de identificación e (k) . Por que la ”ENTRADA” ζ (k) es acotada y la dinámica es ISS, el
”ESTADO” e (k) es acotado.
Si β kr (k + 1)k < kr (k)k , ∆L
k
= 0. L
k
es constante, W
1,k
, W
2,k
son las constantes.
Puesto que kr (k + 1)k <
1
β
kr (k)k ,
1
β
< 1, r (k) es acotado.
5.2.2. Aprendizaje con funciones pertenencia
Ahora consideramos una red neuronal multicapa(o perceptrones multicapa. MLP) que se
representan como [26] para aproximar funciones no lineales f [x(k)] y g [x(k)] en la ecuación
(5.3). La ecuación (5.17) se cambia como
b
f [x(k)] = W
1,k
φ
1
[V
1,k
x(k)]
bg [x(k)] = W
2,k
φ
2
[V
2,k
x(k)]
(5.31)
donde los pesos en la capa de salida son V
1,k
, V
2,k
∈ R
m×n
, los pesos en la capa oculta son
W
1,k
, W
2,k
∈ R
1×m
. m es la dimensión de la capa oculta, n es la dimensión del estado. El
control de retroalimentación es entonces u(k) se pude definir de la manera siguiente
u(k) = [W
2,k
φ
2
(V
2,k
x(k))]
+
[x

n
(k + 1) −W
1,k
φ
1
(V
1,k
x(k)) +k
v
r (x) −λ
1
e
n
(k) −· · · −λ
n−1
e
2
(k)]
(5.32)
74 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable
El sistema de lazo cerrado llega a ser
r (k + 1) = k
v
r(k) +
e
f +egu (k) (5.33)
Simultáneamente a la ecuación (5.16)
e
f = W

1
φ
1
[V

1
x(k)] −W
1,k
φ
1
[V
1,k
x(k)] −
e
f
1
egu (k) = W

2
φ
2
[V

2
x(k)] u(k) −W
2,k
φ
2
[V
2,k
x(k)] u(k) −eg
1
(5.34)
En el caso de dos variables independientes, una función suave f tiene una formula de Taylor
de la forma
f (x
1
, x
2
) =
l−1
X
k=0
1
k!
·
¡
x
1
−x
0
1
¢

∂x
1
+
¡
x
2
−x
0
2
¢

∂x
2
¸
k
0
f +R
l
(5.35)
donde R
l
recordando de la formula de Taylor. Si permitiéramos que x
1
y x
2
correspondan a
W

1
, V

1
, x
0
1
y x
0
2
corresponda W
1,k
y V
1,k
,
W

1
φ
1
[V

1
x(k)] −W
1,k
φ
1
[V
1,k
x(k)]
=
f
W
1,k
φ
1
[V
1,k
x(k)] +W
1,k
φ
0
1
[V
1,k
x(k)]
e
V
1,k
x (k) +R
1
(5.36)
donde φ
0
1
es la derivada de la función de activación no lineal φ
1
(·) en un punto de V
1,k
x(k) ,
f
W
1,k
= W
1,k
−W

1
,
e
V
1,k
= V
1,k
−V

1
. Y
W

2
φ
2
[V

2
x(k)] u(k) −W
2,k
φ
2
[V
2,k
x(k)] u(k)
=
f
W
2,k
φ
2
[V
2,k
x(k)] u(k) +W
2,k
φ
0
2
[V
2,k
x(k)]
e
V
2,k
x (k) u(k) +R
2
(5.37)
de donde
f
W
2,k
= W
2,k
−W

2
,
e
V
2,k
= V
2,k
−V

2
. El sistema de lazo cerrado ecuación (5.33) es
r (k + 1) = k
v
r(k) +ω
2
(k) +
f
W
1,k
φ
1
+W
1,k
φ
0
1
e
V
1,k
x +
f
W
2,k
φ
2
u +W
2,k
φ
0
2
e
V
2,k
xu (5.38)
donde ω
2
(k) =
e
f
1
+ e g
1
+R
1
+R
2
, kω
2
(k)k
2
≤ ω
2
.
Teorema 5.3 Si usamos en neuro control adaptable ecuación (5.32) al control de la planta
no lineal ecuación (5.3), la siguiente ley de actualización hace que el error de seguimiento
r (k) sea acotado (estable en el sentido L

)
W
1,k+1
= W
1,k
−η
k
r (k) φ
T
1
, V
1,k+1
= V
1,k
−η
k
r (k) r (k) φ
0
1
W
T
1,k
x
T
(k)
W
2,k+1
= W
2,k
−η
k
r (k) uφ
T
1
, V
2,k+1
= V
2,k
−η
k
r (k) uφ
0
1
W
T
2,k
x
T
(5.39)
5.2 Difusa neuro control con algoritmo estable 75
donde η
k
satisface
η
k
=
_
_
_
η

1
k
2
+ kφ
2
uk
2
+
°
°
φ
0
1
W
T
1,k
x
T
°
°
+
°
°

0
2
W
T
2,k
x
T
°
°
si β kr (k + 1)k ≥ kr (k)k
0 si β kr (k + 1)k ≥ kr (k)k
(5.40)
aquí 1 ≥ η > 0,
1
1+k
V
≥ β ≥ 1. El error promedio de la identificación satisface
J = l´ımsup
T→∞
1
T
T
X
k=1
r
2
(k) ≤
η
π
ω
2
(5.41)
donde π =
η
1 +κ
·
1 −
κ
1 +κ
¸
> 0, κ = m´ax
k
³

1
k
2
+ kφ
2
uk
2
+
°
°
°φ
0
1
W
T
1,k
x
T
°
°
° +
°
°
°φ
0
2
W
T
2,k
x
T
u
°
°
°
´
,
ω
2
= m´ax
k

2
2
(k)] .
Demostración. Seleccionamos una función de Lyapunov como
L
k
=
°
°
°
f
W
1,k
°
°
°
2
+
°
°
°
f
W
2,k
°
°
°
2
+
°
°
°
e
V
1,k
°
°
°
2
+
°
°
°
e
V
2,k
°
°
°
2
(5.42)
De la ley de actualización ecuación (5.39)
∆L
k
=
°
°
°
f
W
1,k
−η
k
r (k) φ
1
°
°
°
2

°
°
°
f
W
1,k
°
°
°
2
+
°
°
°
f
W
2,k
−η
k
r (k) φ
2
u
°
°
°
2

°
°
°
f
W
2,k
°
°
°
+
°
°
°
e
V
1,k
−η
k
r (k) φ
0
1
W
T
1,k
x
T
(k)
°
°
°
2

°
°
°
e
V
1,k
°
°
°
2
+
°
°
°
e
V
2,k
−η
k
r (k) φ
0
2
W
T
2,k
x(k)
T
u
°
°
°
2

°
°
°
e
V
2,k
°
°
°
2
= η
2
k
r
2
(k)
³

1
k
2
+ kφ
2
uk
2
+
°
°
°φ
0
1
W
T
1,k
x
T
°
°
° +
°
°
°φ
0
2
W
T
2,k
x
T
u
°
°
°
´
−2η
k
kr (k)k
³°
°
°φ
1
f
W
1,k
°
°
° +
°
°
°φ
2
f
W
2,k
u
°
°
° +
°
°
°
e
V
1,k
φ
0
1
W
T
1,k
x
°
°
° +
°
°
°
e
V
2,k
φ
0
2
W
T
2,k
xu
°
°
°
´
(5.43)
Usando la ecuación (5.38), similar con el Teorema (5.3)
−2η
k
kr (k)k
³°
°
°φ
1
f
W
1,k
°
°
° +
°
°
°φ
2
f
W
2,k
u
°
°
° +
°
°
°
e
V
1,k
φ
0
1
W
T
1,k
x
T
°
°
° +
°
°
°
e
V
2,k
φ
0
2
W
T
2,k
x
T
u
°
°
°
´
≤ −2η
k
kr (k) r (k + 1) −k
v
r
2
(k) −r (k) ω
2
(k)k
(5.44)
si β kr (k + 1)k ≥ kr (k)k
−2η
k
kr (k)k
³°
°
°φ
1
f
W
1,k
°
°
° +
°
°
°φ
2
f
W
2,k
u
°
°
° +
°
°
°
e
V
1,k
φ
0
1
W
T
1,k
x
T
°
°
° +
°
°
°
e
V
2,k
φ
0
2
W
T
2,k
x
T
u
°
°
°
´
≤ −

k
β
kr (k)k
2
+ 2η
k
k
v
kr (k)k
2

k
kr (k)k
2

k

2
(k)k
2
(5.45)
76 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable
Usando 0 < η ≤ 1, 0 ≤ η
k
≤ η ≤ 1, η
k
=
η

1
k
2
+ kφ
2
uk
2
+
°
°
φ
0
1
W
T
1,k
x
°
°
+
°
°
φ
0
2
W
T
2,k
xu
°
°
∆L
k
= η
2
k
r
2
(k)
³

1
k
2
+ kφ
2
uk
2
+
°
°
°φ
0
1
W
T
1,k
x
T
°
°
° +
°
°
°φ
0
2
W
T
2,k
x
T
u
°
°
°
´


k
β
r (k)
2
+ 2η
k
k
v
r (k)
2

k
r (k)
2

k
ω
2
2
(k)
= −η
k
_
_
³
2
β
−2k
v
−1
´
−η

1
k
2
+ kφ
2
uk
2
+
°
°
°φ
0
1
W
T
1,k
x
°
°
° +
°
°
°φ
0
2
W
T
2,k
x
T
u
°
°
°
1 + kφ
1
k
2
+ kφ
2
uk
2
+
°
°
φ
0
1
W
T
1,k
x
°
°
+
°
°
φ
0
2
W
T
2,k
x
T
u
°
°
_
_
r
2
(k)

k
ω
2
2
(k)
≤ −πr
2
(k) +ηω
2
2
(k)
(5.46)
donde π =
η
1 +κ
·
³

k
β
−2k
v
−1
´

κ
1 +κ
¸
, κ = m´ax
k
(kφ
1
k
2
+ kφ
2
uk
2
+
°
°
°φ
0
1
W
T
1,k
x
T
°
°
° +
°
°
°φ
0
2
W
T
2,k
x
T
u
°
°
°). Puesto que
1
1+k
V
≥ β ≥ 1,
³
2
β
−2k
v
−1
´
> 1, π > 0
nm´ın
¡
e w
2
i
¢
≤ V
k
≤ nm´ ax
¡
e w
2
i
¢
(5.47)
donde n ×m´ın ( e w
2
i
) y n ×m´ ax ( e w
2
i
) son funciones K

, y πe
2
(k) es una función K

, ηζ
2
(k)
es una función K. De las ecuaciones (5.38) y (5.42) conocemos V
k
es una función de e (k) y
ζ (k) , por eso V
k
admite una función de Lyapunov ISS. La dinámica del error de identificación
estable entrada estado. La ”ENTRADA” corresponde al segundo término de la ultima línea
en la ecuación (5.46), entonces el modelado del error ζ (k) = ε (k) + µ(k) , el ”ESTADO”
corresponde al primer termino de la ultima línea en la ecuación (5.46), entonces el error
de identificación e (k) . Por que la ”ENTRADA” ζ (k) es acotada y la dinámica es ISS, el
”ESTADO” e (k) es acotado.
· Si β kr (k + 1)k < kr (k)k , ∆L
k
= 0. L
k
es constante, W
1,k
, W
2,k
son las constantes.
Puesto que kr (k + 1)k <
1
β
kr (k)k ,
1
β
< 1, r (k) es acotado. La ecuación (5.29) se reescribe
como
∆L
k
≤ −πr
2
(k) +ηω
2
2
(k) ≤ πr
2
(k) +ηω
2
(5.48)
Sumando la ecuación (5.48) de 1 a T, y usando L
T
> 0 y L
1
es una constante, obtenemos
L
T
−L
1
≤ −π
P
T
K=1
r
2
(k) +Tηω
2
π
P
T
K=1
r
2
(k) ≤ L
1
−L
T
+Tηω
2
≤ L
1
+Tηω
2
(5.49)
5.3 Simulación 77
entonces la ecuación (5.41) se demuestra.
5.3. Simulación
Para esta simulación usaremos un sistema no lineal en tiempo discreto comparando con
otros modelos.
Como [43]:
y(k + 2) =
[y(k) ∗ y(k) +y(k + 1) ∗ y(k + 1) + 2.5 ∗ tanh(y(k)) + 1] z(k)
(y(k) ∗ y(k) +y(k + 1) ∗ y(k + 1) + 1)
+u(k)
z(k + 1) = b1 ∗ y(k + 1) +b2 ∗ z(k)
(5.50)
Como [16]:
y(k+2) =
1.5 ∗ [y(k) ∗ y(k + 1)]
(y(k) ∗ y(k) +y(k + 1) ∗ y(k + 1) + 1) + 0.35 ∗ sin(y(k) +y(k + 1)
+u(k) (5.51)
Como [27]:
y(k + 2) =
(y(k)
2
+y(k + 1)
2
+ 2.5 ∗ tanh(y(k) + 1) ∗ u(k)
(y(k) ∗ y(k) +y(k + 1) ∗ y(k + 1) + 1)
+z(k) (5.52)
donde y(k) es la posición a manipular, u(k) es el control del torque, T es el tiempo de
muestra. Si definimos x
1
(k) = y (k) , x
2
(k) = y (k + 1) , las ecuaciones (5.50), (5.51) y (4.7)
se pueden trasformar en la ecuación (5.3)
x
1
(k + 1) = x
2
(k)
x
2
(k + 1) = f [x(k)] +g [x(k)] u (k)
(5.53)
donde x(k) = [x
1
(k) , x
2
(k)]
T
, f [x(k)] = 2 (1 −T) x
2
(k)+(2T −1) x
1
(k)+10T
2
sin x
1
(k) ,
g [x(k)] = 1. El error de seguimiento se escribe como
r(k) = e
2
(k) +λ
1
e
1
(k) (5.54)
donde e
2
(k) = x
2
(k)−x

2
(k) = y (k + 1)−y

(k + 1) , e
1
(k) = x
1
(k)−x

1
(k) = y (k)−y

(k) ,
y

(k) es la trayectoria deseable. Si nosotros seleccionamos λ
1
= 0.5, T = 0.01, y

(k) =
π
2
sin
¡
π
5
k
¢
. Por que g [x(k)] = 1, la red neuronal difusa se cambia como
b
f [x(k)] = W
1,k
φ
1
[V
1,k
x(k)] (5.55)
78 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable
de donde V
1,k
∈ R
20×2
, W
1,k
∈ R
1×20
. Entonces el control adaptable u(k) puede ser
u (k) = x

2
(k + 1) −W
1,k
φ
1
[V
1,k
x(k)] +k
v
r (k) −λ
1
e
2
(k) (5.56)
donde k
v
= −0.5. La actualización de los pesos como
W
1,k+1
= W
1,k
−η
k
r (k) φ
T
1
[V
1,k
x(k)]
V
1,k+1
= V
1,k
−η
k
r (k) φ
0
1
W
T
1,k
x
T
(k)
(5.57)
donde η
k
satisface que
η
k
=
_
_
_
η
1 + kφ
1
k
2
+
°
°
φ
0
1
W
1,k
x
°
°
si β kr (k + 1)k ≥ kr (k)k
0 si β kr (k + 1)k < kr (k)k
(5.58)
donde η = 1, β = 2. El sistema de lazo cerrado se deriva de las ecuaciones (5.53), (5.56)
y (k + 2) = f [x(k)] −
b
f [x(k)] +y

(k + 2) +k
v
r(k) −λ
1
e
2
(k) (5.59)
Puesto que e
2
(k) = e
1
(k + 1) y r(k) = e
2
(k) +λ
1
e
1
(k), de manera tenemos
r(k + 1) = r(k) +ω (k) (5.60)
donde r(k) = y (k + 1) −y

(k + 1) +λ
1
y [(k) −y

(k)] , ω (k) = f [x(k)] −
b
f [x(k)] .
Las simulaciones siguientes nos describen el sistema comparando con varios modelos
descritos anteriormente ecuaciones (5.51), (5.50), (5.52).
Este modelo corresponde a Chen Figura (5.1). Este modelo corresponde a Narendra
Figura (5.2). Este modelo corresponde a Wen Figura (5.3).
5.3 Simulación 79
0 100 200 300 400 500 600
-10
-8
-6
-4
-2
0
2
4
6
8
10
( ) y k
ˆ( ) y k
0 100 200 300 400 500 600
-10
-8
-6
-4
-2
0
2
4
6
8
10
0 100 200 300 400 500 600
-10
-8
-6
-4
-2
0
2
4
6
8
10
( ) y k
ˆ( ) y k
Figura 5.1: Identificación del sistema no lineal para el modelo Chen
80 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable
0 100 200 300 400 500 600
-10
-8
-6
-4
-2
0
2
4
6
8
10
ˆ( ) y k
( ) y k
0 100 200 300 400 500 600
-10
-8
-6
-4
-2
0
2
4
6
8
10
ˆ( ) y k
0 100 200 300 400 500 600
-10
-8
-6
-4
-2
0
2
4
6
8
10
ˆ( ) y k
( ) y k
Figura 5.2: Identificación del sistema no lineal para el modelo Narendra
5.3 Simulación 81
0 100 200 300 400 500 600
-10
-8
-6
-4
-2
0
2
4
6
8
10
( ) y k
ˆ( ) y k
0 100 200 300 400 500 600
-10
-8
-6
-4
-2
0
2
4
6
8
10
( ) y k
ˆ( ) y k
Figura 5.3: Identificación del sistema no lineal para el modelo Wen
82 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable
Capítulo 6
Conclusiones
Se propuso el modelo dinámico con un algoritmo de aprendizaje donde se aplican en
varios problemas temporales incluyendo un modelo NARMA. La función de compara-
ción son comportamientos con una sucesión estática y sistemas dinámicos y algunos
modelos recurrentes difusos existentes esto se puede observan en las simulaciones donde
se pueden considerar sistemas de identificación eficientes.
En esta tesis estudiamos el modelado de un sistema no lineal con redes neuronales
difusas usando un algoritmo de aprendizaje estable. Aproximando a una entrada es-
tado estable, concluimos que las técnicas comúnmente usados de robusticidad, como
un método de modificación sigma, de donde no necesariamente para la ley del gra-
diente descendiente. Posteriormente se trabajara haciendo aprendizajes con funciones
pertenencia conocidas y luego para funciones pertenencia desconocidas.
La identificación neuro difuso y control en sistemas estáticos y dinámicos, también
se hicieron comparaciones generales en sistemas difusos y redes neuronales, también
usamos la estabilidad estado entrada (ISS) para aproximar la función a estabilizar.
Además se uso la estructura tipo mamdani y takagi sugeno kang (TSK) para la estática
difusa en redes neuronales
Finalmente tenemos que las redes neuronales difusas dinámicas para sistemas no lin-
84 Conclusiones
eales de control adaptable la función a identificar no se conoce y se parte haciendo uso
de neuro difuso así notamos que el sistema y la identificación comparando con otros
modelos en algunos casos decimos que fue fructífera y en algunos casos segun los valores
declarados hacían el sistema inestable para otro modelo, concluimos que el método de
identificación neuro difuso en sistemas no lineales de control adaptable es buena.
Bibliografía
[1] A.Albert, Regression and the Moore-Penrose Pseudoinverse, Academic Press, 1972.
[2] F.C.Chen and H.K.Khalil, Adaptive control of nonlinear systems using neural networks,
Int.J.Control, Vol.55,No.6, 1299-1317,1992
[3] F.C.Chen and H.K.Khalil, Adaptive control of a class of nonlinear discrete-time systems
using neural networks, IEEE Trans. Automatico Control, Vol.40, No.5, 791-801, 1995.
[4] G.Cybenko, Approximation by Superposition of Sigmoidal Activation Function,
Math.Control, Sig Syst, Vol.2, 303-314, 1989
[5] C.F.Juang, A TSK-Type recurrent fuzzy network for dynamic systems procesing by
neural network and genetic algorithm, IEEE Trans. Fuzzy Syst., Vol. 10, 155-170, 2002.
[6] P.A. Mastorocostas and J.B. Theocharis, A recurrent fuzzy-neural model for dinamic
systems identification, IEEE Trans. Syst., Man, Cybern. B, Vol. 32, 179-190,2002.
[7] Nguyen, D. H. and Widrow, B., ”Neural Networks for Self-Learning Control Systems,”
IEEE Control Systems Magazine, vol. 10 pp. 18-23, 1990.
[8] Tsoi, A. C. and Back, A. D., ”Locally Recurrent Globally Feedforward Networks: A
Critical Review of Architectures”, IEEE Trans. on Neural Networks, Vol.5, No. 2, March
1994, pp. 229-239.
[9] Haykin, S., ”Neural Networks, A Comprehensive Foundation”, Prentice Hall U.S., 2nd
Ed. 1999.
86 BIBLIOGRAFÍA
[10] Hilera, J. R. y Martímez V. J., ”Redes Neuronales Artificiales. Fundamentos Modelos y
Aplicaciones”, Ed. RA-MA, 1995.
[11] Martin B.B. y Sanz M. A. ”Redes Neuronales y Sistemas Difusos”, Ra-Ma, 2nd Ed
2001.
[12] Li-Xin W. ”A course in Fuzzy Systems and Control”, Ed. prentice Hall, 1997.
[13] M. Brown. y C.J. Harris, ”Neurofuzzy Adaptive Modelling and Control ”, Prentice Hall,
New York, 1994.
[14] C.T.Lin and G.Lee, Neural fuzzy systems: A neural-fuzzy synergism to intelligent sys-
tems, Prentice-Hall Inc., NJ, 1996.
[15] W.C.Chan, C.W.Chan, K.C.Cheung and Y.Wang, Modeling of nonlinear stochastic dy-
namical systems using neurofuzzy networks, 38th IEEE Conference on Decision and
Control, 2643-2648, Phoenix, USA, 1999.
[16] D.S.Chen and R.C.Jain, A robust back propagation learning algorithm for fuunction
approximation, IEEE Trans.Neural Networks, Vol5, No3, 1994.
[17] M.Y.Chen and D.A.Linkensm, A systematic neuro-fuzzy modeling framework with ap-
plication to material property prediction, IEEE Trans. Syst., Man, Cybern. B, Vol.31,
781-790, 2001.
[18] B.Egardt, Stability of Adaptive Controllers, Lecture Notes in Control and Information
Sciences, Vol.20, Springer-Verlag, Berlin, 1979.
[19] S.I.Horikawa, T.Furuhashi and Y.Uchikawa, On fuzzy modeling using fuzzy neual net-
works with the back-propagation algorithm, IEEE Trans. Neural NetiDorks, Vol. 3 No.5,
801-806, 1992.
[20] k.Hornik, Approximation capabilities of multilayer feedforward networks, Neural Net-
works, Vol.4 No.5,251-257,1991.
BIBLIOGRAFÍA 87
[21] P.A.Ioannou and J.Sun, Robust Adaptive Control, Prentice-Hall, Inc, Upper Saddle Riv-
er: NJ, 1996.
[22] S.Jagannathan and F.L.Lewis, Identification of Nonlinear Dynamical Systems Using
Multilayered Neural Networks, Automatica, Vol.32, No.12, 1707-1712, 1996.
[23] Z.P.Jiang and Y.Wang, Input-to-State Stability for Discrete-Time Nonlinear Systems,
Automatica, Vol.37, No.2, 857-869, 2001.
[24] Y.G.Leu, T.T.Lee and W.Y.Wang, Observer-based adaptive fuzzy-neural control for
unknown nonlinear dynamical systems, IEEE Trans. Syst., Man, Cybern. B, Vol. 29,
583-591, 1999.
[25] C.T.Lin, A neural fuzzy control system with structure and parameter learning, Fuzzy
Sets anc Systems. Vol.70, 183-212, 1995.
[26] F.L.Lewis, A.Yesildirek and K.Liu, Multilayer Neural-Net Robot Controller with Guar-
anteed Tracking Performance, IEEE Trans. Neural Networks, Vol.7, No.2, 388-399, 1996.
[27] K.S.Narendra and S.Mukhopadhyay, Adaptive Control Using Neural Networks and Ap-
proximate Models, IEEE Trans. Neural Networs , Vol.8, No.3, 475-485, 1997.
[28] H.H.Tsai and P.T.Yu, On the optimal design of fuzzy neural networks with robust
learning for function approximation, IEEE Trans. Syst., Man, Cybern. B, Vol.30, 217-
223, 2000.
[29] S.Wu and M.J.Er, Dynamic fuzzy neural networks- a novel approach to function ap-
proximation, IEEE Trans.Syst, Man, _Cybern. B, Vol.30, 358-364, 2000.
[30] C.H.Wang, H.L.Liu and C.T.Lin, Dynamic optimal learning rates of a certain class of
fuzzy neural networks and its applications with genetic algorithm, IEEE Trans. Syst.,
Man, Cybern, B, Vol.31, 467-475, 200l.
88 BIBLIOGRAFÍA
[31] Y.G.Leu, T.T.Lee and W.Y.Wang, Observer-based adaptive fuzzy-neural control for
unknown nonlinear dynamical systems, IEEE Trans. Syst., Man, Cybern. B, Vol. 29,
583-591, 1999.
[32] C.H.Wang, H.L.Liu and C.T.Lin, Dynamic optimal learning rates of a certain class of
fuzzy neural networks and its applications with genetic algorithm, IEEE Trans. Syst.,
Man, Cybern. B, Vol.31, 467-475, 2001.
[33] L.X.Wang, Adaptive Fuzzy Systems and Control, Englewood Cliffs NJ: Prentice-Hall,
1994.
[34] W.Y.Wang, T.T.Lee, C.L.Liu and C.H.Wang, Function approximation using fuzzy neu-
ral networks with robust learning algorithm, IEEE Trans. Syst„ Man, Cybern. B, Vol.27,
740-747, 1997.
[35] W.Y.Wang, Y.G.Leu and C.C.Hsu, Robust adaptive fuzzy neural control of nonlin-
ear dynamical systems using generalized projection updated law and variable structure
controller, IEEE Trans. Syst., Man, Cybern. B, Vol.31, 140-147, 2001.
[36] G.A. Rovithakis and M.A. Christodoulou, Adaptive Control of Uknown Plants Using
Dinamical Neural Networks, IEEE Trans. on Syst., Man and Cybern., Vol. 24, 400-412,
1994.
[37] E.B. Kosmatopulos, M.M. Polycarpou, M.A. Christodoulou and P.A. Ioannpu, High
order neural networks structures for identification of dynamical systems, IEEE Trans.
Neural Network, Vol. 6, No. 2, 422-421, 1995.
[38] A.S. Poznyak, W. Yu, E. N. Sanchez and J.P. Perez, Nonlinear Adaptive Trajectory
Tracking Using Dynamical neural Networks, IEEE Trans. on Neural Networks, Vol. 10,
No. 5, 1402-1411, 1999.
[39] Wen Yu and Alexander S. Poznyak, Indirect Adaptive control via parallel dynamic
neural networks, IEE Proceding - Control Theory and Applications, Vol. 146, No. 1,
25-30, 1999.
BIBLIOGRAFÍA 89
[40] Wen Yu, Xiaoou Li, Some stability properties of dynamic neural networks, IEEE Trans.
Circuits and Systems, part I, Vol. 48, No. 2, 256-159, 2001.
[41] W.Yu and X. Li, Some stability properties of dynamic neural networks, IEEE Trans.
Circuits and Systems, Part I, Vol.48, No.1, 256-259, 2001.
[42] W.Yu and X. Li, Some new results on system identification with dynamic neural net-
works, IEEE Trans. Neural Networks, Vol.12, No.2, 412-417,
[43] Wen Yu, Fuzzy Identification Using Fuzzy Neural Networks with Stable Learning Algo-
rithms, IEEE Trans. on Fuzzy Systems, accepted for publication
[44] Wen Yu, Rigoberto Toxqui, Stable Fuzzy Identification Using Recurrent Fuzzy Neural
Networks"en el IASTED International Conference Neural Networks and Computational
Intelligence, 2003, Cancun, México

Índice general
1. Introducción 1.1. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3. Publicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4. Estructura de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Neuro difuso identificación y control 2.1. Redes neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1. La neurona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2. Topología de la red neuronal (RN) . . . . . . . . . . . . . . . . . . . 2.2. Lógica difusa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1. Conjuntos difusos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2. Borrosificador (Fuzzifier) . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.3. Desborrosificador (Defuzzifier) . . . . . . . . . . . . . . . . . . . . . . 2.3. Neuro difuso (Neurofuzzy) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1. Estática y dinámica en sistemas difusos . . . . . . . . . . . . . . . . . 2.3.2. Comparaciones generales de sistemas difuso y redes neuronales . . . . 2.4. La estabilidad de la entrada a estado (ISS) y funciones de Lyapunov ISS . . 3. Estática neuro difuso para identificación 3.1. Estática difusa redes neuronales . . . . . . . . . . . . . . . . . . . . . . . . . 1 3 3 4 4 7 7 9 12 13 14 16 17 19 20 21 22 25 25

. . . . . . . . . . . . . .4. . . . . . . .2. . . . . . . . . . . . . . . . . .2. Estructura difusa neuro control . . . . . 3. . . . Aprendizaje con funciones pertenencia . . .3. . . . . . . . . . . 3. . . .2. . . . . . . . . . . . . Conclusiones 67 67 71 71 73 77 83 . Funciones pertenencia desconocidas .1. . . . . . . . . . . . . . . . . . .1. . .3. Funciones pertenencia conocidas . . . .1. . . . . . . . . . . . . 29 31 32 35 35 37 38 49 49 49 52 53 53 55 61 4. . . . . . . Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable 5. . . . 4. Funciones pertenencia desconocidas . . . . . . . . . . . . . Simulación . . . . . . 5. . . . . Dinámica neuro difuso para identificación 4. 4.1. . . . . . . . . . . . . 3. . .1. . . Simulación . . . Estructura tipo mamdani dinámica difusa redes neuronales . . . . . . . . 3. . . . . . . . . . . . Estructura tipos mamdani estática difusa redes neuronales . . . . . . Aprendizaje sin funciones pertenencia . 5. . . . Estructura tipos takagi sugeno kang estática difusa redes neuronales . . . . . . . . . . . . . . . 5. . . . 5. . . . . . . . . . . . . . . . Difusa neuro control con algoritmo estable . . . .1. . . . . . . .1. . 6.2. . . . . . . . . . . . . .2. 3. . . . . Simulación . . . .2. .3. . .1. . . . . . . . . . Funciones pertenencia conocidas . . . . . . . . 3. . 4. . . . . . . .1. . . . . . . . . . . . .1.1. . . . . . Sistemas de identificación con dinámica neuro difuso . .2. .2. . 4. . . . . . Estructura tipo takagi sugeno dinámica difusa redes neuronales . . Sistemas de identificación difusa neuronal . . . . . . 4. . . . . .ii ÍNDICE GENERAL 3. 4. . . . .3. .3. . . . . . . . . . . . . . Sistemas de identificación difusa . . . . .2. .2. . . .2. . . . . .2. . . 5. . . . . . . . . . Dinámica difusa redes neuronales .

.9. . . . . . . . . . . Aproximación de la función . . . . . .5. . . . . . . . . . . . . . . . . . . . 3. . Sistema dinámico caótico de Lorenz 4. . . . . . . . . 4. . . . . . . . . . . . . . .3. . . . . . . . . . . . . . . . . . . . . . . . . . . 2. . . . . . . . . . . . . . . . .4. . Arquitectura básica de un controlador de lógica difusa (FLC) . . . . . . . . Modelo de una neurona . . . . . . . . . . . . . . . .4. . . . . . . . . . . . . . . Error medio cuadratico . . . . . . . . . . 3. . . . . . . . . . . . . . b) Saturación c) Sigmoide d) Tangente hiperbólica . . . . . . . . . . . . Sistema dinámico caótico de Lorenz . . . . . . . . . . . . . . . . . . . . . . . . . 2. . 3. . . .2. . Sistema . . . . . . . . . . . . . 4. . . . . . . . . . . . . . . . . . . . .2. . . . .7. . . . . . . .6. . 3. . . . . . . . . . . . . . . . . . a) Escalón. . . . . . .3. . 3. . . . . . . . . . . . . 3. Datos de consecuencia y ruido . . . . . Selección de variables de proposición . . . . . .3. . . . . . Representación de la red de un sistema difuso con una red neuronal de tres capas . . . . . . . . .1.5. . . . . . . . 19 31 35 40 41 41 42 43 44 46 47 51 64 65 66 10 13 16 18 . . . . . . . . . . .1. . 3. Aprendizaje inestable . . . . . . . . . La estructura del sistema de la dinámica neuronal difuso . . . . . . . . . . . . .4. . . . .1. . . . . . . . . . . . .2. . . . . . . . . . Estructura se un sistema de lógica difusa . . 3. . . 2. . . . . . . . . . . . . . . . . . . . . . . . Error cuadratico medio . . . . . . . . . . Función gausiana .8. . . . . . . . . 2. . . . Arquitectura de un sistema neuronal difuso . . . . . . Modelado de un sistema no lineal . . . . . . . . . . . . . . . . . . . . 3.Índice de figuras 2. . 3. . . . . . . .10. Sistema dinámico caótico de Lorenz 4. . . . .

. . 5. . . . . . . . . . . . . . . . 5. . . 79 80 81 . Identificación del sistema no lineal para el modelo Wen . . .iv ÍNDICE DE FIGURAS 5. . Identificación del sistema no lineal para el modelo Chen .3. . . . .2. . . . Identificación del sistema no lineal para el modelo Narendra .1. .

por que estos métodos se dificultan para obtener el conocimiento en una manera comprensiva. Entonces prometiendo aproximar para combinar dentro de un sistema integrado. la deducción de los sistemas difusos representan el conocimiento usando etiquetas lingüísticas y quizás sea más fácil de interpretar. Las redes neuronales difusas (modelos de redes neuronales basados en lógica difusa). sin embargo las redes neuronales no pueden incluir descripciones en sistemas lingüísticos. Los sistemas neuronales difusos (redes neuronales basados en sistemas difusos). La fusión de las dos diferentres tecnologías pueden realizarse en tres direcciones [14]. tal que podemos obtener resultados de ambos sistemas difusos y redes neuronales. La aproximación del sistema neuro difuso tiene puestos muchas atenciones recientemente. 1. unión de tecnología de lógica difusa y redes neuronales dentro de sistemas híbridos. se utilizan para borrosificadores de los modelos de redes neuronales convencionales. usan redes neuronales como herramienta para los modelos difusos. Los sistemas híbridos neuronales difusos. es difícil para un operador humano poner a punto las reglas difusas y las funciones de pertenencia de un conjunto de datos de entrenamiento. Por otro lado. 3.Capítulo 1 Introducción Las redes neuronales han sido populares modelos en una extensa variedad en modelado y control. 2. . Pero los sistemas difusos no tienen mucha capacidad de aprendizaje.

donde una tecnología esta presente en la otra. las redes neuronales de capa simple fueron discutidos en [36]. no hay muchos resultados en el análisis de estabilidad para sistemas neuro difusos ahí aparecen un número de análisis de estabilidad y síntesis de resultados en control difuso. A pesar de sus aplicaciones exitosas. La estabilidad de entrada a estado (ISS) y la aproximación de pasividad son herramientas alternativas efectivas para redes neuronales dinámicas. [39]. Las propiedades de pasividad de redes neuronales dinámicas se describen en [40]. La tercera muestra contribuciones de combinaciones. pero la falta del modelo hace difícil obtener resultados teóricos en la estabilidad de sistemas neuro difusos. Desde que las redes neuronales no pueden igualar a los sistemas desconocidos no lineales exactamente. La estabilidad de algoritmos de aprendizaje pueden ser derivados por el análisis de la identificación o error de seguimiento de las redes neuronales. [39]. donde las dos tecnologías son incluidos para realizar una común tarea. . La existencia de un controlador difuso para el sistema no lineal puede ser estabilizado con la teoría de lógica difusa. Las redes de alto orden y las redes multicapas se encuentran en [37]. El análisis de Lyapunov es apropiado para redes neuronales dinámicas. algunas modificaciones robustas [21] deberían ser aplicados en el gradiente normal o en los algoritmos de retroalimentación [36].2 Introducción Los primeros dos sistemas representan a favor combinaciones. Las redes neuronales recurrentes han sido estudiados durante las últimas décadas. Para el diseño es muy importante asegurar la teoría de estabilidad antes de que estos sistemas quieran aplicarse a controladores neuro difuso a sistemas reales. Estos modelos libres se aproximan usando una característica de las redes neuronales y sistemas difusos. [38]. La idea básica de estos métodos es diseñar un controlador de retroalimentación o retropropagación (BP) de cada modelo local y la construcción de un controlador global del controlador local de tal manera que la estabilidad global de un sistema de control difuso en lazo cerrado sea garantizado.

La dinámica del no modelado lleva la tendencia de los parámetros al igual que el problema de estabilidad.1 Motivación 3 1.1. se analiza el modelado difuso para identificación de sistemas dinámicos en particular se describe un nuevo modelo difuso de una red neuronal difusa dinámica (DFNN). La propuesta del modelo dinámico. Comparando con la función. 1. En artículos publicados por [6]. consta de reglas recurrentes Takagi Sugeno Kang (TSK).2. En general las redes neuronales difusas no pueden igualar a los sistemas no lineales. así como el análisis de redes neuronales recurrentes difusas para sistemas no lineales de control. Objetivos 1. mientras las siguientes partes de la reglas difusas son redes neuronales recurrentes con la retroalimentación interior y la sinapsis de retraso de tiempo. El objetivo de esta tesis es abordar el modelo neuronal difuso para identificación y control. estas llevan a series estáticos. Algunas modificaciones robustas han sido incluidos en orden para garantizar la estabilidad de Lyapunov. es aplicado a acceso de algoritmos de entrenamiento robusto en redes neuronales difusas. basado en el concepto de restringir la optimización. el método de optimización restringiendo la dinámica neuronal difuso (D-FUNCOM). para sistemas dinámicos y estáticos con funciones de pertenencia conocidas y funciones de pertenencia desconocidas. Motivación Básicamente la tarea a realizar es un modelo neuronal difuso para sistemas dinámicos de identificación y control utilizando un algoritmo de aprendizaje. sistemas dinámicos y algunos modelos difusos existentes recurrentes. El objetivo principal parte del borrosificador estático. Se propone el análisis del modelado neuronal difuso en esta tesis no necesitan una modificación robusta y esta robustes en alguna inestabilidad acotada. .1. mientras se incluyen procesos de modelado tipo NARMA y el problema de la cancelación de ruido. se aplican a varios problemas temporales. En esta tesis se aproxima la estabilidad entrada a estado. provee con el algoritmo de aprendizaje. La red está entrenada por medio de un nuevo algoritmo de aprendizaje.

como segundo punto se describe la dinámica difusa de redes neuronales. México 1. En el capítulo cuatro se define la dinámica de identificación neuro difuso. takagi sugeno para funciones pertenencia conocidas y funciones pertenencia desconocidas finalmente se presenta la simulación. El aprendizaje de funciones de pertenencia conocidas y funciones de pertenencia desconocidas. Publicaciones Parte de esta tesis se presentó como el artículo titulado "Stable Fuzzy Identification Using Recurrent Fuzzy Neural Networks"en el IASTED International Conference Neural Networks and Computational Intelligence. estructura tipo mandani. Algoritmos de aprendizaje estables para dos modelos. 3. . 1. Control estable adaptable usando sistemas recurrentes neuro difuso.4 Introducción Modelo neuronal difuso recurrente de tipo takagi sugeno kang (TSK). definiendo redes neuronales. 2003. primero redes neuronales dinámicas para sistemas de capa simple y multicapa en redes neuronales recurrentes.4. Estructura de la tesis El presente trabajo consta de seis capítulos donde se expone la importancia del trabajo. posteriormente se presenta la parte de simulación. describiendo la estática en redes neuronales para una red neuronal de capa simple y multicapa así como la estática difusa en redes neuronales describiendo el sistema para la estructura de las redes neuronales del tipo mandani y takagi sugeno kang. En el capítulo tres se describe el sistema estática neuro difuso para la identificación.3. Cancun. 2. En el capítulo dos se presenta la estrategia de identificación para un sistema neuro difuso de identificación y control. Modelo neuronal difuso recurrente de tipo mandani. lógica difusa finalmente neuro difuso.

analizando su estructura difusa neuro control. análisis de estabilidad difusa neuro control con y sin funciones pertenencia de aprendizaje. también se tiene la parte de la simulación en donde se comparan tres métodos diferentes Chen. así mismo se presentan propuestas para futuros trabajos. Narendra y Wen. .1. Finalmente en el capitulo seis se presentan las conclusiones generales del trabajo.4 Estructura de la tesis 5 En el capítulo cinco se hace el análisis del sistema de redes neuronales difusas dinámicas para sistemas no lineales de control adaptable.

6 Introducción .

es decir la necesidad de controlar bajo incertidumbre. la necesidad de cumplir con la creciente demanda de nuevos modelos de control y la necesidad de obtener esos modelos con el menor conocimiento de la planta y el medio ambiente.Capítulo 2 Neuro difuso identificación y control 2.1. El uso de las RN en control puede verse como un paso natural en la evolución de la teoría de control. En este momento. la comunidad de control ha puesto su atención en las RN y se pregunta si pueden ser usadas para obtener mejores soluciones para viejos problemas o quizá soluciones a problemas que se han resistido a nuestros mejores esfuerzos. los cuales son cualidades necesarias cuando se desea un sistema con autonomía. y por lo tanto la necesidad de nuevos métodos es obvia. La necesidad de controlar sistemas dinámicos complejos bajo incertidumbre ha conducido a la revaluación de los métodos convencionales de control. En vista a esto. no es de sorprender . Esto también ha conducido a un concepto mas general de control. al menos para algunos problemas. uno que incluye decisión. Redes neuronales La creciente demanda en tecnología de nuestra sociedad requiere nuevos enfoques para los problemas actuales de control. Viendo hacia atrás la evolución del control se ha visto motivada por tres aspectos fundamentales: la necesidad de tratar con sistemas complejos. Las Redes Neuronales (RN) con su masivo paralelismo y su capacidad para aprender prometen mejores soluciones. planeación y aprendizaje.

y por ejemplo en el siglo III se diseño un reloj de agua con un mecanismo de retroalimentación. Las RN pueden operar con datos de forma cuantitativa así como de forma cualitativa. Respecto a este tema métodos para el diseño de . Esto en conjunción con una implementación en paralelo resulta en un procesamiento muy rápido. La capacidad de aprendizaje y de generalización de las RN las convierte en una herramienta poderosa principalmente en sistemas variantes además de su capacidad de adaptación en línea. El reto es entonces encontrar el mejor camino para utilizar completamente esta nueva poderosa herramienta en control. como lo han sido inventos tales como la máquina de escribir eléctrica entre otros.8 Neuro difuso identificación y control que la comunidad de control este muy activa buscando nuevas ideas para resolver de forma efectiva los problemas de control de la sociedad moderna. Las RN pueden procesar muchas entradas y también muchas salidas. si no promueven su utilidad. La necesidad es la madre de la invención. Los elementos básicos de procesamiento en una RN tienen una estructura simple. Las RN pueden ser rechazadas y ser solo producto de la moda. Es claro que las RN pueden ser aceptadas y usadas si ellas resuelven problemas que han sido previamente imposible o muy difícil de resolver. y en control no ha sido la excepción. el primer artefacto con retroalimentación en la historia. por lo tanto son altamente aplicables en sistemas multivariables. Al referirnos a RN en control es importante dar las características y propiedades más significativas de las RN: Las RN poseen una gran habilidad para la aproximación de funciones. Desde el punto de vista de control la habilidad de las RN para tratar con sistemas no lineales es un punto muy significativo. Así el uso de las RN en control es un paso bastante natural en su evolución. Las RN parecen ofrecer un mejor entendimiento y quizás la solución de algunos de los problemas de control mas difíciles.

1. Esta área ha producido muchos resultados teóricos en los últimos 20 años. . Otra área en control es la teoría de control adaptable.1).1) donde: ui . los pesos sinápticos wi ∈ <. n son las entradas a la neurona. .1. puede también alterar el comportamiento de total de la red para alcanzar la relación de entrada salida deseada.. Para nuestro propósito una Red Neuronal (RN) la definimos como un aproximador no lineal de funciones compuesto como dijimos anteriormente de neuronas.. esta es: y(k) = ϕ(v(k))... una arquitectura que es (2. El primer modelo matemático de una neurona biológica fue dado por Mc Culloch y Pitt [8] y es el siguiente: y = ϕ( n X wi u i ) i=0 (2. un operador matemático de suma y función de activación. Ajustando los pesos de un elemento se puede cambiar el comportamiento del mismo y. i = 1. Este último proceso es conocido como entrenamiento de la red. u0 es la entrada al umbral e y es la salida de la neurona. Lapedes Farber mostró. 2. La neurona La neurona o elemento de procesamiento a su vez están constituidas de: vector de entrada. Autores como Widrow (et. pesos.. al. 2. Figura (2.2.. n X v(k) = wi ui (k) i=0 requiera. 2. i = 1.2) . ϕ(. organizadas en una topología específica que utiliza una ley de aprendizaje para mejorar su desempeño. por lo tanto cuando estamos tratando con sistemas no lineales variantes en el tiempo los cuales son bastante mas complejos las RN son una buena opción. sin embargo es solo relativo a la teoría de sistemas lineales. umbral. Cada elemento de procesamiento tiene un número de pesos sinápticos o simplemente pesos.) [7] definen una red neuronal como un sistema con entradas y salidas que está compuesta de muchos elementos de procesamiento similares. n cambian su valor según se básicamente la misma que la de Mc Culloch y Pitt.1 Redes neuronales 9 controles no lineales que incluyen métodos teórico-prácticos y optimización juegan un rol importante y una posibilidad es el uso de RN para obtener sistemas de control no lineales.) es la función de activación. por lo tanto.

u2 .. . Pesos sinápticos Al ser capturados los datos de entrada estos son propagados a través de la red. w y u son definidas como en el párrafo anterior. esta n generalmente se le conoce .10 wi0 =θi (bias) u0=+1 u1 u2 wi0 wi1 wi2 Neuro difuso identificación y control Entradas Σ vi Función de activación ϕ(. según sea el caso.. ϕ.1: Modelo de una neurona donde y. para esta situación las entradas generan una matriz E ∈ <nxm donde m es la dimensión del como número de iteraciones. es la variable del tiempo. A continuación se da una descripción de cada uno de los elementos Vector de entrada Es denotado por U . um ) donde m es el número de entradas a la RN y a su vez la dimensión de U . continuo o discreto. donde k ∈ K ⊂ <. k es la variable de tiempo. este vector U son los datos con los que va operar la neurona. en el proceso de propagación cada componente ui del vector de entrada U es multiplicada por una vector de entradas y n es la dimensión del subespacio K. Cabe hacer notar que si estamos hablando de identificación de funciones o control de sistemas U = U (k).. U = (u1 . ya sea.) Salida yi Operador Suma um wim Pesos Sinápticos Figura 2. estas pueden ser dadas del medio ambiente o ser salidas de neuronas anteriores.

Saturación o Escalón cumplen las condiciones del teorema y son utilizadas como funciones de activación. la operación aquí descrita constituyen una (2. Función Escalón: Para este tipo de función de activación tenemos que: ( 1 si v ≥ 0 ϕ(v) = −1 si v < 0 (2. define la salida de la neurona en términos del CLI vi . la razón de ser de la función de activación es la de proporcionar un comportamiento no lineal a la red y así poder aproximar funciones de todo tipo. El umbral Denotado por θi es simplemente un peso mas. es decir: X vi = ui wij − θi i La función de activación Denotada por ϕ(·). el escalón como veremos mas adelante tiene una gran aplicación en reconocimiento de patrones. Las tres primeras funciones son aptas para nuestro propósito.1 Redes neuronales 11 variable wij .4) . el teorema universal de aproximación de funciones [9] da condiciones para determinar si una función ϕ. a wij se le conoce como peso sináptico o simplemente peso. el conjunto de pesos genera una matriz W . el umbral nos sirve para trasladar el punto de equilibrio de la RN. Cuando se habla de que una red es capaz de aprender se refiere al hecho de poder modificar sus pesos wij . es decir. posteriormente puede haber una convergencia y entonces estar fijos. pero a diferencia de estos el umbral tiene una entrada fija de (-1). En el contexto en que usaremos las RN. Tangente Hiperbólica. ¯ ¯ Operador de suma Realiza la adición de los productos ui ∗ wij . es una función de activación.3) combinación lineal generando un campo local inducido (CLI) vi . estos pesos no tienen el mismo valor siempre sino que se van modificando según se requiera para tener un mejor desempeño. Sin embargo en el sentido en el que estamos tratando las Redes Neuronales. la cual aumenta o atenúa la señal de entrada. del origen x = 0 a un punto x 6= 0. wij es la ij-ésima componente de la matriz de pesos W. en [9] es definida como una función para limitar la amplitud de la salida neuronal.2. La función Sigmoide.

No existen conexiones hacia atrás y normalmente tampoco autorrecurrentes. (RNFF) y Redes Recurrentes (RNR) o Redes Dinámicas.5) donde a es un parámetro que define la pendiente de la función sigmoide.12 donde v es el CLI. sigmoide así como la tangente hiperbólica son mostradas en la Figura (2. pero su valor puede variar según sea requerido en las tareas de identificación y control.7) donde a es como antes. Las funciones escalón.6) Función Saturación (Sat): Esta definida por la siguiente ecuación:   c si v ≥ +1   ϕ(v) = v si + 1 > v > −1    −c si v ≤ −1 (2. Topología de la red neuronal (RN) Es la forma en que se organizan las neuronas en una RN y existen dos tipos fundamentales Redes Estáticas (Feed Forward). saturación. Función Tangente Hiperbólica (Tansig): Al igual que la sigmoide es una de las principales funciones en la construcción de las RN especialmente como es mencionado en tareas de identificación y control: ϕ(v) = 1 − exp(av) 1 + exp(−av) (2.2. En las RNFF. Neuro difuso identificación y control donde el factor de amplificación c es generalmente tomado como 1.1. Función Sigmoide (Sigm): Es de hecho la función más común en la construcción de RN. un parámetro.2). Esta es definida como una función estrictamente creciente que exhibe un balance entre una conducta lineal y no lineal y es definida por: ϕ(v) = 1 1 + exp(−av) (2. . 2. ni laterales y son especialmente útiles en tareas de reconocimiento o clasificación de patrones [10]. todas las señales neuronales se propagan hacia adelante.

existen conexiones hacia adelante y retroalimentaciones. mecanismos . En este trabajo de tesis utilizaremos una red híbrida que posee las dos características pero asociada principalmente con las RNR.2. La lógica difusa se utiliza en un amplio rango de aplicaciones como: Controladores de lavadoras. video cámaras. [12]. surgieron las aplicaciones reales. Lógica difusa En los años 60’s fue el comienzo de la teoría de la lógica difusa. lo más fundamental de la teoría de lógica difusa fue propuesto por Zadeh en los 60’s y cerca de los 70’s. esto fue debido por Lotfi A. después el propuso los algoritmos difusos en 1968. Zadeh in 1965 con su publicación de ”conjuntos difusos”. en los 70’s la teoría continuo creciendo. es justo decir que la teoría difuso establecida como el campo independiente el gran parte debido a la dedicación y notablemente al trabajo de Zadeh. sistemas de aire acondicionado. b) Saturación c) Sigmoide d) Tangente hiperbólica Las RNR son aquellas donde la información circula tanto hacia adelante como hacia atrás durante el funcionamiento de la red. Para que esto sea posible. [10]. 2.2.2 Lógica difusa 13 Figura 2.2: a) Escalón.

de la misma manera al combinar dos o más subconjuntos mediante algunas operaciones. Estas operaciones pueden expresarse de la siguiente manera en términos de funciones de pertenencia de los conjuntos difusos A y B. sistemas de control de mini submarinos. 2. así se introduce el concepto de lógica difusa determinado a un valor lingüístico. De esta manera. se obtendrá otro conjunto. añadiendo una función de pertenencia al conjunto. su conjunto asociado de pertenencia. esta situación puede describirse asignando un 1 a todos los elementos incluidos en el conjunto y un 0 a los no incluidos. 1].14 Neuro difuso identificación y control de control. Sean los subconjuntos difusos identificados por las etiquetas A y B. definida ésta como un número real entre 0 y 1. por ejemplo. Hablando ya en términos más rigurosos.2. la teoría de lógica difusa parte de la teoría clásica de conjuntos. entonces se pueden definir tres operaciones básicas: complemento unión e intersección.1. La lógica difusa permite tratar información imprecisa. A la función que asigna estos valores se llama función de inclusión o pertenencia (membership funtion). por grupos que producen uno o varios valores de salida. en términos de conjuntos difusos veremos que estos conjuntos se combinan en reglas para definir acciones. Si se considera a un conjunto difuso A ∈ U. Sea U un conjunto cualquiera y M = [0. que indica el grado en el cual la variable t está incluida en el concepto que esta representado por la etiqueta A. los sistemas de control basados en lógica difusa combinan una variable de entrada (definidos en términos de conjuntos difusos). o bien pueden realizarse operaciones entre ellos. Para cada conjunto o subconjunto difuso se define una función de pertenencia o inclusión µA (t) . asociados a una variable linguistica x. entonces el complemento de A será: . A los subconjuntos difusos se les puede aplicar determinados operadores. controladores del metro así como horno de microondas. si la temperatura es alta entonces enfría mucho. Al aplicar un operador sobre un sólo conjunto difuso se obtiene otro conjunto difuso. Conjuntos difusos Recordando el ejemplo de las personas.

El borrosificador tiene el efecto de transformar los datos medidos alterados. ∀x ∈ U.2. donde ∧ Es importante resaltar que el funcionamiento de estas operaciones básicas coincide con los correspondientes a los de la teoría clásica de conjuntos. A ∈ U y B ∈ U. su conjunto asociado de pertenencia.2 Lógica difusa Complemento µA − (x) = 1 − µA (x) ¯ ∀x ∈ U 15 Sea U un conjunto cualquiera y M = [0.3). El cual se compone de cuatro principales componentes: un borrosificador. µB (x)] ≡ µA (x) ∧ µB (x) ın indica la operación mínima. se define como: Intersección µA∩B (x) = m´ [µA (x) . La intersección difusa de dos conjuntos difusos. . una regla difusa base. su conjunto asociado de pertenencia. 1].8) µA − (x) = 1 − µA (x) ¯ La arquitectura típica de un control difuso lógico (FCL) se muestra en la Figura (2. se define como: Unión µA∪B (x) = m´x [µA (x) . ∀x ∈ U. A ∈ U y B ∈ U. En la salida del desborrosificador no hay una acción de control para una planta. donde ∨ indica Sea U un conjunto cualquiera y M = [0. 1]. µB (x)] ≡ µA (x) ∨ µB (x) a la operación máxima. La unión difusa de dos conjuntos difusos. µB (x)] µNorma(A) (x) = µA (x) m´x[µA (x)] a µConc(A) (x) = (µA (x))2 µDilat(A) (x) = (µA (x))0. Operaciones entre conjuntos difusos Operaci´n o Igualdad Unión Intersección Complemento Norma Concentración Dilatación µA (x) = µB (x) µA∪B (x) = m´x [µA (x) . µB (x)] a ın µA∩B (x) = m´ [µA (x) .5 Rango ∀x ∈ U ∀x ∈ U x∈U x∈U x∈U x∈U x∈U (2. entonces el sistema es un sistema de decisión de lógica difusa. una maquina de inferencia (Inference Engine) y un desborrosificador (defuzzifier).

. con una función de pertenencia µA (x0 ) . de modo que µA (x) = 1. que se caracteriza por tratarse de un razonamiento de tipo aproximado. (x0 = x) . De esta forma. y µA (x0 ) = 0. Borrosificador singleton.2. .16 Neuro difuso identificación y control x Fuzzifier µ (x ) Motor Maquina de Consecuencia Inferencia µ (y) Defuzzifier y Planta x Estados o Salidas Base Base Regla difusa Regla difusa Figura 2. Borrosificador (Fuzzifier) A continuación de enuncian algunas definiciones necesarias: Inferencia borrosa también como en el caso de la lógica clasica.. pero a diferencia de ésta.. los conjuntos borrosos también representan predicados en la lógica proposicional. . Se pueden utilizar diversas estrategias de borrosificación. El objeto de la lógica borrosa es proporcionar un soporte formal al razonamiento basado en el lenguaje natural. los valores de las proposiciones pueden tomar valores intermedios entre verdadero y falso.3: Arquitectura básica de un controlador de lógica difusa (FLC) 2. la borrosa se ocupa del razonamiento formal con proposiciones. que hace uso de unas proposiciones que a su vez expresan información de carácter impreciso. xn )T . Borrosificador esto establece una relación entre puntos de entrada no borrosos al sistema x = (x1 . y sus correspondientes conjuntos borrosos A en U. Es el método de borrosificación más utilizado.2. principalmente en sistemas de control consiste en considerar los valores propios discretos como conjuntos borrosos. De otra manera para cada valor de entrada x se define un conjunto A0 que lo soporta.

11) . esta definido como: y = arg sup (µB0 (y)) y∈V (2. acordándose de aproximar por razón de la teoría a producir un mapeo del conjunto difuso en la entrada del espacio U a el conjunto difuso en la salida del espacio V .10) es decir. Desborrosificador (Defuzzifier) Se llaman dispositivos de inferencia borrosa a los sistemas que interpretan las reglas de tipo IF . centrada en el valor x de entrada.THEN de una base de reglas. Para esto se utilizan diversos métodos. la base de la regla difusa (fuzzy inference engine).2. el cual es una parte vital de un sistema de lógica difusa (FLS). El conjunto de declaraciones consta de una regla base difusa. como se observa en la Figura siguiente (2. El borrosificador (fuzzifier). Desborrosificador es la función que transforma un conjunto borroso en V .. del tipo siguiente: 17 Borrosificador no singleton. combina las declaraciones de la regla base.3. Desborrosificador por máximo. mapea en conjunto de entradas difusa en la entrada del espacio y el desborrosificador (defuzzifier).9) σ Función con forma de campana..2 Lógica difusa para todos los otros x0 ∈ U en los que x0 6= x.2. de anchura σ y amplitud a. µ 2. con el fin de obtener los valores de salida a partir de los actuales valores de las variables lingüísticas de entrada al sistema. en un valor no borroso y ∈ V. y es el punto de V en que µG0 (y) alcanza su valor máximo. donde µB 0 (y) está definido según la ecuación ˙ ˙ µB0 (y) = µB 1 (y) +.+µB M (y) (2.4). normalmente la salida de un dispositivo de inferencia borrosa. mapea agregando la salida del conjunto difuso una simple punto en la cresta de la salida en el espacio. Este método de borrosificador utiliza una función exponencial 0 ¶ x0 − x µA0 (x ) = a ∗ exp[− ] (2.

(2.4: Estructura se un sistema de lógica difusa Desborrosificador por medida de centros. y) ∗ µA0 (x) l l (2.. de la manera siguiente ¡ ¢¢ PM 1 ¡ ¯ µB 0 y l ¯ l=1 y y = PM yl l=1 (µB 0 (¯ )) (2.. y µB0 (y) esta definido como: h i µB0 (y) = supx∈U µF1 x.12) donde y 1 representa el centro del conjunto fuzzifier Gl ( definido como el punto de V en el ¯ que µGl (y) alcanza su valor máximo ).13) Desborrosificador por centro de área. Al es el área. [11]. y µB 0 (y) está definida como la . de la función de inclusión del conjunto borroso Gl .Fn →Gl (x.13). definido como. ¡ ¡ l ¢¢ ¡ l ¢2 ¡ ¡ ¢¢ PM PM R l l ¯ ¯ dyM l µB 0 y l ¯ l=1 M µB 0 y l=1 V µB 0 y y = PM = PM R l (µ 0 (¯l )) l ) dy y B y l=1 A l=1 V µB 0 (¯ ecuación (2.14) donde M l es el momento (entorno al eje y del universo de discurso de la salida V ).18 Neuro difuso identificación y control BASE DE LA REGLA DIFUSA FUZZIFIER ENTRADA EN ( U ) DEFUZZIFIER SALIDA ( EN V ) DEDUCCION DIFUSA DEL ( CONJUNTO DIFUISO EN U ) PROCESADOR ( CONJUNTO DIFUISO EN V ) Figura 2.

Los juegos difuso les permiten a los miembros ser bien. 2. grande. representa la salida del sistema difuso. Este conjunto parcial habilita. caliente.3 Neuro difuso (Neurofuzzy) f 19 = µ = exp (L Xi ) f =a b Capa 3 Capa 2 y1 Z1 yM ZM Capa 1 X1 Xn Figura 2.2. . pequeño.5). es que los sistemas difusos son especialistas en la construcción y los sistemas neurofuzzy son entrenados de datos. La diferencia primaria entre los sistemas difuso y neurofuzzy. Estas operaciones de tres etapas se muestra como la Figura siguiente con tres capas de la red de retroalimentación (feedforward). caluroso. La lógica difusa usa las condiciones del idioma naturales como: frío. medio.3. es calculado como f (x) = a/b. representándose en términos lingüísticos la relación de entradas del sistema a sus salidas. Tales condiciones no son precisas y no pueden representarse en la teoría normal del juego.5: Representación de la red de un sistema difuso con una red neuronal de tres capas La Figura (2. la función parcial de pertenencia como el número de miembros multifijo normal. Neuro difuso (Neurofuzzy) El conjunto difuso o neurofuzzy son sistemas que usan lógica difusa que se comprende de juegos difusos y las reglas difusas que es combinando los datos numéricos y lingüísticos. Aunque el software permite usar una combinación de los dos acercamientos interactivamente. Las reglas de lógica difusa se usan en sistemas difusos y neuro difuso.

20

Neuro difuso identificación y control

2.3.1.

Estática y dinámica en sistemas difusos

Uno de los más importantes conceptos de propiedades de sistemas dinámicos es la estabilidad, sin embargo es difícil analizar la estabilidad de sistemas no lineales nos gustaría que los sistemas difusos y las RN, como a continuación se dice que el análisis de estabilidad de sistemas de controles difusos, el control difuso ha sido exitosamente aplicado en muchas aplicaciones industriales practicas, varias metodologías existentes para el análisis de estabilidad para sistemas de control difuso fueron analizados por: [Mamdami, 1976; Kickert and Mamdami, 1978; Tong, Chen 1989]. Ri : Si x es Ai & y es Bi , entonces z = ai + ai x + ... ai y 0 1 n (2.15)

Donde x, y son variables lingüísticas estas representan la distancia y orientación en relación a las cotas de la orientación, z es el próximo que sigue el ángulo decidido por el ith regla de control, y ai , ai son los parámetros de entrada en el proceso de la identificación. La identifi0 n cación se hace optimizando un mínimo cuadrados desempeñando el índice como un método de regresión lineal con pesos (Un algoritmo recursivo es el algoritmo de mínimos cuadrados) [Tong, 1978a; Takagi y Sugeno, 1983, 1985; Sugeno y Kang, 1986,1988]. Sumando el modelado de una acción de operador, este método es también usando el modelo (Identificación) controlando el proceso recordando sus datos entradas - salidas, el cual incluye parámetros de aprendizaje como la estructura de aprendizaje [Sugeno y Tanaka, 1991]. Estos son llamados reglas de control lingüísticas aproximándose al modelado difuso o identificación difusa. El modelo Takagi y Sugeno tiene la siguiente forma: Li : Si x(k) es Ai & ... & x (k − n + 1) es Ai 1 n Entonces xi (k + 1) = ai + ai x (k) + ... ai x (k − n + 1) 0 1 n +bi u (k) + ... bi u (k − m + 1) 1 m
i i & u (k) es B1 & ... & u (k − m + 1) es Bm

(2.16)

donde x (·) es la variable de estado, xi (k + 1) es la salida de la regla Li , u (·) es la variable de entrada

2.3 Neuro difuso (Neurofuzzy)

21

2.3.2.

Comparaciones generales de sistemas difuso y redes neuronales

Los sistemas Difusos y las RN (Redes Neuronales), ambos son estimados modelos numéricos y sistemas dinámicos. Estos comparten la capacidad de mejorar la inteligencia del sistema trabajando en un indeterminado, impreciso, y el ruido del medio ambiente. Los sistemas difuso y las RN calculan ejemplos de funciones y se comportan tal como memorias asociadas. Ambos tienen una ventaja en lo tradicional de la estimación estadística y en la aproximación del control adaptable de una función estimación. Estos estiman una función sin necesidad de una descripción de la función matemática de donde la salida de la funcionalidad depende en la entrada; que ellos aprenden de ejemplos numéricos, la lógica difusa y la aproximación de neuronas son numéricamente por naturaleza. A pesar de que los sistemas difusos y las RN son de forma similar, hay significantes diferencias entre estos. Estos difieren de la manera en que ellos estiman las funciones probadas, representan y dar un reconocimiento de la estructura, y asociativamente la deducción o mapeo de entradas y salidas. Las RN tienen un grande numero favorablemente de elementos a procesar (nodos), el cual demuestra la habilidad de aprendizaje y generalización de patrones de entrenamiento [14], los sistemas difusos la base de sus decisiones de su entrada en la forma linguistica las variables se derivan de funciones el cual son formulas usadas para determinar el conjunto difuso el cual el valor pertenece y el grado de la función esta en el conjunto. Las variables entonces se igualan con las precondiciones de la regla lingüísticas Si Entonces (IF - THEN) (regla de lógica difusa), la respuesta de cada regla se obtiene a través de una implicación difusa. Básicamente los sistemas difuso estiman funciones con conjuntos difusos por ejemplo (Ai , Bi ), mientras las RN usan puntos numéricos por ejemplo (xi , yi ) , en una RN xi quizá representa los píxeles que hagan una imagen, mientras que yi quizá representan una clasificación de un vector, en una RN xi , yi dependiendo de sus entradas y salidas pueden aprender de un mapeo ajustando sus pesos, por otra parte los conjuntos difusos si Ai se caracteriza

22

Neuro difuso identificación y control

el estado de un factor y Bi la posibilidad de la presencia o ausencia de varios rupturas en el factor, entonces la reglas difusas y la deducción se usaron para determinar la probabilidad que uno de estas rupturas quizá se represente por una función de Ai . Opción de sistemas difusos o RN. Se entiende que una RN y la lógica difusa se usan cuando uno o mas variables de estado son continuos y cuando un modelo matemático del proceso no existe o existe pero es tan difícil integrar es decir es tan complejo ser evaluado rápidamente para una operación en tiempo real. Entonces necesitamos encontrar cual método es el mejor y cuando debe ser usado, la teoría de las RN, conjuntos difusos y lógica difusa como desarrollando son sistemas abstractos que no hacen extensa demanda con respecto a biológicas o psicológico recomendables. Introducimos el teorema de estabilidad para sistemas difusos que proveer una condición suficiente que garantiza la estabilidad de un sistema difuso acordándose de la definición de estabilidad en el sentido de Lyapunov.

2.4.

La estabilidad de la entrada a estado (ISS) y funciones de Lyapunov ISS

En esta sección estudiamos ISS, para sistemas no lineales en tiempo discreto, esto fue propuesto inicialmente por Sontang (1989, 1990), la estabilidad de la entrada a estado es otra elegante aproximación para analizar la estabilidad además el método de Lyapunov. Puede llevar a las conclusiones generales en la estabilidad usando la entrada y las características del estado, entendiendo las dependencias de las trayectoria de estados en magnitud de entrada para sistemas del tipo:. Considere el sistema no lineal de tiempo discreto siguiente: x(k + 1) = f [x(k), u(k)] y(k) = h[x(k)] dónde u(k) ∈ Rm es el vector de entrada , x(k) ∈ Rn un vector de estado, y Y (k) ∈ Rm es (2.17)

∀s ∈ Rn α4 ku(k)k . h ∈ C ∞ . el sup {ku (k)k} < ∞. tal que para cada u ∈ L∞ . y cada estado inicial xo ∈ Rn .2. (b) Ahí existe una función k∞ α3 (·) y una función k α4 (·) tal que Vk+1 −Vk ≤ −α3 (kx(k)k)+ sk →∞ Teorema 2. u(k) ∈ Rm . se dice que es globalmente estable entrada estado ISS si ahí existe una función k γ (·) ( continuo y estrictamente creciente si γ (0) = 0 ) y una función k$ β (·) (función k y el lim β (sk ) = 0). Es estable y robusto. el comportamiento del sistema. u (k))k ≤ sk →∞ Definición 2. Propiedad 2. f .17). xo . kk) + γ (u (k)) . si: (a) existe un función k∞ (función k∞ y el lim αi (sk ) = ∞) α1 (·) y α2 (·) son tal que: α1 (s) ≤ V (s) ≤ α2 (s). Es la estabilidad de entrada a estado (ISS). 1.2 Una función continua V : Rn → R ≥ 0 se llama una función suave de Lyaponov ISS del sistema (2. lo siguiente es equivalente [23]. entonces β (kxo .3 Para un sistema no lineal de tiempo discreto ecuación (2. esto dice que kx (k.17). permanece acotado cuando sus entradas son acotadas.4 Si un sistema no lineal es estable entrada a estado. 2. el comportamiento del sistema. la salida del vector f y h son generalmente funciones suaves no lineales. De las Definición 2.1 El sistema (2. Admite una función suave de Lyapunov ISS Si un sistema no lineal es estable entrada a estado. .17).4 La estabilidad de la entrada a estado (ISS) y funciones de Lyapunov ISS 23 siguientes definiciones tenemos que. 3. ∀x(k) ∈ Rn . permanece acotado cuando sus entradas son acotadas.

24 Neuro difuso identificación y control .

Concluimos que la ley descendiente del gradiente normal dependiente con una proporción de aprendizaje de tiempo variante es estable en el sentido L∞. Ambas redes neuronales y la lógica difusas son consistentes universales. El modelo dinámico puede ser el primero en llevar la tendencia de los parámetros al igual que el problema de inestabilidad. Estática difusa redes neuronales En general.1. Algunas modificaciones robustas tienen que ser incluidas para garantizar la estabilidad de Lyapunov. El modelado neuronal difuso se aproxima a lo propuesto en este modelo. no necesita ninguna modificación robusta y es robusto en alguna inestabilidad acotada.Capítulo 3 Estática neuro difuso para identificación 3. estos pueden aproximar cualquier función no lineal en alguna exactitud con tal de que las neuronas ocultas suficientes o reglas difusas que están disponibles. Recientemente resultados dicen que la fusión de las dos diferentes tecnologías parece ser muy eficaz para modelar una clase extensamente de sistemas no lineales complejos cuando nosotros no tengamos la información completa de . En este modelo la estabilidad de entrada a estado se aproxima y se aplica para acceder al algoritmo de entrenamiento robusto de redes neuronales difusas. las redes neuronales difusa no se pueden igualar con precisión a los sistemas no lineales.

son siempre usados para conectar los parámetros de funciones del conjunto difuso (fuzzy sets) y los pesos del borrosificador (las redes neuronales). Generalmente tenemos que hacer algunas modificaciones de estos algoritmos por eso estos procesos de aprendizajes son estables. El operador de proyección es muy efectivo para asegurar las cotas de los parámetros para el modelado difuso [33].[17]. [35] aplicando un cambio de modificaciones σ para prevenir la tendencia de parámetros. La técnica de la proyección también se usa por muchos sistemas difusos neuronales [31]. El modelado neuronal difusa esta en el sentido de aproximación de una de caja negra. si el modelo neuronal difuso puede igualar exactamente a la planta no lineal. el aprendizaje del gradiente descendiente normal y la retroalimentación son algoritmos estables. Sin la seguridad del modelo dinámico. [34] B − spline para funciones de conjunto difuso a minimizar la función del objeto robusto. Todas las incertidumbres pueden ser considerando las partes de la caja negra. Se conoce bien que los algoritmos normales de identificación (por ejemplo. Por ejemplo. Las redes neuronales de RBF y la idea dinámica fueron aplicadas en [29]. El algoritmo de retroalimentación (backpropagation. para determinar la estructura y parámetros del sistema neuronal difuso. gradiente y mínimo cuadrado) son estable para condiciones ideales. La baja velocidad de aprendizaje y el mínimo local son principales conflictos del algoritmo de BP [25]. la velocidad de convergencia fue mejorado. La falta de robustez de identificación de parámetros se demostró en [18] y llego a ser un problema directo en 80’s. estos procedimientos adaptables pueden ser fácilmente inestables. BP). [16] propuso un BP robusto que aprende para resistir el efecto del ruido y rechazar los errores a su totalidad durante la aproximación. entonces. Otro método generalizado es usando las técnicas de modificación robustas de control adaptable [21]. antes de que ellos quieran aplicar el modelado a la técnica neuronal difusa a sistemas reales. Varias técnicas de modificación robustas para identificación adaptable se propusieron en [21]. sin la .26 Estática neuro difuso para identificación algún modelo [13]. Algunas modificaciones de aprendizaje del BP se deducen. en modelado de redes difusas. La actualización de los pesos del modelado neuro difuso es una clasificación de identificación de parámetros. Para los ingenieros es muy importante asegurar la estabilidad en la teoría.[14].

ISS se acercan para el sistema neuronal difuso no se ha establecido todavía en la literatura. con tal de que las neuronas ocultas suficientes y las reglas difusas están disponibles. En [24].3. Ambas Redes neuronales y la lógica difusa son los evaluaciones universales.1 Estática difusa redes neuronales 27 dinámica del modelo puede ser considerado dentro del modelo. El algoritmo de aprendizaje es más simple que en [24]. En [29]. los autores propusieron un algoritmo estable y un coeficiente de aprendizaje óptimo sin la modificación robusta. El gradiente descendiente y la retroalimentación son siempre usados para ajustar los parámetros de las funciones de pertenencia (fuzzy sets) y los pesos de los borrosificadores (Redes Neuronales) para redes neuronales difusas. El coeficiente óptimo fue difícil ser encontrado. La lenta convergencia y el mínimo local son principales inconvenientes de estos algoritmos [25]. [16] hacer pensar que la ley de retroalimentación robusta para resistir el efecto del ruido y rechazar los errores durante la tendencia de la aproximación. de tal manera que la búsqueda genética del algoritmo fue usado. Escribiendo resultados muestra que el procedimiento de fusión de estas dos tecnologías diferentes parece ser muy eficaz para la identificación de sistemas no lineales [13]. Por lo tanto las técnicas usadas comúnmente no son necesarias. nosotros también usamos el coeficiente de aprendizaje tiempo variante. La estabilidad de la entrada a estado (ISS) la aproximación se aplica para obtener nuevas leyes de aprendizaje de modelado neuronal difuso. ellos pueden aproximar cualquier función no lineal a alguna corrección. nosotros demostramos ese descenso del gradiente de los algoritmos sin la modificación robusta fueron estables y para algunas inestabilidad acotado para las redes neuronales recurrentes [41] neuro identificación [42]. sus algoritmos pueden mejorar la velocidad de convergencia. Algunas modificaciones fueron derivados en recientes publicaciones. las redes neuronales con funciones radiales básicas (RBF) son aplicados a sistemas difusos. las redes neuronales se aplicaron a sistemas difusos. [14]. un nuevo . [34] usando la función de pertenencia B-spline para minimizar una función robusta. En este modelo nosotros extendemos nuestros resultados anteriores para modelado de redes neuronales difusos. no como las incertidumbres estructuradas. Comparado con [24]. Usando la teoría de pasividad. [17]. pero este coeficiente de aprendizaje puede calcularse directamente de los datos de entrada salida. Para mejorar nuestro conocimiento.

El procedimiento de aprendizaje de las redes neural difusas puede considerarse como un tipo de identificación de parámetros. algunas modificaciones robustas deben aplicarse para asegurar la estabilidad con respecto a las incertidumbres. los autores sugirieron estabilidad y la velocidad de aprendizaje óptimo sin la modificación robusta. Se conoce bien que los algoritmos de identificación normal (por ejemplo. La falta de robustez de la identificación de los parámetros se demostró en [18] y llego a ser un problema directo en los 80’s. Puede considerarse como la aproximación de una caja negra. ISS se aproxima para el sistema neural difuso todavía no se aplicó en la literatura. los algoritmos de gradiente descendiente sin la modificación robusta eran estables y robustos en alguna cota [41]. si los modelos neuronales difusos pueden igualar a las plantas no lineales exactamente. cuando algunas técnicas de la modificación robustas fueron sugeridas [21]. El problema de estabilidad de identificación neural difusa es muy importante en las aplicaciones. Usando la teoría de pasividad. ellos pueden volverse inestables. es decir. La proyección del operador es una herramienta eficaz para garantizar la cota del modelado difuso [24]. hacer en tiempo discreto las redes neuronales difusa tienen características similares. El gradiente descendiente dependiente y algoritmo de retroalimentación son estables. no como las incertidumbres estructuradas. nosotros demostramos con éxito que para tiempo continuo las redes neuronales recurrentes. En la presencia de la dinámica del no modelado. . La identificación neuronal difusa usa datos de entrada salida y estructura del modelo. En [32]. gradiente descendiente de pendiente y mínimos cuadrados) son estable en las condiciones ideales. un algoritmo genético de investigación fue propuesto para encontrar el porcentaje óptimo. No obstante. y difícil de comprender. El mejor conocimiento.28 Estática neuro difuso para identificación acercamiento para determinar la estructura y parámetros de los sistemas neurales difusos fue propuesto. Sin embargo. y para la identificación de tiempo continuo estos fueron también robustamente estables [42]. la dinámica del no modelado está dentro del modelo de la caja negra. Sin embargo el algoritmo es complejo. Todo las incertidumbres pueden ser consideradas como partes de la caja negra. Por consiguiente las técnicas de robusticidad comúnmente usadas no son necesarias. Es también usado por muchos sistemas neurales difusos [31].

El modelo Mandani es mejor para sistemas estáticos. · · · ] = Ψ [X (k)] donde X (k) = [y (k − 1) .in ) : si Ri : si x1 es A1i y x2 es A2i y. predeterminar de algún modo en progreso y aprendiendo a llevar sólo los parámetros a conclusión.. · · · u (k − d) . y (k − 2) .... .4) .1) (3. u (k − 2) . estos modelos permiten saber que una mejor representación para sistemas dinámicos.2) 3. Son considerados dos casos: 1) la proposición pertenencia son supuestamente conocidos.3) (3. y (k − 2) ..1.. · · · u (k − 1) . ym es Bmi ˆ ˆ ³ x1 es (i ) X1 1 ´ y. Estructura tipos mamdani estática difusa redes neuronales Los modelos difusos Mandani y TSK se han usado por mas de dos decadas en el modelado de sistemas en la teoría de control (análisis y diseño).... · · · ]T (3. El modelo Mandani sera una mejor aproximación para sistemas dinámico. El sistema no lineal para identificación y(k) = h [x (k)] = Ψ [y (k − 1) . y 2) la actualización de peso incluye ambos la proposición y los parámetros para concluir.1.1 Estática difusa redes neuronales 29 En esta sección de estabilidad de entrada a estado (ISS) la aproximación se aplica a la identificación del sistema por redes neuronales difusas.3. Los nuevos algoritmos estables con las proporciones de aprendizaje de tiempo variantes se aplica a dos tipos de modelos neuronales difusos.. y xn es ¡ (i Xn n ) ¢ entonces ³ xn+1 es (i1 .. llamados tradicionalmente modelo del tipo Mamdani y modelo de TSK... mientras que el modelo TSk para dinámicos.. El sistema se representa por reglas difusas en la forma siguiente: Modelo mandani R (i1 . .... xn es Ani entonces y1 es B1i y.i ) Xn+1 n ´ (3. u (k − d − 1) .. El trabajo presenta un inovadora interpretación de los modelos difusos Mandani y TSK.

ln de [33] sabemos que. (3. A1i .30 Estática neuro difuso para identificación ∀l = (1.. 2.... Para la variable de entrada xi hay l´ conjunto difusos.. Si definimos φi = n Y j=1 l n XY i=1 j=1 µAji / µAji .... centro promedio y borrosificador singleton. .7)  ˆ Y (k) = [ˆ1 ..5) wpi φi donde µAji .. el kth salida del sistema lógica difusa (3.6) La ecuación (3.. los nodos de entradas y los nodos de salidas se encuentran en la capa I y la capa IV.. l = l1 × l2 ×. son las funciones de pertenencia del conjunto difuso Aj´ y wpi es el punto en el ı cual µBpi = 1. ... wm1 w1l wml     (3. ... φl ]T .. . En el caso ı de una conexión completa. xn ] ∈ Rn a una variable de salida lingüística... ym ]T = Wk =  y ˆ  el vector de datos φ [X (k)] = [φ1 .  w11 . consta de cuatro capas. . n) difuso si entonces las reglas para realizar un vector de un mapeo de entrada difusos estandares [33].8) La arquitectura de una red neuronal difusa FNN ver Figura (3. usando la inferencia del se expresa como: yp = ( ˆ = l X i=1 l X i=1 n l n Y XY wpi [ µAji ]/ [ µAji ]) j=1 i=1 j=1 lingüística X = [x1.1).5) puede ser expresado como parámetros ˆ Y (k) = Wk Φ [X (k)] donde (3. las capas ocultas se forman de nodos de reglas para reglas difusas. Bmi son conjuntos producto.. ..

el pth salida del sistema de lógica difusa puede expresarse como l X¡ ¢ yp = b pi + pi x1 + · · · pi xn φi p0 p1 pn i=1 (3.10) puede ser expresado en la forma del tipo Mamdani (3.7).1 Estática difusa redes neuronales A11 x1 A1l 31 φ1 φ2 w1 ˆ y1 x2 An1 xn Anl ˆ ym wml φl Capa I II III IV Figura 3. Estructura tipos takagi sugeno kang estática difusa redes neuronales Para el modelo neuronal difuso Takagi Sugeno Kang tenemos Ri : si x1 es A1i y x2 es A2i y. + pi xn ˆ j0 j1 jn donde j = 1. b Y (k) = W (k) Φ [x (k)] .. · · · .10) donde φi es definido como en la ecuación (3.6). La ecuación (3..1: Arquitectura de un sistema neuronal difuso 3.3.. m. xn es Ani entonces yj = pi + pi x1 + .9) (3. ...2.1.

generalmente hablando el modelo de construcción por datos de entrada y salida es caracterizado por dos cosas. se expresa por: (3. denotamos la función de pertenencia de un conjunto difuso A como A(x).  1 l p1 · · · pl m0 m0 pm1 · · · pm1 · · · h   p1 · · · pl 1n 1n  .. xk ) (3.. .14) . . .11) Φ [x (k)] = Estructura Takagi Sugeno φ1 · · · φl x1 φ1 · · · x1 φl · · · xn φ1 · · · xn φl iT (3. la implicación difusa R es de la forma: R : es f(x1 es A1 .12) 3.. También se muestra el método de identificación de un sistema usando datos de entrada y salida. . el primero por una herramienta matemática para expresar un modelo de sistemas y el otro es un método de identificación. como sabemos para la identificación de sistemas se divide en dos partes: estructura de identificación y parámetros de identificación. .13) |x es A & y es B| = A(x) ∧ B(y) Formas de implicaciones. entonces la función pertenencia es caracterizado por dos parámetros dando el grado mas alto 1 y el grado menos 0. 10 .  ...  1 l pmn · · · pmn (3. Todos los conjuntos difusos son asociados con funciones lineales. Sistemas de identificación difusa La idea principal es presentar una herramienta matemática para construir un sistema modelo difuso. ..2. El valor verdadero de una proposición ”x es A & y es B”. W (k) =  . x ∈ X. La estructura de implicaciones difusa y algoritmos de razonamientos.32 b b donde Y (k) = [b1 · · · ym ]T y Estática neuro difuso para identificación p1 · · · pl p1 · · · pl ··· 11 11  10 . xk es Ak ) entonces y = g(x1 .

3. . sistema de salida única. El otro es el número de divisiones. Suponemos que construimos un modelo difuso de entrada K − esima x1 .. . Este modelo se llama 1-1.... Proposición de cambio de variables Se propone un algoritmo para el cambio de variables de las variables de entrada considerables. Simultáneamente.... Aquí justamente se lleva a buscar un método descrito en los siguientes pasos.. x3. En general.2 Sistemas de identificación difusa donde y x1 − xk A1 − Ak f g es la variable de respuesta cuyo valor es deducido proposición de variables que muestran en la parte del resultado conjunto difuso con funciones lineales representando un subespacio difuso en el cual la implicación R puede ser aplicado función lógica que conecta la proposición función que implica el valor de y cuando x1 − xk satisface la proposición 33 En la proposición si Ai es igual a Xi para algún i donde Xi es el universo. Uno es el cambio de variables: para elegir una variable en la proposición esto implica que es inciertamente dividido. el modelo 1-i es de la forma . el rango de las otras variables x2 . se refiere que solo x1 aparece en la proposición de la implicación. Si x1 es chico2 entonces . Hay dos problemas interesados con el algoritmo. en el cual se compone de dos implicaciones.. xk y un ´ El rango de x1 se divide en dos subespacios difusos ”grande” y ”pequeño”. xk no son divididas entonces son el modelo 1-2.. . Entonces el modelo consiste de dos implicaciones. El problema completo es una combinación. un modelo en el cual el rango de x2 se divide y el rango de las otras variables x1 . todas las variables de las consecuencias que no siempre aparecen en las proposiciones.. xk no son divididas. Si x1 es grande1 entonces .. Como han sido previamente declaradas.. De esta manera tenemos k modelos. por eso en general ahí al parecer no teóricamente hay una aproximación disponible.

Este paso se llama estado estable.34 Si xi es grandei entonces . implicaciones. Comenzando de un estado estable como el primer paso. ”medio chico” y ”chico”. . El cambio de variables en la proposición se muestra en la Figura (3. La búsqueda se detiene si cualquiera de los siguientes criterios se satisfacen. ”medio grande”. ejemplo ”grande”. el rango de xi se divide en cuatro subespacios.. El modelo óptimo con el mínimo índice de desempeño se aprueba fuera del modelo k. se dice que el modelo 1-i... 2) El número de implicaciones de un estado estable excede los números predeterminados. Estática neuro difuso para identificación Para cada modelo los parámetros de la proposición óptima y parámetros de consecuencia son encontrados por el algoritmo que se describe en la sección previa. Si xi es chicoi entonces .2)... donde solo la variable xi se muestra en la proposición. Encontramos de nuevo un modelo con el mínimo índice de proposición Para la combinación de xi − xi .. toma todas las combinaciones de xi − xj (j = 1. k) y divide el rango de cada variable en dos subespacios difusos. 1) El índice de la proposición de estado estable llega a ser menos que el valor predeterminado. . por Repitiendo el paso 3 simultáneamente de manera de poner otra variable dentro de la proposición.. Entonces se obtiene el modelo k el cual cada modelo se llama 2 − j. Entonces cada modelo consiste de 2 × 2 como el paso 2 que también se llama un estado estable en este paso. 2.

7).1. de B1i · · · Bmi ( los pesos entre las capas III y IV como se muestran en la Figura (3. tal b que la salida Y (k) de la red neuronal difusa (3.4) y (3.. 3.1)). entonces usaremos el modelado del error e(k) para entrenar las redes neuronales difusas ˆ la ecuación (3.15) El modelado neuronal difuso discutido en este modelo es un tipo de identificación en línea. Suponemos que las funciones pertenencia n n l Q PQ Ali .3 Sistemas de identificación difusa neuronal Estado 3 35 xi − x j − x1 Estable Estado 2 x1 − xi xi − x j Estable xi − xk xi Estado 1 x1 x2 Inicio Estable xk Figura 3. sigue la salida Y (k) de la planta no lineal El error de identificación se define como: ˆ e(K) = Y (K) − Y (K) (3. Sistemas de identificación difusa neuronal Funciones pertenencia conocidas Cuando tenemos alguna información anterior de la planta a identificar.. [35]. [29].3. El objetivo del modelado de la neurona difusa es encontrar valores del centro (3. .3. podemos construir reglas difusas como en las ecuaciones (3.9).1)..3. entonces φi = µAji / µAji se conoce j=1 i=1 j=1 [16]. Ani son dados por conocimiento anterior.2: Selección de variables de proposición 3.7) en línea tal que Y (k) puede aproximarse a Y (k). según las teorías de .

el siguiente algoritmo de descenso de gradiente con una proporción de aprendizaje de tiempo variante se puede hacer la identificación del error acotado e(k) . nosotros solo queremos forzar la salida de las redes neuronales para seguir la salida de la planta. 0 < η ≤ 1.17) η .18) 1 J = l´ sup T ΣT e2 (k) ≤ µ ım ¯ k=1 N T →∞ (3. ¯ a k Demostración.19) donde µ = m´x[µ2 (k)]. el proceso de identificación no lineal la ecuación (3.7). Así nosotros no podemos hacer que los parámetros de convergencia neuronales difusas a sus valores óptimos. ¯ .1).16) donde W ∗ son los pesos desconocidos que pueden minimizar el no modelado dinámico µ(k). el modelado de la planta no lineal de la ecuación (3.2 Porque el modelo neuronal difuso no puede igualar los sistemas no lineales exactamente.1 Si nosotros asumimos que las redes neuronales difusas la ecuación (3.36 Estática neuro difuso para identificación aproximación de la función de lógica difusa [24] y las redes neuronales [9].1) se puede representar como: Y (k) = W ∗ Φ[X(k)] − µ(k) (3. la ecuación (3.19) las muestras de la identificación normalizado del error convergerá al radio de la bola µ. El error de identificación normalizado satisface el 1 + kφ[X(k)k2 siguiente promedio de desempeño e2 (k) N e2 (k) = 1 + m´x(kφ[X(k)]k2 ) a k (3. [43] Propiedad 3. W (k + 1) = W (k) − η k e(k)ΦT [X(k)] donde η k = (3. Aunque los valores de los pesos no pueden converger a sus valores óptimos. Teorema 3.

hacer que la identificación del error e (k) sea acotado. Ahora el objeto del modelado pertenencia A1i · · · Ani . [32]).4) seleccionamos Aji .21) η . de la neurona difusa es encontrar valores centrales de B1i · · · Bmi . a a k k (3. [34]. 0 < η ≤ 1. El promedio de la identificación del error 1 + kZk + 2 kDz k2 T 1X 2 η J = l´ sup ım e (k) ≤ ζ π T →∞ T k=1 ¡ ¢ £ ¤ > 0. La qth salida del sistema lógico difuso puede expresarse como à n ! n à ! " l n à !# l X X Y XY (xj − cji )2 (xj − cji )2 yq = b pi xk exp − / exp − (3. el siguiente algoritmo de retroalimentación. [43] Para el modelo neuronal difuso del tipo Takagi Sugeno Kang ecuación (3.3.23) qk σ2 σ2 ji ji i=1 j=1 i=1 j=1 k=0 . tal que la red neuronal difusa (3.7). puede seguir la planta no lineal (3. como serían las funciones La función gaussiana pertenencia son aprovechados para identificar las reglas difusas en esta sección. ninguna de las proposiciones ni los parámetros consecuentes son conocidos (ver [28]. cji (k + 1) = cji (k) − 2η k zi wpib σ ji (k + 1) = σ ji (k) − donde ηk = satisface 2 Wk+1 = Wk − η k e (k) Z (k)T −bp xj −cji y (bq − yq ) y σ2 ji −b (x −c 2 y 2η k zi wpib p j σ3 ji ) (bq − yq ) y ji (3.2.22) donde π = η (1 + κ)2 Demostración.20) Teorema 3.3 Si nosotros usamos la red neuronal difusa de tipo Mamdani (3.3.1).1). como funciones gaussiana. Funciones pertenencia desconocidas Cuando consideramos la planta como una caja negra.3 Sistemas de identificación difusa neuronal 37 3.4) para identificar la planta no lineal (3. κ = m´x kZk2 + 2 kDz k2 . ζ = m´x ζ 2 (k) . el cual se define como µAji (xj − cji )2 = exp − σ2 ji à ! (3.

0 < η ≤ 1. La parte i=1 pi∗ − pi xk qk qk ¢ ! zi /b (3.23) para identificar la planta no lineal ecuación (3..& xk es Ak . Simulación Ejemplo 3. x2 y 2x3 . 1 + kZk + 2 kDz k2 Demostración.24) El teorema siguiente nos da un algoritmo estable para la red neuronal difusa del tipo TSK.25) η . pi (k + 1) = pi (k) − ηk (bq − yq ) zbi xk y qk qk cji (k + 1) = cji (k) − 2η k zi wpib σ ji (k + 1) = σ ji (k) − donde η k = 2 −bp xj −cji y (bq − yq ) y σ2 ji −b (x −c 2 y 2η k zi wpib p j σ3 ji ) (bq − yq ) y ji (3. entonces y = p0 + p1 x1 + .4.1).3) y teorema (3.. donde x3 no es condicionado de la propuesta. + pk xk . es contener de la ley de actualización para pi (k) . qk 3. [43] Uno puede observar que TSK necesita solo una formulación diferente comparativo al tradicional modelo Mamdani y la diferencia entre el teorema (3. entonces el valor de y debería ser igual a la suma de x1 .4 Si usamos la red neuronal difusa de tipo TSK de la ecuación (3. ..5 R si x1 es chico y x2 es grande entonces y = x1 + x2 + 2x3 (3..4).26) La implicación de estado que si x1 es chico y x2 es grande. el algoritmo siguiente hace la identificación del error acotado e (k) . R : si x1 es A1 &.38 l P¡ Estática neuro difuso para identificación ¢ ∗ wqi − wqi zi /bq es la ecuación (??) fue cambiado como à n l X X¡ i=1 k=0 donde x0 = 1. Teorema 3.

3.4 Simulación

39

El algoritmo de razonamiento, suponemos que tenemos implicaciones Ri (i = 1, ..., n) anteriormente entonces tenemos: (x1 = x0 , ..., x1 = x0 ) , donde x0 − x0 son singleton, el valor de y se deduce en los pasos sigu1 1 k k ientes: 1.- Para cada implicación Ri , y i se calcula por la función g i el resultado es: ¡ ¢ y i = g i x0 , ..., x0 = pi + pi x0 , ..., +pi x0 1 k 0 1 1 k k 2.- El valor verdadero de la proposición y = y i se calcula por la ecuación: ¯ ¯ ¯ ¯ ¯y = y i ¯ = ¯x0 es Ai &...& x0 es Ai ¯ 1 1 k k ¯ ¯ ¢ ¯ ¯ ¡ ∧ ¯Ri ¯ = Ai (x0 ) ∧ ... ∧ Ai (x0 ) ∧ ¯Ri ¯ 1 1 k k que |Ri | = 1 por eso el valor verdadero del resultado se obtiene como: ¯ ¯ ¯y = y i ¯ = Ai (x0 ) ∧ ... ∧ Ai (x0 ) 1 1 k k con los pesos ¯ ¯ ¯y = y i ¯ : y = X |y = y i | × y i X |y = y i |

(3.27)

(3.28) (3.29)

donde |∗| se refiere al valor verdadero de la proposición * & ∧ es la proposición para el

operador mínimo, y |x0 es A| = A(x0 ), entonces el grado de x0 . Por simplicidad se asume (3.30)

3.- la salida final y se deduce de n implicaciones es dado como el promedio de todos los y i

(3.31)

En este ejemplo se muestra la identificación usando un sistema de datos recopilados de entrada salida con ruidos. La deducción típica del ruido esta en el 5 % de la salidas. Este sistema tiende a ser notado que se puede identificar justo los mismos parámetros de la condición como el sistema original si el ruido no existe. Es de gran importancia un punto de salida anteriormente hecho, si este no es el caso se puede afirmar la valides de un algoritmo de identificación a la vez con una descripción de lenguaje sistema difuso. Suponemos que el sistema original existe ver Figura (3.3), con las dos implicaciones siguientes:

40

Estática neuro difuso para identificación

Si x es 0 7

entonces y = 0.6x+2

Si x es 4 10

entonces y = 0.2x+9

Figura 3.3: Sistema la función es consecuencia de implicaciones en datos con ruidos de entrada salida como se muestra a continuación Figura (3.4), los parámetros propuestos de identificación como se muestran, podemos ver que casi siempre son los mismos parámetros y estos han sido derivados. En esta sección, se sugiere un algoritmo de aprendizaje estable que es evaluado como una función de aproximación y un sistema a identificar. Ejemplo 3.6 Una Función de aproximación de 2 dimensiones Nosotros queremos usar el algoritmo estable para aproximar la función siguiente: f(x1 , x2 ) = 0.52 + 0.1x1 + 0.28x2 − 0.6x1 x2 este ejemplo se toma de [33], ellos usan el siguiente sistema difuso para aproximar esto. ˆ Σx1 Σx2 f (x1 , x2 )µA1 µA2 f= Σx1 Σx2 µA1 µA2 (3.32)

se usara la red neuronal difusa la ecuación (3.7). La entrada X(k) = [x1 (k), x2 (k)] . Usamos el mismo conjunto difuso como en [33]. El numero de conjunto difuso para cada variable de entrada en la ecuación (3.5). Hay 25 reglas difusas. La función que asocia para x1 y x2 son funciones pertenencia en [2, 2], ver Figura (3.5). como en la Figura (3.1), n = 2, l1 = l2 =

3.4 Simulación

41

y 15
+ ++ +

12 9

+++ + + + + +++ + ++++ + ++ ++++ +++ + +++ ++

6 3
+ +++ + + + +++ +

++ + +++

++ + +

++

0

1

2

3

4

5

6

7

8

9

10

x

Figura 3.4: Datos de consecuencia y ruido
1

0.8

Función membership

0.6

0.4

0.2

0

-0.2

-0.4

-0.6

-0.8

-1

0

100

200

300

400

500

600

Figura 3.5: Función gausiana

El teorema (3.2 1 ˆ y y 0.25)2 x2 (k) = 2 ∗ exp −1 σ2 · µ (3. m = 1. El algoritmo de aprendizaje es como en la ecuación (3.7..8 0. Si queremos un proceso de aprendizaje rápido aumentando un poco más el valor de η quizás también sea el error de .4 -0.6 0.. En este ejemplo la estabilidad se limita a ser Del teorema (3.7. se muestra en la Figura (3.4 0.6 0 100 200 300 400 500 600 Figura 3.7).1) el modelado del error asegura que es estable.6: Aproximación de la función 11. T. Para verificar la efectividad del algoritmo. l = 121. Para una aplicación real. podemos seleccionar un η = 1.7. y x1 (k) y x2 (k) son seleccionados como: ¶ ¸ −(x(k) − c)2 x1 (k) = 2 ∗ exp −1 σ2 · µ ¶ ¸ −(x(k) − 8..2 -0. 2. El resultado de identificación y los pesos se muestran en la Figura (3. el proceso de aprendizaje se hace inestable.42 Estática neuro difuso para identificación 1.1). nos da una condición necesaria aumentado a un valor de η < 2. de η para aprendizaje estable. nosotros encontramos después de η ≥ 2. . con η = 1. El resultado de identificación con η = 2.2 0 -0.33) donde k = 1. En esta simulación nosotros dejamos T = 600.6). con η ≤ 1.17).

7: Aprendizaje inestable identificación estable.8 0. Ejemplo 3. La planta identificada es (Ejemplo 4 de [27]).2 1 0.7 Identificación del sistema no lineal Usamos un sistema no lineal para ilustrar el aprendizaje del gradiente descendiente ecuación (3.17) y el algoritmo de retroalimentación ecuación (3.2 0 -0.6 0 100 200 300 400 500 600 Figura 3.21) y el problema estable.8).6 0.5 ) (3.3 sin( 15 k) + 0.1 sin( 22 k) + 0. Para este sistema el error medio cuadratico queda expresado en la Figura (3.4 0.3.4 Simulación 43 1.35) .34) la entrada de la señal se selecciona como:  π  sin( 15 )     1 u(k) =  −1     π π πk 0.2 -0. y(k) = y(k − 1)y(k − 2)y(k − 3)u(k − 1)[y(k − 3) − 1] + u(k − 1) 1 + y(k − 2)2 + y(k − 3)2   k < 200     200 ≤ k < 400  400 ≤ k < 600     600 ≤ k < 1000 (3.603 sin( 8.4 -0.

4 0. Las funciones pertenencia son escogidas como funciones gaussiana. la entrada para φk es solo A1k .2 0 100 200 300 400 500 600 Figura 3. la identificación aproximada no mejorara mucho.8: Error medio cuadratico nosotros usamos la red neuronal difusa la ecuación (3. u(k − 2)]T para la Figura (3. . l).. u(k − 1).2 0 -0.. Así l = 10.34)..7).7).44 Estática neuro difuso para identificación 1. y(k − 3). nosotros encontramos que después que los dominios de los nodos es más que l > 10. y(k − 2). para identificar la ecuación (3. Nosotros seleccionamos η = 1 para actualizar los pesos Wk como en la ecuación (3.1). El método para evitar el peso computacional. m = 1. Las condiciones . La complejidad del modelo es importante en el contexto de la identificación del sistema.8 0. el cual corresponde al número de unidades de reglas del modelo neuronal difuso.. son constantes aleatorias entre [0. nosotros usamos una simple conexión.2 1 0. µAji (k) = exp(−( xj (k) − cji 2 )) σ ji (3. Ank (k = 1. . es decir. n = 5.. 5).. X(K) = [y(k − 1). Ak2 ..36) El centro cji y el ancho σ ji . 1]. lj = 10(j = 1. En esta simulación nosotros intentamos probar diferentes números de nodos ocultos. .6 0...

pero muchas de las simulaciones han sido hechas para encontrar un porcentaje de aprendizaje mejor de η.4 Simulación 45 iniciales para Wk son aleatorios entre [0. Del teorema (3. nosotros encontramos que si η ≥ 3.17). el porcentaje de aprendizaje en tiempo variante η k en la ecuación (3. una red neuronal multicapas [27] (la velocidad de aprendizaje fijando η = 0. Uno puede ver que el algoritmo propuesto en este modelo la ecuación (3.3. y ele error cuadratico medio en la Figura (3. . η ≤ 1.17) es más fácil para ser comprendido.9). es más fácil de comprender para el diseño. En este ejemplo.025).1. Dar una condición necesaria de η para el aprendizaje estable. Este ejemplo se ha hecho en varios artículos.10). 1].1). la red difusa recurrente tipo TSK [5] y las redes neuronales difusas dinámica [6]. El resultado de identificación se muestra en Figura (3. Comparando el gradiente normal descendiente. Por ejemplo. Quizás ahí existe una η mejor como en [24]. el proceso de aprendizaje llega a ser inestable.

5 0 -0.5 0 100 200 300 400 500 600 700 800 900 1000 Figura 3.9: Modelado de un sistema no lineal .5 -1 -1.46 Estática neuro difuso para identificación 1 y (k ) ˆ( y k) 0.

04 0.10: Error cuadratico medio .08 0.14 0.4 Simulación 47 0.12 0.3.06 0.02 0 0 100 200 300 400 500 600 700 800 900 1000 Figura 3.1 0.

48 Estática neuro difuso para identificación .

... . Dinámica difusa redes neuronales Estructura tipo mamdani dinámica difusa redes neuronales Un modelo difuso de un grupo se presenta como una colección de reglas difusas de la forma siguiente: Ri : si x1 (k) es A1i y x2 (k) es A2i y.1) entonces β x1 (k + 1) es B1i y. xn (k) es Ani ˆ ˆ ˆ entonces x1 (k + 1) es B1i y... . ... .... xm (k + 1) es um Cmi . xn (k + 1) es Bni ˆ ˆ o x1 (k + 1) es u1 C1i y.... . se tiene que l (i = 1.. .....Capítulo 4 Dinámica neuro difuso para identificación 4. .. . 2.2) + 1) es Cni + 1) es um Cmi . xn (k + 1) es Cni ˆ ˆ ˆ entonces se puede escribir de las dos formas siguientes: i R1 : si x1 (k) es A1i y x2 (k) es A2i y.... ..1. donde β es conocida y es una constante positiva... 4.. ....... ˆ 2 entonces β x1 (k + 1) es u1 C1i y.1. ˆ 2 β x (k ˆ 2 m β x ˆ 2 n (k + 1) es Bni β x (k ˆ 2 n i R2 : si x1 (k) es A1i y x2 (k) es A2i y. xn (k) es Ani ˆ ˆ ˆ (4. xn (k) es Ani ˆ ˆ ˆ (4.. l) la regla difusa (si entonces) realiza un mapeo de un vector de entrada X = [ˆ1 . .1. xn ] ∈ Rn a un vector de x ˆ .

wn1 wnl w1l     (4. xm (k + 1)]T ..  Wk =    w11 . x Dinámica neuro difuso para identificación A1i .. La estructura del sistema dinámicos neuronal difuso se muestra en la Figura (4.6) sistema de la estática neuronal difuso se muestra en la Figura (3.. asumimos que la planta es estable BIBO. U (k) = [u1 . · · · 0]T . Bni y C1i . l = l1 × l2 ×..3) se puede expresar en forma de matriz como βb (k + 1) = W1 (k) σ [x (k)] + W2 (k) σ [x (k)] U (k) x donde los parámetros.. en general la función suave no lineal se escribe como: ∗ ∗ βx(k + 1) = W1 σ [x (k)] + W2 σ [x (k)] U (k) + µ (k) el vector de datos σ [x (k)] = [φ1 · · · φl ]T ..5) (4...1). xp (k + 1) = b β 2 β 2 xi hay li conjuntos difusos....7) .. wpi es el punto en el cual µBpi = 1. La identificación del sistema no lineal se muestra como (2. Para entrada variable consecuencia del producto. .. . 0. centro promedio y la salida pth del sistema de lógica difusa se expresa como. Si definimos φi = n Y j=1 n l XY i=1 j=1 xp (k + 1) = b l P / µAji =β w1pi φi 2 j=1 Ãi=1 " #! i=1 j=1 à " #! i=1 l l n l n P Q P Q P / =β ui w2pi µAji µAji ui w2pi φi 2 l P w1pi " n Q µAji #! à " l n P Q i=1 #! (4...17). ln .. u2 · · · um .1).50 ˆ ˆ salida Y (k) = [ˆ1 (k + 1). Ani . B1i . . .3) i=1 j=1 j=1 i=1 µAji / µAji (4. Cni son conjuntos difusos básicos. Segun el teorema Stone Weierstrass. y entonces x (k) y u (k) son acotados.. Estas cuatro capas de la red neuronal difuso fue estudiado por [14]. La estructura del (4.4) la ecuación (4. usando la à donde µAji es una función pertenencia del conjunto difuso Aji . . En el caso de conexión completa.

1 Dinámica difusa redes neuronales 51 A11 x1 ( k ) A1l1 z 1 β xn (k ) Anl n A11 x1 (k ) A1l1 An1 xn (k ) AnlAnl n n Capa − φ1 Π φ2 Π φl Π u1 u2 u11 φ1 Π w11 x1 ( k + 1) ˆ Σ xn (k + 1) ˆ An1 wnl Σ un φ2 Π φl Π unl I II III IV Figura 4.4.1: La estructura del sistema de la dinámica neuronal difuso .

4).  1 l pmn · · · pmn (4. ε1 es una constante positiva no conocida. Donde ζ (k) = ε1 (k)+ε2 (k)−µ (k) .12) . . ε1 (k) el error es una aproximación 0 f f βe (k + 1) = W1 (k) σ [x (k)] + W2 (k) σ [x (k)] U (k) + ζ (k) (4. .10) b j0 j1 jn (4.11) donde φi es definido como en la ecuación (4. Estructura tipo takagi sugeno dinámica difusa redes neuronales donde j = 1.8) Ahora de la ecuación (4. m. ε1 (k) es acotada como kε1 (k)k2 ≤ ε1 .  . Ahora la ecuación (4. · · · . . b Y (k) = W (k) σ [x (k)] b b donde Y (k) = [b1 · · · ym ]T y p1 · · · pl p1 · · · pl ··· 11 11  10 . el error a modelar es µ (k) e (k) = x (k) − x (k) b (4.5). . Después la función de activación es una sigmoide φ.7) tenemos de segundo orden.9) En el siguiente teorema tenemos un algoritmo de aprendizaje estable de tiempo discreto de una red neuronal de capa simple. el pth salida del sistema de lógica difusa puede expresarse como yp = b l X¡ ¢ pi + pi x1 + · · · pi xn φi p0 p1 pn i=1 Ri : Si x1 es A1i y x2 es A2i y . 4. W2 (k) = W2 (k) − W2 . 10 .2. ∗ f ∗ f donde W1 (k) = W1 (k) − W1 .11) puede ser expresado en la forma del tipo Mamdani ecuación (4.1. xn es Ani entonces yj = pi + pi x1 + · · · pi xn (4. · · · . W (k) =  . σ es la derivada de la función de activación no lineal σ (·) en el punto de W1 (k) .  1 l p1 · · · pl m0 m0 pm1 · · · pm1 · · ·   p1 · · · pl 1n 1n  .52 Dinámica neuro difuso para identificación ∗ ∗ donde W1 y W2 son pesos constantes que pueden minimizar µ (k) .

f ∈ C ∞ . 2. Funciones pertenencia conocidas El interés principal es entender algunos conceptos de estabilidad de entrada estado (ISS). el siguiente actualización de la regla gradiente sin modificación robusta se puede identificar el error acotado e (k) (estable en L∞ ) W2 (k + 1) = W2 (k) − η (k) u(k)σeT (k) donde si β ke (k + 1)k ≥ ke (k)k .2. Consideramos el siguiente sistema no lineal de tiempo discreto.2) y el teorema (2. x(k) ∈ Rn un vector de estado.16) .2 Sistemas de identificación con dinámica neuro difuso σ [x (k)] = h φ1 · · · φl x1 φ1 · · · x1 φl · · · xn φ1 · · · xn φl iT 53 (4.15) η (k) = 0 0<η≤1 Demostración.3). η (k) = η 1 + kσk + kuσk2 2 W1 (k + 1) = W1 (k) − η (k) σe (k)T (4.1. Si β ke (k + 1)k < ke (k)k . Ahora las definiciones Teorema 4.2. salida del vector f es en general una función suave no lineales.4.13) 4. Sistemas de identificación con dinámica neuro difuso 4. Seleccionamos la función de Lyapunov como ° °2 ° °2 °f ° °f ° V (k) = °W1 (k)° + °W2 (k)° (4.1 Si se usa la red neuronal de capa simple para identificar la planta no lineal y A esta en un intervalo como −1 < λ (A) < 0.1. y y(k) ∈ Rl es la (2. u(k)] (4. x(k + 1) = f [x(k).14) donde u(k) ∈ Rm es el vector de entrada.

18) (4.20) . π > 0 ¡ ¢ ¡ ¢ n m´ wi ≤ Vk ≤ n m´x wi ın e2 a e2 (4.54 Dinámica neuro difuso para identificación ° °2 P n o °f ° fT f donde °W1 (k)° = n w1 (k)2 = tr W1 (k) W1 (k) . α > 0. ahí existe un pequeño β > 0. f f W1 (k + 1) = W1 (k) − η (k) σe (k)T (4. κ = m´x kσ x (k)k + °u(k)φ x (k)° . De la regla de actualización (5. 2 2 2 Usando la ecuación (4.9) y η(k) ≥ 0. Puesto que −1 < a k 1+κ 1+κ λ (A) < 0.21) −η (k) ke (k)k2 + η (k) kζ (k)k2  ° °2  0 ° ° kσ 0 x (k)k2 + °u(k)φ x (k)°   2 = −η (k) 1 − η ° °2  e2 (k) + η k ζ (k) 0 x (k)k2 + °u(k)φ0 x (k)° 1 + kσ (4. a ∆V (k) = V (k + 1) − V (k) ° °2 ° °2 ° °2 ° °2 °f °f ° °f ° °f ° ° = °W1 (k) − η (k) σe (k)T ° − °W1 (k)° + °W2 (k) − η (k) u(k)σeT (k)° − °W2 (k)° ° ° ° f ° = η 2 (k) ke (k)k2 kσk2 − 2η (k) °σ W1 (k) eT (k)° ° ° ° ° f +η2 (k) ke (k)k2 ku(k)σk2 − 2η (k) °u(k)σ W2 (k) eT (k)° (4.23) e i=1 Por eso. λm´x (A) ≤ −α.17) tal que kβe (k + 1)k ≥ ke (k)k ° ° ° ° ° f ° ° T f2 (k) eT (k)° −2η (k) °σ W1 (k) e (k)° − 2η (k) °u(k)σ W ° ° T ° ≤ −2η (k) °e (k)° kβe (k + 1) − ζ (k)k ° ° = −2η (k) °eT (k) βe (k + 1) − eT (k) ζ (k)° ° ° ° ° ≤ −2η (k) °eT (k) βe (k + 1)° + 2η (k) °eT (k) ζ (k)° ≤ −2η (k) ke (k)k2 + η (k) ke (k)k + η (k) kζ (k)k2 después 0 < η ≤ 1. .19) ° °2 0 ° ° ∆V (k) ≤ η (k) ke (k)k kσ x (k)k + η (k) ke (k)k °u(k)φ x (k)° 2 0 2 ≤ −πe2 (k) + ηζ 2 (k) · ¸ µ ° °2 ¶ η κ 0 ° ° 2 0 donde π = 1− .

el ”ESTADO” corresponde al primer término de la ultima línea de la ecuación (4. por eso Vk admite una función suave de Lyapunov ISS como en la Defini- a e2 donde n × m´ (wi ) y n × m´x (wi ) son funciones K∞ . la constante de W1 (k) entonces e (k) es acotado (ver (4. [34]).2 La ecuación (4. [30]. Propiedad 4.9)). Si β es seleccionado muy grande. como serían ! (4. la identificación del error es e (k) por que la ”ENTRADA” ζ (k) es acotada y la dinámica es ISS. nosotros no podemos construir reglas difusas para la proposición parte de µAji (ver [28]. V (k) es constante.20). por que no se necesita tener cuidado como seleccionar un ley de aprendizaje mejor para asegurar ambos en la rapidez de convergencia y estabilidad. Propiedad 4. ∆V (k) = 0.15) es el algoritmo gradiente descendiente (BackPropagation). En ninguna información previa se requiere. Funciones pertenencia desconocidas Cuando la planta a identificar es considerada como caja negra. la identificación del error dinámico es ISS. el ”ESTADO” e (k) es acotado.20). ηζ 2 (k) ın e2 ción (2.2. entonces. tal que la red neuronal difusa.3 La condición β ke (k + 1)k ≥ ke (k)k es la zona muerta.2). puede seguir la planta no lineal. y πe2 (k) es una función K∞ . el error a modelar es ζ (k) = ε1 (k) + ε2 (k) − µ (k) . La función pertenencia gaussiana para identificar las reglas difusas. y entonces.22) . la zona muerta llega a ser pequeña. Cuando β ke (k + 1)k < ke (k)k .2. La ”ENTRADA” corresponde al segundo término de la ultima línea en la ecuación (4.4. Del teorema (2. El objeto del las funciones pertenencia A1i · · · Ani . 4. el cual el aprendizaje normalizado nk es de tiempo variante en orden asegurar el proceso de identificación sea estable.3). Esta regla de aprendizaje es simple a usar.2 Sistemas de identificación con dinámica neuro difuso 55 es una función K. son definidos como µAji = exp − Ã (xj − cji ) ρ2 ji 2 modelado de la neurona difusa es encontrar valores centrales (Wk ) de B1i · · · Bmi .

56 Dinámica neuro difuso para identificación qth es la salida del modelo neuronal difuso se puede expresar de la forma à ! " l n à !# l n X Y XY (xj − cji )2 (xj − cji )2 yq = b wqi exp − / exp − ρ2 ρ2 ji ji i=1 j=1 i=1 j=1 Ahora definimos (xj − cji )2 zi = exp − ρ2 ji j=1 por eso n Y (4.25) (4. c∗ y σ ∗2 . cji y σ 2 . b= l X i=1 zi (4.30) .29) (4. En el caso de tres variables independientes. x0 . x2 .26) ∗ donde wqi . x3 corresponde a wpi .28) (4.24) aq b Similar a la identificación del proceso no lineal. aq = l X i=1 wqi zi . c∗ y ρ∗2 son parámetros desconocidos el cual quizá no minimicen el modelado ji ji dinámico µq . x2 . una función suave f tiene la formula de Taylor como: ¸ l−1 X 1 ·¡ ¡ ¡ ¢ ∂ ¢ ∂ ¢ ∂ k 0 0 0 f (x1 . se puede expresar como à ¡ à ¡ ¢2 ! " l n ¢2 !# n l X Y XY xj − c∗ xj − c∗ ji ji ∗ yq = wqi exp − / exp − − µq ∗2 ∗2 ρji ρji i=1 j=1 i=1 j=1 yq = b (4. x0 ji 1 2 3 ji corresponde a wpi . x3 ) = x1 − x1 + x2 − x2 + x3 − x3 f + Rl k! ∂x1 ∂x2 ∂x3 0 k=0 (4. x0 .23) à ! . ji yq + µq = yq + b + l X¡ i=1 ∗ wqi − wqi Usando la regla de la cadena.27) ∗ donde Rl es la formula de Taylor a recordar. Si x1 . obtenemos lo siguiente ³ ¡ aq ¢ ¡ aq ¢ ∂zi ¡ 1 ¢ ´ ³ xj −cji ´ ∂ ∂ 1 ∂aq ∂ = ∂zi b ∂cji = b ∂zi + ∂zi b aq 2zi σ2 ∂cji b ji ¡ wqi aq ¢ ³ xj −cji ´ −b x −c y = b − b2 2zi σ2 = 2zi wqib q jσ2 ji ji ji n l X X ∂ ³ aq ´ ¡ ¢ ρ∗ − ρji + R1q ji ∂ρji b i=1 j=1 ¢ n l X X ∂ ³ aq ´ ¡ ¢ zi /b + c∗ − cji ji ∂cji b i=1 j=1 (4.

también R1 es acotado. E = [1. 2zl qlb q .. Wq = Wq − Wq∗ h i y w −b −b y DZq = 2z1 wq1b q .   Ck =   x1 −c1l xn −cnl ∗ ∗ (c1l − c1l ) (cnl − cnl ) 2 σ2 nl  (x −cσ1l 2  (xn −cn1 )2 1 11 ) (ρ11 − ρ∗ ) (ρn1 − ρ∗ ) 11 n1 ρ3 ρ3 11 n1   . e (k) = [e1 · · · em ]T f eq = Z (k) Wq + DZq C k E + DZq B k E + µq − R1q (4. del cual Wk =      y y wm1 −bm wml −bm ∗ ∗ w1l − w1l wml − wml 2z1 b 2zl b T T ζ (k) = µ − R1 . eso ζ (k) en la ecuación (4. f  ..33) Nosotros definimos donde R1q es de segundo orden el error de aproximación. El siguiente teorema nos da un algoritmo de .26) es acotado....32) de donde definimos la identificación del error de la forma como se define eq = yq − yq b f Z (k) = [z1 /b · · · zl /b]T .34) (4. R1 = [R11 · · · R1m ] . de la serie de Taylor.35) f βe (k) = Wk Z (k) + Dz (k) C k E + Dz (k) B k E + ζ (k)     y −b ∗ ∗ w11 − w11 2z1 w11b−b1 wm1 − wm1 2zl w1lb y1     .. .35) es acotado.. · · · 1]T  −c  x1 11 xn −cn1 (c11 − c∗ ) (cn1 − c∗ ) 2 2 11 n1 σ n1  σ11  .  Bk =    2 2 (x1 −c1l ) (xn −cnl ) (ρ1l − ρ∗ ) (ρnl − ρ∗ ) 1l nl ρ3 ρ3 1l nl (4.31) En forma de matriz.. q = 1 · · · m. Dz (k) =  .Para las cotas de la función gaussiana φ quizá asumimos que µ en la ecuación (4. (4. Wq = [wq1 · · · wql ] .2 Sistemas de identificación con dinámica neuro difuso ∂ ³ aq ´ ∂ ³ aq ´ ∂zi wqi − yq (xj − cji )2 b = 2zi = ∂ρji b ∂zi b ∂ρji b ρ3 ji f yq + µq = yq − Wq Z (k) − DZq C k E − DZq B k E b 57 (4. µ = [µ1 · · · µm ] . · · · . Por retroalimentación estable para una red neuronal difusa en tiempo discreto.4.

Si β ke (k + 1)k < ke (k)k .23) para identificar la planta no lineal. El error promedio de la identificación satisface T η 1X 2 J = l´ sup ım e (k) ≤ ζ π T →∞ T k=1 (4.58 Dinámica neuro difuso para identificación Teorema 4. el elemento de c i ji b h e e Ck es expresado como eji (k) = Ck . ηk = 0 ηk = η 1 + kZk + 2 kDz k2 2 y wpi −bp xj −cji (bq − y b ρ2 ji y w −b (x −c )2 2ηk zi pib p j ρ3 ji (bq y ji yq ) − yq ) (4. Definimos eji (k) = cji (k) − c∗ . ζ = m´x ζ 2 (k) a a k k 1+κ 1+κ Demostración.37) · ¸ ¤ ¡ ¢ £ η κ donde π = 1− > 0. Por eso c h i h i wqi − yq xj − cji b e e Ck+1 = Ck − 2η k zi (bq − yq ) y b ρ2 ji ° °2 ° °2 ° °2 °f ° °e ° °e ° Lk = °Wk ° + °Ck ° + °Bk ° (4.38) Nosotros seleccionamos una matriz definida positiva Lk como (4.4 Si usamos la red neuronal difusa ecuación (4.39) . eji (k) = σ ji (k) − σ ∗ (k) . el siguiente algoritmo de retroalimentación puede hacer la identificación del error e (k) acotado Wk+1 = Wk − η k e (k) Z (k)T cji (k + 1) = cji (k) − 2η k zi ρji (k + 1) = ρji (k) − donde si β ke (k + 1)k ≥ ke (k)k .36) 0 < η ≤ 1. κ = m´x kZk2 + 2 kDz k2 .

43) ³ ´i ³ ´i (4. De las ecuaciones (4. y usando LT > 0 y L1 es una constante. del Teorema (2. ηζ 2 (k) es una función K. por eso Lk admite una función de Lyapunov suave ISS como en la Definición (2.35) tenemos ° °2 ° h i°2 °f °e ° y w −b x −c T° ∆Lk = °Wk − η k e (k) Z (k) ° + °Ck − 2η k zi qib q jρ2 ji (bq − yq ) ° y ° h i°2 ° °2 ° ji °2 ° °2 °e ° °f ° °e ° °e ° y wqi −bq (xj −cji )2 + °Bk − 2η k zi b (bq − yq ) ° − °Wk ° − °Ck ° − °Bk ° y ρ3 ° ° ³° °2 ji° T °2 ´ °f ° T T = η2 e2 (k) °Z(k)T ° + 2 °Dz ° − 2ηk ke (k)k °Wk Z (k)T + Dz C k E + Dz B k E ° k ¡ ¢ = η2 e2 (k) kZk2 + 2 kDz k2 − 2η k ke (k) [e (k) − ζ (k)]k k £ ¡ ¢¤ ≤ −ηk e2 (k) 1 − η k kZk2 + 2 kDz k2 + ηζ 2 (k) ≤ −πe2 (k) + ηζ 2 (k) donde π se define como π= η ¡ ¢ 1 + m´x kZk2 + 2 kDz k2 a k 59 (4.39) conocemos que Vk es la función de e (k) y ζ (k) . obtenemos PT LT − L1 ≤ −π k=1 e2 (k) + T ηζ π k=1 e2 (k) ≤ L1 − LT + T ηζ ≤ L1 + T ηζ (4. el ”ESTADO” e (k) es acotado.22) es establecido.46) se puede reescribir como ∆Lk ≤ −πe2 (k) + ηζ 2 (k) ≤ πe2 (k) + ηζ PT (4.43) de 1 hasta T .2 Sistemas de identificación con dinámica neuro difuso Usando la ecuación (4. .35) y (4.4. La ecuación (5.41) Por que h ³ ´i ³ ´i h ¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢ n m´ wi + m´ e2 + m´ e2 ın e2 ın cji ın bji ≤ Lk ≤ n m´x wi + m´x e2 + m´x e2 a e2 a cji a bji ciones K∞ . Por que la ”ENTRADA” ζ (k) Es acotada y la dinámica es ISS.44) la ecuación (3.2).42) h h ¡ 2¢ ¡ 2¢ 2 2 2 donde n m´ (wi ) + m´ eji + m´ eji y n m´x (wi ) + m´x eji + m´x e2 ın e ın c ın b a e a c a bji son fun- Sumando la ecuación (4.40) (4. la dinámica del error de identificación entrada a estado estable ISS. y πe2 (k) es una función K∞ .3).

7 Si seleccionamos η como una función de zona muerta: ( η = 0 si |e (k)| ≤ ζ η = η 0 si |e (k)| > ζ y wpi −bp xj −cji (bq − yq ) y b σ2 ji y w −b (x −c )2 2η k zi pib p j σ3 ji (bq − yq ) y ji (4.5 Para el modelo neuronal difuso del tipo Takagi Sugeno Kang ecuación (4.28) es cambiando como à n l X X¡ i=1 k=0 pi∗ − pi xk qk qk ¢ ! zi /b (4. La demostración es la misma como en el teorema (4.45) ¢ ∗ wqi − wqi zi /bq es la ecuación (4.1).6 Normalizando el porcentaje de aprendizaje η k en las ecuaciones (3. La contradicción en la rápida convergencia y el algoritmo estable puede ser evitado. Propiedad 4. por ejemplo si nosotros quizá seleccionamos η = 1.10) con una función gaussiana pertenencia en Aji . Propiedad 4.60 Dinámica neuro difuso para identificación Propiedad 4. Estas ganancias de aprendizaje son fáciles para ser decididos como en [30].47) El error de identificación e (k) es acotado.17) y (3. el método del error de identificación. en ninguna información a priori se requiere.48) . Cambiando el porcentaje del tiempo variante puede ser encontrando algunos esquemas adaptables básicos como en [21]. el qth salida del sistema lógico difuso puede expresarse como à n ! n à ! " l n à !# l 2 2 X X Y XY (xj − cji ) (xj − cji ) yq = b pi xk exp − / exp − qk 2 σ ji σ2 ji i=1 j=1 i=1 j=1 k=0 donde x0 = 1.46) Si usamos el siguiente algoritmo pi (k + 1) = pi (k) − ηk (bq − yq ) zbi xk y qk qk cji (k + 1) = cji (k) − 2η k zi σ ji (k + 1) = σ ji (k) − (3. La parte i=1 l P¡ (4. Pero ellos usan también modificación robusta para garantizar el proceso de identificación estable.21) son de tiempo variante.

Y la identificación del error aumenta por las modificaciones de robustez [21].17) o (3.35). del modelo de Lorenz se elige para demostrar la facilidad del neuro identificador. Pero todas ellas necesitan la mayor de la cota del modelado del error ζ. (4.3 Simulación 61 la ecuación (3. pero los pesos del error son muy altos cuando las reglas difusas no son bien definidas. la ecuación (3.8 Puesto que asumimos que la red neuronal difusa no puede igualar sistemas no lineales. Si la entrada es constante. Simulación 1). Sin embargo los pesos no pueden converger a sus valores óptimos. En un caso simple usamos la ecuación (??) y las redes neuronales difusas no pueden igualar exactamente a la planta no lineal. Un sistema de tipo caótico. Esto nos dice que de [34] o [26].21) es el mismo como en [35].3. La relación de la salida del error y el error de los pesos se muestran en las ecuaciones (??) y (4.21).49) salida del error: (y − y ) = (W ∗ − W (k)) Φ [X (k)] b Si Φ [X (k)] es grande. nos gustaría solo forzar la salida de la red neuronal difusa siguiendo a la salida de la planta. planta: y = W ∗ Φ [X (k)] redes neuronales difusas: y = W (k) Φ [X (k)] b gencia del error de los pesos W ∗ − W (k) . entonces la identificación del error sera estable. el modelado del error ζ (k) no harán que los pesos convergen a sus valores óptimos. Esto hace posible que la salida del error converge. El modelo a controlar .22) muestra que el error de identificación convergerá en una bola η de radio π ζ. Propiedad 4.4. Si un término modificación σ o modificando la regla δ los términos son sumados en k en la ecuación (3. cji y σ ji ) convergen. no podemos hacer que los parámetros (wji . la salida del error es pequeño (y − y ) no significa una buena converb 4. El modelo de Lorenz se usa para el fluido de la descripción específicamente para algunos características de la dinámica atmosférica [41].

10. β) < ρ.51) ´ ³ p p el sistema tiene dos puntos de equilibrio ± β(ρ − 1).50) x3 = −x1 x2 + ρx2 − x3 donde x1 . y un punto de equilibrio inestable el cual es (el origen). 1. 4.. (4. ω. ± β(ρ − 1). los tres puntos de equilibrio llegan a ser inestables.. Ahora definimos s1 = Axk . ρ y β son parámetros positivos representando el número de Prandtl. ˆ 2 i R2 β x (k ˆ 2 n + 1) es Bni β x (k ˆ 2 n : si x1 (k) es A1i y x2 (k) es A2i y.2. . A =    −β 0 0 x2 −σ k = 0.. ˆ 2 + 1) es um Cmi ... horizontales. x3 ] . entonces xk+1 = xk + s1 +4s3 +s2 . es el origen de equilibrio estable.  −x2 ρ −1 ¯ ¯ ¯ ¯ ¡ ¢ |xk | s3 = A xk + s1 +s2 . 2 · · · .3. velocidad de fluido correspondientes. .. β) = 24. En este ejemplo se considera el sistema con ω = 10. xn (k) es Ani ˆ ˆ ˆ β x (k ˆ 2 m entonces β x1 (k + 1) es u1 C1i y. Si ρ∗ (ω. seleccionamos ω = 10 y β = 8/3 que lleva a ρ∗ (ω.50).. Como el caso comúnmente estudiado.. (ρ − 1) . xn (k) es Ani ˆ ˆ ˆ entonces β x1 (k + 1) es B1i y.. . + 1) es Cni . .74. Si ρ < 1. 4. número Rayleigh y factor geométrico. x0 = [50. Si 1 < ρ ≤ ρ∗ (σ.. x2 y x3 representan medidas de temperaturas verticales. β = 8/3 y ρ = 28. Primero usaremos una red neuronal difusa recurrente con las reglas siguientes entonces se puede escribir de las dos formas siguientes i R1 : si x1 (k) es A1i y x2 (k) es A2i y. β) := ω (ω + β + 3) / (ω − β − 1) .50) el cual se puede escribir de la forma siguiente x = Ax  · (4..62 es descrito de la forma: Dinámica neuro difuso para identificación x1 = −βx1 + x2 x3 x2 = ω(x3 − x2 ) · · · (4. y de la ecuación (4. El sistema caótico dinámico se muestra en las Figuras (4. Si ¯ s1 −2∗s3 +s2 ¯ ≤ 1000 o ¯ s1 −2∗s3 +s2 ¯ < 1. 20]T . x2 .4). s2 = A (xk + s1 ) .. 4 3 3 6 T  con x = [x1 .. 2). Usamos la siguiente técnica de diferencia para obtener los estados de tiempo discreto del sistema ecuación (4.52)  σ  .. ..

σ (·) = tanh (·) . cuidamos el error de identificación e (k) . β = 4.8. La complejidad del modelo es importante en el contexto de la identificación del sistema. ¦8. σ (·) = tanh (·) . el cual corresponde al número de unidades ocultas del neuro modelo. Los pesos no convergen donde β = 4. el proceso de aprendizaje llega a ser inestable. Usamos la (4. x2 . En [27].1) tenemos una condición necesaria para un aprendizaje estable de η.53) de simple capa ecuación (4. encontramos que si η ≥ 2. con η ≤ 1.5) para identificar la ecuación (4. La simulación total en tiempo es de 600. A = diag [0.50). ahí hay 14 tiempos β ke (k + 1)k < e (k) . x = [b1 . En este ejemplo. β x (k + 1) = Aˆ (k) + Vkσ [Wk (K) x (k)] ˆ x (4. Los elementos de W1 (0) son números aleatorios entre [0. 0.5. βb (k + 1) = Ab (k) + W1 (k) σ [x (k)] x x (4.8. x3 ]T .23) para actualizar los pesos para la identificación en línea.8] . 0.56) convergencia de los pesos.55) Del teorema (4. también usaron 20 neuronas ocultas para la primer capa oculta . 1] .50). encontramos cuando los nodos ocultos son mas de 20. A = diag [¦8. El neuro identificación en esta simulación esta en línea.3 Simulación donde la función pertenencia se conoce como una función gaussiana φi = n Y j=1 63 µAji / n l XY i=1 j=1 µAji (4. Usamos una red difusa neuronal multicapa para identificar (4. En esta simulación probamos diferentes números de nodos ocultos. b x b b W1 (k) ∈ <3×3 . la exactitud de la identificación todavía no ha sido mejorado mucho. aquí no se estudia la a algunas constantes o valores óptimos.54) ecuación (5. ¦8] .4. W1 (k + 1) = W1 (k) − 1 T 2 e (k) σ 1 + kσk de donde σ [x (k)] = [φ1 · · · φl ]T .

2: Sistema dinámico caótico de Lorenz .64 Dinámica neuro difuso para identificación 60 50 40 30 20 10 0 -10 0 100 200 300 400 500 600 x1 Figura 4.

3: Sistema dinámico caótico de Lorenz .4.3 Simulación 65 20 15 10 5 0 -5 -10 -15 -20 0 100 200 300 400 500 600 x2 Figura 4.

4: Sistema dinámico caótico de Lorenz .66 Dinámica neuro difuso para identificación 30 20 10 0 -10 -20 -30 0 100 200 300 400 500 600 x3 Figura 4.

u (k − 1) . i = 1···m xn (k + 1) = f [x (k)] + g [x (k)] u (k) i = 1···n − 1 (5. g [·] es acotada fuera del cero.1) es xi (k + 1) = xi+1 (k) .2) xi+n (k) = u (k − m + i − 1) .1.1) donde f [·] y g [·] son funciones suaves. · · · y (k − n) . i = 1···n (5. Estructura difusa neuro control El grado relativo del sistema. · · · u (k − m)] +g [(k − 1) .3) . · · · u (k − m)] u(k) (5. u (k − 1) . Este sistema de entrada salida puede convertirse en una forma de espacios de estados. para entrada y salida simple. · · · y (k − n) . Un modelo de estado de la ecuación (5. y(k) = f [y (k − 1) . nosotros definimos xi (k) = y (k − n + i − 1) .Capítulo 5 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable 5.

g es una constante positiva conocida.5) λn−1 e1 (k + 1). B = [0 · · · 01]T .6) (5.5) y r(k + 1) = en (k + 1) + λ1 en−1 (k + 1) + · · · + r(k + 1) = f [x (k)] + g [x (k)] u (k) − x∗ (k + 1) + λ1 en (k) + · · · + λn−1 e2 (k) n Podemos seleccionar el estado de control de retroalimentación como u (k) = 1 [x∗ (k + 1) − f [x (k)] + kv r (k) − λ1 en (k) − · · · − λn−1 e2 (k)] g [x (k)] n donde λ1 · · · λn−1 son constantes seleccionados para que (z n−1 + λ1 z n−2 + · · · + λn−1 ) sea (5. El sistema de lazo cerrado llega a ser r (k + 1) = kv r(k) (5.  −λn−1 · · · −λ1 Este es un sistema lineal estable con entrada r(k). Entonces. n−i i = 0···n − 1 (5. el error n i i+1 acumulado se define como en−i (k) = xn−i (k) − x∗ (k) .4) sin perder la generalidad.7) donde 1 > |kv | . Puesto que la ecuación (5. Dando Un filtro de seguimiento de error es usado tipicamente en un controlador de robot como sigue [26] r(k) = en (k) + λ1 en−1 (k) + · · · + λn−1 e1 (k) (5.5) se puede reescribir como E(k + 1) = AE(k) + Br(k)  0 1 0  donde E(k) = [e1 (k) · · · en−1 (k)] . la dinámica del error de seguimiento es estable.8) Por eso r(k) es asintóticamente estable. . Usando las ecuaciones (5.68 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable donde x (k) = [x1 · · · xn+m ]T . un diseño de la trayectoria x∗ (k) y estos valores de retardo x∗ (k + 1) = x∗ (k) . A =   (5.9)    .3). g [x (k)] ≥ g > 0. g [x (k)] es diferente de cero con la señal conocida. (5. por eso en (k) es asintoticamente estable.

5. .10) Usamos l(i = 1. fm es Bmi (5. pero el control de retroalimentación es similar como la ecuación (5....12) . son las funciones de pertenencia del conjunto difuso Aj´ y wpi es el punto en el ı cual µBpi = 1.11) = wpi φi donde µAji .. el kth salida del sistema lógica difusa se expresa como: b f [x (k)]p = ( l X i=1 l X i=1 n l n Y XY wpi [ µAji ]/ [ µAji ]) j=1 i=1 j=1 de entrada lingüística X = [x1... xn ] ∈ Rn a una variable de salida lingüística. A1i . (5. Recordando el teorema Stone Weierstrass [4]. estas funciones suaves generales no lineales se pueden expresar por redes neuronales difusa de donde se puede representar como Un modelo genérico difuso se presenta como una colección de reglas difusas en la forma siguiente: b b Ri : si x1 es A1i y x2 es A2i y. la transformación está más completa..1 El sistema de entrada y salida simple (SISO) el grado relativo de un sistema no lineal ecuación (5. . para más discusión puede encontrarse en [3]... la forma general del control de retroalimentación es similar (ver [22]).3) son redes neuronales conocidas en tiempo discreto se pueden aplicar para aproximar estas funciones.... Si f [x (k)] y g [x (k)] en la ecuación (5. ı del producto. Si definimos φi = n Y j=1 n l XY i=1 j=1 µAji / µAji . l = l1 × l2 ×.. ln de [33] sabemos.1 Estructura difusa neuro control 69 Propiedad 5. para sistemas de multi entradas y multi salidas (MIMO). l) difuso si entonces las reglas para realizar un vector de un mapeo son conjuntos difusos estandares [33]. centro promedio y semifallo del borrosificador. . xn es Ani entonces f1 es B1i y.1) en el caso simple. 2. . .... Si el grado relativo está más de uno. Para la entrada xi variables hay l´ conjunto difusos. Bmi En el caso de conexión completa..7).. Usando la deducción (5..

k φ1 [x (k)] − f2 . ∗ g [x (k)] u (k) = W2 φ2 [x (k)] u (k) − e1 g ∗ e f [x (k)] = W1 φ1 [x (k)] − f1 (5.17) La ecuación de redes neuronales difusas se puede expresar en forma de matriz como βb (k + 1) = W1 (k) σ [x (k)] + W2 (k) σ [x (k)] u (k) x (5. wm1 wml w1l     (5.14) el vector de datos φ1 [x (k)] = [φ1 .k φ1 [x (k)] g b [x (k)] = W2. ..70 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable La ecuación (3.k φ2 [x (k)] ∗ e W2 φ2 [x (k)] u (k) = W2..k denotando la estimación de W1 y W2 . ∗ e W1 φ1 [x (k)] = W1. ..18) . g [x (k)] u (k) = b [x (k)] u (k) − e g g (5. Sea W1. con i = 1. La función de vector de dimensión ∗ ∗ sigmoide.13) donde (5. e g donde f1 y e1 son funciones del error de evaluación Wi∗ ∈ R1×n es una matriz constante que puede minimizar el error de la función de aproximación.5) puede expresarse en parámetros b f [x (k)] = W1 φ1 [x (k)] iT h  b[x (k)] = f1 .15) φi y m.. g b f [x (k)] = W1... φl ]T . La representación típica del elemento φi (·) es la función de activación e e e g g donde f = f1 + f2 y e = e1 + e2 son errores de la función de estimación.k y W2...k φ2 [x (k)] u (k) − g2 b e f [x (k)] = f [x (k)] − f. 2. fm = W1 =  b b f   w11 .16) (5.

0 = 0 kxk + (5.k − W2 .2.20) para el control de la planta no lineal ecuación (5.k φ1 [x (k)] + W2.k+1 = W1.k φ1 [x (k)] + W2.k φ2 [x (k)] u (k) + ω 1 (k) r (k + 1) = kv r(k) + ω (k) e g = kv r(k) + f + eu (k) (5.2 Difusa neuro control con algoritmo estable 71 5. Recordando [20].k − W1 .k = W1.20) n donde [·]+ puesto que el sentido de la pseudo inversa en Moor Penrose. 5. W2.k φ2 [x (k)] u (k) − x∗ (k + 1) + λ1 en (k) + · · · + λn−1 e2 (k) + ω (k) n e g donde ω (k) = f + e.k = W2. xT + x = 2. la siguiente ley de actualización del gradiente sin la modificación robusta se puede hacer que el error de seguimiento sea acotado r (k) (estable en el sentido de L∞ ) W1. que se define como (5.22) Teorema 5.k+1 = W2.k − η k r (k) φT [x (k)] 1 donde η k satisface que W2. ∗ f ∗ e g f donde W1. entonces.5.1.23) η si β kr (k + 1)k ≥ kr (k)k 1 + kφ1 k + kφ2 uk2 ηk =  0 si β kr (k + 1)k ≥ kr (k)k (5.24) .3).k φ2 ]+ [x∗ (k + 1) − W1.k − η k r (k) φT [x (k)] u (k) 2   2 (5. ω (k) y f f = kv r(k) + W1.21) El sistema de lazo cerrado es ω 1 (k) las constantes son acotadas ω y ω 1 . ω 1 (k) = f1 + e1 .2 Si usamos el neuro control adaptable ecuación (5.k φ1 [x (k)] + kv r (x) − λ1 en (k) − · · · − λn−1 e2 (k)] (5.19) u (k) = [W2.2. kω (k)k2 ≤ ω. Entonces el control u(k) se puede definir como lo siguiente [1]. Difusa neuro control con algoritmo estable Aprendizaje sin funciones pertenencia La dinámica del error de seguimiento se escribe r(k + 1) = W1. kω 1 (k)k2 ≤ ω 1 .

k ° = i=1 w1.28) ¡ ¢ ∆Lk = η 2 r2 (k) kφ1 k2 + kφ2 uk2 − 2ηk r (k)2 + 2ηk kv r (k)2 + η k r (k)2 + ηk ω 2 (k) 1 k β " # 2 2 ³ ´ kφ1 k + kφ2 uk 2 = −ηk β − 2kv − 1 − η r 2 (k) + η k ω 2 (k) 1 1 + kφ1 k2 + kφ2 uk2 ≤ −πr 2 (k) + ηω 2 (k) 1 (5.23) e2 ∆Lk = Lk+1 − Lk ° °2 ° ° ° °2 ° ° °f ° °f °2 °f ° ° f °2 = °W1.k u (k)° ° ° °´ ³° ° f ° ° f ° = −2η k kr (k)k °φT W1.k ° (5.27) = −2η k kr (k) r (k + 1) − kv r 2 (k) − r (k) ω 1 (k)k ≤ − 2ηk kr (k)k2 + 2η k kv kr (k)k2 + η k kr (k)k2 + η k kω 1 (k)k2 β (5. ≥ β ≥ 1. Seleccionamos una función de Lyapunov como ° ° ° ° ° f °2 ° f °2 Lk = °W1. De la ley de actualización ecuación (5.k u (k)° 1 2 Usando 0 < η ≤ 1.k − η k r (k) φT [x (k)] Usando la ecuación (5.k ° 2 ° 1 ° ° Tf ° Tf ≤ −2ηk kr (k)k °φ1 W1.k ° + °W2.k u (k)° = −2η k kr (k)k kr (k + 1) − kv r(k) − ω 1 (k)k si β kr (k + 1)k ≥ kr (k)k ° ° ° ° ° ° ° f ° f −2η k °r (k) φT W1.k − η k r (k) φT [x (k)] u (k)° − °W2.k − η k r (k) φT [x (k)]° − °W1.k.k+1 = W1. ηk = η 1 + kφ1 k + kφ2 uk2 2 Demostración.26) ° ° ° ° ° ° ° Tf ° Tf −2η k °r (k) φ1 W1.72 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable 1 1+kV aquí 1 ≥ η > 0.k ° + °φT u (k) W2.25) f f W1.k ° + °W2.k .k + φ2 W2.k ° 1 2 ° ° ° ° ° ° ° 2 2 Tf ° 2 2 2 2 f = ηk r (k) kφ1 k + ηk r (k) kφ2 uk − 2η k °r (k) φ1 W1.k W1.22) (5.i = tr W1.29) .k ° − 2ηk °r (k) φT W2. 0 ≤ ηk ≤ η ≤ 1.k ° − 2η k °r (k) φ2 W2.k u (k)° 2 (5. ° ° n o ° f °2 Pn fT f donde °W1.k ° − 2η k °r (k) φT W2.

k ∈ Rm×n . Lk es constante.k .31) W1. y πe2 (k) es una función K∞ .k . La ecuación (5. los pesos en la capa oculta son (5.k x (k)) + kv r (x) − λ1 en (k) − · · · − λn−1 e2 (k)] n donde los pesos en la capa de salida son V1.k φ2 (V2.k x (k)] (5.2.22) y (5. ηζ 2 (k) ın e2 a e2 kr (k)k .k φ1 [V1.2 Difusa neuro control con algoritmo estable ·³ ¸ ´ ¡ ¢ η κ 2η k donde π = − 2kv − 1 − .k ∈ R1×m . Puesto que a β k 1+κ ³ 1+κ ´ 2 β ≥ 1.17) se cambia como b f [x (k)] = W1. W2. entonces el error de identificación e (k) .29). m es la dimensión de la capa oculta. ∆Lk = 0. n es la dimensión del estado. W2.k x (k))]+ [x∗ (k + 1) − W1.k . κ = m´x kφ1 k2 + kφ2 uk2 . 1 β < 1.3). por eso Vk admite una función de Lyapunov ISS.30) es una función K. MLP) que se representan como [26] para aproximar funciones no lineales f [x (k)] y g [x (k)] en la ecuación (5.k φ1 (V1.32) . El control de retroalimentación es entonces u(k) se pude definir de la manera siguiente u (k) = [W2.k φ2 [V2. 5.5. La ”ENTRADA” corresponde al segundo termino de la ultima línea en la ecuación (5. 1 β donde n × m´ (wi ) y n × m´x (wi ) son funciones K∞ . De las ecuaciones (5.k son las constantes. el ”ESTADO” corresponde al primer término de la ultima línea en la ecuación (5. V2.25) conocemos Vk es una función de e (k) y ζ (k) .29). Aprendizaje con funciones pertenencia Ahora consideramos una red neuronal multicapa(o perceptrones multicapa. la dinámica del error de identificación estable entrada estado. el ”ESTADO” e (k) es acotado. Puesto que kr (k + 1)k < Si β kr (k + 1)k < kr (k)k . W1. entonces el modelado del error ζ (k) = ε (k) + µ (k) . Por que la ”ENTRADA” ζ (k) es acotada y la dinámica es ISS. r (k) es acotado. π > 0 ¡ ¢ ¡ ¢ n m´ wi ≤ Vk ≤ n m´x wi ın e2 a e2 1 1+kV 73 ≥ (5. β − 2kv − 1 > 1.2.k x (k)] g b [x (k)] = W2.

k φ [V1.k xT 0 0 e e donde ω 2 (k) = f1 + g1 + R1 + R2 .k+1 = V1.k − W2 .k xu (5.k φ2 u + W2.k+1 = V2.k xT (k) T V2.k = W1.k − ηk r (k) φT . x2 ) = x1 − x1 + x2 − x2 f + Rl k! ∂x1 ∂x2 0 k=0 ∗ g eu (k) = W2 φ2 [V2∗ x (k)] u (k) − W2.k − W1 .k x (k)] − f1 (5.k+1 = W2.k − η k r (k) r (k) φ1 W1. Y ∗ W2 φ2 [V2∗ x (k)] u (k) − W2.k φ2 [V2.k = V1.33) es Teorema 5.3).k φ1 [V1. x0 y x0 corresponda W1.k+1 = W1. ∗ e f W1.k φ2 [V2.k − η k r (k) uφT .k x (k) u (k) + R2 0 (5.k x (k)] 0 e f = W1. El sistema de lazo cerrado ecuación (5. V1.k x (k)] u (k) − e1 g ∗ e e f = W1 φ1 [V1∗ x (k)] − W1. 1 W2. Si permitiéramos que x1 y x2 correspondan a ∗ W1 .38) (5.k = V2.k x (k) + R1 1 (5.34) (5.k − V2∗ .k = W2.k − V1∗ .37) ∗ e f de donde W2.k φ1 + W1.k x (k) .3 Si usamos en neuro control adaptable ecuación (5.32) al control de la planta no lineal ecuación (5.k − η k r (k) uφ1 W2.k y V1. una función suave f tiene una formula de Taylor de la forma ¸ l−1 X 1 ·¡ ¡ ¢ ∂ ¢ ∂ k 0 0 f (x1 .36) donde φ1 es la derivada de la función de activación no lineal φ1 (·) en un punto de V1.k φ1 [V1.k φ2 V2.k x (k)] V1. 1 T V1. 2 1 ∗ W1 φ1 [V1∗ x (k)] − W1.33) Simultáneamente a la ecuación (5.16) En el caso de dos variables independientes. kω 2 (k)k2 ≤ ω 2 . la siguiente ley de actualización hace que el error de seguimiento r (k) sea acotado (estable en el sentido L∞ ) W1.k .k φ1 V1.k φ2 [V2.k φ1 [V1.74 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable El sistema de lazo cerrado llega a ser e g r (k + 1) = kv r(k) + f + eu (k) (5. 0 0 f e f e r (k + 1) = kv r(k) + ω 2 (k) + W1.35) donde Rl recordando de la formula de Taylor. V1∗ .k x (k)] u (k) 0 f e = W2.k x (k)] u (k) + W2.k x (k)] + W1.k x (k)] V2. V2.k φ2 [V2.39) .k x + W2.

k ° + °V2.k φ1 W1.k − η k r (k) φ1 ° − °W1.k ° + °φ2 W2. El error promedio de la identificación satisface J = l´ sup ım T →∞ T 1X 2 η r (k) ≤ ω 2 T k=1 π (5.k xT ° + °φ2 W2.k u° + °V1.40) ≥ β ≥ 1.k x u° ≤ −2η k kr (k) r (k + 1) − kv r2 (k) − r (k) ω 2 (k)k si β kr (k + 1)k ≥ kr (k)k ° ° ° ° ° ° °´ ³° ° f ° ° f ° °e 0 T T° °e 0 T T ° −2η k kr (k)k °φ1 W1.k x ° + °V2.k x u° ≤ − 2ηk kr (k)k2 + 2η k kv kr (k)k2 + η k kr (k)k2 + η k kω 2 (k)k2 β (5.k − ηk r (k) φ2 W2.k ° ° 0 ° ° 0 °´ ³ ° ° ° ° T T = η 2 r 2 (k) kφ1 k2 + kφ2 uk2 + °φ1 W1.39) ° °2 ° ° ° °2 ° ° °f ° ° f °2 ° f ° °f ° ∆Lk = °W1.41) · ¸ ° 0 °´ ° ° 0 ³ η κ ° ° 2 2 T T° T T ° donde π = 1− > 0.3) ° ° ° ° ° ° °´ ³° ° f ° ° f ° °e 0 T T° °e 0 T T ° −2η k kr (k)k °φ1 W1. 1 1+kV 75 (5. similar con el Teorema (5.k 2 2.k ° + °V2.k ° + °φ2 W2.k − η k r (k) φ1 W1.44) (5. a 2 k De la ley de actualización ecuación (5.k ° + °V1.2 Difusa neuro control con algoritmo estable donde η k satisface  η  ° 0 ° ° 0 ° si β kr (k + 1)k ≥ kr (k)k 2 2 T T kφ1 k + kφ2 uk + °φ1 W1.38).k x u° .k xT u° k ° ° ° ° ° ° °´ ³° ° f ° ° f ° °e 0 T ° °e 0 T ° −2η k kr (k)k °φ1 W1.k ° (5. a k 1+κ 1+κ ω 2 = m´x [ω 2 (k)] .k φ2 W2.42) (5.k xT ° ηk =  0 si β kr (k + 1)k ≥ kr (k)k aquí 1 ≥ η > 0.k φ1 W1.k ° + °φ2 W2.k u° + °V1.k x ° + °φ2 W2.k ° + °W2.k φ W xu° 1 1.k ° ° ° ° °2 ° ° °2 ° 0 0 °e ° ° e °2 ° e ° e °2 T ° T T T + °V1.k φ2 W2.k ° + °W2.k xT ° + °uφ2 W2. κ = m´x kφ1 k + kφ2 uk + °φ1 W1.k x ° + °V2.k φ W x° + °V2.k u° + °V1.43) Usando la ecuación (5. Seleccionamos una función de Lyapunov como ° ° ° ° ° ° ° ° °f °2 ° f °2 ° e °2 ° e °2 Lk = °W1.k x (k)° − °V1.45) .k x (k) u° − °V2.k − η k r (k) φ2 u° − °W2.5.k Demostración.

k +η k ω 2 (k) 2 (5.k x° + °φ2 W2. La ecuación (5. Puesto que kr (k + 1)k < como · Si β kr (k + 1)k < kr (k)k .k .29) se reescribe (5. ∆Lk = 0.46). W1.46).42) conocemos Vk es una función de e (k) y ζ (k) . κ = m´x(kφ1 k2 + kφ2 uk2 + °φ1 W1. 1 β < 1. el ”ESTADO” corresponde al primer termino de la ultima línea en la ecuación (5.k xT ° + °φ2 W2.k xT ° + a donde π = − 2kv − 1 − β k 1 1 +³ κ ° ° +κ ´ ° 0 T T ° 1 2 °φ2 W2. ηζ 2 (k) ın e2 a e2 kr (k)k . r (k) es acotado. Por que la ”ENTRADA” ζ (k) es acotada y la dinámica es ISS. y πe2 (k) es una función K∞ .76 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable η ° 0 ° ° 0 ° T T kφ1 k + kφ2 uk + °φ1 W1.48) de 1 a T . Lk es constante. Puesto que 1+kV ≥ β ≥ 1.46) ·³ ¸ ° 0 ° ´ κ η ° ° 2η k T .k x u°).k xT u° 2 ° 0 ° ° °  r 2 (k) = −η k  β − 2kv − 1 − η 2 2 °φ W T x° + °φ0 W T xT u° 1 + kφ1 k + kφ2 uk + 1 1. W2.38) y (5. 1 β ≤ −πr2 (k) + ηω 2 (k) 2 donde n × m´ (wi ) y n × m´x (wi ) son funciones K∞ .k 2 2.47) es una función K. La ”ENTRADA” corresponde al segundo término de la ultima línea en la ecuación (5.k son las constantes. De las ecuaciones (5. por eso Vk admite una función de Lyapunov ISS. β − 2kv − 1 > 1.k xT u° k 2 2 Usando 0 < η ≤ 1. 0 ≤ ηk ≤ η ≤ 1. el ”ESTADO” e (k) es acotado.k xu° ° 0 ° ° 0 °´ ³ ° ° ° ° T T ∆Lk = η2 r2 (k) kφ1 k2 + kφ2 uk2 + °φ1 W1. entonces el error de identificación e (k) .48) ∆Lk ≤ −πr 2 (k) + ηω 2 (k) ≤ πr 2 (k) + ηω 2 2 Sumando la ecuación (5. obtenemos P LT − L1 ≤ −π T r 2 (k) + T ηω 2 K=1 (5. La dinámica del error de identificación estable entrada estado.k x° + °φ2 W2. entonces el modelado del error ζ (k) = ε (k) + µ (k) . y usando LT > 0 y L1 es una constante. ηk = − 2ηk r (k)2 + 2η k kv r (k)2 + η k r (k)2 + η k ω 2 (k) ° 2 β ° ° °   ° 0 T ° ° 0 T ° 2 ³ ´ kφ1 k + kφ2 uk2 + °φ1 W1. π > 0 ¡ ¢ ¡ ¢ a e2 n m´ wi ≤ Vk ≤ n m´x wi ın e2 (5.49) PT 2 π K=1 r (k) ≤ L1 − LT + T ηω 2 ≤ L1 + T ηω 2 .

5. x2 (k)]T .51) (y(k) ∗ y(k) + y(k + 1) ∗ y(k + 1) + 1) + 0. 2 1 y ∗ (k) es la trayectoria deseable. r(k) = e2 (k) + λ1 e1 (k) (5.5 ∗ tanh(y(k)) + 1] z(k) + u(k) (y(k) ∗ y(k) + y(k + 1) ∗ y(k + 1) + 1) z(k + 1) = b1 ∗ y(k + 1) + b2 ∗ z(k) (5.k φ1 [V1. Si definimos x1 (k) = y (k) . Simulación Para esta simulación usaremos un sistema no lineal en tiempo discreto comparando con otros modelos.3) x1 (k + 1) = x2 (k) x2 (k + 1) = f [x (k)] + g [x (k)] u (k) (5.52) Como [27]: donde y(k) es la posición a manipular.5. (5. T = 0.51) y (4. Como [43]: y(k + 2) = [y(k) ∗ y(k) + y(k + 1) ∗ y(k + 1) + 2.55) . El error de seguimiento se escribe como donde x (k) = [x1 (k) .k x (k)] (5.7) se pueden trasformar en la ecuación (5.5 ∗ tanh(y(k) + 1) ∗ u(k) + z(k) (y(k) ∗ y(k) + y(k + 1) ∗ y(k + 1) + 1) (5.01.53) g [x (k)] = 1. las ecuaciones (5. Por que g [x (k)] = 1. f [x (k)] = 2 (1 − T ) x2 (k) +(2T − 1) x1 (k) +10T 2 sin x1 (k) . 77 5. x2 (k) = y (k + 1) . la red neuronal difusa se cambia como 2 5 b f [x (k)] = W1.54) donde e2 (k) = x2 (k)−x∗ (k) = y (k + 1)−y ∗ (k + 1) .35 ∗ sin(y(k) + y(k + 1) y(k + 2) = (y(k)2 + y(k + 1)2 + 2.3. T es el tiempo de muestra.5 ∗ [y(k) ∗ y(k + 1)] +u(k) (5. e1 (k) = x1 (k)−x∗ (k) = y (k)−y ∗ (k) .3 Simulación entonces la ecuación (5. y ∗ (k) = ¡ ¢ π sin π k .50). u (k) es el control del torque.41) se demuestra.50) Como [16]: y(k+2) = 1. Si nosotros seleccionamos λ1 = 0.

k − η k r (k) φT [V1. Este modelo corresponde a Narendra descritos anteriormente ecuaciones (5.1). (5.56) b y (k + 2) = f [x (k)] − f [x (k)] + y ∗ (k + 2) + kv r(k) − λ1 e2 (k) r(k + 1) = r(k) + ω (k) b donde r(k) = y (k + 1) − y ∗ (k + 1) + λ1 y [(k) − y ∗ (k)] .51).60) Las simulaciones siguientes nos describen el sistema comparando con varios modelos Este modelo corresponde a Chen Figura (5.78 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable de donde V1. (5.50). β = 2.k ∈ R1×20 .k+1 = V1.56) (5.k − η k r (k) φ1 W1.k x° ηk =  0 si β kr (k + 1)k < kr (k)k (5.59) Puesto que e2 (k) = e1 (k + 1) y r(k) = e2 (k) + λ1 e1 (k). . (5.k x (k)] + kv r (k) − λ1 e2 (k) 2 donde kv = −0. ω (k) = f [x (k)] − f [x (k)] .52). (5.k φ1 [V1. Figura (5. Entonces el control adaptable u(k) puede ser u (k) = x∗ (k + 1) − W1.3).k x (k)] 1 T V1.5. La actualización de los pesos como W1. El sistema de lazo cerrado se deriva de las ecuaciones (5. Este modelo corresponde a Wen Figura (5.58) donde η = 1.k ∈ R20×2 .2). W1. de manera tenemos (5.k xT (k) 0 (5.57) donde η k satisface que  η  ° 0 ° si β kr (k + 1)k ≥ kr (k)k 2 1 + kφ1 k + °φ1 W1.53).k+1 = W1.

1: Identificación del sistema no lineal para el modelo Chen .5.3 Simulación 79 10 y (k ) 8 6 4 2 0 -2 -4 -6 -8 -10 ˆ( y k) 0 100 200 300 400 500 600 Figura 5.

2: Identificación del sistema no lineal para el modelo Narendra .80 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable 10 y (k ) 8 ˆ( y k) 6 4 2 0 -2 -4 -6 -8 -10 0 100 200 300 400 500 600 Figura 5.

3: Identificación del sistema no lineal para el modelo Wen .5.3 Simulación 81 10 y (k ) ˆ( y k) 8 6 4 2 0 -2 -4 -6 -8 -10 0 100 200 300 400 500 600 Figura 5.

82 Redes neuronales difusas dinámicas para sistemas no lineales de control adaptable .

de donde no necesariamente para la ley del gradiente descendiente. concluimos que las técnicas comúnmente usados de robusticidad.Capítulo 6 Conclusiones Se propuso el modelo dinámico con un algoritmo de aprendizaje donde se aplican en varios problemas temporales incluyendo un modelo NARMA. también se hicieron comparaciones generales en sistemas difusos y redes neuronales. Posteriormente se trabajara haciendo aprendizajes con funciones pertenencia conocidas y luego para funciones pertenencia desconocidas. también usamos la estabilidad estado entrada (ISS) para aproximar la función a estabilizar. como un método de modificación sigma. Aproximando a una entrada estado estable. La función de comparación son comportamientos con una sucesión estática y sistemas dinámicos y algunos modelos recurrentes difusos existentes esto se puede observan en las simulaciones donde se pueden considerar sistemas de identificación eficientes. Además se uso la estructura tipo mamdani y takagi sugeno kang (TSK) para la estática difusa en redes neuronales Finalmente tenemos que las redes neuronales difusas dinámicas para sistemas no lin- . La identificación neuro difuso y control en sistemas estáticos y dinámicos. En esta tesis estudiamos el modelado de un sistema no lineal con redes neuronales difusas usando un algoritmo de aprendizaje estable.

concluimos que el método de identificación neuro difuso en sistemas no lineales de control adaptable es buena.84 Conclusiones eales de control adaptable la función a identificar no se conoce y se parte haciendo uso de neuro difuso así notamos que el sistema y la identificación comparando con otros modelos en algunos casos decimos que fue fructífera y en algunos casos segun los valores declarados hacían el sistema inestable para otro modelo. .

B.. 2.Albert. H. A TSK-Type recurrent fuzzy network for dynamic systems procesing by neural network and genetic algorithm.Chen and H. Math. [7] Nguyen. Vol. ”Neural Networks. Vol. Vol..55. Fuzzy Syst. Int.5.. Man. ”Neural Networks for Self-Learning Control Systems. 2nd Ed. Academic Press. 2002. D. 1972.40. Sig Syst. 1989 [5] C. Approximation by Superposition of Sigmoidal Activation Function. Vol. 1995. IEEE Trans. and Back.C. A. Regression and the Moore-Penrose Pseudoinverse..B.A. Vol.” IEEE Control Systems Magazine. Syst. 32. ”Locally Recurrent Globally Feedforward Networks: A Critical Review of Architectures”. [8] Tsoi. IEEE Trans.5. C. . Mastorocostas and J. D. Theocharis. S.2. Prentice Hall U.1992 [3] F.Khalil. No. on Neural Networks. 10.K.Juang. [9] Haykin. and Widrow. Automatico Control. IEEE Trans. pp.K. [2] F. Adaptive control of a class of nonlinear discrete-time systems using neural networks. IEEE Trans. Adaptive control of nonlinear systems using neural networks.Bibliografía [1] A.C.Cybenko. 303-314. [6] P.Control. 10 pp. 1999..S. vol.. 18-23.Chen and H. [4] G. B. A recurrent fuzzy-neural model for dinamic systems identification. A.No.J.Khalil. 791-801. No. 1299-1317.2002. Vol. 155-170. March 1994. 229-239. 1990.6.F. 179-190. A Comprehensive Foundation”. Cybern.Control.

Neural fuzzy systems: A neural-fuzzy synergism to intelligent systems. [12] Li-Xin W. Vol.Lin and G. On fuzzy modeling using fuzzy neual networks with the back-propagation algorithm. y C. NJ. Lecture Notes in Control and Information Sciences..W. [17] M. 2001. C. Vol.Hornik. Harris. Springer-Verlag.86 BIBLIOGRAFÍA [10] Hilera. ”Redes Neuronales Artificiales. 1995. 1979. ”Redes Neuronales y Sistemas Difusos”.Y. J.1991. Brown. Prentice-Hall Inc. B. [14] C. Neural NetiDorks.5. 1994. 1994.251-257. Vol. R. A systematic neuro-fuzzy modeling framework with application to material property prediction. ”A course in Fuzzy Systems and Control”.Chan. Man. Vol. Vol5. Prentice Hall. y Sanz M.. Ra-Ma. . [19] S. IEEE Trans. [15] W. Modeling of nonlinear stochastic dynamical systems using neurofuzzy networks.5.I. 1999. 38th IEEE Conference on Decision and Control. IEEE Trans. A robust back propagation learning algorithm for fuunction approximation.Jain. 2nd Ed 2001. [20] k.Chen and R.20. USA. Approximation capabilities of multilayer feedforward networks. RA-MA. K.Cheung and Y. [11] Martin B.S. J.Uchikawa. Fundamentos Modelos y Aplicaciones”.Wang. Berlin.31. No3. 1997.T. Syst. ”Neurofuzzy Adaptive Modelling and Control”. Stability of Adaptive Controllers. Cybern.Linkensm. T.. 2643-2648.4 No.Lee. prentice Hall. New York.Neural Networks.C. A.Egardt. Ed.Horikawa. [13] M. IEEE Trans. Phoenix.J.Furuhashi and Y. 781-790. y Martímez V. 1996. 801-806.Chen and D. 1992. Neural Networks.C.B. [16] D. 3 No.Chan. [18] B.A.C. Ed.

Upper Saddle River: NJ.32.. Robust Adaptive Control. Adaptive Control Using Neural Networks and Approximate Models. Vol. IEEE Trans. [23] Z. No. 1996.T.P. B. B. No.. Vol. A. 1997. No.12. Syst. Automatica.Wang.2. 1996. [24] Y. Fuzzy Sets anc Systems. Man.Tsai and P.Narendra and S. Identification of Nonlinear Dynamical Systems Using Multilayered Neural Networks.Jagannathan and F. Inc.Sun. [29] S. Prentice-Hall.2. [22] S. H. Cybern.30.Lee and W. A neural fuzzy control system with structure and parameter learning. _Cybern. Vol. Vol. IEEE Trans. Observer-based adaptive fuzzy-neural control for unknown nonlinear dynamical systems. Man.A. IEEE Trans.37.T.T. 183-212.Yu. 200l.Ioannou and J. 1999.70. 358-364. 217223.BIBLIOGRAFÍA 87 [21] P. B. 1707-1712.30. 2001.Lewis. Vol. Syst. Vol. Man.7.Liu.Y. . Cybern. On the optimal design of fuzzy neural networks with robust learning for function approximation. [25] C.Wang. Automatica. Cybern. Vol. Syst. 583-591. Vol. T.H. [28] H.L. Vol. 857-869.Leu. Multilayer Neural-Net Robot Controller with Guaranteed Tracking Performance. IEEE Trans. [26] F. B.Mukhopadhyay.Lewis.. Neural Networs . 388-399. 1995.a novel approach to function approximation.L. IEEE Trans.H.31.L.Lin.Er. Input-to-State Stability for Discrete-Time Nonlinear Systems.J.Jiang and Y.G. 475-485.Syst. 467-475. No. Dynamic fuzzy neural networks.Wu and M. Neural Networks. 2000.T. 29. 1996.8. 2000. [30] C.S.Lin. Man. Dynamic optimal learning rates of a certain class of fuzzy neural networks and its applications with genetic algorithm.3.Yesildirek and K.Liu and C.Wang. IEEE Trans. [27] K.

A.S.C. B.31. Christodoulou and P. [36] G.Wang. Christodoulou.Wang. Robust adaptive fuzzy neural control of nonlinear dynamical systems using generalized projection updated law and variable structure controller. Nonlinear Adaptive Trajectory Tracking Using Dynamical neural Networks.Liu and C. Rovithakis and M. 29.. Cybern. 467-475. M. Vol. Man. No. IEEE Trans. M. Ioannpu. Neural Network. E. Indirect Adaptive control via parallel dynamic neural networks.Hsu.27. 1994. No. 583-591.Y. . 140-147. 1995. N.A. 422-421.Leu. Cybern. 1402-1411. Man. [37] E. No. 1999. Y. [34] W. [32] C.. IEEE Trans.Wang.G.Lee and W.M. Dynamic optimal learning rates of a certain class of fuzzy neural networks and its applications with genetic algorithm. Poznyak. 740-747.Wang. H.Lee. Vol. 24.A.B. [35] W.. Cybern. Yu. T.Control Theory and Applications. Vol.L.Y. 5. Observer-based adaptive fuzzy-neural control for unknown nonlinear dynamical systems.Wang. [38] A. Cybern. on Neural Networks.31.Y.X. 10. 1999.P. 2001.G. Adaptive Control of Uknown Plants Using Dinamical Neural Networks.88 BIBLIOGRAFÍA [31] Y.T. IEEE Trans. 1999. Syst„ Man. 1997. Man. Syst. IEE Proceding . Vol. [39] Wen Yu and Alexander S.A. Vol. 146.T. 2001. 400-412. W. Perez.L. Adaptive Fuzzy Systems and Control. IEEE Trans. IEEE Trans. Polycarpou. B.. Syst. 1. on Syst. B.T. Englewood Cliffs NJ: Prentice-Hall.Leu and C. Man and Cybern. [33] L. Syst.Liu and C. IEEE Trans.. IEEE Trans. Vol.Lin. Sanchez and J. Kosmatopulos.Wang. 25-30. Poznyak. 1994. 2. 6.H. Vol. Vol. High order neural networks structures for identification of dynamical systems. B.H. T. Function approximation using fuzzy neural networks with robust learning algorithm. C.

Vol. [43] Wen Yu. 412-417. Rigoberto Toxqui. Some stability properties of dynamic neural networks. No. IEEE Trans. IEEE Trans. Neural Networks. Li. 2001. IEEE Trans. Cancun.48. No. 256-259.BIBLIOGRAFÍA 89 [40] Wen Yu. 2. 48. Some new results on system identification with dynamic neural networks. 256-159. Xiaoou Li.2.1. Vol. Circuits and Systems. Fuzzy Identification Using Fuzzy Neural Networks with Stable Learning Algorithms. Some stability properties of dynamic neural networks. IEEE Trans. part I. on Fuzzy Systems.Yu and X. Part I.12. Stable Fuzzy Identification Using Recurrent Fuzzy Neural Networks"en el IASTED International Conference Neural Networks and Computational Intelligence. No. Circuits and Systems. 2003. Li. México . [42] W.Yu and X. [41] W. Vol. accepted for publication [44] Wen Yu. 2001.

Sign up to vote on this title
UsefulNot useful