Segunda Tarea IPD-431

Jos´e Luis Allende Bustamante
19 de Junio de 2014
Problema 1 (20 pts)
Defina el concepto de caminata aleatoria (random walk), indique aplicaciones y provea un ejemplo apoyado en
simulaciones.
Desarrollo
Una caminata aleatoria se define como una trayectoria que puede seguir un m´ovil en R
n
. Para dicha trayectoria
cada paso que se da es discreto y se modela como una variable aleatoria, en el caso de una dimensi´ on es de tipo
Bernoulli y la posibilidad de tomar un sentido es p mientras que la de tomar otro camino es 1 − p. En el caso de
m´as dimensiones se puede considerar el proceso como la probabilidad de seguir un camino como p y la de tomar
cualquiera de los otros caminos como 1 −p.
Existe una analog´ıa de este proceso con las m´aquinas de estado, donde la posici´on inicial es el estado inicial y se
cambia de estado con alguna probabilidad.
En el caso de una y dos dimensiones es posible determinar la probabilidad de que al final de alguna cantidad n
de pasos el proceso se encuentre en algna posici´on x. Mientras que en 3 o m´as dimensiones no es posible determinar
dicha probabilidad. Esto encuentra su analog´ıa en las m´aquinas de estado en los estados recurrentes y transitorios
respectivamente.
En t´erminos generales los procesos en los cuales es posible determinar la probabilidad es posible determinar una
expresi´on utilizando t´ecnicas de conteo, el problema es que no es viable al ser ya de 2 dimensiones pues la cantidad
de casos distintos es de 4
N
lo que se hace r´apidamente complejo.
Debido a lo anterior resulta conveniente trabajar con posiciones que dependen exclusivamente de la posici´on an-
terior y de la probabilidad de tomar una nueva direcci´ on para el siguiente paso (proceso de Markov). As´ı, la posici´on
en el paso n + 1 es tal que:
X
n+1
= x
n

n
· h ⇔ X
N
(t) = x
0
+
N

i=0
ξ
i
· h (1)
Donde h es la longitud del paso y ξ toma valores con distinta probabilidad y que permiten modificar la posici´on
como sa necesario y seg´ un las dimensiones. Para el caso de 1 dimensi´ on se puede considerar:
ξ =
_
−1 ; Retroceder en una dimensi´ on con probabilidad P(ξ
n
= −1) = 1 −p
1 ; Avanzar en una dimensi´ on con probabilidad P(ξ
n
= 1) = p
Las estad´ısticas de segundo orden del proceso son:
E[X] = x
0
+
N

i=0
E[ξ
i
] · h = x
0
+N(2p −1)h
V[X] = N · h
2
De lo anterior se aprecia que el proceso en 1 dimensi´ on es posible modelarlo desde el punto de vista combinatorio
como una distribuci´ on de Binomial, tal que la probabilidad de terminar en una posici´on X = x, luego de dar N pasos
es (condicionado a posici´on inicial 0):
1
P(X = x) =
_
N
x
_
p
x
(1 −p)
N−x
En el caso en que p =
1
2
se dice que el paseo aleatorio es sim´etrico y por tanto la esperanza es la posici´on inicial.
Lo anterior es posible verlo en diferentes aplicaciones como lo son:
n el procesamiento de im´ agenes, los caminos aleatorios son utilizados para determinar las etiquetas (es decir,
“objeto” o “fondo”) para asociarlas con cada p´ıxel.
Juegos de azar donde existe posibilidad de ganar y perder en cada juego, ejemplo la ruleta donde se puede los
resultados de los juegos y el total de monto de dinero del que se dispone sigue un camino aleatorio.
Movimiento browniano: Resume el movimiento de particulas en dos dimensiones, se puede considerar como
un proceso en el l´ımite de los paseos aleatorios discretos, donde se modela como una distribuci´ on Gaussiana
continua. Para ello, la media es x
0
y la varianza cumple con h =

∆t, ∆t =
t
N
. As´ı, con muchos pasos se
puede modelar como un proceso Normal ∼ N(x
o
, t)
En f´ısica es posible considerar los modelos de difusi´ on como caminos aleatorios.
En el caso de finanzas los valores de la bolsa y sus utilidades se puede considerar que siguen una caminata
aleatoria.
0.0.1. Ejemplo Unidimensional
:
Consid´erese que se desea modelar el movimiento de una particula en 1 dimensi´ on, en este caso se considera que la
probabilidad de que tome el camino a la derecha es p = 0,5 y a la izquierda es 0,5 el avance en cada paso es 0.01[m]
y realiza un paso cada 0.1[ms].
Figura 1: Caminata aleatoria unidimensional
Determinar el gr´afico con diferentes caminos aleatorios para 10000 pasos.
El siguiente gr´afico muestra 7 trayectorias posibles para el la situaci´ on anterior:
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
t[s]
x
[
m
]
Figura 2: Posibles trayectorias
2
Deteterminar posibilidad de a los 100 pasos llegar a la posici´ on 2[cm], para una posici´ on inicial
en 0
Dada la definici´on de las variables, lo que se pide es determinar la posibilidad de que se encuentre en la posici´on
x = 20 al dar N = 1000 pasos.
P(X = 20) =
_
100
20
_
0,5
20
· 0,5
80
= 4,2282 · 10
−10
Si p = 0,3 mostrar el cumplimiento de las estad´ısticas de segundo orden (esperanza en particular)
para este caso y el anterior para 1000 pasos
De la definici´on se tiene que la esperanza en cada caso ser´ıa:
µ
x1
= x
0
+N(2p −1)h = x
0
= −4[m]
µ
x2
= x
0
+N(2p −1) = 0
Por lo que es de esperar que independiente del camino que se elija ´estos debiesen tender a los valores anteriores,
en la siguiente figura se muestra tal situaci´ on con 7 caminos para cada caso.
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−4.5
−4
−3.5
−3
−2.5
−2
−1.5
−1
−0.5
0
0.5
t[s]
x
[
m
]
Figura 3: tendencia a la esperanza
Un hecho interesante de analizar es que para distintos caminos aleatorios generados si se toma la cantidad de
veces que se repite una posici´on en particular ´esta debe distribuir en forma normal siempre, en este caso se toma la
´ ultima posici´on de los vectores para 12000 caminos diferentes:
−44 −43 −42 −41 −40 −39 −38 −37 −36
0
100
200
300
400
Figura 4: Muestra de que cada posici´on tiene una distribuci´ on normal.
3
˜ u u
K G
y
d
a) b)
H
n ˆ
d
Figura 5: (a) Sistema lineal excitado por ruido blanco (b) lazo de control cuya actuaci´on es enviada a trav´es de un
canal de ruido aditivo.
Problema 2 (35 pts)
Considere un proceso estacionario en sentido amplio d de media µ
d
=
_
0 0
¸
T
y con espectro
S
d
(z) =
_
β1
2
γ1
2
z
(α1−z) (α1 z−1)
0
0
β2
2
γ2
2
z
(α2−z) (α2 z−1)
_
. (2)
a) Considere el esquema de la Figura 5(a), donde n corresponde a un proceso de ruido de media µ
n
y de matriz de
varianza constante P
n
, y H es un sistema lineal de dos entradas y dos salidas, cuya descripci´on en variables de
estado est´ a dada por
x(k + 1) = Ax(k) +Bn(k), x(0) = x
0
, k ∈ N
0
, (3a)
ˆ
d(k) = Cx(k) +Dn(k), (3b)
sujeto a que B = I y C = I, donde I es la matriz identidad de dimensi´ on dos.
I) Dise˜ ne un filtro H y un ruido n de tal forma que las estad´ısticas estacionarias de primer y segundo orden
de
ˆ
d sean iguales a las de d (imponga condiciones en α
i
, β
i
y γ
i
(i = 1, 2) si es necesario).
II) ¿Es posible construir un proceso
ˆ
d tal que sus estad´ısticas de primer y segundo orden sean iguales a la del
proceso d para todo instante?
b) Considere el esquema realimentado de la Figura 5(b), donde G representa una planta, K su controlador (ambos
SLIT de tiempo discreto, de dos entradas y dos salidas, y con matriz de transferencia diagonal), y =
_
y
1
y
2
¸
T
corresponde a la salida del sistema, u =
_
u
1
u
2
¸
T
denota la se˜ nal de control, d =
_
d
1
d
2
¸
T
es el proceso descrito
anteriormente, y ˜ u =
_
˜ u
1
˜ u
2
¸
T
corresponde a la entrada de la planta. Consideraremos que la se˜ nal de control es
enviada a trav´es de un canal de ruido aditivo, donde d corresponde al ruido del canal, y es tal que ˜ u = u + d.
(Note que dicho canal esta formado por dos canales escalares tal que ˜ u
i
= u
i
+d
i
, i = 1, 2). Suponga que el canal
satisface
w
i

σ
2
ui
σ
2
di
< W
i
, (4)
donde w
i
corresponde a la relaci´on de se˜ nal a ruido estacionaria en la componente i-´esima del canal ruidoso.
Determine condiciones necesarias y suficientes sobre K y W
i
para que el problema de estabilizar el lazo (en sentido
cuadr´atico medio), sujeto a las restricciones del canal, sea un problema factible. Dichas condiciones deben quedar
expresadas en funci´ on de un problema de minimizaci´ on (no necesariamente convexo).
Desarrollo
a) I) Dado que se conoce el espectro de salida del sistema y se aprecia q es racional, y considerando que el proceso
es estacionario en sentido amplio, se tiene que es posible expresar el espectro de la siguiente manera:
S
d
= Ω
d
(z) · Ω
d
(z)

(5)
4
Donde Ω
d
(z)

= Ω
d
(z
−1
)
T
. De lo anterior y considerando que se trata de una matriz diagonal, se tiene la
siguiente ecuaci´ on matricial:
S
d
(z) =
_
β1
2
γ1
2
z
(α1−z) (α1 z−1)
0
0
β2
2
γ2
2
z
(α2−z) (α2 z−1)
_
=
_
a b
c d
_
·
_
a b
c d
_
T
(6)
S
d
(z) =
_
a
2
+b
2
ac +bd
ac +bd c
2
+d
2
_
Se tiene que cumple con esto b = c = 0, a =
β1γ1
(z−α1)
, d =
β2γ2
(z−α2)
. As´ı, se obtiene que:

d
(z) =
_
β1γ1
(z−α1)
0
0
β2γ2
(z−α2)
_
(7)
Por otra parte, veremos cu´ales son las estad´ısticas de
ˆ
d(k):
µ
ˆ
d
(k) = Aµ
x
(k) +Dµ
n
(8)
Adem´as, la varianza es tal que:
P
ˆ
d
(k) = E{(
ˆ
d(k) −µ
ˆ
d
(k))(
ˆ
d(k) −µ
ˆ
d
(k))
T
} (9)
= E{
ˆ
d(k)
ˆ
d(k)
T
} −µ
ˆ
d
(k)µ
ˆ
d
(k)
T
(10)
Continuando el desarrollo de la expresi´on se tiene que:
P
ˆ
d
(k) = C(P
x
(k) +µ
x
(k)µ
x
(k)
T
)C
T
+CE{x(k)n(k)
T
}D
T
+DE{n(k)x(k)
T
}C
T
+DE{P
d
(k) +µ
n
(k)µ
n
(k)
T
}
(11)
De lo anterior se puede apreciar que el sistema se torna complejo si no se hacen simplificaciones adecuadas,
para ello es conveniente utilizar los grtados de libertad otorgados. Lo primero que se considera es que el
proceso es tal que el proceso de ruido debe ser Ruido Blanco de tal forma que la secuencia tome valores inde-
pendientes unos de otros y adem´as se tiene la independencia con el estado x, esto hace que varios momentos
se anulen. Por otro lado, este ruido blanco, como aparece en el enunciado, posee matrices de esperanza y
varianza constantes.
Para los efectos anteriores y adem´as buscando garantizar la condici´on estacionaria impuesta, se considera que
el proceso debe ser tal que se pueda tener caracter´ısticas estacionarias. Para ello se pone como condici´on que
el sistema elegido sea estable en el sentido cuadr´atico medio, condici´on que se cumple haciendo que ρ(A) < 1.
En las condiciones anteriores, las caracter´ısticas estacionarias cumplen con lo siguiente:
µ
ˆ
d
= (C(I −A)
−1
B +D)µ
n
(12)
P
ˆ
d
= CP
x
C
T
+ DP
n
D
T
(13)
R
ˆ
d
= C · A
τ−1
(AP
x
C
T
+BP
n
D
T
) (14)
S
ˆ
d
= H
ˆ
d
(z)P
n
H

ˆ
d
(z) (15)
De lo anterior se aprecia que se puede elegir que la matriz de estado inicial del ruido blanco sea 0, vale decir
µ
n
= [0 0]
T
, con esto se asegura la igualdad de la media estacinaria. Por otro lado, de la ´ ultima ecuaci´ on,
5
se puede observar que se obtienen condiciones para el filtro pues aparece una relaci´on directa entre ´este y la
matriz Ω
d
(z) encontrada en el comienzo, de hecho, si:
P
n
= I
2
=
_
1 0
0 1
_
(16)
H
ˆ
d
(z) =
_
β1γ1
(z−α1)
0
0
β2γ2
(z−α2)
_
(17)
En que dicha matriz de transferencia cumple con la condici´on:
H
ˆ
d
(z) = C(zI −A)
−1
B +D (18)
Por lo tanto, resta encontrar las matrices A, B, C y D que cumplan lo anterior y principalmente que coincidan
con la restricci´on para la estabilidad impuesta al comienzo. En efecto una elecci´on que cumple con lo anterior,
condicionado a que |α
i
| < 1, i = 1, 2 es:
A =
_
α
1
0
0 α
2
_
(19)
B =
_
β
1
0
0 β
2
_
(20)
C =
_
γ
1
0
0 γ
2
_
(21)
D =
_
0 0
0 0
_
(22)
(23)
II) Es necesario destacar que en el caso anterior aparece la varianza de x sin definirla expl´ıcitamente, ´esta
cumple con:
P
x
= AP
x
A
T
+BP
u
B
T
(24)
Para que el proceso sea instant´ aneamente igual al proceso d, ser´ıa necesario a˜ nadir como condici´on que
la media del ruido sea igual a la media de la condici´on inicial, es decir µ
x
(0) = [0 0]
T
y adem´as, que la
varianza de la condici´on inicial sea igual a la varianza de d. Por lo tanto si es posible construir dicho proceso
P
x
(0) = P
ˆ
d
.
Lo anterior hace uso de algunos resultados obtenidos en clases, a´ un as´ı es importante destacar que esto se
justifica tambi´en porque una vez obtenidas las expresiones recursivar para cualquier estad´ıstica del sistema
´estas quedaran dependiendo de matrices constantes y de estados anteriores de la misma estad´ıstica u otras,
as´ı, es posible contruir la expresi´on inst´antanea a partir de las expresiones recursivas y para ellas finalmente
lo que se logra es expresiones dependientes de los estados iniciales de las estad´ısticas y de las matrices, con
el punto anterior ya fueron bien condicionadas las matrices, ahora basta con hacer lo viston en el p´ arrafo
anterior y se garantiza la igualdad instant´ anea.
b) En este problema es importante destacar que el problema a resolver no consiste en minimizar el ruido, pues la
planta es dada y no corresponde a un filtro con dichos fines. Lo que se busca hacer es encontral el controlador
´optimo que permita minimizar la relaci´on se˜ nal a ruido.
Tanto el controlador como la planta son formas diagonales, por lo que se les puese expresar como:
6
K(z) =
_
k
11
(z) 0
0 k
22
(z)
_
(25)
G(z) =
_
g
11
(z) 0
0 g
22
(z)
_
(26)
(27)
Las relaciones de transferencia entre las se˜ nales que intervienen en la relaci´on se˜ nal a ruido son (se utiliza la
caracter´ıstica diagonal de las transferencias):
y
i
d
i
=
g
ii
1 −k
ii
g
ii
= S
i
(z) (28)
u
i
d
i
=
k
ii
g
ii
1 −k
ii
g
ii
= T
i
(z) (29)
Se desea cumplir con:
σ
2
u1
σ
2
d1
< W
1
(30)
σ
2
u2
σ
2
d2
< W
2
(31)
Lo anterior se puede utilizar considerando que la densidad espectral cumple con 2 caracter´ısticas, se busca con
ellas que se cumpla la estabilidad en el sentido cuadr´atico medio:
S
y
(z) = H
y
(z)P
u
H
y
(z)

(32)
P
X
(z) =
1

_
π
−π
S
X
(e

)dω (33)
As´ı, y nuevamente considerando que se trata de matrices diagonales, se tiene en forma independiente que:

d
(z) =
_
β1γ1
(z−α1)
0
0
β2γ2
(z−α2)
_
(34)
=
_

11
0
0 Ω
22
_
(35)
σ
2
ui
=
1

_
π
−π
T
i
(e

)S
dii
(e

)T
i
(e

)

dω (36)
Considerando la relaci´on conocida del espectro de d, se puede considerar el problema como:
σ
2
ui
=
1

_
π
−π
¸
¸
T
i
(e

)Ω
ii
(e

)
¸
¸
2
dω (37)
Por otro lado, las varianzas asociadas al ruido sin:
σ
2
di
=
1

_
π
−π
S
dii
(e

)dω =
1

_
π
−π
¸
¸

ii
(e

)
¸
¸
2
dω (38)
7
As´ı, y dado que no se pide que los problemas de minimizaci´ on sean convexos, es necesario encontrar el controlados
diagonal, que sea tal que:
k
11OPTIMO
(z) : k
1x1
∈ S :
||T
1
(z)Ω
11
(z)||
2
2
||Ω
11
(z)||
2
2
< W
1
(39)
k
22OPTIMO
(z) : k
1x1
∈ S :
||T
2
(z)Ω
22
(z)||
2
2
||Ω
22
(z)||
2
2
< W
2
(40)
(41)
Donde, S es el conjunto de los controladores escalares propios LIT que hacen que el lazo sea internamente es-
table. Como se mencion´o antes, se puede buscar resolver este problema por medio de la parametrizaci´ on de Youla,
resolviendo un problema convexo que puede ser m´as f´acil de resolver.
La notaci´ on || · ||
2
2
se refiere a la norma 2 al cuadrado.
Para calcular las normas anteriores es posible hacer uso de an´alisis funcional. B´asicamente la integral se puede
llevar a una integral compleja e intentar minimizar el valor de los residuos asociados a los polos fuera del c´ırculo
unitario.
Problema 3 (45 pts)
En este problema se estudia una clase sencilla de sistemas lineales con saltos Markovianos. Estos sistemas sir-
ven como modelo de situaciones que involucran conmutaciones no determin´ısticas como, por ejemplo, sistemas de
procesamiento de se˜ nales o control sujetos a la p´erdida de datos.
a) Considere la situaci´ on de la Figura 6(a), donde el sistema S es tal que
x(k + 1) = Ax(k) + Bu(k), x(0) = x
0
, k ∈ N
0
, (42a)
y(k) = Cx(k) +Du(k), (42b)
con y una se˜ nal escalar, y
y
θ
(k) = θ(k)y(k), (43)
donde θ es una secuencia i.i.d. tal que θ(k) ∈ {0, 1} y Prob(θ(k) = 1) = p. Suponga que x
0
es una variable
aleatoria de segundo orden, y que u es ruido blanco de segundo orden con media cero y varianza constante, no
correlacionado con x
0
. Suponga, adem´as, que θ es independiente de (x
0
, u).
y
θ
θ
y u
S
y u
S
yq
q
A
a)
b)
Figura 6: (a) Sistema en que la medici´on de la salida es intermitente y (b) situaci´ on auxiliar en que la p´erdida de
datos se ha reemplazado por una ganancia y una fuente de ruido.
i) Obtenga expresiones recursivas que permitan calcular la media, varianza y funci´ on de covarianza de y
θ
en
todo instante. ¿Bajo qu´e condiciones el proceso y
θ
es asint´ oticamente estacionario en sentido amplio? Calcule
la media y varianza estacionaria de y
θ
en dicho caso.
ii) Considere la situaci´ on auxiliar de la Figura 6(b), donde S tiene la descripci´on dada anteriormente,
y
q
(k) = q(k) + Ay(k), (44)
donde A es una constante, y q es ruido blanco de media cero, no correlacionado con (x
0
, u). ¿Para qu´e elecci´on
de A y P
q
(k) se tiene que las medias, varianzas y funciones de covarianza de y
θ
e y
q
coinciden para todo
instante?
8
b) Considere el sistema realimentado de la Figura 7(a), donde N
θ
es tal que
x
θ
(k + 1) = Ax
θ
(k) +B
d
d(k) +B
w
w
θ
(k), x
θ
(0) = x
0
, k ∈ N
0
, (45a)
e
θ
(k) = C
e
x
θ
(k) +D
de
d(k) +D
we
w
θ
(k), (45b)
v
θ
(k) = C
v
x
θ
(k) +D
dv
d(k), (45c)
con v
θ
escalar,
w
θ
(k) = θ(k)v
θ
(k), (46)
y θ es como en la parte anterior. Suponga que x
0
es una variable aleatoria de segundo orden, y que d es ruido
blanco de segundo orden con media cero y varianza constante, no correlacionado con x
0
. Suponga, adem´as, que
θ es independiente de (x
0
, d).
i) Determine una ecuaci´ on recursiva para la media, varianza y funci´on de covarianza de x
θ
y de e
θ
.
ii) Establezca condiciones necesarias y suficientes para la convergencia de la media y varianza de x
θ
.
iii) Considere la situaci´ on auxiliar de la Figura 7(b), donde N
q
es tal que
x
q
(k + 1) = Ax
q
(k) +B
d
d(k) +B
w
w
q
(k), x
q
(0) = x
0
, k ∈ N
0
, (47a)
e
q
(k) = C
e
x
q
(k) +D
de
d(k) + D
we
w
q
(k), (47b)
v
q
(k) = C
v
x
q
(k) +D
dv
d(k), (47c)
con v
q
escalar,
w
q
(k) = q(k) +Av
q
(k), (48)
A es una constante, y q es ruido blanco de media cero. Suponga que (x
0
, d) son como en la parte anterior y
que q no est´ a correlacionado con (x
0
, d). ¿Para qu´e elecci´on de A y P
q
(k) se tiene que las medias, varianzas
y funciones de covarianzas de x
θ
y x
q
coinciden para todo instante?
vq wq
d
Nq
A
q
v
θ
w
θ
d
θ
N
θ
e
θ
eq
a) b)
Figura 7: (a) Sistema realimentado a trav´es de un canal imperfecto que pierde datos con probabilidad 1 − p y (b)
situaci´ on auxiliar en que la p´erdida de datos se ha reemplazado por una ganancia y una fuente de ruido.
Desarrollo
a) I) Se pide determinar las estad´ısitcas recursivas del sistema.
Esperanza: Para determinar la media se considera que:
E{y
θ
(k)} = E{y(k)θ(k)}
Si M, Y, N son matrices aleatorias, Y es independiente de (M, N) y que (M, N) toma valores en el
conjunto finito {(M
0
, N
0
), · · · ,(M
n
, N
n
)}, donde n ∈ N
0
. Y si Pr{(M, N) = (M
i
, N
i
)} = pi, p
i
∈ (0, 1)
, p
0
+... +p
n
= 1, entonces
9
E{MY N} = p
i
M
i
E{Y }N
i
Este resultado se utilizar´a en el desarrollo de este problema.
Para este caso M = θ(k) y N = I
1
, con lo cual:
E{y(k)θ(k)} = E{θ(k)}E{y(k)}
E{θ(k)} = p · 1 + (1 −p) · 0
µ
y
(k) = Cµ
x
(k) +Dµ
u
(k)
La media del ruido blanco es 0, mientras que la de x(k) se puede determiar en forma recursiva:
µ
x
(0) = Aµ(0)
µ
x
(1) = A(Aµ(0))
.
.
.
µ
x
(k) = A
k
µ(0)
Con lo cual:
E{y
θ
(k)} = p · C · A
k
· µ
x
(0) (49)
Varianza: En este caso se tiene:
P
y
θ
= E{(y
θ
−µ
y
θ
)(y
θ
−µ
y
θ
)
T
}
= E{θ(k)y(k)y(k)θ(k)} −µ
2
y
θ
(k)
= pE{y(k)y(k)} −µ
2
y
θ
El primer factor tiene probabilidad p pues son los valores de θ(k) en un mismo instante, considerando
la varianza de y:
P
y
(k) = E{(y(k) −µ
y
(k))(y(k) −µ
y
(k))
T
} = E{y(k)y(k)} −µ
2
y
E{y(k)y(k)} = P
y
(k) +µ
2
y
Por lo tanto, se tiene que:
P
y
θ
= p(P
y
(k) +µ
2
y
) −p
2
µ
2
y
= pP
y
(k) +p(1 −p)µ
2
y
Donde, como se demostr´ o en clases, la varianza del sistema cumple con la siguiente recursi´ on:
P
y
(k) = Cp
x
(k)C
T
+DP
u
(k)D
T
(50)
P
x
(k + 1) = AP
x
(k)A
T
+BP
u
(k)B
T
(51)
Con P
u
(k) = P
u
(0) = cte. y P
x
(0) = P
x0
10
Funci´on de covariaza: en este caso la definici´on correspone a:
R
y
θ
(k +τ, k) = E{(y
θ
(k +τ) −µ
y
θ
(k +τ))(y
θ
(k) −µ
y
θ
(k))
T
}
En primera instancia se determina la expresi´on para R
y
θ
(k + 1, k).
R
y
θ
(k + 1, k) = E{(y
θ
(k + 1) −µ
y
θ
(k + 1))(y
θ
(k) −µ
y
θ
(k))
T
} (52)
= E{y
θ
(k + 1)y
θ
(k)} −µ
y
θ
(k + 1)µ
y
θ
(k) (53)
E{y
θ
(k + 1)y
θ
(k)} = E{θ(k + 1)y(k + 1)y(k)θ(k)} (54)
= p
2
E{y(k + 1)y(k)} (55)
R
y
(k + 1, k) = E{(y(k + 1) −µ
y
(k + 1))(y(k) −µ
y
(k))
T
} (56)
= E{y(k + 1)y(k)} −µ
y
(k + 1)µ
y
(k) (57)
E{y(k + 1)y(k)} = R
y
(k + 1, k) +µ
y
(k + 1)µ
y
(k) (58)
Por otro lado:
µ
y
θ
(k + 1)µ
y
θ
(k) = p
2

y
(k + 1)µ
y
(k)) (59)
Considerando los resultados de las ecuaciones (55), (58) y (59) en la ecuaci´ on (53) se llega a:
R
y
θ
(k + 1, k) = p
2
(R
y
(k + 1, k) +µ
y
(k + 1)µ
y
(k)) −µ
y
θ
(k + 1)µ
y
θ
(k) (60)
= p
2
· R
y
(k + 1, k) (61)
En t´erminos generales se tiene que:
R
y
θ
(k + 1, k) = p
2
· R
y
(k + 1, k)
R
y
θ
(k + 2, k) = p
2
· R
y
(k + 2, k)
.
.
.
R
y
θ
(k +τ, k) = p
2
· R
y
(k +τ, k)
Para la funci´ on de covarianza de la salida se cumple que:
R
y
(k +τ, k) = CA
τ−1
(AP
x
(k)C
T
+DP
u
D
T
), τ > 0 (62)
Para que el proceso anterior sea as´ısntoticamente estacionario en sentido amplio (a −wss) es necesario que
en el l´ımite al tender la magnitud de k a infinito las estad´ısticas calculadas antes pueden depender s´olo de
τ, no de k.
Lo anterior se reduce b´ asicamente a condiciones sobre la varianza de la salida y del estado pues la varianza
del ruido es constante y no depende de k.
11
l´ım
k→∞
µ
y
θ
(k) = α (63)
l´ım
k→∞
R
y
θ
(k +τ, k) = f(τ) (64)
El sistema debe cumplir por tanto que A
k
tienda a 0 en la medida que k → ∞, lo que se cumple con ρ(A) < 1
(condici´ on de MSS).
En dichas condiciones se cumplir´ıa que:
µ
y
θ
(k) = 0P
y
θ
= pP
y
(65)
Donde P
y
de calcula en estacionario como:
P
y
= CP
x
C
T
+DP
u
D
T
(66)
Y la varianza de x estacionaria es posible calcularla con:
P
x
= vec
−1
{(I −A ⊗A)
−1
vec{BP
d
B
T
}} (67)
Con el operador vec visto en clases.
II) El sistema a considerar en este caso corresponde a:
x(k + 1) = Ax(k) +Bu(k), x(0) = x
0
, k ∈ N
0
,
y(k) = Cx(k) +Du(k)
y
q
(k) = q(k) +Ay(k)
Nuevamente es necesario considerar las estad´ısticas de segundo orden para la salidad del sistema completo.
Esperanza:
E{y
q
(k)} = E{q(k)} +AE{y(k)}
= Aµ
y
(k)
= A · C · µ
x
(k)
= A · C · A
k
µ
x
(0)
Varianza:
P
yq
(k) = E{(y
q
(k) −µ
yq
(k))(y
q
(k) −µ
yq
(k))
T
} (68)
= E{y
q
(k)y
q
(k)} −µ
yq
(k)µ
yq
(k) (69)
= E{q(k)q(k)} +E{q(k)y(k)A} +E{Ay(k)q(k)} +E{Ay(k)y(k)A} −µ
yq
(k)µ
yq
(k) (70)
= P
q
(k) +A(P
y
(k) +µ
2
y
)A −µ
yq
(k)µ
yq
(k) (71)
= P
q
(k) +AP
y
(k)A (72)
Donde para hacer los 2 t´erminos que contienen E{q(k)y(k)} se hace uso del hecho que q es independiente
de (x
0
, u).
12
Funci´on de covarianza:
Se considera el c´ alculo, en primera instancia, para τ = 1:
R
yq
(k +τ, k) = E{(y
q
(k +τ) − µ
yq
(k +τ))(y
q
(k) −µ
yq
(k))
T
}
R
yq
(k + 1, k) = E{(y
q
(k + 1) −µ
yq
(k + 1))(y
q
(k) −µ
yq
(k))
T
}
= E{y
q
(k + 1)y
q
(k)} −µ
yq
(k + 1)µ
yq
(k)
= E{(q(k + 1) +Ay(k + 1))(q(k) +Ay(k))} −µ
yq
(k + 1)µ
yq
(k)
= E{q(k + 1)q(k)} +AE{q(k + 1)y(k)} +AE{q(k)y(k + 1)}
+A
2
E{y(k + 1)y(k)} −µ
yq
(k + 1)µ
yq
(k)
Donde los primeros 3 sumandos de la ´ ultima ecuaci´ on son 0, el primero debido a que se trata de ruido
blanco y el segundo y tercero debido no hay correlaci´ on entre q e y (porque no la hay con (u,x
0
).
R
yq
(k + 1, k) = A
2
(R
y
(k + 1, k)
La siguiente tabla resume los resutados para ambos casos:
Cuadro 1: Estad´ısticas de las salidas de los sistemas
Salida E{·} P
·
R
·
(k +τ, k)
y
θ
(k) pCA
k
µ
x
(0) pP
y
(k) +p(1 −p)µ
2
y
θ
p
2
· R
y
(k +τ, k)
y
q
(k) ACA
k
µ
x
(0) P
q
(k) +AP
y
(k)A A
2
(R
y
(k + 1, k)
Para que las estad´ısticas de ambas salidas sean iguales, basta considerar que:
A = p (73)
P
q
(k) = −p(1 −p)µ
2
y
θ
. (74)
b) I) En este caso se tiene que determinar las estad´ısticas de x
θ
y e
θ
.
x
θ
• Esperanza:
Se puede replantear el sistema de la siguiente manera:
x
θ
(k + 1) = (A +B
w
θ(k)C
v
)x
θ
(k) + (B
d
+B
w
θ(k)D
dv
)d(k) (75a)
e
θ
(k) = (C
e
+D
we
θ(k)C
v
)x
θ
(k) + (D
de
+D
we
θ(k)D
dv
)d(k) (75b)
Donde s´olo aparecen las relaciones entre la entrada la salida y el ruido, esto es an´alogo a un sistema
como el LTI analizado en clases, sin embargo, las matrices de la represenmtaci´on de estado ser´ıan
variables, por lo cual es necesario poner atenci´ on en este punto al analizar las estad´ısticas pedidas.
As´ı, este sistema se puede considerar como el sistema gen´erico con las matrices
ˆ
A,
ˆ
B,
ˆ
C,
ˆ
D. Consi-
derando lo planteado en el p´ arrafo anterior, en los resultados en lugar de aparecer θ(k) habr´ a alguna
funci´ on de p pues se trabaja con la esperanza de estos sistemas.
Para determinar la esperanza basta con considerar la ecuaci´ on:
µ
x
θ
(k + 1) = Aµ
x
θ
(k) +B
d
µ
d
(k) +B
ω
µ
ω
θ
(k)
µ
ω
θ
(k) = E{θ(k)v
θ
(k)} = pµ
v
θ
(k)
µ
v
θ
(k) = C
v
µ
x
θ
(k) +D
dv
µ
d
(k)
13
Considerando que la media del ruido blanco es 0 y uniendo las ecuaciones anteriores se tiene que:
µ
x
θ
(k + 1) = (A +B
ω
pC
v

x
θ
(k) (76)
Y la soluci´on de la ecuaci´ on es:
µ
x
θ
(k) = (A +B
ω
pC
v
)
k
µ
x
θ
(0) (77)
• Varianza: Para determinar la varianza se considera la recursi´ on:
P
x
θ
(k + 1) = E{x
θ
(k + 1)x
θ
(k + 1)
T
} −µ
x
θ
(k + 1)µ
x
θ
(k + 1)
T
= E{((A + B
w
θ(k)C
v
)x
θ
(k) + (B
d
+B
w
θ(k)D
dv
)d(k))
· ((A +B
w
θ(k)C
v
)x
θ
(k) + (B
d
+B
w
θ(k)D
dv
)d(k))
T
} −M(k)
Donde por simplicidad se utiliza M(k) = µ
x
θ
(k +1)µ
x
θ
(k +1)
T
. En lo sucesivo se tiene en conside-
raci´on lo siguiente:
◦ Debido a que x
θ
(k) y d(k) son independientes los t´erminos asociados a E{x
θ
(k)d(k)} se hacen 0.
◦ Debido a que d(k) es ruido blaco la secuencia de ´este es independiente entre un instante y otro,
es decir E{d(i)d(k)} = 0 ∀i = k.
Considerando lo anterior y trabajando las expresiones se tiene que:
P
x
θ
(k + 1) = E{(A +B
w
θ(k)C
v
)x
θ
(k)x
θ
(k)
T
(A +B
w
θ(k)C
v
)
T
}
+E{(B
d
+B
w
θ(k)D
dv
)d(k)d(k)
T
(B
d
+B
w
θ(k)D
dv
)
T
} − M(k)
Luego, considerando que la esperanza de la secuencia θ(k)θ(k) es p pues los otros 3 casos tienen
asociado alg´ un 0 y adem´as se trata del valor en un mismo instante.
Sea:
M
x
(k) = E{x(k)x(k)
T

x
(k)µ
x
(k)
T
}
P
x
θ
(k + 1) = AM
x
θ
A
T
+pAM
x
θ
C
T
v
B
T
w
+pB
w
C
v
M
x
θ
A
T
+pB
w
C
v
M
x
θ
C
T
v
B
T
w
+B
d
M
d
B
T
d
+pB
w
D
dv
M
d
B
T
d
+pB
d
M
d
D
T
dv
B
T
w
+pB
w
D
dv
M
d
D
T
dv
B
T
w
−M(k)
M(k) = µ
x
θ
(k + 1)µ
x
θ
(k + 1)
T
= Aµ
x
θ
(k)µ
x
θ
(k)
T
A
T
+pAµ
x
θ
(k)µ
x
θ
(k)
T
C
T
v
B
T
w
+pB
w
C
v
µ
x
θ
(k)µ
x
θ
(k)
T
A
T
+p
2
B
w
C
v
µ
x
θ
(k)µ
x
θ
(k)
T
C
T
v
B
T
w
Reduciendo:
P
x
θ
(k + 1) = AP
x
θ
(k)A
T
+pAP
x
θ
(k)C
T
v
B
T
w
+pB
w
C
v
P
x
θ
(k)A
T
+pB
w
C
v
P
x
θ
(k)C
T
v
B
T
w
+B
d
P
d
(k)B
T
d
+pB
w
D
dv
P
d
(k)B
T
d
+pB
d
P
d
(k)D
T
dv
B
T
w
+pB
w
D
dv
P
d
(k)D
T
dv
B
T
w
+p(1 −p)(B
w
C
v
µ
x
θ
(k)µ
x
θ
(k)
T
C
T
v
B
T
w
)
Donde se ha considerado la condici´on de los momentos.
E{x
θ
(k)x
θ
(k)
T
} = P
x
θ
(k) +µ
x
θ
(k)µ
x
θ
(k)
T
E{d(k)d(k)
T
} = P
d
(k)
14
• Funci´on de covarianza:
Para calcular la funci´ on de convarianza se considera en primera instancia la recursi´ on para τ = 1.
R
x
θ
(k + 1, k) = E{(x
θ
(k + 1) −µ
x
θ
(k + 1))(x
θ
(k) −µ
x
θ
(k))
T
}
= E{x
θ
(k + 1)x
θ
(k)
T
} −µ
x
θ
(k + 1)µ
x
θ
(k)
T
= AE{x
θ
(k)x
θ
(k)
T
} +pB
w
C
v
E{x
θ
(k)x
θ
(k)
T
} −µ
x
θ
(k + 1)µ
x
θ
(k)
T
Donde se ha hecho uso de la independencia entre el estado y d. Luego utilizando los resultado
anteriores se tiene que:
R
x
θ
(k + 1, k) = A(P
x
θ
(k) +µ
x
θ
(k)µ
x
θ
(k)
T
)
+pB
w
C
v
(P
x
θ
(k) +µ
x
θ
(k)µ
x
θ
(k)
T
) −µ
x
θ
(k)(A +pB
w
C
v
)
Con lo cual se obtiene que:
R
x
θ
(k + 1, k) = (A +pB
w
C
v
)P
x
θ
(k)
Siguiendo la recursi´ on, se obtiene que (es posible demostrarlo por inducci´on pero ya se ha hecho en
clases):
R
x
θ
(k +τ, k) = (A +pB
w
C
v
)
τ
P
x
θ
(k) (78)
e
θ
• Esperanza:
Dado que la media del ruido es 0, de inmediato se tiene que:
µ
e
θ
(k) = (C
e
+D
we
pC
v

x
θ
(k) (79)
• Varianza:
P
e
θ
(k) = E{(e
θ
(k) −µ
e
θ
(k))(e
θ
(k) −µ
e
θ
(k))
T
}
= E{e
θ
(k)e
θ
(k)
T
} −µ
e
θ
(k)µ
e
θ
(k)
T
= E{((C
e
+D
we
θ(k)C
v
)x
θ
(k) + (D
de
+D
we
θ(k)D
dv
)d(k))((C
e
+D
we
θ(k)C
v
)x
θ
(k)
+ (D
de
+D
we
θ(k)D
dv
)d(k))
T
} −µ
e
θ
(k)µ
e
θ
(k)
T
P
e
θ
(k) = E{(C
e
+D
we
θ(k)C
v
)x
θ
(k)x
θ
(k)
T
(C
e
+D
we
θ(k)C
v
)
T
}
+E{(D
de
+D
we
θ(k)D
dv
)d(k)d(k)
T
(D
de
+D
we
θ(k)D
dv
)
T
}
−µ
e
θ
(k)µ
e
θ
(k)
T
µ
e
θ
(k)µ
e
θ
(k)
T
= (C
e
+D
we
pC
v

x
θ
(k)µ
x
θ
(k)
T
C
e
+D
we
pC
v
)
T
= C
e
µ
x
θ
(k)µ
x
θ
(k)
T
C
T
e
+pC
e
µ
x
θ
(k)µ
x
θ
(k)
T
C
v
TD
T
we
+pD
we
C
v
µ
x
θ
(k)µ
x
θ
(k)
T
+p
2
D
we
C
v
µ
x
θ
(k)µ
x
θ
(k)
T
C
T
v
D
T
we
Uniendo los resultados anteriores y luego de un poco de ´algebra, se tiene que:
15
P
e
θ
(k) = C
e
P
x
θ
(k)C
T
e
+pC
e
P
x
θ
(k)D
T
we
C
T
v
+pC
v
D
we
P
x
θ
(k)C
T
e
+pC
v
D
we
P
x
θ
(k)D
T
we
C
T
v
(80)
+D
d
P
d
(k)D
T
w
+pD
we
D
dv
P
d
(k)D
T
de
+pD
de
P
d
(k)D
T
dv
D
T
we
+pD
we
D
dv
P
d
(k)D
T
dv
D
T
we
(81)
+p(1 −p)(D
we
C
v
µ
x
θ
(k)µ
x
θ
(k)
T
C
T
v
D
T
we
) (82)
• Funci´on de covarianza:
Nuevamente se realiza el c´ alculo para R
e
θ
(k + 1, k) con la intenci´on de generalizar el resultado.
R
e
θ
(k + 1, k) = E{(e
θ
(k + 1) −µ
e
θ
(k + 1))(e
θ
(k) −µ
e
θ
(k))
T
}
= E{(e
θ
(k + 1)e
θ
(k)
T
} −µ
e
θ
(k + 1)µ
e
θ
(k)
T
= E{((C
e
+D
we
θ(k + 1)C
v
)x
θ
(k + 1) + (D
de
+D
we
θ(k + 1)D
dv
)d(k + 1))
· ((C
e
+D
we
θ(k)C
v
)x
θ
(k) + (D
de
+D
we
θ(k)D
dv
)d(k))
T
} −F(k)
Donde por simplicidad se ha definido:
F(k) = (C
e
+D
we
pC
v

x
θ
(k + 1)µ
x
θ
(k)
T
(C
e
+D
we
pC
v
)
T
= (C
e
+pD
we
C
v
)(A +pB
w
C
v

x
θ
(k)µ
x
θ
(k)
T
(C
e
+pD
we
C
v
)
T
Para continuar con el desarrollo se hace uso de las definiciones de los momentos nulos que se hizo
al comienzo debido a la independencia y a la naturaleza del ruido.
R
e
θ
(k + 1, k) = E{(C
e
+D
we
θ(k + 1)C
v
)x
θ
(k + 1)x
θ
(k)
T
(C
e
+D
we
θ(k)C
v
)
T
}
+E{(C
e
+D
we
θ(k + 1)C
v
)x
θ
(k + 1)d(k)
T
(D
de
+D
we
θ(k)D
dv
)
T
} −F(k)
Considerando que la esperanza de θ(k)θ(i) es p si k = 1 y es p
2
si k = i, con lo cual:
R
e
θ
(k + 1, k) = (C
e
+pC
v
D
we
)E{x
θ
(k + 1)x
θ
(k)
T
}(C
e
+pC
v
D
we
)
+ (C
e
+pD
we
C
v
)E{x
θ
(k + 1)d(k)
T
}(D
de
+pD
we
D
dv
)
T
−F(k)
Ahora utilizando la forma recursiva para x
θ
(k + 1) y la independencia entre x
θ
y el ruido.
R
e
θ
(k + 1, k) = (C
e
+pC
v
D
we
)E{(A +B
w
θ(k)C
v
)x
θ
(k)x
θ
(k)
T
}(C
e
+pC
v
D
we
)
+ (C
e
+pD
we
C
v
)E{(B
d
+B
w
θ(k)D
dv
)d(k)d(k)
T
}(D
de
+pD
we
D
dv
)
T
−F(k)
Utilizando la definici´on de los momentos en funci´ on de la varianza y esperanza:
R
e
θ
(k + 1, k) = (C
e
+pC
v
D
we
)(A +pB
w
C
v
)(P
x
θ
(k) + µ
x
θ
(k)µ
x
θ
(k)
T
)(C
e
+pC
v
D
we
)
T
+ (C
e
+pD
we
C
v
)(B
d
+pB
w
D
dv
)P
d
(k)(D
de
+pD
we
D
dv
)
T
−F(k)
Se anula F(k) con la parte correspondiente del primer sumando. Finalmente:
R
e
θ
(k + 1, k) = (C
e
+pC
v
D
we
)(A +pB
w
C
v
)P
x
θ
(k)(C
e
+pC
v
D
we
)
T
(83)
+ (C
e
+pD
we
C
v
)(B
d
+pB
w
D
dv
)P
d
(k)(D
de
+pD
we
D
dv
)
T
(84)
II) Primero es necesario tener en consideraci´on los resultados relativos a la media y varianza de x
θ
(k):
16
Cuadro 2: Estad´ısticas del estado del sistema
Estado µ
x
θ
(k) P
x
θ
(k + 1)
x
θ
(k) (A +B
ω
pC
v

x
θ
(k) AP
x
θ
(k)A
T
+pAP
x
θ
(k)C
T
v
B
T
w
+pB
w
C
v
P
x
θ
(k)A
T
+pB
w
C
v
P
x
θ
(k)C
T
v
B
T
w
+B
d
P
d
(k)B
T
d
+pB
w
D
dv
P
d
(k)B
T
d
+pB
d
P
d
(k)D
T
dv
B
T
w
+pB
w
D
dv
P
d
(k)D
T
dv
B
T
w
+p(1 −p)(B
w
C
v
µ
x
θ
(k)µ
x
θ
(k)
T
C
T
v
B
T
w
)
Entonces para la convergencia de la media, se tiene que cumplir que la matriz:
A
o
= A +B
ω
pC
v
(85)
Converja, para ello es necesario y suficiente que el radio espectral de dicha matriz sea menor que uno,
as´ı, independiente del valor de k, o si en magnitud se hace muy grande, el valor de la media del estado
estar´ a acotada.
ρ(A
o
) < 1 (86)
Por otro lado, para el caso de la varianza, depende de la varianza del estado inicial, de la varianza de d
(n´otese que en los resultados se escribe con ´ındice k pero no existe tal dependencia) y de las medias que
se asegura con lo anterior que convergen. Por lo tanto, es suficiente que el valor inicial de la varianza del
estado converja, cosa que sucede por la definici´on y las caracter´ısticas de proceso, que al ser de segundo
orden cumple inmediatamente con lo anterior.
As´ı, la unica condici´on es la asociada a la convergencia de la media.
III) Para lograr conocer las condiciones se puede apreciar que es necesario obtener las expresiones para x
q
(k).
Uniendo las ecuaciones planteadas se tiene que:
x
q
(k + 1) = (A +AB
w
C
v
)x
q
(k) + (B
d
+AB
w
D
dv
)d(k) +B
w
q(k) (87)
As´ı, se puede obtener la esperanza, varianza y funci´ on de covarianza.
Esperanza:
Debido a que tanto d como q son ruido blanco resulta inmediato que:
µ
xq
(k + 1) = (A +AB
w
C
v

xq
(k)
Donde se cumple con:
µ
xq
(k) = (A + AB
w
C
v
)
k
µ
xq
(0) (88)
Varianza:
Para la varianza y como se ha repetido varias veces, se tiene que:
P
xq
(k + 1) = E{x
q
(k + 1)x
q
(k + 1)
T
} −µ
xq
(k + 1)µ
xq
(k + 1)
T
P
xq
(k + 1) = E{((A +AB
w
C
v
)x
q
(k) + (B
d
+AB
w
D
dv
)d(k) +B
w
q(k))((A +AB
w
C
v
)x
q
(k)
+ (B
d
+AB
w
D
dv
)d(k) +B
w
q(k))
T
} −H(k)
17
Donde H(k) es:
H(k) = µ
xq
(k + 1)µ
xq
(k + 1)
= (A +AB
w
C
v

xq
(k)µ
xq
(k)
T
(A +AB
w
C
v
)
T
N´ otese que si A = p se cumple que las medias son iguales.
Retomando lo anterior, dado que no hay ´ındices que dependan del instante posterior y considerando la
independencia entre tanto en d como en q, se tiene que:
P
xq
(k + 1) = E{((A +AB
w
C
v
)x
q
(k) + (B
d
+ AB
w
D
dv
)d(k) +B
w
q(k))((A +AB
w
C
v
)x
q
(k)
+ (B
d
+AB
w
D
dv
)d(k) +B
w
q(k))
T
} −H(k)
= (A +AB
w
C
v
)E{x
q
(k)x
q
(k)
T
}(A +AB
w
C
v
)
T
+ (B
d
+AB
w
D
dv
)P
d
(k)(B
d
+AB
w
D
dv
)
T
+B
w
P
q
(k)B
T
w
−(A +AB
w
C
v

xq
(k)µ
xq
(k)
T
(A +AB
w
C
v
)
T
Por lo tanto, la varianza cumple con:
P
xq
(k + 1) = (A +AB
w
C
v
)P
xq
(k)(A +AB
w
C
v
)
T
+ (B
d
+AB
w
D
dv
)P
d
(k)(B
d
+AB
w
D
dv
)
T
+B
w
P
q
(k)B
T
w
(89)
Como se deben imponer 2 condiciones, ´estas pueden aparecer s´olo con la esperanza y varianza, el
siguiente cuadro resume el resultado:
Cuadro 3: Estad´ısticas de los estados de los sistemas
Estado E{·}(k) P
·
(k + 1)
x
θ
(k) (A +B
ω
pC
v

x
θ
(k) AP
x
θ
(k)A
T
+pAP
x
θ
(k)C
T
v
B
T
w
+pB
w
C
v
P
x
θ
(k)A
T
+pB
w
C
v
P
x
θ
(k)C
T
v
B
T
w
+B
d
P
d
(k)B
T
d
+pB
w
D
dv
P
d
(k)B
T
d
+pB
d
P
d
(k)D
T
dv
B
T
w
+pB
w
D
dv
P
d
(k)D
T
dv
B
T
w
+p(1 −p)(B
w
C
v
µ
x
θ
(k)µ
x
θ
(k)
T
C
T
v
B
T
w
)
x
q
(k) (A +AB
w
C
v

xq
(k) (A +AB
w
C
v
)P
xq
(k)(A +AB
w
C
v
)
T
+(B
d
+AB
w
D
dv
)P
d
(k)(B
d
+AB
w
D
dv
)
T
+ B
w
P
q
(k)B
T
w
As´ı, con las definiciones hechas anteriormente y considerando que A = p para igualar las medias, es
necesario que se complementen los resultados de:
pB
w
D
dv
P
d
(k)D
T
dv
B
T
w
+p(1 −p)(B
w
C
v
µ
x
θ
(k)µ
x
θ
(k)
T
C
T
v
B
T
w
)
=
p
2
B
w
D
dv
P
d
(k)D
T
dv
B
T
w
+B
w
P
q
(k)B
T
w
B
w
P
q
(k)B
T
w
= p(1 −p)[B
w
D
dv
P
d
(k)D
T
dv
B
T
w
+B
w
C
v
µ
x
θ
(k)µ
x
θ
(k)
T
C
T
v
B
T
w
]
P
q
(k) = p(1 −p)[D
dv
P
d
(k)D
T
dv
+C
v
µ
x
θ
(k)µ
x
θ
(k)
T
C
T
v
] (90)
18
1. Anexos
1.1. Simulaci´on caminos aleatorios - C´ odigo
c l e a r a l l
n=1000;
f o r j =1:30000
%genera l o s va l o r e s a l e a t o r i o s
Y( : , j )=rand (n , 1 ) ;
f o r i =1:n
%asegur a l o s va l o r e s d i s c r e t o s
i f (Y( i , j ) <=0.7)
Y( i , j ) =−1;
e l s e
Y( i , j ) =1;
end
end
xo=0;
t f =1;
dt=t f /n ;
t=dt : dt : t f ;
h=s qr t ( dt ) ;
X( 1 , j )=xo ;
f o r i =1:n−1
X( i +1, j )=X( i , j )+Y( i , j ) ∗h ;
end
end
pl ot ( t ,X( : , 1 ) , t , X( : , 2 ) , t ,X( : , 3 ) , t , X( : , 4 ) , t , X( : , 5 ) , t ,X( : , 6 ) , t ,X( : , 7 ) ) ;
hol d on
%Generando hi stograma
f i g ur e ( 2)
hi s t (X( n , : ) , 100)
19