Professional Documents
Culture Documents
EN UN PROCESO INDUSTRIAL
CONTENIDO
INTRODUCCIN.......................................................................................................3
ANTECEDENTES......................................................................................................3
OBJETIVOS...............................................................................................................5
MARCO TERICO....................................................................................................6
1. PROCESOS MARKOV.......................................................................................6
1.1. ESTADOS DEL SISTEMA:.............................................................................6
1.2. LA CONDICIN DE MARKOV:.......................................................................8
1.3. PROBABILIDADES DE TRANSICIN:..........................................................9
1.4. CLASIFICACIN DE LOS ESTADOS..........................................................12
2. COMPORTAMIENTO A LARGO PLAZO DE UNA CADENA REGULAR........14
3. CADENAS ERGDICAS..................................................................................15
4. LMITES ERGDICOS EN LAS CADENAS DE MARKOV.............................15
5. CLASIFICACIN DE LOS ESTADOS:.............................................................18
SOLUCIN DEL PROBLEMA.................................................................................19
1. DESCRIPCIN DE LOS ESTADOS................................................................19
2. EL PROCESO COMO CADENA DE MARKOV...............................................19
3. DATOS PARA CONSTRUIR LA MATRIZ DE TRANSICIN............................21
4. ICNICO DEL PROBLEMA.............................................................................25
5. CALCULO DE PROBABILIDADES..................................................................25
6. MATRIZ DE TRANSICIN...............................................................................26
7. ACCESIBILIDAD DE LOS ESTADOS.............................................................26
8. COMUNICACIN ENTRE ESTADOS..............................................................27
9. CONCURRENCIA DE LOS ESTADOS............................................................27
10.
MOSTRAR QUE LOS ESTADOS SON APERIDICOS..............................29
11.
POLINOMIO CARACTERISTICO Y VALORES PROPIOS..........................30
12.
DETERMINAR LA REGULARIDAD DE LA MATRIZ....................................33
13.
LMITES ERGDICOS.................................................................................34
14.
VECTOR PROPIO PARA EL VALOR PROPIO =1......................................37
15.
PROBABILIDADES DE ESTADO ESTABLE................................................37
16.
TIEMPO DE RECURRENCIA Y PRIMERA OCURRENCIA.........................38
CONCLUSIONES....................................................................................................40
RECOMENDACIONES............................................................................................42
BIBLIOGRAFA........................................................................................................43
ANEXOS..................................................................................................................44
INTRODUCCIN
ANTECEDENTES
Empresa es una empresa del grupo Eternit Blgica dedicada a generar soluciones
a la industria de la construccin con sus productos de asbesto cemento.
FABRICACIN
DESMOLDEO
SCRAP
APT
OBJETIVOS
GENERAL:
Aplicar la teora fundamental de cadenas de Markov para determinar el
comportamiento de la materia prima a futuro en cada proceso.
ESPECIFICOS:
MARCO TERICO
1. PROCESOS MARKOV
1.1. ESTADOS DEL SISTEMA:
Un modelo de Markov consiste en un conjunto de estados discretos. Este
conjunto es exhaustivo y describe todos los posibles estados donde el sistema
puede estar. La transicin del estado i a j ocurre con una probabilidad pij
Podemos pensar en un modelo de Markov como una simple lnea de
transferencia.
Se puede pensar en dos mquinas y en un inventario. Cada mquina es
descrita por su tiempo de operacin, su tiempo para la falla y su tiempo para la
reparacin. El tiempo de proceso se refiere a la cantidad de tiempo en que
demora hacer una parte. El tiempo para la falla, es el tiempo que ocurre entre
la ultima reparacin y el siguiente dao. El tiempo para reparacin, es el tiempo
que transcurre entre el ultimo dao y el momento en que la mquina esta
disponible para operar. Estas cantidades pueden ser deterministicas, en estos
casos se obtienen estados discretos y una cadena de Markov con transiciones
discretas(o tiempos discretos en la cadena de Markov). Tambin puede ser
continuo con variables aleatorias.
Se asume que la primera mquina nunca deja de ser alimentada y la ultima
maquina nunca es bloqueada.
Wi =
M1
Inventario
M2
Donde :
.n= # de piezas en inventario + # piezas en la mquina 2
0<=n<=N
1<=j,a,b,c<=m
k = 1,2,3....
Lo anteriores denota como la probabilidad de transicin. Note que (j) podr ser
igual a (a), para el caso en que no cambie de estado.
y las pij son independientes de (k). Estas probabilidades pueden ser incluidas
en una matriz de transicin,
P=
P11
P21
.
.
Pm1
P12
P22
.
.
Pm2
........................
........................
.
.
........................
P1m
P2m
.
.
Pmm
p =1, i = 1,2,3...........,m
ij
.j=1
Debido a que los estados son mutuamente excluyentes y colectivamente
exhaustivos.
La matriz P, proporciona una completa descripcin del proceso de Markov el
cual se usara para responder numerosas preguntas sobre el sistema. Por
ejemplo,
Q1. Cul es la probabilidad que el sistema este en Si despus de k transiciones
si el estado en k=0 es conocido?
Se puede responder la pregunta as:
P[Sj(k+1)]=P[S1(k)p1j+P[S2(k)]p2j+......+P[Sm(k)]pmj,
10
=(P[S1(k+1)] P[S2(k+1)].P[Sm(k+1)])
P11
P21
.
.
Pm1
P12
P22
.
.
Pm2
................. P1m
................. P2m
.................
.
.................
.
................. Pmm
O de la siguiente forma:
P(k+1) = P(k)P , k=0,1,2......
Para responder a la pregunta Q1 por induccin,
P(1) = P(0)P
P(2)= P(1)P= P(0)P2
.
.
.
.
.
.
P(k) =
P(0)Pk
k=0,1,2......
0.5
0.5
0.4
0.6
11
0.5
0.4
0.6
P=
Para encontrar P(k), se necesita Pk, que puede ser encontrada con una tcnica
como la de Cayley-Hamilton(este modelo es aplicado para una matriz 2x2, no
se sabe cual es el modelo para otro tipo de matriz).
Pk=
((0.1)k-1-1)I
9
(10-(0.1) k-1)P
9
P(0)Pk
4/9
5/9
Pk=
4/9
5/9
Con k tendiendo al infinito.
Claramente, Pk llega a una constante. Esto conlleva a otra propiedad la que
puede ser vista con el rotulo de P(0)=(1
5/9] con k
12
im =1
i
Estado transitorio
Si es un estado transitorio si se puede dejar el estado pero nunca retornar
a l.
Estado absorbente
Si es un estado absorbente si el sistema entra al estado y permanece ah.
Y el limite de la probabilidad de estado es 1. este estado es conocido
tambin como estado trampa.
13
Cadena recurrente
Una cadena recurrente es un conjunto de estados de los que el sistema
no puede salir. Un estado transitorio conduce al sistema dentro de este
conjunto de estados. El sistema hace saltos dentro de este conjunto
indefinidamente. La cadena recurrente es tambin llamada subcadena de
Markov irreducible o de clases recurrentes.
14
ninfinito
ninfinito
ninfinito
X(n). Es decir Xc es la
15
ninfinito
coordenadas y si <1, Lim ninfinito X(n) seria cero para todas las coordenadas. En
ninguno de los dos ltimos casos X c es una distribucin de probabilidad. Por otro
lado, si se cumple la segunda parte del resultado, X c = Lim ninfinito TX(0)=LX(0); para
cualquier distribucin inicial X(0). Por lo tanto la matriz del estado estacionario L,
debe tener todas las columnas iguales a Xc.
la distribucin estacionaria tambin se puede interpretar como la proporcin de
tiempo a largo plazo que el sistema pasa en cada estado.
3. CADENAS ERGDICAS
Condicin suficiente: si existe un n>0 tal que P ijn >0, i, j=0,1,2....m. la cadena de
Markov, con esta propiedad, se llama ergdica. Entonces, P ijn = k=0 (Pikn * Pkj),
luego j = k=0 (k * Pkj) y como j=0 Pijn = 1, entonces j=0 j =1
ninfinito
Pijn existe y j (j
ninfinito
Pn entonces el
16
problema es encontrar las condiciones para que este lmite exista y en caso de
existir, depender del estado inicial del sistema?
Bajo condiciones de regularidad la distribucin asinttica existe y bajo estas
condiciones la distribucin en el lmite ser independiente de la distribucin inicial.
TEOREMA BSICO DEL LMITE PARA CADENAS DE MARKOV:
En una cadena de Markov recurrente irreducible y aperidica se tiene que:
1
Lim ninfinito Piin =
inf
n=1
n fiin
Siendo fii la probabilidad de que el proceso regrese al estado i dado que comienza
en el estado i.
Y adems
Lim ninfinito Pijn = Lim ninfinito Piin
Del teorema se pueden sacar fuertes conclusiones:
ninfinito
M (infinita)
M(infinita) =
P00inf
P11inf
P22inf
.
Piiinf
P00inf
P11inf
P22inf
.
Piiinf
P00inf
P11inf
P22inf
.
Piiinf
17
Supongamos que Lim ninfinito Piin = i >0 para algn i en una clase aperidica
recurrente, entonces j >0 para todo j que est en la clase de i. Si este es el
caso diremos que la clase es positiva recurrente o fuertemente ergdica.
El valor infn=1 n fiin = mi. se define como el tiempo medio de recurrencia del
estado i. Ahora se asegura, sin demostracin, que bajo las condiciones de
regularidad del teorema anterior, que Lim ninfinito Piin = 1/mi = i. El calculo de
los i se entrega en el siguiente teorema.
(1)
18
P00
P01
P02
.
.
.
P0i
.
.
P10
P11
P12
.
.
.
P1i
.
.
P20
P21
P22
.
.
.
P2i
.
.
.
.
.
.
.
1
2
3
.
.
.
i
.
.
1
2
3
.
.
.
i
.
.
n
ii
19
ESTADO
HUMECTACIN
FABRICACIN
DESMOLDEO
APT
SCRAP
FABRICACIN
DESMOLDEO
APT
SCRAP
20
21
Da
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
Produccin Total=
Produccin Entregada=
Produccin Perdida=
5330
5323.68
6.32
22
Da
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
Produccin Total=
Produccin Entregada=
Produccin Perdida=
5323.678548
5312.77
10.90
23
Da
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
Produccin Total=
Produccin Entregada=
Produccin Perdida=
5312.77
5241.27
71.51
24
Da
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
toneladas
revisadas
177.09
179.27
174.30
177.16
178.29
174.99
175.30
178.97
174.08
178.18
176.98
177.17
177.09
178.23
175.44
174.98
178.30
176.17
176.10
175.92
177.07
178.33
178.37
179.41
178.40
177.01
175.05
175.12
174.16
178.23
Produccin Total=
Produccin Entregada=
Produccin Perdida=
5305.159114
5289.79
15.37
toneladas
entregadas
176.52
178.78
173.81
176.61
177.70
174.55
174.73
178.47
173.57
177.73
176.48
176.69
176.54
177.67
174.94
174.44
177.73
175.64
175.56
175.34
176.62
177.91
177.79
179.00
177.84
176.47
174.64
174.66
173.63
177.72
25
Humectacin
Fabricacin
Desmoldeo
Scrap
5. CALCULO DE PROBABILIDADES
Proporciones
Proporciones de Humectacin
Produccin Total=
5330
Produccin Entregada=
5323.68
0.999
Produccin Perdida=
6.32
0.001
Proporciones de Fabricacin
Produccin Total=
5323.678548
Produccin Entregada=
5312.77
0.998
Produccin Perdida=
10.90
0.002
Proporciones de Desmoldeo
Produccin Total=
5312.774
Produccin Entregada=
5241.267
0.987
Produccin Perdida=
71.50624043
0.013
Proporciones de Almacn Producto Terminado
Produccin Total=
5305.159114
Produccin Entregada=
5289.79
0.997
Produccin Perdida=
15.37
0.003
Proporciones de Scrap
Produccin Entregada=
Por norma de calidad
0.010
Produccin Perdida=
0.990
Apt
26
6. MATRIZ DE TRANSICIN
H
0.000
0.000
0.000
0.000
0.010
H
Fab
D
APT
S
Fab
0.999
0.000
0.000
0.000
0.000
D
0.000
0.980
0.000
0.000
0.000
APT
0.000
0.000
0.987
0.997
0.000
S
0.001
0.020
0.013
0.003
0.990
H
0.000
0.000
0.000
0.000
0.010
Fab
0.999
0.000
0.000
0.000
0.000
D
0.000
0.980
0.000
0.000
0.000
APT
0.000
0.000
0.987
0.997
0.000
S
0.001
0.020
0.013
0.003
0.990
27
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.758
0.758
0.758
0.758
0.758
0.235
0.235
0.235
0.235
0.235
Existe un n=3072 donde los valores de p ijn >0. esto indica que todos los estados j
son accesibles.
PT
0.000
0.999
0.000
0.000
0.001
0.000
0.000
0.980
0.000
0.020
0.000
0.000
0.000
0.987
0.013
0.000
0.000
0.000
0.997
0.003
0.010
0.000
0.000
0.000
0.990
28
R1=
R2=
R3=
R4=
R5=
1=
R1
0.000
0.999
0.000
0.000
0.001
1
R2
0.000
0.000
0.980
0.000
0.020
1
R3
0.000
0.000
0.000
0.987
0.013
1
R4
0.000
0.000
0.000
0.997
0.003
1
R5
0.010
0.000
0.000
0.000
0.990
1
R1
0.000
0.999
0.000
0.000
1
R2
0.000
0.000
0.980
0.000
1
R3
0.000
0.000
0.000
0.987
1
R4
0.000
0.000
0.000
0.997
1
R5
0.010
0.000
0.000
0.000
1
1R4
1R5
0.010 R5
0.999 R1
0.980 R2
0.987 R3
1R1
0.997 R4
1R2
0.002
0.002
0.002
0.758
0.235
1R3
29
Meses
425.1
425.5
434.2
1.3
4.3
Los estados Recurrentes positivos presentan u ii < inf lo cual cumple para los
estados de esta cadena de Markov.
10. Mostrar que los estados son aperidicos.
Veamos la matriz n-1 =3071
P3071
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.758
0.758
0.758
0.758
0.758
0.235
0.235
0.235
0.235
0.235
Matriz n=3072
P3072=
0.002
0.002
0.002
0.002
0.002
0.758
0.758
0.758
0.758
0.758
0.235
0.235
0.235
0.235
0.235
0.758
0.758
0.758
0.758
0.758
0.235
0.235
0.235
0.235
0.235
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
Se puede observar en las matrices que los valores de las probabilidades en todas
las filas permanecen iguales entre las matrices pares e impares, a dems el
sistema a la larga se estabilizo, lo que demuestra que la matriz es aperidica.
30
H
Fab
D
APT
S
Fab
0.999
0.000
0.000
0.000
0.000
D
0.000
0.980
0.000
0.000
0.000
APT
0.000
0.000
0.987
0.997
0.000
S
0.001
0.020
0.013
0.003
0.990
Calculamos el determinante de [P - ]
Y()=
0.000
0.000
0.000
0.000
0.010
0.999
0.000
0.000
0.000
0.000
0.000
0.980
0.000
0.000
0.000
0.000
0.000
0.987
0.997
0.000
0.001
0.020
0.013
0.003
0.990
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
con
sus
0.999 0.000
0.000
0.001
0
0.980
0.000
0.020
Y()= 0
0
0.987
0.013
0.003
0
0
0
0.010 0
0
0
Se
generan
los
siguientes
cofactores
determinantes.
0.999
0.001
0
0
0
0.980 0.000
0.020
0.987
0.013
0 0.003
0
0
principales
respectivos
31
0
0.980 0.000
0.020
0
0.987
0.013
0
0 0.003
0.010
0
0
0
0.987
0.013
0
0.003
0.010
0
segundo determinante:
-0.999 -0.020
0
0
0
0.010
0
0.987
32
0
0
0
0
0
0.010
0
0.001
0.001
0.980
0.000
0.987
0
0
0
0
0
0.010
0
0
0.987
0
0
0.010
0
0
0.987
33
1
0.9873
0.0221+0.0418i
0.0221-0.0418i
-0.0444
ninfinito
coordenadas y si <1, Lim ninfinito X(n) seria cero para todas las coordenadas. En
ninguno de los dos ltimos casos X c es una distribucin de probabilidad. Por otro
lado, si se cumple la segunda parte del resultado, X c = Lim ninfinito TX(0)=LX(0); para
cualquier distribucin inicial X(0). Por lo tanto la matriz del estado estacionario L,
debe tener todas las columnas iguales a Xc.
la distribucin estacionaria tambin se puede interpretar como la proporcin de
tiempo a largo plazo que el sistema pasa en cada estado.
34
PT
0.000
0.999
0.000
0.000
0.001
Xc
0.002
0.002
0.002
0.758
0.235
Xc
0.002
0.002
0.002
0.758
0.235
0.000
0.000
0.980
0.000
0.020
0.000
0.000
0.000
0.987
0.013
0.000
0.000
0.000
0.997
0.003
0.010
0.000
0.000
0.000
0.990
35
Esta condicin se puede probar con la matriz P 3072 la cual muestra que existe un n
en el cual Pijn >0.
P3072=
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.758
0.758
0.758
0.758
0.758
0.235
0.235
0.235
0.235
0.235
ninfinito
Pijn existe y j (j
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.002
0.758
0.758
0.758
0.758
0.758
0.235
0.235
0.235
0.235
0.235
36
ninfinito
recurrente, entonces j >0 para todo j que est en la clase de i. Si este es el caso
diremos que la clase es positiva recurrente o fuertemente ergdica.
Anteriormente se probo que la cadena tenia estados recurrentes positivos pues
existan los tiempos de recurrencia Uii, y tambin se mostro que la cadena era
aperidica pues no hacia ciclos para valores de n pares e impares y en el paso
anterior se mostr que Lim
ninfinito
que es ergdica.
Observe que si Pij es la matriz de transicin asociada a una clase recurrente
ergdica positiva, entonces la ecuacin
matricial:
P00
P01
P02
.
.
.
P0i
.
.
P10
P11
P12
.
.
.
P1i
.
.
P20
P21
P22
.
.
.
P2i
.
.
.
.
.
.
.
1
2
3
.
.
.
i
.
.
1
2
3
.
.
.
i
.
.
37
En los pasos anteriores se probo que Lim ninfinito Piin = i >0 se cumplia y que (1 2
3.....t es un autovector (a la derecha) de la matriz P ij asociado al autovalor 1 y ms
an, este valor ser el mayor, en valor absoluto, si la matriz es primitiva, esto es si
todas sus entradas son positivas para alguna potencia de la matriz.
Con esto podemos confirmar que la cadena es regular y ergdica aperidica.
0.002
0.002
0.002
0.758
0.235
38
Meses
425.1
425.5
434.2
1.3
4.3
Matriz original:
0.000
0.000
0.000
0.000
0.010
0.999
0.000
0.000
0.000
0.000
0.000
0.980
0.000
0.000
0.000
0.000
0.000
0.987
0.997
0.000
0.001
0.020
0.013
0.003
0.990
39
40
CONCLUSIONES
1.
Esta primera conclusin es para decir que no se concluir sobre los resultados
numricos del proceso, pues en el desarrollo del mismo se explica claramente
las respuestas obtenidas. Mi deseo es expresar conclusiones alrededor del
proceso de construccin del conocimiento y crear una inquietud a las personas
que lean el documento.
2.
3.
4.
5.
6.
7.
las cadenas de Markov no deben abordase de una forma simple, ellas tienen
una sustentacin matemtica fuerte y unos requisitos que se deben probar.
41
8.
Y las cadenas que no son ninguna de las dos anteriores que implicacin
tienen?
Todas estas dudas me llevan a concluir que no es solamente construir una matriz
y calcularle probabilidades de estado estable y tiempos de ocurrencia y
recurrencia, las cadenas de Markov son mucho ms.
42
RECOMENDACIONES
1.
2.
3.
43
BIBLIOGRAFA
APLICATION
OF
PETRI
NETS
IN
MANUFACTURING
SYSTEMS,
Cadenas de Markov
2.
3.
4.
Anlisis de Markov
44
ANEXOS
Cadenas de Markov
2.
3.
4.
Anlisis de Markov