You are on page 1of 19

1.4.

Matrices No Negativas
1.4.1. Matrices descomponibles.
PARTICIÓN DE MATRICES: si suprimimos todas las filas y columnas,
menos k filas y s columnas de una matriz A mxn , la matriz que resulta, de
dimensión k x s, se denomina submatriz de A.

Se puede particionar una matriz A en submatrices, es decir, expresarla


como un conjunto de submatrices disjuntas, cuya unión sea igual a la matriz
A . Por ejemplo: A   a ij  3 x 4 la podríamos particionar de la siguiente
forma:

 a 11 a 12 a 13 a 14 
   A 11 A 12 
A   a 21 a 22 a 23 a 24    
   A 21 A 22 
 a 31 a 32 a 33 a 34 
donde A 11 y A 12 son submatrices de dimensión 2 x 2 y A 21 y A 22 son
submatrices de dimensión 1x 2 ; pero también podríamos particionar A de
modo que, por ej., A 11 fuera de dimensión 2 x1 , A 12 de dimensión 2 x3 ,
A 21 de dimensión 1x1 y A 22 de dimensión 1x3 , etc.

La partición de matrices puede simplificar la escritura, mostrar alguna


estructura particular que interese, simplificar el cálculo; por ej.:
1 0 2 
   I 11 A 12 
A  0 1  1    donde I 11 es una submatriz identidad y 
    A 22 
0 0 3 
es una submatriz nula.

Cuando las matrices se particionan de manera apropiada para la adición o


para la multiplicación, las submatrices se comportan como si fueran
elementos ordinarios de la matriz;
 A 11 A 12   B 11 B 12 
Por ej.:A   y B  
 A 21 A 22   B 21 B 22 
 A 11  B 11 A 12  B 12 
A B   
 A 21  B 21 A 22  B 22 
siempre que para cada A ij la correspondiente B ij tenga la misma
dimensión.

 A11  B11  A12  B21 A11  B12  A12  B22 


A B    siempre que las
 A21  B11  A22  B21 A21  B12  A22  B22 
submatrices A ik y B kj sean conformables para el producto, es decir, que
el número de columnas de A ik sea igual al número de filas de B kj .

INVERSIÓN DE MATRICES PARTICIONADAS: si A es una matriz


cuadrada no singular, podemos particionarla para calcular su inversa (en
caso de matrices de dimensión considerable, esto simplifica los cálculos).

 A 11 A 12 
Si A   donde A 11 es de dimensión p x p, A 12 es de
 A 21 A 22 
dimensión p x (n  p), A 21 es de dimensión (n  p) x p y A 22 es de
dimensión (n  p) x (n  p) y X es la inversa de la matriz A : A . X  I ;
particionando las matrices X e I igual que A tenemos:
 A11 A12   X 11 X 12   I 11  12 
A    efectuando las operaciones
 21 A22   X 21 X 22   21 I 22 
indicadas obtenemos el sistema:
 A11  X 11  A12  X 21  I 11
 A  X  A  X    prem. m.a m. por A 1 X   A 1  A  X
 11 12 12 22 12 11 12 11 12 22

A
 21 11  X  A22  X 21   21  prem. m.a m. por A 1
22 X 21   A 1
22  A21  X 11
 A21  X 12  A22  X 22  I 22
reemplazando X 21 en la 1 a ecuación del sistema y sacando luego factor
común X 11 resulta  1
X 11  A11  A12  A22  A21 
1
reemplazando este
2
resultado en X 21 resulta 
X 21   A221  A21  A11  A12  A22
1
 A21 
1
de
modo que

A 1  
 1
A11  A12  A22  A21 1

 A111  A12   A21  A111  A12  A22 
1


1
 1
  A22  A21  A11  A12  A22  A21 1
 A 21
1
 A  A12  A22
11 
1


 2 2 1
  1 1  2  1
Ejemplo 1: A   1 3 1 A111  A221 
  2 4   2 3 
 1 2 2 
1 1 1
 1  2  1 1   1 1  5 4
X 11   2   2 1     
  2        
2 1 
 4  2 3  1   4 1  4 5
1
1 1
1  1 1  3 1    1  2 2
X 12   2 1    2 1      1   
2 
2 2 
 2  1 3
 1 2  
 2
 1  1  3  1  2 1 
  1      
 2  5  2 4   5 5 

1
1
1  2  1 1  1  2  1  1 1  3 1 1
X 21        2   2 1       2    
4  2 3  1  4  2 3   4 1  4 5 1

1
 1 
 2
1
  1 1 3 1  2  1  3 1
X      2 1        
2   5   2 4 
22
  1 2 2 1 3 
 2 

3
 4 2 1
 5 5 5
 
1
 1 3 1
de modo que A     
 5 5 5
 1 2 4
   
 5 5 5 

Si la matriz A es no singular (cuadrada con determinante no nulo) siempre


es posible hacer una partición de modo que A 11 y A 22 sean también
submatrices no singulares.

 2 2 1
Por ejemplo: para la matriz A   1 3 3  no podríamos hacer la
 1 2 2 
 2 2 1
 
partición A   1 3 1 porque A 22 no tiene inversa, pero sí podemos
 
 1 2 2 
2 2 1 
  1 1  3  2
hacer la partición A  1 3 3  A 11  
  4   1 2 
1 2 2 

MATRICES DESCOMPONIBLES: Se dice que una matriz cuadrada A es


reducible o descomponible si es posible, mediante el intercambio de algunas
filas y las columnas correspondientes, reducirla a la forma:

 A 11 A 12 
A´  donde A 11 y A 22 son submatrices cuadradas y  es
 A 22 
una submatriz nula. Si esto no es posible, se dice que la matriz es
irreducible o no decomponible.

4
Para intercambiar dos filas y dos columnas correspondientes, lo que se
hace en realidad, es premultiplicar por una matriz de permutación y
postmultiplicar por su traspuesta. Como la matriz de permutación es
ortogonal, lo que se obtiene es una matriz semejante a la dada.

Otra forma de definir las matrices descomponibles (muy útil para reconocer
si una matriz es decomponible o no) es la siguiente.

Una matriz A   a ij  nxn es descomponible si el conjunto formado por los


números enteros de 1 a n, o sea N   1, 2, ....., n puede separarse en dos
subconjuntos no vacíos I y J tales que:

1) N  I  J ; I  J   (o sea hacer una partición de N)


2) a ij  0 p a r a i  I ; i  J

2 0 1 1
 0 6 0 5
Por ejemplo, en la matriz A    los elementos nulos son
3 1 4 0
 
0 7 0 8
a 12 ; a 21 ; a 23 ; a 34 ; a 41 y a 43 .

Podemos particionar el conjunto N  1, 2, 3, 4 en los subconjuntos


I  2, 4 , J 1,3 de modo que a 21 ; a 23 ; a 41 y a 43 son nulos.
Efectivamente, si intercambiamos las filas 2 y 3 y luego las columnas 2 y 3
obtenemos la matriz

2 1 0 1
3 4 1 0 A
   11
A 12 
A´  
 0 0 6 5  A 22 
 
0 0 7 8

Consideramos el sistema A x  c donde A es descomponible; podemos


escribirlo:

5
 A 11
A 12   x 1  c 1 
  donde x 1 contiene las primeras k
 A 22   x 2  c 2 
componentes de x y x 2 las restantes  n  k  componentes; de la misma
forma separamos las componentes del vector c.

 A 11 x 1  A12 x 2  c 1
Resulta entonces el sistema 
 A22 x 2  c2

De modo que podemos resolver el subsistema A22 x 2  c 2 de forma


completamente independiente del resto del sistema; una vez obtenido x2
se reemplaza en la primera ecuación del sistema y se obtiene x1 .

MATRICES TOTALMENTE DESCOMPONIBLES: si es posible, mediante el


intercambio de algunas filas y las columnas correspondientes, llevar la
 A 11  
matriz a la forma A´  se dice que la matriz es totalmente
 A 22 
descomponible.

 0 0 3

Ejemplo: A  0 2 0  intercambiando filas 1 y 2 las columnas 1 y 2

  2 0 1 
 2 0 0
 
resulta A´   0 0 3 
 
 0  2 1 

En este caso el sistema Axc podemos escribirlo


 A 11    x 1  c 1   A 11 x 1  c 1
       y resulta 
 A 22   x 2  c 2   A22 x 2  c 2

6
De modo que se puede resolver en forma totalmente independiente cada
uno de los subsistemas. Para que una matriz sea totalmente descomponible
se debe poder hacer una partición de N   1, 2, ....., n en los subconjuntos
I y J de modo que si i  I ; i  J entonces a ij  0 y también a ji  0 .

INVERSIÓN DE MATRICES DESCOMPONIBLES: si la matriz A es una


matriz no singular descomponible se puede calcular su inversa más
 A 11 A 12 
fácilmente particionándola: A  donde A 11 y A 22 son
 A 22 
 X 11 X 12 
submatrices cuadradas y X    es su inversa, particionada
 X 21 X 22 
de la misma forma que A
 A 11 X 11  A 12 X 21  I 11
A X  A 12 X 
 11 12 22

 A 22 X 21    X 21   (1)
A X  I  X  A 1
(2)
 22 22 22 22 22

1
reemplazando (1) en la primera ecuación del sistema resulta X 11  A 11
reemplazando (2) en la segunda ecuación del sistema resulta
1 1
X 12  A 11 A 12 A 22

 A 11
1 1
 A 11 A 12  A 221 
entonces A 1   
  A 221 

si la matriz A fuera totalmente descomponible A 12   resulta


A 1
 
A 1  
11

 A 221 

7
 0 5 0 0
1 2 0 0 
Ejemplo : A    se puede descomponer intercambiando fila
4 1 5 0
 
5 4 2 1 
1 con 4, columna 1 con 4, fila 2 con 3, columna 2 con 3 y resulta la matriz D

1 2 4 5 
 
0 5 1 4 
   1 2 1  1  0, 4 
D  0 0 2 1 donde D 11  0 X  D 11 
5  
11
0 0 5 0    0 0, 2 
 
 
 
 2 1 1  0 0, 2 
D 22   X  D 22 
0  
22
 5  1  0, 4 
Calculamos
 1 0,4  4 5 0 0,2   3,4 0,64
X 12   D111 D12 D221      
 0  0,2 1 4 1  0,4  0,8 0,28

1 0, 4  3, 4 0, 64 
 
0 0, 2  0,8 0, 28
 
Entonces D   0 0 0 0, 2  para obtener la inversa de A
0 0 1  0, 4 
 
 
 
debemos intercambiar nuevamente filas 1 con 4 y 2 con 3 y las columnas
  0, 4 1 0 0
 0, 2 0 0 0 
correspondientes resultando A  
1

 0, 28  0,8 0, 2 0 
 
 0, 64  3, 4  0, 4 1 
8
1.4.2. Matrices No Negativas.

Se dice que una matriz A   a ij  es no negativa si todos sus elementos


son no negativos: A  0  a ij  0  i ,  j .
La notación A  B es equivalente a A  B  0 .

Un vector v se denomina no negativo si todas sus componentes son no


negativas: v  0  v i  0  i ; v  u equivale a v  u  0 .

MATRICES POSITIVAS: se dice que una matriz A es positiva si todos sus


elementos son positivos: A  0  a ij  0  i ,  j . La notación A  B es
equivalente a A B 0.

Un vector v se denomina positivo si todas sus componentes son positivas:


v  0  v i  0  i ; v  u equivale a v  u  0 .

PROPIEDADES DE LAS MATRICES NO NEGATIVAS

1. TEOREMA DE PERRON: Una matriz positiva A siempre tiene un valor


característico real y positivo r, que es una raíz simple de la ecuación
característica y excede el módulo de todos los demás valores
característicos. A este valor o raíz “maximal” r corresponde un vector
característico positivo.

Para todo número real s > r la matriz (s I – A) es no singular y su inversa


( s I  A ) 1 es positiva.

2. 1er TEOREMA DE FROBENIUS: Una matriz no negativa no


descomponible A tiene siempre un valor característico real y positivo r, que
es una raíz simple de la ecuación característica; los módulos de los otros
valores característicos no exceden a r. Al valor característico r corresponde
un vector característico positivo.

Para todo número real s > r la matriz (s I – A) es no singular y su inversa


( s I  A ) 1 es positiva.
9
3. 2do TEOREMA DE FROBENIUS: Una matriz no negativa A tiene
siempre un valor característico r tal que los módulos de todos los valores
característicos de A no exceden a r. Al valor característico r corresponde un
vector característico no negativo.

Para todo número real s > r la matriz (s I – A) es no singular y su inversa


( s I  A ) 1 es no negativa.

 2 2 1
 
Ejemplo 1: A  1 3 1 esta matriz es positiva, se aplica el Teorema de
 
 1 2 2 
Perron:
A   I    3  7  2  11   5  0 . Las raíces son  1  5;  2   3  1

La raíz “maximal” r es 5, positiva, simple, mayor que el módulo de las


demás. A esta raíz r corresponde un vector propio  1, 1, 1 T que es un
vector positivo.
 4  2  1

Si elegimos s = 6 > 5 vemos que la matriz (6 I – A)   1 3  1 es no

  1  2 4 
10 10 5 
1
singular y su inversa es positiva: (6 I  A )
1
  5 15 5 
25
 5 10 10 
 4 6 0

Ejemplo 2: A  0 2 1
 matriz no negativa, no descomponible,
 
 1 0 3 
podemos aplicar el primer Teorema de Frobenius:

10
 1  5  r

A   I    3  9  2  26   30  0  2  2  2 i 
    6 5

 3  2  2 i 

a r = 5 corresponde el vector característico  6, 1, 3 T positivo.

 2 6 0 
Si elegimos s = 6 > 5 (6 I – A)  0
 4  1

  1 0 3 
12 18 6 
1 
1
(6 I  A )   1 6 2  positiva.
18
 4 6 8 
 2 1 0

Ejemplo 3: A  1 3 2
 matriz no negativa, no descomponible,
 
 0 1 3
podemos también aplicar el 1er Teorema de Frobenius:

 1  1

A   I    3  8  2  18   11  0
 1
 
 2  7  5  r s i m p l e
2

 1

 3  2 7  5 
a la raíz maximal r le corresponde un vector propio positivo:
 1  5 1  5  T
 , , 1
 2 2 
 3 1 0  2 2 2
  1
para s = 5 >r (5 I–A)   1 2  2 (5 I  A )
 
1
 2 6 6   0
4
 0  1 2   1 3 5 

11
 1 0 2
 
Ejemplo 4: A  1 2 0 matriz no negativa, descomponible, se aplica
 
 2 0 1
el 2do Teorema de Frobenius:
 1  3  r

A I   4  60
3 2
 2  2 al valor propio r no
   1
 3
negativo corresponde un vector propio no negativo  2 , 2, 2  T
 3 2  2  0, 6 0 0, 4 

para s=4 >r (4I–A)   1 2 0  (4 I  A ) 1
  0,3 0, 5 0, 2

  2 0 3   0, 4 0 0, 6 
matriz no negativa.

9 4 4

Ejemplo 5: A  0 3 6
 matriz no negativa, descomponible, se aplica
 
 0 7 2
el 2do Teorema de Frobenius: A   I  (9   )   2  5   36   0
 1   2  9  r ( no simple)

 3   4
al valor propio r corresponde un vector propio no negativo  1, 0, 0  T
para s=10>r
1 4  4  14 60 52 
 1 
(10 I – A)  0
 7  6  (10 I  A ) 1
 0 8 6 
14
 0 7 8   0 7 7 
matriz no negativa.

Teorema: La raíz maximal de una matriz no negativa A no puede ser mayor


que la máxima suma de cada columna ni menor que la mínima suma de
cada columna de A.

12
Dem: por el 2do. Teorema de Frobenius, si A 0 existe una raíz
característica maximal r  0 tal que r x = A x donde x  0 , es decir:

r x 1  a 11 x 1  a 12 x 2  .......  a 1n x n
r x  a x  a x  .......  a x
 2 21 1 22 2 2n n

........ ................... ...... .........
r x n  a n1 x 1  a n 2 x 2  .......  a nn x n

r  x1  x 2    x n   a11  a 21    a n1 x1  a12  a 22    a n 2 x 2 


 
C1 C2

   a1n  a 2 n    a nn x n

Cn

Si denominamos C  max  C 1 , C 2 , ...., C n  y C   minC1 , C 2 ,  , C n 


n
r  x1  x 2    x n   C  x1  x 2    x n  como x i  0 por ser x un
i 1

vector propio no negativo, resulta r  C (1) de manera similar:


r ( x 1  x 2  ...  x n )  C´( x 1  x 2  ...  x n ) y r  C ´ (2)
de (1) y (2) C ´  r  C

Como A y A tienen las mismas raíces F ´  r  F donde F´ es la mínima


T

suma de cada fila y F la máxima suma de cada fila de A.

CONDICIÓN DE HAWKINS–SIMONS: si en un modelo económico se


plantea el sistema lineal (I-A) x = c donde A es una matriz no negativa y c
es un vector no negativo, interesa determinar si siempre habrá una solución
no negativa para x.

Por ej.:
 0, 5 0, 4   20    700 
si A   y c  x  es un vector negativo;
 0, 6 0, 6   50    925 

13
 0, 5 0, 4
en cambio, si A  para el mismo vector c la solución es
 0, 6 0, 5
 3000 
positiva: x   
 3700 
En general, si s es un número real positivo, I la matriz identidad de orden n,
A una matriz no negativa nxn y c un vector no negativo, la condición
necesaria y suficiente para que el sistema (s I A)x = c tenga solución no
negativa es que la matriz (s I A) tenga todos sus menores principales
(dominantes) positivos. Esta es la condición de Hawkins-Simons.

También hay dos condiciones suficientes que son más sencillas de


n n
comprobar: sea F i a i j y C j a i j
j 1 i 1

a) si s  F i ( i 1, 2,..., n) el sistema verifica la condición de H-S


b) si s  C j ( j  1, 2,..., n) el sistema verifica la condición de H-S

1.4.3. Matrices estocásticas.


MATRICES DE MINKOWSKI: se denominan las matrices cuadradas no
negativas tales que la suma de los elementos de cada columna (o de cada
fila) no superen la unidad; es decir, las matrices A   a ij  nxn tales que
 A 0  A0
 n 
 ó  n
  a ij  1 ( j 1, 2,..., n)   a ij  1 (i 1, 2,..., n)
 i 1  j 1

por ejemplo: la matriz de coeficientes técnicos en el modelo abierto de


Leontief.

VECTOR DE PROBABILIDAD o VECTOR ESTOCÁSTICO: se denomina a


un vector fila p   p 1, p 2,.... p n  cuyas componentes son todas no

14
p j 0

negativas y su suma es igual a 1, o sea  n también se puede
  p j  1
 j 1
definir como vector columna.

MATRIZ ESTOCÁSTICA o MATRIZ DE PROBABILIDAD: se denomina a


una matriz cuadrada P   p ij  nxn si cada una de sus filas es un vector de
probabilidad. (se puede dar una definición equivalente en términos de
columna). Es un caso particular de las matrices de Minkowski.

Propiedades:
1) Si A y B son matrices estocásticas, su producto A  B es también
unamatriz estocástica.
2) Todas las potencias no negativas de una matriz estocástica A k

son matrices estocásticas.


3) Toda matriz estocástica tiene una raíz característica igual a 1 y
todas sus raíces tienen módulo menor o igual a 1.
 1, 1, .....,1
T
4) Toda matriz estocástica multiplicada por el vector

1 1
1 1
resulta igual a ese vector, es decir: P      de modo que toda
   
 
1 1
 1, 1, .....,1
T
matriz estocástica tiene el vector propio
correspondiente al valor propio  1

Como los vectores de probabilidad son vectores fila vamos a considerar los
vectores propios de una matriz estocástica como vectores fila; entonces
x P =  x de donde x  P   I    los vectores x distintos del vector nulo
que satisfagan este sistema para cada valor propio i serán los vectores
propios correspondientes a ese autovalor i.

15
Teorema: Toda matriz estocástica tiene una raíz característica igual a 1 y
todas sus raíces tienen módulo menor o igual a 1.

Dem: Como P  0 hay una raíz dominante r  0 tal que r   i y esa raíz
corresponde a un vector característico no negativo k, según el 2do. teorema
de Frobenius; si k es un vector fila: r k = k P
r k 1  p 11 k 1  p 21 k 2  .......  p n1 k n
r k  p k  p k  .......  p k
 2 12 1 22 2 n2 n
o sea: 
........ ................... ...... .........
r k n  p 1n k 1  p 2 n k 2  .......  p nn k n

r (k1  k 2    k n )  ( p11  p12    p1n )k1  ( p 21  p 22    p 2 n )k 2 


 
1 1

   ( p n1  p n 2    p nn )k n

1
los paréntesis del segundo miembro de la igualdad son la suma de cada una
de las filas de la matriz P de modo que valen 1, por lo que resulta
n
r  k 1  k 2  ...  k n   k 1  k 2  ....  k n (1) Si k
i 1
i  0 podemos dividir

la igualdad (1) miembro a miembro por esta suma y entonces r = 1.


Efectivamente, k es un vector no negativo distinto del vector nulo (por ser
vector propio) de modo que la suma de sus componentes es positiva. Como
r es la raíz maximal todas las demás raíces tienen módulo menor o igual a
1, resultado que por otro lado surge del teorema relativo a la relación entre
los módulos de las raíces características de una matriz y las sumas de sus
filas y columnas.

Además, si la matriz P es no descomponible o irreducible, esta raíz r = 1 es


simple por el 1er. teorema de Frobenius.

Por otra parte, si en lugar de considerar la raíz maximal r tomamos una raíz
cualquiera  i también se verifica  i k = k P y desarrollando esta expresión
llegamos a que  i  k 1  k 2  ...  k n   k 1  k 2  ...  k n pero aquí el
vector k puede no ser no negativo (porque no corresponde al valor maximal)
en cuyo caso la suma de sus componentes podría ser 0; sólo en este caso

16
 i 1 de modo que si los vectores propios corresponden a raíces distintas
de 1 deben ser tales que la suma de sus componentes sea 0.

VECTOR DE PROBABILIDAD FIJO o PUNTO FIJO: se denomina a un


vector de probabilidad t tal que t P = t (o sea que corresponde al valor propio
r = 1)
 0 1 
Por ej.: si P  buscamos un vector de probabilidad
1/ 2 1/ 2 
0 1 
t = (x, 1-x), 0  x  1 tal que t P = t  x,1  x      x,1  x 
1/ 2 1/ 2
1/ 2 1/ 2  x 
o sea:   x=1/3 1-x=2/3 t  1/ 3, 2 / 3
 x  1/ 2  1/ 2 x  1  x 
también se puede buscar un vector propio de la matriz P correspondiente a
r = 1 y luego dividir sus componentes por sus suma para que resulte un
vector de probabilidad; como es un vector fila debemos formar la matriz (P-I)
y lo podemos obtener de los adjuntos de una columna cualquiera:

 1 1 
PI   v  (1 / 2,  1) v i  3 / 2
1 / 2 1 / 2
t  2 / 3 (1 / 2,  1)  (1 / 3, 2 / 3)

 0 1 0  1 1 0
Ejemplo 1: P  0
 0 
1 P  I   0   1 1 

1 / 2 1 / 2 0 1 / 2 1 / 2  1
v  (1 / 2, 1, 1)  vi  5 / 2 t  (1 / 5, 2 / 5, 2 / 5)

 0 1 0   1 1 0 
  
Ejemplo 2: P  1 / 2 0 1 / 2 P  I  1 / 2  1 1 / 2

   
 0 1 0   0 1  1 
v  (1 / 2, 1, 1 / 2)  vi  2 t  (1 / 4, 1 / 2, 1 / 4)

17
Ejemplo 3:
1 / 2 0 1 / 2 0   1 / 2 0 1/ 2 0 
 0 1 / 3 1 / 3 1 / 3  0  2 / 3 1 / 3 1 / 3
P   PI  
1 / 4 0 1 / 4 1 / 2  1/ 4 0  3 / 4 1 / 2
   
 0 0 0 1   0 0 0 0 

v  (0, 0, 0,  1 / 6) t  (0, 0, 0, 1)

Observación: en los ej. 1 y 2 la matriz P es no descomponible y el vector


propio correspondiente a la raíz maximal 1 es positivo (1er. teorema de
Frobenius); en el ej. 3 la matriz P es descomponible y el vector propio
correspondiente a la raíz maximal es no negativo (2do. teorema de
Frobenius).

MATRICES ESTOCÁSTICAS REGULARES o PRIMITIVAS: si todos los


elementos de una potencia de P son positivos  si P h
 0  se dice que P es
una matriz estocástica regular o primitiva

 0 1  1/ 2 1/ 2 
Ejemplo: P  es regular porque P  
2
0
1/ 2 1/ 2  1/ 4 3 / 4

1 0 
En cambio A    no es regular porque
1/ 2 1/ 2 
 1 0   1 0 
A2   A3   y en todas las potencias
3 / 4 1/ 4 7 / 8 1/ 8
sucesivas se mantiene el 0 en el ángulo superior derecho.

Propiedades: si P es una matriz estocástica regular o primitiva:

1) P tiene un vector de probabilidad fijo t cuyas componentes son todas


positivas (t > 0).
2) La sucesión de potencias de P P , P 2, P 3,..., P m,... se aproxima a la
matriz T cada una de cuyas filas es el vector fijo t:
lim P m  T   t , t ,..., t 
T

m 

18
1/ 2 1/ 2  0,31 0,69  0,3307 0,663 
P 2   ...P 5    ...P 10  
1/ 4 3/ 4 0,34 0, 66 0,3298 0,6702
1/ 3 1/ 3
lim P m  T  
m 
1/ 3 1/ 3

1) Si p es un vector de probabilidad, entonces la sucesión de vectores


 p P , p P 2, p P 3,..., p P m,... se aproxima al punto fijo t:
lim p P m  t
m 

Si una matriz P es primitiva o regular, entonces es irreducible o no


descomponible, porque cualquier potencia de una matriz descomponible es
también descomponible. Pero puede ser que una matriz irreducible no sea
 0 1 0 

primitiva o regular, por ej.: P  1/ 2 0 1/ 2

 0 1 0 
Observación: Una matriz estocástica no descomponible es primitiva sii todas
sus raíces características distintas de la maximal tienen módulo menor
que 1.

Extracto de:
BERNARDELLO, A., CASPARRI, M.T. y otros, Matemática para
economistas con Excel y Matlab, Omicron 2004.

19

You might also like