P. 1
48600742 Repaso Teoria de Control

48600742 Repaso Teoria de Control

|Views: 43|Likes:
Published by panthom0

More info:

Published by: panthom0 on Jul 30, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

11/08/2012

pdf

text

original

Hemos obtenido una f´ormula que nos permite hallar la soluci´on x(t) del modelo de estado,
dadas las matrices A y B y el valor x(0) de condiciones iniciales. Vamos a estudiar ahora las
relaciones que existen entre ciertas propiedades de los datos A, B y x(0) y de la soluci´on x(t).
Para ello hemos de repasar previamente algunos conceptos de Algebra Lineal.

2.6. RESPUESTA DEL MODELO DE ESTADO

43

Dependencia lineal

Vamos a suponer que tenemos un sistema de n vectores columna

a1 =

a11

a21

.
.
.

am1

, a2 =

a12

a22

.
.
.

am2

,..., an =

a1n

a2n

.
.
.

amn

pertenecientes al espacio vectorial Cm

(a veces puede ser Cm

) y n escalares x1,...,xn ∈C. La

operaci´on

a1x1 +a2x2 +...+anxn =

a11x1 +a12x2 +...+a1nxn

a21x1 +a22x2 +...+a2nxn
.
.
.

am1x1 +am2x2 +...+amnxn

=

b1

b2

.
.
.

bm

se denomina combinaci´on lineal de a1,a2,...,an. En forma matricial se escribe

Ax = b

en donde A ∈ Cm×n

, x ∈ Cn

, b ∈ Cn

. Si, dados a1,...,an, existe un conjunto de escalares

x1,...,xn, no todos nulos, tales que los elementos de la combinaci´on lineal b1,b2,...,bn, son
todos nulos, entonces se dice que los vectores a1,a2,...,an son linealmente dependientes. En
caso contrario se dice que son linealmente independientes.
Un concepto estrechamente relacionado con la dependencia lineal es el de rango. Se define
el rango de una matriz A = [aij] , como el n´umero m´aximo de filas (o de columnas) linealmente
independientes. Resulta evidente que si disponemos de alg´un procedimiento para calcular el
rango de una matriz podemos averiguar si un sistema de vectores es linealmente independiente
o no lo es.

Recordemos que la dimensi´on de un espacio vectorial V es el n´umero m´aximo de vectores
linealmente independientes en V. Si en un espacio vectorial, por ejemplo en Cn

, tenemos n

vectores e1,e2,...,en linealmente independientes, ´estos forman una base del espacio vectorial.

Valores propios y vectores propios

Sea A una aplicaci´on lineal, dada en cierta base por la matriz cuadrada A ∈ Cn×n

, en el

espacio vectorial Cn
.

1. Sea λ∈C. Se dice que λ es un valor propio de A si existe un vector x∈Cn

, x = 0, tal que

Ax = λx

Es importante remarcar que x ha de ser no nulo (x = 0) ya que de otro modo todo
elemento λ ∈ C ser´ıa un vector propio. Los valores propios son las ra´ıces λi,i = 1,...,n
de la ecuaci´on |λIn−A|= 0

2. Sea x∈Cn

. Se dice que x es un vector propio de A si existe un escalar λ∈C tal que

Ax = λx

Cada vector propio wi es la soluci´on x del sistema de ecuaciones Ax = λix, en donde λi
es un valor propio, para i = 1,...,n. Los vectores propios w1,...,wn se suelen denominar
vectores propios por la derecha.

44

CAP´

ITULO 2. RESPUESTA TEMPORAL

Diagonalizaci´on

Otro resultado conocido importante es que si una aplicaci´on lineal A :Cn

Cn

tiene n va-
lores propios distintos λ1,λ2,...λn, entonces tiene n vectores propios w1,w2,...,wn linealmente
independientes. En este caso la matriz W = [w1,w2,...,wn], cuyas columnas son los vectores
propios, es invertible y entonces se verifica

W−1

AW = W−1

A[w1,w2,...,wn]

= W−1

[Aw1,Aw2,...,Awn]

= W−1

[λ1w1,λ2w2,...,λnwn]

= diag[λ1,λ2,...,λn]

:= Λ

es decir que la matriz A es semejante a una matriz diagonal Λ.
Las filas v1,v2,...,vn de la matriz V = W−1

suelen denominarse vectores propios por la

izquierda ya que, seg´un acabamos de ver, W−1

AW = Λ = [λ1,λ2,...,λn] y, por tanto, W−1

A =

ΛW−1

es decir VA = Vλ.

Respuesta espectral

Veamos ahora c´omo podemos caracterizar la respuesta del sistema libre

˙x = Ax, x∈Cn

,A∈Cn×n

(2.21)

en relaci´on a los valores propios y vectores propios de la matriz A. Vamos a suponer que los
valores propios λ1,λ2,...,λn de A sean todos distintos. En este caso, sus vectores propios (por
la derecha), w1,w2,...,wn son linealmente independientes y, por tanto, forman una base de
Cn

. Entonces podemos expresar la soluci´on x(t) de (2.21), por pertenecer a Cn

, como una

combinaci´on lineal de los vectores de la base, es decir, de la forma

x(t) = x1(t)w1 +x2(t)w2 +...+xn(t)wn

(2.22)

en donde x1(t),...,xn(t)∈C. Derivando esta ecuaci´on y sustituyendo en (2.21) queda

˙x1(t)w1 + ˙x2(t)w2 +...+ ˙xn(t)wn =

= A(x1(t)w1 +x2(t)w2 +...+xn(t)wn)

= λ1x1(t)w1 +λ2x2(t)w2 +...+λnxn(t)wn

de donde, por ser w1,...,wn linealmente independientes, se deduce que

˙x1(t) = λ1x1(t)

˙x2(t) = λ2x2(t)
.
.
.

˙xn(t) = λnxn(t)

Las soluciones de este sistema de ecuaciones, que se obtienen de forma inmediata, son

xi(t) = xi(0)eλit

, i = 1,2,...,n

Sustituyendo en (2.22) obtenemos como soluci´on

x(t) =

n
i=1

xi(0)eλi

wi

Cap´ıtulo 3

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->