You are on page 1of 38

Apuntes de Matemáticas II

Grado Ingeniería Mecánica
Parte I: Álgebra Lineal

Mª Cruz Parra
Dpto. de Matemática Aplicada

´
Algebra
lineal
Previos

3

Matrices

5

Determinantes

7

Rango de una matriz

11

Sistemas de ecuaciones lineales

17

Espacios vectoriales

19

Aplicaciones lineales

25

Diagonalizaci´
on

29

Formas bilineales y formas cuadr´
aticas

33

1

Previos
§1 Aplicaciones.
Dados dos conjuntos A y B, una aplicaci´
on f de A en B es una ley o criterio que asocia a
cada elemento de A uno y s´olo uno de B.
Si f : A → B, es una aplicaci´on y a 7→ b = f (a), se dice que b es la imagen por f de a y que a
es una antiimagen de b, o un original de b, por f .
Se dice que una aplicaci´on es inyectiva si elementos de A distintos tienen im´agenes distintas,
es decir: a1 , a2 ∈ A, a1 6= a2 ⇒ f (a1 ) 6= f (a2 )
o, equivalentemente, ∀a1 , a2 ∈ A tales que f (a1 ) = f (a2 ) ⇒ a1 = a2 .
Se dice que una aplicaci´on es suprayectiva si cada elemento de B tiene por lo menos una
antiimagen, es decir: ∀b ∈ B, ∃a ∈ A, b = f (a).
Una aplicaci´on se dice biyectiva si es inyectiva y suprayectiva.
§2 Relaciones binarias.
Dados dos conjuntos A y B, una relaci´on binaria < entre A y B es una ley que permite decir,
para todo par (a, b) ∈ A × B, si a est´a relacionado con b o no, mediante <.
Sea < una relaci´on binaria sobre un mismo conjunto A. Diremos que < verifica la propiedad
Reflexiva si ∀a ∈ A, a<a.
Sim´etrica si a, b ∈ A 3 a<b ⇒ b<a.
Antisim´etrica si a, b ∈ A 3 a<b ∧ b<a ⇒ a = b.
Transitiva si a, b, c ∈ A 3 a<b ∧ b<c ⇒ a<c.
La relaci´on se dice de equivalencia si se cumplen las propiedades reflexiva, sim´etrica y transitiva
y se dice que la relaci´on es de orden cuando es reflexiva, antisim´etrica y transitiva.
´ n.
§3 Leyes de composicio
Sea A un conjunto. Una Ley de Composici´
on Interna, abreviadamente LCI, sobre A es una
operaci´on ∗ que a cada par ordenado de elementos de A le asocia otro elemento de A. Es decir,
es una aplicaci´on de A × A en A.
∗ : A × A → A, (a, b) 7→ a ∗ b.
Sean A y K dos conjuntos distintos. Una Ley de composici´
on externa, abreviadamente LCE,
sobre A con dominio de operadores K es una operaci´on ∗ que a cada par de elementos, uno de A
y otro de K, le asocia un elemento de A. Es decir, es una aplicaci´on de K × A en A.
∗ : K × A → A, (k, a) 7→ k ∗ a.

3

. +) es grupo abeliano. unitario y en el que todo elemento. b) 7→ x = ˜b∗a. (a. b. c ∈ A. Llamaremos cuerpo a un anillo (IK. +) se dice aditivo. b ∈ A. a ∗ a ˜=a ˜ ∗ a = e. c ∈ A. el elemento neutro se denota por 1 y se le dice unidad o identidad y al sim´etrico de un elemento a lo llamaremos inverso de a y lo denotaremos por a−1 . ½ a · (b + c) = (a · b) + (a · c). se denota por el s´ımbolo habitual +. ·) tiene estructura de anillo si se verifica • (A. se dice que (G. Cuerpo. a · e = e · a = a. se dicen divisores de cero. (a. a. b. ambas LCI sobre A. donde 0 representa el neutro de +. • Existe elemento neutro. a ∗ b = b ∗ a. se suele denotar por el s´ımbolo ·. a ∗ (b ∗ c) = (a ∗ b) ∗ c. Cuando la operaci´on ∗ sea una suma. b 6= 0 3 a · b = 0. ·) es un anillo conmutativo. El anillo tiene divisores de cero si ∃ a. b ∈ G. ·) conmutativo. ∀a. Grupo. +.a−1 = a−1 . si el grupo es multiplicativo. el grupo (G. • Todo elemento posee sim´etrico. (a. Dos elementos a y b verificando la condici´on anterior. Entonces. b) 7→ x = b−1 · a Anillo. a+(−a) = (−a)+a = 0. ∃ e ∈ G 3 ∀a ∈ G. Si adem´as la operaci´on · es conmutativa. ∗. a · 0 = 0 · a = 0. b ∈ A. • La operaci´on · es asociativa. el grupo (G. ∗) tiene estructura de grupo si se verifica • ∗ es asociativa. +. b) 7→ x = −b + a y. ∗) se puede establecer la siguiente aplicaci´on ∗ : G×G −→ G. +. ∀a. ·) se dice multiplicativo. ·) un anillo. • La operaci´on · es doblemente distributiva respecto de +. Sea G un conjunto sobre el que est´a definida una LCI. +. donde ˜b es el sim´etrico de b. as´ı. Sea (A. se dice que (A. donde 0 representa el elemento neutro para la +. MECANICA 4 §4 Estucturas algebraicas. excepto el neutro de + es simetrizable respecto de la operaci´on producto. cociente / : G × G −→ G. Se dice que (A. a ∗ e = e ∗ a = a. Si adem´as la operaci´on ∗ es conmutativa. a 6= 0. Teorema Un cuerpo no posee divisores de cero. ∀a.´ Matem´aticas II.a = 1. que define una LCI sobre G a la que llamamos operaci´ on inversa de ∗. el elemento neutro se denota por 0 y se le dice nulo o cero y al sim´etrico de un elemento a lo llamaremos opuesto de a y lo denotaremos por −a. para cada a ∈ G ∃ a ˜ ∈ G. Si la operaci´on ∗ es un producto. la operaci´on inversa se dice sustracci´on o diferencia − : G × G −→ G. para todo a ∈ A. El anillo se dice unitario si existe elemento neutro para la operaci´on · ∃ e ∈ A 3 ∀a ∈ A. b. es decir. ∗) es un grupo abeliano o conmutativo. ∀a. c ∈ G. (a + b) · c = (a · c) + (b · c). Se dice que (G. En un grupo (G. ∀a. a · b = b · a. Si el grupo es aditivo. a · (b · c) = (a · b) · c. Sea A un conjunto sobre el que est´an definidas dos operaciones + y ·.

b .  am1 am2 . . . Sean A... . . .. a la matriz ( nk=1 aik bkj ) ∈ Mm×p (IK)   c11 . B = (bij ) ∈ Mm×n (IK). 0    In =  . +) es grupo abeliano.  0 0 ..  =     . c1j ... c1p      . A ∈ Mn (IK) se dice inversible o regular si existe B ∈ Mn (IK) tal que AB = BA = In .. .B. La matriz (aij + bij ) ∈ Mm×n (IK) se dice suma de A con B y se denota por A + B. B ∈ Mn×p (IK) y C ∈ Mp×q (IK) entonces. . ..  .  ai1 ai2 .. . . . cmj . . .  . Sean A ∈ Mm×n (IK) y B. La matriz O = (0) ∈ Mm×n (IK) es el elemento neutro y se dice matriz nula de dimensiones m × n. a1n . . .. Dadas A = (aij ). . Para cada A = (aij ) ∈ Mm×n (IK) la matriz −A = (−aij ) ∈ Mm×n (IK) es su opuesta.. . . La matriz   1 0 . . Se llama matriz producto de A por B. para toda A ∈ Mn (IK)..  bn1 . . 5 . . . . . . PRODUCTO Definici´ on 2.. . ain   .  .  b  . . B ∈ Mm×n (IK) y C ∈ Mn×p (IK) entonces. y se escribe A. (A + B)C = AC + BC.. cmp Propiedades Sean A ∈ Mm×n (IK). . . Sean A = (aij ) ∈ Mm×n (IK)Py B = (bij ) ∈ Mn×p (IK). bnj . Para n = 1 conmutativo sin divisores de cero y para n > 1 no conmutativo y con divisores de cero. . ... .. . Propiedades (Mm×n (IK). b . .. . . . . 0  0 1 . (AB)C = A(BC).Matrices SUMA Definici´ on 1... (Mn (IK). . Elementos inversibles Definici´ on 3. . . .   n . +. . .   .. b 2j 2p     21 . a b . ·) es anillo unitario.. A(B + C) = AB + AC.. . . In se dice matriz unidad o matriz identidad de orden n..   . . 1 verifica AIn = In A = A. . . . b . a11 a12 . . .. c c .. 11 1j 1p  . . amn cm1 . . bnp  . C ∈ Mn×p (IK) entonces. . .  X   ... . la matriz B se dice inversa de A y se denota por A−1 . En este caso. .  k=1  .   . .    . b . . . . ik kj ip i1 . . .

. . ∀A. . Se dice que una matriz A ∈ Mn (IR) es ortogonal si AT A = AAT = In . A la  a11 . . Definici´ on 7. ∀α. entonces la matriz AB tambi´en es inversible y (AB)−1 = B −1 A−1 . Una matriz A se dice sim´etrica si cumple AT = A.  . .   a13 . TRASPUESTA DE UNA MATRIZ Definici´ on 5. . . (A−1 )T = (AT )−1 .  . . ain . B ∈ Mm×n (IK). β ∈ IK. (AB)T = B T AT .  amn se le dice traspuesta de A y se representa por AT . Propiedades (AT )T = A. ai3 . α(A + B) = αA + αB. Sea A ∈ Mn (IK) inversible entonces.. ∀A ∈ Mm×n (IK). B ∈ Mm×n (IK). (α + β)A = αA + βA. . . α(βA) = (αβ)A Para toda A ∈ Mm×n (IK) se verifica que 1A = A. ∀α. ai1 . ∀A. ∀α ∈ IK. Distributiva respecto a la suma de elementos y a la suma de matrices. ai2 .  a12 . ∀A ∈ Mm×n (IK). (A + B)T = AT + B T . β ∈ IK. Sea A = (aij ) ∈ Mm×n (IK). . matriz  am1 am2   am3   ∈ Mn×m (IK) . Asociativa respecto al producto de elementos. . .´ Matem´aticas II. ∀B ∈ Mn×p (IK). . .   . PRODUCTO DE UNA MATRIZ POR UN ELEMENTO Definici´ on 4. Propiedades Distributiva respecto a la suma matricial. Definici´ on 8. a1n . . .. Una matriz A se dice antisim´etrica si verifica AT = −A. Definici´ on 6. MECANICA 6 Si A y B son dos matrices de Mn (IK) inversibles. A la matriz (αaij ) ∈ Mm×n (IK) la llamaremos matriz producto de la matriz A por el elemento α y se escribe αA. ∀A ∈ Mm×n (IK). . Sean A = (aij ) ∈ Mm×n (IK) y α ∈ IK. ..

los elementos. Entonces. y (1) queda |A| = a11 . As´ı. de este modo. y se denota por |A| al elemento de IK dado por X (1) |A| = σ(α)a1α(1) a2α(2) . . ¶ µ a11 a12 . . respectivamente. n α(1) α(2) α(3) . n} en s´ı mismo. . α∈Sn Los n! t´erminos de la suma (1) se dicen t´erminos del determinante. y lo escribiremos σ(α). . Sea A ∈ Mn (IK). filas.Determinantes PERMUTACIONES Permutaci´ on de orden n es cada una de las aplicaciones biyectivas de los elementos del conjunto An = {1. columnas. El n´ umero de permutaciones de orden n es n!. DETERMINANTE DE UNA MATRIZ CUADRADA Definici´ on 9.. elementos. anα(n) . se dice determinante de A. Para n ≥ 2. Orden. Observando el cuadro con el que representamos una permutaci´on se comprueba que los elementos de la primera fila aparecen en orden creciente por lo que la diferencia i − j entre uno de ellos i y cada j de los que tiene a su derecha es siempre negativa. la mitad de las permutaciones de orden n son de clase par y la otra mitad de clase impar. Lo que se recuerda f´acilmente con el siguiente esquema 7 . donde I(α) denota el n´ umero total de inversiones que forman los diferentes pares de elementos de α. α(n). Se observa que cualquier aplicaci´on de An en An que sea inyectiva o suprayectiva es tambi´en biyectiva. A = (a11 ) y S1 = {1}. . 21} de las que P2 = {12} Si n = 2. Una permutaci´on α ∈ Sn se representa por el cuadro siguiente µ ¶ 1 2 3 . A = a21 a22 es par e I2 = {21} impar. la mitad de los t´erminos son positivos y la otra mitad negativos. Se dice que la permutaci´on α es de clase par si σ(α) = 1 y de clase impar cuando ´esta sea −1. 2. α(n) aunque podemos referirnos y utilizar una permutaci´on sustituy´endola por su correspondiente ordenaci´on α(1)α(2) . Designaremos por Sn al conjunto de todas las permutaciones de orden n. Dada una permutaci´on α diremos que los elementos α(i). seg´ un que la permutaci´on α sea par o impar el t´ermino correspondiente se dice positivo o negativo. de (1) se obtiene |A| = a11 a22 − a12 a21 . el orden. α(j) forman una inversi´on si α(i) − α(j) tiene distinto signo que i − j. Clase de una permutaci´on. . Entonces. el par α(i). . para n ≥ 2.. La u ´nica permutaci´on existente es par. las permutaciones de orden 2 son S2 = {12. . . α(j) formar´a una inversi´on si α(i) − α(j) es positivo. . para contar el n´ umero total de inversiones que hay en una permutaci´on. basta contar en la ordenaci´on correspondiente el n´ umero de pares de elementos que no est´an en orden natural. Se llama signatura de α. Si n = 1. respectivamente. l´ıneas de |A| son. Desarrollo de los determinantes de orden n ≤ 3 Sea A ∈ Mn (IK). al n´ umero σ(α) = (−1)I(α) . las columnas y las l´ıneas de A. las filas.

Corolario 14. resultado que se recuerda con el siguiente esquema (Regla nemot´ecnica de Sarrus) a11 a12 ©a13 ¢@ © ¢ @¢©©@¢ ©¢@ a© a22 ¢@ a23 21 @¢ @ ¢©© © ¢@© ¢@ ¢31©@¢ a© a32 @a33 aH 11 @ T´erminos positivos a12 a13 A H¡ A ¡ A¡HHA¡ H A a¡ A Ha23 a¡ 21 22 H A¡ HA¡ H ¡A H¡ HAH A Aa33 ¡ a¡ a 31 32 T´erminos negativos Para n > 3. de (1) se obtiene ahora |A| = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 . . por brevedad. Teorema 13. Corolario 12. Un determinante no var´ıa al sumar a los elementos de una fila los correspondientes de otra multiplicados por un mismo elemento. a31 a32 a33 312. PROPIEDADES Teorema 10. MECANICA 8 a11 @ a12 a11 @ a12 ¡ T´ermino negativo ¡ ¡ a21 a22 a21 @a22 T´ermino positivo   a11 a12 a13 Si n = 3. las permutaciones de orden 3 son S3 = {123. 321} de las que P3 = {123. respectivamente. r-´esimos sumandos. 132. en lo que sigue se enunciar´an u ´nicamente las propiedades correspondientes a filas.´ Matem´aticas II. daremos algunas propiedades de los determinantes. respectivamente. el determinante queda multiplicado por ese elemento. 231. Si los elementos de una fila son binomios. se puede descomponer el determinante en suma de dos determinantes que tienen las restantes filas iguales y en lugar de aquella la formada por los primeros. A =  a21 a22 a23  . 321} impares. 231. la expresi´on (1) no resulta c´omoda para calcular el determinante y tampoco hay una regla f´acil de memorizar que nos permita obtenerlo. se puede descomponer el determinante en suma de r determinantes que tienen las restantes filas iguales y en lugar de aquella la formada por los primeros. Corolario 17. segundos. Entonces. Para reducir el c´alculo de determinantes de orden superior a 3 al c´alculo de determinantes de orden inferior. el determinante obtenido toma el valor opuesto al dado. Como consecuencia del Teorema 10 resulta que cualquier propiedad que se enuncie para las filas de un determinante es igualmente v´alida para columnas. Teorema 11. Si se cambian entre s´ı dos filas de un determinante. Un determinante con dos filas iguales es nulo. Si en un determinante multiplicamos todos los elementos de una fila por un mismo elemento. . . Si los elementos de una fila son polinomios de r sumandos. 213. |A| = |AT |. Un determinante con dos filas proporcionales es nulo. inconveniente que aumenta conforme lo hace n. 213. segundos t´erminos del binomio. As´ı. . 312} son pares e I3 = {132. Teorema 15. . Corolario 16.

La suma de los productos de los elementos de una l´ınea cualquiera de un determinante por los adjuntos de los elementos correspondientes de otra paralela a ella es igual a cero. Ahk = (−1)h+k αhk . DESARROLLO DE UN DETERMINANTE por los elementos de una l´ınea Teorema 22.9 Corolario 18. MENOR COMPLEMENTARIO Y ADJUNTO DE UN ELEMENTO Definici´ on 19. Si una fila de un determinante es combinaci´ on lineal de otras el determinante es nulo. Definici´ on 20. |A| = |aij |. si suprimimos en la matriz A la fila que ocupa el lugar h y la columna que ocupa el lugar k. llamamos menor complementario del elemento ahk en |A|. Teorema 21. Teorema 23. Dado un determinante de orden n > 1. Si en el desarrollo de un determinante sacamos factor com´ un el elemento ahk en todos los t´erminos en los que figura. . se obtiene una matriz de orden n − 1 a cuyo determinante. El desarrollo de un determinante es igual a la suma de los productos de los elementos de una cualquiera de sus l´ıneas por sus respectivos adjuntos. αhk . aparece ese elemento multiplicado por un polinomio que se llama adjunto de ahk y que se representa por Ahk .

10 ´ Matem´aticas II. MECANICA .

Multiplicar una fila (columna) por un elemento constante no nulo. ∀A ∈ Mm×n (IK). rgA = rgAT . Por convenio. Se dice que una matriz tiene forma escalonada por filas si se verifica: • La columna que contiene al primer elemento no nulo de cada fila no nula tiene nulos todos los elementos siguientes a ´este. respectivamente) en una matriz cada una de las siguientes: 1. El rango de una matriz A lo denotaremos por rgA. OPERACIONES ELEMENTALES Son operaciones elementales por filas (columnas. 3. A ∈ Mn (IK). El rango de una matriz no se altera al efectuar en ella cualquier operaci´ on elemental. Teorema 28. Teorema 26. 2. Llamamos menor de orden h de una matriz A al determinante de la matriz cuadrada de orden h formada por los elementos de A pertenecientes a h filas y h columnas cualesquiera de la misma. el rango de la matriz nula es cero. De las definiciones anteriores se deduce trivialmente que: A ∈ Mm×n (IK). • El primer elemento no nulo de cada fila no nula est´a a la derecha de los elementos iniciales no nulos de las filas anteriores. Definici´ on 27.Rango de una matriz PRIMERAS DEFINICIONES Definici´ on 24. Puede asegurarse que el rango de una matriz es h si existe un menor de orden h no nulo y son nulos todos los menores de orden h + 1 que pueden formarse. Sumar a una fila (columna) cualquier m´ ultiplo de otra. Toda matriz no nula puede transformarse en una matriz que tiene forma escalonada por filas efectuando en ella operaciones elementales por filas. • Las filas que s´olo tienen ceros aparecen despu´es de todas las filas con alg´ un elemento no nulo. rgA = 0 ⇔ A = O. Rango o caracter´ıstica de una matriz no nula es el orden m´aximo de sus menores no nulos. 11 . Definici´ on 25. Cambiar entre s´ı dos filas (columnas). rgA = n ⇔| A |6= 0.

. hasta agotar las filas u obtener una matriz nula. podr´ıamos conseguir que el primer elemento de esa columna. 5...   . sea no nulo. Si A ∈ Mm×n (IK). se obtiene una matriz que tiene forma escalonada por filas. MATRICES ELEMENTALES Asociaremos a continuaci´on una matriz a cada una de las operaciones elementales se˜ naladas anteriormente. 0 .. 3.. . Es inversible pues Pi (λ)Pi (1/λ) = Pi (1/λ)Pi (λ) = In y as´ı. la matriz APi (λ) tiene sus columnas iguales a las de A salvo la i–´esima que ha quedado multiplicada por λ. Sea i ∈ {1. Intercambiando filas.. 0 . Si A ∈ Mn×m (IK). Si A ∈ Mn (IK).. . Continuando con este proceso. 6. . ½ ¾ f ila In → multiplicar la i por λ → Pi (λ). . ... ... .   1 0 . 2. Es sim´etrica pues PiT (λ) = Pi (λ).. 0   ..´ Matem´aticas II. 0 .. Para pasar a una matriz escalonada por filas basta seguir el siguiente proceso: Sea j1 la primera columna de A no formada por todo ceros.. .   . MECANICA 12 Sea A ∈ Mm×n (IK). . Matriz elemental de primer g´enero y orden n. Denotamos por Pi (λ) la matriz obtenida al efectuar en In la siguiente operaci´on elemental: multiplicar la fila i por λ. n} y sea 0 6= λ ∈ IK. es decir.   . El rango de una matriz que tiene forma escalonada por filas es igual al n´ umero de filas no nulas que posee. Su determinante es no nulo ya que |Pi (λ)| = λ|In | = λ...  0 0 . la matriz Pi (λ)A tiene sus filas iguales a las de A salvo la i–´esima que ha quedado multiplicada por λ. .  . .. λ . su inversa es Pi (λ)−1 = Pi (1/λ). 0   .. . . . Procedemos de igual forma con la matriz resultante de prescindir en la anterior de su primera fila. . 0  0 1 . . 0 0 . . |Pi (λ)A| = λ|A| = |Pi (λ)||A|. columna Esta matriz cumple las siguientes propiedades: 1. a1 . Los restantes elementos de la columna j1 se hacen cero sin m´as que sumar sucesivamente un m´ ultiplo apropiado de la primera fila a cada una de las restantes filas. .  . |APi (λ)| = λ|A| = |A|λ = |A||P i(λ)|. 1 Esta misma matriz se hubiera obtenido igualmente si la operaci´on elemental efectuada en In hubiera sido multiplicar por λ la columna i. .. .. Teorema 29. . . 4. Pi (λ) =  .. si fuese necesario.

. n}. la matriz Pij A tiene sus filas iguales a las de A salvo la i–´esima y la j–´esima que han cambiado entre s´ı.. 0    . ..... ...... . . su inversa es ella misma.. 0 ... .   . i 6= j y sea λ ∈ IK... 0  Pij =  ... .  . Es inversible pues Pij Pij = In y as´ı. 0 0 . 0 ... . . 0     . . . .... 1 .   . Es sim´etrica.. .     0 0 . ... es decir. 0 .. . .. ... . 0 ... 0 . .. Pij−1 = Pij ... . ½ ¾ ½ ¾ f ila i f ila j In → sumar a la la multiplicada por λ → Pij (λ).... . 0 ... i 6= j..   1 0 . Si A ∈ Mn×m (IK).. pues |Pij | = −|In | = −1. es decir. .. 0  0 1 . . Denotamos por Pij la matriz obtenida al efectuar en In la siguiente operaci´on elemental: cambiar entre s´ı las filas i y j. . .   .. 6.... 0   . j ∈ {1. .. 4. .  . 0 .13 Matriz elemental de segundo g´enero y orden n. 1 Esta misma matriz se hubiera obtenido igualmente si la operaci´on elemental efectuada en In hubiera sido cambiar entre s´ı las columnas i y j..  . 0     . 5. 1 Esta misma matriz se hubiera obtenido igualmente si la operaci´on elemental efectuada en In hubiera sido sumar a la columna j la columna i multiplicada por λ. . .... 0 . .   1 0 . 1 . Matriz elemental de tercer g´enero y orden n. . . . . ... .... . . .. . . 2. |Pij A| = −1|A| = |Pij ||A|.  0 0 ..... . 1 .. j ∈ {1.. Pij (λ) =  . ..    .. . . n}. . . ....  . Su determinante es no nulo.. . . 3.... ½ ¾ f ilas In → intercambiar las i y j → Pij . 1 .. la matriz APij tiene sus columnas iguales a las de A salvo la i–´esima y la j–´esima que han cambiado entre s´ı. ... . 0 ..     0 0 .. Si A ∈ Mn (IK). 0 .  . . columnas Esta matriz cumple las siguientes propiedades: 1.. . . . . 0  0 1 . PijT = Pij . .   . . 0 .. . Sean i. .. .   ... es decir.. . .. Sean i.. 0 . . |APij | = −1|A| = |A|(−1) = |A||Pij |. 0 .. . columna j columna i Esta matriz cumple las siguientes propiedades: . 0    .     0 0 . Si A ∈ Mm×n (IK).. λ .. . . 0 0 ... Denotamos por Pij (λ) la matriz obtenida al efectuar en In la siguiente operaci´on elemental: sumar a la fila i la j multiplicada por λ.. 0 . 0 . .

Multiplicar a la izquierda/derecha de una matriz A por una matriz elemental equivale a efectuar en A una operaci´on elemental por filas/columnas (la misma que haya sido necesario hacer en las filas/columnas de la identidad para pasar a esa matriz elemental) y. . Se observa que si h = m = n la matriz anterior es In . De toda matriz no nula se puede pasar. . |Pij (λ)A| = |A| = |Pij (λ)||A|. 0 0 En el caso particular en el que A es cuadrada de orden n y rango n. . ´ MATRIZ CANONICA de dimensiones m × n y rango h Definici´ on 30. Toda matriz cuadrada. . La matriz can´onica resulta de efectuar un producto de la forma Pr . la matriz APij (λ) tiene sus columnas iguales a las de A salvo la j–´esima a la que se le ha sumado la i–´esima multiplicada por λ. Qs donde Pi son matrices elementales de orden m y Qi son matrices elementales de orden n. efectuando operaciones elementales. µ ¶ Ih 0 −1 −1 −1 A = P1 . P2 P1 AQ1 Q2 . Es inversible siendo su inversa otra matriz elemental del mismo g´enero. Si A ∈ Mm×n (IK). . pues |Pij (λ)| = |In | = 1. . Pr−1 In Q−1 s . De aqu´ı resulta que. . |APij (λ)| = |A| = |A||Pij (λ)|. . Q1 . con determinante distinto de 0 puede ponerse como producto de matrices elementales. 4. Tienen determinante distinto de 0. Teorema 31. por ello. Pij (λ)T = Pji (λ). 2. MECANICA 14 1. El determinante del producto de una matriz cuadrada por una elemental es el producto de los determinantes. . . Pij (λ)−1 = Pij (−λ). las matrices elementales verifican las siguientes propiedades: La traspuesta es tambi´en una matriz elemental y del mismo g´enero. 6. En resumen. . .´ Matem´aticas II. se obtendr´a que −1 A = P1−1 . 5. Pr Q−1 s . Su determinante es no nulo. Si A ∈ Mn (IK). es decir: Teorema 32. Su traspuesta es otra matriz elemental del mismo g´enero. la matriz Pij (λ)A tiene sus filas iguales a las de A salvo la i–´esima a la que se le ha sumado la j–´esima multiplicada por λ. por lo que A es producto de matrices elementales. es decir. Si A ∈ Mn×m (IK). Se dice matriz can´ onica de dimensiones m × n y rango h a la matriz µ Ih 0 0 0 ¶ ∈ Mm×n (IK). Es inversible pues Pij (λ)Pij (−λ) = Pij (−λ)Pij (λ) = In . 3. no se altera el rango de A. a la matriz can´ onica de las mismas dimensiones y el mismo rango. Q1 . .

i 6= j.15 Adem´as. se observa que en este caso. n. Ps . Rango y Determinante del producto Teorema 33. . Sabemos ya que si A es inversible. teniendo en cuenta que Q1 . Entonces. . B ∈ Mn×p (IK). la sucesi´on de operaciones elementales por filas que transforman la matriz A en la matriz In es la misma sucesi´on que transforma la matriz In en A−1 . operando con filas. n. . |AB| = |A||B| . Elementos de la matriz inversa. si A es inversible. . Qs Pr . . . La condici´ on necesaria y suficiente para que una matriz cuadrada sea inversible es que su determinante sea distinto de cero. . Si A = (aij ) ∈ Mn (IK) es una matriz inversible. Adem´as. . . . Por otra parte. multiplicando cada fila por un elemento adecuado.   n  X    ∀i. Sean A.   k=1 . AAT = In .  a2ki = 1. j = 1. Como consecuencia de la Definici´on 8 y del Teorema 35 se verifica trivialmente que A es ortogonal ⇔ A ∈ Mn (IR). . comenzando por la primera columna. n. haremos 1 los elementos diagonales. AT A = In m (3) A ∈ Mn (IR). . Entonces. la condici´on  (2) equivale a  ∀i. j = 1. En la pr´actica. Teorema 36. P1 A = In . . . Finalmente en la matriz diagonal obtenida. . . A−1 = (Aji /|A|). Es decir. Una condici´ on necesaria para una matriz A sea ortogonal es que |A| = ±1. Teorema 34. P1 In es la inversa de A. MATRICES INVERSIBLES Teorema 35. rg(AB) ≤ rgA y rg(AB) ≤ rgB. AT A = AAT = In ⇔ (2) A ∈ Mn (IR). tales que Ps . P1 A = In por lo que la matriz Ps . . Este es el fundamento para el c´alculo de la inversa por el m´etodo de Gauss–Jordan. MATRICES ORTOGONALES Proposici´ on 37. . Luego (operando siempre con filas) presentaremos ceros por encima de la diagonal principal comenzando por la u ´ltima columna. se puede pasar de A a su can´onica efectuando u ´nicamente operaciones elementales por filas. . . . . Sean A ∈ Mm×n (IK). aki akj = 0. . presentaremos ceros en todos los elementos de cada columna que est´an por debajo de la diagonal principal. el m´etodo m´as sencillo y breve para pasar de A a In es el siguiente: En primer lugar. B ∈ Mn (IK). |A−1 | = |A|−1 . (4) k=1  n  X   ∀i = 1. aij ∈ IR. . existen matrices elementales P1 .

. n.´ Matem´aticas II. i 6= j. k=1 Siendo (2) y (3) condiciones equivalentes. aij ∈ IR. j = 1. . . . .   ∀i = 1. . n. . (5) k=1  n  X    a2ik = 1. . . tambi´en lo son las condiciones (4) y (5). .   n  X    ∀i. aik ajk = 0. . . . j = 1. MECANICA 16 mientras que la condici´on (3) equivale a   ∀i. n.

. a2n  (8)  ... . . . b son elementos determinados de IK y x1 . + an xn = b.. . . . es decir...      bm en la que X es una matriz indeterminada. . c2 .. c2 . ... .... En consecuencia. xn .. .. a1 c1 + a2 c2 + . Un sistema de ecuaciones se dice homog´eneo si los t´erminos independientes de todas las ecuaciones que lo forman son nulos. . .. . . resulta cierta la igualdad. Cuando S 6= ∅ el sistema se dice compatible y.. ... .. respectivamente. a2 . . .... hallar todas sus soluciones. . amn      x1 x2 . sus elementos son variables. . ... . + a2n xn = b2 (7) .. + a1n xn = b1    a21 x1 + a22 x2 + .. en la que a1 . cn ) es soluci´on de (7) si y s´olo si la matriz C = (ci ) ∈ Mn×1 (IK) es soluci´on de (8).... Definici´ on 41. es decir. si S = ∅.... + an cn = b.... . xn       =   b1 b2 ... Definici´ on 39.. seg´ un que el cardinal de S sea 1 o mayor que 1.... . c1 . Entonces. diremos que (c1 . a1n  a21 a22 . .. Definici´ on 40. .. x2 .. La ecuaci´on (6) se dice homog´enea si b = 0. Si al reemplazar en la igualdad formal (6) las variables x1 ... Los elementos a1 . Designaremos por S al conjunto formado por todas las soluciones del sistema E.. + amn xn = bm le asociamos la ecuaci´on matricial  a11 a12 . an reciben el nombre de coeficientes de las inc´ognitas y b el de t´ermino independiente de las mismas. . se dir´a determinado o indeterminado. en este caso. . son variables (inc´ognitas o indeterminadas). . . estudiar el sistema E es equivalente a estudiar la ecuaci´on matricial asociada.. 17 . .. cn . ... el sistema E se dice incompatible si carece de soluci´on... ..    am1 x1 + am2 x2 + . an ... .. .. .. . cn ) es soluci´ on de (6). am1 am2 .. Se llama ecuaci´ on lineal en IK a toda ecuaci´on del tipo (6) a1 x1 + a2 x2 + ... Sistema de ecuaciones lineales es todo conjunto no vac´ıo de ecuaciones lineales. . ´ MATRICIAL ASOCIADA ECUACION Dado un sistema E.. .... .. a2 . por los elementos de IK.. . . Soluci´ on de un sistema de ecuaciones lineales es toda soluci´on com´ un a todas las ecuaciones que lo forman. . . . .. . Entonces.. (c1 .  .Sistemas de ecuaciones lineales PRIMERAS DEFINICIONES Definici´ on 38. c2 .. formado por m ecuaciones lineales con n inc´ognitas  a11 x1 + a12 x2 + . . Estudiar un sistema es resolverlo. . . esto es.... .. xn . es decir.

En el caso de sistema compatible indeterminado. Si en un sistema hay una ecuaci´ on que es combinaci´ on lineal de otras al suprimirla obtenemos un sistema equivalente. . a2n b2    IB = (A|B) =  . .´ Matem´aticas II. a1n b1  a21 a22 . . am1 am2 . siempre es rgA = rgIB y por tanto compatible. .. llamadas principales. Un sistema formado por tantas ecuaciones lineales como inc´ognitas tenga. El valor de la inc´ognita i–´esima se obtiene dividiendo por ese determinante el que se obtiene al sustituir en ´el la columna i-´esima por la que forman los t´erminos independientes de las inc´ognitas. pudiendo tener otras o no seg´ un sea indeterminado o determinado. S. Compatible Indeterminado  h<n   rgA = rgIB =     h=n S. 2.  . . 0..Sumar miembro a miembro a una ecuaci´on otra previamente multiplicada por un elemento.   a11 a12 .Intercambiar dos ecuaciones. La soluci´on trivial es (0. . Al efectuar operaciones elementales con las ecuaciones de un sistema se obtiene otro equivalente al dado. en funci´on de las n − h restantes que hacen el papel de par´ametros. 3. ` ¨ TEOREMA DE ROUCHE–FR OBENIUS Teorema 45. se dice matriz de coeficientes y B = (bi ) ∈ Mm×1 (IK) matriz de t´erminos independientes. se obtiene la soluci´on de h variables.. Se observa que efectuar operaciones elementales con las ecuaciones de E es equivalente a realizar la correspondiente operaci´on elemental en las filas de las matrices A y B. es decir. SISTEMAS EQUIVALENTES Definici´ on 42. Para la Factorizaci´ on LU ver la Pr´actica 2 y para M´ etodos iterativos la Pr´actica 3. . Teorema 43. es decir con B = 0. MECANICA 18 La matriz A = (aij ) ∈ Mm×n (IK). en IB. . que resulta de ampliar la anterior con la columna que forman los t´erminos independientes de las inc´ognitas. en el caso de ser no nulo el determinante de la matriz de coeficientes. En resumen. este teorema clasifica los sistemas. . respectivamente. En el caso particular en el que el sistema sea homog´eneo. Se consideran operaciones elementales con las ecuaciones de un sistema las siguientes: 1. en este caso. .  . . . Se dice que el sistema de ecuaciones E2 es equivalente al E1 si E2 tiene las mismas soluciones que E1 . 0).. seg´ un los rangos de sus matrices asociadas:  rgA 6= rgIB. REGLA DE CRAMER Teorema 46. amn bm reciben el nombre de matrices asociadas a E. es compatible determinado. . . Incompatible       S. La condici´ on necesaria y suficiente para que un sistema de ecuaciones lineales sea compatible es que sus matrices asociadas tengan igual rango y.Multiplicar por un elemento no nulo los dos miembros de una ecuaci´on. La matriz de coeficientes y la matriz IB ∈ Mm×n+1 (IK). Sistemas homog´eneos. seg´ un que el rango com´ un de las matrices sea igual o menor que el n´ umero de inc´ognitas ser´a determinado o indeterminado. Teorema 44.  . Compatible Determinado donde n es el n´ umero de inc´ognitas del sistema.

∀a. ∀a ∈ E. Se dice que un conjunto E. ∀α. 2 ∀α ∈ IK. El elemento neutro recibe el nombre de vector nulo.) se representa por (E. β ∈ IK. 0 · a = 0. llamada suma de vectores y denotada por el signo +. (αβ) · a = α · (β · a). ·IK ). llamada producto de un vector por un escalar y denotada por el signo ·. que verifica las propiedades: I-a) Asociativa. II-b) Distributiva respecto de la suma de vectores. II-c) Distributiva respecto de la suma de escalares y la suma de vectores. 19 . 9 α. entonces α = β. b. ∀α. ·IK ). PRIMERAS PROPIEDADES Definici´ on 47. Primeras propiedades. cuyos elementos llamaremos escalares. ∀a ∈ E. +. I-d) Todo vector tiene opuesto. α · 0 = 0. para cada a ∈ E. ∀α ∈ IK. ∃0 ∈ E. a cuyos elementos llamaremos vectores. a. ∀a. (E. b ∈ E tales que α · a = α · b. 0 6= a ∈ E tales que α · a = β · a. II-d) Para todo a ∈ E. ∀a ∈ E. I-b) Conmutativa. es decir.Espacios vectoriales ´ DEFINICION. β ∈ IK. entonces α = 0 ´o a = 0. α · a − β · a = (α − β) · a. de modo que (E. (α + β) · a = α · a + β · a. que verifica las siguientes propiedades: II-a) Asociativa respecto del producto de escalares. II) La otra operaci´on es una LCE sobre E con el dominio de operadores IK. α · (a + b) = α · a + α · b. −(α · a) = (−α) · a = α · (−a). b ∈ E. I-c) Existe elemento neutro. ·). 6 ∀α. +) es un grupo abeliano. 8 0 6= α ∈ IK. a + 0 = 0 + a = a. Dado un E . a ∈ E tales que α · a = 0. β ∈ IK. se verifica: 1 ∀a ∈ E. a + b = b + a. ∀a ∈ E. ∃b ∈ E. si sobre E est´an definidas dos operaciones tales que I) Una de ellas es una LCI sobre E. es un espacio vectorial sobre el cuerpo (IK. La estructura algebraica de espacio vectorial (en adelante E . 3 ∀α ∈ IK. +. a ∈ E. −a = (−1) · a. 4 ∀a ∈ E. b ∈ E. +. 7 α ∈ IK. 1 · a = a. entonces a = b. b ∈ E.V . ∀a. β ∈ IK. a + (b + c) = (a + b) + c. c ∈ E.V . α · a − α · b = α · (a − b). El elemento b se dice opuesto de a y se denota por −a. ∀a. 5 ∀α ∈ IK. a + b = b + a = 0.

la u ´nica combinaci´on lineal nula que puede formarse con los vectores de este sistema es la que tiene nulos todos sus coeficientes. Proposici´ on 54. Todo sistema que contiene al vector nulo es ligado. Si a 6= 0. Proposici´ on 50. Se dice que un vector a es combinaci´on lineal de los vectores del sistema A = {a1 . Si un vector es combinaci´ on lineal de los vectores de un sistema A. . . si los vectores de A no son linealmente dependientes. .V . . α2 . si se puede formar una combinaci´on lineal nula con los vectores de A sin ser nulos todos los coeficientes. αn ∈ IK tales que a = α1 a1 + α2 a2 + . Proposici´ on 56. . VECTORES LINEALMENTE INDEPENDIENTES Definici´ on 57. a es combinaci´ on lineal de los vectores de B. Proposici´ on 59. Es decir. VECTORES LINEALMENTE DEPENDIENTES Definici´ on 52. . . Proposici´ on 60. Se dice que el sistema A = {a1 . . Todo vector perteneciente a un sistema libre es no nulo. cuando ´este no sea finito. tales que α1 a1 + α2 a2 + . diremos que es de orden infinito. αn . Proposici´ on 58. a su vez. Llamaremos orden de un sistema finito al n´ umero de vectores que lo forman y. Si A es un sistema de vectores de E. . . a2 . . Si un vector a es combinaci´ on lineal de los vectores de un sistema A y. . . E es todo subconjunto no vac´ıo de E. + αn an = 0. . cada vector de A es combinaci´ on lineal de los vectores un sistema B entonces. . Es decir. Definici´ on 49. Proposici´ on 53. todo subconjunto ∅ 6= B ⊂ A se dice subsistema de A y todo conjunto C ⊂ E tal que A ⊂ C. . . Todo subsistema de uno libre es tambi´en libre. MECANICA 20 SISTEMAS DE VECTORES. Proposici´ on 55. A = {a} es libre. COMBINACIONES LINEALES Definici´ on 48. . + αn an . al menos. . equivalentemente. . . Toda ampliaci´on de un sistema ligado es tambi´en un sistema ligado. a2 . α2 . a2 . an } si existen unos escalares α1 . . La condici´ on necesaria y suficiente para que un sistema de orden mayor que uno sea ligado es que. Los escalares α1 . an } es libre o que sus vectores son linealmente independientes si A no es ligado o. La condici´ on necesaria y suficiente para que un sistema de orden 1 sea ligado es que el u ´nico vector que lo forma sea el nulo. αn reciben el nombre de coeficientes de la combinaci´on. Proposici´ on 51. . Sistema de vectores de un E . . . . decimos que es una ampliaci´on de A. α2 . . an } es ligado o que sus vectores son linealmente dependientes si existen unos escalares no todos nulos α1 . tambi´en es combinaci´ on lineal de los vectores de cualquier ampliaci´on de A. uno de sus vectores sea combinaci´ on lineal de los dem´as.´ Matem´aticas II. . . Se dice que el sistema A = {a1 .

Base de un espacio vectorial es. Proposici´ on 64.V . . an } est´a ordenado lo denotaremos por A = (a1 . Rango de un sistema de vectores Definici´ on 71. De esta definici´on se sigue que.V . escribiremos En para indicar que el E .21 Proposici´ on 61. el u ´nico sistema posible es ligado por lo que no existe base. Todas las bases de un mismo E . . entonces se obtiene otro sistema generador. Toda ampliaci´on con vectores de E de un sistema generador del espacio vectorial E es tambi´en un sistema generador de E. Al limitar nuestro estudio a un E . Si en un sistema generador sustituimos uno de sus vectores por una combinaci´ on lineal de todos los del sistema tal que el coeficiente que acompa˜ na al vector sustituido sea no nulo. E = {0}. Proposici´ on 63. de ´el podemos extraer una base por lo que siempre existe una base. E 6= {0} tienen el mismo orden. si existe. . E tiene dimensi´on n. ESPACIOS VECTORIALES DE TIPO FINITO Sistemas generadores Definici´ on 62. . Dimensi´ on de un espacio vectorial de tipo finito. Rango de un sistema de vectores que no se reduce u ´nicamente al vector nulo es el orden m´aximo de sus subsistemas libres.V . es el orden de una cualquiera de sus bases. siempre existe un sistema generador finito y. Proposici´ on 65. por la proposici´on anterior. . no nulo. Se conviene en que el sistema {0} tenga rango 0. Si un espacio vectorial se reduce al vector nulo. Si en un sistema generador hay un vector que es combinaci´ on lineal de los dem´ as. es de tipo finito si existe en ´el un sistema finito de vectores tal que cada vector del espacio es una combinaci´on lineal de los vectores de ese sistema. decir que A es un sistema generador de E. el vector a˜ nadido es combinaci´ on lineal de los restantes. an ). de tipo finito no nulo siempre se puede extraer una base. Definici´ on 70. Base de un espacio vectorial Definici´ on 67. .V . . . de tipo finito si E 6= {0}.V . equivale a decir que E es el conjunto formado por todas las combinaciones lineales de los vectores de A. al suprimirlo se obtiene otro sistema generador. Se conviene en decir que un E . cuando supongamos que un sistema de vectores A = {a1 . De un sistema generador de un E . un sistema de vectores de ese espacio que sea generador. Se dice que un E . Todo sistema que verifique esta condici´on se dice sistema generador del E .V . Teorema 68. El orden de un sistema libre no supera al de un sistema generador. Proposici´ on 66. Si al ampliar un sistema libre con un nuevo vector se obtiene un sistema ligado. . libre y est´e ordenado. En lo que sigue.V . En lo que sigue. Teorema 69. nulo tiene dimensi´on 0.

. . . . . . . + αnn un Si x ∈ E tiene por coordenadas (x1 . . .. un ) una base de E. Los coeficientes (x1 .    u∗n = α1n u1 + α2n u2 + . . De lo anterior resulta que cada vector de E se puede poner de forma u ´nica como combinaci´on lineal de los vectores de la base BE . . .. .. es decir. u∗n ) dos bases de E. ..... Teorema de la base incompleta.. cada vector x ∈ E se puede poner como combinaci´on lineal de los vectores de BE . para referirnos a un vector de E podemos referirnos a sus correspondientes coordenadas respecto de la base fijada en E...... xn ) en BE y (x∗1 .. . .V . ... . De donde. Si tambi´en fuera x = y1 u1 + . (9) . ... . .... .. .. existen x1 . . . para algunos y1 . n. ... .. por la unicidad de coordenadas respecto de una base. ... . .. . . de dimensi´on n 6= 0. . . . .. . En un E . es una base.. a2 .. . + αn2 un .    xn = αn1 x∗1 + αn2 x∗2 + . de dimensi´on n 6= 0. En un E . As´ı. . + αn1 un    u∗2 = α12 u1 + α22 u2 + . Si a cada vector de E le asociamos la n–tupla formada por sus coordenadas respecto de BE queda definida una aplicaci´on ϕ : E −→ IK n . . Por ser BE sistema generador de E. Corolario 73. ... .. Coordenadas Sea En un espacio vectorial y sea BE = (u1 . . .. ordenado.. + x∗n (α1n u1 + α2n u2 + .... . Cambio de base Sea En un espacio vectorial y sean BE = (u1 ... an } es 1 ≤ rgA ≤ n as´ı como que rgA = 0 si y s´olo si A = {0}. xn ) que es biyectiva. .. .. .. . + y n un de donde (x1 − y1 )u1 + .. necesariamente xi = yi . MECANICA 22 De esta definici´on resulta obvio que para {0} 6= A = {a1 . . + x n u n ... es una base.. .. x∗n ) respecto de BE∗ se verificar´a x = x1 u1 + . + α2n x∗n (10) . + αnn un ) = (α11 x∗1 + α12 x∗2 + .. + (xn − yn )un = 0 y. Corolario 74. + αnn x∗n )un . .. Teorema 75... . + αnn x∗n .. x 7→ (x1 . En un espacio vectorial de dimensi´on n 6= 0. .. . . xn ∈ IK tales que x = x 1 u1 + . . queda  x1 = α11 x∗1 + α12 x∗2 + ... . + yn un . + x∗n u∗n = y por (9) = x∗1 (α11 u1 + α21 u2 + . un ) y BE∗ = (u∗1 . + αn1 un ) + x∗2 (α12 u1 + α22 u2 + ... .. + α2n x∗n )u2 + ..... Proposici´ on 72. . . . .... todo sistema generador de orden n. ordenado. . ... . + αn2 un ) + . .. .. La dimensi´on de un E . por ser BE libre.. + α1n x∗n    x2 = α21 x∗1 + α22 x∗2 + . + α1n x∗n )u1 + (α21 x∗1 + α22 x∗2 + . + xn un = x∗1 u∗1 + . yn ∈ IK.. coincide con su rango. .... . .V ..V .. todo sistema libre de orden inferior a n es parte de una base.... + x n u n = y 1 u1 + ... .. . . se verificar´ıa que x = x 1 u1 + . .... .. siendo  u∗1 = α11 u1 + α21 u2 + . + (αn1 x∗1 + αn2 x∗2 + .... .. .. .. .. .. todo sistema libre de orden n. . xn ) de esta u ´nica combinaci´on se dicen coordenadas de x en BE .´ Matem´aticas II. . .. i = 1.. ... . ...

Se dice que un subconjunto no vac´ıo de E. . [iv] (S.. Aunque por definici´on. la cuarta es consecuencia de las tres anteriores y as´ı. α1n . Por lo anterior. . +. lo que implica que para todo BA = In X∗ Subespacios vectoriales Sea (E. sea subespacio vectorial es que toda combinaci´ on lineal de vectores de S pertenezca a S. donde la matriz B tiene la columna i–´esima formada por las coordenadas respecto de BE∗ del i–´esimo vector de BE . . Es decir. . equivalentes a la condici´on (13) ∀α1 .   . B = A−1 . αnn x∗1 x∗2 . . Lo que hemos visto hasta ahora de subespacios es independiente de si E es de tipo finito o no. Definici´ on 77.  . Clausura lineal de un sistema Sea E un E . α2n . . α2 ∈ IK. Se observa que la columna i–´esima de la matriz de cambio de base A est´a formada por las coordenadas respecto de BE del i–´esimo vector de BE∗ . ∀α ∈ IK.. ·IK ) un espacio vectorial.. An´alogamente se puede obtener X ∗ = BX. ∀a1 .. . αa ∈ S. L [A] es un subespacio vectorial de E y A es un sistema generador de L [A]. . ∀a1 . . +.      x∗n y denotando por X = (xi ) ∈ Mn×1 (IK). la condici´ on necesaria y suficiente para que un conjunto ∅ 6= S ⊂ E. a1 + a2 ∈ S. ∀a ∈ S. ½ ¾ ½ ¾ X = AX ∗ = A(BX) = (AB)X In X = (AB)X Seg´ un hemos visto de donde se obtiene ∗ X ∗ = BX = B(AX ∗ ) = (BA)X In X ∗ = (BA)X ∗ ½ ¾ ½ ¾ X AB = In .V . . a2 ∈ S. a1 + a2 ∈ S. Proposici´ on 78. ∈ Mn×1 (IK). sea subespacio vectorial es que verifique las condiciones ¯ ¯ 1.      . a2 ∈ S. α1 a1 + α2 a2 ∈ S. Llamamos clausura lineal de A al conjunto formado por todas las combinaciones lineales de vectores de A. la condici´ on necesaria y suficiente para que un conjunto ∅ 6= S ⊂ E. Definici´ on 76.V . el subespacio S tambi´en y dim S ≤ dim E. ∀a ∈ S. αa ∈ S..  =  . X ∗ = (x∗i ) ∈ Mn×1 (IK) y A = (αij ) ∈ Mn (IK) queda X = AX ∗ . y sea A un sistema de vectores de E. ¯ (12) ¯ 2. [ii] ∀a1 . αn1 αn2 xn . a2 ∈ S. d´andose la igualdad u ´nicamente si E y S coinciden. se exige que se verifiquen las propiedades: [i] ∅ 6= S ⊂ E. Lo designaremos por K[A] ´o L [A]. . S es un subespacio vectorial si es estable respecto de las operaciones de E y con las restricciones de esas operaciones es tambi´en un espacio vectorial. ·IK ) es un E . .23 que en forma matricial puede escribirse    x1 α11 α12  x2   α21 α22    (11)  . Si adem´as E es de tipo finito. [iii] ∀α ∈ IK. . .

Teorema 83.... ....... . Rango de una matriz por filas y columnas Sea A = (aij ) ∈ Mm×n (IK).. ... af2 = a21 u1 + a22 u2 + .... + pn2 un (14) .. .... . Proposici´ on 82... . Llamaremos suma de S1 y S2 al conjunto de todas las posibles sumas de un vector de S1 con uno de S2 . ..... tal que la ecuaci´on del cambio de base es X = P X ∗ . . dim(S1 ⊕ S2 ) = dim S1 + dim S2 y la uni´on de una base de S1 con una base de S2 es base de S1 ⊕ S2 .. un ) una base cualquiera de E.. como el rango del sistema Af . . . se denota por rgf A. S1 + S2 = {v = a + b | a ∈ S1 ..... ..... v2 . .... + am2 vm .V .. . por ello. Af = {af1 . obviamente. + a1n un . rgf A = rgA = rgc A. Consideramos los vectores de F ac1 = a11 v1 + a21 v2 + .. .... .. Sea En un E .. ...... Observaci´ on Sea BE = (u1 . afm = am1 u1 + am2 u2 + ........ existe un base de E. acn = a1n v1 + a2n v2 + . + a2n un .... afm } en el que af1 = a11 u1 + a12 u2 + . . sobre IK y sea BE = (u1 .. En efecto pues. u∗n )... ... .... . Sea F un E .. . MECANICA 24 Teorema 79.. . Definici´ on 80.´ Matem´aticas II.. Llamaremos intersecci´ on de los subespacios S1 y S2 a la intersecci´on de estos dos conjuntos... y sea P ∈ Mn (IK) una matriz regular.. . vm ) una base de F. dim L [A] = rgA.... S1 + S2 y S1 ∩ S2 son subespacios vectoriales de E.... u2 ... acn }.. dim(S1 + S2 ) = dim S1 + dim S2 − dim(S1 ∩ S2 ).... + am1 vm . ... Proposici´ on 84. una base de E. ...... . Si S1 ∩ S2 = {0} la suma de S1 y S2 se dice suma directa y se denota por S1 ⊕ S2 .. denot´andose tambi´en por S1 ∩ S2 . Suma e intersecci´ on de subespacios Sean S1 . . ... + pn1 un    u∗2 = p12 u1 + p22 u2 + . . + pnn un y el sistema BE∗ = (u∗1 . ... BE∗ . ... . Definici´ on 81..V . . + amn vm .. .. es decir... .. .. resulta que rgBE∗ = rgc P = rgP = n con lo que BE∗ es libre y.. se define el rango por filas de A... .. es decir... + amn un . b ∈ S2 }.. ac2 = a12 v1 + a22 v2 + . La uni´on de un sistema generador de S1 con uno de S2 nos proporciona un sistema generador de S1 + S2 . ... ..... denot´andose por S1 + S2 . S1 ∩ S2 = {v ∈ E | v ∈ S1 . Consideramos el sistema de vectores de E.... Entonces. Entonces.. sobre IK de dimensi´on m y sea BF = (v1 .. .. S2 subespacios vectoriales de E.... de la definici´on de rango por columnas.... En este caso. recordando que en tal caso la columna i–´esima de P estar´a formada por las coordenadas respecto de BE del i–´esimo vector de BE∗ ... . v ∈ S2 }. ...    u∗n = p1n u1 + p2n u2 + .. Entonces.. .... un ) una base de En ... .. . se denota por rgc A.... se define el rango por columnas de A.. si consideramos los vectores de E  u∗1 = p11 u1 + p21 u2 + . espacio vectorial sobre IK... como el rango del sistema de vectores Ac = {ac1 ...

Imagen de una aplicaci´ on lineal. ap } ⊂ E es ligado tambi´en lo es {f (a1 ). se cumple que rgf = dim Imf ≤ dim F .Aplicaciones lineales ´ DEFINICION. . . evidentemente. Este subespacio recibe el nombre de imagen de la aplicaci´on lineal y se denota por Imf . f (an )} es un sistema generador de f (S). . el sistema f (A) = {f (a1 ). ∀a ∈ E. a2 . a2 . f (a2 ). . 4. . ∀λ1 . F ) y sea S es un subespacio vectorial de E. f (λa) = λf (a) . f (a2 ). f (ap )} ⊂ F . an } es un sistema generador de S entonces. . λ2 ∈ IK. . . . . La condici´ on necesaria y suficiente para que una aplicaci´ on f : E −→ F sea lineal es que verifique la siguiente propiedad ∀λ. F ) el conjunto de todas las aplicaciones lineales de E en F y por LIK (E) el de las aplicaciones lineales de E en E. . ´ LINEAL IMAGEN DE UN SUBESPACIO. . b ∈ E. para todo sistema A de vectores de E se verifica f (L (A)) = L (f (A)). . f (a + b) = f (a) + f (b) . Primeras propiedades Sea f ∈ LIK (E. Si A = {a1 . µ ∈ IK. Aplicaci´ on lineal de E en F es toda aplicaci´on f : E −→ F que verifique las propiedades: ∀a. f (λ1 a1 − λ2 a2 ) = λ1 f (a1 ) − λ2 f (a2 ) 5. Si el sistema {a1 . f (0E ) = 0F . entonces se verifica: 1. Si {f (a1 ). ∀a1 . . . Teorema 87. a2 . Teorema 86. ∈ E. A su dimensi´on la llamamos rango de f y. . f (a2 ). El Teorema 87 en el caso particular S = E dice que f (E) es un subespacio vectorial de F . . PRIMERAS PROPIEDADES Sean E y F dos espacios vectoriales sobre el mismo cuerpo IK. 3. f (S) es un subespacio vectorial de F . en particular. Observemos que. F ). . f (a1 − a2 ) = f (a1 ) − f (a2 ). Teorema 88. RANGO DE UNA APLICACION Sea f ∈ LIK (E. a2 . . 25 . ∀a1 . ∀a1 . . Caracterizaci´ on de una aplicaci´ on lineal. Denotamos por f (S) el conjunto formado por todos los vectores de F que son imagen por f de alg´ un vector de S. Definici´ on 85. f (λa1 + µa2 ) = λf (a1 ) + µf (a2 ) . a2 ∈ E. . f (ap )} ⊂ F es libre tambi´en lo es el sistema {a1 . . 2. f (−a) = −f (a). . ∀a ∈ E. 6. Denotaremos por LIK (E. ∀λ ∈ IK. ap } ⊂ E. a2 ∈ E. .

N´ ucleo de una aplicaci´ on lineal.. .... + α2n xn (16) . ....  . ........ . resulta  y1 = α11 x1 + α12 x2 + . + xn f (un ) y teniendo en cuenta las igualdades (15) y = x1 (α11 v1 + . . un ) y BF = (v1 . . .. formado por todos los vectores de E cuya imagen por f es el vector nulo de F .. xn      .. . αmn      x1 x2 .. ... Denotamos por f −1 (T ) el conjunto formado por todos los vectores de E que son origen por f de alg´ un vector de T . ..´ Matem´aticas II. + (αm1 x1 + .. . .. Entonces. .. . + α2n xn )v2 + ... . .   . . Una condici´ on necesaria y suficiente para que la aplicaci´ on lineal f sea inyectiva es que Kerf = {0}.. + xn (α1n v1 + .. denotamos por f −1 ({b}) el conjunto formado por sus originales. ..  =  . ....... + αmn vm Sea x = x1 u1 + x2 u2 + ... sin m´as que operar. . + xn un ∈ E y sea y = f (x) = y1 v1 + y2 v2 + . si b ∈Imf / se tendr´a que f −1 ({b}) = ∅. + αm1 vm    f (u2 ) = α12 v1 + α22 v2 + .. + ym vm ∈ F.... + αm2 vm (15) . . .. La aplicaci´on del Teorema 89 al caso particular T = {0} dice que f −1 ({0}) es un subespacio vectorial de E. . u2 .. .. + α1n xn )v1 + (α21 x1 + . Este subespacio... f −1 (T ) es un subespacio vectorial de E. . Teorema 90... vm ) bases de E y F . . F ) y sea T es un subespacio vectorial de F . . Teorema 89. y = f (x) = f (x1 u1 + x2 u2 + ... Dado b ∈ F . N ulf = dim Kerf ≤ dim E. ..... .. Supongamos pues que b ∈ Imf y as´ı. .. existe a ∈ E tal que f (a) = b. α2n . f −1 (b) = {a + c | c ∈ Kerf }.. αm1 αm2 ym aplicaci´ on lineal f respecto de las bases BE y . Supongamos adem´as que  f (u1 ) = α11 v1 + α21 v2 + .. . . evidentemente. ... . . .. A su dimensi´on la llamamos nulidad de f y...... + αm2 vm ) + .. .... . . entonces... Finalmente. + αmn xn que son las llamadas ecuaciones coordenadas de la BF .. ....    ym = αm1 x1 + αm2 x2 + .. recibe el nombre de n´ ucleo de la aplicaci´on lineal y se denota por Kerf .. .. + αmn vm ) lo que.. ...... . + αmn xn )vm .. (16) puede escribirse    α11 α12 y1  y2   α21 α22    (17)  .. . + α1n xn    y2 = α21 x1 + α22 x2 + ..... Fm ) y sean BE = (u1 ... recordando la unicidad de coordenadas de un vector respecto de una determinada base. ... respectivamente. .. .. ..... a la imagen rec´ıproca de T por f .. NUCLEO DE UNA APLICACION Sea f ∈ LIK (E. Obviamente.. MECANICA 26 ´ ´ LINEAL IMAGEN REC´IPROCA. . puede escribirse como y = (α11 x1 + .. v2 ... . En forma matricial.. . α1n . . ... .. . . ´ LINEAL ECUACIONES DE UNA APLICACION Sea f ∈ LIK (En ... + xn un ) = x1 f (u1 ) + x2 f (u2 ) + .....    f (un ) = α1n v1 + α2n v2 + .. Originales de un elemento. + αm1 vm ) + x2 (α12 v1 + . es decir.

es decir. Entonces. el producto de aplicaciones lineales es una LCI sobre LIK (E) y puede probarse que (LIK (E. f ∈ LIK (E. una aplicaci´on y puede probarse f´acilmente que es lineal. puede probarse que la correspondencia que a cada elemento de LIK (En . F ) y puede probarse que (LIK (E. la matriz coordenada de αf. g ∈ LIK (E. As´ı. el producto de una aplicaci´on lineal por un elemento es una LCE sobre LIK (E. F ) y sea h la correspondencia de E en F dada por ∀a ∈ E. recordando las igualdades (15). Fm ) le asocia en Mm×n (IK) su matriz coordenada respecto de BE y BF es una aplicaci´on biyectiva. respectivamente. respecto de las bases BE . evidentemente una aplicaci´on y puede probarse f´acilmente que es lineal. BF y BF . (f + g)(a) = f (a) + g(a). ∀a ∈ E. X = (xi ) ∈ Mn×1 (IK). Fm y Gp tres espacios vectoriales sobre IK y sean f ∈ LIK (En . ∀a ∈ E. F ). F ) con dominio de operadores IK y puede probarse que (LIK (E. (αf )(a) = αf (a). respecto de BE y BG . ´ COMPUESTA O PRODUCTO APLICACION Sean En . Gp ). es decir. Si A ∈ Mm×n (IK). F ). ∀a ∈ E. h(a) = g(f (a)) que es. A = (αij ) ∈ Mm×n (IK). SUMA DE APLICACIONES LINEALES Sean f. g ∈ LIK (Fm . Para cada x ∈ En . +. la matriz coordenada de g ◦ f. +. La matriz A recibe el nombre de matriz coordenada de f respecto de las bases BE y BF . respecto de las bases BE y BF . F ). respecto de BE y BF . escribiremos Y = AX que es la llamada expresi´ on coordenada def respecto de las bases BE y BF . +) es un grupo abeliano. h(a) = f (a) + g(a) es. es decir. Esta aplicaci´on se dice suma de f y g y se denota por f + g. As´ı. que la columna i–´esima de A est´a formada por las coordenadas en BF de la imagen por f del i–´esimo vector de BE . es αA. Si A1 . Se observa que la matriz coordenada tiene dimensiones m × n = dim F × dim E y. respectivamente. respecto de las bases BE y BF . es A1 + A2 . ·IK ) es un espacio vectorial de dimensi´on m × n. es BA. f (x) = y ∈ F por lo que z = g(y) = g(f (x)) est´a bien definido. Consideramos la correspondencia h de E en G dada por ∀a ∈ E. ´ LINEAL POR UN ELEMENTO PRODUCTO DE UNA APLICACION Sean α ∈ IK. h(a) = αf (a) es. B ∈ Mp×m (IK) son las matrices coordenadas de f y g. En el caso particular E = F = G. (g ◦ f )(a) = g(f (a)). la matriz coordenada de f + g. . evidentemente una aplicaci´on y puede probarse f´acilmente que es lineal. Si se suponen fijas las bases BE y BF . resulta que la suma de aplicaciones lineales es una LCI sobre LIK (E. ◦) es un anillo unitario. F ) y sea h la correspondencia de E en F dada por ∀a ∈ E. Esta aplicaci´on se dice composici´ on o producto de f y g y se denota por g ◦ f. Esta aplicaci´on se dice producto de f por el elemento α y se denota por αf.27 y denotando por Y = (yi ) ∈ Mm×1 (IK). BG . A2 son las matrices coordenadas de f. Fm ). evidentemente. Entonces. g. respecto de BE y BF . Si A es la matriz coordenada de f .

V . Teorema 95. . + xn un ∈ E. . Propiedades del rango de una aplicaci´on lineal Teorema 94. dim Kerf + dim Imf = dim E. . Se dice que A es equivalente a B si existen P1 ∈ Mm (IK). tal que X = P X ∗ es la ecuaci´on del cambio de base en E. dos matrices son equivalentes si y s´olo si son matrices coordenadas de una misma aplicaci´on lineal. Matrices equivalentes Definici´ on 91. . An´alogamente ser´a Y ∗ = QY con Q ∈ Mm (IK) regular. u∗2 . u∗n ) y BF∗ = (v1∗ . regulares. . respectivamente. . v2 . Teorema 93. Como ya sabemos. resulta que B = QAP por lo que. Efectivamente. Dos matrices son equivalentes si y s´olo si se puede pasar de una a otra mediante operaciones elementales. tales que A = P1 BP2 . MECANICA 28 CAMBIO DE BASES Seg´ un hemos dicho. . . Por ser BE y BE∗ bases del mismo E . se tendr´a que la expresi´on coordenada de f respecto de estas bases es Y ∗ = BX ∗ con B ∈ Mm×n (IK). Supongamos ahora que se toman dos nuevas bases de los espacios vectoriales En y Fm . vm ) es A = (aij ) ∈ Mm×n (IK). . cualquier otra matriz coordenada de f es de la forma QAP con P y Q matrices regulares. . un ) y BF = (v1 . v2∗ . . Q ∈ Mm (IK). . y = f (x) = y1 v1 + y2 v2 + . Fm ) la aplicaci´on lineal cuya matriz coordenada respecto de las bases BE = (u1 . resulta que QAP es matriz coordenada de f de respecto de BE∗ y BF∗ . . . . + ym vm ∈ F. Y ∗ = QY = Q(AX) = QA(P X ∗ ) = (QAP )X ∗ y. existe una matriz P ∈ Mn (IK). P2 ∈ Mn (IK). se verifica Y = AX. basta tomar en E la base BE∗ tal que la ecuaci´on del cambio sea X = P X ∗ y en F la base BF∗ cuya ecuaci´on de cambio es Y ∗ = QY y entonces. + ym y X ∗ = (x∗i ) ∈ Mn×1 (IK). y de la forma ∗ ∗ vm y escribiendo Y ∗ = (yi∗ ) ∈ Mm×1 (IK) x = x∗1 u∗1 + x∗2 u∗2 + . Teorema 92. . Entonces. Sean A. Seg´ un hemos visto con el cambio de bases. . Sea f ∈ LIK (En . BE∗ = ∗ (u∗1 . . . . Entonces. por la unicidad de la expresi´on coordenada respecto de dos bases dadas. . la matriz QAP es matriz coordenada de f respecto de algunas bases. . |P | 6= 0. . Sea f ∈ LIK (En . En este caso. De lo anterior se deduce que el conjunto formado por todas las matrices coordenadas de f es {QAP | P ∈ Mn (IK). repitiendo el razonamiento anterior. vm ). cada aplicaci´on lineal tiene una u ´nica matriz coordenada respecto de dos bases dadas pero al cambiar las bases de los espacios vectoriales la matriz puede variar. si P ∈ Mn (IK) y Q ∈ Mm (IK) son matrices regulares. En esta secci´on se ver´a la relaci´on existente entre las distintas matrices coordenadas de la misma aplicaci´on lineal. + x∗n u∗n y = y1∗ v1∗ + y2∗ v2∗ + . |Q| 6= 0}. Una vez que hemos visto c´omo son las distintas matrices coordenadas de una misma aplicaci´on. El rango de una aplicaci´ on lineal coincide con el rango por columnas de su matriz coordenada. . siendo x. Fm ). esto significa que para x = x1 u1 + x2 u2 + . B ∈ Mm×n (IK). pasaremos a dar algunas de sus propiedades. u2 .´ Matem´aticas II. . Rec´ıprocamente. regular. Una condici´ on necesaria y suficiente para que dos matrices sean equivalentes es que tengan las mismas dimensiones y el mismo rango.

a2n    x2   (18)   . xn ) en BE es un vector propio de f asociado al valor propio λ. . . Denotamos por End(E) el conjunto de todos los endomorfismos sobre E. . Polinomio caracter´ıstico. Se dice que el elemento λ ∈ IK es un valor propio de f . E. . . respecto de cualquier base. . Si el vector (x1 . . xn ) ∈ IK n es un vector propio de A asociado al valor propio λ. . x2 . un ) de E. cuando convenga el uso de coordenadas fijaremos una base BE de E y tanto las coordenadas del vector x ∈ E como las de su imagen por el endomorfismo f .  = 0  . x2 . .. EQUIVALENCIA DEL PROBLEMA CON ENDOMORFISMOS Y MATRICES Sea f ∈ End(En ). Si el vector de x ∈ E de coordenadas (x1 . . En todo lo que sigue. x2 . De lo anterior se deduce que Proposici´ on 98. . Sea A ∈ Mn (IK). .. y = f (x) ∈ E. . . a1n    a21 a22 − λ . entonces el vector (x1 . . Teniendo en cuenta las equivalencias x ∈ V (λ) ⇔ f (x) = λx ⇔ AX = λX ⇔ AX − λX = 0 ⇔ AX − λIn X = 0 ⇔ (A − λIn )X = 0 ⇔    x1 a11 − λ a12 . xn an1 an2 .. si existe un vector no nulo x ∈ E tal que f (x) = λx. . +. En este caso.. Subespacios fundamentales Sea f ∈ End(En ) y sea A ∈ Mn (IK) su matriz coordenada en BE = (u1 . Endomorfismo sobre E es toda aplicaci´on lineal de E en E. . . . Los valores propios de un endomorfismo coinciden con los valores propios de su matriz coordenada. decimos que x es un vector propio asociado al valor propio λ. . En este caso. decimos que x es un vector propio asociado al valor propio λ. u2 .   . . u2 .Diagonalizaci´ on PRIMERAS DEFINICIONES Sea (E. xn )T ∈ Mn×1 (IK).. Sea f ∈ End(E). entonces el vector de E que tiene en BE coordenadas (x1 . si existe un vector no nulo (x1 . Definici´ on 97. . . ser´an las relativas a esa base.  . . . Proposici´ on 99. ann − λ 29 . x2 . donde X = (x1 . un ) Para cada λ ∈ IK se define V (λ) = {x ∈ E | f (x) = λx}. Definici´ on 96. . Sea f ∈ End(E) el endomorfismo cuya matriz coordenada respecto de BE es A ∈ Mn (IK). . . . . ·IK ) un espacio vectorial de dimensi´on n. . . . Sea A ∈ Mn (IK). . de dimensi´on n y fijamos una base BE = (u1 . . . Todas las matrices coordenadas de un endomorfismo tienen los mismos valores propios. un ) de E y sea A ∈ Mn (IK) la matriz coordenada de f respecto de BE . . . xn ) ∈ IK n tal que AX = λX.. . PROPIEDADES DE VALORES Y VECTORES PROPIOS I Condici´ on Necesaria y Suficiente para que un elemento sea valor propio. . Fijamos una base cualquiera BE = (u1 .. xn ) ∈ IK n es un vector propio de A asociado tambi´en al valor propio λ. . . . . Se dice que el elemento λ ∈ IK es un valor propio de A. Consideramos un espacio vectorial sobre IK. xn ) es un vector propio de f asociado tambi´en al valor propio λ.

Se comprueba trivialmente que la relaci´on definida es una relaci´on binaria de equivalencia l´ogica sobre Mn (IK). existe una matriz P ∈ Mn (IK). En el caso particular en el que la matriz sea diagonal. regular. El cambio de base en endomorfismos es un caso particular del ya visto en Aplicaciones Lineales. Los vectores propios de f asociados al valor propio λ son los vectores no nulos del subespacio V (λ). II Si λ1 6= λ2 ⇒ V (λ1 ) ∩ V (λ2 ) = {0}. tal que X = P X ∗ es la ecuaci´on del cambio de base. de dimensi´on n − rg(A − λIn ). La multiplicidad geom´etrica de un valor propio es siempre ≥ 1. dos matrices son semejantes si y s´olo si son matrices coordenadas de un mismo endomorfismo. Bm son bases de los subespacios fundamentales V (λ1 ). el subespacio V (λ) de E recibe el nombre de subespacio fundamental. Sea BE∗ una nueva base de En . Cuando λ es un valor propio de f. V (λ2 ). CAMBIO DE BASE Sea f ∈ End(En ) y sea A ∈ Mn (IK) su matriz coordenada respecto de la base BE . BF = BE y BF∗ = BE∗ . Teorema 103. . . Entonces. entonces B1 ∪ B2 ∪ . respectivamente. B ∈ Mn (IK). .´ Matem´aticas II. . . + V (λm ). Sean A. los valores propios de un endomorfismo coinciden con los valores propios de cualquiera de sus matrices coordenadas. En consecuencia. . . . λ2 . En cambio. . Adem´as. B2 . . As´ı. Dos matrices semejantes tienen el mismo polinomio caracter´ıstico. Si este subespacio es el nulo. lo que es lo mismo. Si λ es ra´ız del polinomio caracter´ıstico de multiplicidad h se dice que el valor propio de f tiene multiplicidad algebraica h (respecto de BE ) Definici´ on 101. si el subespacio no es el nulo. basta tomar en el caso anterior: F = E. λ1 . el sistema (18) s´olo tiene la soluci´on trivial y λ no es valor propio de f. Definici´ on 100. La dimensi´on de este subespacio se dice multiplicidad geom´etrica de λ. λm . Seg´ un hemos dicho en la secci´on anterior. . . las matrices coordenadas de un mismo endomorfismo tienen los mismos valores propios y con las mismas multiplicidades geom´etricas. III Vectores propios asociados a valores propios diferentes entre s´ı son linealmente independientes. Por tanto. Y ∗ = P −1 Y = P −1 (AX) = P −1 A(P X ∗ ) = (P −1 AP )X ∗ con lo que la matriz coordenada de f respecto de BE∗ es B = P −1 AP. que est´a formado por los vectores de En cuyas coordenadas en BE son soluci´on de (18). el conjunto formado por todas las matrices coordenadas de f es {P −1 AP | P ∈ Mn (IK). V (λm ). es inmediato verificar que los valores propios coinciden con los elementos diagonales. As´ı. MECANICA 30 resulta que V (λ) es un subespacio vectorial. . por ser BE y BE∗ bases del mismo E . Matrices semejantes Definici´ on 102. . Se dice que B es semejante a A si existe P ∈ Mn (IK) regular tal que B = P −1 AP. si y s´olo si |A − λIn | = 0 o. si y s´olo si λ es ra´ız del polinomio |A − xIn | que recibe el nombre de polinomio caracter´ıstico de f (respecto de BE . |P | 6= 0}. es decir. Adem´as.V . correspondientes a valores propios diferentes entre s´ı. . tambi´en coinciden sus multiplicidades geom´etricas. IV Si B1 . . el sistema (18) tiene soluci´on distinta de la trivial y λ s´ı es valor propio de f. con lo que tambi´en ser´a Y = P Y ∗ . ∪ Bm es base de V (λ1 ) + V (λ2 ) + . . el elemento λ ∈ IK es valor propio de f si y s´olo si rg(A − λIn ) < n.

Posteriormente. una matriz cuadrada es diagonalizable si y s´olo si es diagonalizable cualquier endomorfismo que la tenga por matriz coordenada. La base existir´a si el polinomio caracter´ıstico de f tiene en IK n ra´ıces (no necesariamente diferentes) y. La CN y S enunciada mediante el Teorema 111 nos resuelve ambas cuestiones. figura tantas veces como indique su multiplicidad. un endomorfismo es diagonalizable si y s´olo si su matriz coordenada es diagonalizable y. cada uno de ellos. de las definiciones anteriores resulta que f es diagonalizable si y s´olo si alguna de sus matrices coordenadas es diagonal. La multiplicidad geom´etrica de un valor propio nunca supera a la algebraica. Relaci´on entre las multiplicidades Teorema 107. Un endomorfismo tiene los mismos valores propios y con id´enticas multiplicidades (algebraica y geom´etrica) que una cualquiera de sus matrices coordenadas. Teorema 111. es decir. si y s´olo si A es diagonalizable. c´omo obtenerla. Se dice que una matriz A ∈ Mn (IK) es diagonalizable si es semejante a una matriz diagonal. esto es. es f´acil comprobar si estas condiciones se cumplen. coinciden sus multiplicidades. para cada una de ellas.31 Corolario 104. Entonces. Corolario 106. daremos u ´nicamente condiciones de diagonalizaci´on para endomorfismos. ´ DIAGONALIZACION Definici´ on 108. los elementos diagonales ser´an los valores propios de f y. Teorema 110. Corolario 105. si y s´olo si alguna de las matrices semejantes a A es diagonal. Una CN y S para que f sea diagonalizable es que exista una base de E formada por vectores propios de f . Dos matrices semejantes tienen los mismos valores propios con id´enticas multiplicidades. Teorema 112. Definici´ on 109. Dada la equivalencia entre el problema de diagonalizaci´on de matrices y el de endomorfismos. Una condici´ on suficiente para que f sea diagonalizable es que su polinomio caracter´ıstico tenga en IK n ra´ıces simples. se indicar´a lo correspondiente para matrices. Suponiendo que somos capaces de hallar las ra´ıces del polinomio caracter´ıstico. Sea f ∈ End(En ) y sea A ∈ Mn (IK) su matriz coordenada respecto de cierta base de En . En esa base. Se dice que un endomorfismo f ∈ End(En ) es diagonalizable si existe una base de En en la que la matriz coordenada de f es diagonal. tomamos de cada uno de los subespacios fundamentales una base y su uni´on es la base de E formada por vectores propios. an´alogamente. en ese caso. Una CN y S para que f sea diagonalizable es que su polinomio caracter´ıstico tenga en IK n ra´ıces (contando cada una seg´ un su correspondiente multiplicidad) y. coincidan sus multiplicidades algebraica y geom´etrica. Condiciones necesarias y suficientes Sea f ∈ End(En ). La CN y S dada en el Teorema 110 es de escasa utilidad pr´actica pues no nos dice cu´ando existe la base de vectores propios ni. para cada una de ellas. en su caso. El polinomio caracter´ıstico y la multiplicidad algebraica de los valores propios de un endomorfismo no dependen de la base que se considere. . la matriz coordenada de f ser´a diagonal. Es decir.

Entonces. cualquiera de dimensi´on n. regular. Sabemos que A es diagonalizable si y s´olo si lo es f . formada por vectores propios de f . lo habitual es tomar E = IK n y como base la can´onica de este espacio. Se toma un IK–E . si la ecuaci´on del cambio de base en E es X = P X ∗ . En . BE . obtenemos una base de E. Una vez obtenidas las matrices P y D. quedar´a que D = P −1 AP donde. BE∗ . cuya columna i–´esima est´a formada por las coordenadas en BE del i–´esimo vector de BE∗ . MECANICA 32 Diagonalizaci´on de matrices Sea A ∈ Mn (IK). tenemos la matriz diagonal semejante a A y la matriz regular que nos permite el paso de A a D.´ Matem´aticas II. no siendo necesario especificarlo. y se considera el endomorfismo f ∈ End(En ) cuya matriz coordenada respecto de BE sea A. .V . Estudiamos las condiciones de diagonalizaci´on dadas para endomorfismos en la subsecci´on anterior y. se fija una base de En . Respecto de BE∗ la matriz coordenada de f es una diagonal D. recordemos que P es la matriz cuadrada de orden n. Por ello. siendo indiferentes el espacio E y la base BE considerados. si determinamos que f es diagonalizable.

. ∀λ. f (un . A se dice matriz de la forma bilineal f respecto de BE . . . µl vl ) = λk µl f (uk . .Formas bilineales y formas cuadr´ aticas FORMAS BILINEALES Sea En un E .. k=1 l=1 k=1 l=1 Expresi´ on matricial asociada Sea BE = (u1 . ..V . u2 . un ) una base de E. + xn un . Dada la forma cuadr´atica. . + xn un ∈ E se tiene que fc (u) = f (u. . . . µ ∈ IR. µ ∈ IR. . u1 ) f (u2 . h k h X k X X X De la definici´on se sigue que f ( λ k uk . v ∈ E f (λu1 + µu2 . v) . . . le podemos asociar la siguiente aplicaci´on fc de E en IK fc (u) = f (u. ∀u1 . 33 . v2 ) . v ∈ E. Dados u = x1 u1 + . v) = f (v. u) que se dice forma cuadr´atica.    f (u1 . .. su matriz asociada respecto de cualquier base ser´a sim´etrica. u).    . Definici´ on 113. u1 ) f (un . Para u = x1 u1 + . ∀u. . . u2 ) . . Se dice forma bilineal sobre E a toda aplicaci´on de E × E en IR que verifique las propiedades: ∀λ. La forma bilineal f se dice forma polar de la forma cuadr´atica fc . Y = (yi ) ∈ Mn×1 (IR) y A = (f (ui . v1 ) + µf (u. v1 . v) = 1 (fc (u + v) − fc (u) − fc (v)) . . u2 . . . ul ) = (x1 .. . . sobre IR. un ) una base de E y sea A la matriz asociada a f en esta base. un ) y1 n n X  f (u2 . vl ). λv1 + µv2 ) = λf (u. + yn un ∈ E. escribiremos f (u. f (u2 . . f (u1 . u2 ) . la forma polar asociada queda un´ıvocamente determinada por f (u. un )   y2  X    xk yl f (uk . Dada una forma bilineal sim´etrica sobre E. se dice que f es sim´etrica si ∀u. u2 ) . u) = X T AX. v) = λf (u1 . Si f es sim´etrica. .. ´ FORMAS CUADRATICAS Sea f una forma bilineal sobre E. . f (u. v = y1 u1 + ..  k=1 l=1 f (un . un ) yn y denotando por X = (xi ). v) =   . v) + µf (u2 . . xn )  f (u. v2 ∈ E f (u. 2 Sea BE = (u1 .  . . . v) = X T AY. uj )) ∈ Mn (IR). u2 . . u1 ) f (u1 .

. . λp+q < 0. . λp > 0 y λp+1 . . . + λn x2n . . la matriz asociada es la diagonal cuya diagonal principal es (λ1 . 0) con λ1 . este valor se dice rango de la forma cuadr´atica. . existe una matriz P ∈ Mn (IR). 4. . . . . 1. las matrices A. La forma cuadr´atica fc se dice 1. Tomando determinantes resulta |B| = |P |2 |A| y. semidefinida negativa cuando signaturafc = (0. . esto es independiente de la base considerada. −λp+1 . . . . . 2. . . .´ Matem´aticas II. . . . BE∗ = (u∗1 . . . por ser |P | 6= 0. . la expresi´on de la forma cuadr´atica queda fc = λ1 x21 + . MECANICA 34 Si ahora se toma una nueva base de E. . λp . . 1. −1. . 0) por lo que. 3. . 1) resulta que la matriz asociada a la forma cuadr´atica es la diagonal con diagonal principal (1. q) con q < n. considerando el cambio de coordenadas X ∗ = P X. . tal que X = P X ∗ es la ecuaci´on del cambio de base. en cualquier otro caso se dice no definida. Entonces. + λp+q x2p+q = x∗ 21 + . la matriz asociada a fc respecto de la nueva base es B = P T AP ∈ Mn (IR). . n). . Entonces. regular. B para las que existe una matriz regular P verificando que B = P T AP se dicen congruentes. semidefinida positiva cuando signaturafc = (p. definida negativa cuando signaturafc = (0. u∗2 . A y B tienen el mismo rango. u) = X T AX = (P X ∗ )T AP X ∗ = X ∗ T (P T AP )X ∗ . + λp x2p + λp+1 x2p+1 + . . . 0). . + x∗ 2p − x∗ 2p+1 − . . Adem´as. con P la matriz diagonal cuya diagonal principal es p p p p ( λ1 . Seg´ un acabamos de ver. . Cuando el determinante de sus matrices asociadas es 0 la forma cuadr´atica se dice degenerada y en otro caso se dice ordinaria. definida positiva cuando signaturafc = (n. . . por ser P regular. . −1. se dice signatura de la forma cuadr´atica al par (p. . q). . 0. . . − x∗ 2p+q . . . u∗n ). fc (u) = f (u. . Supongamos que. en cierta base de E. as´ı. si |A| = 0 tambi´en ser´a |B| = 0 y si |A| 6= 0 tambi´en |B| 6= 0. . . . λp+1 . . 0. . 0) con p < n. . λp+q . . . . Si denotamos por p el n´ umero de elementos λi que son positivos y por q el n´ umero de ellos que son negativos. . λp . . La expresi´on asociada cuando la matriz es diagonal ser´a del tipo fc (u) = λ1 x21 + λ2 x22 + . ´ DE FORMAS CUADRATICAS ´ DIAGONALIZACION Diagonalizar una forma cuadr´atica consiste en encontrar una base en la que la matriz asociada sea diagonal. −λp+q .

√ ) 3 3 3 Los otros dos vectores. De (4) se sigue que ¾ (−y − z)2 + y 2 + z 2 = 1 √1 (−y − z) + √1 y + √1 z = 0 3 3 3 y siendo la segunda expresi´on una identidad. 0 0 2 por tanto de la forma (x. x. la matriz diagonal estar´a formada por los valores propios de A. Por las condiciones (4) se sabe que deber´an cumplir x2 + x2 + x2 = 1 con lo que x2 = 1/3. es decir. Vamos a fijar el primero de esos vectores.35 esta expresi´on se dice ecuaci´ on reducida. Si tomamos. y. x = √13 se obtiene 1 1 1 u1 = ( √ . el vector de la forma (−y − z. 1 1 3 Se obtienen los valores propios de A y los subespacios fundamentales. con un ejemplo. y sus coordenadas nos proporcionar´an la primera columna de P. µ ¶ −2 1 1 0 1 1 −2 0 Vλ=5 (A − 5I3 )X = 0  1 −2 1 0  x1 = x2 = x3 0 1 −1 0 1 −2  0  1 1 1 1 0 ¡ ¢ Vλ=2 (A − 2I3 )X = 0  1 1 1 0  1 1 1 0 x1 = −x2 − x3 0 1 1 1   5 0 0 Si tomamos la matriz diagonal D =  0 2 0  . existe una matriz regular P tal que P −1 AP es diagonal. cuyas coordenadas nos proporcionar´an la segunda columna de P. √ ). Sea fc la forma cuadr´atica sobre IR3 cuya matriz asociada respecto de la base can´onica es   3 1 1 A =  1 3 1 . Vamos a ver. El polinomio caracter´ıstico es |A − xI3 | = −x3 + 9x2  − 24x + 20 = −(x −2)2 (x − 5). √ . ser´an de V2 . el primer vector de la base deber´a ser de V5 . y = 0 se obtiene z 2 = 1 2 y podemos tomar z = 1 1 u2 = (− √ . tales que P T AP = D. c´omo se pueden obtener matrices. y. 0. Nuestro cambio ahora tiene que ser de la forma P T AP por lo que tendremos el problema resuelto si conseguimos que P sea ortogonal. En este caso. que las columnas de P verifiquen las condiciones (4). z). si A es diagonalizable. por ejemplo. por ejemplo. 2 2 Para la tercera columna. P ortogonal y D diagonal. el sistema queda reducido a la condici´on 2yz + 2y 2 + 2z 2 = 1 en la que si tomamos. z) debe verificar  (−y − z)2 + y 2 + z 2 = 1  √1 (−y − z) + √1 y + √1 z = 0 3 3 3  − √12 (−y − z) + √12 z = 0 √1 2 con lo que . por tanto de la forma (−y − z. x). Diagonalizaci´ on ortogonal Toda matriz sim´etrica sobre IR puede diagonalizarse y sabemos que.

Se trata de escribir esta expresi´on como sumas o diferencias de cuadrados. As´ı pues. i 6= j. . . agrupamos ahora todos los t´erminos en los que aparece y. agruparemos en un primer cuadrado todos los t´erminos en los que aparece x x2 + 2xy + 2xz = (x + y + z)2 − y 2 − z 2 − 2yz con lo que fc ((x. MECANICA 36 de estas condiciones. podemos tomar z = √1 6 con lo que y = −2 √ . z)) = (x + y + z)2 − y 2 − z 2 − 2yz + 2y 2 + 6yz + 5z 2 = (x + y + z)2 + y 2 + 4yz + 4z 2 procediendo del mismo modo. Las condiciones dadas en (4) sobre el producto de elementos de dos columnas distintas. Es decir. . y. . y. j = 1. z)) = x2 + 2xy + 2xz + 2y 2 + 6yz + 5z 2 . Para ello. para las columnas de P . exceptuando el que ya hemos arreglado como un cuadrado. k=1 se reducen a una identidad cuando esas columnas corresponden a vectores de distintos subespacios fundamentales. 3 5 con lo que fc ((x. Por el modo en el que hemos resuelto el problema. 6 x = −y − z = √1 6 y 1 −2 1 u3 = ( √ . no es necesario plantearlas. ∀i. aunque aqu´ı las hemos escrito. pudiendo elegir el orden de aparici´on de los elementos en la diagonal de D as´ı como distintas bases de los subespacios fundamentales. y 2 + 4yz = (y + 2z)2 − 4z 2 . para fijar los vectores de cada subespacio fundamental no es necesario tener en cuenta los vectores que corresponden a otros subespacios fundamentales. n. n X pki pkj = 0. la segunda es una identidad. Por lo que resulta ¾ ¾ 1 2y 2 + 2z 2 + 2yz = 1 y = −2z z2 = y + 2z = 0 8z 2 + 2z 2 − 4z 2 = 1 6 as´ı.´ Matem´aticas II. √ √ √  1/√3 −1/ 2 1/√6 P =  1/√3 0√ −2/√6  1/ 3 1/ 2 1/ 6  y P T AP = D. √ . 6 6 6 As´ı. √ ). Diagonalizaci´ on completando cuadrados Sea fc la forma cuadr´atica sobre IR3 cuya matriz  1  1 A= 1 asociada respecto de la base can´onica es  1 1 2 3 . queda claro que no hay unicidad.

y. el primero para introducir cuadrados  en la expresi´on y el otro similar al realizado en el x = x¯ + y¯  ejemplo anterior.  ∗ ∗ 0 0 1 z z z =z fc ((x. z)) = (x∗ )2 + (y ∗ )2 y. y. z)) = (x + y + z)2 + (y + 2z)2 + 0z 2     ∗   x x∗ = x + y + z  x 1 1 1 ∗ ∗      y  resulta que 0 1 2 y = Entonces. z)) = (x + y + z)2 + (y + 2z)2 − 4z 2 + 4z 2 = (x + y + z)2 + (y + 2z)2 o lo que es lo mismo fc ((x. y. la matriz asociada debe tener nulos todos sus elementos diagonales   0 1 1 A =  1 0 1 . y. Vamos a considerar una forma cuadr´atica sobre IR3 en cuya expresi´on no aparece ning´ un t´ermino de segundo grado. Para ello. fc ((x. z)) = 2(¯ x + y¯)(¯ x − y¯) + 2(¯ x + y¯)¯ z+  z = z¯ √ 2 2 x + √22 z¯)2 − 2¯ z 2 − 2¯ y2 2(¯ x − y¯)¯ z = 2¯ x − 2¯ y + 2¯ xz¯ + 2¯ y z¯ + 2¯ xz¯ − 2¯ y z¯ = 2¯ x2 + 4¯ xz¯ − 2¯ y 2 = ( 2¯ √ √  x¯ = √ 2¯ x + 2¯ z  con lo que escribiendo y¯ = √2¯ queda y  ¯ z = 2¯ z fc ((x¯. Es obvio que la matriz obtenida ahora no es ortogonal. y¯. es decir. y. z)) = 2xy + 2xz + 2yz para escribir esta expresi´on como sumas o diferencias de cuadrados. en esa base. as´ı calculamos P = Q obteniendo   1 −1 1 1 −2  P = 0 0 0 1 que es la matriz regular tal que P T AP = B. haremos dos cambios de variable.37 y as´ı. z¯)) = x¯2 − y¯2 − z¯2 ¯ yX ¯ = RX ¯ con lo que Los cambios de variable han sido X = QX ¯ ¯ = QR−1 X X = QX . 0 0 0  El cambio de base que se ha hecho es X ∗ = QX y seg´ un hemos visto antes necesitamos el cambio −1 inverso. Escribiendo y = x¯ − y¯ resulta fc ((x. 1 1 0 con lo que fc ((x. la matriz asociada es  1 0 0 B =  0 1 0 . escribiendo y = y + 2z .

´ Matem´aticas II. MECANICA 38 con lo que √ −1  √   √  √ 2 √0 2 1/ 2 0√ −1/ 2 1 1 0 1 1 0 P =  1 −1 0   0 2 √0  =  1 −1 0   0 1/ 2 0√  = 0 0 1 0 0 1 0 0 2 0 0 1/ 2  √ √ √  1/√2 1/√2 −1/√2  1/ 2 −1/ 2 −1/ 2  √ 0 0 1/ 2   1 0 0 0 . y P T AP =  0 −1 0 0 −1  .